• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 109
  • 24
  • 1
  • 1
  • Tagged with
  • 424
  • 205
  • 98
  • 42
  • 39
  • 38
  • 38
  • 37
  • 36
  • 35
  • 32
  • 31
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Formation dynamique d'équipes dans les DEC-POMDPS ouverts à base de méthodes Monte-Carlo / Dynamic team formation in open DEC-POMDPs with Monte-Carlo methods

Cohen, Jonathan 13 June 2019 (has links)
Cette thèse traite du problème où une équipe d'agents coopératifs et autonomes, évoluant dans un environnement stochastique partiellement observable, et œuvrant à la résolution d'une tâche complexe, doit modifier dynamiquement sa composition durant l'exécution de la tâche afin de s'adapter à l'évolution de celle-ci. Il s'agit d'un problème qui n'a été que peu étudié dans le domaine de la planification multi-agents. Pourtant, il existe de nombreuses situations où l'équipe d'agent mobilisée est amenée à changer au fil de l'exécution de la tâche.Nous nous intéressons plus particulièrement au cas où les agents peuvent décider d'eux-même de quitter ou de rejoindre l'équipe opérationnelle. Certaines fois, utiliser peu d'agents peut être bénéfique si les coûts induits par l'utilisation des agents sont trop prohibitifs. Inversement, il peut parfois être utile de faire appel à plus d'agents si la situation empire et que les compétences de certains agents se révèlent être de précieux atouts.Afin de proposer un modèle de décision qui permette de représenter ces situations, nous nous basons sur les processus décisionnels de Markov décentralisés et partiellement observables, un modèle standard utilisé dans le cadre de la planification multi-agents sous incertitude. Nous étendons ce modèle afin de permettre aux agents d'entrer et sortir du système. On parle alors de système ouvert. Nous présentons également deux algorithmes de résolution basés sur les populaires méthodes de recherche arborescente Monte-Carlo. Le premier de ces algorithmes nous permet de construire des politiques jointes séparables via des calculs de meilleures réponses successives, tandis que le second construit des politiques jointes non séparables en évaluant les équipes dans chaque situation via un système de classement Elo. Nous évaluons nos méthodes sur de nouveaux jeux de tests qui permettent de mettre en lumière les caractéristiques des systèmes ouverts. / This thesis addresses the problem where a team of cooperative and autonomous agents, working in a stochastic and partially observable environment towards solving a complex task, needs toe dynamically modify its structure during the process execution, so as to adapt to the evolution of the task. It is a problem that has been seldom studied in the field of multi-agent planning. However, there are many situations where the team of agents is likely to evolve over time.We are particularly interested in the case where the agents can decide for themselves to leave or join the operational team. Sometimes, using few agents can be for the greater good. Conversely, it can sometimes be useful to call on more agents if the situation gets worse and the skills of some agents turn out to be valuable assets.In order to propose a decision model that can represent those situations, we base upon the decentralized and partially observable Markov decision processes, the standard model for planning under uncertainty in decentralized multi-agent settings. We extend this model to allow agents to enter and exit the system. This is what is called agent openness. We then present two planning algorithms based on the popular Monte-Carlo Tree Search methods. The first algorithm builds separable joint policies by computing series of best responses individual policies, while the second algorithm builds non-separable joint policies by ranking the teams in each situation via an Elo rating system. We evaluate our methods on new benchmarks that allow to highlight some interesting features of open systems.
122

Experimental and theoretical simulations of Titan's VUV photochemistry / Simulations expérimentales et théoriques de la photochimie VUV de Titan

Peng, Zhe 23 September 2013 (has links)
La photochimie de Titan amorcée par rayonnements VUV est étudiée par la simulation en laboratoire et la modélisation numérique.Dans les simulations en laboratoire, nous avons irradié un _ux de gaz de N2/CH4 (90/10)par un faisceau synchrotron VUV continu (60-350 nm) dans un nouveau réacteur, nommé APSIS (Atmospheric Photochemistry SImulated by Synchrotron). La production d'hydrocarbures C2-C4 ainsi que de plusieurs nitriles est détectée par la spectrométrie de masse in situ et GC-MS ex situ d'un piège cryogénique. Notre stratégie de modélisation comprend le traitement des paramètres incertains. Nous proposons des représentations séparées des sections efficaces et des rapports de branchement incertains de photolyse. Cela permet de développer un modèle dépendant de la longueur d'onde pour les rapports de branchement. Grâce à cette séparation, dans la modélisation de l'atmosphère de Titan, nous observons lesaltitudes spécifiques où l'incertitude sur les constantes de vitesse de photolyse disparaît. Nous montrons que les rapports de branchement de la photolyse du méthane de Wang et al. (2000) et l'hypothèse 100% CH3 pour ceux hors Ly-α, couramment utilisés, doivent être évités dans les modèles photochimiques de Titan.Nous avons dévéloppé un modèle ion-neutre couplé pour les expériences APSIS. Par ce modèle, nous trouvons que la chimie des ions et, en particulier, la recombinaison dissociative sont très importants. Nous avons identifié trois familles de croissance, dont la plus insaturée, promue par C2H2, est prédominante. Ceci est en bon accord avec la production des espèces insaturées dans la haute atmosphère de Titan détectée par le Cassini INMS, mais pas avec les spectres de masse in situ dans les expériences APSIS et celles d'Imanaka and Smith (2010), dont les productions d'espèces saturées sont nettement plus élevées et probablement dues à catalyse par les parois métalliques des réacteurs. / Titan's VUV photochemistry is studied by laboratory simulation and numerical modeling.In the laboratory simulations, a gas flow of N2/CH4 (90/10) was irradiated by a continuousVUV (60-350 nm) synchrotron beam in a new reactor, named APSIS (Atmospheric Photochemistry SImulated by Synchrotron). The production of C2-C4 hydrocarbons as well as several nitriles is detected by in situ mass spectrometry and ex situ GC-MS of a cryogenic experiment.Our modeling strategy includes the treatment of uncertain parameters. We propose separaterepresentations of the uncertain photolysis cross-sections and branching ratios. This enables to develop a wavelength-dependent model for the branching ratios.Owing to this separation, in the modeling of Titan's atmosphere, we observe specific altitudes where the uncertainty on the photolysis rate constants vanishes. We show that the Ly-α methane photolysis branching ratios of Wang et al. (2000) and the commonly used 100% CH3 hypothesis for out-of-Ly-α ones should be avoided in Titan's photochemical models. A new ion-neutral coupled model was developed for the APSIS experiments. By this model, ion chemistry and in particular dissociative recombination are found to be very important. We identifed three growth families, of which the most unsaturated one, promoted by C2H2, is dominant. This agrees well with the unsaturated production in Titan's upper atmosphere observed by the Cassini INMS, but not with the in situ MS in the APSIS and Imanaka and Smith (2010)'s experiments, whose saturated productions are substantially higher and likely to originate from the catalysis by metallic walls of the reactors.
123

Des évidences à l'incertitude : interroger les liens thérapeutiques entre familles et équipe soignante au programme de transplantation du foie de l'Hôpital Sainte-Justine

Gauthier, Annie January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
124

Conception, modélisation et étalonnage d'un shunt pour la mesure de courant à 10 A et 1 MHz / Design, modeling and calibration of a shunt for current measurement at 10 A and 1 MHz

Ouameur, Mohamed 18 January 2019 (has links)
Mesurer des forts courants alternatifs sur une large bande de fréquences est primordial pour de nombreuses applications dont la surveillance du réseau de distribution électrique et le développement des véhicules électriques. Dans le premier cas, la mesure du courant est nécessaire pour quantifier la qualité du réseau en présence d’harmoniques provenant des énergies renouvelables intermittentes dont le spectre en fréquences est assez large (plusieurs centaines de kilohertz). Dans le second cas, la mesure du courant (jusqu’à plusieurs dizaines d’ampères) intervient dans la quantification du rendement de la chaîne de traction d’un moteur électrique : dans la mesure du courant la prise en compte d’un grand nombre d’harmoniques (jusqu’à 1 MHz) est indispensable pour garantir une connaissance précise du rendement du moteur. Des résistances de faibles valeurs, appelées « shunt », sont alors indispensables pour mesurer des forts courants. Les shunts sont largement utilisés comme étalon de résistance dans les laboratoires de métrologie et les instruments de précision. Leur utilisation nécessite la connaissance préliminaire en fonction de la fréquence des deux paramètres suivants : déphasage de l’impédance du shunt ; variation relative du module de l’impédance du shunt par rapport à la sa valeur de sa résistance en courant continu, ce paramètre est appelé “écart de transposition”. Pour un niveau de courant de 10 A, l’impédance des shunts existants présente de fortes variations en module et phase pour les fréquences supérieures à 100 kHz. De plus, actuellement dans les laboratoires nationaux de métrologie, pour étalonner les shunts au-delà de 1 A les méthodes de mesure utilisées sont d’une part limitées en module à 100 kHz et en phase à 200 kHz et d’autre part elles donnent accès uniquement à un des deux paramètres : module ou phase de l’impédance du shunt. Ce travail de thèse a pour objectif d’étendre jusqu’à 10 A et 1 MHz les possibilités d’étalonnage des capteurs de forts courant et d’améliorer ainsi la traçabilité des mesures en courant alternatif. Nous avons dans un premier temps développé un shunt étalon de 10 A dont la réponse électromagnétique (jusqu’à 10 MHz) et la réponse thermique sont entièrement calculables : à 1 MHz le déphasage et l’écart de transposition sont respectivement de -0,01 mrad et 15 ppm. Dans un second temps, nous avons mis au point une méthode d'étalonnage traçable permettant de mesurer les shunts jusqu’à 10 MHz. La méthode de mesure, basée sur l'utilisation d'un analyseur de réseau vectoriel, permet de mesurer simultanément l’écart de transposition et la phase de l'impédance d'un shunt avec des incertitudes relatives inférieures à 1.10⁻³ à 1 MHz. / Measuring high alternating currents over a wide frequency bandwidth is essential for many applications including the monitoring of the electrical distribution network and the development of electric vehicles. In the first case, current measurement is necessary to quantify the quality of the grid in the presence of harmonics from intermittent renewable energies with a large frequency spectrum (several hundred kilohertz). In the second case, current measurement (up to several tens of amperes) is used to quantify the efficiency of an electric motor's traction chain: in current measurement, it is essential to take into account a large number of harmonics (up to 1 MHz) to ensure an accurate knowledge of the motor's efficiency. Resistors of low values, called "shunt", are then mandatory to measure high currents. Shunts are widely used as a resistance standard in metrology laboratories and precision instruments. Their use requires the preliminary knowledge of the following two parameters according to the frequency: Impedance phase shift; relative variation of the impedance magnitude according to its DC resistance value, this parameter is called “AC-DC difference”. For a current level of 10 A, the impedance of existing shunts shows strong variations in magnitude and phase for frequencies above 100 kHz. In addition, in National Metrology Institutes, to calibrate shunts beyond 1 A the measurement methods currently used are limited in magnitude up to 100 kHz and phase up to 200 kHz; and provide access to only one of the two parameters: magnitude or phase of impedance. The aim of this thesis is to extend the calibration capabilities of high current sensors up to 10 A and 1 MHz and thus improve the traceability of AC current measurements. Firstly, we developed a 10 A shunt standard whose electromagnetic (up to 10 MHz) and thermal responses are fully calculable: at 1 MHz the phase shift and transposition deviation are -0.01 mrad and 15 ppm respectively. Secondly, we developed a traceable calibration method to measure shunts up to 10 MHz. The measurement method, based on the use of a vector network analyzer, allows the AC-DC deviation and impedance phase of a shunt to be measured simultaneously with relative uncertainties less than 1.10⁻³ at 1 MHz.
125

L'éducation aux sciences dans un monde incertain : comment les enseignantes appréhendent-elles les incertitudes de la question vive de la transition agroécologique ? : étude de cas auprès d'enseignantes de l'éducation nationale et de l'enseignement agricole en contextes de formation / Science education in an uncertain world : how do the teachers grasp the uncertainties of the acute question of the agroecological transition? : case study with general education and agricultural education teachers in a training context

Nédélec, Lucas 11 July 2018 (has links)
Nous vivons à l’ère des incertitudes. Au débat épistémologique de la certitude scientifique s’agrègent des incertitudes sociales, politiques, informationnelles qui structurent les controverses dans l’espace social. À l’école, l’enseignement des questions socialement vives (énergie nucléaire, OGM, etc) matérialise ces incertitudes. Comment les indéterminations rencontrées par les enseignantes de sciences reconfigurent leur rapport aux savoirs en jeu dans la controverse et l’idée qu’elles se font de la manière d’enseigner ? J’ai mené mon enquête au sein de deux systèmes éducatifs, l’éducation nationale (enseignantes de SVT) et l’enseignement agricole (enseignantes de différentes disciplines), autour de la question vive de la transition agroécologique. De manière générale, les questions socialement vives placent les enseignantes en insécurité épistémique. Les questions vives les amènent à construire leur point de vue sur le sujet pendant la phase de préparation de cours, voire pendant l’enseignement. Cela implique une reconfiguration de leur posture professionnelle que certaines acceptent, faisant le deuil de la volonté d’exhaustivité épistémique, d’autres ne l’acceptant pas et cherchant à renforcer leur position quant à la maîtrise du savoir. Mon observation des situations de formation – autour de la cartographie de controverse ou de la construction collective d’un scénario pédagogique – montre que certains dispositifs de la démarche d’enquête socio-scientifique permettent d’explorer la complexité de la question. À l’image des scénarios du futur, de véritables outils restent toutefois à concevoir, en complémentarité avec une réelle formation épistémologique et médiatique des enseignantes de sciences et une reconsidération du principe de neutralité. Ce sont là les conditions d’existence d’une éducation aux incertitudes qui puisse donner aux citoyennes les ressources pour se réapproprier des futurs dont la justesse socio-politique serait le véritable horizon. / Appear by now some social, political, informational uncertainties that structure the dynamic of the controversies in the social space. Within classroom, the teaching of socially acute questions (as nuclear energy, GMOs, animal welfare, etc) provides the opportunity to work on these uncertainties. How do the uncertainties encountered by science teachers reconfigure their relation to the knowledge involved in the controversy and the representation they have about science teaching? I investigated in two educational systems, general education (biology teachers) and agricultural education (teachers from different disciplines) around the acute question of agroecological transition. Overall, socially acute questions expose the teachers to epistemic insecurity. Intrinsically, these questions lead them to construct their point of view on the subject during the course preparation or potentially during the teaching activity. It implies a reconfiguration of their professional posture that some of them accept, mourning epistemic completeness, and that others don’t accept, looking for strengthening their position concerning knowledge mastering. My observation of professional training situations – around mapping controversies or developing a pedagogical scenario – shows that some devices of socio-scientific inquiry allow an exploration of the question’s complexity. However, efficient tools have still to be thought or adapted, as scenarios of the future, in complement with a real epistemological and informational training of science teachers. These are the living conditions of an uncertainty education that would give to the citizens resources for a reappropriation of their futures and, finally, create opportunities whose socio-political relevance is the proper horizon.
126

Une approche de détection d'outliers en présence de l'incertitude / An outlier detection approach in the presence of uncertainty

Hacini, Akram 06 December 2018 (has links)
Un des aspects de complexité des nouvelles données, issues des différents systèmes de traitement,sont l’imprécision, l’incertitude, et l’incomplétude. Ces aspects ont aggravés la multiplicité etdissémination des sources productrices de données, qu’on observe facilement dans les systèmesde contrôle et de monitoring. Si les outils de la fouille de données sont devenus assez performants avec des données dont on dispose de connaissances a priori fiables, ils ne peuvent pas êtreappliqués aux données où les connaissances elles mêmes peuvent être entachées d’incertitude etd’imprécision. De ce fait, de nouvelles approches qui prennent en compte cet aspect vont certainement améliorer les performances des systèmes de fouille de données, dont la détection desoutliers, objet de notre recherche dans le cadre de cette thèse. Cette thèse s’inscrit dans cette optique, à savoir la proposition d’une nouvelle méthode pourla détection d’outliers dans les données incertaines et/ou imprécises. En effet, l’imprécision etl’incertitude des expertises relatives aux données d’apprentissage, est un aspect de complexitédes données. Pour pallier à ce problème particulier d’imprécision et d’incertitude des donnéesexpertisées, nous avons combinés des techniques issues de l’apprentissage automatique, et plusparticulièrement le clustering, et des techniques issues de la logique floue, en particulier les ensembles flous, et ce, pour pouvoir projeter de nouvelles observations, sur les clusters des donnéesd’apprentissage, et après seuillage, pouvoir définir les observations à considérer comme aberrantes(outliers) dans le jeu de données considéré.Concrètement, en utilisant les tables de décision ambigües (TDA), nous sommes partis des indices d’ambigüité des données d’apprentissage pour calculer les indices d’ambigüités des nouvellesobservations (données de test), et ce en faisant recours à l’inférence floue. Après un clustering del’ensemble des indices d’ambigüité, une opération α-coupe, nous a permis de définir une frontièrede décision au sein des clusters, et qui a été utilisée à son tour pour catégoriser les observations,en normales (inliers) ou aberrantes (outliers). La force de la méthode proposée réside dans sonpouvoir à traiter avec des données d’apprentissage imprécises et/ou incertaines en utilisant uniquement les indices d’ambigüité, palliant ainsi aux différents problèmes d’incomplétude des jeuxde données. Les métriques de faux positifs et de rappel, nous ont permis d’une part d’évaluer lesperformances de notre méthode, et aussi de la paramétrer selon les choix de l’utilisateur. / One of the complexity aspects of the new data produced by the different processing systems is the inaccuracy, the uncertainty, and the incompleteness. These aspects are aggravated by the multiplicity and the dissemination of data-generating sources, that can be easily observed within various control and monitoring systems. While the tools of data mining have become fairly efficient with data that have reliable prior knowledge, they cannot be applied to data where the knowledge itself may be tainted with uncertainty and inaccuracy. As a result, new approaches that take into account this aspect will certainly improve the performance of data mining systems, including the detection of outliers,which is the subject of our research in this thesis.This thesis deals therefore with a particular aspect of uncertainty and accuracy, namely the proposal of a new method to detect outliers in uncertain and / or inaccurate data. Indeed, the inaccuracy of the expertise related to the learning data, is an aspect of complexity. To overcome this particular problem of inaccuracy and uncertainty of the expertise data, we have combined techniques resulting from machine learning, especially clustering, and techniques derived from fuzzy logic, especially fuzzy sets. So we will be able to project the new observations, on the clusters of the learning data, and after thresholding, defining the observations to consider as aberrant (outliers) in the considered dataset.Specifically, using ambiguous decision tables (ADTs), we proceeded from the ambiguity indices of the learning data to compute the ambiguity indices of the new observations (test data), using the Fuzzy Inference. After clustering, the set of ambiguity indices, an α-cut operation allowed us to define a decision boundary within the clusters, which was used in turn to categorize the observations as normal (inliers ) or aberrant (outliers). The strength of the proposed method lies in its ability to deal with inaccurate and / or uncertain learning data using only the indices of ambiguity, thus overcoming the various problems of incompleteness of the datasets. The metrics of false positives and recall, allowed us on one hand to evaluate the performances of our method, and also to parameterize it according to the choices of the user.
127

Querying big RDF data : semantic heterogeneity and rule-based inconsistency / Interrogation de gros volumes données : hétérogénéité sémantique et incohérence à la base des règles

Huang, Xin 30 November 2016 (has links)
Le Web sémantique est la vision de la prochaine génération de Web proposé par Tim Berners-Lee en 2001. Avec le développement rapide des technologies du Web sémantique, de grandes quantités de données RDF existent déjà sous forme de données ouvertes et liées et ne cessent d'augmenter très rapidement. Les outils traditionnels d'interrogation et de raisonnement sur les données du Web sémantique sont conçus pour fonctionner dans un environnement centralisé. A ce titre, les algorithmes de calcul traditionnels vont inévitablement rencontrer des problèmes de performances et des limitations de mémoire. De gros volumes de données hétérogènes sont collectés à partir de différentes sources de données par différentes organisations. Ces sources de données présentent souvent des divergences et des incertitudes dont la détection et la résolution sont rendues encore plus difficiles dans le big data. Mes travaux de recherche présentent des approches et algorithmes pour une meilleure exploitation de données dans le contexte big data et du web sémantique. Nous avons tout d'abord développé une approche de résolution des identités (Entity Resolution) avec des algorithmes d'inférence et d'un mécanisme de liaison lorsque la même entité est fournie dans plusieurs ressources RDF décrite avec différentes sémantiques et identifiants de ressources URI. Nous avons également développé un moteur de réécriture de requêtes SPARQL basé le modèle MapReduce pour inférer les données implicites décrites intentionnellement par des règles d'inférence lors de l'évaluation de la requête. L'approche de réécriture traitent également de la fermeture transitive et règles cycliques pour la prise en compte de langages de règles plus riches comme RDFS et OWL. Plusieurs optimisations ont été proposées pour améliorer l'efficacité des algorithmes visant à réduire le nombre de jobs MapReduce. La deuxième contribution concerne le traitement d'incohérence dans le big data. Nous étendons l'approche présentée dans la première contribution en tenant compte des incohérences dans les données. Cela comprend : (1) La détection d'incohérence à base de règles évaluées par le moteur de réécriture de requêtes que nous avons développé; (2) L'évaluation de requêtes permettant de calculer des résultats cohérentes selon une des trois sémantiques définies à cet effet. La troisième contribution concerne le raisonnement et l'interrogation sur la grande quantité données RDF incertaines. Nous proposons une approche basée sur MapReduce pour effectuer l'inférence de nouvelles données en présence d'incertitude. Nous proposons un algorithme d'évaluation de requêtes sur de grandes quantités de données RDF probabilistes pour le calcul et l'estimation des probabilités des résultats. / Semantic Web is the vision of next generation of Web proposed by Tim Berners-Lee in 2001. Indeed, with the rapid development of Semantic Web technologies, large-scale RDF data already exist as linked open data, and their number is growing rapidly. Traditional Semantic Web querying and reasoning tools are designed to run in stand-alone environment. Therefor, Processing large-scale bulk data computation using traditional solutions will result in bottlenecks of memory space and computational performance inevitably. Large volumes of heterogeneous data are collected from different data sources by different organizations. In this context, different sources always exist inconsistencies and uncertainties which are difficult to identify and evaluate. To solve these challenges of Semantic Web, the main research contents and innovative approaches are proposed as follows. For these purposes, we firstly developed an inference based semantic entity resolution approach and linking mechanism when the same entity is provided in multiple RDF resources described using different semantics and URIs identifiers. We also developed a MapReduce based rewriting engine for Sparql query over big RDF data to handle the implicit data described intentionally by inference rules during query evaluation. The rewriting approach also deal with the transitive closure and cyclic rules to provide a rich inference language as RDFS and OWL. The second contribution concerns the distributed inconsistency processing. We extend the approach presented in first contribution by taking into account inconsistency in the data. This includes: (1)Rules based inconsistency detection with the help of our query rewriting engine; (2)Consistent query evaluation in three different semantics. The third contribution concerns the reasoning and querying over large-scale uncertain RDF data. We propose an MapReduce based approach to deal with large-scale reasoning with uncertainty. Unlike possible worlds semantic, we propose an algorithm for generating intensional Sparql query plan over probabilistic RDF graph for computing the probabilities of results within the query.
128

Tirer parti de la structure des données incertaines / Leveraging the structure of uncertain data

Amarilli, Antoine 14 March 2016 (has links)
La gestion des données incertaines peut devenir infaisable, dans le cas des bases de données probabilistes, ou même indécidable, dans le cas du raisonnement en monde ouvert sous des contraintes logiques. Cette thèse étudie comment pallier ces problèmes en limitant la structure des données incertaines et des règles. La première contribution présentée s'intéresse aux conditions qui permettent d'assurer la faisabilité de l'évaluation de requêtes et du calcul de lignage sur les instances relationnelles probabilistes. Nous montrons que ces tâches sont faisables, pour diverses représentations de la provenance et des probabilités, quand la largeur d'arbre des instances est bornée. Réciproquement, sous des hypothèses faibles, nous pouvons montrer leur infaisabilité pour toute autre condition imposée sur les instances. La seconde contribution concerne l'évaluation de requêtes sur des données incomplètes et sous des contraintes logiques, sous l'hypothèse de finitude généralement supposée en théorie des bases de données. Nous montrons la décidabilité de cette tâche pour les dépendances d'inclusion unaires et les dépendances fonctionnelles. Ceci constitue le premier résultat positif, sous l'hypothèse de la finitude, pour la réponse aux requêtes en monde ouvert avec un langage d'arité arbitraire qui propose à la fois des contraintes d'intégrité référentielle et des contraintes de cardinalité. / The management of data uncertainty can lead to intractability, in the case of probabilistic databases, or even undecidability, in the case of open-world reasoning under logical rules. My thesis studies how to mitigate these problems by restricting the structure of uncertain data and rules. My first contribution investigates conditions on probabilistic relational instances that ensure the tractability of query evaluation and lineage computation. I show that these tasks are tractable when we bound the treewidth of instances, for various probabilistic frameworks and provenance representations. Conversely, I show intractability under mild assumptions for any other condition on instances. The second contribution concerns query evaluation on incomplete data under logical rules, and under the finiteness assumption usually made in database theory. I show that this task is decidable for unary inclusion dependencies and functional dependencies. This establishes the first positive result for finite open-world query answering on an arbitrary-arity language featuring both referential constraints and number restrictions.
129

Managing Complexity and Uncertainty by a Modelling Approach for Decision Making in Integrated Product/Process Design / Maitrise de la complexité et incertitude pour l'aide à la décision en conception intégrée produit processus par des approches de modélisations

Babaeizadeh malmiry, Roozbeh 10 October 2016 (has links)
L'objectif principal lors de la conception et du développement de produits est d'augmenter la valeur de ceux-ci. La Valeur comprend deux aspects : la qualité et le coût. Afin de prendre en compte ces deux aspects, cette thèse se focalise sur la conception intégrée des produits et des processus, et en particulier sur la complexité du processus de conception et les incertitudes associées. Cette thèse propose une approche de modélisation systématique pour maitriser les incertitudes et gérer la complexité. Cette approche comprend deux phases: détermination du modèle et analyse du système. La première phase contient deux propositions : une approche de modélisation de produits basée sur la modélisation des flux d'énergie dans le cadre méthodologique Characteristics-Properties Modelling (CPM). Cette approche donne un cadre qui permet de facilité la transition d’une vue fonctionnelle à une vue structurelle associée à une modélisation quantitative. La seconde proposition porte sur l’aide du concepteur lors de la conception concurrente (IPPD) où à la fois les performances et les coûts sont pris en compte. Cette approche est basée sur le flux du processus en respectant le même cadre (CPM), elle donne aussi un cadre pour la transition fonctionnelle / structurelle. Les modélisations structurelles quantitatives permettent l’analyse de sensibilité, l’analyse des tolérances et l'optimisation. L’application de l'approche est démontrée par une étude de cas industriel.Grâce à cette approche, les caractéristiques modifiables et pertinentes du produit peuvent être déterminées. Le tolérancement peut être intégré dans le processus de conception et son impact sur la performance du produit peut être analysé. Les relations quantitatives du produit, du processus sont identifiées. Les incertitudes dans les relations et dans toutes les étapes de la modélisation peuvent être élicitées et maitrisées. Cette approche systématique donne un cadre pour le concepteur à travers le processus de conception pour prendre des décisions dans tous les niveaux de décomposition sur la base de la fonction requise et le coût de fabrication. L'approche est applicable tant pour la modélisation d'un produit existant (une approche d'optimisation), tant pour la modélisation d'un nouveau produit (phase de conception conceptuelle). / The main objective in product design and development is to increase the value of a product. Value includes two aspects of quality and cost. In order to take into account both aspects, this thesis aims at Integrated Product and Process Design, especially on product design complexity and its inherent (associated) complexities. This thesis proposes a systematic modelling approach to reduce uncertainty and manage complexity. The approach includes two phases: model determination and system analysis. The first phase contains two propositions: first, a product modelling approach based on energy flow modelling in the framework of Characteristics-Properties Modelling (CPM). This approach gives a modelling framework for a smoother transition from functional to structural views, with a quantitative modelling. The second proposition is to help the designer for decision making in concurrent designing (IPPD) where both performance and cost are taken into account. This approach is based on the process flows in the same framework (CPM). The second phase is to use the determined model of phase 1 to analyse the system. So, phase 2 includes sensitivity analysis, tolerance analysis and optimisation. An application of the approach is demonstrated through an industrial case study.Thanks to this approach, effective modifiable characteristics of the product on its performance are determined. Tolerancing can be integrated in design process and its impact on the product performance can be analysed. Quantitative links in product, in process and between product elements and process elements are identified. Uncertainty in the links and every step of modelling can be elicited and managed. This systematic approach gives a pathway to the designer through the design process to make decisions in every level of decomposition based on the required function and cost of manufacturing. The approach is applicable for both modelling an existing product (optimisation approach) and modelling a new product (conceptual design phase).
130

Surfaces de réponse sous incertitude normative : ambiguïté et agrégation dans une analyse ascendante de vulnérabilité des systèmes hydriques

Lachaut, Thibaut 29 September 2022 (has links)
L'incertitude profonde pesant sur l'évolution future des systèmes hydriques représente un défi considérable pour leur modélisation et planification. En réponse à ce défi, plusieurs approches, qualifiées d'ascendantes, proposent une inversion de paradigme, en employant une démarche d'aide à la décision robuste plutôt que prédictive. Parmi ces approches, la surface de réponse est un outil fréquent permettant de comparer des décisions alternatives sous forte incertitude. Cette méthode consiste à modéliser la performance d'un système hydrique pour un grand nombre de conditions possibles, échantillonnées en fonction d'un nombre limité de variables, nommées stresseurs, afin d'identifier deux ensembles : l'espace des conditions acceptables et l'espace des conditions inacceptables, selon que la performance simulée du système y satisfait ou non un seuil d'acceptabilité. Pour comparer différentes options envisagées, ce type de méthode nécessite cependant de départager, dans l'espace des conditions possibles, les régions acceptables ou inacceptables en traçant un front net et unique. Les recommandations de l'analyse sont donc soumises à une incertitude normative pesant sur ce front d'acceptabilité : comment définir une performance acceptable ? Acceptable pour qui ? La présente thèse de doctorat intègre l'effet de cette incertitude normative sur une surface de réponse à travers deux axes : ambiguïté et équité. L'ambiguïté est une incertitude normative sur la capacité des acteurs d'un système hydrique à fournir un seuil précis. L'équité porte sur les conséquences des choix d'agrégation des acteurs entre lesquels la performance du système peut varier considérablement. L'ambiguïté du seuil est traduite en logique floue et intégrée à l'incertitude hydroclimatique propre à la surface de réponse. Une méthodologie est proposée pour combiner deux incertitudes de nature très différente, la stochasticité de la surface de réponse et l'ambiguïté de son évaluation, à travers une régression logistique agrégée et une mesure de possibilité. La méthode est illustrée à travers une modélisation du système de réservoirs du Haut Saint-François (Québec méridional, Canada), sous l'angle de la protection face aux inondations. L'équité est analysée en paramétrant des méthodes d'agrégation selon différentes priorités et appliquées à un grand nombre d'usagers. Cela permet d'identifier quels niveaux d'agrégation conduisent à recommander une politique ou une autre. Un modèle multi-agent du système hydrique Jordanien est utilisé pour simuler l'approvisionnement inégal en eau potable des ménages et l'effet de différentes politiques de développement d'infrastructures ou de restructuration de l'approvisionnement. Les résultats montrent comment ces incertitudes normatives peuvent modifier la recommandation d'une analyse de vulnérabilité et comment intégrer ces incertitudes à la surface de réponse. Dans le cas du système du Haut Saint-François, les surfaces de réponse illustrent comment les niveaux de possibilité sont modifiés par le seuil flou et sa fonction d'appartenance, affectant potentiellement la recommandation. Dans le cas Jordanien, le choix d'agrégation modifie fortement la surface de réponse, parfois plus que les politiques augmentant les ressources disponibles. Les résultats montrent aussi les effets non-linéaires que divers types de distribution statistique de l'approvisionnement en eau peuvent avoir sur les surfaces de réponse. Les niveaux d'agrégation menant à différentes préférences sont identifiables, permettant d'établir une relation entre les options disponibles, choix social et incertitude profonde afin d'expliciter les arbitrages et favoriser la délibération. En proposant des outils pour intégrer ces incertitudes normatives aux approches ascendantes d'analyse des systèmes hydriques, ce travail ouvre également des pistes de recherche futures telles que la combinaison de ces deux approches par agrégation de seuils flous, ou leur inclusion au sein de cadres plus vastes d'analyse de vulnérabilité hydrique.

Page generated in 0.0706 seconds