Spelling suggestions: "subject:"artificielle"" "subject:"artificielles""
71 |
Fusion d'informations incertaines sans commensurabilité des échelles de référence / Incommensurable ranked belief bases mergingRossit, Julien 10 July 2009 (has links)
Le problème de fusion d’informations survient dès qu’il faut prendre en compte des bases de données distribuées, des systèmes multi-agents ou des informations distribuées en général. La plupart des approches de fusion proposées dans la littérature reposent sur des opérateurs d'agrégation : ceux-ci combinent les degrés de cohérence des différentes interprétations vis-à-vis des sources à fusionner, eux-même fortement dépendants des poids que ces sources accordent à leurs propres croyances. Mais lorsque les sources ne partagent pas une signification commune des poids qu'elles utilisent, quel sens cela a-t-il de comparer ou d'agréger ces mêmes poids ? Ainsi, nous étudions dans cette thèse différentes approches de fusion de croyances en l'absence de commensurabilité des échelles utilisées. Nous proposons tout d'abord une première méthode, reposant sur la notion d'échelle compatible, que nous appliquons à des opérateurs basés sur la somme et sur le maximum. Les opérateurs résultants peuvent être caractérisés au moyen d’un ensemble infini d’échelles compatibles, mais également au moyen de relations de type Pareto sur l’ensemble des mondes possibles. Puis nous étudions plus particulièrement certaines familles d’échelles compatibles afin de caractériser des opérateurs moins prudents et prenant en compte l'intensité des poids. Nous fournissons une analyse complète de la production des inférences et de la rationalité des opérateurs de fusion définis. En particulier, nous proposons la notion de consensus, souhaitable en l'absence de l'hypothèse de commensurabilité et vérifiée par la plupart de nos opérateurs. / The problem of merging multiple-source information is crucial for many applications, in particular when one requires to take into account several potentially conflicting pieces of information, such as distributed databases frameworks, multi-agent systems, or distributed information in general. The relevant pieces of information are provided by different sources and all existing pieces of information have to be confronted to obtain a global and coherent point of view. This problem is well-known as the data fusion problem. Most of existing merging methods are based on the following assumption: ranks associated with beliefs are commensurable from one source to another. This commensurability assumption can be too strong for several applications: comparing or combining ranks does not make sense if sources do not share the same meaning of scales. This thesis proposes different solutions to the problem of incommensurability for ranked beliefs merging. Our first main contribution consists of proposing a natural way to restore commensurability relying on the notion of compatible scales. The second one directly defines a partial pre-order between interpretations in a way similar to the one based on the Pareto criterion. Moreover, this thesis introduces several inference relations based on some selection functions of compatible scales. We analyze the impact of these selection functions on the satisfaction of rational postulates, and on the prudence of merging operators. In particular we introduce a stronger version of the fairness postulate, called the consensus postulate. We show that most of our defined merging operators constitute consensual approaches.
|
72 |
Méthodes permettant la prédominance de connaissances subsumées / Methods allowing the overriding of subsumed knowledgeRamon, Sébastien 02 December 2011 (has links)
Cette thèse s’inscrit dans le domaine de l’Intelligence Artificielle symbolique. Elle y traite d’une question fondamentale liée à la représentation des connaissances et des raisonnements à base de logique. Plus précisément, elle s’intéresse au problème pouvant se produire lors de l’insertion dans un ensemble de connaissances d’une information qui peut déjà en être déduite. Comment faire en sorte que cette nouvelle information vienne préempter les informations qui permettent son inférence ? Supposons par exemple qu’un ensemble de prémisses contienne l’information “Si l’interrupteur est enclenché alors la pièce est éclairée”. Il est naturel d’espérer que l’ajout d’une règle additionnelle, en un sens plus précise que la première, et qui exprime que “Si l’interrupteur est enclenché et si l’ampoule n’est pas cassée alors la pièce est éclairée”, puisse venir la préempter. En effet, il ne doit plus être suffisant de savoir que “L’interrupteur soit enclenché” pour en conclure que “La pièce est éclairée” : il faut aussi que “L’ampoule ne soit pas cassée”. Remarquons que la seconde règle est consistante avec la première et que les cadres de logiques non monotones et de révision de croyances ou de mise à jour ne traitent pas a priori de ce problème. Nous adressons d’abord cette question dans le cadre de la logique classique et ensuite dans un cadre plus général de représentation à base de logiques non monotones, et particulièrement de celles permettant la représentation de règles avec exceptions reposant sur des tests de consistance. / This thesis is in line with the symbolic Artificial Intelligence domain. It deals with a fondamental issue of the logic-based knowledge and reasoning representation. Most particulary, this thesis is interested in the issue occurring when a piece of information is added to a knowledge set which already entails it. How to make sure that this new piece of information prevails the ones that allow its inference? Suppose for instance that a premisses set contains the piece of information “If the switch is on then the room is lighted”. It is natural to expect that adding an additional rule, in a way more precise than the first one, and which assert that “If the switch is on and if the lamp bulb is not broken then the room is lighted”, could prevail it. Indeed, it will not be sufficient to know that “The switch is on” to conclude that “The room is lighted”: it is now necessary that “The lamp bulb is not broken”. Let us note that the second rule is consistent with the first one and that the non monotonic logics and beliefs revision or update frameworks do not handle this issue in principle. First of all, we adress this issue in the classical logic framework, and secondly in a most general framework of non monotonic logic based representation, and particulary the ones that allow the representation of rules with exceptions subject of consistency test.
|
73 |
Classification automatique de courrier électroniqueDubois, Julien January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
74 |
Place des mégadonnées et des technologies de l'Intelligence Artificielle dans les activités de communication des petites et moyennes entreprises au CanadaEl Didi, Dina 23 November 2022 (has links)
Le développement des mégadonnées et des technologies de l'Intelligence Artificielle a donné naissance à une économie numérique contrôlée par les géants du web (GAFAM). Cette économie témoigne d’une certaine inégalité quant à l'accès et à la gestion des mégadonnées et des technologies de l'Intelligence Artificielle.
La présente étude vise à explorer l'inégalité entre les grandes organisations et les petites et moyennes entreprises (PME) au sujet de l'accès et de l'utilisation des mégadonnées et des technologies de l'IA. Pour ce, il s'agit de répondre à la question suivante : « Comment les équipes de communication dans les PME, au Canada, envisagent l'usage et l'importance des mégadonnées et des technologies de l'IA pour leur travail ? »
Le cadre théorique mobilisé dans ce travail de recherche est, d’un côté, la sociologie des usages qui aidera à comprendre et à analyser les usages des mégadonnées et des technologies de l'IA par les équipes de communication des PME ; d'un autre côté, l'approche narrative qui permettra de décrire les contextes de pratiques de ces usages.
Nous avons eu recours à une méthode mixte. La méthode quantitative, via un questionnaire en ligne, a permis d'identifier la place qu'occupent ces technologies actuellement dans le travail régulier des professionnels de la communication des PME ainsi que les défis qu'ils affrontent pour la mise en place et l'utilisation de ces technologies. La méthode qualitative, via des entrevues semi-dirigées, a servi à mieux comprendre les contextes de pratiques où ces technologies sont utilisées ou pourraient être utilisées.
Les résultats ont suggéré qu'il existe un écart entre les PME et les grandes organisations par rapport à l'exploitation et à l'utilisation de ces technologies. Cet écart est dû avant tout à certains défis tels que le manque de connaissances et d'expertise et le manque d'intérêt envers ces technologies. Cette inégalité pourrait être mitigée en mettant en place un plan de formation des gestionnaires afin de garantir des changements au niveau de la culture organisationnelle. Les résultats ont fait émerger l'importance de l'intervention humaine sans laquelle les idées générées par les mégadonnées et les technologies de l'IA risquent d'être biaisées.
Ainsi, compte tenu des limites de cette étude exploratoire, elle a permis d'avancer les connaissances en faisant émerger quelques pistes de recherches futures en ce qui concerne les mégadonnées et les technologies de l'IA et leur importance pour les activités de communication dans les PME.
|
75 |
Analyse par profilage génique du phénotype psoriasique des substituts cutanés produits par la méthode d'auto-assemblagePouliot-Bérubé, Claudia 23 April 2018 (has links)
Le psoriasis est une maladie inflammatoire de la peau pour laquelle aucun traitement curatif n’a vu le jour jusqu’à présent. L’étiologie étant complexe, la recherche dans ce domaine vise donc une meilleure compréhension de la pathologie. Pour ce faire, il faut mettre sur pied des modèles in vitro représentatifs de la pathologie, ce que nous faisons au LOEX. Ce projet porte sur la caractérisation par profilage génique de notre modèle afin d’en poursuivre l’optimisation éventuelle. Pour ce faire, nous avons produit différents substituts sains, lésionnels et non-lésionnels, puis nous en avons analysé le transcriptome. Dans un second temps, nous avons tenté de mimer la condition inflammatoire via l’addition de cytokines au sein des substituts lésionnels. Ces résultats démontrent d’une part la force du modèle existant, mais d’autre part, que la supplémentation en cytokines a des effets positifs sur le transcriptome, le rendant quasi identique à celui de peaux psoriasiques in vivo. / Psoriasis is a chronic inflammatory skin disease for which no cure has emerged. Research in this area aims to better understanding its complex etiology. Representative models of the pathology are needed and it is part of our expertise to develop psoriatic skin substitutes at LOEX. This project has focused on the characterization of our model by gene profiling in order to pursue its optimization. Different kinds of substitutes were produced and the transcriptome was analyzed. We also attempted to mimic the addition of immune cells via the addition of cytokines during lesional skin reconstruction. Cytokines chosen were identified as playing a key role in psoriasis. These results demonstrated on one hand, the strength of our original model and on the other hand, the positive impact on the transcriptome that cytokines supplementation can produce, making it almost identical to psoriatic skin in vivo.
|
76 |
Évaluation de la structure épidermique des substituts cutanés produits par la méthode d'auto-assemblageAngers, Laetitia 23 April 2018 (has links)
Une adaptation de la méthode d’auto-assemblage développée au LOEX permet de produire des substituts cutanés bicouches ayant un phénotype psoriasique. Le premier objectif de ce travail était d’évaluer si une conservation par la congélation des substituts cutanés était envisageable afin d’avoir accès à ces derniers en tout temps pour effectuer des analyses physiochimiques sans délais. Les études réalisées sur des substituts sains montrent qu’elle ne l’est pas dans sa méthodologie actuelle puisqu’elle affecte la fonction barrière des substituts. Par ailleurs, en raison du rôle des lipides épidermiques dans la fonction barrière et de leur implication dans le psoriasis, une caractérisation de ces lipides a été effectuée par chromatographie en phase gazeuse. Les résultats obtenus montrent principalement une diminution de la proportion d’acide linoléique dans les substituts par rapport à la peau normale humaine. Ces résultats sont prometteurs en raison du rôle de cet acide et de ses métabolites dans l’inflammation. / Adaptation of the self-assembly method developed at LOEX allows us to produce bilayered skin substitutes with psoriatic phenotype. The first aim of this study was to evaluate if freezing of the skin substitutes is possible without affecting its integrity, in order to access the skin substitutes in anytime to perform physicochemical analysis without delay. Results, obtained with control skin substitutes produced via the standard described self-assembly method, showed that freezing clearly affected the skin barrier function of the skin substitutes. Moreover, because of their implication in skin barrier and in psoriasis pathology, epidermal skin lipids of control and psoriatic skin substitutes were characterized by gas chromatography. Results showed mainly a significant reduction of the linoleic acid proportion in skin substitutes compared to normal human skin. These results are promising because of the implication of linoleic acid and its metabolites in inflammation.
|
77 |
Approches par bandit pour la génération automatique de résumés de textesGodbout, Mathieu 02 February 2024 (has links)
Ce mémoire aborde l'utilisation des méthodes par bandit pour résoudre la problématique de l'entraînement de modèles de générations de résumés extractifs. Les modèles extractifs, qui bâtissent des résumés en sélectionnant des phrases d'un document original, sont difficiles à entraîner car le résumé cible correspondant à un document n'est habituellement pas constitué de manière extractive. C'est à cet effet que l'on propose de voir la production de résumés extractifs comme différents problèmes de bandit, lesquels sont accompagnés d'algorithmes pouvant être utilisés pour l'entraînement. On commence ce document en présentant BanditSum, une approche tirée de la litérature et qui voit la génération des résumés d'un ensemble de documents comme un problème de bandit contextuel. Ensuite, on introduit CombiSum, un nouvel algorithme qui formule la génération du résumé d'un seul document comme un bandit combinatoire. En exploitant la formule combinatoire, CombiSum réussit à incorporer la notion du potentiel extractif de chaque phrase à son entraînement. Enfin, on propose LinCombiSum, la variante linéaire de CombiSum qui exploite les similarités entre les phrases d'un document et emploie plutôt la formulation en bandit linéaire combinatoire. / This thesis discusses the use of bandit methods to solve the problem of training extractive abstract generation models. The extractive models, which build summaries by selecting sentences from an original document, are difficult to train because the target summary of a document is usually not built in an extractive way. It is for this purpose that we propose to see the production of extractive summaries as different bandit problems, for which there exist algorithms that can be leveraged for training summarization models.In this paper, BanditSum is first presented, an approach drawn from the literature that sees the generation of the summaries of a set of documents as a contextual bandit problem. Next,we introduce CombiSum, a new algorithm which formulates the generation of the summary of a single document as a combinatorial bandit. By exploiting the combinatorial formulation,CombiSum manages to incorporate the notion of the extractive potential of each sentence of a document in its training. Finally, we propose LinCombiSum, the linear variant of Com-biSum which exploits the similarities between sentences in a document and uses the linear combinatorial bandit formulation instead
|
78 |
Process intensification in artificial gravityMunteanu, Mugurel-Catalin 13 April 2018 (has links)
L'amélioration des propriétés hydrodynamiques des réacteurs chimiques est toujours un grand défi pour les ingénieurs en génie des procèdes. La réalisation d'expériences sur des réacteurs chimiques situés dans un champ magnétique inhomogène peut donner des informations importantes concernant les mécanismes des réactions chimiques ou les propriétés hydrodynamiques du système. Un champ magnétique inhomogène sera généré par un aimant solénoïdal à supraconductivité NbTi et appliqué à un réacteur chimique. Les directions de recherche sont: les propriétés magnéto hydrodynamiques des réacteurs situés dans le champ magnétique généré par le solénoïde (réalisation de conditions d'hypogravité ou de macrogravité), l'effet du champ magnétique sur les réponses catalytiques de certaines réactions sélectionnées et l'effet du champ magnétique sur l'écoulement du fluide pour les réacteurs a lit fixe. Le champ magnétique extérieur inhomogène exerce une force magnétique qui peut modifier la direction et la valeur de la force gravitationnelle.
|
79 |
Réseaux de neurones pour l'apprentissage de la préférence en microscopie super-résolutionRobitaille, Louis-Emile 02 February 2024 (has links)
Pendant plusieurs années, la microscopie à fluorescence a été limitée par le phénomène de diffraction. Or, pour étudier des phénomènes dynamiques à l’intérieur des cellules, une résolution nanométrique est souvent nécessaire. Pour ce faire, une avancée importante pour la microscopie super-résolution fut l’invention du microscope à déplétion par émission stimulée(STED pour STimulated-Emission-Depletion) (Hell and Wichmann, 1994). Si la microscopieSTED permet d’atteindre la précision nanométrique, celle-ci consiste en une technique extrêmement sophistiquée et son utilisation requiert des connaissances avancées dans plusieurs domaines, par exemple, la physique, la chimie et la biologie. Dans le but de rendre le microscope plus accessible, Durand et al. (2018) tire profit des dernières avancées en intelligence artificielle pour automatiser le paramétrage du STED à l’aide d’une boucle d’optimisation. L’objectif visé est de produire des images avec la plus haute qualité tout en minimisant le photo blanchiment et le temps d’exposition. L’incapacité de mesurer la qualité des images et de choisir un compromis parmi les objectifs nécessite malheureusement toujours la présence d’un expert derrière le microscope. En automatisant l’évaluation de la qualité des images et la sélection de compromis, ce mémoire vise à montrer le potentiel des réseaux de neurones pour l’apprentissage de la préférence en sciences de la vie. / For many years, fluorescent microscopy has been limited by diffraction. However, to study dynamic phenomena inside cells, a nanometric resolution is often necessary. To cope with this problem, an important development for fluorescent microscopy was the invention ofSTimulated-Emission-Depletion microscopy (STED) (Hell and Wichmann, 1994). If STEDachieves nanometric microscopy, it is also an extremely sophisticated technique that requires advanced knowledge across a wide range of domains, e.g. physics, chemistry and biology. With the goal of democratising the microscope, Durand et al. (2018) use the last development in artificial intelligence to automate STED parameterization with an optimisation loop. The objective aimed is to produce high-quality images while minimising photo bleaching and exposition time. The inability of measuring image quality and of choosing between compromise among objectives still forces an expert to stay behind the microscope. By automating the assessment of image quality and the selection of compromise, this master thesis intends to demonstrate the potential of neural networks for preference learning in life science.
|
80 |
Identification de voiture électrique à l'aide d'images infrarouge : développement de système d'acquisition pour la collecte d'images infrarouges d'objet en mouvementLamoureux-Lévesque, Rémi 26 April 2024 (has links)
Le présent document fait la présentation du travail réalisé au cours d'un projet de maitrise avec l'intention d'obtenir un diplôme à la maitrise en génie électrique.Le projet consistait à développer un système capable d'identifier le type de véhicule qui se retrouve dans une image infrarouge. Les deux types de véhicules visés par cette identification étaient les véhicules électriques ainsi que les véhicules à essence. Pour pouvoir être en mesure de l'identifier, il a d'abord fallu développer un système de prise d'images qui permette d'obtenir un échantillon de données comprenant des images infrarouges de différentes voitures. Deux systèmes ont été développés pour atteindre cet objectif : le premier est un système de caméra fixe et le second implique un système de mouvement des caméras. Une fois ces deux systèmes mis en place, la collecte des images fut réalisée avec chacun d'eux. Il fut remarqué que les images obtenues avec le second système étaient de meilleure qualité. Différents contextes de prise d'images ont été explorés. Lorsqu'une quantité suffisante d'images fut obtenue, l'exploration pour la sélection du réseau de neurones permettant l'identification du type de voiture a débuté. Plusieurs solutions ont été envisagées et l'évaluation de celles-ci a été réalisée. Le présent document débute par la présentation d'un article scientifique qui décrit en détails le système de mouvement des caméras / The present document elaborates on the work done for a master project with the intent to obtain a master's in electrical engineering. The project was todevelop a system that identifies the vehicle’s type within an infrared image. The two types of vehicles targeted for identification are electrical vehicles and internal combustion engine vehicles. To identify their type, the development of an acquisition system was necessary for us to collect data and build our dataset, which containsimages of each type of vehicle. Two systems were developed to achieve this goal: the first one is a fixed camera system and the second one is a motion camera system. Once each system was in place, we collected images with each system. Different situations for collecting the images were explored. It was noticed that the second system improved the images 'quality. Once we collected enough images, the exploration of the neural network for classifying the vehicle type started. Many solutions for the neural network have been presented and evaluated to choose the one that meets our needs. The present document begins with a scientific paper that has been donefor the master project which presents in details the motion camera system.
|
Page generated in 0.0637 seconds