• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 373
  • 138
  • 4
  • 3
  • Tagged with
  • 1156
  • 922
  • 628
  • 356
  • 354
  • 313
  • 300
  • 298
  • 260
  • 231
  • 219
  • 213
  • 213
  • 203
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Fusion d'informations incertaines sans commensurabilité des échelles de référence / Incommensurable ranked belief bases merging

Rossit, Julien 10 July 2009 (has links)
Le problème de fusion d’informations survient dès qu’il faut prendre en compte des bases de données distribuées, des systèmes multi-agents ou des informations distribuées en général. La plupart des approches de fusion proposées dans la littérature reposent sur des opérateurs d'agrégation : ceux-ci combinent les degrés de cohérence des différentes interprétations vis-à-vis des sources à fusionner, eux-même fortement dépendants des poids que ces sources accordent à leurs propres croyances. Mais lorsque les sources ne partagent pas une signification commune des poids qu'elles utilisent, quel sens cela a-t-il de comparer ou d'agréger ces mêmes poids ? Ainsi, nous étudions dans cette thèse différentes approches de fusion de croyances en l'absence de commensurabilité des échelles utilisées. Nous proposons tout d'abord une première méthode, reposant sur la notion d'échelle compatible, que nous appliquons à des opérateurs basés sur la somme et sur le maximum. Les opérateurs résultants peuvent être caractérisés au moyen d’un ensemble infini d’échelles compatibles, mais également au moyen de relations de type Pareto sur l’ensemble des mondes possibles. Puis nous étudions plus particulièrement certaines familles d’échelles compatibles afin de caractériser des opérateurs moins prudents et prenant en compte l'intensité des poids. Nous fournissons une analyse complète de la production des inférences et de la rationalité des opérateurs de fusion définis. En particulier, nous proposons la notion de consensus, souhaitable en l'absence de l'hypothèse de commensurabilité et vérifiée par la plupart de nos opérateurs. / The problem of merging multiple-source information is crucial for many applications, in particular when one requires to take into account several potentially conflicting pieces of information, such as distributed databases frameworks, multi-agent systems, or distributed information in general. The relevant pieces of information are provided by different sources and all existing pieces of information have to be confronted to obtain a global and coherent point of view. This problem is well-known as the data fusion problem. Most of existing merging methods are based on the following assumption: ranks associated with beliefs are commensurable from one source to another. This commensurability assumption can be too strong for several applications: comparing or combining ranks does not make sense if sources do not share the same meaning of scales. This thesis proposes different solutions to the problem of incommensurability for ranked beliefs merging. Our first main contribution consists of proposing a natural way to restore commensurability relying on the notion of compatible scales. The second one directly defines a partial pre-order between interpretations in a way similar to the one based on the Pareto criterion. Moreover, this thesis introduces several inference relations based on some selection functions of compatible scales. We analyze the impact of these selection functions on the satisfaction of rational postulates, and on the prudence of merging operators. In particular we introduce a stronger version of the fairness postulate, called the consensus postulate. We show that most of our defined merging operators constitute consensual approaches.
72

Méthodes permettant la prédominance de connaissances subsumées / Methods allowing the overriding of subsumed knowledge

Ramon, Sébastien 02 December 2011 (has links)
Cette thèse s’inscrit dans le domaine de l’Intelligence Artificielle symbolique. Elle y traite d’une question fondamentale liée à la représentation des connaissances et des raisonnements à base de logique. Plus précisément, elle s’intéresse au problème pouvant se produire lors de l’insertion dans un ensemble de connaissances d’une information qui peut déjà en être déduite. Comment faire en sorte que cette nouvelle information vienne préempter les informations qui permettent son inférence ? Supposons par exemple qu’un ensemble de prémisses contienne l’information “Si l’interrupteur est enclenché alors la pièce est éclairée”. Il est naturel d’espérer que l’ajout d’une règle additionnelle, en un sens plus précise que la première, et qui exprime que “Si l’interrupteur est enclenché et si l’ampoule n’est pas cassée alors la pièce est éclairée”, puisse venir la préempter. En effet, il ne doit plus être suffisant de savoir que “L’interrupteur soit enclenché” pour en conclure que “La pièce est éclairée” : il faut aussi que “L’ampoule ne soit pas cassée”. Remarquons que la seconde règle est consistante avec la première et que les cadres de logiques non monotones et de révision de croyances ou de mise à jour ne traitent pas a priori de ce problème. Nous adressons d’abord cette question dans le cadre de la logique classique et ensuite dans un cadre plus général de représentation à base de logiques non monotones, et particulièrement de celles permettant la représentation de règles avec exceptions reposant sur des tests de consistance. / This thesis is in line with the symbolic Artificial Intelligence domain. It deals with a fondamental issue of the logic-based knowledge and reasoning representation. Most particulary, this thesis is interested in the issue occurring when a piece of information is added to a knowledge set which already entails it. How to make sure that this new piece of information prevails the ones that allow its inference? Suppose for instance that a premisses set contains the piece of information “If the switch is on then the room is lighted”. It is natural to expect that adding an additional rule, in a way more precise than the first one, and which assert that “If the switch is on and if the lamp bulb is not broken then the room is lighted”, could prevail it. Indeed, it will not be sufficient to know that “The switch is on” to conclude that “The room is lighted”: it is now necessary that “The lamp bulb is not broken”. Let us note that the second rule is consistent with the first one and that the non monotonic logics and beliefs revision or update frameworks do not handle this issue in principle. First of all, we adress this issue in the classical logic framework, and secondly in a most general framework of non monotonic logic based representation, and particulary the ones that allow the representation of rules with exceptions subject of consistency test.
73

Classification automatique de courrier électronique

Dubois, Julien January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
74

Place des mégadonnées et des technologies de l'Intelligence Artificielle dans les activités de communication des petites et moyennes entreprises au Canada

El Didi, Dina 23 November 2022 (has links)
Le développement des mégadonnées et des technologies de l'Intelligence Artificielle a donné naissance à une économie numérique contrôlée par les géants du web (GAFAM). Cette économie témoigne d’une certaine inégalité quant à l'accès et à la gestion des mégadonnées et des technologies de l'Intelligence Artificielle. La présente étude vise à explorer l'inégalité entre les grandes organisations et les petites et moyennes entreprises (PME) au sujet de l'accès et de l'utilisation des mégadonnées et des technologies de l'IA. Pour ce, il s'agit de répondre à la question suivante : « Comment les équipes de communication dans les PME, au Canada, envisagent l'usage et l'importance des mégadonnées et des technologies de l'IA pour leur travail ? » Le cadre théorique mobilisé dans ce travail de recherche est, d’un côté, la sociologie des usages qui aidera à comprendre et à analyser les usages des mégadonnées et des technologies de l'IA par les équipes de communication des PME ; d'un autre côté, l'approche narrative qui permettra de décrire les contextes de pratiques de ces usages. Nous avons eu recours à une méthode mixte. La méthode quantitative, via un questionnaire en ligne, a permis d'identifier la place qu'occupent ces technologies actuellement dans le travail régulier des professionnels de la communication des PME ainsi que les défis qu'ils affrontent pour la mise en place et l'utilisation de ces technologies. La méthode qualitative, via des entrevues semi-dirigées, a servi à mieux comprendre les contextes de pratiques où ces technologies sont utilisées ou pourraient être utilisées. Les résultats ont suggéré qu'il existe un écart entre les PME et les grandes organisations par rapport à l'exploitation et à l'utilisation de ces technologies. Cet écart est dû avant tout à certains défis tels que le manque de connaissances et d'expertise et le manque d'intérêt envers ces technologies. Cette inégalité pourrait être mitigée en mettant en place un plan de formation des gestionnaires afin de garantir des changements au niveau de la culture organisationnelle. Les résultats ont fait émerger l'importance de l'intervention humaine sans laquelle les idées générées par les mégadonnées et les technologies de l'IA risquent d'être biaisées. Ainsi, compte tenu des limites de cette étude exploratoire, elle a permis d'avancer les connaissances en faisant émerger quelques pistes de recherches futures en ce qui concerne les mégadonnées et les technologies de l'IA et leur importance pour les activités de communication dans les PME.
75

Calibration par intelligence artificielle de la détermination des besoins en chaux des sols acides

Dupre, Lenz Clove Richardly 10 February 2024 (has links)
Au Québec, dans toutes les provinces canadiennes et dans 18 États américains, la méthode de détermination des besoins en chaux des sols agricoles est basée sur l'analyse du pH[indice SMP]. Cependant, cette méthode pose des problèmes de précision par rapport aux sols dont les besoins en chaux sont faibles. Ainsi cette méthode n'est pas trop en phase avec la réalité agronomique d'une majorité de sols du Québec ayant de faibles besoins et entretenus chaque année par des pratiques de chaulage. L'objectif de cette étude était de développer une nouvelle procédure d'évaluation des besoins en chaux basée sur les analyses routinières des sols (pH[indice eau], MO, P[indice M3], K[indice M3], Ca[indice M3], Mg[indice M3], Al[indice M3]) et leur calibration par apprentissage supervisé sur les courbes de titrage de l'acidité des sols. Pour réaliser cette étude, 270 courbes de titrage ont été élaborés à partir d'expériences de laboratoire, ensuite ces courbes ont été paramétrisés et les covariables découlant de cette paramétrisation sont prédits par intelligence artificielle à partir de caractéristiques physico-chimiques de base des sols analysés. Ce projet de recherche a été réalisé de façon à prendre le plus en considération possible la réalité des sols agricoles au Québec, l'échantillonnage a été faite au niveau de 9 régions du Québec. Les résultats obtenus prouvent qu'il est possible de paramétriser une courbe de titration d'un sol et de prédire ses besoins en chaux à partir de ses paramètres physico-chimiques routinières. / In Quebec, in all Canadian provinces and in 18 American states, the method for determining the lime requirements of agricultural soils is based on pHSMP analysis. However, this method poses accuracy problems for soils with low lime requirements. Thus, this method is not in phase with the agronomic reality of a majority of Quebec soils with low needs and maintained each year by liming practices. The objective of this study was to develop a new procedure for evaluating lime requirements based on routine soil analyses (pH[subscript water], MO, PM3, KM3, CaM3, MgM3, AlM3) and their calibration by supervised learning on soil acidity titration curves. To carry out this study, 270 titration curves were elaborated from laboratory experiments, then these curves were parameterized and the covariates resulting from this parameterization are predicted by artificial intelligence from basic physicochemical characteristics of the analyzed soils. This research project was carried out in such a way as to take into account the reality of agricultural soils in Quebec as much as possible. The sampling was done in 9 regions of Quebec. The results obtained prove that it is possible to parameterize a soil titration curve and to predict its lime needs from its routine physico-chemical parameters.
76

Simulation et inférence de réseaux de neurones à l’aide d’intelligence artificielle

Bahdine, Mohamed 27 January 2024 (has links)
La représentation par réseau est un outil puissant pour la modélisation des systèmes dynamiques complexes. Elle est notamment utilisée en neurosciences pour étudier le cerveau. Cependant, extraire un connectome, soit la liste des neurones et des connexions qui les relient, demeure un défi important pour des cerveaux de plusieurs milliers de neurones. C’est le cas du cerveau de la larve du poisson-zèbre qui contient près d’une centaine de milliers de neurones. Puisque les synapses ne peuvent être directement observées, les connexions entre neurones doivent plutôt être inférées. Plusieurs méthodes classiques, dites d’inférence fonctionnelle, issues des statistiques et de la théorie de l’information, prédisent la connectivité à partir des séries temporelles qui décrivent l’activité des neurones. Plus récemment, des avancées en intelligence artificielle ont ouvert la voie à de nouvelles méthodes d’inférence. L’objectif du projet de maîtrise exposé dans ce mémoire est de comparer la performance des méthodes de l’intelligence artificielle à celle des méthodes bien établies. Puisque la connectivité réelle est nécessaire pour une telle comparaison, un simulateur de réseau de neurones est utilisé pour générer des séries temporelles d’activité à partir de connectivités réelles extraites de vidéos d’activité. Il est montré que la calibration d’un tel simulateur, dans le but d’obtenir de l’activité similaire à celle des poissons-zèbres, n’est pas une tâche triviale. Une approche d’apprentissage profond est donc conçue pour prédire, à partir de métriques d’activité globale, les paramètres de simulation idéaux. Il est ensuite montré, sur 86% des simulations générées, qu’un modèle de réseau de neurones artificiels à convolution performe significativement mieux que les autres méthodes d’inférence. Cependant, lorsqu’un entraînement supervisé est impossible, la méthode classique de transfert d’entropie performe mieux qu’un modèle d’apprentissage profond nonsupervisé sur 78% des simulations générées. / Complex network analysis is a powerful tool for the study of dynamical systems. It is often used in neuroscience to study the brain. However, extraction of complete connectomes, i.e. , the list of all neurons and connections, is still a challenge for large brains. This is the case for the brain of the zebrafish which contains almost a hundred thousand neurons. Since direct observation of synapses is still intractable for a brain of this size, connections between neurons must be inferred from their activity. It is indeed possible to extract time series of activity for all neurons, by making them fluorescent upon activation through genetic engineering and by leveraging the zebrafish’s transparency during the larval stage. Then, so-called methods of functional inference, based on information theory, can be used to predict the connectivity of neurons from time series of their activity. Recent breakthroughs in artificial intelligence have opened the door to new methods of inference. The goal of the project described in this thesis is to compare the performance of such new methods to the performance of well-established ones. Since ground truth of connectivity must be known for comparison, a simulator is used to generate synthetic time series of activity from known connectivity. It is shown that the tuning of such a simulator, in order to generate realistic data, is not an easy task. Therefore, a deep learning approach is proposed to predict optimal simulator parameters by analysis global dynamical metrics. Using the generated time series, it is shown that a convolutional neural network performs significantly better than well-established methods on 86% of simulations. However, in cases where supervised learning is impossible, the zebrafish’s case being an example, the classical method of Transfer Entropy performs better than an unsupervised deep learning model on 78% of simulations.
77

Se rapprocher de la peau psoriasique native, une composante à la fois

Turgeon, Florence 20 November 2024 (has links)
Le psoriasis est une maladie cutanée chronique à médiation immunitaire qui affecte environ 2 à 3 % de la population mondiale. Cette pathologie est le résultat d'une réponse immunitaire inappropriée, où l'environnement, les cellules de la peau et les cellules immunitaires interagissent de manière complexe. Parmi ces cellules immunitaires, les lymphocytes T auxiliaires de profil Th17 jouent un rôle central en produisant des niveaux élevés d'IL-17A en présence d'IL-23. Des traitements ciblant l'IL-23 ont démontré une grande efficacité, mettant en évidence son importance dans la pathogenèse du psoriasis. De plus, des études récentes ont mis en lumière le rôle crucial des cellules myéloïdes et de leurs cytokines, telles que le TNFα et l'IL -23, dans la persistance et la gravité de cette maladie. Cependant, malgré les avancées dans la compréhension de la maladie, il n'existe toujours aucun traitement curatif pour le psoriasis. Une des principales raisons de cette lacune réside dans la difficulté de reproduire fidèlement l'environnement inflammatoire présent dans les lésions cutanées psoriasiques. Les modèles *in vivo* et *in vitro* actuels présentent des limites, notamment des différences entre la peau humaine et animale, ainsi que l'utilisation de cellules cutanées saines qui ne reproduisent pas entièrement les caractéristiques du psoriasis. Ces limitations entravent le développement de nouveaux traitements efficaces pour cette maladie. Pour relever ce défi, l'objectif de ce projet de recherche était de développer un modèle de peau psoriasique 3D intégrant à la fois des lymphocytes T et des macrophages. L'objectif était de mieux représenter le contexte pathologique de la peau psoriasique afin de comprendre plus précisément les interactions complexes entre les lymphocytes T et les macrophages dans le contexte du psoriasis. Les résultats de cette étude sont prometteurs, montrant que ce nouveau modèle immunocompétent, faisant le lien entre l'immunité innée et adaptative, reproduit fidèlement les caractéristiques majeures de la peau psoriasique sans nécessiter l'ajout exogène de médiateurs pro-inflammatoires. Les résultats de ce projet ouvrent également de nouvelles perspectives pour une meilleure compréhension du rôle crucial des macrophages dans cette maladie complexe et montrent l'intérêt de cette nouvelle plateforme pour le développement de nouveaux traitements. / Psoriasis is a chronic immune-mediated skin disease that affects approximately 2 to 3% of the global population. This condition is the result of an inappropriate immune response in which the environment, skin cells, and immune cells interact in a complex manner. Among these immune cells, Th17 profile helper T lymphocytes play a central role by producing high levels of IL-17A in the presence of IL-23. Treatments targeting IL-23 have demonstrated great efficacy, highlighting its importance in the pathogenesis of psoriasis. Furthermore, recent studies have shed light on the crucial role of myeloid cells and their cytokines, such as TNFα and IL-23, in the persistence and severity of this disease. However, despite advances in understanding the disease, there is still no cure for psoriasis. One of the main reasons for this gap lies in the difficulty of faithfully reproducing the inflammatory environment present in psoriatic skin lesions. Current in vivo and in vitro models have limitations, including differences between human and animal skin, as well as the use of healthy skin cells that do not fully replicate the characteristics of psoriasis. These limitations hinder the development of new effective treatments for this disease. To address this challenge, the aim of this research project was to develop a 3D psoriatic skin model that incorporates both T lymphocytes and macrophages. The goal was to better represent the pathological context of psoriatic skin in order to understand more precisely the complex interactions between T lymphocytes and macrophages in the context of psoriasis. The results of this study are promising, showing that this new immunocompetent model, bridging the gap between innate and adaptive immunity, faithfully reproduces the major characteristics of psoriatic skin without the exogenous addition of pro-inflammatory mediators. The findings of this project also open new perspectives for a better understanding of the crucial role of macrophages in this complex disease and demonstrate the potential of this new platform for the development of new treatments.
78

Modélisation du rôle de l'innervation dans un équivalent cutané psoriasique reconstruit par génie tissulaire

Ringuet, Julien 27 January 2024 (has links)
Dans le cadre de ce projet de maîtrise, le but principal était de poursuivre le développement d'un modèle de peau psoriasique reconstruit par génie tissulaire et de caractériser le rôle de l'innervation sensorielle dans le phénotype psoriasique de ces derniers. Le développement de cet équivalent vise avant tout à mieux comprendre la pathogénèse du psoriasis et potentiellement ouvrir la porte à de nouvelles voies thérapeutiques permettant de contrôler la maladie ou ses symptômes. Avec nos protocoles, nous avons pu démontrer que l'ajout d'innervation à un équivalent de peau reconstruit par génie tissulaire exacerbait le phénotype psoriasique en tout ou en partie. Jusqu'à présent, la caractérisation des cytokines étudiées dans nos protocole nous laisse croire que le facteur de croissance neuronal (NGF) est le principal médiateur de la prolifération kératinocytaire caractérisant les peaux psoriasiques.
79

Approches par bandit pour la génération automatique de résumés de textes

Godbout, Mathieu 02 February 2024 (has links)
Ce mémoire aborde l'utilisation des méthodes par bandit pour résoudre la problématique de l'entraînement de modèles de générations de résumés extractifs. Les modèles extractifs, qui bâtissent des résumés en sélectionnant des phrases d'un document original, sont difficiles à entraîner car le résumé cible correspondant à un document n'est habituellement pas constitué de manière extractive. C'est à cet effet que l'on propose de voir la production de résumés extractifs comme différents problèmes de bandit, lesquels sont accompagnés d'algorithmes pouvant être utilisés pour l'entraînement. On commence ce document en présentant BanditSum, une approche tirée de la litérature et qui voit la génération des résumés d'un ensemble de documents comme un problème de bandit contextuel. Ensuite, on introduit CombiSum, un nouvel algorithme qui formule la génération du résumé d'un seul document comme un bandit combinatoire. En exploitant la formule combinatoire, CombiSum réussit à incorporer la notion du potentiel extractif de chaque phrase à son entraînement. Enfin, on propose LinCombiSum, la variante linéaire de CombiSum qui exploite les similarités entre les phrases d'un document et emploie plutôt la formulation en bandit linéaire combinatoire. / This thesis discusses the use of bandit methods to solve the problem of training extractive abstract generation models. The extractive models, which build summaries by selecting sentences from an original document, are difficult to train because the target summary of a document is usually not built in an extractive way. It is for this purpose that we propose to see the production of extractive summaries as different bandit problems, for which there exist algorithms that can be leveraged for training summarization models.In this paper, BanditSum is first presented, an approach drawn from the literature that sees the generation of the summaries of a set of documents as a contextual bandit problem. Next,we introduce CombiSum, a new algorithm which formulates the generation of the summary of a single document as a combinatorial bandit. By exploiting the combinatorial formulation,CombiSum manages to incorporate the notion of the extractive potential of each sentence of a document in its training. Finally, we propose LinCombiSum, the linear variant of Com-biSum which exploits the similarities between sentences in a document and uses the linear combinatorial bandit formulation instead
80

Process intensification in artificial gravity

Munteanu, Mugurel-Catalin 13 April 2018 (has links)
L'amélioration des propriétés hydrodynamiques des réacteurs chimiques est toujours un grand défi pour les ingénieurs en génie des procèdes. La réalisation d'expériences sur des réacteurs chimiques situés dans un champ magnétique inhomogène peut donner des informations importantes concernant les mécanismes des réactions chimiques ou les propriétés hydrodynamiques du système. Un champ magnétique inhomogène sera généré par un aimant solénoïdal à supraconductivité NbTi et appliqué à un réacteur chimique. Les directions de recherche sont: les propriétés magnéto hydrodynamiques des réacteurs situés dans le champ magnétique généré par le solénoïde (réalisation de conditions d'hypogravité ou de macrogravité), l'effet du champ magnétique sur les réponses catalytiques de certaines réactions sélectionnées et l'effet du champ magnétique sur l'écoulement du fluide pour les réacteurs a lit fixe. Le champ magnétique extérieur inhomogène exerce une force magnétique qui peut modifier la direction et la valeur de la force gravitationnelle.

Page generated in 0.0655 seconds