• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 578
  • 347
  • 131
  • 4
  • 3
  • Tagged with
  • 1113
  • 886
  • 599
  • 333
  • 326
  • 300
  • 293
  • 274
  • 259
  • 231
  • 216
  • 210
  • 204
  • 203
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Classification automatique de courrier électronique

Dubois, Julien January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
72

Place des mégadonnées et des technologies de l'Intelligence Artificielle dans les activités de communication des petites et moyennes entreprises au Canada

El Didi, Dina 23 November 2022 (has links)
Le développement des mégadonnées et des technologies de l'Intelligence Artificielle a donné naissance à une économie numérique contrôlée par les géants du web (GAFAM). Cette économie témoigne d’une certaine inégalité quant à l'accès et à la gestion des mégadonnées et des technologies de l'Intelligence Artificielle. La présente étude vise à explorer l'inégalité entre les grandes organisations et les petites et moyennes entreprises (PME) au sujet de l'accès et de l'utilisation des mégadonnées et des technologies de l'IA. Pour ce, il s'agit de répondre à la question suivante : « Comment les équipes de communication dans les PME, au Canada, envisagent l'usage et l'importance des mégadonnées et des technologies de l'IA pour leur travail ? » Le cadre théorique mobilisé dans ce travail de recherche est, d’un côté, la sociologie des usages qui aidera à comprendre et à analyser les usages des mégadonnées et des technologies de l'IA par les équipes de communication des PME ; d'un autre côté, l'approche narrative qui permettra de décrire les contextes de pratiques de ces usages. Nous avons eu recours à une méthode mixte. La méthode quantitative, via un questionnaire en ligne, a permis d'identifier la place qu'occupent ces technologies actuellement dans le travail régulier des professionnels de la communication des PME ainsi que les défis qu'ils affrontent pour la mise en place et l'utilisation de ces technologies. La méthode qualitative, via des entrevues semi-dirigées, a servi à mieux comprendre les contextes de pratiques où ces technologies sont utilisées ou pourraient être utilisées. Les résultats ont suggéré qu'il existe un écart entre les PME et les grandes organisations par rapport à l'exploitation et à l'utilisation de ces technologies. Cet écart est dû avant tout à certains défis tels que le manque de connaissances et d'expertise et le manque d'intérêt envers ces technologies. Cette inégalité pourrait être mitigée en mettant en place un plan de formation des gestionnaires afin de garantir des changements au niveau de la culture organisationnelle. Les résultats ont fait émerger l'importance de l'intervention humaine sans laquelle les idées générées par les mégadonnées et les technologies de l'IA risquent d'être biaisées. Ainsi, compte tenu des limites de cette étude exploratoire, elle a permis d'avancer les connaissances en faisant émerger quelques pistes de recherches futures en ce qui concerne les mégadonnées et les technologies de l'IA et leur importance pour les activités de communication dans les PME.
73

Réseaux de neurones pour l'apprentissage de la préférence en microscopie super-résolution

Robitaille, Louis-Emile 15 April 2021 (has links)
Pendant plusieurs années, la microscopie à fluorescence a été limitée par le phénomène de diffraction. Or, pour étudier des phénomènes dynamiques à l’intérieur des cellules, une résolution nanométrique est souvent nécessaire. Pour ce faire, une avancée importante pour la microscopie super-résolution fut l’invention du microscope à déplétion par émission stimulée(STED pour STimulated-Emission-Depletion) (Hell and Wichmann, 1994). Si la microscopieSTED permet d’atteindre la précision nanométrique, celle-ci consiste en une technique extrêmement sophistiquée et son utilisation requiert des connaissances avancées dans plusieurs domaines, par exemple, la physique, la chimie et la biologie. Dans le but de rendre le microscope plus accessible, Durand et al. (2018) tire profit des dernières avancées en intelligence artificielle pour automatiser le paramétrage du STED à l’aide d’une boucle d’optimisation. L’objectif visé est de produire des images avec la plus haute qualité tout en minimisant le photo blanchiment et le temps d’exposition. L’incapacité de mesurer la qualité des images et de choisir un compromis parmi les objectifs nécessite malheureusement toujours la présence d’un expert derrière le microscope. En automatisant l’évaluation de la qualité des images et la sélection de compromis, ce mémoire vise à montrer le potentiel des réseaux de neurones pour l’apprentissage de la préférence en sciences de la vie. / For many years, fluorescent microscopy has been limited by diffraction. However, to study dynamic phenomena inside cells, a nanometric resolution is often necessary. To cope with this problem, an important development for fluorescent microscopy was the invention ofSTimulated-Emission-Depletion microscopy (STED) (Hell and Wichmann, 1994). If STEDachieves nanometric microscopy, it is also an extremely sophisticated technique that requires advanced knowledge across a wide range of domains, e.g. physics, chemistry and biology. With the goal of democratising the microscope, Durand et al. (2018) use the last development in artificial intelligence to automate STED parameterization with an optimisation loop. The objective aimed is to produce high-quality images while minimising photo bleaching and exposition time. The inability of measuring image quality and of choosing between compromise among objectives still forces an expert to stay behind the microscope. By automating the assessment of image quality and the selection of compromise, this master thesis intends to demonstrate the potential of neural networks for preference learning in life science.
74

Analyse par profilage génique du phénotype psoriasique des substituts cutanés produits par la méthode d'auto-assemblage

Pouliot-Bérubé, Claudia 23 April 2018 (has links)
Le psoriasis est une maladie inflammatoire de la peau pour laquelle aucun traitement curatif n’a vu le jour jusqu’à présent. L’étiologie étant complexe, la recherche dans ce domaine vise donc une meilleure compréhension de la pathologie. Pour ce faire, il faut mettre sur pied des modèles in vitro représentatifs de la pathologie, ce que nous faisons au LOEX. Ce projet porte sur la caractérisation par profilage génique de notre modèle afin d’en poursuivre l’optimisation éventuelle. Pour ce faire, nous avons produit différents substituts sains, lésionnels et non-lésionnels, puis nous en avons analysé le transcriptome. Dans un second temps, nous avons tenté de mimer la condition inflammatoire via l’addition de cytokines au sein des substituts lésionnels. Ces résultats démontrent d’une part la force du modèle existant, mais d’autre part, que la supplémentation en cytokines a des effets positifs sur le transcriptome, le rendant quasi identique à celui de peaux psoriasiques in vivo. / Psoriasis is a chronic inflammatory skin disease for which no cure has emerged. Research in this area aims to better understanding its complex etiology. Representative models of the pathology are needed and it is part of our expertise to develop psoriatic skin substitutes at LOEX. This project has focused on the characterization of our model by gene profiling in order to pursue its optimization. Different kinds of substitutes were produced and the transcriptome was analyzed. We also attempted to mimic the addition of immune cells via the addition of cytokines during lesional skin reconstruction. Cytokines chosen were identified as playing a key role in psoriasis. These results demonstrated on one hand, the strength of our original model and on the other hand, the positive impact on the transcriptome that cytokines supplementation can produce, making it almost identical to psoriatic skin in vivo.
75

Évaluation de la structure épidermique des substituts cutanés produits par la méthode d'auto-assemblage

Angers, Laetitia 23 April 2018 (has links)
Une adaptation de la méthode d’auto-assemblage développée au LOEX permet de produire des substituts cutanés bicouches ayant un phénotype psoriasique. Le premier objectif de ce travail était d’évaluer si une conservation par la congélation des substituts cutanés était envisageable afin d’avoir accès à ces derniers en tout temps pour effectuer des analyses physiochimiques sans délais. Les études réalisées sur des substituts sains montrent qu’elle ne l’est pas dans sa méthodologie actuelle puisqu’elle affecte la fonction barrière des substituts. Par ailleurs, en raison du rôle des lipides épidermiques dans la fonction barrière et de leur implication dans le psoriasis, une caractérisation de ces lipides a été effectuée par chromatographie en phase gazeuse. Les résultats obtenus montrent principalement une diminution de la proportion d’acide linoléique dans les substituts par rapport à la peau normale humaine. Ces résultats sont prometteurs en raison du rôle de cet acide et de ses métabolites dans l’inflammation. / Adaptation of the self-assembly method developed at LOEX allows us to produce bilayered skin substitutes with psoriatic phenotype. The first aim of this study was to evaluate if freezing of the skin substitutes is possible without affecting its integrity, in order to access the skin substitutes in anytime to perform physicochemical analysis without delay. Results, obtained with control skin substitutes produced via the standard described self-assembly method, showed that freezing clearly affected the skin barrier function of the skin substitutes. Moreover, because of their implication in skin barrier and in psoriasis pathology, epidermal skin lipids of control and psoriatic skin substitutes were characterized by gas chromatography. Results showed mainly a significant reduction of the linoleic acid proportion in skin substitutes compared to normal human skin. These results are promising because of the implication of linoleic acid and its metabolites in inflammation.
76

Approches par bandit pour la génération automatique de résumés de textes

Godbout, Mathieu 09 July 2021 (has links)
Ce mémoire aborde l'utilisation des méthodes par bandit pour résoudre la problématique de l'entraînement de modèles de générations de résumés extractifs. Les modèles extractifs, qui bâtissent des résumés en sélectionnant des phrases d'un document original, sont difficiles à entraîner car le résumé cible correspondant à un document n'est habituellement pas constitué de manière extractive. C'est à cet effet que l'on propose de voir la production de résumés extractifs comme différents problèmes de bandit, lesquels sont accompagnés d'algorithmes pouvant être utilisés pour l'entraînement. On commence ce document en présentant BanditSum, une approche tirée de la litérature et qui voit la génération des résumés d'un ensemble de documents comme un problème de bandit contextuel. Ensuite, on introduit CombiSum, un nouvel algorithme qui formule la génération du résumé d'un seul document comme un bandit combinatoire. En exploitant la formule combinatoire, CombiSum réussit à incorporer la notion du potentiel extractif de chaque phrase à son entraînement. Enfin, on propose LinCombiSum, la variante linéaire de CombiSum qui exploite les similarités entre les phrases d'un document et emploie plutôt la formulation en bandit linéaire combinatoire. / This thesis discusses the use of bandit methods to solve the problem of training extractive abstract generation models. The extractive models, which build summaries by selecting sentences from an original document, are difficult to train because the target summary of a document is usually not built in an extractive way. It is for this purpose that we propose to see the production of extractive summaries as different bandit problems, for which there exist algorithms that can be leveraged for training summarization models.In this paper, BanditSum is first presented, an approach drawn from the literature that sees the generation of the summaries of a set of documents as a contextual bandit problem. Next,we introduce CombiSum, a new algorithm which formulates the generation of the summary of a single document as a combinatorial bandit. By exploiting the combinatorial formulation,CombiSum manages to incorporate the notion of the extractive potential of each sentence of a document in its training. Finally, we propose LinCombiSum, the linear variant of Com-biSum which exploits the similarities between sentences in a document and uses the linear combinatorial bandit formulation instead
77

Calibration par intelligence artificielle de la détermination des besoins en chaux des sols acides

Dupre, Lenz Clove Richardly 03 August 2022 (has links)
Au Québec, dans toutes les provinces canadiennes et dans 18 États américains, la méthode de détermination des besoins en chaux des sols agricoles est basée sur l'analyse du pH[indice SMP]. Cependant, cette méthode pose des problèmes de précision par rapport aux sols dont les besoins en chaux sont faibles. Ainsi cette méthode n'est pas trop en phase avec la réalité agronomique d'une majorité de sols du Québec ayant de faibles besoins et entretenus chaque année par des pratiques de chaulage. L'objectif de cette étude était de développer une nouvelle procédure d'évaluation des besoins en chaux basée sur les analyses routinières des sols (pH[indice eau], MO, P[indice M3], K[indice M3], Ca[indice M3], Mg[indice M3], Al[indice M3]) et leur calibration par apprentissage supervisé sur les courbes de titrage de l'acidité des sols. Pour réaliser cette étude, 270 courbes de titrage ont été élaborés à partir d'expériences de laboratoire, ensuite ces courbes ont été paramétrisés et les covariables découlant de cette paramétrisation sont prédits par intelligence artificielle à partir de caractéristiques physico-chimiques de base des sols analysés. Ce projet de recherche a été réalisé de façon à prendre le plus en considération possible la réalité des sols agricoles au Québec, l'échantillonnage a été faite au niveau de 9 régions du Québec. Les résultats obtenus prouvent qu'il est possible de paramétriser une courbe de titration d'un sol et de prédire ses besoins en chaux à partir de ses paramètres physico-chimiques routinières. / In Quebec, in all Canadian provinces and in 18 American states, the method for determining the lime requirements of agricultural soils is based on pHSMP analysis. However, this method poses accuracy problems for soils with low lime requirements. Thus, this method is not in phase with the agronomic reality of a majority of Quebec soils with low needs and maintained each year by liming practices. The objective of this study was to develop a new procedure for evaluating lime requirements based on routine soil analyses (pH[subscript water], MO, PM3, KM3, CaM3, MgM3, AlM3) and their calibration by supervised learning on soil acidity titration curves. To carry out this study, 270 titration curves were elaborated from laboratory experiments, then these curves were parameterized and the covariates resulting from this parameterization are predicted by artificial intelligence from basic physicochemical characteristics of the analyzed soils. This research project was carried out in such a way as to take into account the reality of agricultural soils in Quebec as much as possible. The sampling was done in 9 regions of Quebec. The results obtained prove that it is possible to parameterize a soil titration curve and to predict its lime needs from its routine physico-chemical parameters.
78

Modélisation du rôle de l'innervation dans un équivalent cutané psoriasique reconstruit par génie tissulaire

Ringuet, Julien 14 February 2021 (has links)
Dans le cadre de ce projet de maîtrise, le but principal était de poursuivre le développement d'un modèle de peau psoriasique reconstruit par génie tissulaire et de caractériser le rôle de l'innervation sensorielle dans le phénotype psoriasique de ces derniers. Le développement de cet équivalent vise avant tout à mieux comprendre la pathogénèse du psoriasis et potentiellement ouvrir la porte à de nouvelles voies thérapeutiques permettant de contrôler la maladie ou ses symptômes. Avec nos protocoles, nous avons pu démontrer que l'ajout d'innervation à un équivalent de peau reconstruit par génie tissulaire exacerbait le phénotype psoriasique en tout ou en partie. Jusqu'à présent, la caractérisation des cytokines étudiées dans nos protocole nous laisse croire que le facteur de croissance neuronal (NGF) est le principal médiateur de la prolifération kératinocytaire caractérisant les peaux psoriasiques.
79

Simulation et inférence de réseaux de neurones à l’aide d’intelligence artificielle

Bahdine, Mohamed 02 February 2021 (has links)
La représentation par réseau est un outil puissant pour la modélisation des systèmes dynamiques complexes. Elle est notamment utilisée en neurosciences pour étudier le cerveau. Cependant, extraire un connectome, soit la liste des neurones et des connexions qui les relient, demeure un défi important pour des cerveaux de plusieurs milliers de neurones. C’est le cas du cerveau de la larve du poisson-zèbre qui contient près d’une centaine de milliers de neurones. Puisque les synapses ne peuvent être directement observées, les connexions entre neurones doivent plutôt être inférées. Plusieurs méthodes classiques, dites d’inférence fonctionnelle, issues des statistiques et de la théorie de l’information, prédisent la connectivité à partir des séries temporelles qui décrivent l’activité des neurones. Plus récemment, des avancées en intelligence artificielle ont ouvert la voie à de nouvelles méthodes d’inférence. L’objectif du projet de maîtrise exposé dans ce mémoire est de comparer la performance des méthodes de l’intelligence artificielle à celle des méthodes bien établies. Puisque la connectivité réelle est nécessaire pour une telle comparaison, un simulateur de réseau de neurones est utilisé pour générer des séries temporelles d’activité à partir de connectivités réelles extraites de vidéos d’activité. Il est montré que la calibration d’un tel simulateur, dans le but d’obtenir de l’activité similaire à celle des poissons-zèbres, n’est pas une tâche triviale. Une approche d’apprentissage profond est donc conçue pour prédire, à partir de métriques d’activité globale, les paramètres de simulation idéaux. Il est ensuite montré, sur 86% des simulations générées, qu’un modèle de réseau de neurones artificiels à convolution performe significativement mieux que les autres méthodes d’inférence. Cependant, lorsqu’un entraînement supervisé est impossible, la méthode classique de transfert d’entropie performe mieux qu’un modèle d’apprentissage profond nonsupervisé sur 78% des simulations générées. / Complex network analysis is a powerful tool for the study of dynamical systems. It is often used in neuroscience to study the brain. However, extraction of complete connectomes, i.e. , the list of all neurons and connections, is still a challenge for large brains. This is the case for the brain of the zebrafish which contains almost a hundred thousand neurons. Since direct observation of synapses is still intractable for a brain of this size, connections between neurons must be inferred from their activity. It is indeed possible to extract time series of activity for all neurons, by making them fluorescent upon activation through genetic engineering and by leveraging the zebrafish’s transparency during the larval stage. Then, so-called methods of functional inference, based on information theory, can be used to predict the connectivity of neurons from time series of their activity. Recent breakthroughs in artificial intelligence have opened the door to new methods of inference. The goal of the project described in this thesis is to compare the performance of such new methods to the performance of well-established ones. Since ground truth of connectivity must be known for comparison, a simulator is used to generate synthetic time series of activity from known connectivity. It is shown that the tuning of such a simulator, in order to generate realistic data, is not an easy task. Therefore, a deep learning approach is proposed to predict optimal simulator parameters by analysis global dynamical metrics. Using the generated time series, it is shown that a convolutional neural network performs significantly better than well-established methods on 86% of simulations. However, in cases where supervised learning is impossible, the zebrafish’s case being an example, the classical method of Transfer Entropy performs better than an unsupervised deep learning model on 78% of simulations.
80

Process intensification in artificial gravity

Munteanu, Mugurel-Catalin 13 April 2018 (has links)
L'amélioration des propriétés hydrodynamiques des réacteurs chimiques est toujours un grand défi pour les ingénieurs en génie des procèdes. La réalisation d'expériences sur des réacteurs chimiques situés dans un champ magnétique inhomogène peut donner des informations importantes concernant les mécanismes des réactions chimiques ou les propriétés hydrodynamiques du système. Un champ magnétique inhomogène sera généré par un aimant solénoïdal à supraconductivité NbTi et appliqué à un réacteur chimique. Les directions de recherche sont: les propriétés magnéto hydrodynamiques des réacteurs situés dans le champ magnétique généré par le solénoïde (réalisation de conditions d'hypogravité ou de macrogravité), l'effet du champ magnétique sur les réponses catalytiques de certaines réactions sélectionnées et l'effet du champ magnétique sur l'écoulement du fluide pour les réacteurs a lit fixe. Le champ magnétique extérieur inhomogène exerce une force magnétique qui peut modifier la direction et la valeur de la force gravitationnelle.

Page generated in 0.087 seconds