• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 27
  • 12
  • Tagged with
  • 106
  • 106
  • 74
  • 55
  • 54
  • 39
  • 32
  • 28
  • 28
  • 21
  • 20
  • 18
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement de méthodes d'analyse avancées de données expérimentales sur les phénomènes d'encrassement d'échangeurs thermiques en conditions réelles de fonctionnement / Development of Advanced Analysis Methods for Experimental Data on Fouling Phenomena in Heat Exchangers in real operating condition

Weber, Christophe 29 October 2018 (has links)
L’absence d’outils dédiés, permettant aux industriels d’agir efficacement sur les phénomènes d’encrassement des échangeurs thermiques est à l’origine de cette étude. L’objet de la thèse est de construire une méthodologie pour permettre d’évaluer in situ les paramètres caractéristiques de l’effet d’encrassement, de mettre en œuvre et de valider ensuite des méthodes d’analyse de ces données pour en extraire un outil de prédiction des effets d’encrassement à partir de la connaissance d’un nombre réduit de données de fonctionnement. Cette démarche réalisée pour différents systèmes thermohydrauliques identifiés et instrumentés privilégie des processus d’encrassement dans des récupérateurs thermiques sur fumées et gaz de combustion ainsi que sur des eaux chargées. Nous concentrerons nos efforts sur les phénomènes d’encrassement d’échangeurs en environnement réel, en insistant sur le développement des méthodologies d’identification des cinétiques d’encrassement et sur les démarches de validation pour des cas concrets. Enfin, une application de programme de maintenance, par différentes stratégies de nettoyage limitant les dégradations de l’efficacité des installations étudiées, sera conduite : elle permettra d’identifier les stratégies les plus adaptées. La finalité de la démarche étant destinée à terme, pour une installation quelconque, de développer un outil expert à partir d’un nombre réduit d’informations. Celui-ci permettrait d’évaluer la cinétique d’encrassement de l’équipement thermique pour une période future et d’élaborer une pratique de maintenance dans la perspective d’une réduction des coûts énergétiques et des coûts d’intervention. / The lack of dedicated tools, enabling at industrials to act effectively on the fouling phenomena in heat exchanger is the origin of this study. The purpose of the thesis is to develop a methodology in order to assess - in situ -at the characteristic parameters of the fouling effects, implement and then validate the data analysis methods to extract a fouling effects prediction tools from the knowledge of a limited number of operating data. This approach realized for different identified and instrumented thermohydraulic systems favors the fouling process in heat exchangers on charged water. We will focus on the phenomena of fouling of heat exchangers in a real environment, with emphasis on the development of methodologies to identify the fouling kinetic's and on the approach for validation of practical and concrete cases. Finally, application of a maintenance program by different cleaning strategies limiting the degradation of the efficiency of the facilities studied will be conducted: it will identify the most appropriate strategies. The purpose of the initiative, intended to run for any installation, is to develop an expert tool from reduced amount of information. This tool assesses to evaluate the kinetics of fouling of the thermal equipment for a future period and develop a maintenance practice from the perspective of reducing energy costs and costs of intervention.
2

Détection de sites sécuritaires par réseaux de neurones pour un atterrissage autonome sur corps planétaire

Belley, Katia January 2008 (has links)
Dans le cadre des futures missions d'exploration planétaire comportant un atterrissage, la sélection d'un site d'atterrissage sécuritaire en temps réel devient une technologie de plus en plus recherchée. Celle-ci permet d'augmenter les retombées scientifiques de la mission en donnant accès à des régions à plus haut potentiel scientifique. Elle permet aussi d'accroître les chances de réussite de la mission et d'augmenter la charge utile des équipements en rendant l'atterrissage plus sécuritaire. Parmi les méthodes développées pour faire la sélection d'un site d'atterrissage, celle proposée par Andrew Johnson du Jet Propulsion Laboratory pour évaluer le degré de sécurité de sites d'atterrissage à partir d'images lidar prises pendant la descente s'avère très intéressante. Il utilise une technique nommée moindres carrées médians pour calculer la pente et la rugosité des sites d'atterrissage. Cependant, le temps de calcul exigé par cette approche la rend difficile à exécuter en temps réel. Ce mémoire de maîtrise propose l'utilisation d'un système à base de RNA (réseaux de neurones artificiels) pour faire l'approximation de la méthode des moindres carrés médians. Une architecture comportant quatre RNA a été développée afin de déterminer la pente et la rugosité d'un site d'atterrissage. Trois RNA permettent d'évaluer les paramètres du plan médian afin d'estimer ces deux propriétés du terrain. Un réseau optionnel est spécialisé pour l'évaluation des sites comportant une grande rugosité. Des modules de prétraitement et post-traitement des données sont utilisés pour améliorer la performance des réseaux de neurones et des modules d'arbitrage servent à déterminer les deux sorties du système. Une solution est aussi proposée pour présélectionner une zone d'atterrissage sécuritaire afin de réduire le nombre de sites individuels à évaluer. Plusieurs types de réseaux de neurones ont été comparés pour résoudre la problématique. Des lignes directrices ont été établies permettant de choisir les réseaux de neurones les plus efficaces pour chacun des modules en fonction du temps de calcul disponible. Le système développé permet de diminuer considérablement le temps de calcul requis pour résoudre la problématique. De plus, la solution proposée peut facilement être adaptée en fonction des objectifs de la mission spatiale.
3

Étude numérique et expérimentale de coulis de glace à base de propylène- ou d’éthylène-glycol

Trabelsi, Senda January 2017 (has links)
Les coulis de glace sont des réfrigérants secondaires considérés comme propres. Ils sont notamment utilisés dans la climatisation, la conservation d’aliments ou certaines applications médicales. Ils se composent de particules de glace et d'un mélange d'eau liquide et d'un additif (ici le propylène-glycol ou l’éthylène-glycol) utilisé pour abaisser le point de congélation de l'eau. Les caractéristiques rhéologiques des coulis de glace ont été mesurées à l'aide d’un rhéomètre de type Discovery HR2 équipé d'une géométrie de type "vane". On considère trois concentrations initiales de soluté (5%, 14% et 24%) pour les deux additifs et les fractions massiques de glace varient entre 5% et 65%. Les résultats expérimentaux révèlent que les coulis de glace sont généralement des fluides non Newtoniens présentant un comportement rhéofluidifiant ou rhéoépaississant en fonction des conditions expérimentales. Les indices d’écoulement et de consistance impliqués dans le modèle de Herschel-Bulkley ont été évalués selon la méthode des moindres carrés. Les résultats sont finalement validés à partir d’une base de données expérimentales issues de la littérature et les prédictions d'un modèle de réseau de neurones artificiels.
4

Segmentation hiérarchique du domaine sémantique pour l'accélération d'un modèle de langage

Morin, Frédéric January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
5

Développement d'un modèle statistique neuronal pour la description fine de la pollution atmosphérique par le dioxyde d'azote : application à la région parisienne

Rude, Julien 23 January 2008 (has links)
Les oxydes d'azote (NOx) sont les indicateurs principaux de la pollution atmosphérique produite par les véhicules. La concentration de NO2, polluant réglementé pour ses effets sur la santé, dépasse en 2006, à Paris et en proche banlieue, les niveaux réglementaires pour l'ensemble des stations qui le mesurent, et en particulier à proximité du trafic. Ainsi, les six stations franciliennes de proximité au trafic automobile, dépassent largement l'objectif de qualité (jusqu'à 2.5 fois) et la valeur limite (jusqu'à deux fois). L'objectif de ma thèse visait à mettre au point un modèle qtatistique de détermination des concentrations "respirables" par la population, pour le NO2 en milieu urbain. Compte tenu de la nécessité d'une base de données statistiquement représentative, le modèle a été développé sur la région parisienne. Nous avons sélectionné les variables nécessaires à la description du système et à la définition de la fonction de régression neuronale sur la base de notre connaissance du phénomène étudié. Les paramètres de la régression ont été optimisés au cours d'une phase d'apprentissage à partir d'observations relevées à 5 stations de "trafic" et 5 stations "urbaines". Les variables que nous avons retenues sont (i) des concentrations de fond en NO2 estimées par un modèle de chimie transport à l'échelle régionale, (ii) des paramètres d'émissions locales pour les sources urbaines, (iii) des paramètres de la topographie urbaine qui participent à la dispersion en milieu urbain et enfin (iv) des paramètres météorologiques. Le modèle construit (nommé PAP) est un modèle hybride prenant en compte les sorties d'un modèle régional déterministe CHIMERE, pour quantifier le niveau de fonds urbain, et intégre une fonction statistique de réduction d'échelle pour estimer les champs de concentrations au niveau "respirable" de la rue / Résumé anglais manquant
6

Récupération en temps réel de coïncidences diffuses triples dans un scanner TEP à l'aide d'un réseau de neurones artificiels

Geoffroy, Charles January 2013 (has links)
Le projet de recherche s’inscrit dans un contexte d'imagerie moléculaire, où la modalité d'imagerie d'intérêt est la tomographie d'émission par positrons (TEP) appliquée en recherche sur les petits animaux. Afin de permettre l’observation de détails infimes, les plus récents développements sur ce genre de scanner ont constamment amélioré leur résolution spatiale, sans toutefois obtenir les mêmes progrès en terme de sensibilité. Parmi les méthodes étudiées afin de combler cette lacune, la récupération de coïncidences triples à l’aide d'un réseau de neurones artificiels semble être une technique viable. En effet, malgré une dégradation du contraste, celle-ci permet d'améliorer substantiellement la sensibilité de l’image. Cette technique n'est cependant pas prête à être intégrée aux protocoles de recherche, car son application est pour l’instant limitée à un traitement hors ligne des données d'acquisition d'un scanner. En conséquence, la faisabilité d'une telle approche en temps réel n'est donc pas garantie, car le flux de coïncidences d'un scanner est très important et ses ressources de calculs sont limitées. Dans l’intention d'inclure ce gain en sensibilité pendant une acquisition où le traitement est effectué en temps réel, ce projet de recherche propose une implémentation d'un réseau de neurones artificiels au sein d'une matrice de porte programmable (FPGA) pouvant récupérer en temps réel les coïncidences diffuses triples du scanner LabPET, version 4 cm. La capacité de traitement obtenue est 1 087 000 coïncidences triples par seconde en utilisant 23.1% des ressources d'unités logiques d'un FPGA de modèle XC2VP50. Comparativement à un programme équivalent à haute précision sur ordinateur personnel, l’analyse de validité prend la même décision dans 99.9% des cas et la même ligne de réponse est choisie dans 97.9% des cas. Intégrées à l’image, les coïncidences triples permettent une augmentation de sensibilité jusqu’à 39.7%, valeur qui est en deçà [de] celle obtenue des recherches antérieures, mais expliquée par des conditions d'acquisition différente. Au niveau de la qualité de l’image, la dégradation du contraste de 16,1% obtenu est similaire à celle observée antérieurement. En référence à ces résultats, les ressources limitées d'un scanner de tomographie d'émission par positrons sont avérées suffisantes pour permettre l’implémentation d'un réseau de neurones artificiels devant classifier en temps réel les coïncidences triples du scanner. En terme de contributions, l’implémentation en temps réel réalisée pour ce projet confirme la faisabilité de la technique et apporte une nouvelle approche concrète pour améliorer la sensibilité. Dans une autre mesure, la réussite du projet de recherche contribue à faire connaître la technique des réseaux de neurones artificiels dans le domaine de la tomographie d’émission par positrons. En effet, cette approche est pertinente à considérer en guise d'alternative aux solutions traditionnelles. Par exemple, les réseaux de neurones artificiels pourraient effectuer une évaluation correcte du phénomène des coïncidences fortuites.
7

Nanoparticules et réseaux de neurones artificiels : de la préparation à la modélisation

Rizkalla, Névine January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
8

Contribution à la mise au point d'un système mucoadhésif thermoréversible pour une libération topique contrôlée d'un médicament modèle

Gouda, Noha Mamdouh Zaky-Eldine January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
9

Conception et fabrication de neurones artificiels pour le traitement bioinspiré de l'information / Conception and fabrication of artificial neuron for bioinspired information processing

Hedayat, Sara 18 September 2018 (has links)
Actuellement, les technologies du traitement d'information ont atteint leurs limites et il devient donc urgent de proposer de nouveaux paradigmes capables de réduire la consommation d'énergie tout en augmentant la capacité de calcul des ordinateurs. Le cerveau humain est un fascinant et puissant organe, avec ses 300 milliards de cellule, il est capable d’effectuer des taches cognitives en consommant 20W. Dans ce contexte nous avons investiguer un nouveau paradigme appelé "neuromorphic computing" ou le traitement bio-inspiré de l'information.L'objectif de cette thèse est de concevoir et de fabriquer un neurone artificiel a très faible consommation utilisant les récentes avancées scientifiques dans les neurosciences et les nanotechnologies. Premièrement, on a investigué le fonctionnement d'un neurone vivant, sa membrane neuronale et nous avons exploré 3 différents modèles de membranes connues sous le nom de Hodgkin Huxley, Wei et Morris Lecar. Deuxièmement, en se basant sur le modèle de Morris Lecar, nous avons réalisé des neurones artificiels analogiques à spike avec différentes constantes de temps. Puis ils ont été fabriqués avec la technologie 65nm CMOS. Par la suite, nous les avons caractérisés et obtenu des performances dépassant l’état de l’art en terme de surface occupée, puissance dissipée et efficacité énergétique. Finalement, on a analysé et comparé le bruit dans ces neurones artificiels avec le bruit dans des neurones biologiques et on a démontré expérimentalement le phénomène de résonance stochastique. Ces neurones artificiels peuvent être extrêmement utiles pour une large variété d’application allant du traitement de données à l’application médicale. / Current computing technology has now reached its limits and it becomes thus urgent to propose new paradigms for information processing capable of reducing the energy consumption while improving the computing performances. Moreover, the human brain, is a fascinating and powerful organ with remarkable performances in areas as varied as learning, creativity, fault tolerance. Furthermore, with its total 300 billion cells, is able to perform complex cognitive tasks by consuming only around 20W. In this context, we investigated a new paradigm called neuromorphic or bio-inspired information processing.More precisely, the purpose of this thesis was to design and fabricate an ultra-low power artificial neuron using recent advances in neuroscience and nanotechnology. First, we investigated the functionalities of living neurons, their neuronal membrane and explored different membrane models known as Hodgkin Huxley, Wei and Morris Lecar models. Second, based on the Morris Lecar model, we designed analog spiking artificial neurons with different time constants and these neurons were fabricated using 65nm CMOS technology. Then we characterized these artificial neurons and obtained state of the art performances in terms of area, dissipated power and energy efficiency. Finally we investigated the noise within these artificial neurons, compared it with the biological sources of noise in a living neuron and experimentally demonstrated the stochastic resonance phenomenon. These artificial neurons can be extremely useful for a large variety of applications, ranging from data analysis (image and video processing) to medical aspect (neuronal implants).
10

Optimisation des procédés de mise en forme par les réseaux de neurones artificiels

Chamekh, Abdessalem 30 May 2008 (has links) (PDF)
Ce travail concerne la modélisation et l'optimisation des procédés de mise en forme par les Réseaux de Neurones Artificiels. Etant donnée que les méthodes classiques sont très coûteuses en temps de calcul et divergentes pour des problèmes présentant beaucoup des paramètres à contrôler, notre contribution consiste à développer une méthode de modélisation et d'optimisation plus rapide et efficace. Nous avons fait appel à une étude paramétrique pour coupler un programme basé sur la technique des RNA avec un code de calcul par la méthode des éléments finis. Néanmoins pour être viable, la méthode de modélisation et d'optimisation développé a été appliquée avec succès à des procédés de mise en forme complexes et variés. Elle a été testée en premier lieu pour la modélisation et l'optimisation du procédé d'emboutissage d'un flan circulaire et dans un second lieu pour l'identification des paramètres du matériau à partir du procédé d'hydroformage. La méthode a été aussi comparée avec une méthode d'optimisation classique de plusieurs points de vue. Il a été constaté le long de cette étude que notre démarche présente une grande potentialité à modéliser des relations qui sont difficile à les décrire avec des modèles mathématiques simple. Elle est aussi, rapide et parallélisable. La qualité des résultats obtenus est convaincante. Ce travail mène à des perspectives plus prometteuses. Elles peuvent être vulgarisées et exploitées dans d'autres applications.

Page generated in 0.0815 seconds