• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 11
  • 4
  • Tagged with
  • 30
  • 30
  • 30
  • 17
  • 16
  • 10
  • 9
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Étude numérique et expérimentale de coulis de glace à base de propylène- ou d’éthylène-glycol

Trabelsi, Senda January 2017 (has links)
Les coulis de glace sont des réfrigérants secondaires considérés comme propres. Ils sont notamment utilisés dans la climatisation, la conservation d’aliments ou certaines applications médicales. Ils se composent de particules de glace et d'un mélange d'eau liquide et d'un additif (ici le propylène-glycol ou l’éthylène-glycol) utilisé pour abaisser le point de congélation de l'eau. Les caractéristiques rhéologiques des coulis de glace ont été mesurées à l'aide d’un rhéomètre de type Discovery HR2 équipé d'une géométrie de type "vane". On considère trois concentrations initiales de soluté (5%, 14% et 24%) pour les deux additifs et les fractions massiques de glace varient entre 5% et 65%. Les résultats expérimentaux révèlent que les coulis de glace sont généralement des fluides non Newtoniens présentant un comportement rhéofluidifiant ou rhéoépaississant en fonction des conditions expérimentales. Les indices d’écoulement et de consistance impliqués dans le modèle de Herschel-Bulkley ont été évalués selon la méthode des moindres carrés. Les résultats sont finalement validés à partir d’une base de données expérimentales issues de la littérature et les prédictions d'un modèle de réseau de neurones artificiels.
2

Développement d'un modèle statistique neuronal pour la description fine de la pollution atmosphérique par le dioxyde d'azote : application à la région parisienne

Rude, Julien 23 January 2008 (has links)
Les oxydes d'azote (NOx) sont les indicateurs principaux de la pollution atmosphérique produite par les véhicules. La concentration de NO2, polluant réglementé pour ses effets sur la santé, dépasse en 2006, à Paris et en proche banlieue, les niveaux réglementaires pour l'ensemble des stations qui le mesurent, et en particulier à proximité du trafic. Ainsi, les six stations franciliennes de proximité au trafic automobile, dépassent largement l'objectif de qualité (jusqu'à 2.5 fois) et la valeur limite (jusqu'à deux fois). L'objectif de ma thèse visait à mettre au point un modèle qtatistique de détermination des concentrations "respirables" par la population, pour le NO2 en milieu urbain. Compte tenu de la nécessité d'une base de données statistiquement représentative, le modèle a été développé sur la région parisienne. Nous avons sélectionné les variables nécessaires à la description du système et à la définition de la fonction de régression neuronale sur la base de notre connaissance du phénomène étudié. Les paramètres de la régression ont été optimisés au cours d'une phase d'apprentissage à partir d'observations relevées à 5 stations de "trafic" et 5 stations "urbaines". Les variables que nous avons retenues sont (i) des concentrations de fond en NO2 estimées par un modèle de chimie transport à l'échelle régionale, (ii) des paramètres d'émissions locales pour les sources urbaines, (iii) des paramètres de la topographie urbaine qui participent à la dispersion en milieu urbain et enfin (iv) des paramètres météorologiques. Le modèle construit (nommé PAP) est un modèle hybride prenant en compte les sorties d'un modèle régional déterministe CHIMERE, pour quantifier le niveau de fonds urbain, et intégre une fonction statistique de réduction d'échelle pour estimer les champs de concentrations au niveau "respirable" de la rue / Résumé anglais manquant
3

Récupération en temps réel de coïncidences diffuses triples dans un scanner TEP à l'aide d'un réseau de neurones artificiels

Geoffroy, Charles January 2013 (has links)
Le projet de recherche s’inscrit dans un contexte d'imagerie moléculaire, où la modalité d'imagerie d'intérêt est la tomographie d'émission par positrons (TEP) appliquée en recherche sur les petits animaux. Afin de permettre l’observation de détails infimes, les plus récents développements sur ce genre de scanner ont constamment amélioré leur résolution spatiale, sans toutefois obtenir les mêmes progrès en terme de sensibilité. Parmi les méthodes étudiées afin de combler cette lacune, la récupération de coïncidences triples à l’aide d'un réseau de neurones artificiels semble être une technique viable. En effet, malgré une dégradation du contraste, celle-ci permet d'améliorer substantiellement la sensibilité de l’image. Cette technique n'est cependant pas prête à être intégrée aux protocoles de recherche, car son application est pour l’instant limitée à un traitement hors ligne des données d'acquisition d'un scanner. En conséquence, la faisabilité d'une telle approche en temps réel n'est donc pas garantie, car le flux de coïncidences d'un scanner est très important et ses ressources de calculs sont limitées. Dans l’intention d'inclure ce gain en sensibilité pendant une acquisition où le traitement est effectué en temps réel, ce projet de recherche propose une implémentation d'un réseau de neurones artificiels au sein d'une matrice de porte programmable (FPGA) pouvant récupérer en temps réel les coïncidences diffuses triples du scanner LabPET, version 4 cm. La capacité de traitement obtenue est 1 087 000 coïncidences triples par seconde en utilisant 23.1% des ressources d'unités logiques d'un FPGA de modèle XC2VP50. Comparativement à un programme équivalent à haute précision sur ordinateur personnel, l’analyse de validité prend la même décision dans 99.9% des cas et la même ligne de réponse est choisie dans 97.9% des cas. Intégrées à l’image, les coïncidences triples permettent une augmentation de sensibilité jusqu’à 39.7%, valeur qui est en deçà [de] celle obtenue des recherches antérieures, mais expliquée par des conditions d'acquisition différente. Au niveau de la qualité de l’image, la dégradation du contraste de 16,1% obtenu est similaire à celle observée antérieurement. En référence à ces résultats, les ressources limitées d'un scanner de tomographie d'émission par positrons sont avérées suffisantes pour permettre l’implémentation d'un réseau de neurones artificiels devant classifier en temps réel les coïncidences triples du scanner. En terme de contributions, l’implémentation en temps réel réalisée pour ce projet confirme la faisabilité de la technique et apporte une nouvelle approche concrète pour améliorer la sensibilité. Dans une autre mesure, la réussite du projet de recherche contribue à faire connaître la technique des réseaux de neurones artificiels dans le domaine de la tomographie d’émission par positrons. En effet, cette approche est pertinente à considérer en guise d'alternative aux solutions traditionnelles. Par exemple, les réseaux de neurones artificiels pourraient effectuer une évaluation correcte du phénomène des coïncidences fortuites.
4

Architecture de transformée de cosinus discrète sur deux dimensions sans multiplication et mémoire de transposition

Dugas, Alexandre January 2012 (has links)
Au cours des dix dernières années, les capacités technologiques de transmission vidéo rendent possible une panoplie d'applications de télésanté. Ce média permet en effet la participation de médecins spécialisés à des interventions médicales ayant lieu à des endroits distants. Cependant, lorsque ces dernières se déroulent loin des grands centres, les infrastructures de télécommunication n'offrnt pas un débit assez important pour permettre à la fois une transmission d'images fluides et de bonne qualité. Un des moyens entrepris pour pallier ce problème est l'utilisation d'encodeur et décodeur vidéo (CODEC) permettant de compresser les images avant leur transmission et de les décompresser à la réception. Il existe un bon nombre de CODEC vidéo offrant différent compromis entre la qualité d'image, la rapidité de compression, la latence initiale de traitement et la robustesse du protocole de transmission. Malheureusement, aucun n'est en mesure de rencontrer simultanément toutes les exigences définies en télésanté. Un des problèmes majeurs réside dans le délai de traitement initial causé par la compression avec perte du CODEC. L'objet de la recherche s'intéresse donc à deux CODEC qui répondent aux exigences de délais de traitement et de qualité d'image en télésanté, et plus particulièrement pour une application de téléassistance en salle d'urgence. L'emphase est mise sur les modules de quantification des CODEC qui utilisent la transformée en cosinus discrète. Cette transformée limite la transmission des images vidéo fluide et quasi sans délais en raison des délais de traitement initiaux issus des nombreuses manipulations arithmétiques qu'elle requiert. À l'issu de la recherche, une structure efficace de la transformée en cosinus est proposée afin de présenter une solution au temps de latence des CODEC et ainsi de répondre aux exigences de télécommunication en télésanté. Cette solution est implémentée dans un CODEC JPEG développé en VHDL afin de simuler un contexte d'application réelle.
5

Représentation adaptative d'images de télédétection à très haute résolution spatiale une nouvelle approche hybride (la décomposition pyramidale avec des réseaux de neurones)

Cherkashyn, Valeriy January 2011 (has links)
Résumé: De nos jours l’observation de la terre à l’aide d’images satellitaires de très haute résolution spatiale (Ikonos, Quickbird, World View-2) donne de nombreuses possibilités pour gérer de l’information à l’échelle mondiale. Les technologies actuelles d’acquisition d’information sont à l’origine de l’augmentation importante du volume des données. L’objectif général de cette thèse consiste à développer une nouvelle méthode hybride de représentation d’image numérique de très haute résolution spatiale qui améliore la qualité visuelle d’images compressée avec un haut niveau de compression (100 fois et plus). La nouvelle méthode hybride exploite la transformation pyramidale inverse d’image numérique en utilisant des réseaux de neurones artificiels. Elle combine le traitement spatial et la transformation abstraite de l’image. L’emploi de l’approche de la transformation pyramidale inverse a démontré l’efficacité du traitement de l’information à une ou à des échelles spécifiques, sans interférer ou ajouter un temps de calcul inutile. Cette approche est essentielle pour réaliser une transformation progressive d’image. Les résultats montrent une amélioration du rapport signal pur bruit de 4 dB pour chaque couche additionnelle de la transformation progressive. Nous avons réussi à garder une qualité visuelle d’images compressées comparable, jusqu’au niveau de la compression de 107 fois. De plus, pour le niveau de la compression de 274 fois, nous avons obtenu une amélioration de la qualité visuelle en comparaison des méthodes de compression courantes (JPEG, JPEG2000). Les résultats du travail confirment l’hypothèse que les images de télédétection possèdent un haut degré de redondance et que l’utilisation d’un réseau de neurones est un bon moyen pour trouver l’opérateur efficace du regroupement de pixels. Cette nouvelle méthode de représentation d’images à très haute résolution spatiale permet de réduire le volume des données sans détérioration majeure de la qualité visuelle, comparé aux méthodes existantes. Enfin, nous recommandons de poursuivre l’exploration du domaine des calculs distribués tels que les réseaux des neurones artificiels, considérant l’augmentation de la performance des outils informatiques (nanotechnologies et calculs parallèles). || Abstract: Earth observations using very high-resolution satellite imagery, such as from Ikonos, QuickBird or WorldView-2, provide many possibilities for addressing issues on a global scale. However, the acquisition of high-resolution imagery using these technologies also significantly increases the volume of data that must be managed. With the passing of each day, the number of collected satellite images continues to increase. The overall objective of this work is to develop new hybrid methods for numerical data representation that improve the visual quality of compressed satellite visible imagery for compression levels of 100 times and more. Our new method exploits the inverse pyramid transform using artificial neural networks, and thus addresses the trend in the field of remote sensing and image compression towards combining the spatial processing and abstract transformation of an image. Our implementation of the pyramidal inverse transformation demonstrates the effectiveness of information processing for specific levels, without interfering or adding unnecessary computation time. This approach is essential in order to achieve a gradual transformation of an image. The results showed an improvement in the signal to noise ratio of 4dB for each additional layer in the pyramidal image transformation. We managed to keep a similar level of visual quality for the compressed images up to a compression level of 107 times. In addition, for a compression level of 274, we improved the visual quality as compared to standard compression methods (JPEG, JPEG2000). The results of this study confirm the hypothesis that remote sensing images have a high degree of redundancy and that the use of neural networks is a good way to find the effective operator of the pixel combination. This new method for image representation reduces the volume of data without major deterioration in the visual quality of the compressed images, as compared to existing methods. Finally, we recommend further exploration in the field of distributed computing, such as artificial neural networks, considering the rapidly increasing performance of computers in the near future (parallel computing technology and nanotechnology).
6

Modélisation d'un réseau de neurones humains dans le but de comprendre la dégradation neurale lors du vieillissement

Allard, Rémy January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
7

Simulation du mouvement pulmonaire personnalisé par réseau de neurones artificiels pour la radiothérapie externe / Personalizes lung motion simulation fore external radiotherapy using an artificial neural network

Laurent, Rémy 21 September 2011 (has links)
Le développement de nouvelles techniques en radiothérapie externe ouvre de nouvelles voies dans la recherche de gain de précision dans la distribution de dose en passant notamment par la connaissance du mouvement pulmonaire. La simulation numérique NEMOSIS (Neural Network Motion Simulation System) basée sur les Réseaux de Neurones Artificiels (RNA) développée ici permet, en plus de déterminer de façon personnalisée le mouvement, de réduire les doses nécessaires initiales pour le déterminer. La première partie présente les techniques actuelles de traitement, les mouvements pulmonaires ainsi que les méthodes de simulation ou d’estimation du mouvement déjà existantes. La seconde partie décrit le réseau de neurones artificiels utilisé et les étapes de son paramétrage pour répondre à la problématique posée. Une évaluation précise de notre approche a été réalisée sur des données originales. Les résultats obtenus sont comparés avec une méthode d’estimation du mouvement. Les temps de calcul extrêmement faibles, de l’ordre de 7 millisecondes pour générer une phase respiratoire, ont permis d’envisager son utilisation en routine clinique. Des modifications sont apportées à NEMOSIS afin de répondre aux critères de son utilisation en radiothérapie externe et une étude sur le mouvement de contours tumoraux est effectuée. Ces travaux ont mis en place les bases de la simulation du mouvement pulmonaire par RNA et ont validé cette approche. Son exécution en temps réel couplé à la précision de la prédiction fait de NEMOSIS un outil prometteur dans la simulation du mouvement synchronisé avec la respiration. / The development of new techniques in the field of external radiotherapy opens new ways of gaining accuracy in dose distribution, in particular through the knowledge of individual lung motion. The numeric simulation NEMOSIS (Neural Network Motion Simulation System) we describe is based on artificial neural networks (ANN) and allows, in addition to determining motion in a personalized way, to reduce the necessary initial doses to determine it. In the first part, we will present current treatment options, lung motion as well as existing simulation or estimation methods. The second part describes the artificial neural network used and the steps for defining its parameters. An accurate evaluation of our approach was carried out on original patient data. The obtained results are compared with an existing motion estimated method. The extremely short computing time, in the range of milliseconds for the generation of one respiratory phase, would allow its use in clinical routine. Modifications to NEMOSIS in order to meet the requirements for its use in external radiotherapy are described, and a study of the motion of tumor outlines is carried out. This work lays the basis for lung motion simulation with ANNs and validates our approach. Its real time implementation coupled to its predication accuracy makes NEMOSIS promising tool for the simulation of motion synchronized with breathing.
8

Localisation et détection de fautes dans les réseaux de capteurs sans fil

Khan, Safdar Abbas, Khan, Safdar Abbas 16 December 2011 (has links) (PDF)
Dans cette thèse, on s'est intéressé à trois problématiques des réseaux de capteurs sans fil (WSN). Dans un premier temps nous avons analysé l'impact de la chute de tension dans la batterie du nœud sur la puissance du signal en réception. On propose alors une méthode pour compenser l'augmentation apparente de la distance calculée entre les nœuds due à la diminution de l'énergie de la batterie. Pour les nœuds passant par deux états principaux endormi et actif, on propose d'étudier, la relation entre la diminution de la tension de la batterie en fonction du temps passé par un nœud dans l'état actif. Ensuite, on calcule le rapport entre la RSS et la distance entre les nœuds connectés avec des batteries complètement chargées. Après on mesure la RSS en faisant varier la tension de la batterie du nœud émetteur et en gardant le nœud récepteur à une distance constante. Finalement, on propose une relation entre la RSS observée et la tension actuelle de la batterie du nœud émetteur. Cette fonction permet de calculer la valeur corrigée de la RSS qui correspond à la distance réelle entre les nœuds connectés. Ainsi l'efficacité des méthodes de la localisation basée sur la RSS se trouvent améliorées. Dans la deuxième partie de cette thèse on propose une méthode d'estimation des positions des nœuds dans un WSN. Dans l'algorithme de localisation proposé, on utilise des nœuds ancres comme des points de référence. On a utilisé une approche heuristique pour trouver la topologie relative avec l'aide de la matrice de distance. Le but de la matrice de distance est d'indiquer s'il existe une connexion entre une paire de nœuds donnée et en cas de connectivité, la distance estimée entre ces nœuds. En utilisant les informations de connectivité entre les nœuds et leurs distances, on obtient la topologie du réseau. La méthode proposée utilise la solution de l'intersection de deux cercles au lieu de la méthode classique de triangulation, où un système quadratique de trois équations avec deux variables est utilisé ce qui rend la complexité de calcul augmentée. Lorsque deux nœuds connectés ont un autre nœud en commun, puis en utilisant les informations de distances entre ces nœuds interconnectés, nous pouvons calculer deux positions possibles pour le troisième nœud. La présence ou l'absence d'un lien entre le troisième nœud et un quatrième nœud, permet de trouver la position précise. Ce processus est réitéré jusqu'à ce que toutes les positions des nœuds aient été obtenues. Une fois la topologie relative calculée, il faut trouver la symétrie, l'orientation et la position de cette topologie dans le plan. C'est à ce moment que la connaissance des positions des trois nœuds entre en action. La topologie donne les coordonnées temporaires des nœuds. En ayant une comparaison de certaines caractéristiques entre les coordonnées temporaires et les coordonnées exactes, on trouve d'abord la symétrie de la topologie relative qui correspondrait à la topologie originale. En d'autres termes on vérifie si oui ou non la topologie relative est une image miroir de la topologie originale. Des opérateurs géométriques sont alors utilisés pour corriger la topologie relative par rapport à la topologie réelle. Ainsi, on localise tous les nœuds dans un WSN en utilisant exactement trois ancres. Dans la dernière partie de cette thèse, on propose une méthode pour la détection de défauts dans un WSN. Il y a toujours une possibilité qu'un capteur d'un nœud ne donne pas toujours des mesures précises. On utilise des systèmes récurrents et non récurrents pour la modélisation et on prend comme variable d'entrée, en plus des variables du nœud en question, les informations des capteurs voisins. La différence entre la valeur estimée et celle mesurée est utilisée pour déterminer la possibilité de défaillance d'un nœud
9

Système intelligent de détection et diagnostic de fautes en tomographie d'émission par positrons

Charest, Jonathan January 2017 (has links)
La tomographie d'émission par positrons (TEP) est un outil de choix en imagerie moléculaire grâce à sa capacité à quantifier certains métabolismes et à porter des diagnostics précis sur l'évolution de pathologies. Cependant, la qualité du diagnostic est dépendante de la qualité de l'image obtenue. La complexité des appareils TEP fait en sorte que ceux-ci nécessitent des calibrations fréquentes demandant un professionnel qualifié dans le domaine que très peu de laboratoires pourvus d'un scanner possèdent. Conséquemment, ce projet vise à concevoir un système intelligent pouvant détecter des fautes et porter un diagnostic sur un scanner TEP de façon automatique dans le but de maximiser la qualité des images produites. Le système intelligent développé permettra alors de pallier à la surcharge ou à l'absence d'un professionnel en laboratoire puisqu'il automatisera le contrôle de qualité de l'appareil. Le projet englobe donc: l'identification de données permettant de détecter et diagnostiquer les fautes, l'implantation de système intelligent par module et de façon hiérarchique, la validation de l'exactitude des diagnostics et finalement l'évaluation de l'impact du système sur la qualité des images produites par le scanner. Pour arriver à son but, le système intelligent met en oeuvre différentes méthodes d'intelligence artificielle comprenant des réseaux de neurones artificiels, un système expert à base de règles et diverses méthodes de traitement de signal. Ce projet se penche plus spécifiquement sur le scanner LabPET, un scanner TEP pour petits animaux développé à Sherbrooke. LabPET est un bon candidat car il comporte un nombre élevé de canaux non interdépendants accentuant ainsi les bénéfices de la parallélisation apportés par le système proposé. Ainsi, les travaux ont permis de réaliser un système ayant une efficacité de détection et une exactitude de diagnostic dépassant les attentes et, une étude de l'impact du système sur la qualité des images a démontré une amélioration significative des paramètres de qualité d'image. Il en découle que le système est bien en mesure d'aider les professionnels dans l'entretien du scanner LabPET. Les résultats devraient permettre de promouvoir le développement de systèmes intelligents de détection et de diagnostic de fautes d'appareils TEP. Des systèmes similaires seront certainement nécessaires au bon fonctionnement des prochaines générations d'appareils TEP, et les résultats de ce projet pourront alors servir de référence.
10

Two Bayesian learning approaches to image processing / Traitement d’images par deux approches d’apprentissage Bayésien

Wang, Yiqing 02 March 2015 (has links)
Cette thèse porte sur deux méthodes à patch en traitement d’images dans le cadre de minimisation du risque Bayésien. Nous décrivons un mélange d’analyses factorielles pour modéliser la loi à priori des patchs dans une seule image et l’appliquons au débruitage et à l’inpainting. Nous étudions aussi les réseaux de neurones à multi-couches d’un point de vue probabiliste comme un outil permettant d’approcher l’espérance conditionnelle, ce qui ouvre quelques voies pour réduire leurs tailles et coût d’apprentissage. / This work looks at two patch based image processing methods in a Bayesian risk minimization framework. We describe a Gaussian mixture of factor analyzers for local prior modelling and apply it in the context of image denoising and inpainting. We also study multilayer neural networks from a probabilistic perspective as a tool for conditional expectation approximation, which suggests ways to reduce their sizes and training cost.

Page generated in 0.08 seconds