• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 43
  • 15
  • Tagged with
  • 166
  • 166
  • 83
  • 52
  • 45
  • 44
  • 34
  • 32
  • 30
  • 30
  • 23
  • 22
  • 21
  • 21
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Stabilité d'un réseau de neurones à délai distribué modélisant la mémoire spatiale

Grégoire-Lacoste, François January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
22

Développement d'un banc ellipsométrique hyperfréquence pour la caractérisation de matériaux non transparents / Development of a microwave ellipsometric bench for the characterization of non-transparent materials

Moungache, Amir 28 October 2011 (has links)
Dans la fabrication d’un produit, la maîtrise des propriétés physiques des matériaux utilisés est indispensable. Il est donc nécessaire de déterminer leurs propriétés comportementales. On exploite en général des propriétés physiques intermédiaires telles que les propriétés électromagnétiques. Nous avons mis au point une technique de caractérisation sans contact de matériaux non transparents en transposant les concepts de base de l’ellipsométrie optique en hyperfréquence. La caractérisation se fait par résolution d’un problème inverse par deux méthodes numériques : une méthode d’optimisation classique utilisant l’algorithme itératif de Levenberg Marquardt et une méthode de régression par l’uti1isation de réseaux de neurones du type perceptron multicouches. Avec la première méthode, on détermine deux paramètres du matériau sous test à savoir l’indice de réfraction et l’indice d’extinction. Avec la deuxième, on détermine les deux indices ainsi que l’épaisseur de 1’échantillon. Pour la validation, nous avons monté un banc expérimental en espace libre à 30 GHz en transmission et en incidence oblique avec lequel nous avons effectué des mesures sur des échantillons de téflon et d’époxy de différentes épaisseurs (1 à 30 mm). Nous avons obtenu une caractérisation satisfaisante de l’indice et de l’épaisseur. Nous avons ensuite fait des mesures de trois types de papier dont la caractérisation de l’indice était satisfaisante sans toutefois les discriminer. Ces travaux ont montré la possibilité de caractériser des matériaux épais et non transparents par une technique ellipsométrique / The control of the physical properties of materials used to manufacture a product is essential. Therefore, it is necessary to determine their behavioral properties. Generally, we get them through intermediate physical properties such as electromagnetic properties. We have developed a technique for contactless characterization of non-transparent materials by applying the basic concepts of optical ellipsometry in the microwave domain. The characterization is done by solving an inverse problem through two different numerical methods: a classical optimization method using the iterative algorithm of Levenberg Marquardt and a regression method by using neural networks particularly the multilayer perceptron. With the first method, we can determine two parameters which are the refractive index and the extinction index of the sample under test. With the second method, we can determine the indices and the thickness of the sample. As a validation, we set up a 30 GHz - experimental free space bench configurated for oblique transmission incidence measurement that we have used to carry out measurements on PTFE and epoxy samples having different thicknesses (1 to 30 mm). We obtained a satisfactory characterization of the index and thickness. Then, we have carried out measurements on three types of paper. The index was satisfactorily characterized but they could not be distinguished. These studies have shown that it is possible to characterize thick and non-transparent materials using ellipsometric technics
23

Optimisation pour l'apprentissage et apprentissage pour l'optimisation

Van Grieken, Milagros 19 April 2004 (has links) (PDF)
Dans de nombreux problèmes industriels, une simple évaluation de la fonction objectif est coûteuse en temps de calcul et son gradient peut ne pas être disponible. Il est alors utile de construire un modèle, rapide à évaluer et facilement dérivable, qui approche le problème étudié. En apportant de nombreuses améliorations à l'apprentissage, nous avons montré que les réseaux de neurones peuvent répondre à ces exigences. En particulier, là où des méthodes neuronales classiques introduisent des oscillations pour approcher une fonction lisse,notre méthode donne un résultat satisfaisant. Mieux encore, notre méthode permet d'approcher des fonctions oscillantes (par exemple le résultat d'un programme entaché d'erreurs numériques), par un modèle lisse. Nous parvenons à ces résultats par le concours de nombreuses méthodes de régularisation : la méthode de Tikhonov, la stratégie d'arrêt de l'apprentissage, la taille du modèle et pour terminer l'utilisation de la méthode de Gauss-Newton (GN). Cette approche de régularisation permet en plus d'éviter les minima locaux (qui posent un serieux problème pour les méthodes classiques), en augmentant la taille du modèle pour assurer l'apprentissage et en la réduisant ensuite pour la régularisation. Pour les problèmes de grande taille, l'application de la méthode de Gauss-Newton est très " gourmande " en place mémoire. Cependant, en combinant les modes adjoint et direct de la différentiation automatique, nous avons proposé une implémentation " zéro-mémoire " qui nous permet d'appliquer cette méthode. Ce procéde, présenté dans le cadre des réseaux neuronaux peuvent, a priori, être adaptés à tout problème inverse. Dans le littérature récente, mais riche sur le sujet, les fonctions définies par un réseau neuronal classique sont optimisées par des techniques globales très coûuteuses. Dans notre cas, nous profitons des qualités du modèle obtenu (régularité, rapidité d'évaluation et disponibilité du gradient pour un coût supplémentaire négligeable) pour utiliser des méthodes d'optimisation efficaces. Nous illustrerons la pertinence de la méthode proposée par différents exemples académiques, reconnus par leur difficulté, et par des exemples issus de l'industrie automobile et l'ingénierie pétrolière.
24

Recherche de sélectrons et de smuons dans l'expérience DELPHI au LEP

Ghodbane, Nabil 17 April 2000 (has links) (PDF)
Dans cette thèse, nous traitons de l'extension supersymétrique minimale du Modèle Standard (MSSM). Dans un premier temps, Nous analysons les conséquences de l'introduction des phases supersymétriques dans le MSSM. Nous examinons la stabilité des limites obtenues sans phases pour la recherche de charginos pour une énergie de 189 GeV par l'expérience DELPHI du LEP. Ensuite, nous montrons l'importance des corrélations de spin pour l'extraction des paramètres du MSSM à partir des distributions angulaires des particules finales. Pour celà nous utilisons la méthode des amplitudes d'hélicité pour le calcul des sections efficaces associées à la production des particules supersymétriques. Enfin, nous développons une analyse pour la recherche des partenaires supersymétriques des électrons et des muons (sélectrons et smuons) lors des collisions électron positron avec le détecteur DELPHI du LEP. Nous utilisons une méthode fondée sur un réseau de neurones pour extraire le signal (deux leptons acoplanaires de même saveur et de charges opposées) des processus issus du Modèle Standard (les processus W+W- et les processus à deux photons). L'analyse des données recueillies pour les énergies de collision de 184 à 202 GeV, soit une luminosité équivalente de 440pb-1 n'a montré aucune déviation significative par rapport aux prédictions du Modèle Standard. Nous avons donc établi une limite inférieure sur la masse du sélectron et du smuon.
25

Identification de systèmes dynamiques non linéaires par réseaux de neurones et multimodèles

Thiaw, Lamine 28 January 2008 (has links) (PDF)
Cette étude traite de l'identification de système dynamique non-linéaire. Une architecture multimodèle capable de surmonter certaines difficultés de l'architecture neuronale de type MLP a été étudiée. L'approche multimodèle consiste à représenter un système complexe par un ensemble de modèles de structures simples à validité limitée dans des zones bien définies. A la place de la structure affine des modèles locaux généralement utilisée, cette étude propose une structure polynômiale plus générale, capable de mieux appréhender les non-linéarités locales, réduisant ainsi le nombre de modèles locaux. L'estimation paramétrique d'une telle architecture multimodèle peut se faire suivant une optimisation linéaire, moins coûteuse en temps de calcul que l'estimation paramétrique utilisée dans une architecture neuronale. L'implantation des multimodèles récurrents, avec un algorithme d'estimation paramétrique plus souple que l'algorithme de rétro-propagation du gradient à travers à travers le temps utilisé pour le MLP récurrent a également été effectuée. Cette architecture multimodèle permet de représenter plus facilement des modèles non-linéaires bouclés tels que les modèles NARMAX et NOE. La détermination du nombre de modèles locaux dans une architecture multimodèle nécessite la décomposition (le partitionnement) de l'espace de fonctionnement du système en plusieurs sous-espaces où sont définies les modèles locaux. Des modes de partitionnement du système en plusieurs sous-espaces où sont définies les modèles locaux. Des modes de partitionnement flou (basé sur les algorithmes de "fuzzy-c-means", de "Gustafson et Kessel" et du "substractive clustering") ont été présentés. L'utilisation de telles méthodes nécessite l'implantation d'une architecture multimodèle où les modèles locaux peuvent être de structures différentes : polynômiales de degrés différents, neuronale ou polynômiale et neuronale. Une architecture multimodèle hétérogène répondant à ses exigences a été proposée, des algorithmes d'identification structurelles et paramétriques ont été présentés. Une étude comparative entre les architectures MLP et multimodèle a été menée. Le principal atout de l'architecture mudltimodèle par rapport à l'architecture neuronale de type MLP est la simplicité de l'estimation paramétrique. Par ailleurs, l'utilisation dans une architecture multimodèle d'un mode de partitionnement basé sur la classification floue permet de déterminer facilement le nombre de modèles locaux, alors que la détermination du nombre de neurones cachés pour une architecture MLP reste une tâche difficile.
26

Etude des propriétés volumétriques (PVT) d'hydrocarbures légers (C1-C4), du dioxyde de carbone et de l'hydrogène sulfuré. Mesures par densimétrie à tube vibrant et modélisation.

Rivollet, Fabien 19 December 2005 (has links) (PDF)
Les fluides pétroliers extraits de gisements ont des teneurs plus ou moins importantes en composés non souhaités tels que le dioxyde de carbone, l'hydrogène sulfuré ou autres produits soufrés. Ils doivent subir nombre de transformations et purifications. Le dimensionnement des unités correspondantes ne peut être bien optimisé que si l'on dispose de données fiables et précises d'équilibre de phases et de propriétés volumétriques et bien entendu d'une modélisation elle aussi fiable et précise. Le présent travail a été consacré en partie à des mesures de propriétés volumétriques sur trois mélanges binaires (éthane - hydrogène sulfuré, éthane - dioxyde de carbone et propane - hydrogène sulfuré). Ces mesures ont été réalisées à l'aide d'un appareillage, comportant un densimètre à tube vibrant (Anton Paar, modèle DMA 512), qui a été conçu et construit tout spécialement pour ce travail. L'étude menée sur la modélisation des propriétés volumétriques a permis de mettre en évidence l'inadéquation de l'usage classique des équations d'état cubiques pour représenter simultanément propriétés volumétriques et équilibres de phases. Parmi les équations d'état présentées, une attention particulière a toutefois été portée sur les équations d'état cubiques en raison de leur très grande utilisation dans le domaine pétrolier. Un moyen a été testé pour adapter les équations d'état cubiques à la représentation simultanée et satisfaisante des propriétés volumétriques et équilibres de phases : Il s'agit du couplage de l'équation d'état cubique de Soave-Redlich-Kwong avec une correction de volume par réseau de neurones.
27

Mécanismes d'inspiration corticale pour l'apprentissage et la représentation d'asservissements sensori-moteurs en robotique

Ménard, Olivier 10 November 2006 (has links) (PDF)
Cette thèse vise à réaliser un asservissement sensori-moteur, en vue<br />de l'employer dans le domaine de la robotique, en utilisant des<br />algorithmes s'inspirant de la biologie corticale. Nous espérons, en<br />agissant ainsi, reproduire au mieux les qualités de robustesse,<br />d'uniformité de structure et d'adaptabilité dont le cortex est<br />pourvu. Nous avons basé notre modèle, au niveau computationnel, sur le<br />principe des automates cellulaires étendus, ce qui nous amène à<br />programmer des unités au sein de cartes, qui représentent chacune<br />l'équivalent, en biologie, d'une carte corticale. Nous orientons<br />l'évolution de ces unités afin d'obtenir des effets émergents, au<br />niveau des cartes, qui les amènent à former une boucle<br />perceptivo-motrice.<br /><br />Par ailleurs, nous considérons que percevoir, c'est se préparer à<br />agir. Cela nous conduit à devoir concilier notre conception holistique<br />de la perception avec le fait que les multiples modalités de la<br />perception sont chacune représentées par une carte séparée dans notre<br />modèle, comme dans le cortex. Le c{\oe}ur de cette thèse est ainsi<br />consacré à la réalisation d'une liaison entre modalités, qui doit<br />\^{e}tre limitée afin de préserver la faisabilité computationnelle de<br />notre modèle, ce qui nous amène à contraindre fortement l'organisation<br />et l'apprentissage dans nos modules modaux. Tout en employant des<br />calculs locaux, nous nous sommes attachés à ce que chaque unité, dans<br />chaque carte de notre modèle, réalise un compromis entre les<br />influences propres à la modalité à laquelle elle appartient et les<br />influences des autres cartes permettant de maintenir la cohérence<br />multimodale de notre modèle.
28

Architecture de transformée de cosinus discrète sur deux dimensions sans multiplication et mémoire de transposition

Dugas, Alexandre January 2012 (has links)
Au cours des dix dernières années, les capacités technologiques de transmission vidéo rendent possible une panoplie d'applications de télésanté. Ce média permet en effet la participation de médecins spécialisés à des interventions médicales ayant lieu à des endroits distants. Cependant, lorsque ces dernières se déroulent loin des grands centres, les infrastructures de télécommunication n'offrnt pas un débit assez important pour permettre à la fois une transmission d'images fluides et de bonne qualité. Un des moyens entrepris pour pallier ce problème est l'utilisation d'encodeur et décodeur vidéo (CODEC) permettant de compresser les images avant leur transmission et de les décompresser à la réception. Il existe un bon nombre de CODEC vidéo offrant différent compromis entre la qualité d'image, la rapidité de compression, la latence initiale de traitement et la robustesse du protocole de transmission. Malheureusement, aucun n'est en mesure de rencontrer simultanément toutes les exigences définies en télésanté. Un des problèmes majeurs réside dans le délai de traitement initial causé par la compression avec perte du CODEC. L'objet de la recherche s'intéresse donc à deux CODEC qui répondent aux exigences de délais de traitement et de qualité d'image en télésanté, et plus particulièrement pour une application de téléassistance en salle d'urgence. L'emphase est mise sur les modules de quantification des CODEC qui utilisent la transformée en cosinus discrète. Cette transformée limite la transmission des images vidéo fluide et quasi sans délais en raison des délais de traitement initiaux issus des nombreuses manipulations arithmétiques qu'elle requiert. À l'issu de la recherche, une structure efficace de la transformée en cosinus est proposée afin de présenter une solution au temps de latence des CODEC et ainsi de répondre aux exigences de télécommunication en télésanté. Cette solution est implémentée dans un CODEC JPEG développé en VHDL afin de simuler un contexte d'application réelle.
29

Caractérisation et modélisation hydrodynamique des karsts par réseaux de neurones : application à l'hydrosystème du Lez / Characterization and hydrodynamic modeling of karsts by neural networks : application to the Lez hydrosystem

Taver, Virgile 16 December 2014 (has links)
La connaissance du fonctionnement hydrodynamique des karsts représente un enjeu planétaire pour la ressource en eau car ils alimentent en eau potable près de 25% de la population mondiale. Néanmoins, la complexité, l'anisotropie, l'hétérogénéité, la non-linéarité et l'éventuelle non-stationnarité de ces aquifères en font des objets encore largement sous-exploités du fait de la difficulté de caractériser leur morphologie et leur fonctionnement hydrodynamique. Dans ce contexte, le paradigme systémique permet d'apporter de nouvelles méthodes en étudiant ces hydrosystèmes au travers de la relation entre leurs signaux d'entrée (pluie) et de sortie (débit). Ainsi ce travail porte sur l'utilisation : i) d'analyses corrélatoires et spectrales pour caractériser la réponse des hydrosystèmes karstiques, ii) des réseaux de neurones pour étudier les relations linéaires et non-linéaires de ces hydrosystèmes. Pour ce faire, différents types de configuration de modèles par réseau de neurones sont explorés afin de comparer le comportement et les performances de ces modèles. On cherche à contraindre ces modèles pour les rendre interprétables en terme de processus hydrodynamiques en rapprochant le fonctionnement du modèle à celui du système naturel afin d'obtenir une bonne représentation et d'extraire des connaissances à partir des paramètres du modèle.Les résultats obtenus par les analyses corrélatoires et spectrales permettent d'orienter la configuration des modèles de réseaux de neurones. Appliqués à l'hydrosystème du Lez sur la période 1950-1967, les résultats montrent que les réseaux de neurones sont à même de modéliser les hydrosystèmes au fonctionnement non-linéaires. L'utilisation de deux hydrosystèmes variant dans le temps (la Durance en France et Fernow aux USA) tend à souligner la capacité des réseaux de neurones à modéliser efficacement les systèmes non stationnaires. Des méthodes d'ajustement en temps réel (adaptativité et assimilation de données) permettent d'accroître les performances des modèles par apprentissage statistique face à des modifications des entrées ou du système lui-même.Finalement, ces différentes méthodes d'analyse et de modélisation permettent d'améliorer la connaissance de la relation pluie-débit. Les outils méthodologiques réalisés dans cette thèse ont pu être développés à partir de l'application à l'hydrosystème du Lez dont le fonctionnement est étudié depuis des décennies. Cette méthodologie d'étude et de modélisation présente l'avantage d'être transposable à d'autres systèmes. / Improving knowledge of karst hydrodynamics represents a global challenge for water resource because karst aquifers provide approximately 25% of the world population in fresh water. Nevertheless, complexity, anisotropy, heterogeneity, non-linearity and possible non-stationarity of these aquifers makes them underexploited objects due to the difficulty to characterize their morphology and hydrodynamics. In this context, the systemic paradigm proposes others methods by studying these hydrosystems through input-output (rainfall-runoff) relations.This work covers the use of: i) correlation and spectral analysis to characterize response of karst aquifers, ii) neural networks to study and model linear and non-linear relations of these hydrosystems. In order to achieve this, different types of neural networks model configurations are explored to compare behavior and performances of these models. We are looking to constrain these models to make them interpretable in terms of hydrodynamic processes by making the operation of the model closer to the natural system in order to obtain a good representation and extract knowledge from the model parameters.The results obtained by correlation and spectral analysis are used to manage the configuration of neural networks models. Applied on the Lez hydrosystem over the period 1950-1967, results show that neural networks models are capable to model non-linear operation of the karst.Application of neural modelling on two non stationary hydrosystems (Durance in France and Fernow in the the USA) proved the ability of neural networks to model satisfactorily non-stationary conditions. Moreover, two real-time adjustment methods (adaptativity and data assimilation) enhanced the performance of neural network models face to changing conditions of the inputs or of the system itself.Finally, these various methods to analyze and model allow improving knowledge of the rainfall-runoff relationship. Methodological tools developed in this thesis were developed thanks to the application on Lez hydrosystem which has been studied for decades. This study and modeling methodology have the advantage of being applicable to other systems provided the availability of a sufficient database.
30

Dynamique des graphes de terrain : analyse en temps intrinsèque / Dynamics of complex networks : analysis using intrinsic time

Albano, Alice 10 October 2014 (has links)
Nous sommes entourés par une multitude de réseaux d'interactions, issus de contextes très différents. Ces réseaux peuvent être modélisés par des graphes, appelés graphes de terrain. Ils possèdent une structure en communautés, c'est-à-dire en groupes de nœuds très liés entre eux, et peu liés avec les autres. Un phénomène que l'on étudie sur les graphes dans de nombreux contextes est la diffusion. La propagation d'une maladie en est un exemple. Ces phénomènes dépendent d'un paramètre important, mais souvent peu étudié : l'échelle de temps selon laquelle on les observe. Selon l'échelle choisie, la dynamique du graphe peut varier de manière très importante.Dans cette thèse, nous proposons d'étudier des processus dynamiques en utilisant une échelle de temps adaptée. Nous considérons une notion de temps relatif, que nous appelons le temps intrinsèque, par opposition au temps "classique", que nous appelons temps extrinsèque. Nous étudions en premier lieu des phénomènes de diffusion selon une échelle de temps intrinsèque, et nous comparons les résultats obtenus avec une échelle extrinsèque. Ceci nous permet de mettre en évidence le fait qu'un même phénomène observé dans deux échelles de temps différentes puisse présenter un comportement très différent. Nous analysons ensuite la pertinence de l'utilisation du temps intrinsèque pour la détection de communautés dynamiques. Les communautés obtenues selon les échelles de temps extrinsèques et intrinsèques nous montrent qu'une échelle intrinsèque permet la détection de communautés beaucoup plus significatives et détaillées que l'échelle extrinsèque. / We are surrounded by a multitude of interaction networks from different contexts. These networks can be modeled as graphs, called complex networks. They have a community structure, i.e. groups of nodes closely related to each other and less connected with the rest of the graph. An other phenomenon studied in complex networks in many contexts is diffusion. The spread of a disease is an example of diffusion. These phenomena are dynamic and depend on an important parameter, which is often little studied: the time scale in which they are observed. According to the chosen scale, the graph dynamics can vary significantly. In this thesis, we propose to study dynamic processes using a suitable time scale. We consider a notion of relative time which we call intrinsic time, opposed to "traditional" time, which we call extrinsic time. We first study diffusion phenomena using intrinsic time, and we compare our results with an extrinsic time scale. This allows us to highlight the fact that the same phenomenon observed at two different time scales can have a very different behavior. We then analyze the relevance of the use of intrinsic time scale for detecting dynamic communities. Comparing communities obtained according extrinsic and intrinsic scales shows that the intrinsic time scale allows a more significant detection than extrinsic time scale.

Page generated in 0.0663 seconds