• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 249
  • 134
  • 32
  • Tagged with
  • 438
  • 438
  • 245
  • 210
  • 178
  • 153
  • 138
  • 108
  • 103
  • 94
  • 86
  • 84
  • 82
  • 79
  • 77
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Contributions à la formalisation et à la mise en œuvre d'indices spatiaux urbains utilisant des données ouvertes : application aux études de l'étalement urbain / Contributions to the formalization and implementation of spatial urban indices using open data : application to urban sprawl studies

Gervasoni, Luciano 19 November 2018 (has links)
Le nombre de personnes vivant dans les villes a considérablement augmenté depuis 1950, passant de 746 millions à 3,9 milliards en 2014.La croissance démographique et l'urbanisation devraient ajouter 2,5 milliards de personnes à la population urbaine mondiale d'ici 2050.Cette situation pose de nouveaux défis sur la manière de concevoir des villes qui accueillent de telles quantités de population d'une manière durable, qui devrait aborder plusieurs aspects, allant des questions économiques aux questions sociales et environnementales.Les processus urbains sont la conséquence de différents facteurs d'interaction, liés entre eux de telle sorte que le processus qui en résulte est complexe à mesurer et à comprendre.Étant donné le nombre croissant de personnes vivant dans les villes, il devient urgent de comprendre la complexité sous-jacente de ces modèles urbains.A cette fin, nous proposons dans cette thèse des outils d'aide à la décision appliqués dans le contexte de l'analyse urbaine, qui permettent d'étudier les phénomènes de mixité et d'étalement urbain.Tout d'abord, un cadre permettant de saisir la répartition spatiale de l'utilisation des terres dans les villes est présenté.En premier lieu, les données urbaines sont extraites d'OpenStreetMap.En utilisant les techniques d'estimation de la densité du noyau, des estimations de la densité d'utilisation des terres sont ensuite effectuées pour les utilisations résidentielles et les activités.Les résultats sont utilisés pour calculer les indices de développement spatial mixte.En outre, des estimations de densité pour différents types d'activités sont proposées, qui décrivent un modèle clair de localisation dans les villes en fonction de leur type.Nous fournissons les résultats des systèmes d'information géographique, qui s'avèrent être un atout, en particulier pour les urbanistes, en soutenant et en facilitant leur processus de prise de décision - surtout en comparaison relative avec les mesures agrégées.Deuxièmement, les travaux susmentionnés ont été étendus pour le calcul des indices d'étalement urbain.L'approche proposée formalise l'étalement urbain sous l'angle du développement durable, en trois dimensions : la mixité de l'utilisation des sols, la dispersion des zones bâties et l'accessibilité aux opportunités d'activités.Il en résulte un nombre gérable de dimensions, où chaque dimension est formalisée d'une manière facile à interpréter, et en particulier une pertinence par rapport aux aspects de l'étalement urbain qui entravent le développement durable.Troisièmement, nous proposons deux approches pour effectuer des estimations désagrégées de la population.Le premier exploite l'information sur les surfaces résidentielles, en supposant une consommation de surface résidentielle constante par habitant.Grâce à l'utilisation de données maillées - c'est-à-dire agrégées - sur les secteurs de recensement, une désagrégation fine est effectuée pour répartir les données démographiques dans les bâtiments.Le second consiste en un réseau neuronal entièrement convolutif qui cartographie les données de population à grain grossier à fin.Nous utilisons la base de données OpenStreetMap pour extraire un ensemble de caractéristiques urbaines qui décrivent un contexte urbain local et guident la procédure de désagrégation.Les densités de population sont estimées pour des mailles 25 fois plus petites que la résolution d'entrée, c'est-à-dire 200m par 200m. / The number of people living in cities has been increasing considerably since 1950, from 746 million to 3.9 billion in 2014.The continuing population growth and urbanization are projected to add 2.5 billion people to the world's urban population by 2050.This situation brings new challenges on how to conceive cities that host such amounts of population in a sustainable way, which should address several aspects, ranging from economical to social and environmental matters.Urban processes take place as a consequence of different interacting factors, linked between them in such a way that the resulting process is complex to measure and understand.Given the increasing number of people living in cities, understanding the underlying complexity of these urban patterns is thus becoming a pressing issue.To this end, we propose in this thesis decision-support tools applied in the context of urban analysis, which allow to study land use mix and urban sprawl phenomena.In our first contribution, a framework for capturing spatial land use mix in cities is presented.In the first place, urban data are extracted from OpenStreetMap.Using Kernel Density Estimation techniques, land use density estimations are then carried out for residential and activity uses.The outputs are employed to calculate spatial mixed-use development indices.Additionally, density estimations for different activity types (i.e. commercial and industrial, leisure and amenities, and shops) are proposed.We provide fine-grained Geographic Information System outputs, which happen to be an asset particularly for urban planners, supporting and aiding their decision-making procedure -- specially in relative comparison to aggregated measures.In a second contribution, the above work was extended for calculating spatial urban sprawl indices.The proposed approach formalizes sprawl under a sustainable development angle, into three dimensions: land use mix, dispersion of built-up area, and accessibility to activity opportunities.This results in a manageable number of dimensions, where each dimension is formalized in an easy-to-interpret way, and in particular pertinence to the aspects of sprawl that impede sustainable development.In our third contribution, we propose two approaches for performing disaggregated population estimates.The first one exploits information on residential surfaces, assuming a constant residential surface consumption per-capita.By means of employing gridded -- i.e. aggregated -- census tract data, a fine disaggregation is carried out to distribute population count data into buildings.The second one consists of a fully convolutional neural network that maps coarse-grained to fine-grained population data.We use the OpenStreetMap database to extract a set of urban features which describe a local urban context and guide the disaggregation procedure.Population densities are estimated for grid-cells 25 times smaller than the input resolution, i.e. 200m by 200m.
112

Statistical Models for Human Motion Synthesis / Modèles statistiques pour la synthèse du mouvement humain

Wang, Qi 09 July 2018 (has links)
Cette thèse porte sur la synthèse de séquences de motion capture avec des modèles statistiques. La synthèse de ce type de séquences est une tâche pertinente pour des domaines d'application divers tels que le divertissement, l'interaction homme-machine, la robotique, etc. Du point de vue de l'apprentissage machine, la conception de modèles de synthèse consiste à apprendre des modèles génératifs, ici pour des données séquentielles. Notre point de départ réside dans deux problèmes principaux rencontrés lors de la synthèse de données de motion capture, assurer le réalisme des positions et des mouvements, et la gestion de la grande variabilité dans ces données. La variabilité vient d'abord des caractéristiques individuelles, nous ne bougeons pas tous de la même manière mais d'une façon qui dépend de notre personnalité, de notre sexe, de notre âge de notre morphologie, et de facteurs de variation plus court terme tels que notre état émotionnel, que nous soyons fatigués, etc.Une première partie présente des travaux préliminaires que nous avons réalisés en étendant des approches de l'état de l'art basées sur des modèles de Markov cachés et des processus gaussiens pour aborder les deux problèmes principaux liés au réalisme et à la variabilité. Nous décrivons d'abord une variante de modèles de Markov cachés contextuels pour gérer la variabilité dans les données en conditionnant les paramètres des modèles à une information contextuelle supplémentaire telle que l'émotion avec laquelle un mouvement a été effectué. Nous proposons ensuite une variante d'une méthode de l'état de l'art utilisée pour réaliser une tâche de synthèse de mouvement spécifique appelée Inverse Kinematics, où nous exploitons les processus gaussiens pour encourager le réalisme de chacune des postures d'un mouvement généré. Nos résultats montrent un certain potentiel de ces modèles statistiques pour la conception de systèmes de synthèse de mouvement humain. Pourtant, aucune de ces technologies n'offre la flexibilité apportée par les réseaux de neurones et la récente révolution de l'apprentissage profond et de l'apprentissage Adversarial que nous abordons dans la deuxième partie.La deuxième partie de la thèse décrit les travaux que nous avons réalisés avec des réseaux de neurones et des architectures profondes. Nos travaux s'appuient sur la capacité des réseaux neuronaux récurrents à traiter des séquences complexes et sur l'apprentissage Adversarial qui a été introduit très récemment dans la communauté du Deep Learning pour la conception de modèles génératifs performants pour des données complexes, notamment images. Nous proposons une première architecture simple qui combine l'apprentissage Adversarial et des autoencodeurs de séquences, qui permet de mettre au point des systèmes performants de génération aléatoire de séquences réalistes de motion capture. A partir de cette architecture de base, nous proposons plusieurs variantes d'architectures neurales conditionnelles qui permettent de concevoir des systèmes de synthèse que l'on peut contrôler dans une certaine mesure en fournissant une information de haut niveau à laquelle la séquence générée doit correspondre, par exemple l'émotion avec laquelle une activité est réalisée. Pour terminer nous décrivons une dernière variante qui permet de réaliser de l'édition de séquences de motion capture, où le système construit permet de générer une séquence dans le style d'une autre séquence, réelle. / This thesis focuses on the synthesis of motion capture data with statistical models. Motion synthesis is a task of interest for important application fields such as entertainment, human-computer interaction, robotics, etc. It may be used to drive a virtual character that can be involved in the applications of the virtual reality, animation films or computer games. This thesis focuses on the use of statistical models for motion synthesis with a strong focus on neural networks. From the machine learning point of view designing synthesis models consists in learning generative models. Our starting point lies in two main problems one encounters when dealing with motion capture data synthesis, ensuring realism of postures and motion, and handling the large variability in the synthesized motion. The variability in the data comes first from core individual features, we do not all move the same way but accordingly to our personality, our gender, age, and morphology etc. Moreover there are other short term factors of variation like our emotion, the fact that we are interacting with somebody else, that we are tired etc. Data driven models have been studied for generating human motion for many years. Models are learned from labelled datasets where motion capture data are recorded while actors are performed various activities like walking, dancing, running, etc. Traditional statistical models such as Hidden Markov Models, Gaussian Processes have been investigated for motion synthesis, demonstrating strengths but also weaknesses. Our work focuses in this line of research and concerns the design of generative models for sequences able to take into account some contextual information, which will represent the factors of variation. A first part of the thesis present preliminary works that we realised by extending previous approaches relying on Hidden Markov Models and Gaussian Processes to tackle the two main problems related to realism and variability. We first describe an attempt to extend contextual Hidden Markov Models for handling variability in the data by conditioning the parameters of the models to an additional contextual information such as the emotion which which a motion was performed. We then propose a variant of a traditional method for performing a specific motion synthesis task called Inverse Kinematics, where we exploit Gaussian Processes to enforce realism of each of the postures of a generated motion. These preliminary results show some potential of statistical models for designing human motion synthesis systems. Yet none of these technologies offers the flexibility brought by neural networks and the recent deep learning revolution.The second part of the thesis describes the works we realized with neural networks and deep architectures. It builds on recurrent neural networks for dealing with sequences and on adversarial learning which was introduced very recently in the deep learning community for designing accurate generative models for complex data. We propose a simple system as a basis synthesis architecture, which combines adversarial learning with sequence autoencoders, and that allows randomly generating realistic motion capture sequences. Starting from this architecture we design few conditional neural models that allow to design synthesis systems that one can control up to some extent by either providing a high level information that the generated sequence should match (e.g. the emotion) or by providing a sequence in the style of which a sequence should be generated.
113

Vers un modèle plausible de sélection de l'action pour un robot mobile / Toward a plausible model of action selection for a mobile robot

Hanoune, Souheïl 05 October 2015 (has links)
Cette thèse étudie les mécanismes de sélection de l'action et de choix de stratégie tels qu'ils apparaissent à travers des expériences animales et des enregistrements neurobiologiques. Nous proposons ensuite des modèles biologiquement plausibles de la sélection de l'action. L'objectif est de mieux comprendre le fonctionnement du cerveau chez les êtres vivants et de pouvoir endéduire des architectures de contrôle bio-inspirées, plus robustes et adaptées à l'environnement. Les modèles étudiés sont réalisés avec des réseaux de neurones artificiels, permettant de modéliser des régions cérébrales et ainsi pouvoir simuler le fonctionnement du cerveau, ce qui permet de tester nos hypothèses sur des robots et des agents virtuels.L'étude de la sélection de l'action pour des robots mobiles implique plusieurs approches. La sélection de l'action peut être étudiée du point de vue du choix entre plusieurs actions basiques, e.g. un choix binaire aller à gauche ou à droite. Ceci passe forcément par l'acquisition et la catégorisation d'instants et d'événements spéciaux, perçus ou effectués, qui représentent des contextes dans lesquels la perception change, le comportement est modifié ou bien la sélection est réalisée. Ainsi, la thèse traite aussi de l'acquisition, la catégorisation et l'encodage de ces événements importants dans la sélection del'action.Enfin, on s'intéressera à la sélection de l'action du point de vue de la sélection de stratégie. Les différents comportements peuvent être dirigés consciemment ou bien être des automatismes acquis avec l'habitude. Le but ici est d'explorer différentes approches pour que le robot puisse développer ces deux capacités, mais aussi d'étudier les interactions entre ces types de mécanismes dans la cadre de tâches de navigation.Les travaux de cette thèse se basent sur la modélisation du fonctionnement de différentes boucles hippocampo-cortico-basales impliquées dans des tâches de navigation, de sélection de l'action et de catégorisations multimodales. En particulier, nous avons un modèle de l'hippocampe permettant d'apprendre des associations spatio-temporelles et des conditionnements multimodaux entre des événements perceptifs. Il se base sur des associations sensorimotrices entre des cellules appelées cellules de lieu qui sont associées avec des actions pour définir des comportements cohérents. Le modèle fait aussi intervenir des cellules de transition hippocampiques, permettant de faire des prédictions temporelles sur les événements futurs. Celles-ci permettent l'apprentissagede séquences spatio-temporelles, notamment du fait qu'elles représentent le substrat neuronal à l'apprentissage d'une carte cognitive, située elle au niveau du cortex préfrontal et/ou pariétal.Ce type de carte permet de planifier des chemins à suivre en fonction des motivations du robot, ce qui permet de rejoindre différents buts précédemment découverts dans l'environnement. / This thesis aims at studying the different mechanisms involved in action selection and decision making processes, according to animal experiments and neurobiological recordings. For that matter, we propose several biologically plausible models for action selection. The goal is to achieve a better understanding of the animal's brain functions. This gives us the opportunity todevelop bioinspired control architectures for robots that are more robust and adaptative to a real environement. These models are based on Artificial Neural Networks, allowing us to test our hypotheses on simulations of different brain regions and function, implemented on robots and virtual agents.Action selection for mobile robots can be approached from different angles. This process can be seen as the selection between two possibilities, e.g. go left or go right. Those mechanisms involve the ability to learn and categorize specific events, encoding contexts where a change in the perception is perceived, a change in the behavior is noticed or the decision is made. There-fore, this thesis studies those capacities of acquisition, categorisation and coding of different events that can be relevant for action selection.We also, approach the action selection as a strategy selection. The different behaviors are guided consciously or through automated behavior learned as habits. We investigate different possibilities allowing a robot to develop those capacities. Also, we aim at studying interactions that can emerge between those mechanisms during navigational behaviors.The work presented in this these is based on the modelisation of the hippocampo-cotico-basal loops involved in the navigational behaviors, the action selection and the multimodal categorisation of events. We base our models on a previous model of the hippocampus for the learning of spatio-temporal associations and for multimodal conditionning of perceptive events. It is based on sensorimotor associations between place cells and actions to achieve navigational behaviors. The model involves also a specific type of hippocampic cells, named transition cells, for temporal prediction of future events. This capacity allows the model to learn spatio-temporal sequences, and it represents the neural substrate for the learning of a cognitive map, hypothesised to be localized in prefrontal and/or parietal areas. This kind of topological map allows to plan the behavior of the robot according to its motivations, which is used in goal orientedexperiments to achieve goals and capture rewards.
114

Télédétection des groupes phytoplanctoniques via l'utilisation conjointe de mesures satellites, in situ et d'une méthode de classification automatique / Remote sensing of phytoplakton types via the joint use of satellite measurements, in situ, and a method of automatic classification

Ben Mustapha, Zied 07 November 2013 (has links)
La télédétection de la couleur de l'océan représente un outil adapté à l'observation du phytoplancton avec des résolutions spatio-temporelles élevées et pouvant être adaptées à chaque cas d'étude. Plusieurs méthodes ont été développées ces dernières années afin de permettre la distinction de différents groupes de phytoplancton en utilisant les données des capteurs de la couleur de l'océan. Dans le cadre de cette thèse, on présente une nouvelle approche, appelée PHYSAT-SOM, qui se base sur l'application d'un algorithme de classification automatique non supervisée (SOM ou Self-Organizing Maps) à l'extraction de différentes formes et amplitudes de spectres d'anomalies de luminances (Ra ou Radiance Anomaly). Cette anomalie spectrale a été définie par Alvain et al. (2005), lors du développement de la méthode PHYSAT et il est actuellement admis que sa variabilité est reliée à celle de la composition des communautés phytoplanctoniques. L'utilisation des SOM vise à améliorer la caractérisation de la variabilité des Ra en termes de forme et amplitude ainsi que l'expansion du potentiel de leur utilisation à de grandes bases de données in situ de pigments. En considérant un même jeu de données de spectres de Ra, une comparaison entre la précédente version de PHYSAT et la nouvelle approche, basée sur SOM a montré qu'il est maintenant possible de couvrir toute la variabilité spectrale des Ra. Ceci n'était pas le cas avec l'ancienne approche du fait de l'utilisation de seuils, définis dans le but d'éviter les chevauchements entre les signatures spectrales des différents groupes de phytoplancton. La méthode basée sur SOM est pertinente pour caractériser une grande variété de spectres de Ra, de par sa capacité à gérer de grandes quantités de données et de sa fiabilité statistique. La première approche aurait pu, de ce fait, introduire des biais potentiels et donc, les possibilités de son extension à de plus grandes bases de données in situ étaient relativement restreintes. Par la suite, SOM a été utilisé pour classer les spectres de Ra fréquemment observés à l'échelle globale. Ces spectres ont ensuite été empiriquement reliés à différents groupes de phytoplancton, identifiés à partir de données in situ de pigments. Cette classification a été appliquée aux archives satellite du capteur SeaWiFS, permettant l'étude de la distribution globale de chaque groupe. Grâce à sa capacité à caractériser un large éventail de spectres de Ra et de gérer une plus grande base de données in situ, l'outil SOM permet de classer un nombre plus élevé de pixels (2x plus) que la précédente approche de PHYSAT. En outre, différentes signatures spectrales de Ra ont été associées aux diatomées. Ces signatures sont situées dans divers environnements où les propriétés optiques inhérentes affectant les spectres de Ra sont susceptibles d'être significativement différentes. Par ailleurs, les floraisons de diatomées dans certaines conditions sont plus clairement visibles avec la nouvelle méthode. La méthode PHYSAT-SOM offre ainsi plusieurs perspectives afin d'aller plus loin dans l'utilisation des données de la couleur de l'océan pour la détection des groupes de phytoplancton. On peut citer l'exemple d'une application future dans les eaux du Cas 2, moyennant une approche de normalisation adéquate du signal de luminances. Une étude préliminaire en Manche et Mer du Nord est présentée dans le dernier chapitre, montrant qu'il sera possible d'utiliser PHYSAT-SOM dans cet environnement optiquement complexe. / Remote sensing of ocean color is a powerful tool for monitoring phytoplankton in the ocean with a high spatial and temporal resolution. Several methods were developed in the past years for detecting phytoplankton functional types from satellite observations. In this thesis, we present an automatic classification method, based on a neural network clustering algorithm, in order to classify the anomalies of water leaving radiances spectra (Ra), introduced in the PHYSAT method by Alvain et al. (2005) and analyze their variability at the global scale. The use of an unsupervised classification aims at improving the characterization of the spectral variability of Ra in terms of shape and amplitude as well as the expansion of its potential use to larger in situ datasets for global phytoplankton remote sensing. The Self-Organizing Map Algorithm (SOM) aggregates similar spectra into a reduced set of pertinent groups, allowing the characterization of the Ra variability, which is known to be linked with the phytoplankton community composition. Based on the same sample of Ra spectra, a comparison between the previous version of PHYSAT and the new one using SOM shows that is now possible to take into consideration all the types of spectra. This was not possible with the previous approach, based on thresholds, defined in order to avoid overlaps between the spectral signatures of each phytoplankton group. The SOM-based method is relevant for characterizing a wide variety of Ra spectra through its ability to handle large amounts of data, in addition to its statistical reliability compared to the previous PHYSAT. The former approach might have introduced potential biases and thus, its extension to larger databases was very restricted. In a second step, some new Ra spectra have been related to phytoplankton groups using collocated field pigments inventories from a large in situ database. Phytoplankton groups were identified based on biomarker pigments ratios thresholds taken from the literature. SOM was then applied to the global daily SeaWiFS imagery archive between 1997 and 2010. Global distributions of major phytoplankton groups were analyzed and validated against in situ data. Thanks to its ability to capture a wide range of spectra and to manage a larger in situ pigment dataset, the neural network tool allows to classify a much higher number of pixels (2 times more) than the previous PHYSAT method for the five phytoplankton groups taken into account in this study (Synechococcus-Like-Cyanobacteria, diatoms, Prochloroccus, Nanoeucaryots and Phaeocystis-like). In addition, different Ra spectral signatures have been associated to diatoms. These signatures are located in various environments where the inherent optical properties affecting the Ra spectra are likely to be significantly different. Local phenomena such as diatoms blooms in the upwelling regions or during climatic events(i.e. La Nina) are more clearly visible with the new method. The PHYSAT-SOM method provides several perspectives concerning the use of the ocean color remote sensing data for phytoplankton group identification, such as, the potential application of the method in Case 2 waters, using an appropriate nLw signal normalization approach. A preliminary case study in the English Channel and North Sea waters is presented in the last chapter of the thesis, showing the possibility of a future use of PHYSAT-SOM in these optically complex waters.
115

Les réseaux de neurones pour la modélisation et le contrôle du procédé d'évaporation : expérimentations et applications industrielles en sucrerie de canne

Benne, Michel 10 July 1999 (has links) (PDF)
Ce travail de recherche, consacré à la synthèse d'une commande prédictive à modèle neuronal du procédé d'évaporation en multiple-effets, s'inscrit dans la continuité des travaux menés au L.G.I. depuis plusieurs années. Le mémoire de thèse s'articule en cinq chapitres : le premier présente l'atelier d'évaporation dans la chaîne de fabrication du sucre, et les développements théoriques et expérimentaux nécessaires à l'identification d'un modèle dynamique du procédé. Le chapitre 2 pose les bases théoriques du transfert technologique que constitue l'application des réseaux de neurones pour la modélisation et le contrôle des procédés industriels. La première partie de ce transfert technologique, décrite dans le chapitre 3, concerne l'identification de modèles du procédé d'évaporation, à partir de données expérimentales issues des campagnes de mesure menées à la sucrerie de Bois Rouge, La Réunion, en 1997 et 1998, et la simulation des modèles identifiés. Dans le chapitre 4, la problématique de l'automatisation du procédé, confrontée aux limites rencontrées par les schémas de régulation traditionnels, justifie la mise en oeuvre d'une stratégie de commande avancée. Cette démarche, qui constitue la deuxième partie du transfert technologique que nous avons entrepris, aboutit à la mise en oeuvre d'un schéma de commande prédictive mono variable basée sur un modèle à réseau de neurones, testé en simulation dans le chapitre 5. L'ensemble des résultats de simulation sont prometteurs, ce qui permet d'envisager l'implantation d'une stratégie similaire in situ dans les meilleurs délais.
116

Contribution des réseaux de neurones dans le domaine de l'ellipsométrie: Application à la scatterométrie

Gereige, Issam 05 December 2008 (has links) (PDF)
La miniaturisation est actuellement la voie de recherche la plus explorée dans divers domaines de la science et de la technologie. Les processus de fabrication comme la lithographie se sont prodigieusement développés au cours de ces dernières années et permettent ainsi une réduction importante de la taille des composants. Ce progrès technologique a créé systématiquement le besoin de techniques de caractérisation fiables, efficaces et si possible à moindre coût. L'objet de cette thèse porte sur l'étude d'un outil mathématique original, à savoir les réseaux de neurones, dans le cadre de la métrologie optique et dimensionnelle achevée par voie ellipsométrique. Dans le premier volet de ce travail nous avons montré que le réseau de neurones peut être efficacement employé pour la détermination des propriétés optiques et géométriques (indice de réfraction et épaisseur) des couches minces. A titre illustratif, la classification neuronale a été proposée pour estimer la gamme d'épaisseur des couches sans aucune information a priori sur la structure. Cette technique peut être couplée avec n'importe quel autre algorithme d'optimisation nécessitant une connaissance préalable de la solution. Le second volet montre clairement l'apport des réseaux de neurones dans le domaine de la scatterométrie pour la caractérisation des réseaux de diffraction possédant différents profils géométriques. La méthode neuronale peut également être employée pour la détermination de la période du réseau lorsque cela est nécessaire. La classification neuronale a ensuite été appliquée pour l'identification structurale du modèle géométrique, donnant ainsi une application directe en lithographie pour la détection automatique d'une couche résiduelle nuisible à l'étape de gravure.
117

Les précipitations orographiques organisées en bandes dans la région Cévennes-Vivarais. Caractérisation et contribution au régime pluviométrique

Godart, Angelique 20 October 2009 (has links) (PDF)
Ce travail de thèse est dédié à l'étude d'un type de convection peu profonde sur la région des Cévennes. Cette convection peu profonde est associée à des précipitations organisées en bandes et localisées sur le relief. Bien que d'intensité faible, ces précipitations peuvent avoir un impact en hydrologie car elles durent longtemps. Nous souhaitons, d'une part comprendre les processus associés à ces précipitations, et d'autre part évaluer leur contribution au régime pluviométrique de la région. Pour ce faire, la première étape consiste en l'élaboration d'une classe de temps composés de tels évènements, car à ce jour, seulement 20h de précipitations orographiques organisées en bandes ont été observées. Cette classe de temps est construite à partir de critères dynamiques et pluviométriques puis complétée par l'utilisation de méthodes statistiques linéaire et non linéaire. Une fois la classe de temps élaborée, les conditions atmosphériques favorables au déclenchement de la convection peu profonde organisée en bandes sont étudiées à partir des radiosondages, des réanalyses ERA40 et de simulations numériques avec MesoNH. L'élaboration de cette classe de temps permet également d'évaluer la contribution de ces pluies au régime pluviométrique en rapportant le cumul des précipitations réanalysées pour les jours extraits à l'ensemble des précipitations observées entre 1976 et 2005. Malgré les incertitudes, cette contribution n'est pas négligeable. Ceci suggère l'intérêt de développer un réseau d'observation permettant de mieux appréhender ces évènements.
118

Techniques neuromimétiques pour la commande dans les systèmes électriques : application au filtrage actif parallèle dans les réseaux électriques basse tension

Ould Abdeslam, Djaffar 08 December 2005 (has links) (PDF)
Le travail présenté dans ce mémoire concerne l'élaboration d'une stratégie complète d'identification et de commande neuronale d'un filtre actif parallèle (FAP). L'objectif visé est l'amélioration des performances par rapport aux systèmes classiques de dépollution des installations électriques basse tension. Basée sur l'utilisation des techniques neuromimétiques, notre approche de compensation des harmoniques se fait en trois étapes. Les deux premières étapes identifient respectivement les composantes de la tension et les courants harmoniques à l'aide de réseaux de neurones du type Adaline. La troisième étape injecte les courants harmoniques dans le réseau électrique par un module de commande à base de réseaux de neurones multicouches. Plusieurs architectures neuronales ont été développées et comparées pour chacune des étapes. La structure proposée s'adapte automatiquement aux variations de la charge du réseau et donc aux fluctuations du contenu harmonique des perturbations. Elle permet également la compensation sélective des harmoniques et la correction du facteur de charge. Finalement, ces stratégies ont été validées sur un banc expérimental et leur aptitude à l'intégration matérielle a été testée en simulation.
119

Contribution à l'étude des méthodes quantitatives d'aide à la décision –appliquées aux indices du marché d'actions

Zakwan, Kreit 27 March 2007 (has links) (PDF)
Cette thèse se compose de deux parties : la première expose et compare les différentes méthodes quantitatives d'aide à la décision utilisées dans diverses situations. La deuxième étudie et analyse l'indice du marché boursier d'Egypte - marché considéré comme inefficient parmi les marchés boursiers internationaux. En conséquence, nous précisons qu'il est très difficile d'utiliser les méthodes traditionnelles pour prévoir la tendance de l'indice de ce marché boursier (Bourse du Caire et d'Alexandrie : CASE). Pour cela nous avons appliqué la méthode ARIMA de Box-Jenkins (moyenne mobile intégrée auto-régressive) et la méthode ANN (Réseaux de Neurones Artificiels) à un échantillon d'indices du marché boursier (CASE) collecté entre 1992 et 2005, soit 3311 observations d'une série chronologique. Les résultats obtenus ont montré que la méthode traditionnelle de prédiction ARIMA ne permet pas de prévoir l'indice du marché boursier de CASE, alors que la méthode ANN est capable de suivre la tendance réelle de l'indice. Ces conclusions ont été confirmées par les deux critères de calcul du pourcentage d'erreur sur la moyenne absolue (MAPE) et de l'erreur sur la moyenne quadratique (MSE). Donc, les réseaux neuronaux pour la prédiction hebdomadaire des marchés boursiers financiers étant efficaces, l'investisseur individuel pourrait tirer profit de l'utilisation de cette méthode de prédiction pour ses propres décisions financières.
120

Développement de systèmes multicapteurs et multivariables pour la mesure en continu de polluants atmosphériques

KAMIONKA, Marc 05 April 2005 (has links) (PDF)
Ce travail a pour but de mesurer les concentrations en polluants atmosphériques à l'aide de capteurs à base d'un semi-conducteur métallique, le dioxyde d'étain. Ceux-ci ont été testés avec deux gaz réducteurs qui sont le monoxyde de carbone (0-20 ppm) et un mélange d'hydrocarbures (0-10 ppm) et deux gaz oxydants qui sont l'ozone (0-500 ppb) et le dioxyde d'azote (0-500 ppb). Un des inconvénients majeurs de ce type de capteur est leur manque de sélectivité. Ainsi l'association de plusieurs capteurs différents dans des systèmes multicapteurs peut être une solution à ce problème.<br />Nous avons mis au point un banc de mesure automatisé capable de générer les concentrations appropriées de gaz avec un taux d'humidité contrôlé. Il permet d'effectuer l'acquisition en continu de quatre dispositifs (mono ou multicapteurs) en cycles de température. <br />Nous avons suivi l'évolution des performances de différents capteurs élaborés par sérigraphie au cours du temps. Au terme de ces expériences, nous avons montré l'intérêt de l'utilisation de certains de ces capteurs pour deux composantes majeures de pollution : l'ozone et les hydrocarbures. Lors de ce travail, les effets capacitifs et les effets d'électrode ne se sont pas révélés être des paramètres utiles pour notre application. Néanmoins, les montées en température sont porteuses d'informations supplémentaires.<br />Ainsi, deux systèmes multicapteurs ont été réalisés. L'un associe trois capteurs indépendants et l'autre consiste en trois couches déposées sur un même substrat chauffant. Ces trois couches sont initialement identiques (dioxyde d'étain) mais deux sont recouvertes d'une couche mince, de platine pour l'un et de silice pour l'autre. De plus, un système constitué de trois capteurs commerciaux fonctionnant en isotherme a aussi été testé. Pour chacun des systèmes étudiés, nous avons construit des modèles de comportement à l'aide d'un algorithme dit de « Réseaux de Neurones ». Alors que les modèles réalisés à l'aide de mélanges gazeux synthétiques se sont révélés inutilisables pour des mesures en pollution réelle, il a été montré qu'un modèle étalonné directement avec de l'air prélevé en milieu urbain se révèle efficace pour la mesure des concentrations en ozone et en hydrocarbures. La portabilité de ces modèles entre différents multicapteurs de même type a été prouvée, mais leur durée de vie s'est avérée limitée à une dizaine de jours.

Page generated in 0.0629 seconds