• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 249
  • 134
  • 32
  • Tagged with
  • 438
  • 438
  • 245
  • 210
  • 178
  • 153
  • 138
  • 108
  • 103
  • 94
  • 86
  • 84
  • 82
  • 79
  • 77
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Dynamique des structures composites linéaires et non-linéaires en présence d'endommagement / Dynamics of linear and non linear damaged composite structures

Mahmoudi, Saber 28 March 2017 (has links)
Les structures composites sont souvent exposées à des ambiances dynamiques plus oumoins sévères. Ces vibrations peuvent développer différentes formes d’endommagement(fracture des fibres, délamination, fissuration de la matrice. . . ). Les défauts locaux sepropagent et affectent les propriétés mécaniques de la structure modifiant ainsi soncomportement dynamique global. Ces changements peuvent induire une dégradationrapide de la structure et une réduction de sa durée de vie. La thèse a pour objectif lamise en oeuvre de modèles de comportement pour le dimensionnement de structurescomplexes intégrant des sous-structures composites susceptibles d’être endommagées.La méthode des éléments finis est utilisée pour modéliser le comportement vibratoirelinéaire et non-linéaire de ces structures et l’endommagement est introduit via un modèlebilatéral, dans un premier temps. Durant le processus de résolution, une des difficultésrencontrées est le coût de calcul très élevé. Ainsi, un méta-modèle a été développé basésur les réseaux de neurones artificiels couplé avec la méthode de condensation par sousstructurationde Craig-Bampton. Les réseaux de neurones artificiels permettent d’estimer,à moindre cout numérique, le niveau d’endommagement sans avoir recours au calculexact. Le modèle d’endommagement bilatéral n’est pas adapté au cas de chargementsalternés ou périodiques. Par conséquent, la deuxième partie de la thèse est orientée versle développement d’un modèle d’endommagement unilatéral qui donne une meilleuredescription du comportement mécanique lorsque les micro-fissures sont fermées. De plus,dans plusieurs applications industrielles, les structures composites utilisées sont de faibleépaisseur. Par conséquent, elles peuvent avoir naturellement un comportement vibratoirenon-linéaire de type grands déplacements. Le modèle de comportement dynamique engrands déplacements et en présence de la non-linéarité matérielle d’endommagement estdéveloppé et validé. A l’issue de ces travaux de thèse, un outil numérique implémentésur MATLAB® a été développé intégrant deux modèles d’endommagement, bilatéralet unilatéral et une méta-modélisation permettant la localisation et l’estimation del’endommagement ainsi que la prédiction de la réponse dynamique des structures composites, totalement ou localement, endommagées. Le méta-modèle proposé permet deréduire significativement le coût de calcul tout en assurant une bonne précision en termesde localisation et d’estimation du niveau d’endommagement. Cet outil peut s’avérer utilepour diverses applications dans le domaine de surveillance de l’état de santé des structurescomposites. / Composite structures are often exposed to more or less severe dynamic perturbations.These vibrations can develop different forms of damage (fiber fracture, delamination,cracking of the matrix, etc.). Local defects propagate and affect the mechanical propertiesof the structure resulting to modify its global dynamic behavior. These changes can leadto the degradation of the structure and the reduction in its lifetime. This thesis focuseson the implementation of behavior models for the dimensioning of complex structuresintegrating damaged composite sub-structures. The finite element method is used tomodel the linear and nonlinear vibration behavior of these structures where the damageis introduced, initially, via a bilateral model. Since the high computational costs duringthe solving process, a meta-model was developed based on artificial neural networkscoupled with the condensation method of Craig-Bampton. Artificial neural networkspermit to estimate the damage severity at a lower numerical cost without resorting toexact calculation. The bilateral damage model is not adapted to the case of periodic loads.Consequently, the second part of the thesis is oriented towards the development of aunilateral damage model which gives a better description of the mechanical behaviorwhen the micro-cracks are closed. Moreover, in several industrial applications, the usedcomposite structures have small thickness. Therefore, they can naturally have a geometricnon-linear dynamic behavior. The model of dynamic behavior in large displacements andin the presence of material non-linearity of damage is developed and validated. At theend of this thesis, a numerical tool implemented on MATLAB® software was developedintegrating two models of damage, bilateral and unilateral, and a meta-modeling allowingthe localization and the estimation of the damage as well as the prediction of the linear andnon-linear dynamic responses of composite structures, totally or locally, damaged. Theproposed meta-model reduces significantly the computational cost and ensuring a goodaccuracy in terms of localization and estimation of the damage severity. Thereby, thistool can be useful in life-time estimation and monitoring strategies of composite structures.Thèse de
202

Neural networks as cellular computing models for temporal sequence processing. / Les réseaux de neurones comme paradigme de calcul cellulaire pour le traitement de séquences temporelles

Khouzam, Bassem 13 February 2014 (has links)
La thèse propose une approche de l'apprentissage temporel par des mécanismes d'auto-organisation à grain fin. Le manuscrit situe dans un premier temps le travail dans la perspective de contribuer à promouvoir une informatique cellulaire. Il s'agit d'une informatique où les calculs se répartissent en un grand nombre de calculs élémentaires, exécutés en parallèle, échangeant de l'information entre eux. Le caractère cellulaire tient à ce qu'en plus d’être à grain fin, une telle architecture assure que les connexions entre calculateurs respectent une topologie spatiale, en accord avec les contraintes des évolutions technologiques futures des matériels. Dans le manuscrit, la plupart des architectures informatiques distribuées sont examinées suivant cette perspective, pour conclure que peu d'entre elles relèvent strictement du paradigme cellulaire.Nous nous sommes intéressé à la capacité d'apprentissage de ces architectures, du fait de l'importance de cette notion dans le domaine connexe des réseaux de neurones par exemple, sans oublier toutefois que les systèmes cellulaires sont par construction des systèmes complexes dynamiques. Cette composante dynamique incontournable a motivé notre focalisation sur l'apprentissage temporel, dont nous avons passé en revue les déclinaisons dans les domaines des réseaux de neurones supervisés et des cartes auto-organisatrices.Nous avons finalement proposé une architecture qui contribue à la promotion du calcul cellulaire en ce sens qu'elle exhibe des propriétés d'auto-organisation pour l'extraction de la représentation des états du système dynamique qui lui fournit ses entrées, même si ces dernières sont ambiguës et ne reflètent que partiellement cet état. Du fait de la présence d'un cluster pour nos simulations, nous avons pu mettre en œuvre une architecture complexe, et voir émerger des phénomènes nouveaux. Sur la base de ces résultats, nous développons une critique qui ouvre des perspectives sur la suite à donner à nos travaux. / The thesis proposes a sequence learning approach that uses the mechanism of fine grain self-organization. The manuscript initially starts by situating this effort in the perspective of contributing to the promotion of cellular computing paradigm in computer science. Computation within this paradigm is divided into a large number of elementary calculations carried out in parallel by computing cells, with information exchange between them.In addition to their fine grain nature, the cellular nature of such architectures lies in the spatial topology of the connections between cells that complies with to the constraints of the technological evolution of hardware in the future. In the manuscript, most of the distributed architecture known in computer science are examined following this perspective, to find that very few of them fall within the cellular paradigm.We are interested in the learning capacity of these architectures, because of the importance of this notion in the related domain of neural networks for example, without forgetting, however, that cellular systems are complex dynamical systems by construction.This inevitable dynamical component has motivated our focus on the learning of temporal sequences, for which we reviewed the different models in the domains of neural networks and self-organization maps.At the end, we proposed an architecture that contributes to the promotion of cellular computing in the sense that it exhibits self-organization properties employed in the extraction of a representation of a dynamical system states that provides the architecture with its entries, even if the latter are ambiguous such that they partially reflect the system state. We profited from an existing supercomputer to simulate complex architecture, that indeed exhibited a new emergent behavior. Based on these results we pursued a critical study that sets the perspective for future work.
203

Architectures de circuits nanoélectroniques neuro-inspirée / Neuro-inspired architectures for nano-circuits

Chabi, Djaafar 09 March 2012 (has links)
Les nouvelles techniques de fabrication nanométriques comme l’auto-assemblage ou la nanoimpression permettent de réaliser des matrices régulières (crossbars) atteignant des densités extrêmes (jusqu’à 1012 nanocomposants/cm2) tout en limitant leur coût de fabrication. Cependant, il est attendu que ces technologies s’accompagnent d’une augmentation significative du nombre de défauts et de dispersions de caractéristiques. La capacité à exploiter ces crossbars est alors conditionnée par le développement de nouvelles techniques de calcul capables de les spécialiser et de tolérer une grande densité de défauts. Dans ce contexte, l’approche neuromimétique qui permet tout à la fois de configurer les nanodispositifs et de tolérer leurs défauts et dispersions de caractéristiques apparaît spécialement pertinente. L’objectif de cette thèse est de démontrer l’efficacité d’une telle approche et de quantifier la fiabilité obtenue avec une architecture neuromimétique à base de crossbar de memristors, ou neurocrossbar (NC). Tout d’abord la thèse introduit des algorithmes permettant l’apprentissage de fonctions logiques sur un NC. Par la suite, la thèse caractérise la tolérance du modèle NC aux défauts et aux variations de caractéristiques des memristors. Des modèles analytiques probabilistes de prédiction de la convergence de NC ont été proposés et confrontés à des simulations Monte-Carlo. Ils prennent en compte l’impact de chaque type de défaut et de dispersion. Grâce à ces modèles analytiques il devient possible d’extrapoler cette étude à des circuits NC de très grande taille. Finalement, l’efficacité des méthodes proposées est expérimentalement démontrée à travers l’apprentissage de fonctions logiques par un NC composé de transistors à nanotube de carbone à commande optique (OG-CNTFET). / Novel manufacturing techniques, such as nanoscale self-assembly or nanoimprint, allow a cost-efficient way to fabricate high-density crossbar matrices (1012 nanodevices/cm2). However, it is expected that these technologies will be accompanied by a significant increase of defects and dispersion in device characteristics. Thus, programming these crossbars require new computational techniques that possess high tolerance for such variations. In this context, approaches based on neural networks are promising for configuring nanodevices, since they provide a natural way for tolerating low yields and device variations. The main objective of this thesis is to explore such a neural-network approach, by examining factors such as efficiency and reliability, using the memristor crossbar architecture or neurocrossbar (NC). We introduce algorithms for learning the logic functions on the NC, and the tolerance of NC against static defects (stuck-defect) and dispersion of device properties is discussed. Probabilistic analytical models for predicting the convergence of NC are proposed and compared with Monte Carlo simulations, which take into account the impact of each type of defect and dispersion. These analytical models can be extrapolated to study large-sized NCs. Finally, the effectiveness of the proposed methods is experimentally demonstrated through the learning of logic functions by a real NC made of Optically Gated Carbon Nanotube Field Effect Transistor (OG-CNTFET).
204

Caractérisation non destructive des matériaux composites en fatigue : diagnostic de l’état de santé et pronostic de la durée de vie résiduelle par réseaux de neurones / Nondestructive characterization of composite materials under fatigue loading : structural health diagnosis and remaining useful life prognostic using artificial neural networks

Duchene, Pierre 13 December 2018 (has links)
Ce travail de recherche consiste en la proposition d’une nouvelle approche de caractérisation non destructive de l’endommagement des matériaux composites (carbone/époxy) sollicités en fatigue par des essais d’auto-échauffement (blocs de chargements croissants). Cette approche est basée sur l’utilisation de plusieurs techniques non destructives appliquées in-situ, en temps réel ou différé, dont l’analyse est, soit redondante soit complémentaire. Au total, six techniques ont été utilisées (émission acoustique, thermographie infrarouge, corrélation d’images numériques, acousto-ultrasons, ultrasons C-scan et ondes de Lamb) et leurs résultats post-traités puis fusionnés à l’aide d’algorithmes basés sur les réseaux de neurones. Les résultats obtenus ont permis d’évaluer et de localiser l’endommagement du matériau et d’estimer sa durée de vie résiduelle. Ce faisant, plusieurs avancés scientifiques ont été obtenus en réalisant, par exemple, une localisation 2D des évènements acoustiques à l’aide seulement de deux capteurs avec une précision millimétrique, ou encore le développement d’une nouvelle technique imagée d’acousto-ultrasons permettant un contrôle hors contraintes de l’état d’endommagement du matériau, …et enfin, le pronostic de la durée de vie résiduelle du matériau basé sur une fusion de données par réseaux de neurones. / This research work consists in a new approach for non-destructive characterisation of damage in composite materials (carbon/epoxy) subjected to fatigue during self-heating tests (increasing load blocks). This approach is based on the use of several non-destructive techniques applied in-situ, in real time or delayed, whose analysis is either redundant or complementary. Six techniques were used (acoustic emission, infrared thermography, digital image correlation, acousto-ultrasound, C-scan ultrasound and lamb waves) and their post-processed results were merged using algorithms based on neural networks. The results obtained made it possible to assess and locate the damage of the material and to estimate its residual life. In doing so, several scientific advances have been obtained by, for example, carrying out a 2D localization of acoustic events using only two sensors with millimetric precision, or the development of a new pictorial acousto-ultrasonic technique allowing an control of the state of material damage at free stress conditions, ... and finally, the prognosis of the residual lifetime of the material based on a data fusion by neural networks.
205

Ecodynamique des éléments traces et caractérisation de l’exposition des sols contaminés : expérimentation et modélisation par les réseaux de neurones artificiels / Ecodynamics of trace elements (ET) and characterization of the exposure of contaminated phytoremediated soils : experimentation and modeling by artificial neural networks

Hattab, Nour 28 June 2013 (has links)
Les sols contaminés par les éléments traces potentiellement toxiques (PTTE) ont souvent des conséquences graves pour les écosystèmes terrestres. Plusieurs options de phytoremediaction ont été développées pour remédier les sols contaminés ; cependantl'efficacité et la capacité de ces techniques à réduire les concentrations excessives des éléments traces ou leur (phyto) disponibilité dans les sols contaminés doivent être évaluées Le présent travail s’est intéressé à étudier l'efficacité de deux options de de phytorémédiation, la phytostabilisation et la phytoextraction assistées par des amendements organiques et minéraux, à remédier les fortes concentrations de PTTE dans un sol naturel et dans un technosol contaminés. Les concentrations totales des éléments traces dissous ont été déterminées dans l'eau interstitielle du sol. L'intensité de l'exposition du sol a été évaluée par des capteurs DGT (gradient de diffusion dans les couches minces). Le phytodisponibilité des PTTE a été caractérisée par des tests de germination avec des haricots nains cultivés sur les sols contaminés pour lesquels les concentrations foliaires en éléments traces ont été déterminées. Ensuite un modèle de réseau de neurones artificiels a été appliqué pour comprendre les facteurs les plus pertinents sur la variabilité de la phytodisponibilité des PTTE. Les deux options ont étécapables de réduire les concentrations ou la phytodisponibilité des PTTE en présence des amendements. Les réseaux de neurones artificiels ont été très efficaces pour prédire les résultats manquants et pour déterminer les paramètres de contrôle de la variabilité de la phytodisponibilité des PTTE à partir des paramètres du sol. / Soils contaminated with potentially toxic trace elements (PTTE) often have serious consequences for terrestrial ecosystems. Several phytoremediaction have been developped to reclaim contaminated soils; however the efficiency and capacity of these techniques to reduce excessive concentrations of trace elements or their (phyto) availability in contaminated soils have to be assessed. The present work is focused on studying the effectiveness of two phyoremediation options such as phytostabilisation and phytoextraction assisted by organic and inorganic amendments to remediatethe high concentrations of PTTE in contaminated natural soils and technosoils. Total PTTE concentrations were determined in soil pore water (SPW) sampled by Rhizon soil moisture samplers. The soil exposure intensity was assessed by DGT (diffusive gradient in thin films) probes. The PTTE phytoavailability was characterized by growing dwarf beans on potted soils and analyzing their foliar PTTE concentrations. Then a model of artificial neural network was applied to understand the factors most relevant for the variability on the phytoavailability of trace elements. Both options were found to be able to reduce the concentrations or phytoavailability of PTTE in the presence of amendments. The artificial neural network has been very effective to predict missing results and to determine the control parameters of the variability of the PTTE phytoavailoability from the soil parameters.
206

Traitement parcimonieux de signaux biologiques / Sparse processing of biological signals

Chollet, Paul 24 November 2017 (has links)
Les réseaux de capteurs corporels représentent un enjeu sociétal important en permettant des soins de meilleure qualité avec un coût réduit. Ces derniers sont utilisés pour détecter des anomalies dès leur apparition et ainsi intervenir au plus vite. Les capteurs sont soumis à de nombreuses contraintes de fiabilité, robustesse, taille et consommation. Dans cette thèse, les différentes opérations réalisées par les réseaux de capteurs corporels sont analysées. La consommation de chacune d'elles est évaluée afin de guider les axes de recherche pour améliorer l'autonomie énergétique des capteurs. Un capteur pour la détection d'arythmie sur des signaux cardiaques est proposé. Il intègre un traitement du signal via l'utilisation d'un réseau de neurone à cliques. Le système proposé est simulé et offre une exactitude de classification de 95 % pour la détection de trois types d'arythmie. Le prototypage du système via la fabrication d'un circuit mixte analogique/numérique en CMOS 65 nm montre une consommation du capteur de l'ordre de 1,4 μJ. Pour réduire encore plus l'énergie, une nouvelle méthode d'acquisition est utilisée. Une architecture de convertisseur est proposée pour l'acquisition et le traitement de signaux cardiaques. Cette dernière laisse espérer une consommation de l'ordre de 1,18 nJ pour acquérir les paramètres tout en offrant une exactitude de classification proche de 98 %. Cette étude permet d'ouvrir la voie vers la mise en place de capteurs très basse consommation pouvant durer toute une vie avec une simple pile. / Body area sensor networks gained great focused through the promiseof better quality and cheaper medical care system. They are used todetect anomalies and treat them as soon as they arise. Sensors are under heavy constraints such as reliability, sturdiness, size and power consumption. This thesis analyzes the operations perform by a body area sensor network. The different energy requirements are evaluated in order to choose the focus of the research to improve the battery life of the sensors. A sensor for arrhythmia detection is proposed. It includes some signal processing through a clique-based neural network. The system simulations allow a classification between three types of arrhythmia with 95 % accuracy. The prototype, based on a 65 nm CMOS mixed signal circuit, requires only 1.4 μJ. To further reduce energy consumption, a new sensing method is used. A converter architecture is proposed for heart beat acquisition. Simulations and estimation show a 1.18 nJ energy requirement for parameter acquisition while offering 98 % classification accuracy. This work leads the way to the development of low energy sensor with a lifetime battery life.
207

Generative models for natural images

Ahmed, Faruk 08 1900 (has links)
No description available.
208

Adhésion, croissance et polarisation de neurones sur substrats micro-et nano-structurés / Neuronal adhesion, growth and polarization on micro- and nano-structured substrates

Bugnicourt, Ghislain 21 December 2011 (has links)
Cette thèse s'intéresse au développement neuronal in vitro dans le but ultime d'enregistrer l'activité de réseaux de neurones à géométrie et connectivité contrôlées. Le développement neuronal est régi par un ensemble de régulations, intrinsèques mais également sous contrôle de facteurs extérieurs, qui permettent à la cellule d'adhérer à un substrat, de croître, et de se polariser. Une partie de ce travail de thèse explore deux types de contraintes physiques de l'environnement que sont la géométrie d'adhésion et la rugosité de surface. La première révèle l'implication des forces dans les stades précoces de développement neuronal régis par un phénomène de compétition neuritique, et permet in fine de contrôler la direction d'émission de l'axone, notamment par une inhibition de sa différenciation sur lignes ondulées. La seconde montre que la distribution des points d'adhésion peut accélérer la croissance jusqu'à favoriser la polarisation axonale. L'autre partie de ce travail s'attache à résoudre le problème technologique majeur qu'est le remplissage des sites d'adhésion par le biais d'une attraction magnétique, et démontre la possibilité de faire croître des réseaux neuronaux modèles sur nanotransistors. / This thesis focuses on in vitro neuronal development, with the long-term goal of building controlled neuron networks that would allow the recording of their electric activity. A collection of intrinsic regulations are involved in neuronal adhesion, growth and polarization, in such a way that the cell can adapt to changes in its environment. Nevertheless, this environment can affect the behavior of the cell through mechanisms that rely on biophysical signals or even physical properties of this environment. The work presented in this thesis is based on the modification of two main aspects of the physical environment: geometry of adhesion and surface roughness. On the one hand, the geometry is controlled by patterns of adhesions, giving the ability to design bipolar motifs that highligt the importance of mechanical forces in neuronal growth, and also more complex motifs that allow the control of neuronal polarization, in particular by an inhibition of axonal differenciation on curved lines. On the other hand, a roughness below the microscale creates a distribution of adhesion points that results in an increase in neuronal growth rate and even influences axonal polarization. The final part of this thesis focuses on the development of an innovative method for placing cells at precise locations on a substrate, by the help of magnetic traps. This method is the final step required for growing model neuron networks on our nanotransistors.
209

Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur / Convolutional neural networks for semantic segmentation and color constancy

Fourure, Damien 12 December 2017 (has links)
La vision par ordinateur est un domaine interdisciplinaire étudiant la manière dont les ordinateurs peuvent acquérir une compréhension de haut niveau à partir d’images ou de vidéos numériques. En intelligence artificielle, et plus précisément en apprentissage automatique, domaine dans lequel se positionne cette thèse, la vision par ordinateur passe par l’extraction de caractéristiques présentes dans les images puis par la généralisation de concepts liés à ces caractéristiques. Ce domaine de recherche est devenu très populaire ces dernières années, notamment grâce aux résultats des réseaux de neurones convolutifs à la base des méthodes dites d’apprentissage profond. Aujourd’hui les réseaux de neurones permettent, entre autres, de reconnaître les différents objets présents dans une image, de générer des images très réalistes ou même de battre les champions au jeu de Go. Leurs performances ne s’arrêtent d’ailleurs pas au domaine de l’image puisqu’ils sont aussi utilisés dans d’autres domaines tels que le traitement du langage naturel (par exemple en traduction automatique) ou la reconnaissance de son. Dans cette thèse, nous étudions les réseaux de neurones convolutifs afin de développer des architectures et des fonctions de coûts spécialisées à des tâches aussi bien de bas niveau (la constance chromatique) que de haut niveau (la segmentation sémantique d’image). Une première contribution s’intéresse à la tâche de constance chromatique. En vision par ordinateur, l’approche principale consiste à estimer la couleur de l’illuminant puis à supprimer son impact sur la couleur perçue des objets. Les expériences que nous avons menées montrent que notre méthode permet d’obtenir des performances compétitives avec l’état de l’art. Néanmoins, notre architecture requiert une grande quantité de données d’entraînement. Afin de corriger en parti ce problème et d’améliorer l’entraînement des réseaux de neurones, nous présentons plusieurs techniques d’augmentation artificielle de données. Nous apportons également deux contributions sur une problématique de haut niveau : la segmentation sémantique d’image. Cette tâche, qui consiste à attribuer une classe sémantique à chacun des pixels d’une image, constitue un défi en vision par ordinateur de par sa complexité. D’une part, elle requiert de nombreux exemples d’entraînement dont les vérités terrains sont coûteuses à obtenir. D’autre part, elle nécessite l’adaptation des réseaux de neurones convolutifs traditionnels afin d’obtenir une prédiction dite dense, c’est-à-dire, une prédiction pour chacun pixel présent dans l’image d’entrée. Pour résoudre la difficulté liée à l’acquisition de données d’entrainements, nous proposons une approche qui exploite simultanément plusieurs bases de données annotées avec différentes étiquettes. Pour cela, nous définissons une fonction de coût sélective. Nous développons aussi une approche dites d’auto-contexte capturant d’avantage les corrélations existantes entre les étiquettes des différentes bases de données. Finalement, nous présentons notre troisième contribution : une nouvelle architecture de réseau de neurones convolutifs appelée GridNet spécialisée pour la segmentation sémantique d’image. Contrairement aux réseaux traditionnels, notre architecture est implémentée sous forme de grille 2D permettant à plusieurs flux interconnectés de fonctionner à différentes résolutions. Afin d’exploiter la totalité des chemins de la grille, nous proposons une technique d’entraînement inspirée du dropout. En outre, nous montrons empiriquement que notre architecture généralise de nombreux réseaux bien connus de l’état de l’art. Nous terminons par une analyse des résultats empiriques obtenus avec notre architecture qui, bien qu’entraînée avec une initialisation aléatoire des poids, révèle de très bonnes performances, dépassant les approches populaires souvent pré-entraînés / Computer vision is an interdisciplinary field that investigates how computers can gain a high level of understanding from digital images or videos. In artificial intelligence, and more precisely in machine learning, the field in which this thesis is positioned,computer vision involves extracting characteristics from images and then generalizing concepts related to these characteristics. This field of research has become very popular in recent years, particularly thanks to the results of the convolutional neural networks that form the basis of so-called deep learning methods. Today, neural networks make it possible, among other things, to recognize different objects present in an image, to generate very realistic images or even to beat the champions at the Go game. Their performance is not limited to the image domain, since they are also used in other fields such as natural language processing (e. g. machine translation) or sound recognition. In this thesis, we study convolutional neural networks in order to develop specialized architectures and loss functions for low-level tasks (color constancy) as well as high-level tasks (semantic segmentation). Color constancy, is the ability of the human visual system to perceive constant colours for a surface despite changes in the spectrum of illumination (lighting change). In computer vision, the main approach consists in estimating the color of the illuminant and then suppressing its impact on the perceived color of objects. We approach the task of color constancy with the use of neural networks by developing a new architecture composed of a subsampling operator inspired by traditional methods. Our experience shows that our method makes it possible to obtain competitive performances with the state of the art. Nevertheless, our architecture requires a large amount of training data. In order to partially correct this problem and improve the training of neural networks, we present several techniques for artificial data augmentation. We are also making two contributions on a high-level issue : semantic segmentation. This task, which consists of assigning a semantic class to each pixel of an image, is a challenge in computer vision because of its complexity. On the one hand, it requires many examples of training that are costly to obtain. On the other hand, it requires the adaptation of traditional convolutional neural networks in order to obtain a so-called dense prediction, i. e., a prediction for each pixel present in the input image. To solve the difficulty of acquiring training data, we propose an approach that uses several databases annotated with different labels at the same time. To do this, we define a selective loss function that has the advantage of allowing the training of a convolutional neural network from data from multiple databases. We also developed self-context approach that captures the correlations between labels in different databases. Finally, we present our third contribution : a new convolutional neural network architecture called GridNet specialized for semantic segmentation. Unlike traditional networks, implemented with a single path from the input (image) to the output (prediction), our architecture is implemented as a 2D grid allowing several interconnected streams to operate at different resolutions. In order to exploit all the paths of the grid, we propose a technique inspired by dropout. In addition, we empirically demonstrate that our architecture generalize many of well-known stateof- the-art networks. We conclude with an analysis of the empirical results obtained with our architecture which, although trained from scratch, reveals very good performances, exceeding popular approaches often pre-trained
210

Intelligence artificielle et prévision de l'impact de l'activité solaire sur l'environnement magnétique terrestre / Artifical intelligence and forecast of the impact of the solar activity on the Earth's magnetic field

Gruet, Marina 28 September 2018 (has links)
Dans cette thèse, nous présentons des modèles appartenant au domaine de l’intelligence artificielle afin de prédire l’indice magnétique global am à partir des paramètres du vent solaire. Ceci est fait dans l’optique de fournir des modèles opérationnels basés sur les données enregistrées par le satellite ACE situé au point de Lagrange L1. L’indice am ne possède pas à l’heure actuelle de modèles de prédiction. Pour prédire cet indice, nous avons fait appel à des modèles non-linéaires que sont les réseaux de neurones, permettant de modéliser le comportement complexe et non-linéaire de la magnétosphère terrestre. Nous avons dans un premier temps travaillé sur le développement et l’optimisation des modèles de réseaux classiques comme le perceptron multi-couche. Ces modèles ont fait leurs preuves en météorologie spatiale pour prédire aussi bien des indices magnétiques spécifiques à des systèmes de courant comme l’indice Dst, caractéristique du courant annulaire, que des indices globaux comme l’indice Kp. Nous avons en particulier étudié un réseau temporel appelé Time Delay Neural Network (TDNN) et évalué sa capacité à prédire l’indice magnétique am à une heure, uniquement à partir des paramètres du vent solaire. Nous avons analysé la sensibilité des performances des réseaux de neurones en considérant d’une part les données fournies par la base OMNI au niveau de l’onde de choc, et d’autre part des données obtenues par le satellite ACE en L1. Après avoir étudié la capacité de ces réseaux à prédire am, nous avons développé un réseau de neurones encore jamais utilisé en météorologie spatiale, le réseau Long Short Term Mermory ou LSTM. Ce réseau possède une mémoire à court et à long terme, et comme le TDNN, fournit des prédictions de l’indice am uniquement à partir des paramètres du vent solaire. Nous l’avons optimisé afin de modéliser au mieux le comportement de la magnétosphère et avons ainsi obtenu de meilleures performances de prédiction de l'indice am par rapport à celles obtenues avec le TDNN. Nous avons souhaité continuer le développement et l’optimisation du LSTM en travaillant sur l’utilisation de fonctions de couplage en entrée de ce réseau de neurones, et sur le développement de réseaux multisorties pour prédire les indices magnétiques am sectoriels ou aσ, spécifiques à chaque secteur Temps Magnétique Local. Enfin, nous avons développé une nouvelle technique combinant réseau LSTM et processus gaussiens, afin de fournir une prédiction probabiliste jusqu’à six heures des indices magnétiques Dst et am. Cette méthode a été dans un premier temps développée pour l’indice magnétique Dst afin de pouvoir comparer les performances du modèle hybride à des modèles de référence, puis appliquée à l’indice magnétique am. / In this thesis, we present models which belongs to the field of artificial intelligence to predict the geomagnetic index am based on solar wind parameters. This is done in terms to provide operational models based on data recorded by the ACE satellite located at the Lagrangian point L1. Currently, there is no model providing predictions of the geomagnetic index am. To predict this index, we have relied on nonlinear models called neural networks, allowing to model the complex and nonlinear dynamic of the Earth’s magnetosphere. First, we have worked on the development and the optimisation of basics neural networks like the multilayer perceptron. These models have proven in space weather to predict geomagnetic index specific to current systems like the Dst index, characteristic of the ring current, as well as the global geomagnetic index Kp. In particular, we have studied a temporal network, called the Time Delay Neural Network (TDNN) and we assessed its ability to predict the geomagnetic index am within one hour, base only on solar wind parameters. We have analysed the sensitivity of neural network performance when considering on one hand data from the OMNI database at the bow shock, and on the other hand data from the ACE satellite at the L1 point. After studying the ability of neural networks to predict the geomagnetic index am, we have developped a neural network which has never been used before in Space Weather, the Long Short Term Memory or LSTM. Like the TDNN, this network provides am prediction based only on solar wind parameters. We have optimised this network to model at best the magnetosphere behaviour and obtained better performance than the one obtained with the TDNN. We continued the development and the optimisation of the LSTM network by using coupling functions as neural network features, and by developing multioutput networks to predict the sectorial am also called aσ, specific to each Magnetical Local Time sector. Finally, we developped a brand new technique combining the LSTM network and gaussian process, to provide probabilistic predictions up to six hours ahead of geomagnetic index Dst and am. This method has been first developped to predict Dst to be able to compare the performance of this model with reference models, and then applied to the geomagnetic index am.

Page generated in 0.0947 seconds