• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 4
  • 1
  • Tagged with
  • 10
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation du retrait et du fluage du béton par réseaux de neurones / Modeling of creep and shrinkage of concrete by neural networks

Bal, Lyes 15 December 2009 (has links)
Le béton est le matériau de construction le plus utilisé depuis plus d’un siècle. Après sa mise en place et sa prise, il connaît diverses évolutions dimensionnelles d’origine physique comme le retrait et d’origine physique et mécanique comme le fluage. Le séchage qui accompagne le durcissement du béton conduit à d’importantes variations dimensionnelles, qui peuvent se manifester par des fissures préjudiciables à la durabilité et à la bonne tenue des ouvrages. La présente étude a pour objet de montrer l’application d’une approche non paramétrique dite « Réseaux de Neurones Artificiels » afin de prévoir efficacement les variations dimensionnelles spontanées et différés (Retrait de Dessiccation et Fluage de Dessiccation). L’utilisation de cette approche permet le développement de modèles pour leur prévision en utilisant un réseau multicouche à rétropropagation. Ils s’appuient également sur une grande base de données de résultats expérimentaux recueillis dans la littérature et sur un choix approprié des architectures et du processus d’apprentissage utilisés. Ces modèles prennent en compte les différents paramètres de conservation et de confection qui influent sur le retrait et le fluage du béton. Pour mieux apprécier la validité de ces modèles, nous les avons comparés avec d’autres existants dans la littérature tel que : B3, ACI 209, CEB et GL2000. De ces comparaisons, il ressort que ces modèles sont correctement adaptés pour décrire l’évolution dans le temps du retrait et du fluage. / Concrete is the material the most used in construction works for a century. After establishment and setting, various physical and mechanical dimensional developments. Occur drying is developing with hardening of concrete and leads to significant dimensional changes, that can induce cracking, pre judiciable at the durability of the civil engineering works. This study aims to demonstrate the application of a nonparametric approach called Artificial Neural Networks to provide effective spontaneous and differed dimensional variations (drying shrinkage and drying creep). Using this approach allows the development of predicting models. These models use a multi layer back propagation. They also rely on a very large database of experimental results obtained in the literature and an appropriate choice of architectures and learning process. These models take into account the different parameters of preservation and making that affect drying shrinkage and creep of concrete. To appreciate the validity of our models, we have compared with other existing models : B3, ACI 209, CEB and GL2000. In these comparisons, it appears that our models are correctly adapted to describe the time evolution of drying shrinkage and creep.
2

Méthodes d'identification et de caractérisation de source de bruit en environnement réverbérant

Braïkia, Yacine 11 September 2012 (has links) (PDF)
Ce travail de thèse à été financé par le projet LICORVE (Développement de garnitures légères, innovantes, recyclables et poly-sensorielles pour les applications de coffres de véhicule). Il consiste à développer une méthodologie de mesure pour localiser et caractériser les sources de bruit dans un coffre de voiture. L'environnement de mesure se caractérise par un petit volume où les réflexions de la source d'intérêt et des sources perturbatrices sur les parois ne peuvent être négligées. La méthode doit donc permettre de séparer les différents contributions pour estimer le plus précisément possible les sources étudiées (déconfinement). Dans un premier temps, deux méthodes de séparation : Double Layer SONAH (Statistically Optimal Near el Acoustical Holography) et Field Separation Method (FSM) sont étudiées numériquement. Les limites et avantages de chacune ont été déterminés dans un environnement de mesure confiné. Cela a permis de choisir la méthode la plus adaptée à notre problématique. Dans un deuxième temps les principales conclusions de l'étude numérique sont validées expérimentalement. Dans ce cadre, un ensemble de mesures sont réalisées dans une maquette avec la méthode FSM pour localiser et caractériser des sources maitrisées. Après avoir validée la fiabilité de la méthode de séparation, FSM a été mise en œuvre dans le coffre d'une Peugeot 508 sw en condition de roulement. Les résultats obtenus ont permis d'orienter le choix des garnitures pour un traitement acoustique optimal.
3

Méthodes d'identification et de caractérisation de source de bruit en environnement réverbérant / Acoustic Source identification in bounded noisy environment

Braïkia, Yacine 11 September 2012 (has links)
Ce travail de thèse à été financé par le projet LICORVE (Développement de garnitures légères, innovantes, recyclables et poly-sensorielles pour les applications de coffres de véhicule). Il consiste à développer une méthodologie de mesure pour localiser et caractériser les sources de bruit dans un coffre de voiture. L'environnement de mesure se caractérise par un petit volume où les réflexions de la source d'intérêt et des sources perturbatrices sur les parois ne peuvent être négligées. La méthode doit donc permettre de séparer les différents contributions pour estimer le plus précisément possible les sources étudiées (déconfinement). Dans un premier temps, deux méthodes de séparation : Double Layer SONAH (Statistically Optimal Near el Acoustical Holography) et Field Separation Method (FSM) sont étudiées numériquement. Les limites et avantages de chacune ont été déterminés dans un environnement de mesure confiné. Cela a permis de choisir la méthode la plus adaptée à notre problématique. Dans un deuxième temps les principales conclusions de l'étude numérique sont validées expérimentalement. Dans ce cadre, un ensemble de mesures sont réalisées dans une maquette avec la méthode FSM pour localiser et caractériser des sources maitrisées. Après avoir validée la fiabilité de la méthode de séparation, FSM a été mise en œuvre dans le coffre d'une Peugeot 508 sw en condition de roulement. Les résultats obtenus ont permis d'orienter le choix des garnitures pour un traitement acoustique optimal. / This thesis consists in developing, through the LICORVE project (light garnitures, innovative, recyclable and multi-sensorial for vehicle boots applications), a measurement method for localizing and characterizing noise sources in a vehicle trunk. The measuring environment is distinguished by a small volume where the reflections on the partitions generated by the source of interest and the interfering sources cannot be neglected. Therefore, the method must allow the separation of the different contributions in order to assess accurately the studied sources. As a first step, two separation methods : Double Layer SONAH (Statistically Optimized Near-Field Acoustical Holography) and Field Separation Method (FSM) are numerically studied. The limitations and advantages of each of them are determined in a confined measuring environment; this allowed to select the most appropriate method to tackle our problem. As a second step, the main conclusions of the numerical study are confirmed experimentally. In this context, measurements are performed, using the FSM method, in a trunk mock-up to localize and characterize the controlled sources. So confirmed the reliability of the separation method, it has been tested in the boot of a Peugeot 508 SW on a roller bench. The obtained results allowed guiding the selection of garniture for the acoustic treatment.
4

Neurobiologically-inspired models : exploring behaviour prediction, learning algorithms, and reinforcement learning

Spinney, Sean 11 1900 (has links)
Le développement du domaine de l’apprentissage profond doit une grande part de son avancée aux idées inspirées par la neuroscience et aux études sur l’apprentissage humain. De la découverte de l’algorithme de rétropropagation à la conception d’architectures neuronales comme les Convolutional Neural Networks, ces idées ont été couplées à l’ingénierie et aux améliorations technologiques pour engendrer des algorithmes performants en utilisation aujourd’hui. Cette thèse se compose de trois articles, chacun éclairant des aspects distincts du thème central de ce domaine interdisciplinaire. Le premier article explore la modélisation prédictive avec des données d’imagerie du cerveau de haute dimension en utilisant une nouvelle approche de régularisation hybride. Dans de nombreuses applications pratiques (comme l’imagerie médicale), l’attention se porte non seulement sur la précision, mais également sur l’interprétabilité d’un modèle prédictif formé sur des données haute dimension. Cette étude s’attache à combiner la régularisation l1 et l2, qui régularisent la norme des gradients, avec l’approche récemment proposée pour la modélisation prédictive robuste, l’Invariant Learning Consistency, qui impose l’alignement entre les gradients de la même classe lors de l’entraînement. Nous examinons ici la capacité de cette approche combinée à identifier des prédicteurs robustes et épars, et nous présentons des résultats prometteurs sur plusieurs ensembles de données. Cette approche tend à améliorer la robustesse des modèles épars dans presque tous les cas, bien que les résultats varient en fonction des conditions. Le deuxième article se penche sur les algorithmes d’apprentissage inspirés de la biologie, en se concentrant particulièrement sur la méthode Difference Target Propagation (DTP) tout en l’intégrant à l’optimisation Gauss-Newton. Le développement de tels algorithmes biologiquement plausibles possède une grande importance pour comprendre les processus d’apprentissage neuronale, cependant leur extensibilité pratique à des tâches réelles est souvent limitée, ce qui entrave leur potentiel explicatif pour l’apprentissage cérébral réel. Ainsi, l’exploration d’algorithmes d’apprentissage qui offrent des fondements théoriques solides et peuvent rivaliser avec la rétropropagation dans des tâches complexes gagne en importance. La méthode Difference Target Propagation (DTP) se présente comme une candidate prometteuse, caractérisée par son étroite relation avec les principes de l’optimisation Gauss-Newton. Néanmoins, la rigueur de cette relation impose des limites, notamment en ce qui concerne la formation couche par couche des poids synaptiques du chemin de rétroaction, une configuration considérée comme plus biologiquement plausible. De plus, l’alignement entre les mises à jour des poids DTP et les gradients de perte est conditionnel et dépend des scénarios d’architecture spécifiques. Cet article relève ces défis en introduisant un schéma innovant d’entraînement des poids de rétroaction. Ce schéma harmonise la DTP avec la BP, rétablissant la viabilité de la formation des poids de rétroaction couche par couche sans compromettre l’intégrité théorique. La validation empirique souligne l’efficacité de ce schéma, aboutissant à des performances exceptionnelles de la DTP sur CIFAR-10 et ImageNet 32×32. Enfin, le troisième article explore la planification efficace dans la prise de décision séquentielle en intégrant le calcul adaptatif à des architectures d’apprentissage profond existantes, dans le but de résoudre des casse-tête complexes. L’étude introduit des principes de calcul adaptatif inspirés des processus cognitifs humains, ainsi que des avancées récentes dans le domaine du calcul adaptatif. En explorant en profondeur les comportements émergents du modèle de mémoire adaptatif entraîné, nous identifions plusieurs comportements reconnaissables similaires aux processus cognitifs humains. Ce travail élargit la discussion sur le calcul adaptatif au-delà des gains évidents en efficacité, en explorant les comportements émergents en raison des contraintes variables généralement attribuées aux processus de la prise de décision chez les humains. / The development of the field of deep learning has benefited greatly from biologically inspired insights from neuroscience and the study of human learning more generally, from the discovery of backpropagation to neural architectures such as the Convolutional Neural Network. Coupled with engineering and technological improvements, the distillation of good strategies and algorithms for learning inspired from biological observation is at the heart of these advances. Although it would be difficult to enumerate all useful biases that can be learned by observing humans, they can serve as a blueprint for intelligent systems. The following thesis is composed of three research articles, each shedding light on distinct facets of the overarching theme. The first article delves into the realm of predictive modeling on high-dimensional fMRI data, a landscape where not only accuracy but also interpretability are crucial. Employing a hybrid approach blending l1 and l2 regularization with Invariant Learning Consistency, this study unveils the potential of identifying robust, sparse predictors capable of transmuting noise laden datasets into coherent observations useful for pushing the field forward. Conversely, the second article delves into the domain of biologically-plausible learning algorithms, a pivotal endeavor in the comprehension of neural learning processes. In this context, the investigation centers upon Difference Target Propagation (DTP), a prospective framework closely related to Gauss-Newton optimization principles. This exploration delves into the intricate interplay between DTP and the tenets of biologically-inspired learning mechanisms, revealing an innovative schema for training feedback weights. This schema reinstates the feasibility of layer-wise feedback weight training within the DTP framework, while concurrently upholding its theoretical integrity. Lastly, the third article explores the role of memory in sequential decision-making, and proposes a model with adaptive memory. This domain entails navigating complex decision sequences within discrete state spaces, where the pursuit of efficiency encounters difficult scenarios such as the risk of critical irreversibility. The study introduces adaptive computation principles inspired by human cognitive processes, as well as recent advances in adaptive computing. By studying in-depth the emergent behaviours exhibited by the trained adaptive memory model, we identify several recognizable behaviours akin to human cognitive processes. This work expands the discussion of adaptive computing beyond the obvious gains in efficiency, but to behaviours emerging due to varying constraints usually attributable to dynamic response times in humans.
5

Spatial Separation of Sound Sources

Dong, Bin 14 April 2014 (has links) (PDF)
La séparation aveugle de sources est une technique prometteuse pour l'identification, la localisation, et la classification des sources sonores. L'objectif de cette thèse est de proposer des méthodes pour séparer des sources sonores incohérentes qui peuvent se chevaucher à la fois dans les domaines spatial et fréquentiel par l'exploitation de l'information spatiale. De telles méthodes sont d'intérêt dans les applications acoustiques nécessitant l'identification et la classification des sources sonores ayant des origines physiques différentes. Le principe fondamental de toutes les méthodes proposées se décrit en deux étapes, la première étant relative à la reconstruction du champ source (comme par exemple à l'aide de l'holographie acoustique de champ proche) et la seconde à la séparation aveugle de sources. Spécifiquement, l'ensemble complexe des sources est d'abord décomposé en une combinaison linéaire de fonctions de base spatiales dont les coefficients sont définis en rétropropageant les pressions mesurées par un réseau de microphones sur le domaine source. Cela conduit à une formulation similaire, mais pas identique, à la séparation aveugle de sources. Dans la seconde étape, ces coefficients sont séparés en variables latentes décorrélées, affectées à des "sources virtuelles" incohérentes. Il est montré que ces dernières sont définies par une rotation arbitraire. Un ensemble unique de sources sonores est finalement résolu par la recherche de la rotation (par gradient conjugué dans la variété Stiefel des matrices unitaires) qui minimise certains critères spatiaux, tels que la variance spatiale, l'entropie spatiale, ou l'orthogonalité spatiale. Il en résulte la proposition de trois critères de séparation à savoir la "moindre variance spatiale", la "moindre entropie spatiale", et la "décorrélation spatiale", respectivement. De plus, la condition sous laquelle la décorrélation classique (analyse en composantes principales) peut résoudre le problème est établit de une manière rigoureuse. Le même concept d'entropie spatiale, qui est au coeur de cette thèse, est également iv exploité dans la définition d'un nouveau critère, la courbe en L entropique, qui permet de déterminer le nombre de sources sonores actives sur le domaine source d'intérêt. L'idée consiste à considérer le nombre de sources qui réalise le meilleur compromis entre une faible entropie spatiale (comme prévu à partir de sources compactes) et une faible entropie statistique (comme prévu à partir d'une faible erreur résiduelle). La méthode proposée est validée à la fois sur des expériences de laboratoire et des données numériques et illustrée par un exemple industriel concernant la classification des sources sonores sur la face supérieure d'un moteur Diesel. La méthodologie peut également séparer, de façon très précise, des sources dont les amplitudes sont de 40 dB inférieur aux sources les plus fortes. Aussi, la robustesse vis-à-vis de l'estimation du nombre de sources actives, de la distance entre le domaine source d'intérêt et le réseau de microphones, ainsi que de la taille de la fonction d'ouverture est démontrée avec succès.
6

Difference target propagation

Lee, Dong-Hyun 07 1900 (has links)
No description available.
7

Apprentissage de circuits quantiques par descente de gradient classique

Lamarre, Aldo 07 1900 (has links)
Nous présentons un nouvel algorithme d’apprentissage de circuits quantiques basé sur la descente de gradient classique. Comme ce sujet unifie deux disciplines, nous expliquons les deux domaines aux gens de l’autre discipline. Conséquemment, nous débutons par une présentation du calcul quantique et des circuits quantiques pour les gens en apprentissage automatique suivi d’une présentation des algorithmes d’apprentissage automatique pour les gens en informatique quantique. Puis, pour motiver et mettre en contexte nos résultats, nous passons à une légère revue de littérature en apprentissage automatique quantique. Ensuite, nous présentons notre modèle, son algorithme, ses variantes et quelques résultats empiriques. Finalement, nous critiquons notre implémentation en montrant des extensions et des nouvelles approches possibles. Les résultats principaux se situent dans ces deux dernières parties, qui sont respectivement les chapitres 4 et 5 de ce mémoire. Le code de l’algorithme et des expériences que nous avons créé pour ce mémoire se trouve sur notre github à l’adresse suivante : https://github.com/AldoLamarre/quantumcircuitlearning. / We present a new learning algorithm for quantum circuits based on gradient descent. Since this subject unifies two areas of research, we explain each field for people working in the other domain. Consequently, we begin by introducing quantum computing and quantum circuits to machine learning specialists, followed by an introduction of machine learning to quantum computing specialists. To give context and motivate our results we then give a light literature review on quantum machine learning. After this, we present our model, its algorithms and its variants, then discuss our currently achieved empirical results. Finally, we criticize our models by giving extensions and future work directions. These last two parts are our main results. They can be found in chapter 4 and 5 respectively. Our code which helped obtain these results can be found on github at this link : https://github.com/ AldoLamarre/quantumcircuitlearning.
8

Analyse discriminante et perceptron multicouche-liens formels et applications

Diagne, Elhadji Diaraff Diegane January 2019 (has links) (PDF)
No description available.
9

Advanced modulation formats and nonlinear mitigation for spectral efficient optical transmission systems / Formats de modulation avancés et compensation de non linéarités pour les systèmes de transmission par fibre optique à haute efficacité spectrale

Fernandez de Jauregui Ruiz, Ivan 12 April 2018 (has links)
La majeure partie des communications mondiales est transportée par des systèmes transocéaniques à fibre optique. Il est estimé que d'ici 2020 le trafic de données atteindra 4.3 ZB par an. Afin de faire face à cette demande, différentes technologies sont actuellement étudiées pour augmenter la capacité des systèmes de transmission très longue distance. Avec l'avènement des circuits intégrés à haute vitesse, des formats de modulation avancés et des techniques de traitement de signal numérique (DSP) peuvent être utilisés pour maximiser l'efficacité spectrale de transmission. Par ailleurs, la capacité des systèmes modernes est fortement limitée par les effets non-linéaires de type Kerr dans la fibre. Ainsi, la première partie de ce travail est axée sur l’étude de la performance et des gains réalisables par des techniques DSP à faible complexité pour mitiger les effets non-linéaires monocanal. En outre, l’utilisation des formats de modulation multiniveaux à haute efficacité spectrale au-delà de 16QAM a pris de l'ampleur pour augmenter le débit de transmission des systèmes, notamment avec l’introduction des formats QAM avec mise en forme probabiliste (PCS-QAM), plus performants que les formats QAM classiques. La deuxième partie de ce travail présente donc une comparaison théorique ainsi qu’expérimentale du format PCS-64QAM avec d’autres formats à haute efficacité spectrale pour les distances transatlantiques. La mise en œuvre d’un format PCS-64QAM conçu pour les distances transpacifiques est également abordée. Enfin, la dernière partie de ce travail concrétise les résultats des travaux menés dans les deux sections précédentes en présentant plusieurs records de transmission / Global data traffic is expected to reach up to 4.3 ZB per year by 2020. With the majority of the global communications being transported on submarine point-to-point fiber-optic systems, different cutting-edge technologies have been under research to cope with this unprecedented traffic growth. Continuous advances in high-speed integrated circuits have allowed the use of advanced modulation formats and digital signal processing (DSP) techniques to maximize the transmission spectral efficiency. With mitigation of fiber linear effects efficiently carried out by DSP with relative low-complexity, the capacity of modern fiber optic systems rests limited by fiber nonlinearities. To this extent, in the first part of this work, the performance and achievable benefits of low-complexity DSP techniques aiming to mitigate fiber Kerr nonlinear effects are investigated. Besides nonlinear compensation techniques, the use of multi-level modulation formats beyond 16QAM and high symbol rate channels have gained momentum to increase the system spectral efficiency. One of the major breakthroughs in the recent years, has been the introduction of QAM-based probabilistic constellation shaping (PCS-QAM), which has proven to outperform regular QAM formats. In this sense, in the second part of this work, the practical achievable rate increase brought by PCS-QAM for transoceanic distances is investigated. A theoretical and experimental comparison with other high-capacity formats is performed, and the design of a PCS-QAM for trans-Pacific distances is addressed. Finally, in the last section, several transmission records using the two above techniques are reported
10

Programming tools for intelligent systems

Considine, Breandan 04 1900 (has links)
Les outils de programmation sont des programmes informatiques qui aident les humains à programmer des ordinateurs. Les outils sont de toutes formes et tailles, par exemple les éditeurs, les compilateurs, les débogueurs et les profileurs. Chacun de ces outils facilite une tâche principale dans le flux de travail de programmation qui consomme des ressources cognitives lorsqu’il est effectué manuellement. Dans cette thèse, nous explorons plusieurs outils qui facilitent le processus de construction de systèmes intelligents et qui réduisent l’effort cognitif requis pour concevoir, développer, tester et déployer des systèmes logiciels intelligents. Tout d’abord, nous introduisons un environnement de développement intégré (EDI) pour la programmation d’applications Robot Operating System (ROS), appelé Hatchery (Chapter 2). Deuxièmement, nous décrivons Kotlin∇, un système de langage et de type pour la programmation différenciable, un paradigme émergent dans l’apprentissage automatique (Chapter 3). Troisièmement, nous proposons un nouvel algorithme pour tester automatiquement les programmes différenciables, en nous inspirant des techniques de tests contradictoires et métamorphiques (Chapter 4), et démontrons son efficacité empirique dans le cadre de la régression. Quatrièmement, nous explorons une infrastructure de conteneurs basée sur Docker, qui permet un déploiement reproductible des applications ROS sur la plateforme Duckietown (Chapter 5). Enfin, nous réfléchissons à l’état actuel des outils de programmation pour ces applications et spéculons à quoi pourrait ressembler la programmation de systèmes intelligents à l’avenir (Chapter 6). / Programming tools are computer programs which help humans program computers. Tools come in all shapes and forms, from editors and compilers to debuggers and profilers. Each of these tools facilitates a core task in the programming workflow which consumes cognitive resources when performed manually. In this thesis, we explore several tools that facilitate the process of building intelligent systems, and which reduce the cognitive effort required to design, develop, test and deploy intelligent software systems. First, we introduce an integrated development environment (IDE) for programming Robot Operating System (ROS) applications, called Hatchery (Chapter 2). Second, we describe Kotlin∇, a language and type system for differentiable programming, an emerging paradigm in machine learning (Chapter 3). Third, we propose a new algorithm for automatically testing differentiable programs, drawing inspiration from techniques in adversarial and metamorphic testing (Chapter 4), and demonstrate its empirical efficiency in the regression setting. Fourth, we explore a container infrastructure based on Docker, which enables reproducible deployment of ROS applications on the Duckietown platform (Chapter 5). Finally, we reflect on the current state of programming tools for these applications and speculate what intelligent systems programming might look like in the future (Chapter 6).

Page generated in 0.4967 seconds