• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 27
  • 13
  • Tagged with
  • 107
  • 107
  • 75
  • 55
  • 54
  • 39
  • 32
  • 28
  • 28
  • 21
  • 20
  • 18
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Laser-induced plasma on polymeric materials and applications for the discrimination and identification of plastics / Plasma induit par laser sur des matériaux organiques et applications pour discrimination et identification de plastiques

Boueri, Myriam 18 October 2010 (has links)
La spectrométrie de plasma induit par laser, plus connue sous le nom de LIBS (l’acronyme du terme en anglais Laser-Induced Breakdown Spectroscopy) est une technique analytique qui permet la détection de l’ensemble des éléments du tableau périodique avec des limites de détection de l’ordre du ppm et ceci sur tous types d’échantillons qu’ils soient liquides, solides ou gazeux. Sa simplicité de mise en œuvre, sa rapidité et sa versatilité en font une technique très attractive avec un fort potentiel en termes d’applications que ce soit pour le contrôle en ligne, l’environnement ou l’exploration spatiale. Son point faible reste cependant son manque de fiabilité dans l’analyse quantitative, en particulier lors de l’étude d’échantillons hétérogènes ou de matrices complexes telles que les matrices organiques. Ce travail de thèse propose une étude des propriétés des plasmas induit par laser sur différentes familles de polymères. Une étude du plasma au temps court (~ns) par ombroscopie est tout d’abord présentée, ceci pour différents paramètres expérimentaux (énergie laser, durée d’impulsion, longueur d’onde). Un diagnostic complet du plasma par spectrométrie d’émission est ensuite détaillé pour différents délais de détection et montre que la mesure des températures des différentes espèces du plasma (atomique, ionique et moléculaire) permet de vérifier, dans certaines conditions, les hypothèses d’homogénéité et de l’équilibre thermodynamique local. Ceci permet alors la mise en place de procédures quantitatives telles que la méthode dite sans calibration (calibration free LIBS) tout en optimisant le rapport signal sur bruit de la mesure LIBS. Dans nos expériences cette optimisation est mise à profit pour l’identification de différentes familles de polymères en utilisant, pour le traitement des données de la spectroscopie LIBS, la méthode chimiométrique des réseaux de neurones artificiels. Les résultats obtenus, très prometteurs, permettent d’envisager l’utilisation de la LIBS pour l’identification en temps réel des matières plastiques sur chaine de tri. Par ailleurs et de manière plus générale, ce travail pourrait constituer une base solide pour aller étudier d’autres matériaux organiques plus complexes tels que des tissus biologiques. / Laser-Induced Breakdown Spectroscopy (LIBS) is an analytical technique that has the potential to detect all the elements present in the periodic table. The limit of detection can go below a few ppm and this regardless of the physical phase of the analyzed sample (solid, liquid or gas). Its simplicity of use, its rapidity to get results and its versatility provide this technique with attractive features. The technique is currently developed for applications in a large number of domains such as online control, spatial explorations and the environment. However the weakness of the LIBS technique, compared to other more conventional ones, is still its difficulty in providing reliable quantitative results, especially for inhomogeneous and complex matrix such as organic or biological materials. The work presented in this thesis includes a study of the properties of plasma induced from different organic materials. First, a study of the plasma induced on the surface of a Nylon sample at short time delays (~ns) was carried out using the time-resolved shadowgraph technique for different experimental parameters (laser energy, pulse duration, wavelength). Then, a complete diagnostics of the plasma was performed using the plasma emission spectroscopy. A detailed analysis of the emission spectra at different detection delays allowed us to determine the evolution of the temperatures of the different species in the plasma (atoms, ions and molecules). The homogeneity and the local thermodynamic equilibrium within the plasma was then experimentally checked and validated. We demonstrated that the optimisation of the signalto- noise ratio and a quantitative procedure, such as the calibration-free LIBS, can be put in place within a properly chosen detection window. In our experiments, such optimised detection configuration was further employed to record LIBS spectra from different families of polymer in order to identify and classify them. For this purpose, the chemometrics procedure of artificial neural networks (ANN) was used to process the recorded LIBS spectroscopic data. The promising results obtained in this thesis makes LIBS stand out as a potentially useful tool for real time identification of plastic materials. Finally, this work can also be considered as a base for the further studies of more complex materials such as biological tissues with LIBS.
82

La reconnaissance automatisée des nannofossiles calcaires du Cénozoïque / The automatic recognition of the calcareous nannofossils of the Cenozoic

Barbarin, Nicolas 14 March 2014 (has links)
SYRACO est un SYstème de Reconnaissance Automatisée des COccolithes, développé à son origine par Luc Beaufort et Denis Dollfus à partir de 1995 et plus récemment avec Yves Gally. L'utilité d'un tel système est de permettre aux spécialistes un gain de temps majeur dans l'acquisition et le traitement des données. Dans ce travail, le système a été amélioré techniquement et sa reconnaissance a été étendue aux nannofossiles calcaires du Cénozoïque. Ce système fait le tri entre les nannofossiles et les non-nannofossiles avec une efficacité respectivement estimée à 75% et 90 %. Il s'appuie sur une nouvelle base d'images de référence d'espèces datant de l'Eocène Supérieur aux espèces vivantes, ce qui représente des centaines d'espèces avec une forte variabilité morphologique. Il permet de réaliser une classification en 39 morphogroupes par la combinaison de réseaux de neurones artificiels avec des modèles statistiques. Les résultats sont présentés sous forme de comptages automatisés, de données morphométriques (taille, masse...) et de mosaïques d'images. Il peut ainsi être utilisé pour des analyses biostratigraphiques et paléocéanographiques. / SYRACO is an automated recognition system of coccoliths, originally developed since 1995 by Luc Beaufort and Denis Dollfus, and more recently with the help of Yves Gally. The main purpose of this system is for specialists to save time in the acquisition and treatment of data. By this recent work, the system has been technically improved and its ability of recognition has been extended to calcareous nannofossils of the Cenozoic Era. It sorts nannofossils and non-nannofossils with a reliability respectively estimated to 75% and 90%. It is based on a new reference images database of species from the Upper Eocene up to living species. This represents hundreds of species with a high morphological variability. It leads to the establishment of a classification arranged in 39 morphogroups, combining artificial neural networks to statistical models. The results are presented as automated counting, morphometrical data (size, mass...) and mosaics of images. Those results can be valuable in biostratigraphical and paleoceanographical analyses.
83

Définition d'un substrat computationnel bio-inspiré : déclinaison de propriétés de plasticité cérébrale dans les architectures de traitement auto-adaptatif / Design of a bio-inspired computing substrata : hardware plasticity properties for self-adaptive computing architectures

Rodriguez, Laurent 01 December 2015 (has links)
L'augmentation du parallélisme, sur des puces dont la densité d'intégration est en constante croissance, soulève un certain nombre de défis tels que le routage de l'information qui se confronte au problème de "goulot d'étranglement de données", ou la simple difficulté à exploiter un parallélisme massif et grandissant avec les paradigmes de calcul modernes issus pour la plupart, d'un historique séquentiel.Nous nous inscrivons dans une démarche bio-inspirée pour définir un nouveau type d'architecture, basée sur le concept d'auto-adaptation, afin de décharger le concepteur au maximum de cette complexité. Mimant la plasticité cérébrale, cette architecture devient capable de s'adapter sur son environnement interne et externe de manière homéostatique. Il s'inscrit dans la famille du calcul incorporé ("embodied computing") car le substrat de calcul n'est plus pensé comme une boite noire, programmée pour une tâche donnée, mais est façonné par son environnement ainsi que par les applications qu'il supporte.Dans nos travaux, nous proposons un modèle de carte neuronale auto-organisatrice, le DMADSOM (pour Distributed Multiplicative Activity Dependent SOM), basé sur le principe des champs de neurones dynamiques (DNF pour "Dynamic Neural Fields"), pour apporter le concept de plasticité à l'architecture. Ce modèle a pour originalité de s'adapter sur les données de chaque stimulus sans besoin d'un continuum sur les stimuli consécutifs. Ce comportement généralise les cas applicatifs de ce type de réseau car l'activité est toujours calculée selon la théorie des champs neuronaux dynamique. Les réseaux DNFs ne sont pas directement portables sur les technologies matérielles d'aujourd'hui de part leurs forte connectivité. Nous proposons plusieurs solutions à ce problème. La première consiste à minimiser la connectivité et d'obtenir une approximation du comportement du réseau par apprentissage sur les connexions latérales restantes. Cela montre un bon comportement dans certain cas applicatifs. Afin de s'abstraire de ces limitations, partant du constat que lorsqu'un signal se propage de proche en proche sur une topologie en grille, le temps de propagation représente la distance parcourue, nous proposons aussi deux méthodes qui permettent d'émuler, cette fois, l'ensemble de la large connectivité des Neural Fields de manière efficace et proche des technologies matérielles. Le premier substrat calcule les potentiels transmis sur le réseau par itérations successives en laissant les données se propager dans toutes les directions. Il est capable, en un minimum d'itérations, de calculer l'ensemble des potentiels latéraux de la carte grâce à une pondération particulière de l'ensemble des itérations.Le second passe par une représentation à spikes des potentiels qui transitent sur la grille sans cycles et reconstitue l'ensemble des potentiels latéraux au fil des itérations de propagation.Le réseau supporté par ces substrats est capable de caractériser les densités statistiques des données à traiter par l'architecture et de contrôler, de manière distribuée, l'allocation des cellules de calcul. / The increasing degree of parallelism on chip which comes from the always increasing integration density, raises a number of challenges such as routing information that confronts the "bottleneck problem" or the simple difficulty to exploit massive parallelism thanks to modern computing paradigms which derived mostly from a sequential history.In order to discharge the designer of this complexity, we design a new type of bio-inspired self-adaptive architecture. Mimicking brain plasticity, this architecture is able to adapt to its internal and external environment and becomes homeostatic. Belonging to the embodied computing theory, the computing substrate is no longer thought of as a black box, programmed for a given task, but is shaped by its environment and by applications that it supports.In our work, we propose a model of self-organizing neural map, DMADSOM (for Distributed Multiplicative Activity Dependent SOM), based on the principle of dynamic neural fields (DNF for "Dynamic Neural Fields"), to bring the concept of hardware plasticity. This model is able to adapt the data of each stimulus without need of a continuum on consecutive stimuli. This behavior generalizes the case of applications of such networks. The activity remains calculated using the dynamic neural field theory. The DNFs networks are not directly portable onto hardware technology today because of their large connectivity. We propose models that bring solutions to this problem. The first is to minimize connectivity and to approximate the global behavior thanks to a learning rule on the remaining lateral connections. This shows good behavior in some application cases. In order to reach the general case, based on the observation that when a signal travels from place to place on a grid topology, the delay represents the distance, we also propose two methods to emulate the whole wide connectivity of the Neural Field with respect to hardware technology constraints. The first substrate calculates the transmitted potential over the network by iteratively allowing the data to propagate in all directions. It is capable, in a minimum of iterations, to compute the lateral potentials of the map with a particular weighting of all iterations.The second involves a spike representation of the synaptic potential and transmits them on the grid without cycles. This one is hightly customisable and allows a very low complexity while still being capable to compute the lateral potentials.The network supported, by these substrates, is capable of characterizing the statistics densities of the data to be processed by the architecture, and to control in a distributed manner the allocation of computation cells.
84

Modélisation de système synthétique pour la production de biohydrogène / Modeling of synthetic system for the production of biohydrogen

Fontaine, Nicolas 28 September 2015 (has links)
L'épuisement annoncé dans les prochaines décennies des ressources fossiles qui fournissent actuellement plus de 70% du carburant consommé dans les transports terrestres, aériens et maritimes au niveau mondial, incite à l'identification et le développement de nouvelles sources d'énergies renouvelables. La production de biocarburants issue de l'exploitation de la biomasse représente une des voies de recherche les plus prometteuses. Si la première génération des biocarburants (production à partir de plantes sucrières, de céréales ou d'oléagineux) atteint ses limites (concurrence avec les usages alimentaires, en particulier), la deuxième génération, produite à partir de ressources carbonées non alimentaires (lignocellulosique, mélasse, vinasse...), pourrait prendre le relais, une fois que les procédés de conversion seront suffisamment maîtrisés. À plus long terme, une troisième génération pourrait voir le jour, qui reposerait sur l'exploitation de la biomasse marine (microalgues, en particulier) mais où de nombreux verrous restent toutefois à lever : optimisation des procédés de culture et de récolte, extraction à coût réduit, optimisation des voies métaboliques etc. Il est à retenir que la stratégie nationale de recherche et d'innovation (SNRI) a retenu quatre « domaines clés » pour l'énergie : le nucléaire, le solaire photovoltaïque, les biocarburants de deuxième génération et les énergies marines. Ceux-ci sont complétés, au nom de leur contribution potentielle à la lutte contre le changement climatique, par le stockage du CO2, la conversion de l'énergie (dont les piles à combustible) et l'hydrogène. Le présent projet de recherche s'intéresse à explorer des voies d'amélioration de l'efficacité de la biotransformation de matière organique non alimentaire de nature industrielle en biocarburants de deuxième génération. En particulier, on s'intéressera à deux aspects complémentaires : l'optimisation des organismes microbiens et des voies métaboliques pour l'amélioration du rendement biologique de fabrication de biocarburants ; l'optimisation des procédés de mise en culture des microorganismes et d'extraction des biocarburant. Le projet de thèse consiste à mettre en œuvre les biotechnologies blanches, la biologie de synthèse et le génie des procédés pour la caractérisation de souches bactériennes, de leurs voies métaboliques et de prototypes expérimentaux pour la fabrication de biocarburants, de méthane et d'hydrogène à partir de rejets provenant de l'industrie sucrière de La Réunion, à savoir la mélasse ou la vinasse. Ce projet permettrait d'envisager de nouvelles perspectives de valorisation pour ces déchets industriels et de participer à la construction, à terme, d'une industrie réunionnaise durable des biocarburants et de l'hydrogène. / Hydrogen is a candidate for the next generation fuel with a high energy density and an environment friendly behavior in the energy production phase. Micro-organism based biological production of hydrogen currently suffers low hydrogen production yields because the living cells must sustain different cellular activities other than the hydrogen production to survive. To circumvent this, a team have designed a synthetic cell-free system by combining 13 different enzymes to synthesize hydrogen from cellobiose. This assembly has better yield than microorganism-based systems. We used methods based on differential equations calculations to investigate how the initial conditions and the kinetic parameters of the enzymes influenced the productivity of a such system and, through simulations, to identify those conditions that would optimize hydrogen production starting with cellobiose as substrate. Further, if the kinetic parameters of the component enzymes of such a system are not known, we showed how, using artificial neural network, it is possible to identify alternative models that allow to have an idea of the kinetics of hydrogen production. During our study on the system using cellobiose, other cell-free assemblies were engineered to produce hydrogen from different raw materials. Interested in the reconstruction of synthetic systems, we decided to conceive various tools to help the automation of the assembly and the modelling of these new synthetic networks. This work demonstrates how modeling can help in designing and characterizing cell-free systems in synthetic biology.
85

Démonstration opto-électronique du concept de calculateur neuromorphique par Reservoir Computing / demonstration of optoelectronic concept of neuromorphic computer by reservoir computing

Martinenghi, Romain 16 December 2013 (has links)
Le Reservoir Computing (RC) est un paradigme s’inspirant du cerveau humain, apparu récemment au début des années2000. Il s'agit d'un calculateur neuromorphique habituellement décomposé en trois parties dont la plus importanteappelée "réservoir" est très proche d'un réseau de neurones récurrent. Il se démarque des autres réseaux de neuronesartificiels notamment grâce aux traditionnelles phases d'apprentissage et d’entraînement qui ne sont plus appliquées surla totalité du réseau de neurones mais uniquement sur la lecture du réservoir, ce qui simplifie le fonctionnement etfacilite une réalisation physique. C'est précisément dans ce contexte qu’ont été réalisés les travaux de recherche de cettethèse, durant laquelle nous avons réalisé une première implémentation physique opto-électronique de système RC.Notre approche des systèmes physiques RC repose sur l'utilisation de dynamiques non-linéaires à retards multiples dansl'objectif de reproduire le comportement complexe d'un réservoir. L'utilisation d'un système dynamique purementtemporel pour reproduire la dimension spatio-temporelle d'un réseau de neurones traditionnel, nécessite une mise enforme particulière des signaux d'entrée et de sortie, appelée multiplexage temporel ou encore étape de masquage. Troisannées auront été nécessaires pour étudier et construire expérimentalement nos démonstrateurs physiques basés sur desdynamiques non-linéaires à retards multiples opto-électroniques, en longueur d'onde et en intensité. La validationexpérimentale de nos systèmes RC a été réalisée en utilisant deux tests de calcul standards. Le test NARMA10 (test deprédiction de séries temporelles) et la reconnaissance vocale de chiffres prononcés (test de classification de données) ontpermis de quantifier la puissance de calcul de nos systèmes RC et d'atteindre pour certaines configurations l'état del'art. / Reservoir Computing (RC) is a currently emerging new brain-inspired computational paradigm, which appeared in theearly 2000s. It is similar to conventional recurrent neural network (RNN) computing concepts, exhibiting essentiallythree parts: (i) an input layer to inject the information in the computing system; (ii) a central computational layercalled the Reservoir; (iii) and an output layer which is extracting the computed result though a so-called Read-Outprocedure, the latter being determined after a learning and training step. The main originality compared to RNNconsists in the last part, which is the only one concerned by the training step, the input layer and the Reservoir beingoriginally randomly determined and fixed. This specificity brings attractive features to RC compared to RNN, in termsof simplification, efficiency, rapidity, and feasibility of the learning, as well as in terms of dedicated hardwareimplementation of the RC scheme. This thesis is indeed concerned by one of the first a hardware implementation of RC,moreover with an optoelectronic architecture.Our approach to physical RC implementation is based on the use of a sepcial class of complex system for the Reservoir,a nonlinear delay dynamics involving multiple delayed feedback paths. The Reservoir appears thus as a spatio-temporalemulation of a purely temporal dynamics, the delay dynamics. Specific design of the input and output layer are shownto be possible, e.g. through time division multiplexing techniques, and amplitude modulation for the realization of aninput mask to address the virtual nodes in the delay dynamics. Two optoelectronic setups are explored, one involving awavelength nonlinear dynamics with a tunable laser, and another one involving an intensity nonlinear dynamics with anintegrated optics Mach-Zehnder modulator. Experimental validation of the computational efficiency is performedthrough two standard benchmark tasks: the NARMA10 test (prediction task), and a spoken digit recognition test(classification task), the latter showing results very close to state of the art performances, even compared with purenumerical simulation approaches.
86

Contribution to the analysis and understanting of electrical-grid signals with signal processing and machine learning techniques / Contribution à l'analyse et à la compréhension des signaux des réseaux électriques par des techniques issues du traitement du signal et de l'apprentissage machine

Nguyen, Thien-Minh 20 September 2017 (has links)
Ce travail de thèse propose des approches d’identification et de reconnaissance des harmoniques de courant qui sont basées sur des stratégies d’apprentissage automatique. Les approches proposées s’appliquent directement dans les dispositifs d’amélioration de la qualité de l’énergie électrique.Des structures neuronales complètes, dotées de capacités d’apprentissage automatique, ont été développées pour identifier les composantes harmoniques d’un signal sinusoïdal au sens large et plus spécifiquement d’un courant alternatif perturbé par des charges non linéaires. L’identification des harmoniques a été réalisée avec des réseaux de neurones de type Multi–Layer Perceptron (MLP). Plusieurs schémas d’identification ont été développés, ils sont basés sur un réseau MLP composé de neurones linéaire ou sur plusieurs réseaux MLP avec des apprentissages spécifiques. Les harmoniques d’un signal perturbé sont identifiées avec leur amplitude et leur phase, elles peuvent servir à générer des courants de compensation pour améliorer la forme du courant électrique. D’autres approches neuronales a été développées pour reconnaître les charges. Elles consistent en des réseaux MLP ou SVM (Support Vector Machine) et fonctionnent en tant que classificateurs. Leur apprentissage permet à partir des harmoniques de courant de reconnaître le type de charge non linéaire qui génère des perturbations dans le réseau électrique. Toutes les approches d’identification et de reconnaissance des harmoniques ont été validées par des tests de simulation à l’aide des données expérimentales. Des comparaisons avec d’autres méthodes ont démontré des performances supérieures et une meilleure robustesse. / This thesis proposes identifying approaches and recognition of current harmonics that are based on machine learning strategies. The approaches are applied directly in the quality improvement devices of electric energy and in energy management solutions. Complete neural structures, equipped with automatic learning capabilities have been developed to identify the harmonic components of a sinusoidal signal at large and more specifically an AC disturbed by non–linear loads. The harmonic identification is performed with multilayer perceptron neural networks (MLP). Several identification schemes have been developed. They are based on a MLP neural network composed of linear or multiple MLP networks with specific learning. Harmonics of a disturbed signal are identified with their amplitude and phases. They can be used to generate compensation currents fed back into the network to improve the waveform of the electric current. Neural approaches were developed to distinguish and to recognize the types of harmonics and is nonlinear load types that are at the origin. They consist of MLP or SVM (Support Vector Machine) acting as classifier that learns the harmonic profile of several types of predetermined signals and representative of non–linear loads. They entry are the parameters of current harmonics of the current wave. Learning can recognize the type of nonlinear load that generates disturbances in the power network. All harmonics identification and recognition approaches have been validated by simulation tests or using experimental data. The comparisons with other methods have demonstrated superior characteristics in terms of performance and robustness.
87

Toward organic ambient intelligences ? : EMMA / Vers des intelligences ambiantes organiques ? : EMMA

Duhart, Clément 21 June 2016 (has links)
L’Intelligence Ambiamte (AmI) est un domaine de recherche investigant les techniques d’intelligence artificielle pour créer des environnements réactifs. Les réseaux de capteurs et effecteurs sans-fils sont les supports de communication entre les appareils ménagers, les services installés et les interfaces homme-machine. Cette thèse s’intéresse à la conception d’Environements Réactifs avec des propriétés autonomiques i.e. des systèmes qui ont la capacité de se gérer eux-même. De tels environements sont ouverts, à grande échelle, dynamique et hétérogène, ce qui induit certains problèmes pour leur gestion par des systèmes monolithiques. L’approche proposée est bio-inspirée en considérant chacune des plate-formes comme une cellule indépendente formant un organisme intelligent distribué. Chaque cellule est programmée par un processus ADN-RNA décrit par des règles réactives décrivant leur comportement interne et externe. Ces règles sont modelées par des agents mobiles ayant des capacités d’auto-réécriture et offrant ainsi des possibilités de reprogrammation dynamique. Le framework EMMA est composé d’un middleware modulaire avec une architecture orientée ressource basée sur la technologie 6LoWPAN et d’une architecture MAPE-K pour concevoir des AmI à plusieurs échelles. Les différentes relations entre les problèmes techniques et les besoins théoriques sont discutées dans cette thèse depuis les plate-formes, le réseau, le middleware, les agents mobiles, le déploiement des applications jusqu’au système intelligent. Deux algorithmes pour AmI sont proposés : un modèle de contrôleur neuronal artificiel pour le contrôle automatique des appareils ménagers avec des processus d’apprentissage ainsi qu’une procédure de vote distribuée pour synchroniser les décisions de plusieurs composants systèmes. / AThe Ambient Intelligence (AmI) is a research area investigating AI techniques to create Responsive Environments (RE). Wireless Sensor and Actor Network (WSAN) are the supports for communications between the appliances, the deployed services and Human Computer Interface (HCI). This thesis focuses on the design of RE with autonomic properties i.e. system that have the ability to manage themselves. Such environments are open, large scale, dynamic and heterogeneous which induce some difficulties in their management by monolithic system. The bio-inspired proposal considers all devices like independent cells forming an intelligent distributed organism. Each cell is programmed by a DNA-RNA process composed of reactive rules describing its internal and external behaviour. These rules are modelled by reactive agents with self-rewriting features offering dynamic reprogramming abilities. The EMMA framework is composed of a modular Resource Oriented Architecture (ROA) Middleware based on IPv6 LoW Power Wireless Area Networks (6LoWPAN) technology and a MAPE-K architecture to design multi-scale AmI. The different relations between technical issues and theoretical requirements are discussed through the platforms, the network, the middleware, the mobile agents, the application deployment to the intelligent system. Two algorithms for AmI are proposed: an Artificial Neural Controller (ANC) model for automatic control of appliances with learning processes and a distributed Voting Procedures (VP) to synchronize the decisions of several system components over the WSAN.
88

MSWs gasification with emphasis on energy, environment and life cycle assessment / Etude de la gazéification d'ordures ménagères avec un intérêt particulier pour les bilans énergétiques, environnementaux couplés à l'analyse de cycle de vie

Dong, Jun 29 November 2016 (has links)
Récemment, la pyro-gazéification de déchets ménagers solides (DMS) a suscité une plus grande attention, en raison de ses bénéfices potentiels en matière d’émissions polluantes et d’efficacité énergique. Afin de développer un système de traitement de ces déchets, durable et intégré, ce manuscrit s’intéresse plus spécifiquement au développement de la technique de pyro-gazéification des DMS, à la fois sur l’aspect technologique (expérimentations) et sur son évaluation globale (modélisation). Pour cette étude, quatre composants principaux représentatifs des DMS (déchet alimentaire, papier, bois et plastique) ont été pyro-gazéifiés dans un lit fluidisé sous atmosphère N2, CO2 ou vapeur d’eau. Les expériences ont été menées avec les composés seuls ou en mélanges afin de comprendre les interactions mises en jeu et leurs impacts sur la qualité du syngas produit. La présence de plastique améliore significativement la quantité et la qualité du syngas (concentration de H2). La qualité du syngas est améliorée plus particulièrement en présence de vapeur d’eau, ou, dans une moindre mesure, en présence de CO2. Les résultats obtenus ont été ensuite intégrés dans un modèle prédictif de pyro-gazéification basé sur un réseau de neurones artificiels (ANN). Ce modèle prédictif s’avère efficace pour prédire les performances de pyro-gazéification des DMS, quelle que soit leur composition (provenance géographique). Pour améliorer la qualité du syngas et abaisser la température du traitement, la gazéification catalytique in-situ, en présence de CaO, a été menée. L’impact du débit de vapeur d’eau, du ratio massique d’oxyde de calcium, ainsi que de la température de réaction a été étudié en regard de la production (quantité et pourcentage molaire dans le gaz) d’hydrogène. La présence de CaO a permis d’abaisser de 100 oC la température de gazéification, à qualité de syngas équivalente. Pour envisager une application industrielle, l’activité du catalyseur a aussi été évaluée du point de vue de sa désactivation et régénération. Ainsi, les températures de carbonatation et de calcination de 650 oC et 800 oC permettent de prévenir la désactivation du catalyseur, tandis que l’hydratation sous vapeur d’eau permet la régénération. Ensuite, une étude a été dédiée à l’évaluation et à l’optimisation de la technologie de pyro-gazéification par la méthode d’analyse de cycle de vie (ACV). Le système de gazéification permet d’améliorer les indicateurs de performances environnementales comparativement à l’incinération conventionnelle. De plus, des systèmes combinant à la fois la transformation des déchets en vecteur énergétique et la mise en œuvre de ce vecteur ont été modélisés. La pyro-gazéification combinée à une turbine à gaz permettrait de maximiser l’efficacité énergétique et de diminuer l’impact environnemental du traitement. Ainsi, les résultats permettent d’optimiser les voies actuelles de valorisation énergétique, et de d’optimiser les techniques de pyro-gazéification. / Due to the potential benefits in achieving lower environmental emissions and higher energy efficiency, municipal solid waste (MSW) pyro-gasification has gained increasing attentions in the last years. To develop such an integrated and sustainable MSW treatment system, this dissertation mainly focuses on developing MSW pyro-gasification technique, including both experimental-based technological investigation and assessment modeling. Four of the most typical MSW components (wood, paper, food waste and plastic) are pyro-gasified in a fluidized bed reactor under N2, steam or CO2 atmosphere. Single-component and multi-components mixture have been investigated to characterize interactions regarding the high-quality syngas production. The presence of plastic in MSW positively impacts the volume of gas produced as well as its H2 content. Steam clearly increased the syngas quality rather than the CO2 atmosphere. The data acquired have been further applied to establish an artificial neural network (ANN)-based pyro-gasification prediction model. Although MSW composition varies significantly due to geographic differences, the model is robust enough to predict MSW pyro-gasification performance with different waste sources. To further enhance syngas properties and reduce gasification temperature as optimization of pyro-gasification process, MSW steam catalytic gasification is studied using calcium oxide (CaO) as an in-situ catalyst. The influence of CaO addition, steam flowrate and reaction temperature on H2-rich gas production is also investigated. The catalytic gasification using CaO allows a decrease of more than 100 oC in the reaction operating temperature in order to reach the same syngas properties, as compared with non-catalyst high-temperature gasification. Besides, the catalyst activity (de-activation and re-generation mechanisms) is also evaluated in order to facilitate an industrial application. 650 oC and 800 oC are proven to be the most suitable temperature for carbonation and calcination respectively, while steam hydration is shown to be an effective CaO re-generation method. Afterwards, a systematic and comprehensive life cycle assessment (LCA) study is conducted. Environmental benefits have been achieved by MSW gasification compared with conventional incineration technology. Besides, pyrolysis and gasification processes coupled with various energy utilization cycles are also modeled, with a gasification-gas turbine cycle system exhibits the highest energy conversion efficiency and lowest environmental burden. The results are applied to optimize the current waste-to-energy route, and to develop better pyro-gasification techniques.
89

L’intelligence artificielle pour analyser des protocoles avec alternance de traitements

Heng, Emily 08 1900 (has links)
Les protocoles avec alternance de traitements sont des protocoles expérimentaux à cas uniques utiles pour évaluer et pour comparer l’efficacité d’interventions. Pour l’analyse de ces protocoles, les meilleures pratiques suggèrent aux chercheurs et aux professionnels d’utiliser conjointement les analyses statistiques et visuelles, mais ces méthodes produisent des taux d’erreurs insatisfaisants sous certaines conditions. Dans le but de considérer cet enjeu, notre étude a examiné l’utilisation de réseaux de neurones artificiels pour analyser les protocoles avec alternance de traitements et a comparé leurs performances à trois autres approches récentes. Plus précisément, nous avons examiné leur précision, leur puissance statistique et leurs erreurs de type I sous différentes conditions. Bien qu’il ne soit pas parfait, le modèle de réseaux de neurones artificiels présentait en général de meilleurs résultats et une plus grande stabilité à travers les analyses. Nos résultats suggèrent que les réseaux de neurones artificiels puissent être des solutions prometteuses pour analyser des protocoles avec alternance de traitements. / Alternating-treatment designs are useful single-case experimental designs for the evaluation and comparison of intervention effectiveness. Most guidelines suggest that researchers and practitioners use a combination of statistical and visual analyses to analyze these designs, but current methods still produce inadequate levels of errors under certain conditions. In an attempt to address this issue, our study examined the use of artificial neural networks to analyze alternating-treatment designs and compared their performances to three other recent approaches. Specifically, we examined accuracy, statistical power, and type I error rates under various conditions. Albeit not perfect, the artificial neural networks model generally provided better and more stable results across analyses. Our results suggest that artificial neural networks are promising alternatives to analyze alternating-treatment designs.
90

Classification, réduction de dimensionnalité et réseaux de neurones : données massives et science des données

Sow, Aboubakry Moussa January 2020 (has links) (PDF)
No description available.

Page generated in 0.0654 seconds