Spelling suggestions: "subject:"essaim"" "subject:"ossaim""
31 |
L'intelligence en essaim sous l'angle des systèmes complexes : étude d'un système multi-agent réactif à base d'itérations logistiques couplées / Swarm Intelligence and complex systems : study of a reactive multi-agent system based on iterated logistic mapsCharrier, Rodolphe 08 December 2009 (has links)
L'intelligence en essaim constitue désormais un domaine à part entière de l'intelligence artificielle distribuée. Les problématiques qu'elle soulève touchent cependant à de nombreux autres domaines ou questions scientifiques. En particulier le concept d'essaim trouve pleinement sa place au sein de la science dites des ``systèmes complexes''. Cette thèse présente ainsi la conception, les caractéristiques et les applications d'un modèle original, le système multi-agent logistique (SMAL), pour le domaine de l'intelligence en essaim. Le SMAL trouve son origine en modélisation des systèmes complexes : il est en effet issu des réseaux d'itérations logistiques couplées dont nous avons adapté le modèle de calcul au schéma ``influence-réaction'' des systèmes multi-agents. Ce modèle est fondé sur des principes communs à d'autres disciplines, comme la synchronisation et le contrôle paramétrique, que nous plaçons au coeur des mécanismes d'auto-organisation et d'adaptation du système. L'environnement à base de champs est l'autre aspect fondamental du SMAL, en permettant la réalisation des interactions indirectes des agents et en jouant le rôle d'une structure de données pour le système. Les travaux décrits dans cette thèse donnent lieu à des applications principalement en simulation et en optimisation combinatoire.L'intérêt et l'originalité du SMAL pour l'intelligence en essaim résident dans l'aspect générique de son schéma théorique qui permet de traiter avec un même modèle des phénomènes considérés a priori comme distincts dans la littérature : phénomènes de ``flocking'' et phénomènes stigmergiques ``fourmis'' à base de phéromones. Ce modèle répond ainsi à un besoin d'explication des mécanismes mis en jeu autant qu'au besoin d'en synthétiser les algorithmes générateurs. / Swarm Intelligence is from now on a full part of Distributed Artificial Intelligence. Its associated problematics meet many other fields and scientific questions. The concept of swarm in particular belongs to the science called the science of complex systems. This phd thesis shows the design and the characteristics and the applications of a novel type of model called the logistic multi-agent system (LMAS) dedicated to the Swarm Intelligence field. The LMAS has its foundations in complex system modeling: it is inspired from the coupled logistic map lattice model which has been adapted to the ``Influence-Reaction'' modeling of multi-agent systems. This model is based on universal principles such as synchronization and parametric control which are considered as the main mechanisms of self-organization and adaptation in the heart of the system. The field-layered based environment is the other important feature of the LMAS, since it enables indirect interactions and plays the part of a data structure for the whole system. The work of this thesis is put into practice for simulation and optimization.The novelty of the LMAS lies in its generic theoretical framework, which enables to tackle problems considered as distinct in the literature, in particular flocking and ant-like stigmergic behavior. This model meets the need of explaining basic mechanisms and the need of synthesizing generative algorithms for the Swarm Intelligence.
|
32 |
Caractérisation, identification et optimisation des systèmes mécaniques complexes par mise en oeuvre de simulateurs hybrides matériels/logiciels / Characterization, identification and optimization of complex mechanical systems by implementing hybrid hardware / software simulatorsSalmon, Sébastien 21 May 2012 (has links)
La conception de systèmes complexes, et plus particulièrement de micro-systèmes complexes embarqués, posent des problèmes tels que l'intégration des composants, la consommation d'énergie, la fiabilité, les délais de mise sur marché, ...La conception mécatronique apparait comme étant particulièrement adaptée à ces systèmes car elle intègre intimement simulations, expérimentations, interactions entre sous-systèmes et cycles de reconception à tous les niveaux. Le produit obtenu est plus optimisé, plus performant et les délais de mise sur le marché sont réduits.Cette thèse a permis de trouver des méthodes de caractérisation, d'identification de paramètres ainsi que d'optimisation de systèmes mécatroniques actifs par la constitution de modèles numériques, de bancs d'expériences numériques, physiques et hybrides. Le cadre est bien précis : c'est celui d'un actionneur piézoélectrique amplifié, de sa commande ainsi que de la constitution générale de la boucle fermée d'un système mécatronique l'intégrant, les conclusions étant généralisables.Au cours de cette thèse, ont été introduits, avec succès, différents concepts :– Le « Signal Libre ». Un nouveau signal de commande des actionneurs piézoélectriques, basé sur les splines, maximise la vitesse de déplacement de l'actionneur et minimise sa consommation énergétique.– Deux améliorations de l'algorithme d'optimisation par essais de particules. La première introduit un arrêt de l'algorithme par la mesure du rayon de l'essaim ; le rayon limite est défini par la limite de mesurabilité des paramètres à optimiser ("Radius") ; la seconde ajoute la possibilité pour l'essaim de se transférer à une meilleure position tout en gardant sa géométrie. Ceci permet d' accélérer la convergence ("BSG-Starcraft")– L'optimisation expérimentale. Le modèle numérique étant très incertain, il est remplacé directement par le système réel dans le processus d'optimisation. Les résultats sont de qualité supérieure à ceux obtenus à partir de la simulation numérique. / The design of complex systems, especially of embedded complex micro systems, causes problems such as component integration, power consumption, reliability, time-to-market ....Mechatronics design appears to be particularly suitable for these systems because it integrates closely simulations, experiments, interactions between subsystems and redesign cycles at all levels. The resulting product is more optimized, more efficient and time-to-market is reduced.This thesis led to methods of characterization and parameter identification but also to methods for optimizing active mechatronic systems through numerical model building and different bench types, i.e. digital, physical, and hybrid. The framework is specifically that of an amplified piezoelectric actuator, its control as well as the general constitution of the closed loop of the related mechatronic system. The conclusions are generalizable.In this thesis, different concepts have been successfully introduced: - The "Free Signal". A new control signal of the piezoelectric actuator, based on splines, maximizes the speed of the actuator movement and minimizes the energy consumption. - Two improvements of the particle swarm optimization algorithm. The first one introduces a stopping criteria by measuring the swarm radius; the limit radius is defined by the measurability limit of the parameters to be optimized (“Radius”). The second one adds a swarm ability: it can jump to a better location keeping its geometry. This allows a faster convergence rate (“BSG-Starcraft”). - The experimental optimization. The numerical model being very uncertain, it is directly replaced by the real system in the optimization process. This leads to better results than those obtained using numerical simulation.
|
33 |
Contributions aux Modèles de Markov Cachés : métaheuristiques d'apprentissage, nouveaux modèles et visualisation de dissimilaritéAupetit, Sébastien 30 November 2005 (has links) (PDF)
Dans ce travail de thèse, nous présentons plusieurs contributions visant à améliorer l'utilisation des modèles de Markov cachés (MMC) dans les systèmes d'intelligence artificielle. Nous nous sommes concentrés sur trois objectifs : l'amélioration de l'apprentissage de MMC, l'expérimentation d'un nouveau type de MMC et la visualisation de dissimilarité pour mieux comprendre les interactions entre MMC. Dans la première partie, nous proposons, évaluons et comparons plusieurs nouvelles applications<br />de métaheuristiques biomimétiques classiques (les algorithmes génétiques, l'algorithme de fourmis artificielles API et l'optimisation par essaim particulaire) au problème de l'apprentissage de MMC. Dans la<br />deuxième partie, nous proposons un nouveau type de modèle de Markov caché, appelé modèle Markov caché à substitutions de symboles (MMCSS). Un MMCSS permet d'incorporer des connaissances a priori dans le processus d'apprentissage et de reconnaissance. Les premières expérimentations de ces modèles sur des images démontrent leur intérêt. Dans la troisième partie, nous proposons une nouvelle méthode de représentation de dissimilarité appelée matrice de scatterplots pseudo-euclidienne (MSPE), permettant de mieux comprendre les interactions entre des MMC. Cette MSPE est construite à partir<br />d'une technique que nous nommons analyse en composantes principales à noyau indéfini (ACPNI). Nous terminons par la présentation de la bibliothèque HMMTK, développée au cours de ce travail. Cette dernière intègre des mécanismes de parallélisation et les algorithmes développés au cours de la thèse.
|
34 |
Modélisation multi-physique par modèles à constantes localisées ; application à une machine synchrone à aimants permanents en vue de son dimensionnement.Bracikowski, Nicolas 04 December 2012 (has links) (PDF)
Afin de définir une conception optimale d'un système électromécanique, celui-ci doit intégrer des contraintes toujours plus drastiques et de nombreux phénomènes physiques issus de : l'électromagnétique, l'aérothermique, l'électronique, la mécanique et l'acoustique. L'originalité de cette thèse est de proposer une modélisation multi-physique pour la conception reposant sur des modèles à constantes localisées : solution intermédiaire entre la modélisation analytique et numérique. Ces différents modèles permettront l'étude et la conception sous contraintes d'une machine synchrone à aimants permanents dédiée pour la traction ferroviaire. Les résultats de simulations seront comparés à des résultats éléments finis mais aussi à des essais expérimentaux. Ce modèle multi-physique est entièrement paramétré afin d'être associé à des outils d'optimisation. On utilisera ici une optimisation par essaim de particules pour chercher des compromis entre différents objectifs sous forme de Front de Pareto. Dans ce papier, nous ciblerons les objectifs suivants : le couple d'origine électromagnétique et le bruit d'origine électromagnétique. Finalement une étude de sensibilité valide la robustesse de la conception retenue quand celle-ci est soumise aux contraintes de fabrication. L'objectif étant de poser les bases d'un outil d'aide à la décision pour le choix d'une machine électrique
|
35 |
Contribution à la conception des filtres bidimensionnels non récursifs en utilisant les techniques de l’intelligence artificielle : application au traitement d’images / Contribution to the design of two-dimensional non-recursive filters using artificial intelligence techniques : application to image processingBoudjelaba, Kamal 11 June 2014 (has links)
La conception des filtres a réponse impulsionnelle finie (RIF) peut être formulée comme un problème d'optimisation non linéaire réputé pour être difficile sa résolution par les approches conventionnelles. Afin d'optimiser la conception des filtres RIF, nous explorons plusieurs méthodes stochastiques capables de traiter de grands espaces. Nous proposons un nouvel algorithme génétique dans lequel certains concepts innovants sont introduits pour améliorer la convergence et rendre son utilisation plus facile pour les praticiens. Le point clé de notre approche découle de la capacité de l'algorithme génétique (AG) pour adapter les opérateurs génétiques au cours de la vie génétique tout en restant simple et facile à mettre en oeuvre. Ensuite, l’optimisation par essaim de particules (PSO) est proposée pour la conception de filtres RIF. Finalement, un algorithme génétique hybride (HGA) est proposé pour la conception de filtres numériques. L'algorithme est composé d'un processus génétique pur et d’une approche locale dédiée. Notre contribution vise à relever le défi actuel de démocratisation de l'utilisation des AG’s pour les problèmes d’optimisation. Les expériences réalisées avec différents types de filtres mettent en évidence la contribution récurrente de l'hybridation dans l'amélioration des performances et montrent également les avantages de notre proposition par rapport à d'autres approches classiques de conception de filtres et d’autres AG’s de référence dans ce domaine d'application. / The design of finite impulse response (FIR) filters can be formulated as a non-linear optimization problem reputed to be difficult for conventional approaches. In order to optimize the design of FIR filters, we explore several stochastic methodologies capable of handling large spaces. We propose a new genetic algorithm in which some innovative concepts are introduced to improve the convergence and make its use easier for practitioners. The key point of our approach stems from the capacity of the genetic algorithm (GA) to adapt the genetic operators during the genetic life while remaining simple and easy to implement. Then, the Particle Swarm Optimization (PSO) is proposed for FIR filter design. Finally, a hybrid genetic algorithm (HGA) is proposed for the design of digital filters. The algorithm is composed of a pure genetic process and a dedicated local approach. Our contribution seeks to address the current challenge of democratizing the use of GAs for real optimization problems. Experiments performed with various types of filters highlight the recurrent contribution of hybridization in improving performance. The experiments also reveal the advantages of our proposal compared to more conventional filter design approaches and some reference GAs in this field of application.
|
36 |
Combining approaches for predicting genomic evolution / Combinaison d'approches pour résoudre le problème du réarrangement de génomesAlkindy, Bassam 17 December 2015 (has links)
En bio-informatique, comprendre comment les molécules d’ADN ont évolué au cours du temps reste un problème ouvert etcomplexe. Des algorithmes ont été proposés pour résoudre ce problème, mais ils se limitent soit à l’évolution d’un caractèredonné (par exemple, un nucléotide précis), ou se focalisent a contrario sur de gros génomes nucléaires (plusieurs milliardsde paires de base), ces derniers ayant connus de multiples événements de recombinaison – le problème étant NP completquand on considère l’ensemble de toutes les opérations possibles sur ces séquences, aucune solution n’existe à l’heureactuelle. Dans cette thèse, nous nous attaquons au problème de reconstruction des séquences ADN ancestrales en nousfocalisant sur des chaînes nucléotidiques de taille intermédiaire, et ayant connu assez peu de recombinaison au coursdu temps : les génomes de chloroplastes. Nous montrons qu’à cette échelle le problème de la reconstruction d’ancêtrespeut être résolu, même quand on considère l’ensemble de tous les génomes chloroplastiques complets actuellementdisponibles. Nous nous concentrons plus précisément sur l’ordre et le contenu ancestral en gènes, ainsi que sur lesproblèmes techniques que cette reconstruction soulève dans le cas des chloroplastes. Nous montrons comment obtenirune prédiction des séquences codantes d’une qualité telle qu’elle permette ladite reconstruction, puis comment obtenir unarbre phylogénétique en accord avec le plus grand nombre possible de gènes, sur lesquels nous pouvons ensuite appuyernotre remontée dans le temps – cette dernière étant en cours de finalisation. Ces méthodes, combinant l’utilisation d’outilsdéjà disponibles (dont la qualité a été évaluée) à du calcul haute performance, de l’intelligence artificielle et de la biostatistique,ont été appliquées à une collection de plus de 450 génomes chloroplastiques. / In Bioinformatics, understanding how DNA molecules have evolved over time remains an open and complex problem.Algorithms have been proposed to solve this problem, but they are limited either to the evolution of a given character (forexample, a specific nucleotide), or conversely focus on large nuclear genomes (several billion base pairs ), the latter havingknown multiple recombination events - the problem is NP complete when you consider the set of all possible operationson these sequences, no solution exists at present. In this thesis, we tackle the problem of reconstruction of ancestral DNAsequences by focusing on the nucleotide chains of intermediate size, and have experienced relatively little recombinationover time: chloroplast genomes. We show that at this level the problem of the reconstruction of ancestors can be resolved,even when you consider the set of all complete chloroplast genomes currently available. We focus specifically on the orderand ancestral gene content, as well as the technical problems this raises reconstruction in the case of chloroplasts. Weshow how to obtain a prediction of the coding sequences of a quality such as to allow said reconstruction and how toobtain a phylogenetic tree in agreement with the largest number of genes, on which we can then support our back in time- the latter being finalized. These methods, combining the use of tools already available (the quality of which has beenassessed) in high performance computing, artificial intelligence and bio-statistics were applied to a collection of more than450 chloroplast genomes.
|
37 |
Absorbeur solaire volumique haute température à propriétés optiques contrôlées / High Temperature Volumetric Solar Absorber with Controlled Optical PropertiesMey, Sébastien 09 May 2016 (has links)
La production d’électricité par voie solaire apparait comme la solution la plus prometteuse pour l’avenir, tant en termes de coûts que de pollution. Cependant, afin d’atteindre le niveau de technologie requis pour envisager l’implémentation de telles centrales à grande échelle, plusieurs verrous technologiques et scientifiques sont encore à lever.Dans cette optique, les récepteurs/absorbeurs volumiques pourraient permettre d’atteindre de plus hautes températures que les récepteurs surfaciques (technologie actuellement utilisée dans les tours solaires à concentration), permettant l’usage de cycles thermodynamiques à haute rendement, tels que les cycles Brayton. Via le projet ANR-OPTISOL, la thèse présentée ici veut répondre en partie à ces problématiques par l’étude des absorbeurs solaires volumiques :- Une étude expérimentale des mousses céramiques utilisées comme absorbeur solaire volumique haute température a été menée au laboratoire CNRS-PROMES (UPR 8521). Une expérience a été conçue afin de tester des échantillons de 5cm de diamètre soumis au flux solaire concentré en conditions quasi-1D au foyer d’un four solaire à axe vertical ;- Un code de calcul des transferts thermiques couplés en milieu poreux a été développé utilisant l’hypothèse de « milieu homogène équivalent », puis validé sur les campagnes expérimentales ;- Finalement, un algorithme d’optimisation par essaim de particules a été utilisé afin de déterminer les propriétés géométriques optimales de mousses céramiques maximisant l’efficacité de conversion thermosolaire. / Solar-to-electricity power plants appear to be the most promises way for large electricity production in the future, in terms of costs as well as environmental impacts. Thus, reaching the required technology level still requires research and innovations in order to implement such power plants at large scale.In this context, volumetric solar receivers/absorbers could allow us to reach higher temperatures in comparison to surface receivers (actual concentrating solar power technology used in solar towers), leading to high efficiency thermodynamical cycles such as Brayton cycles. With the ANR-OPTISOL project, this thesis tends to give new answers on volumetric solar absorbers using ceramic foams:- Experimental studies of open pores ceramic foams used as high temperature volumetric solar absorber have been conducted at CNRS-PROMES laboratory (UPR 8521), with designed of a dedicated experiment for 5cm diameter samples operating under quasi-1D conditions submitted to concentrated solar power at the focal point of a vertical axis solar furnace;- A numerical code has been developed in order to solve coupled heat transfers in porous medium using the “equivalent homogeneous medium” hypothesis, then validated on the experimental campaigns;- Finally, an optimization algorithm has been used (“particle swarm optimization”) aiming the identification of the optimal geometrical characteristics maximizing the solar-to-thermal efficiency of ceramic foams.
|
38 |
Planification et affectation de ressources dans les réseaux de soin : analogie avec le problème du bin packing, proposition de méthodes approchées / Planning and resources assignment in healthcare networks : analogy with the bin packing problem, proposition of approximate methodsKlement, Nathalie 04 December 2014 (has links)
Les travaux de thèse présentés s’intéressent à l’optimisation des systèmes hospitaliers. Une solution existante est la mutualisation de ressources au sein d’un même territoire. Cela peut passer par différentes formes de coopération dont la Communauté Hospitalière de Territoire. Différents problèmes sont définis en fonction du niveau de décision : stratégique, tactique ou opérationnel ; et du niveau de modélisation : macroscopique, mesoscopique et microscopique. Des problèmes de dimensionnement, de planification et d’ordonnancement peuvent être considérés. Nous définissons notamment le problème de planification d’activités avec affectation de ressources. Plusieurs cas sont dissociés : soit les ressources humaines sont à capacité infinie, soit elles sont à capacité limitée et leur affectation sur site est une donnée, soit elles sont à capacité limitée et leur affectation sur site est une variable. Ces problèmes sont spécifiés et formalisés mathématiquement. Tous ces problèmes sont comparés à un problème de bin packing : le problème du bin packing de base pour le problème où les ressources humaines sont à capacité infinie, le problème du bin packing avec interdépendances dans les deux autres cas. Le problème du bin packing avec incompatibilités est ainsi défini. De nombreuses méthodes de résolution ont déjà été proposées pour le problème du bin packing. Nous faisons plusieurs propositions dont un couplage hiérarchique entre une heuristique et une métaheuristique. Des métaheuristiques basées individu et une métaheuristique basée population, l’optimisation par essaim particulaire, sont utilisées. Cette proposition nécessite un nouveau codage inspiré des problèmes de permutation d’ordonnancement. Cette méthode donne de très bons résultats sur les instances du problème du bin packing. Elle est simple à appliquer : elle couple des méthodes déjà connues. Grâce au couplage proposé, les nouvelles contraintes à considérer nécessitent d’être intégrées uniquement au niveau de l’heuristique. Le fonctionnement de la métaheuristique reste le même. Ainsi, notre méthode est facilement adaptable au problème de planification d’activités avec affectation de ressources. Pour les instances de grande taille, le solveur utilisé comme référence ne donne qu’un intervalle de solutions. Les résultats de notre méthode sont une fois encore très prometteurs : les solutions obtenues sont meilleures que la borne supérieure retournée par le solveur. Il est envisageable d’adapter notre méthode sur d’autres problèmes plus complexes par intégration dans l’heuristique des nouvelles contraintes à considérer. Il serait notamment intéressant de tester ces méthodes sur de réelles instances hospitalières afin d’évaluer leur portée. / The presented work is about optimization of the hospital system. An existing solution is the pooling of resources within the same territory. This may involve different forms of cooperation between several hospitals. Various problems are defined at the decision level : strategic, tactical or operational ; and at the modeling level : macroscopic, mesoscopic and microscopic. Problems of sizing, planning and scheduling may be considered. We define the problem of activities planning with resource allocation. Several cases are dissociated : either human resources are under infinite capacity, or they are under limited capacity and their assignment on a place is given, or they are under limited capacity and their assignment is a variable. These problems are specified and mathematically formalized. All thes problems are compared to a bin packing problem : the classical problem of bin packing is used for the problem where human resources are under infinite capacity, the bin packing problem with interdependencies is used in the two other cases. The bin packing problem with incompatibilities is defined. Many resolution methods have been proposed for the bin packing problem. We make several propositions including a hierarchical coupling between heuristic and metaheuristic. Single based metaheuristics and a population based metaheuristic, the particle swarm optimization, are used. This proposition requires a new encoding inspired by permutation problems. This method gives very good results to solve instances of the bin packing problem. It is easy to apply : it combines already known methods. With the proposed coupling, the new constraints to be considered need to be integrated only on the heuristic level. The running of the metaheuristic is the same. Thus, our method is easily adaptable to the problem of activities planning with resource allocation. For big instances, the solver used as a reference returns only an interval of solutions. The results of our method are once again very promising : the obtained solutions are better than the upper limit returned by the solver. It is possible to adapt our method on more complex issues through integration into the heuristic of the new constraints to consider. It would be particularly interesting to test these methods on real hospital authorities to assess their significance.
|
39 |
The analysis and interpretation of microseismicity induced by a collapsing solution mining cavity : A contribution for progress in hazard assessment of underground cavities / Analyse et interprétation de la microsismicité induite par l’effondrement provoqué d’une cavité saline créée par dissolution : une contribution pour progresser dans l'évaluation des risques d’instabilité de cavités souterrainesKinscher, Jannes Lennart 30 January 2015 (has links)
Pour progresser dans la compréhension des mécanismes liés aux instabilités des cavités souterraines à partir de la réponse microsismique associée, l'effondrement provoqué d'une cavité saline (~ 200 m en diamètre), créée par dissolution, a été instrumentée sur un site d’exploitation de SOLVAY à Cerville-Buissoncourt (Lorraine, France). Pendant l’expérimentation un vaste ensemble des données a été enregistré (~ 50,000 fichiers d'événements) dont la majorité (80%) est constitué d’essaims microsismiques singuliers. Cette thèse présente une analyse et une interprétation détaillée de cette base de données microsismiques grâce à l’adaptation de méthodologies de traitement originales, dont les résultats améliorent notre compréhension sur la nature de la microsismicité liée aux processus de création et d’effondrement des cavités souterraines, ainsi que sur l’évaluation de l’aléa associé. Les résultats principaux obtenus sont les suivants : les événements microsismiques sont comparables à des petits séismes tectoniques ayant des magnitudes de moment variant entre -3 et 1. (ii) L’ensemble des événements microsismiques montre un mécanisme en cisaillement (double-couple) remarquablement stable et est associé à un régime en faille inverse d’orientation NO - SE, plongeant à environ 35°– 55°. Ce phénomène est probablement lié à la présence de fractures préexistantes sur le site. (iii) L'origine des essaims microsismiques est certainement due à l'incapacité du système à créer des fractures de grandes dimensions capables de libérer des contraintes très importantes. Cela est probablement lié aux propriétés mécaniques du toit de la cavité. (iv) Les périodes d’effondrements du toit de la cavité sont associées à une dynamique de forçage systématique et montrent une réponse microsismique particulière, qui peut-être décrite par des lois statistiques. Les travaux de recherche de cette thèse confirment également, que la surveillance microsismique peut être un outil puissant pour étudier les processus d’instabilité des cavités souterraines, même avec un nombre réduit de capteurs si des outils d’analyse adaptés sont utilisés / In order to improve our understanding of hazardous underground cavities and its microseismic response, the development and collapse of a ~ 200 m wide salt solution mining cavity was monitored at Cerville-Buissoncourt in the Lorraine basin in NE France. The majority of the obtained dataset (~80%) was constituted of numerous unusual microseismic swarming events (~50.000 event files). This thesis presents innovative methods able to treat this specific microseismic data set, whose results provide new and fundamental insights into the principal characteristics of caving and collapsing related microseismicity and hazard assessment of excavated underground formations. The principal results are as follows: (i) the individual microseismic events are comparable to small natural tectonic earthquakes with moment magnitudes Mw ranging from around -3 to 1. (ii) Source mechanisms for most microseismic events are remarkable stable and demonstrate a predominant thrust faulting (double-couple) regime with faults similarly oriented NW-SE, dipping 35°-55° , what might be related to the presence of systematically arranged pre-existing fractures. (iii) The origin of microseismic swarming is suggested in the incapacity to sustain larger strains and to release larger stresses, what seems to be related to the mechanical constitution of the rock strata overlying the cavity (i.e. low strength materials). (iv) Caving and collapsing periods at the cavity roof are associated with systematic, self- reinforcing dynamics and have a distinct microseismic response, clearly observable from statistical analysis, which can be precisely described by empirical laws. The performed analysis and interpretation of the microseismicity at Cerville-Buissoncourt has shown that microseismic monitoring is a useful tool to constrain the mechanical and dynamical characteristics of an evolving and collapsing hazardous underground cavity
|
40 |
Conception optimale de centrales solaires à concentration : application aux centrales à tour et aux installations "beam down" / Optimal design of solar thermal power plants : application to solar power tower and "beam down" concentratorsFarges, Olivier 05 June 2014 (has links)
Depuis les années quarante, la consommation énergétique mondiale n'a cessé d'augmenter. Cette énergie étant majoritairement d'origine fossile, il en résulte une augmentation globale de température terrestre. De ce fait, il est devenu urgent de réduire les émissions de gaz à effet de serre pour stopper le changement climatique. Dans ce contexte, le développement de la production d'électricité à partir d'énergie solaire concentrée par voie thermodynamique est une solution prometteuse. Les efforts de recherche visent à rendre cette technologie plus efficace et plus compétitive économiquement. Dans ce but, ce manuscrit présente une méthode de conception optimale pour les centrales solaires à récepteur central. Elle tire parti des méthodes développées depuis de nombreuses années par le groupe de recherche StaRWest, regroupant notamment des chercheurs des laboratoires RAPSODEE (Albi), LAPLACE (Toulouse) et PROMES (Odeillo). Couplant des algorithmes de Monte Carlo à hautes performances et des algorithmes stochastiques d'optimisation, le code de calcul implémentant cette méthode permet la conception et l'optimisation d'installations solaires. Il est utilisé pour mettre en évidence les potentialités d'un type de centrales à récepteur central peu répandu : les centrales à réflecteur secondaire, également appelées centrales de type "beam down". / Since the early 40's, world energy consumption has grown steadly. While this energy mainly came from fossil fuel, its use has included an increase in temperatures. It has become urgent to reduce greenhouse gas emissions to halt climate change. In this context, the development of concentrated solar power (CSP) is a promising solution. The scientific community related to this topic has to focus on efficiency enhancement and economic competitiveness of CSP technologies. To this end, this thesis aims at providing an optimal design method applied to central receiver power plants. It takes advantage of methods developed over many years by the research group StaRWest. Both RAPSODEE (Albi), LAPLACE (Toulouse) and PROMES (Odeillo) researchers take an active part in this group. Coupling high performance Monte Carlo algorithms and stochastic optimization methods, the code we developed allows an optimal design of concentrated solar systems. This code is used to highlight the potential of an uncommon type of central receiver plants: reflective towers, also called "beam down" central receiver systems.
|
Page generated in 0.0303 seconds