• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 124
  • 52
  • 46
  • Tagged with
  • 224
  • 224
  • 197
  • 177
  • 177
  • 175
  • 173
  • 72
  • 59
  • 41
  • 40
  • 40
  • 33
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

The Musical Piece as an Instance : essays in Computer-Aided Musical Analysis / La partition musicale comme un cas : essais d'analyse musicale assistée par ordinateur

De Paiva Santana, Charles 06 December 2016 (has links)
A partir d'une interprétation musicologique de la notion scientifique de "modélisation et simulation'', cette thèse présente une approche d'analyse assistée par ordinateur où les partitions musicales sont reconstruites à partir de processus algorithmiques et simulées avec différents paramètres à partir desquels des variantes, appelés instances, sont générés. L'étude d'une pièce musicale par modélisation et simulation signifie comprendre l'oeuvre en la (re) composant de nouveau, en brouillant les limites entre le travail analytique et créatif. Cette approche est appliquée à trois études de cas: 1. une technique isolée, la "multiplication d'accords'', utilisé par Pierre Boulez (1925- 2016), qui a été explorée à travers le prisme formé par les théories de H. Hanson, S. Heinemann et L. Koblyakov; 2. La pièce "Spectral Canon pour Conlon Nancarrow" (1974) du compositeur américain James Tenney (1934-2006) à laquelle la simulation computationnelle à partir de différents paramètres a été prise à ses conséquences ultimes quand un "espace d'instances" est explorée a partir de stratégies de visualisation graphique; 3. Et enfin "Désordre" (1985), le première étude pour piano de l'austro-hongrois György Ligeti (1923-2006) dans laquelle les concepts de "tonalité combinatoire" et "décomposition en nombres premiers'', appliqué aux durées, ont été utilisés pour maximiser le potentiel de production d'instances. / From a musicological interpretation of the scientific notion of “modeling and simulation”, this thesis presents an approach for computer-aided analysis where musical scores are reconstructed from algorithmic processes and then simulated with different sets of parameters from which neighbouring variants, called instances, are generated. Studying a musical piece by modelling and simulation means to understand the work by (re)composing it again, blurring boundaries between analytical and creative work. This approach is applied to three case studies: an isolated technique, Pierre Boulez Chord Multiplication, which is explored through the prism formed by the theories of H. Hanson, S. Heinemann and L. Koblyakov; the piece Spectral Canon for Conlon Nancarrow (1974) by the american James Tenney (1934-2006) to which the computational simulation from different sets of parameters was taken to its ultimate consequences when a “space of instances” is created and strategies of visualisation and exploration are devised; and finally “Disorder”, the first piano study written by austro-hungarian György Ligeti in which the concepts of “combinatorial tonality” and “decomposition prime numbers”, applied to durations, are used to maximize the potential that a model has to produce different variations of the original piece.
112

Intégration numérique et éléments finis d'ordre élevé appliqués aux équations de Maxwell en régime harmonique

Duruflé, Marc 07 February 2006 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la résolution des <br />équations de Maxwell en régime fréquentiel, afin de calculer<br />précisément la signature radar de cibles diverses. Pour avoir<br />une grande précision nécessaire pour des expérience de grande taille,<br /> nous utilisons des méthodes d'ordre élevé.<br /><br />Dans le cas scalaire, les éléments finis spectraux hexaédriques<br />avec condensation de masse, permettent d'obtenir un produit matrice vecteur <br />rapide et peux coûteux en stockage. Dans le cas vectoriel, les hexaèdres<br />de la première famille ne réalisent pas la condensation de masse, mais on peut<br />écrire un algorithme rapide de produit matrice-vecteur. Des résultats<br />numériques 3-D montrent la performance de l'algorithme proposé.<br /><br />Nous traitons également le cas où la géométrie présente<br />une symétrie de révolution. On est alors ramenés à une succession<br />de problèmes 2-D indépendants.<br />Nous proposons une méthode éléments finis d'ordre élevé <br />couplée à des équations intégrales d'ordre élevé.
113

Intégration de la Sûreté de Fonctionnement dans les Processus d'Ingénierie Système

Guillerm, Romaric 15 June 2011 (has links) (PDF)
L'intégration de diverses technologies, notamment celles de l'informatique et l'électronique, fait que les systèmes conçus de nos jours sont de plus en plus complexes. Ils ont des comportements plus élaborés et plus difficiles à prévoir, ont un nombre de constituants en interaction plus important et/ou réalisent des fonctions de plus haut niveau. Parallèlement à cette complexification des systèmes, la compétitivité du marché mondial impose aux développeurs de systèmes des contraintes de coût et de délais de plus en plus strictes. La même course s'opère concernant la qualité des systèmes, notamment lorsque ceuxci mettent en jeu un risque en vies humaines ou un risque financier important. Ainsi, les développeurs sont contraints d'adopter une approche de conception rigoureuse pour répondre aux exigences du système souhaité et satisfaire les diverses contraintes (coût, délais, qualité, sûreté de fonctionnement,...). Plusieurs démarches méthodologiques visant à guider la conception de système sont définies par l'intermédiaire de normes d'Ingénierie Système. Notre travail s'appuie sur la norme EIA-632, qui est largement employée, en particulier dans les domaines aéronautique et militaire. Il consiste à améliorer les processus d'ingénierie système décrits par l'EIA-632, afin d'intégrer une prise en compte globale et explicite de la sûreté de fonctionnement. En effet, jusqu'à présent la sûreté de fonctionnement était obtenue par la réutilisation de modèles génériques après avoir étudié et développé chaque fonction indépendamment. Il n'y avait donc pas de prise en compte spécifique des risques liés à l'intégration de plusieurs technologies. Pour cette raison, nous proposons de nous intéresser aux exigences de Sûreté de Fonctionnement au niveau global et le plus tôt possible dans la phase de développement, pour ensuite les décliner aux niveaux inférieurs, ceci en s'appuyant sur les processus de la norme EIA-632 que nous étoffons. Nous proposons également une méthode originale de déclinaison d'exigences de sûreté de fonctionnement à base d'arbres de défaillances et d'AMDEC, ainsi qu'un modèle d'information basé sur SysML pour appuyer notre approche. Un exemple issu du monde aéronautique permet d'illustrer nos propositions.
114

Vers une meilleure compréhension de la consommation énergétique des systèmes logiciels

Noureddine, Adel 19 March 2014 (has links) (PDF)
Avec l'augmentation de l'utilisation des ordinateurs et des appareils mobiles, et la hausse du prix de l'électricité, la gestion énergétique des logiciels est devenue une nécessité pour des logiciels, appareils et services durables. La consommation énergétique augmente dans les technologies informatiques, notamment à cause de l'augmentation de l'utilisation des services web et distribuée, l'informatique dans les nuages, ou les appareils mobiles. Par conséquent, des approches de gestion de l'énergie ont été développées, de l'optimisation du code des logiciels, à des stratégies d'adaptation basées sur l'utilisation des ressources matérielles. Afin de répondre à ces lacunes, nous présentons dans cette thèse, des modèles énergétiques, approches et outils pour estimer fidèlement la consommation énergétique des logiciels, au niveau de l'application, et au niveau du code, et pour inférer le modèle d'évolution énergétique des méthodes basé sur leurs paramètres d'entrées. Nous proposons aussi Jalen et Jalen Unit, des frameworks énergétiques pour estimer la consommation énergétique de chaque portion de code de l'application, et pour inférer le modèle d'évolution énergétique des méthodes en se basant sur des études et expériences empiriques. En utilisant des modèles énergétiques et d'outils d'estimations logicielles, nous pouvons proposer des informations énergétiques précises sans avoir besoin de wattmètres ou d'investissement de matériels de mesures énergétiques. Les informations énergétiques que nous proposons, offrent aussi aux approches de gestion énergétique des mesures directes et précises pour leurs approches d'adaptations et d'optimisations énergétiques. Ces informations énergétiques établissent aussi un modèle d'évolution énergétique des logiciels en se basant sur leurs paramètres d'entrées. Cela offre aux développeurs une connaissance plus profonde sur l'efficacité énergétique dans les logiciels. Cette connaissance amènera les développeurs à choisir un certain code au lieu d'un autre en se basant sur son efficacité énergétique. Les expérimentations utilisant l'implémentation de nos modèles énergétiques offrent des informations importantes sur comment et où l'énergie est consommée dans les logiciels. Plus particulièrement, nous proposons des comparaisons empiriques des langages de programmation (LP), des implémentations d'algorithmes, du coût de l'utilisation d'une machine virtuelle dans les LP, des options des compilateurs, et des primitives d'entrées/sorties. Nos outils permettent aussi de détecter les hotspots énergétiques dans les logiciels, permettant ainsi de focaliser sur les principaux endroits où davantage d'études sont nécessaires pour l'optimisation énergétique. Finalement, nous démontrons comment notre framework d'étude empirique permet de détecter les modèles d'évolution énergétique en se basant sur les stratégies d'évolution des paramètres d'entrées. Grâce à notre contribution, nous visons d'évoluer la connaissance dans le domaine de la consommation énergétique dans les logiciels, en proposant des modèles, des approches et des outils pour mesurer avec précision la consommation énergétique à des grains plus fins. En un mot, nous avons construit un microscope logiciel et énergétique, et avons mener des expérimentations afin de comprendre comment l'énergie est consommée dans les logiciels, et les chemins à prendre pour produire des logiciels optimisés énergétiquement.
115

Couplage de la rObotique et de la simulatioN mEdical pour des proCédures automaTisées (CONECT) / Coupling robotics and medical simulations for automatic percutaneous procedures

Adagolodjo, Yinoussa 06 September 2018 (has links)
Les techniques d'insertion d'aiguille font partie des interventions chirurgicales les plus courantes. L'efficacité de ces interventions dépend fortement de la précision du positionnement des aiguilles dans un emplacement cible à l'intérieur du corps du patient. L'objectif principal dans cette thèse est de développer un système robotique autonome, capable d'insérer une aiguille flexible dans une structure déformable le long d'une trajectoire prédéfinie. L’originalité de ce travail se trouve dans l’utilisation de simulations inverses par éléments finis (EF) dans la boucle de contrôle du robot pour prédire la déformation des structures. La particularité de ce travail est que pendant l’insertion, les modèles EF sont continuellement recalés (étape corrective) grâce à l’information extraite d’un système d’imagerie peropératoire. Cette étape permet de contrôler l’erreur des modèles par rapport aux structures réelles et ainsi éviter qu'ils divergent. Une seconde étape (étape de prédiction) permet, à partir de la position corrigée, d’anticiper le comportement de structures déformables, en se reposant uniquement sur les prédictions des modèles biomécaniques. Ceci permet ainsi d’anticiper la commande du robot pour compenser les déplacements des tissus avant même le déplacement de l’aiguille. Expérimentalement, nous avions utilisé notre approche pour contrôler un robot réel afin d'insérer une aiguille flexible dans une mousse déformable le long d'une trajectoire (virtuelle) prédéfinie. Nous avons proposé une formulation basée sur des contraintes permettant le calcul d'étapes prédictives dans l'espace de contraintes offrant ainsi un temps d'insertion total compatible avec les applications cliniques. Nous avons également proposé un système de réalité augmentée pour la chirurgie du foie ouverte. La méthode est basée sur un recalage initial semi-automatique et un algorithme de suivi peropératoire basé sur des marqueurs (3D) optiques. Nous avons démontré l'applicabilité de cette approche en salle d'opération lors d'une chirurgie de résection hépatique. Les résultats obtenus au cours de ce travail de thèse ont conduit à trois publications (deux IROS et un ICRA) dans les conférences internationales puis à un journal (Transactions on Robotics) en cours de révision. / Needle-based interventions are among the least invasive surgical approaches to access deep internal structures into organs' volumes without damaging surrounding tissues. Unlike traditional open surgery, needle-based approaches only affect a localized area around the needle, reducing this way the occurrence of traumas and risks of complications \cite{Cowan2011}. Many surgical procedures rely on needles in nowadays clinical routines (biopsies, local anesthesia, blood sampling, prostate brachytherapy, vertebroplasty ...). Radiofrequency ablation (RFA) is an example of percutaneous procedure that uses heat at the tip of a needle to destroy cancer cells. Such alternative treatments may open new solutions for unrespectable tumors or metastasis (concerns about the age of the patient, the extent or localization of the disease). However, contrary to what one may think, needle-based approaches can be an exceedingly complex intervention. Indeed, the effectiveness of the treatment is highly dependent on the accuracy of the needle positioning (about a few millimeters) which can be particularly challenging when needles are manipulated from outside the patient with intra-operative images (X-ray, fluoroscopy or ultrasound ...) offering poor visibility of internal structures. Human factors, organs' deformations, needle deflection and intraoperative imaging modalities limitations can be causes of needle misplacement and rise significantly the technical level necessary to master these surgical acts. The use of surgical robots has revolutionized the way surgeons approach minimally invasive surgery. Robots have the potential to overcome several limitations coming from the human factor: for instance by filtering operator tremors, scaling the motion of the user or adding new degrees of freedom at the tip of instruments. A rapidly growing number of surgical robots has been developed and applied to a large panel of surgical applications \cite{Troccaz2012}. Yet, an important difficulty for needle-based procedures lies in the fact that both soft tissues and needles tend to deform as the insertion proceeds in a way that cannot be described with geometrical approaches. Standard solutions address the problem of the deformation extracting a set of features from per-operative images (also called \textit{visual servoing)} and locally adjust the pose/motion of the robot to compensate for deformations \cite{Hutchinson1996}. [...]To overcome these limitations, we introduce a numerical method allowing performing inverse Finite Element simulations in real-time. We show that it can be used to control an articulated robot while considering deformations of structures during needle insertion. Our approach relies on a forward FE simulation of a needle insertion (involving complex non-linear phenomena such as friction, puncture and needle constraints).[...]
116

Influence des fautes transitoires sur la fiabilité d'un système contrôlé en réseau / Impact of transient faults on the reliability evaluation of a networked control system

Ghostine, Rony 12 June 2008 (has links)
Ce travail s'inscrit dans le cadre de l'évaluation de la sûreté de fonctionnement des systèmes commandés en réseau (SCR). La capacité des systèmes de commandes à compenser les effets de certaines défaillances de composants amène à redéfinir le concept de défaillances du système. La conséquence est que l'évaluation de la fiabilité prévisionnelle du système est dépendante de l'évaluation fonctionnelle et devient impossible avec les méthodes traditionnelles de la sûreté de fonctionnement. Pour surmonter ces difficultés, une approche basée sur la modélisation en vue de la simulation est proposée. Nous avons choisi les Réseaux d'activités stochastiques (SAN) largement connus dans la modélisation des protocoles de communication ainsi que dans les études de la sûreté de fonctionnement. Dans un premier temps, nous avons cherché à identifier l'incidence de deux types de défaillances fugitives : la perte d'un échantillon d'une part et le retard d'un échantillon dans la boucle de régulation d'autre part. Après, nous simulons le comportement en présence des deux types de perturbations simultanément, mettant en évidence des effets cumulatifs. Si on tient compte maintenant du fait que l'origine des pertes ou retards est due à la présence du réseau, il faut l'introduire dans le modèle. On introduit alors dans le modèle global du système la représentation SAN d'un réseau CAN et l'injection des défaillances dans celui-ci. La méthode de Monte Carlo est utilisée pour estimer les indicateurs de sûreté de fonctionnement et on montre l'influence de certains facteurs comme la charge du réseau par exemple. Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes satisfaisant à des exigences critiques sur certains paramètres de performance / Achieved work in this thesis deals with dependability evaluation of networked controlled system (NCS). The ability of control system to offset the effects of some components’ failure leads to redefine the concept of system failure. Consequently the reliability evaluation is dependent on functional parameters and becomes impossible with traditional dependability methods. This work aims at bringing a contribution relative to this aspect. To overcome these difficulties, an approach based on both modelling and simulation is proposed. We choose to work with stochastic activity network (SAN) widely used in modelling communication protocols as well as in dependability studies. First we sought to identify the incidence of two types of transient faults: loss of samples and delay within the control loop. Next we simulate the behaviour in the presence of two types of disturbances at the same time highlighting the cumulative effects. In fact the origin of the loss or delay information inside the control loop is due to the presence of the network, this aspect must be taken into account, that is why we introduce a new model representing the Controller Area Network (CAN) and injection of possible perturbations. Monte-Carlo method is used to estimate dependability parameters showing the influence of some factors such as network load for example. We have proposed a method and associated tools to approach this evaluation by simulation and thus provide assistance in designing systems to meet requirements on certain performance parameters
117

Etude et modélisation d’un système de transmission d’énergie et de données par couplage inductif pour des systèmes électroniques dans l’environnement automobile / Modeling of wireless power transfer system by inductive coupling for electronic systems in automotive environment

Vigneau, Guillaume 12 July 2016 (has links)
Actuellement, les systèmes permettant de transférer de l’énergie dans le but de recharger les accumulateurs d’appareils électroniques sans l’emploi de câble se démocratisent davantage chaque jour. On comprend donc bien l’intérêt de tels systèmes dans des environnements embarqués et confinés tels que l’habitacle d’un véhicule. Le principe de l’induction magnétique réside dans un transfert de flux magnétique entre deux antennes inductives. Le champ magnétique servira de vecteur au transport d’une puissance électrique, puisque c’est au travers de cette création de flux magnétique que sera échangée ou transférée la puissance d’un émetteur vers un récepteur. Un tel système d’émission-réception de puissance utilisant le principe d’induction magnétique contient un émetteur, des antennes (bobines) inductives couplées et un récepteur. Un premier chapitre sera donc consacré à l’étude des antennes d’un point de vue théorique et technologique. Des modèles électromagnétiques d’antennes inductives seront développés, et après validation par corrélation avec des mesures électriques et électromagnétiques, ils seront employés au travers d’intenses simulations électromagnétiques. Ceci afin de montrer l’impact des paramètres définissant ces antennes inductives sur leurs comportements électrique et électromagnétique. Une fois les antennes inductives optimisées et leurs paramètres clés identifiés, on étudiera dans un deuxième temps les effets de l’induction magnétique lorsque qu’une antenne d’émission et une autre de réception sont présentées ensembles et mises en condition de transfert d’énergie. On mettra donc en évidence le principe de couplage magnétique entre les antennes ainsi que la notion de rendement de puissance appelé aussi efficacité de liaison. Les différents paramètres des antennes seront là aussi caractérisés afin d‘étudier leur influence sur le transfert d’énergie inductif. Le tout illustré de la même manière que précédemment, en s’appuyant sur d’intenses simulations électromagnétiques et des modèles validés par rapport à différentes méthodes de mesure. Ceci dans le but de comprendre les mécanismes de fonctionnement et d’optimisation d’un système de transfert d’énergie par induction magnétique ainsi que de proposer des règles générales de conception d’antennes inductives. Dans un troisième temps, on présentera les différents étages électroniques composant les systèmes de transfert d’énergie inductif. Une partie sera dédiée à la définition du point de vue système des éléments constituant la chaine complète d’émission et de réception. La conception, l’optimisation et la mesure des amplificateurs de puissance utilisés au niveau de l’émetteur seront également présentés. En effet, ces systèmes doivent être suffisamment performants afin de transférer des puissances capables d’alimenter des appareils électroniques de type téléphones tout en ayant un bilan de puissance efficace avec des pertes limitées. A partir de modèles de circuits émetteur et récepteur et en s’appuyant sur des simulations circuits, nous estimerons les bilans de puissances afin d’évaluer les performances et les limites des différents systèmes. Ces simulations une fois validées par mesures permettront de quantifier l’efficacité du transfert de puissance et proposer des voies d’optimisation. Ces systèmes et technologies sont de plus en plus utilisés pour l’électronique grand public et il existe actuellement plusieurs standards régissant le transfert d’énergie inductif. Les différentes études présentées dans cette thèse seront donc orientées vers ces différentes normes, et des analogies seront réalisées tout le long du mémoire afin de mettre en exergue leurs différents principes de fonctionnement. / Nowadays there is a strong demand of systems allowing to transfer energy in a wirelessly way to small electronic devices. So we can well understand the interest of such systems in embedded environments such as vehicle cockpit. The principle of magnetic induction comes from a magnetic flux exchange between two inductive antennas. The magnetic field will be used to transport an electrical power from an emitter to a receiver. These systems using the magnetic induction to transfer energy contain an emitter, inductive antennas (coils) and a receiver. A first chapter will be dedicated to the antennas employed in inductive wireless power transfer systems on theoretical and technological points of views. An electromagnetic modeling of these inductive antennas will be realized and validated through correlation with measurements. Once the modeling process defined and the validations done, it will be used through intensive electromagnetic simulations in order to show the impact of antennas parameters on their electrical and electromagnetic performances. After the inductive antennas characterization and their key parameters identification done, we will study in a second time the magnetic induction effects when emission and reception antennas are placed together in order to realize an inductive power transfer. Notions of magnetic coupling which appears between inductive antennas and magnetic efficiency which characterizes how much quantities of power are transferred will be highlighted. In the same conditions as before, the impact of antennas parameters on the power transfer and magnetic coupling will be investigated through electromagnetic modeling of inductive antennas and the use of intensive electromagnetic simulations. Thus, we will have the opportunity to precisely understand the meaning of the inductive power transfer and the different ways of optimizations. By this way, we will also propose some general design guidelines for antennas employed in inductive wireless power transfer systems. A third chapter will be dedicated to the presentation of the different electronic stages used in inductive wireless power transfer systems. A part of it will be employed on the definitions of the different elements allowing the wireless power transfer on a system approach. The design, optimization and measurement of power amplifiers used on the emission stage will be presented too.. Indeed, it is necessary to have efficient power amplification in order to transfer the required power to different receivers such as phones at the same time to limit the power losses. From circuit modeling of different emitter and receiver and with circuit simulations, we will develop power budgets in order to evaluate the performances and limits of these systems. Once the simulation validated by measurement, we will be able to quantify the total power transfer efficiency and propose optimization ways. Because of the current existence of different inductive wireless power standards on the industrial market for electronic consumer, analogies with them will be done all along the different steps of this thesis in order to highlighted their different functioning principles.
118

Modélisation de l'évolution de la taille des génomes et de leur densité en gènes par mutations locales et grands réarrangements chromosomiques

Fischer, Stephan 02 December 2013 (has links) (PDF)
Bien que de nombreuses séquences génomiques soient maintenant connues, les mécanismes évolutifs qui déterminent la taille des génomes, et notamment leur part d'ADN non codant, sont encore débattus. Ainsi, alors que de nombreux mécanismes faisant grandir les génomes (prolifération d'éléments transposables, création de nouveaux gènes par duplication, ...) sont clairement identifiés, les mécanismes limitant la taille des génomes sont moins bien établis. La sélection darwinienne pourrait directement défavoriser les génomes les moins compacts, sous l'hypothèse qu'une grande quantité d'ADN à répliquer limite la vitesse de reproduction de l'organisme. Cette hypothèse étant cependant contredite par plusieurs jeux de données, d'autres mécanismes non sélectifs ont été proposés, comme la dérive génétique et/ou un biais mutationnel rendant les petites délétions d'ADN plus fréquentes que les petites insertions. Dans ce manuscrit, nous montrons à l'aide d'un modèle matriciel de population que la taille du génome peut aussi être limitée par la dynamique spontanée des duplications et des grandes délétions, qui tend à raccourcir les génomes même si les deux types de ré- arrangements se produisent à la même fréquence. En l'absence de sélection darwinienne, nous prouvons l'existence d'une distribution stationnaire pour la taille du génome même si les duplications sont deux fois plus fréquentes que les délétions. Pour tester si la sélection darwinienne peut contrecarrer cette dynamique spontanée, nous simulons numériquement le modèle en choisissant une fonction de fitness qui favorise directement les génomes conte- nant le plus de gènes, tout en conservant des duplications deux fois plus fréquentes que les délétions. Dans ce scénario où tout semblait pousser les génomes à grandir infiniment, la taille du génome reste pourtant bornée. Ainsi, notre étude révèle une nouvelle force susceptible de limiter la croissance des génomes. En mettant en évidence des comporte- ments contre-intuitifs dans un modèle pourtant minimaliste, cette étude souligne aussi les limites de la simple " expérience de pensée " pour penser l'évolution. Nous proposons un modèle mathématique de l'évolution structurelle des génomes en met- tant l'accent sur l'influence des différents mécanismes de mutation. Il s'agit d'un modèle matriciel de population, à temps discret, avec un nombre infini d'états génomiques pos- sibles. La taille de population est infinie, ce qui élimine le phénomène de dérive génétique. Les mutations prises en compte sont les mutations ponctuelles, les petites insertions et délétions, mais aussi les réarrangements chromosomiques induits par la recombinaison ectopique de l'ADN, comme les inversions, les translocations, les grandes délétions et les duplications. Nous supposons par commodité que la taille des segments réarrangés suit une loi uniforme, mais le principal résultat analytique est ensuite généralisé à d'autres dis- tributions. Les mutations étant susceptibles de changer le nombre de gènes et la quantité d'ADN intergénique, le génome est libre de varier en taille et en compacité, ce qui nous permet d'étudier l'influence des taux de mutation sur la structure génomique à l'équilibre. Dans la première partie de la thèse, nous proposons une analyse mathématique dans le cas où il n'y a pas de sélection, c'est-à-dire lorsque la probabilité de reproduction est identique quelle que soit la structure du génome. En utilisant le théorème de Doeblin, nous montrons qu'une distribution stationnaire existe pour la taille du génome si le taux de duplications par base et par génération n'excède pas 2.58 fois le taux de grandes délétions. En effet, sous les hypothèses du modèle, ces deux types de mutation déterminent la dynamique spontanée du génome, alors que les petites insertions et petites délétions n'ont que très peu d'impact. De plus, même si les tailles des duplications et des grandes délétions sont distribuées de façon parfaitement symétriques, leur effet conjoint n'est, lui, pas symétrique et les délétions l'emportent sur les duplications. Ainsi, si les tailles de délétions et de duplications sont distribuées uniformément, il faut, en moyenne, plus de 2.58 duplications pour compenser une grande délétion. Il faut donc que le taux de duplications soit quasiment trois fois supérieur au taux de délétions pour que la taille des génomes croisse à l'infini. L'impact des grandes délétions est tel que, sous les hypothèses du modèle, ce dernier résultat reste valide même en présence d'un mécanisme de sélection favorisant directement l'ajout de nouveaux gènes. Même si un tel mécanisme sélectif devrait intuitivement pousser les génomes à grandir infiniment, en réalité, l'influence des délétions va rapidement limiter leur accroissement. En résumé, l'étude analytique prédit que les grands réarrangements délimitent un ensemble de tailles stables dans lesquelles les génomes peuvent évoluer, la sélection influençant la taille précise à l'équilibre parmi cet ensemble de tailles stables. Dans la deuxième partie de la thèse, nous implémentons le modèle numériquement afin de pouvoir simuler l'évolution de la taille du génome en présence de sélection. En choisissant une fonction de fitness non bornée et strictement croissante avec le nombre de gènes dans le génome, nous testons le comportement du modèle dans des conditions extrêmes, poussant les génomes à croître indéfiniment. Pourtant, dans ces conditions, le modèle numérique confirme que la taille des génomes est essentiellement contrôlée par les taux de duplications et de grandes délétions. De plus, cette limite concerne la taille totale du génome et s'applique donc aussi bien au codant qu'au non codant. Nous retrouvons en particulier le seuil de 2.58 duplications pour une délétion en deçà duquel la taille des génomes reste finie, comme prévu analytiquement. Le modèle numérique montre même que, dans certaines conditions, la taille moyenne des génomes diminue lorsque le taux de duplications augmente, un phénomène surprenant lié à l'instabilité structurelle des grands génomes. De façon similaire, augmenter l'avantage sélectif des grands génomes peut paradoxalement faire rétrécir les génomes en moyenne. Enfin, nous montrons que si les petites insertions et délétions, les inversions et les translocations ont un effet limité sur la taille du génome, ils influencent très largement la proportion d'ADN non codant.
119

Etudes théorique et expérimentale des plasmas produits par laser en vue de leur application à l'analyse chimique des matériaux en environnement complexe.

Clair, Guillaume 04 April 2011 (has links) (PDF)
Ce travail présente une étude originale de l'interaction laser-matière en régime nanoseconde à l'aide d'une double approche expériences-modélisation numérique. L'approche expérimentale vise à caractériser les plasmas produits par laser et l'empreinte laissée par le faisceau laser sur la cible. L'approche numérique s'appuie sur un modèle 1D qui permet de décrire le chauffage de la cible par le laser, l'ablation de matière et la formation d'un plasma dans cette matière ablatée due à l'interaction avec le laser. Des comparaisons des résultats obtenus par les deux approches permettent d'évaluer le degré de précision des résultats issus du modèle. Ces comparaisons se limitent aux 100 premières nanosecondes d'expansion du plasma. Nous montrons ainsi que le modèle décrit assez bien l'écrantage du faisceau laser par le plasma, l'expansion du plasma et la propagation de l'onde de choc dans le gaz ambiant. De plus, les valeurs des seuils d'ablation et de formation du plasma sont calculées avec une bonne précision. En revanche, des écarts sont constatés pour la modélisation des processus d'interaction entre le laser et la cible. Le degré de précision du modèle est au final suffisamment bon pour nous permettre d'étudier précisément l'effet du gaz ambiant sur les propriétés et la dynamique du plasma.
120

Méthodologies d'expérimentation pour l'informatique distribuée à large échelle

Quinson, Martin 08 March 2013 (has links) (PDF)
Bien qu'omniprésents dans notre société, les systèmes informatiques distribués de très grande taille restent extrêmement difficiles à étudier et à évaluer. Ils agrègent des millions d'éléments hétérogènes dans des hiérarchies complexes afin de fournir une puissance de traitement et de stockage toujours accrue. Ces artéfacts, parmi les plus complexes jamais construits, posent un défi méthodologique nouveau en architecture des systèmes informatiques : l'approche réductionniste visant à expliquer le système au travers des interactions entre ses parties ne suffit plus à appréhender la complexité de ces systèmes. L'approche expérimentale s'impose alors avec une force nouvelle. Ce document présente mes recherches sur la résolution pratique de ces problèmes méthodologiques. La plupart de ces travaux ont été implémentés dans l'environnement SimGrid. Cet instrument scientifique permet l'étude des performances des systèmes distribués au travers de simulations réalistes. La première partie présente nos contributions aux performances de SimGrid grâce entre autres à une nouvelle approche de parallélisation des simulateurs de DES (Discrete-Event Systems). La seconde partie détaille nos travaux pour faire converger l'étude des performances et celle de la correction des systèmes au sein du même environnement, au travers de l'intégration d'un model checker complet à SimGrid. Enfin, nous étendons dans la troisième partie le champ d'application de SimGrid à des applications réelles.

Page generated in 0.1454 seconds