• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
881

De briques et de blocs. La fonction éditoriale des interfaces de programmation (api) web : entre science combinatoire et industrie du texte / Of Bits and Blocks. The publishing function of web Application Programming Interfaces (APIs) : from a combinatorial science to an industry of text-processing

Goyet, Samuel 22 November 2017 (has links)
Boutons « J’aime », tweets ancrés… Toutes ces formes sont générées par des interfaces de programmation ou API, outils d’écriture informatique qui ont integré la chaîne de production des textes de réseau contemporains. Cette thèse interroge la fonction éditoriale des API, soit leur rôle dans la production, la standardisation et la circulation des « petites formes » des textes de réseau. Avec comme corpus les API de Facebook et de Twitter ainsi que les petites formes qu’elles permettent de produire, notre analyse techno-sémiotique s’articule en cinq chapitres. Le premier est une généalogie des API du point de vue de l’écriture combinatoire. Nous montrons que cette conception de l’écriture est un trait saillant de la programmation et de l’informatique. Le second chapitre interroge les imaginaires de l’écriture informatique, entre chiffre, combinatoire et méthode scientifique universelle. Le troisième chapitre est une analyse des conséquences sémiotiques de cet universalisme combinatoire, où nous montrons que les API proposent une conception du texte comme ensemble abstrait de blocs combinables. Abstraction du texte qui sert une « économie des passages », objet de notre quatrième chapitre, dans laquelle les API sont des lieux d’industrialisation d’une « pratique lettrée » : elles établissent des critères de lisibilité et de reproductibilité du texte. Parmi ces critères, nous notons une invisibilisation du rôle pourtant fondamental du calcul informatique. Nous proposons donc, dans un cinquième chapitre, des pistes pour développer une sémiotique qui prenne en compte le calcul comme mode d’expression propre aux médias numériques. / « Like » buttons, embedded tweets… All of these visual forms are produced by Application Programming Interfaces (APIs). APIs are digital writing tools which have become part of the publishing process of contemporary web pages. This thesis aims at understanding the « publishing function » of APIs : their role in the production, standardization and circulation of the « little forms » of online texts. Focused on Facebook’s and Twitter’s APIs, our work is divided into five chapters. The first one is a genealogy of the APIs, starting from their combinatorial aspect, a conception of writing which trace back to early programming and the invention of computer science. The second chapter is an inquiry about the imaginaries of calculus as a kind of writing, torn between the imaginary of numbers, of combinatorics and the search for a universal scientific method. The third chapter is a study of the semiotic consequences of this combinatorial universalism. We show how APIs are based on an idea of text as an abstract, modular object. This abstraction of the text is beneficial to an « economy of passages ». In this economy where circulation produce value, APIs are a place of « literate practices » (chapter four). They establish visual standards for the readability, production and circulation of online texts. Among these standards, there’s a systematic invizibilisation of the action of machines, although calculus is a necessary part of the production of digital texts. Therefore, in the fifth chapter, we give some epistemological elements towards non-anthropocentric semiotics, meaning : semiotics which would take into account computational machines as a part of the utterance of digital texts.
882

Développement d’une méthodologie de couplage multimodèle avec changements de dimension : validation sur un cas-test réaliste / Methodological development for model coupling with dimension heterogeneity : validation on a realistic test-case

Daou, Mehdi Pierre 27 September 2016 (has links)
Les progrès réalisés depuis plusieurs décennies, à la fois en termes de connaissances physiques, numériques et de puissance informatique disponible, permettent de traiter des simulations de plus en plus complexes. Les modélisations d'écoulements fluviaux et maritimes n'échappent pas à cette tendance. Ainsi, pour de très nombreuses applications de ce type, les modélisateurs doivent mettre en œuvre de véritables "systèmes de modélisation", couplant entre eux plusieurs modèles et logiciels, représentant différentes parties du système physique. La mise en place de tels systèmes permet de traiter de nombreuses études, comme par exemple les impacts de construction d'ouvrages d'art ou industriels, ou encore l'évaluation des aléas suite à un événement exceptionnel, etc.Dans le cadre de cette thèse, nous abordons cette problématique en utilisant une méthodologie de type Schwarz, empruntée à la théorie de décomposition de domaine, dont le principe est de ramener la résolution d'un problème complexe à celle de plusieurs sous-problèmes plus simples, grâce à un algorithme itératif. Ces méthodologies sont particulièrement bien adaptées au couplage de codes industriels puisqu'elles sont très peu intrusives.Cette thèse, réalisée dans le cadre d'un contrat CIFRE et grâce au financement du projet européen CRISMA, a été fortement ancrée dans un contexte industriel. Elle a été réalisée au sein d'Artelia en collaboration avec l'équipe AIRSEA du Laboratoire Jean Kuntzmann, avec pour objectif principal de transférer vers Artelia des connaissances et du savoir-faire concernant les méthodologies de couplage de modèles.Nous développons, dans le cadre de cette thèse, une méthodologie de couplage multi-modèles et de dimensions hétérogènes basée sur les méthodes de Schwarz, afin de permettre la modélisation de problématiques complexes dans des cas opérationnels (en complexifiant les problématiques étudiées au fur et à mesure de la thèse). Du point de vue industriel, les couplages mis en place sont fortement contraints par les logiciels utilisés répondant aux besoins d'Artelia (Telemac-3D, Mascaret, InterFOAM, Open-PALM).Nous étudions tout d'abord un couplage 1-D/3-D résolvant des écoulements à surface libre sous un même système de logiciel Telemac-Mascaret. L'avantage d'un tel couplage est une réduction de coût grâce à l'utilisation du modèle 1-D. Toutefois l’une des difficultés liées au changement de dimension réside dans la définition même de la notion de couplage entre des modèles de dimensions différentes. Ceci conduit à une solution couplée qui n’est pas définie d’une façon unique et qui dépend du choix des opérateurs d’interfaces.Puis nous nous intéressons au couplage monophasique/diphasique (1-D/3-D et 3-D/3-D) entre le système de logiciel Telemac-Mascaret et InterFOAM (modèle diphasique VOF), où la difficulté du choix des opérateurs d'interface lors du changement de physique (monophasique/diphasique) est aussi présente. Ce couplage a pour avantage de rendre possible la résolution d’écoulements complexes, que le système Telemac-Mascaret ne peut pas simuler (déferlement, lame d'eau, écoulement en charge, etc.) en utilisant localement InterFOAM avec son coût de calcul très important. Enfin, nous étudions l’application du couplage monophasique/diphasique sur un cas opérationnel d’étude d’ingénierie.Par ailleurs, les travaux effectués lors du projet CRISMA, pour le développement d'une application permettant de simuler les différents aspects d'une crise liée aux risques de submersions marines en Charente Maritime, coordonnés par Artelia, sont également présentés. Le projet CRISMA a pour objectif d'améliorer l'aide à la décision en se basant sur la simulation pour la gestion opérationnelle des situations de crise dans différents domaines du risque naturel et industriel (inondations, feux de forêt, pollutions accidentelles, etc.). / Progress has been performed for decades, in terms of physical knowledge, numerical techniques and computer power, that allows to address more and more complex simulations. Modelling of river and marine flows is no exception to this rule. For many applications, engineers have now to implement complex "modelling systems", coupling several models and software, representing various parts of the physical system. Such modelling systems allow addressing numerous studies, like quantifying the impacts of industrial constructions or highway structures, or evaluating the consequences of an extreme event.In the framwork of the present thesis, we address model coupling techniques using Schwarz's methodology, which is based on domain decomposition methods. The basic principle is to reduce the resolution of a complex problem into several simpler sub-problems, thanks to an iterative algorithm. These methods are particularly well suited for industrial codes, since they are very few intrusive.This thesis was realized within the framework of a CIFRE contract and thanks to the funding of the European CRISMA project and was thus greatly influenced by this industrial context. It was performed within the Artelia company, in collaboration with the AIRSEA team of the Jean Kuntzmann Laboratory, with the main objective of transferring to Artelia some knowledge and expertise regarding coupling methodologies.In this thesis, we develop a methodology for multi-model coupling with heterogeneous dimensions, based on Schwarz's methods, in order to allow modelling of complex problems in operational cases. From the industrial viewpoint, the developed coupled models must use software meeting Artelia's needs (Telemac-3D, Mascaret, InterFOAM, Open-PALM).We firstly study a testcase coupling 1-D and 3-D free surface flows, using the same software system Telemac-Mascaret. The advantage of such coupling is a reduction of the computation cost, thanks to the use of a 1-D model. However the change in the model dimension makes it difficult to define properly the notion of coupling, leading to a coupled solution which is not defined in a unique way but depends on the choice of the interface operators.Then we study a coupling case between a monophasic model and a diphasic model (1-D/3-D and 3-D/3-D), using Telemac-Mascaret and InterFOAM software systems. Once again, the main difficulty lies in the definition of interfaces operators, due to the change in the physics (monophasic / diphasic). Such a coupling makes it possible to solve complex flows that the Telemac-Mascaret system alone cannot address (breaking waves, water blade, closed-conduit flow, etc.), by locally using InterFOAM where necessary (InterFOAM is very expensive in terms of computations). Finally, we implement such a monophasic/diphasic coupling on an operational engineering study.In addition, we also present the work done during the CRISMA project. The overall objective of the CRISMA project was to develop a simulation-based decision support system for the operational crisis management in different domains of natural or industrial risks (floods, forest fires, accidental pollution, etc.). In this context, Artelia coordinated the development of an application allowing to simulate various aspects of crisis linked to flood risks in Charente-Maritime.
883

Computing models for networks of tiny objects / Modèles de calcul pour les réseaux d'objets à capacité restreinte

Ouled abdallah, Nesrine 22 May 2017 (has links)
Dans cette thèse, nous nous intéressons aux modèles de calcul dans les réseaux d'objets à capacité restreinte, tels que les réseaux de capteurs sans fil. Nous nous focalisons sur les protocoles de population proposés par Angluin et al. Dans ce modèle, les objets sont représentés par des agents à états finis, passivement mobiles, communiquant entre paires et formant un réseau asynchrone et anonyme. Nous présentons deux études comparatives qui nous permettent par la suite de proposer une approche établissant le lien des protocoles de population avec deux autres modèles : le modèle des tâches avec les systèmes de réécritures de graphes, et le modèle asynchrone et anonyme d'échange de messages. Nous passons ensuite au problème d'ordonnancement dans les protocoles de population. Nous proposons un nouvel ordonnanceur probabiliste, 1-central, basé sur les rendez-vous randomisés et appelé HS Scheduler. Contrairement aux autres ordonnanceurs,il permet à plus d'une paire de communiquer à la fois. Nous prouvons qu'il est équitable avec probabilité 1. Nous analysons par la suite les termes Nous analysons par la suite les temps de stabilisation de certains protocoles s'exécutant sous le Random Scheduler ou le HS Scheduleret sur différentes topologies du graphe d'interaction. Nous prouvons que le HS Scheduler est équivalent en temps au Random Scheduler quand le graphe d'interaction est complet mais qu'il permet une stabilisation plus rapide quand le graphe est aléatoire. Par la suite,nous proposons un autre ordonnanceur qui prend en considération les états des agents et permet d'introduire la terminaison à certains protocoles : le Prorotol Aware HS Scheduler.Nous prouvons qu'il est équitable avec probabilité 1. Nous faisons l'analyse des temps de stabilisation de certains protocoles s'exécutant sous cet ordonnanceur en considérant différentes topologies du graphe d'interaction. Finalement, nous implémentons et simulons sur ViSiDiA l'ensemble des scénarios étudiés et validons nos résultats théoriques. / In this work, we consider computing models for networks of tiny objects suchas wireless sensor networks. We focus on the population protocols, a pairwise computationalmodel introduced by Angluin et al. where the tiny objects are represented byanonymous, passively mobile, finite state agents forming asynchronous networks. Weestablish two comparative studies between the population protocol model (and its extensions)and the two following ones: tasks with graph relabeling systems, and anonymousasynchronous message passing. These studies aim to establish possible mappings betweenthe population protocols and these two models. We then focus on the scheduling of thepairwise interactions in population protocols. We propose the HS Scheduler, a new probabilistic1-central scheduler based on randomized handshakes. Compared to the existingschedulers, this scheduler allows to more than one pair of agents to communicate simultaneously.We prove that this scheduler is fair with probability 1. We thereafter presentanalyses of the complexity of the stabilization time of some protocols running under thescheduling of the Random Scheduler and the HS Scheduler, and over different topologiesof the interaction graph. We prove that these two schedulers are time equivalent withComputing Models for Networks of Tiny Objects iiirespect to these protocols when the interaction graph is complete, however computationsunder the HS Scheduler stabilize faster when the interaction graph is random. We then introducethe Protocol Aware HS Scheduler, a slightly modifed version of the HS Schedulerthat takes into account the states of the agents and allows termination in some protocols.We also prove that this scheduler is fair with probability 1. We present analyses of thetime complexity of some protocols running under the scheduling of the Protocol AwareHS Scheduler and over dfferent structures of the interaction graph. We implement thedifferent scenarios in ViSiDiA, and validate through simulations our theoretical results.
884

Méthodes numériques pour le calcul à la rupture des structures de génie civil / Numerical methods for the yield design of civil engineering structures

Bleyer, Jérémy 17 July 2015 (has links)
Ce travail tente de développer des outils numériques efficaces pour une approche plus rationnelle et moins empirique du dimensionnement à la ruine des ouvrages de génie civil. Contrairement aux approches traditionnelles reposant sur une combinaison de calculs élastiques, l'adoption de coefficients de sécurité et une vérification locale des sections critiques, la théorie du calcul à la rupture nous semble être un outil prometteur pour une évaluation plus rigoureuse de la sécurité des ouvrages. Dans cette thèse, nous proposons de mettre en œuvre numériquement les approches statique par l'intérieur et cinématique par l'extérieur du calcul à la rupture à l'aide d'éléments finis dédiés pour des structures de plaque en flexion et de coque en interaction membrane-flexion. Le problème d'optimisation correspondant est ensuite résolu à l'aide du développement, relativement récents, de solveurs de programmation conique particulièrement efficaces. Les outils développés sont également étendus au contexte de l'homogénéisation périodique en calcul à la rupture, qui constitue un moyen performant de traiter le cas des structures présentant une forte hétérogénéité de matériaux. Des procédures numériques sont spécifiquement développées afin de déterminer puis d'utiliser dans un calcul de structure des critères de résistance homogènes équivalents. Enfin, les potentialités de l'approche par le calcul à la rupture sont illustrées sur deux exemples complexes d'ingénierie : l'étude de la stabilité au feu de panneaux en béton armé de grande hauteur ainsi que le calcul de la marquise de la gare d'Austerlitz / This work aims at developping efficient numerical tools for a more rational and less empirical assessment of civil engineering structures yield design. As opposed to traditionnal methodologies relying on combinations of elastic computations, safety coefficients and local checking of critical members, the yield design theory seems to be a very promising tool for a more rigourous evaluation of structural safety. Lower bound static and upper bound kinematic approaches of the yield design theory are performed numerically using dedicated finite elements for plates in bending and shells in membrane-bending interaction. Corresponding optimization problems are then solved using very efficient conic programming solvers. The proposed tools are also extended to the framework of periodic homogenization in yield design, which enables to tackle the case of strong material heterogeneities. Numerical procedures are specifically tailored to compute equivalent homogeneous strength criteria and to use them, in a second step, in a computation at the structural level. Finally, the potentialities of the yield design approach are illustrated on two complex engineering problems : the stability assessment of high-rise reinforced concrete panels in fire conditions and the computation of the Paris-Austerlitz railway station canopy
885

Mise au point d'un formalisme syntaxique de haut niveau pour le traitement automatique des langues / A high-level syntactic formalism for natural language processing

Kirman, Jerome 04 December 2015 (has links)
La linguistique informatique a pour objet de construire un modèle formel des connaissances linguistiques, et d’en tirer des algorithmes permettant le traitement automatique des langues. Pour ce faire, elle s’appuie fréquemment sur des grammaires dites génératives, construisant des phrases valides par l’application successive de règles de réécriture. Une approche alternative, basée sur la théorie des modèles, vise à décrire la grammaticalité comme une conjonction de contraintes de bonne formation, en s’appuyant sur des liens profonds entre logique et automates pour produire des analyseurs efficaces. Notre travail se situe dans ce dernier cadre. En s’appuyant sur plusieurs résultats existants en informatique théorique, nous proposons un outil de modélisation linguistique expressif, conçu pour faciliter l’ingénierie grammaticale. Celui-ci considère dans un premier temps la structure abstraite des énoncés, et fournit un langage logique s’appuyant sur les propriétés lexicales des mots pour caractériser avec concision l’ensemble des phrases grammaticalement correctes. Puis, dans un second temps, le lien entre ces structures abstraites et leurs représentations concrètes (en syntaxe et en sémantique) est établi par le biais de règles de linéarisation qui exploitent la logique et le lambda-calcul. Par suite, afin de valider cette approche, nous proposons un ensemble de modélisations portant sur des phénomènes linguistiques divers, avec un intérêt particulier pour le traitement des langages présentant des phénomènes d’ordre libre (c’est-à-dire qui autorisent la permutation de certains mots ou groupes de mots dans une phrase sans affecter sa signification), ainsi que pour leur complexité algorithmique. / The goal of computational linguistics is to provide a formal account linguistical knowledge, and to produce algorithmic tools for natural languageprocessing. Often, this is done in a so-called generative framework, where grammars describe sets of valid sentences by iteratively applying some set of rewrite rules. Another approach, based on model theory, describes instead grammaticality as a set of well-formedness logical constraints, relying on deep links between logic and automata in order to produce efficient parsers. This thesis favors the latter approach. Making use of several existing results in theoretical computer science, we propose a tool for linguistical description that is both expressive and designed to facilitate grammar engineering. It first tackles the abstract structure of sentences, providing a logical language based on lexical properties of words in order to concisely describe the set of grammaticaly valid sentences. It then draws the link between these abstract structures and their representations (both in syntax and semantics), through the use of linearization rules that rely on logic and lambda-calculus. Then in order to validate this proposal, we use it to model various linguistic phenomenas, ending with a specific focus on languages that include free word order phenomenas (that is, sentences which allow the free reordering of some of their words or syntagmas while keeping their meaning), and on their algorithmic complexity.
886

Massively Parallel Cartesian Discrete Ordinates Method for Neutron Transport Simulation / SN cartésien massivement parallèle pour la simulation neutronique

Moustafa, Salli 15 December 2015 (has links)
La simulation haute-fidélité des coeurs de réacteurs nucléaires nécessite une évaluation précise du flux neutronique dans le coeur du réacteur. Ce flux est modélisé par l’équation de Boltzmann ou équation du transport neutronique. Dans cette thèse, on s’intéresse à la résolution de cette équation par la méthode des ordonnées discrètes (SN) sur des géométries cartésiennes. Cette méthode fait intervenir un schéma d’itérations à source, incluant un algorithme de balayage sur le domaine spatial qui regroupe l’essentiel des calculs effectués. Compte tenu du très grand volume de calcul requis par la résolution de l’équation de Boltzmann, de nombreux travaux antérieurs ont été consacrés à l’utilisation du calcul parallèle pour la résolution de cette équation. Jusqu’ici, ces algorithmes de résolution parallèles de l’équation du transport neutronique ont été conçus en considérant la machine cible comme une collection de processeurs mono-coeurs indépendants, et ne tirent donc pas explicitement profit de la hiérarchie mémoire et du parallélisme multi-niveaux présents sur les super-calculateurs modernes. Ainsi, la première contribution de cette thèse concerne l’étude et la mise en oeuvre de l’algorithme de balayage sur les super-calculateurs massivement parallèles modernes. Notre approche combine à la fois la vectorisation par des techniques de la programmation générique en C++, et la programmation hybride par l’utilisation d’un support d’exécution à base de tâches: PaRSEC. Nous avons démontré l’intérêt de cette approche grâce à des modèles de performances théoriques, permettant également de prédire le partitionnement optimal. Par ailleurs, dans le cas de la simulation des milieux très diffusifs tels que le coeur d’un REP, la convergence du schéma d’itérations à source est très lente. Afin d’accélérer sa convergence, nous avons implémenté un nouvel algorithme (PDSA), adapté à notre implémentation hybride. La combinaison de ces techniques nous a permis de concevoir une version massivement parallèle du solveur SN Domino. Les performances de la partie Sweep du solveur atteignent 33.9% de la performance crête théorique d’un super-calculateur à 768 cores. De plus, un calcul critique d’un réacteur de type REP 900MW à 26 groupes d’énergie mettant en jeu 1012 DDLs a été résolu en 46 minutes sur 1536 coeurs. / High-fidelity nuclear reactor core simulations require a precise knowledge of the neutron flux inside the reactor core. This flux is modeled by the linear Boltzmann equation also called neutron transport equation. In this thesis, we focus on solving this equation using the discrete ordinates method (SN) on Cartesian mesh. This method involves a source iteration scheme including a sweep over the spatial mesh and gathering the vast majority of computations in the SN method. Due to the large amount of computations performed in the resolution of the Boltzmann equation, numerous research works were focused on the optimization of the time to solution by developing parallel algorithms for solving the transport equation. However, these algorithms were designed by considering a super-computer as a collection of independent cores, and therefore do not explicitly take into account the memory hierarchy and multi-level parallelism available inside modern super-computers. Therefore, we first proposed a strategy for designing an efficient parallel implementation of the sweep operation on modern architectures by combining the use of the SIMD paradigm thanks to C++ generic programming techniques and an emerging task-based runtime system: PaRSEC. We demonstrated the need for such an approach using theoretical performance models predicting optimal partitionings. Then we studied the challenge of converging the source iterations scheme in highly diffusive media such as the PWR cores. We have implemented and studied the convergence of a new acceleration scheme (PDSA) that naturally suits our Hybrid parallel implementation. The combination of all these techniques have enabled us to develop a massively parallel version of the SN Domino solver. It is capable of tackling the challenges posed by the neutron transport simulations and compares favorably with state-of-the-art solvers such as Denovo. The performance of the PaRSEC implementation of the sweep operation reaches 6.1 Tflop/s on 768 cores corresponding to 33.9% of the theoretical peak performance of this set of computational resources. For a typical 26-group PWR calculations involving 1.02×1012 DoFs, the time to solution required by the Domino solver is 46 min using 1536 cores.
887

Nouveaux composés photochimiques dédiés aux applications optiques non linéaires

Mançois, Fabien 18 December 2009 (has links)
Lors de ce travail de thèse, nous avons effectué des recherches sur des chromophores organiques. Notre étude s’est portée sur la commutation des propriétés optiques linéaires et non linéaires via l’étude d’interrupteurs organiques multi-adressables. Notre étude s’est portée plus particulièrement sur la famille des dérivés de l’indolino-oxazolidine. Ce type de molécule présente l’avantage d’avoir deux voix de commutations distinctes par photochromisme et acidochromisme. Nous avons recherché le lien entre la structure des molécules et leurs propriétés optiques par une étude combinée originale théorie/expérience avec l’utilisation de calculs quantiques sophistiqués et par diffusion hyper-Rayleigh de la lumière. / In this work we have investigated the commutation of linear and non linear optical properties in organic multifunctional switches. Indolino-oxazolidine compounds and their derivatives were chosen as example of multifunctional systems, because they combine both acidochromic and photochromic properties. The relationships between the molecular structure of these compounds and their optical properties were established by means of high level the quantum chemical approach and hyper-Rayleigh Scattering of light approaches.
888

Analyse de la diversité microbienne par séquençage massif : méthodes et applications / No title available

Taïb, Najwa 29 August 2013 (has links)
Les avancées des nouvelles techniques de séquençage (NGS) ont permis dans le cadre des études en écologie microbienne de passer de l'analyse de quelques centaines de séquences par étude à des centaines de millions de séquences. Cette différence quantitative des données produites a induit des différences qualitatives quant aux études réalisées. En effet, avec le changement du type de données, les approches classiques d'analyse ne peuvent être appliquées et il est devenu nécessaire de définir de nouvelles stratégies en tenant compte des contraintes que posent ces données. Alors qu'il était possible d'insérer classiquement quelques dizaines de séquences issues des techniques de première génération dans des phylogénies expertisées, le nombre de séquences généré aujourd'hui par les NGS à chaque expérience rend cette tâche irréalisable et nécessite la mise en place de nouvelles stratégies et l'utilisation d'outils adaptés. Par ailleurs, les outils disponibles d'analyse de la diversité microbienne adaptés aux amplicons de nouvelle génération, implémentent des approches probabilistes et/ou de recherche de similitude pour l'identification des séquences environnementales. L'approche phylogénétique quant à elle, bien qu'elle soit la plus robuste, n'est pas utilisée pour l'annotation taxonomique de ce type de données du fait de ses besoins en temps et en ressources de calcul. Au-delà de l'approche d'annotation taxonomique, les nouvelles techniques de séquençage posent également le problème de la qualité des séquences produites et son impact sur l'estimation de la diversité. Ainsi, ce travail de thèse avait pour objectif la définition d'une stratégie d'analyse bioinformatique de données de séquençage massif dans le contexte de l'étude de la diversité microbienne, en tenant compte des limitations imposées par les ressources informatiques actuelles (matérielles et logicielles) d'un côté, et de l'avantage des méthodes phylogénétiques par rapport aux autres approches d'annotation taxonomique. Ce travail a donné lieu au développement d'une chaîne de traitement proposant une série d'analyses allant des séquences brutes jusqu'à la visualisation des résultats, tout en replaçant les séquences environnementales dans un contexte évolutif. L'approche développée a été optimisée pour la gestion de gros volumes de données, et a été comparée en terme de précision d'affiliation aux autres approches communément utilisées en écologie microbienne. Les tests et simulations ont montré qu'à partir d'une taille d'amplicons de 400 pb, l'affiliation phylogénétique avait les meilleurs résultats mais aussi, que la qualité de cette affiliation différait selon la région hypervariable ciblée. La chaîne de traitements mise en place a ensuite été par implémentée dans un contexte de calcul à haute performance, notamment sur un cluster de calcul, pour proposer un service web dédié à l'analyse de la diversité microbienne. / The characterization of microbial community structure via SSU rRNA gene profiling has been greatly advanced in recent years by the introduction of NGS amplicons, leading to a better representation of sample diversity at a lower cost. This progress in method development has provided a new window into the composition of microbial communities and sparked interest in the members of the rare biosphere. Concurrently, the processing of such amount of data has become an important bottleneck for the effectiveness of microbial ecology studies, and a multitude of analysis platforms have been developed for the handling of these data. As implemented, these tools have a steep learning curve for the biologist who is not computationally inclined, as they require extensive user intervention and consume many CPU hours due to dataset analysis and complexity, which can present a significant barrier to researchers. Moreover, although phylogenetic affiliation has been shown to be more accurate for the taxonomic assignment of NGS reads, the existing tools assign taxonomy by either a similarity search or a probabilistic approach, with the phylogenies being restricted to samples' comparison. Beyond the taxonomic assignment, the new sequencing technologies also arise the problem of the quality of the generated sequences and its impact on the richness estimation. In this work, we aimed to define a strategy for the bioinformatic analysis of high-throughput sequences in order to depict the microbial diversity, taking into account both the limitations imposed by current computer resources (hardware and software), and the advantage of the phylogenetic methods over the other taxonomic annotation approaches. This work has led to the development of a pipeline offering a set of analyzes ranging from raw sequences processing to the visualization of the results, while replacing the environmental sequences in an evolutionary framework. The developed approach was optimized for managing large volumes of data, and has been compared in term of the accuracy of taxonomic assignment to the approaches commonly used in the field of microbial ecology. This pipeline was then used to the developement of a dedicated web server for high-throughput sequencing analysis, that relies on a computing cluster and performs large-scale phylogeny-based analyses of rRNA genes with no need for specialized informatics expertise, and uses the phylogenies for both the taxonomy assessment and the delineation of monophyletic groups to highlight clades of interest.
889

Energy consumption optimization of parallel applications with Iterations using CPU frequency scaling / Optimisation de la consommation énergétique des applications parallèles avec des itérations en utilisant réduisant la fréquence des processeurs

Fanfakh, Ahmed Badri Muslim 17 October 2016 (has links)
Au cours des dernières années, l'informatique “green” est devenue un sujet important dans le calcul intensif. Cependant, les plates-formes informatiques continuent de consommer de plus en plus d'énergie en raison de l'augmentation du nombre de noeuds qui les composent. Afin de minimiser les coûts d'exploitation de ces plates-formes de nombreuses techniques ont été étudiées, parmi celles-ci, il y a le changement de la fréquence dynamique des processeurs (DVFS en anglais). Il permet de réduire la consommation d'énergie d'un CPU, en abaissant sa fréquence. Cependant, cela augmente le temps d'exécution de l'application. Par conséquent, il faut trouver un seuil qui donne le meilleur compromis entre la consommation d'énergie et la performance d'une application. Cette thèse présente des algorithmes développés pour optimiser la consommation d'énergie et les performances des applications parallèles avec des itérations synchrones et asynchrones sur des clusters ou des grilles. Les modèles de consommation d'énergie et de performance proposés pour chaque type d'application parallèle permettent de prédire le temps d'exécution et la consommation d'énergie d'une application pour toutes les fréquences disponibles.La contribution de cette thèse peut être divisé en trois parties. Tout d'abord, il s'agit d'optimiser le compromis entre la consommation d'énergie et les performances des applications parallèles avec des itérations synchrones sur des clusters homogènes. Deuxièmement, nous avons adapté les modèles de performance énergétique aux plates-formes hétérogènes dans lesquelles chaque noeud peut avoir des spécifications différentes telles que la puissance de calcul, la consommation d'énergie, différentes fréquences de fonctionnement ou encore des latences et des bandes passantes réseaux différentes. L'algorithme d'optimisation de la fréquence CPU a également été modifié en fonction de l'hétérogénéité de la plate-forme. Troisièmement, les modèles et l'algorithme d'optimisation de la fréquence CPU ont été complètement repensés pour prendre en considération les spécificités des algorithmes itératifs asynchrones.Tous ces modèles et algorithmes ont été appliqués sur des applications parallèles utilisant la bibliothèque MPI et ont été exécutés avec le simulateur Simgrid ou sur la plate-forme Grid'5000. Les expériences ont montré que les algorithmes proposés sont plus efficaces que les méthodes existantes. Ils n’introduisent qu’un faible surcoût et ne nécessitent pas de profilage au préalable car ils sont exécutés au cours du déroulement de l’application. / In recent years, green computing has become an important topic in the supercomputing research domain. However, the computing platforms are still consuming more and more energy due to the increase in the number of nodes composing them. To minimize the operating costs of these platforms many techniques have been used. Dynamic voltage and frequency scaling (DVFS) is one of them. It can be used to reduce the power consumption of the CPU while computing, by lowering its frequency. However, lowering the frequency of a CPU may increase the execution time of the application running on that processor. Therefore, the frequency that gives the best trade-off between the energy consumption and the performance of an application must be selected.This thesis, presents the algorithms developed to optimize the energy consumption and theperformance of synchronous and asynchronous message passing applications with iterations runningover clusters or grids. The energy consumption and performance models for each type of parallelapplication predicts its execution time and energy consumption for any selected frequency accordingto the characteristics of both the application and the architecture executing this application.The contribution of this thesis can be divided into three parts: Firstly, optimizing the trade-offbetween the energy consumption and the performance of the message passing applications withsynchronous iterations running over homogeneous clusters. Secondly, adapting the energy andperformance models to heterogeneous platforms where each node can have different specificationssuch as computing power, energy consumption, available frequency gears or network’s latency andbandwidth. The frequency scaling algorithm was also modified to suit the heterogeneity of theplatform. Thirdly, the models and the frequency scaling algorithm were completely rethought to takeinto considerations the asynchronism in the communication and computation. All these models andalgorithms were applied to message passing applications with iterations and evaluated over eitherSimGrid simulator or Grid’5000 platform. The experiments showed that the proposed algorithms areefficient and outperform existing methods such as the energy and delay product. They also introducea small runtime overhead and work online without any training or profiling.
890

Optimisation des plans de traitement en radiothérapie grâce aux dernières techniques de calcul de dose rapide / Optimization in radiotherapy treatment planning thanks to a fast dose calculation method

Yang, Ming Chao 13 March 2014 (has links)
Cette thèse s'inscrit dans la perspective des traitements de radiothérapie en insistant sur la nécessité de disposer d’un logiciel de planification de traitement (TPS) rapide et fiable. Le TPS est composé d'un algorithme de calcul de dose et d’une méthode d’optimisation. L'objectif est de planifier le traitement afin de délivrer la dose à la tumeur tout en sauvegardant les tissus sains et sensibles environnant. La planification des traitements consiste à déterminer les paramètres d’irradiation les mieux adaptés au patient. Dans le cadre de cette thèse, les paramètres d'un traitement par RCMI (Radiothérapie Conformationnelle avec Modulation d'Intensité) sont la position de la source, les orientations des faisceaux et, pour chaque faisceau composé de faisceaux élémentaires, la fluence de ces derniers. La fonction objectif est multicritère en associant des contraintes linéaires. L’objectif de la thèse est de démontrer la faisabilité d'une méthode d'optimisation du plan de traitement fondée sur la technique de calcul de dose rapide développée par (Blanpain, 2009). Cette technique s’appuie sur un fantôme segmenté en mailles homogènes. Le calcul de dose s’effectue en deux étapes. La première étape concerne les mailles : les projections et pondérations y sont paramétrées en fonction de critères physiques et géométriques. La seconde étape concerne les voxels: la dose y est calculée en évaluant les fonctions préalablement associées à leur maille.Une reformulation de cette technique permet d’aborder le problème d’optimisation par la méthode de descente de gradient. L’optimisation en continu des paramètres du traitement devient envisageable. Les résultats obtenus dans le cadre de cette thèse ouvrent de nombreuses perspectives dans le domaine de l’optimisation des plans de traitement en radiothérapie. / This thesis deals with the radiotherapy treatments planning issue which need a fast and reliable treatment planning system (TPS). The TPS is composed of a dose calculation algorithm and an optimization method. The objective is to design a plan to deliver the dose to the tumor while preserving the surrounding healthy and sensitive tissues.The treatment planning aims to determine the best suited radiation parameters for each patient’s treatment. In this thesis, the parameters of treatment with IMRT (Intensity modulated radiation therapy) are the beam angle and the beam intensity. The objective function is multicritiria with linear constraints.The main objective of this thesis is to demonstrate the feasibility of a treatment planning optimization method based on a fast dose-calculation technique developed by (Blanpain, 2009). This technique proposes to compute the dose by segmenting the patient’s phantom into homogeneous meshes. The dose computation is divided into two steps. The first step impacts the meshes: projections and weights are set according to physical and geometrical criteria. The second step impacts the voxels: the dose is computed by evaluating the functions previously associated to their mesh.A reformulation of this technique makes possible to solve the optimization problem by the gradient descent algorithm. The main advantage of this method is that the beam angle parameters could be optimized continuously in 3 dimensions. The obtained results in this thesis offer many opportunities in the field of radiotherapy treatment planning optimization.

Page generated in 0.0475 seconds