• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 184
  • 85
  • 12
  • 1
  • 1
  • Tagged with
  • 272
  • 93
  • 73
  • 60
  • 57
  • 46
  • 44
  • 38
  • 37
  • 36
  • 33
  • 32
  • 32
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Contribution à la conception et l'optimisation des systèmes haptiques / Contribution to the design and optimization of haptic systems

Chaker, Abdelbadia 26 November 2012 (has links)
L'objectif de ce travail est de concevoir une nouvelle interface haptique en vue de son exploitation pour la chirurgie mini-invasive. La technique d'anastomose ciblée consiste à réunir deux parties désolidarisées d'une artère par des sutures et des nœuds. Ceci est effectué par des outils chirurgicaux introduits à travers de petites incisions. Une étude expérimentale de cette tâche a été effectuée en collaboration avec des chirurgiens afin de caractériser leurs gestes. L'enregistrement de l'opération par un système de capture de mouvement a permis d'identifier la nature et les gestes canoniques de cette technique. Une structure parallèle sphérique a été ensuite adoptée comme base de l'interface haptique. Cette architecture présente un centre fixe de rotation semblable au point d'incision réel et offre les trois degrés de liberté de rotation nécessaires autours de ce point. Une étude détaillée de cette architecture suivie d'une phase d'optimisation, a permis d'adapter la structure à l'application chirurgicale. L'optimisation, basée sur un algorithme générique, a porté dans un premier lieu sur l'espace de travail de la tâche. La dextérité de la structure a été ensuite prise en compte. Une phase de conception basée sur les paramètres résultants de cette optimisation a aboutie à la réalisation d'un premier prototype. L'influence des erreurs de fabrication sur l'orientation de la plateforme a été aussi traitée dans ce travail afin de déterminer les plages des défauts admissibles. Une modélisation, utilisant les torseurs de petits déplacements, a été élaborée.La dernière partie de ce travail porte sur la commande a retour d'effort de l'interface. Un banc d'essais à 1 degré de liberté a été réalisé afin de tester les différents schémas de contrôle pour la téléopération. Les essais en simulation on permit de dresser une vue comparative de ces schémas. / The aim of this work is to develop a new haptic interface to perform a minimally invasive surgery. The targeted anastomosis technique consists of the surgical binding of a ruptured blood vessel, using sutures and knots. This task is performed by surgical tools inserted through small incisions. An experimental study of this task was conducted in collaboration with surgeons in order to characterize their gesture. The recording of the operation by a motion capture system helped identifying the nature and the canonical actions of this technique. A spherical parallel mechanism (SPM) was then adopted as a basis for the haptic interface. This architecture has a fixed center of rotation similar to the real incision point and offers the three required degrees of freedom of rotation around that point. A detailed study of the architecture followed by an optimization procedure led to a suitable mechanism for the surgical application. The optimization, which is based on a generic algorithm, used the workspace of the task as a criterion. Then the dexterity of the structure was taken into account. A design phase based on the parameters resulting from this optimization led to building the first prototype.The influence of manufacturing errors on the orientation of the platform was also addressed in this work to determine the ranges of allowable defects. The manufacturing errors are modeled by screws of small displacement in order to determine their effect on the orientation error of the end effector. The last part of this work focuses on the command of the force feedback interface. An experimental setup made out of a one degree of freedom system, was built to test different control schemes for teleoperation. Simulation trials allowed developing a comparative view of these schemes.
222

Large eddy simulations of a dual-stream jet with shockcells and noise emission analysis / Simulations numériques des grandes échelles d'un jet double flux en présence de cellules de choc et analyse des émissions acoustiques

Pérez Arroyo, Carlos 02 November 2016 (has links)
Cette thèse fait référence au bruit de choc généré par des jets sousdétendus simple ou en configuration co-axial. Le bruit de choc est généré par l'interaction entre les structures turbulentes de la couche de cisaillement et le réseaux de cellules de choc développé dans le cône potentiel du jet. Afin d'étudier le bruit choc, simulations à grandes échelles adaptés pour l'aéro-acoustique sont effectué avec des schémas d'ordre élevé qui permet une approche nondissipative et non-dispersive. Les résultats sont analysés et comparés avec des résultats expérimentaux. Notamment, une filtrage hydrodynamique et acoustique est réalisé dans le champ proche pour analyser les modes azimutaux acoustiques et hydrodynamiques. En outre, un analyse basé sur la transformé en ondelettes est mis en oeuvre pour identifier les caractéristiques acoustiques et hydrodynamiques importants des jets supersoniques. / This thesis deals with the shock-cell noise generated by under-expanded supersonic jets in single- and dualstream configurations. Shock-cell noise is generated by the interaction between the turbulent structures of the shear-layer and the shock-cell system developed in the potential core of the jet. In order to study shock-cell noise, large eddy simulations adapted to aeroacoustics are carried out using high-order compact schemes that allow for a non-dissipative nondispersive approach. The results are analyzed and compared to experimental results. In particular, an acoustic-hydrodynamic filtering is carried out in the near field in order to analyze the acoustic and hydrodynamic azimuthal modes. Moreover, a wavelet-based analysis is implemented in order to identify the relevant acoustic and hydrodynamic features of the supersonic jets.
223

High-order numerical methods for unsteady flows around complex geometries / Méthodes numériques d'ordre élevé pour des écoulements instationnaires autour de géométries complexes

Vanharen, Julien 16 May 2017 (has links)
Dans ce travail, on s'intéresse aux méthodes numériques d'ordre élevé pour des écoulements instationnaires autour de géométries complexes. On commence par analyser l'approche hybride pour la méthode industrielle des Volumes Finis à l'ordre faible. Cela consiste à calculer en même temps sur des maillages structurés et non structurés avec des schémas numériques dédiés. Les maillages structurés et non structurés sont ensuite couplés par un raccord non conforme. Ce dernier est analysé en détails avec une attention particulière pour des écoulements instationnaires. On montre qu'un traitement dédié à l'interface empêche la réflexion d'ondes parasites. De plus, l'approche hybride est validée sur plusieurs cas académiques à la fois pour les flux convectifs et pour les flux diffusifs. L'extension de cette approche hybride à l'ordre élevé est limitée par l'efficacité des schémas non structurés d'ordre élevé en terme de temps de calcul. C'est pourquoi une nouvelle approche est explorée : la méthode des différences spectrales. Un nouveau cadre est spécialement développé pour réaliser l'analyse spectrale des méthodes spectrales discontinues. La méthode des différences spectrales semble être une alternative viable en terme de temps de calcul et de nombre de points par longueur d'onde nécessaires à une application donnée pour capturer la physique de l'écoulement. / This work deals with high-order numerical methods for unsteady flows around complex geometries. In order to cope with the low-order industrial Finite Volume Method, the proposed technique consists in computing on structured and unstructured zones with their associated schemes: this is called a hybrid approach. Structured and unstructured meshes are then coupled by a nonconforming grid interface. The latter is analyzed in details with special focus on unsteady flows. It is shown that a dedicated treatment at the interface avoids the reflection of spurious waves. Moreover, this hybrid approach is validated on several academic test cases for both convective and diffusive fluxes. The extension of this hybrid approach to high-order schemes is limited by the efficiency of unstructured high-order schemes in terms of computational time. This is why a new approach is explored: The Spectral Difference Method. A new framework is especially developed to perform the spectral analysis of Spectral Discontinuous Methods. The Spectral Difference Method seems to be a viable alternative in terms of computational time and number of points per wavelength needed for a given application to capture the flow physics.
224

Efficient computation with structured matrices and arithmetic expressions / Calcul efficace avec des matrices structurées et des expressions arithmétiques

Mouilleron, Christophe 04 November 2011 (has links)
Le développement de code efficace en pratique pour effectuer un calcul donné est un problème difficile. Cette thèse présente deux situations où nous avons été confronté à ce problème. La première partie de la thèse propose des améliorations au niveau algorithmique dans le cadre de l'algèbre linéaire structurée. Nous montrons d'abord comment étendre un algorithme de Cardinal pour l'inversion de matrices de type Cauchy afin de traiter les autres structures classiques. Cette approche, qui repose essentiellement sur des produits de type « matrice structurée × matrice », conduit à une accélération d'un facteur allant jusqu'à 7 en théorie et constaté en pratique. Ensuite, nous généralisons des travaux sur les matrices de type Toeplitz afin de montrer comment, pour les structures classiques, calculer le produit d'une matrice structurée n×n et de rang de déplacement α par une matrice n×α en Õ(α^(ω-1)n). Cela conduit à des algorithmes en Õ(α^(ω-1)n) pour l'inversion de matrices structurées, sans avoir à passer par des matrices de type Toeplitz. La deuxième partie de la thèse traite de l'implantation d'expressions arithmétiques. Ce sujet soulève de nombreuses questions comme le nombre d'opérations minimum, la vitesse, ou encore la précision des calculs en arithmétique approchée. En exploitant la nature inductive des expressions arithmétiques, il est possible de développer des algorithmes aidant à répondre à ces questions. Nous présentons ainsi plusieurs algorithmes de génération de schémas d'évaluation, de comptage et d'optimisation selon un ou plusieurs critères. Ces algorithmes ont été implanté dans une librairie qui a en autre été utilisée pour accélérer un logiciel de génération de code pour une librairie mathématique, et pour étudier des questions d'optimalité pour le problème de l'évaluation d'un polynôme à coefficients scalaires de petit degré en une matrice. / Designing efficient code in practice for a given computation is a hard task. In this thesis, we tackle this issue in two different situations. The first part of the thesis introduces some algorithmic improvements in structured linear algebra. We first show how to extend an algorithm by Cardinal for inverting Cauchy-like matrices to the other common structures. This approach, which mainly relies on products of the type "structured matrix × matrix", leads to a theoretical speed-up of a factor up to 7 that we also observe in practice. Then, we extend some works on Toeplitz-like matrices and prove that, for any of the common structures, the product of an n×n structured matrix of displacement rank α by an n×α matrix can be computed in Õ(α^(ω-1)n). This leads to direct inversion algorithms in Õ(α^(ω-1)n) , that do not rely on a reduction to the Toeplitz-like case. The second part of the thesis deals with the implementation of arithmetic expressions. This topic raises several issues like finding the minimum number of operations, and maximizing the speed or the accuracy when using some finite-precision arithmetic. Making use of the inductive nature of arithmetic expressions enables the design of algorithms that help to answer such questions. We thus present a set of algorithms for generating evaluation schemes, counting them, and optimizing them according to one or several criteria. These algorithms are part of a library that we have developed and used, among other things, in order to decrease the running time of a code generator for a mathematical library, and to study optimality issues about the evaluation of a small degree polynomial with scalar coefficients at a matrix point.
225

Modèles eulériens et simulation numérique de la dispersion turbulente de brouillards qui s'évaporent / Eulerian modeling and evaporating spray turbulent dispersion simulation

Chaisemartin, Stéphane de 20 March 2009 (has links)
Le modèle multi-fluide permet de décrire par une approche Eulérienne les sprays polydispersés et apparaît donc comme une méthode indiquée pour les applications de combustion diphasique. Sa pertinence pour la simulation à l’échelle d’applications industrielles est évaluée dans ce travail, par sa mise en oeuvre dans des configurations bi-dimensionnelle et tri-dimensionnelle plus représentatives de ce type de simulations. Cette évaluation couple une étude de faisabilité en terme de coût de calcul avec une analyse de la précision obtenue, par des comparaisons avec les résultats de méthodes de références pour la description des sprays. Afin de définir une telle référence, une hiérarchisation des modèles de spray est proposée dans ce travail, soulignant les niveaux de modélisation associée aux diverses méthodes. Une première configuration d’écoulements tourbillonnaires est utilisée pour caractériser la méthode multi-fluide. L’étude de la structure mathématique du système de lois de conservation permet d’analyser la formation de singularités et de fournir les outils permettant d’évaluer leur impact sur la modélisation. Cette étude permet également de dériver un schéma numérique robuste et efficace pour des configurations bi- et tri-dimensionnelle. La description des dynamiques de gouttes conditionnées par la taille est évaluée dans ces configurations tourbillonnaires au moyen de comparaisons quantitatives, sur des champs instantanés, où le multi-fluide est confronté à une méthode Lagrangienne, ainsi qu’à des résultats expérimentaux. Afin d’évaluer le comportement de la méthode multi-fluide dans des configurations plus représentatives des problématiques industrielles, le solveur MUSES3D est développé, permettant, entre autres, une évaluation fine des méthodes de résolution des sprays. Une implémentation originale de la méthode multi-fluide, conciliant généricité et efficacité pour le calcul parallèle, est réalisée. Le couplage de ce solveur avec le code ASPHODELE, développé au CORIA, permet d’effectuer une évaluation opérationnelle des approches Euler/Lagrange et Euler/Euler pour la description des écoulements diphasiques à inclusions dispersées. Finalement, le comportement de la méthode multi-fluide dans des jets bi-dimensionnels et dans une turbulence homogène isotrope tri-dimensionnelle permet de montrer sa précision pour la description de la dynamique de sprays évaporant dans des configurations plus complexes. La résolution de la polydispersion du spray permet de décrire précisément la fraction massique de combustible en phase vapeur, un élément clé pour les applications de combustion. De plus, l’efficacité du calcul parallèle par décomposition de domaine avec la méthode multi-fluide permet d’envisager son utilisation à l’échelle d’applications industrielles. / The multi-fluid model, providing a Eulerian description of polydisperse sprays, appears as an interesting method for two-phase combustion applications. Its relevance as a numerical tool for industrial device simulations is evaluated in this work. This evaluation assesses the feasibility of multi-fluid simulations in terms of computational cost and analyzes their precision through comparisons with reference methods for spray resolution. In order to define such a reference, the link between the available methods for spray resolution is provided, highlighting their corresponding level of modeling. A first framework of 2-D vortical flows is used to assess the mathematical structure of the multi-fluid model governing system of equations. The link between the mathematical peculiarities and the physical modeling is provided, and a robust numerical scheme efficient for 2-D/3-D configurations is designed. This framework is also used to evaluate the multi-fluid description of evaporating spray sizeconditioned dynamics through quantitative, time-resolved, comparisons with a Lagrangian reference and with experimental data. In order to assess the multi-fluid efficiency in configurations more representative of industrial devices, a numerical solver is designed, providing a framework devoted to spray method evaluation. An original implementation of the multifluid method, combining genericity and efficiency in a parallel framework, is achieved. The coupling with a Eulerian/Lagrangian solver for dispersed two-phase flows, developed at CORIA, is conducted. It allows a precise evaluation of Euler/Lagrange versus Euler/Euler approaches, in terms of precision and computational cost. Finally, the behavior of the multi-fluid model is assessed in 2D-jets and 3-D Homogeneous Isotropic Turbulence. It illustrates the ability of the method to capture evaporating spray dynamics in more complex configurations. The method is shown to describe accurately the fuel vapor mass fraction, a key issue for combustion applications. Furthermore, the method is shown to be efficient in domain decomposition parallel computing framework, a key issue for simulations at the scale of industrial devices.
226

Méthode de décomposition de domaine avec parallélisme hybride et accélération non linéaire pour la résolution de l'équation du transport Sn en géométrie non-structurée / Domain decomposition method using a hybrid parallelism and a low-order acceleration for solving the Sn transport equation on unstructured geometry

Odry, Nans 07 October 2016 (has links)
Les schémas de calcul déterministes permettent une modélisation à moindre coût du comportement de la population de neutrons en réacteur, mais sont traditionnellement construits sur des approximations (décomposition réseau/cœur, homogénéisation spatiale et énergétique…). La thèse revient sur une partie de ces sources d’erreur, de façon à rapprocher la méthode déterministe d’un schéma de référence. L’objectif est de profiter des architectures informatiques modernes (HPC) pour résoudre le problème neutronique à l’échelle du cœur 3D, tout en préservant l’opérateur de transport et une partie des hétérogénéités de la géométrie. Ce travail est réalisé au sein du solveur cœur Sn Minaret de la plateforme de calcul Apollo3® pour des réacteurs à neutrons rapides.Une méthode de décomposition de domaine en espace, est retenue. L'idée consiste à décomposer un problème de grande dimension en sous-problèmes "indépendants" de taille réduite. La convergence vers la solution globale est assurée par échange de flux angulaires entre sous-domaines au cours d'un processus itératif. En favorisant un recours massif au parallélisme, les méthodes de décomposition de domaine contribuent à lever les contraintes en mémoire et temps de calcul. La mise en place d'un parallélisme hybride, couplant les technologies MPI et OpenMP, est en particulier propice au passage sur supercalculateur. Une méthode d'accélération de type Coarse Mesh Rebalance  est ajoutée pour pallier à la pénalité de convergence constatée sur la méthode de décomposition de domaine. Le potentiel du nouveau schéma est finalement mis en évidence sur un coeur CFV 3D, construit en préservant l'hétérogénéité des assemblages absorbants. / Deterministic calculation schemes are devised to numerically solve the neutron transport equation in nuclear reactors. Dealing with core-sized problems is very challenging for computers, so much that the dedicated core codes have no choice but to allow simplifying assumptions (assembly- then core-scale steps…). The PhD work aims to correct some of these ‘standard’ approximations, in order to get closer of reference calculations: thanks to important increases in calculation capacities (HPC), nowadays one can solve 3D core-sized problems, using both high mesh refinement and the transport operator. Developments were performed inside the Sn core solver Minaret, from the new CEA neutronics platform Apollo3® for fast neutrons reactors of the CFV-kind.This work focuses on a Domain Decomposition Method in space. The fundamental idea involves splitting a core-sized problem into smaller and 'independent' subproblems. Angular flux is exchanged between adjacent subdomains. In doing so, all combined subproblems converge to the global solution at the outcome of an iterative process. Domain decomposition is well-suited to massive parallelism, allowing much more ambitious computations in terms of both memory requirements and calculation time. An hybrid MPI/OpenMP parallelism is chosen to match the supercomputers architecture. A Coarse Mesh Rebalance accelration technique is added to balance the convergence penalty observed using Domain Decomposition. The potential of the new calculation scheme is demonstrated on a 3D core of the CFV-kind, using an heterogeneous description of the absorbent rods.
227

L'argumentation sur des questions socio-scientifiques : l'influence des contextes culturels dans la prise de décisions / The argumentation about socio-scientific issues : the influence of cultural contexts in decision making

Gutierrez Romero, Mario Fernando 12 July 2016 (has links)
Cette thèse a pour objet d’analyser, chez des étudiants colombiens, la compétence qu’ils ont à argumenter lorsqu’ils doivent prendre des décisions sur des projets agro-miniers, et l'impact qu'auraient leur origine ethnique et leur niveau éducatif dans leur manière de réfléchir sur ces sujets. On analyse en particulier l'argumentation sur les problématiques socio-scientifiques que soutiennent les étudiants colombiens de lycée et d'université, issus de deux contextes sociaux et culturels différents. Poser des problèmes en rapport avec la science et la société à des étudiants colombiens, c'est reconnaître à l'avance le discours argumentatif comme une composante primordiale du programme d'études national colombien pour la construction de l'identité du futur citoyen. L’argumentation devient un outil fondamental pour prendre part aux discussions qui, dans le cadre social, ont des implications sur la science et la technologie dans la société actuelle.La première partie a eu pour but de faire un panorama général des avancées théoriques et empiriques autour de l'argumentation et d'expliciter nos choix théoriques. En parcourant diverses recherches, les antécédents théoriques du travail empirique effectué autour de la psychologie, de l'éducation et l'argumentation socio-scientifique ont été examinés. Enfin, dans cette partie les modèles psychologiques et linguistiques qui permettent d'expliquer l'analyse argumentative de l'émotion ont été examinés.Dans la deuxième partie la population indigène colombienne a été caractérisée, et en particulier la population Nasa-Kiwe (Páez) caractéristiques prédominantes, sa localisation géographique ainsi que la langue Páez, le Nasaywe. L'histoire de la Colombie a été parcourue pour offrir des éléments suffisants à la compréhension des questions socio-scientifiques utilisées dans cette recherche. Les sujets qui ont participé à l’expérimentation ont été introduits ainsi que toutes les caractéristiques qui s'avèrent pertinentes, pour rendre compte de leur origine et de leur nature. La tâche qui leur a été présentée et qui a permis d'obtenir le corpus soumis à l’analyse a aussi été introduite. Finalement dans la deuxième partie, on a détaillé le corpus de cette recherche et on a fourni des statistiques et des graphiques pour le présenter globalement. La troisième partie, regroupe les chapitres analytiques. L’analyse interactionnelle du discours de la communauté indigène a mis en évidence des traces d’un discours collaboratif où le raisonnement logique, l’agentivité, l’analyse morale et les références à des espaces cosmiques ont été évoqués pour justifier des arguments. On a retrouvé aussi une demande revendicative sur les droits des indigènes, défendue par des arguments émotionnels qui rappellent la situation de l’agression vécue historiquement par les communautés indigènes en Amérique latine. Une agression que reconnaît la communauté non ethnique indépendamment du niveau scolaire. Au sein du corpus de la population urbaine, aucune cosmogonie spécifique ni religieuse n’ont été retrouvées. L’analyse a été menée essentiellement par le biais de l’argumentation par conséquences employée pour rendre compte des risques de l’exploitation et de l’utilisation des ressources naturelles du pays pour l’environnement et pour la culture indigène. Le tout, en situant la population indigène comme démunie face aux menaces et aux agressions de l’environnement. En tant que but ultime d’une grande partie des arguments, on retrouve l’intérêt de sauvegarde de la Terre Mère (depuis la perspective indigène), ou celui de la préservation de l’environnement (depuis le point de vue urbain), puisque celui-ci est mis en péril sous la pression d’acteurs motivés par des modèles économiques d’exploitation qui diffèrent considérablement de ceux des communautés autochtones. / This thesis has the objective of analyzing the argumentative competence in Colombian students, when they must make decisions pertaining to agricultural mining projects and the impact that their ethnic origin and educational level have on their way of thinking about these topics. In particular special analysis is made in the argumentation of social scientific problematics that Colombian high school and university students sustain, who pertain to two different social contexts and cultures. The first part of this thesis had the aim of giving a panoramic view of the theoretical and empirical advances in relation to the study of argumentation and to express our theoretical opinions. The theoretical background of the empirical work was examined by way of diverse investigations. Lastly, psychological and linguistic models were considered to explain the analytical argumentation of the emotions.In the second part a detailed characterization of the Colombian Indian population was made, in particular of the Nasa-Kiwe (Páez) population. Their predominant characteristics were presented, their geographic location and a presentation of the Páez language, Nasaywe. The history of Colombia was described to offer an understanding of the social-scientific problematics utilized in this investigation. The individuals implicated in the experiment and all of the characteristics that resulted relevant in describing their origin and character, as well as the task that was presented to them and has allowed the presentation of the body of this investigation; as well as the statistics and graphics that allow a more global presentation of the findings.The third part of the investigation contains the analytical chapters. The interactional analysis of the discourse of the indigenous community highlights a collaborative discourse in which rational logic, agentivity, moral analysis and cosmic references are evoked to justify arguments. Also, a vindicated demand in relation to indigenous rights was found; these demands were defended by emotional arguments that made reference to aggressions experienced historically by the indigenous communities in Latin America. An aggression that recognizes the ethnic community, all though not independently of the educational level.In the majority of the urban population, there was no specific cosmogony or religion found. The analysis was principally realized through the argumentation of consequences, which was used to reflect the risks in relation to the environment and for the indigenous culture, specifically exploitation and the utilization of natural resources. All of the subjects situated the indigenous population as defenseless in the face of the aggressions to the environment. The final objective of many of the arguments was the protection of Mother Earth (from an indigenous perspective), or the preservation of the environment (from an urban point of view), now that the possibility of its disappearance is daunting in light of the different actors who are motivated by the economic exploitation in contrast of the perspective maintained by the indigenous communities.
228

Schémas d'ordre élevé pour des simulations réalistes en électrophysiologie cardiaque / High order schemes for realistic simulations in cardiac electrophysiology

Douanla Lontsi, Charlie 15 November 2017 (has links)
Les simulations numériques réalistes en électrophysiologie cardiaque ont un coût de calcul extrêmement élevé. Ce coût s’explique en grande partie par la raideur, à la fois en temps et en espace, d’une onde de « potentiel d’action » (PA). Par ailleurs, les phénomènes observés sont très instationnaires et s’étudient en temps long. Une description précise de la dynamique des PA est cruciale pour construire des modèles numériques pertinents d’un point de vue médical ou clinique. Cet aspect fondamental ne peut être contourné dans les études numériques réalistes.La raideur de l’onde de PA ne peut être captée numériquement qu’en ayant recours à des maillages très fins. Ces maillages très fins induisent un coût de calcul très important, et introduisent aussi des erreurs supplémentaires : les systèmes linéaires à résoudre deviennent très mal conditionnés. Au final, les erreurs numériques peuvent être particulièrement grandes dans les simulations alors que leur contrôle est évidemment essentiel pour assurer la fiabilité des résultats. Jusqu’à présent, très peu de résultats sont disponibles pour assurer cette fiabilité. Dans les faits, les erreurs sont la plupart du temps contrôlées par des procédés empiriques. Il existe quelques résultats théoriques étudiant la convergence et la stabilité des schémas numériques associés. En pratique, en plus d'avoir un contrôle de l'erreur sur le potentiel, il est aussi nécessaire d'avoir un contrôle de l’erreur sur des quantités macroscopiques décrivant la dynamique de l’onde de PA : temps d’activation, durée du PA, propriétés de restitution... Ces quantités ont en effet une interprétation physiologique qui permet de caractériser le caractère arythmogène des tissus.Les modèles sont des systèmes d’EDP de réaction-diffusion couplés avec des systèmes d’équations différentielles pouvant être très raides, les modèles ioniques. Ils sont actuellement discrétisés par éléments finis conforme (Lagrange) et par des schémas en temps d’ordre un ou deux. Dans ce travail, nous concevons et évaluons l’intérêt d'utiliser des méthodes d’ordre supérieure pour ces systèmes. Parallèlement nous introduisons d'une part une nouvelle classe de schémas appelé schémas exponentiel Adams Bashforth intégral (IEAB), et d'autre part des schémas Rush Larsen (RL) d'ordre élevé. Ces nouveaux schémas sont des schémas multipas de type exponentiels. Nous montrons qu'ils possèdent des bonnes propriétés de stabilité et permettent de faire face efficacement à la raideur des modèles ioniques. Les schémas que nous proposons sont comparés numériquement (en terme de précision, coût en temps de calcul et stabilité) à plusieurs schémas classiques, ainsi qu'aux schémas exponentiels (RL1, RL2) communément utilisés pour des simulations en électrophysiologie cardiaque. Nous proposons des techniques permettant de calculer avec précision les quantités d’intérêts cliniques (temps d’activation, de récupération, durée du potentiel d’action). Des résultats théoriques de convergence en temps et de convergence globale (espace et temps) sont énoncés et prouvés. Ces résultats sont ensuite illustrés numériquement à travers le modèle monodomaine et les modèles ioniques de Beeler Reuter, de Ten Tusscher et al. L’intérêt d'utiliser des schémas d'ordre élevés est aussi évalué sur des ondes spirales en 2D et 3D. / Realistic numerical simulations in cardiac electrophysiology have a computational cost of extremely high. This cost is largely explained by the stiffness both in time and space, of the action potential (AP) wave. Moreover, the observed phenomena are very unsteady and are studied in long time. A precise description of the dynamic of AP is crucial for constructing relevant numerical models, from a medical or clinical perspective. This fundamental aspect can not be circumvented in realistic numerical studies.The stiffness of AP wave can only be captured numerically, by using very fine meshes. In addition to the high computational cost, these very fine meshes also introduce additional errors : the linear systems to solve become very badly conditioned. In the end, the numerical errors can be particularly large whereas their control is obviously essential to ensure the reliability of the results. So far very few results are available to ensure this reliability. In practice, the errors are mostly controlled by empirical processes. In practice, in addition of having a control of the error on the potential, it is also necessary to have an error control on macroscopic quantities describing the dynamics of the AP wave : activation time, AP duration, properties of restitution ... These quantities have indeed a physiological interpretation which allows to characterize the arrhythmogenic character of the tissues.The models are systems of reaction diffusion PDE coupled with systems of differential equations that can be very stiffs (ionic models). They are currently discretized by conforming finite elements (Lagrange finite elements methods) and by schemes in time of order one or two. In this work, we design and evaluate the interest of using higher order methods for these systems. At the same time, we introduce on the one hand, a new class of schemes called Integral Exponential Adams Bashforth (IEAB) schemes and, on the other hand, high order Rush Larsen (RL) schemes. These new schemes are exponential time-stepping schemes. We show that they have good stability properties and can efficiently cope with the stiffness of ionic models. The schemes we propose are numerically compared (in terms of accuracy, CPU time and stability) with several classical schemes, as well as with the exponential schemes (RL1, RL2), commonly used for cardiac electrophysiology simulations. We propose good techniques for accurately calculating quantities of clinical interest (activation time, recovery time, duration of action potential). Theoretical results of convergence in time and global convergence (in space and time) are stated and proved. These results are then illustrated numerically through the monodomain model and the ionic models of Beeler Reuter, Ten Tusscher et al. The advantage of using high order schemes is also evaluated on spiral waves in 2D and 3D.
229

Couplages instationnaires de la vapeur humide dans les écoulements de turbines à vapeur

Blondel, Frédéric 17 January 2014 (has links)
Le bon fonctionnement et les performances des turbines à vapeur sont liés à l’état de la vapeur et notamment au taux d’humidité qu’elle contient. EDF souhaite pouvoir maîtriser les phénomènes spécifiques à ces problématiques afin d’améliorer l’utilisation et l’évolution de ses turbines. Le sujet de recherche concerne la modélisation de la formation de l’humidité dans un corps de turbine et l’étude des couplages entre la phase liquide et les instationnarités. Dans ce contexte, la démarche adoptée est la suivante : la présence d’humidité est prise en compte à l’aide d’un modèle homogène, couplé à des modèles de condensation permettant de prendre en compte les phénomènes hors-équilibre thermodynamique : le grossissement et la nucléation des gouttes d’eau dans la vapeur. Pour mener à bien les calculs, des méthodes numériques adaptées aux gaz réels ont été utilisées et testées à l’aide d’un code monodimensionnel avant d’être intégrées dans le code 3D elsA. Deux types de modèles de condensation ont été mis en œuvre, considérant ou non la polydispersion des gouttes dans la vapeur. Les couplages instationnaires entre la condensation et l’écoulement principal ont été étudiés à différents niveaux d’observations (1D, 1D − 3D, 3D). Il a été montré que la méthode des moments apporte une richesse supplémentaire par rapport à un modèle mono-dispersé, et permet de mieux capter les couplages instationnaires entre l’humidité et le champ principal. / In addition to conventional turbomachinery problems, both the behavior and performances of steam turbines are highly dependent on the vapour thermodynamic state and the presence of a liquid phase. EDF, the main French electricity producer, is interested in further developing its’ modelling capabilities and expertise in this area to allow for operational studies and long-term planning. This PhD thesis explores the modelling of wetness formation and growth in a steam turbine and an analysis of the coupling between the liquid phase and the main flow unsteadiness. To this end, the work in this thesis took the following approach. Wetness was accounted for using a homogeneous model coupled with transport equations to take into account the effects of non-equilibrium phenomena, such as the growth of the liquid phase and nucleation. The real gas attributes of the problem demanded adapted numerical methods. Before their implementation in the 3D elsA solver, the accuracy of the chosen models was tested using a developed one-dimensional nozzle code. In this manner, various condensation models were considered, including both polydispersed and monodispersed behaviours of the steam. Finally, unsteady coupling effects were observed from several perspectives (1D, 1D − 3D, 3D), demonstrating the ability of the method of moments to sustain unsteady phenomena which were not apparent in a simple monodispersed model.
230

Trial design and analysis of endpoints in HIV vaccine trials / Schéma d’étude et analyses des données des essais vaccinaux du VIH

Richert, Laura 28 October 2013 (has links)
Des données complexes sont fréquentes dans les essais cliniques récents et nécessitent des méthodes statistiques adaptées. La recherche vaccinale du VIH est un exemple d’un domaine avec des données complexes et une absence de critères de jugement validés dans les essais précoces. Cette thèse d’Université concerne des recherches méthodologiques sur la conception et les aspects statistiques des essais cliniques vaccinaux du VIH, en particulier sur les critères de jugement d’immunogénicité et les schémas d’essai de phase I-II. A l’aide des données cytokiniques multiplex, nous illustrons les aspects méthodologiques spécifiques à une technique de mesure. Nous proposons ensuite des définitions de critères de jugement et des méthodes statistiques adéquates pour l'analyse des données d'immunogénicité multidimensionnelles. En particulier, nous montrons l’intérêt des scores multivariés non-paramétriques, permettant de résumer l’information à travers différents marqueurs d’immunogénicité et de faire des comparaisons inter- et intra-groupe. Dans l’objectif de contribuer à la conception méthodologique des nouveaux essais vaccinaux, nous présentons la construction d’un schéma d’essai optimisé pour le développement clinique précoce. En imbriquant les phases I et II d’évaluation clinique, ce schéma permet d’accélerer le développement de plusieurs stratégies vaccinales en parallèle. L’intégration d’une règle d’arrêt est proposée dans des perspectives fréquentistes et Bayesiennes. Les méthodes mises en avant dans cette thèse sont transposables à d’autres domaines d’application avec des données complexes, telle que les données d’imagerie ou les essais d’autres immunothérapies. / Complex data are frequently recored in recent clinical trials and require the use of appropriate statistical methods. HIV vaccine research is an example of a domaine with complex data and a lack of validated endpoints for early-stage clinical trials. This thesis concerns methodological research with regards to the design and analysis aspects of HIV vaccine trials, in particular the definition of immunogenicity endpoints and phase I-II trial designs. Using cytokine multiplex data, we illustrate the methodological aspects specific to a given assay technique. We then propose endpoint definitions and statistical methods appropriate for the analysis of multidimensional immunogenicity data. We show in particular the value of non-parametric multivariate scores, which allow for summarizing information across different immunogenicity markers and for making statistical comparisons between and within groups. In the aim of contributing to the design of new vaccine trials, we present the construction of an optimized early-stage HIV vaccine design. Combining phase I and II assessments, the proposed design allows for accelerating the clinical development of several vaccine strategies in parallel. The integration of a stopping rule is proposed from both a frequentist and a Bayesian perspective. The methods advocated in this thesis are transposable to other research domains with complex data, such as imaging data or trials of other immune therapies.

Page generated in 0.0376 seconds