• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 599
  • 236
  • 68
  • 14
  • 7
  • 1
  • Tagged with
  • 937
  • 460
  • 177
  • 134
  • 131
  • 129
  • 108
  • 94
  • 93
  • 92
  • 90
  • 79
  • 76
  • 65
  • 65
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Nouvelle technique de détection simultanée des variant ponctuels et des copy number variants dans l’obésité monogénique / New method for the simultaneous detection of punctual variations and copy number variants in monogenic obesity

Derhourhi, Mehdi 19 December 2018 (has links)
La génétique, et par extension le séquençage de l’ADN, sont des outils qui ont transformé la compréhension des mécanismes impliqués dans la survenue de nombreuses pathologies, dont l’obésité. Les technologies aujourd’hui à notre disposition nous permettent de déterminer rapidement si un patient est ou non porteur d’un évènement génétique pouvant expliquer sa pathologie. L’une des techniques les plus utilisées en diagnostic aujourd’hui est le séquençage d’exome, ou WES, qui permet une excellente détection des mutations ponctuelles dans les régions codantes du génome. Mais d’autres évènements comme les copy number variants, ou CNV, peuvent également expliquer certaines pathologies, dont l’obésité, via entre autres les CNV de la région 16p11.2. Actuellement, la technique de référence pour la détection de ces copy number variants est l’analyse de puces CGH (Comparative Genomic Hybridization), mais celles-ci ne permettent pas de détecter des mutations non répertoriées au préalable lors de la création de la puce. Sur le principe, le séquençage d’exome peut lui aussi être utilisé pour détecter les CNV, mais son absence de couverture des régions non codantes du génome ne permet pas une détection efficace de ces CNV, car ceux-ci peuvent survenir sur l’ensemble du génome, en englobant des régions codantes et non codantes au sein d’un seul évènement. Le séquençage génome complet peut détecter ces deux types d’évènement, mais son cout est encore élevé ce qui freine sa démocratisation, et l’analyse de données associées nécessite d’importantes ressources informatiques, et le rend difficilement utilisable en diagnostic de routine en l’état actuel des choses. Il est donc pour l’instant nécessaire d’avoir recours à deux techniques différentes pour couvrir ces deux types d’évènements génétiques. Cela implique d’utiliser des échantillons parfois très précieux à deux reprises, de supporter les couts liés à deux techniques diagnostiques (d’environ 450 euros pour le séquençage d’exome au laboratoire et un cout un peu plus élevé pour une puce à ADN dans un laboratoire clinique), et d’allonger les temps de rendu de résultats et donc la durée d’établissement du diagnostic du patient. Cet état de fait nous a conduit à développer une technique de séquençage, que nous avons nommé CoDE-seq (Copy number variation Detection and Exome sequencing), et qui permettra la détection simultanée de ces deux types d’évènements, pour diminuer les temps d’établissement de diagnostics, leurs couts, et la quantité d’échantillon nécessaire. Ce travail a nécessité deux aspects : la mise au point technique et la mise au point analytique. La mise au point technique est passée par la création d’une nouvelle « capture », permettant une détection correcte des mutations ponctuelles de l’exome et des CNV de tout le génome. La mise au point analytique a consisté à définir la méthode à employer, et à permettre d’arriver à une détection fiable, à la fois sensible et spécifique, des CNV sur l’ensemble du génome. Une fois ces CNV identifiés, la question de leur signification fonctionnelle se pose également, et une seconde partie de ma thèse porte sur l’étude de cette signification fonctionnelle, via l’étude de la conformation spaciale de la chromatine et de l’influence des CNV sur celle-ci. / Genetics, and by extention DNA sequencing, are tools that have modified the understanding of the mechanisms involved in genetic diseases, like obesity. Today’s technology has allowed us to rapidly find if a patient carries a genetic event that may explain his/her pathology. One of the most used technology for diagnostic is exome sequencing, or WES, which enables an excellent detection of point mutations in coding regions of the genome. However other events, such as copy number variations, or CNV, can also explain some pathologies, like a severe form of obesity due to CNV in the chr16p11.2 region. Actually, the gold standard method for an accurate detection of CNV is array CGH, but this technology cannot detect new point mutations. Exome sequencing can be used to detect CNV, but the lack of coverage in non-coding regions limits CNV detection sensitivity. Of note, whole genome sequencing can detect both CNVs and point mutations, but it is still very expensive and needs huge informatics capacities, which is an obvious limitation for a routine diagnostic use.For now, we have had to use two different methods in order to accurately detect both CNVs and point mutations. In other words, we have had to use precious samples two times, to assume the cost of two different methods (which is nearly 450 euros in the laboratory for exome sequencing, and a bit more for array CGH in a clinical laboratory), and to consider the time of the realization of two different methods in order to achieve a complete diagnostic.In this context, we aimed to develop an innovative sequencing method, named CoDE-seq (Copy number variation Detection and Exome sequencing), which would allow us to simultaneously detect both CNVs and point mutations, in order to reduce the time of diagnostic, the cost, and the needed quantity of sample.This work included the method conception, and the data analysis steps. The method conception has been done through the creation of a new capture enabling the detection of point mutations in the exome, and CNVs all along the genome. Furthermore, the data analysis step included the choice of the bioinformatics methods to be used, in order to get a specific and sensitive CNV detection, all along the genome.We were also interested in the fonctional significance of identified CNV, and tried to decipher it by the study of chromatine spacial conformation and the influence of these CNV.
92

Étude de Faisabilité d'Études Consommateurs d'Achat de Fruits et Légumes « Moches » dans un Supermarché Virtuel / Feasibility Study of Consumer Behavior Studies when Buying “Ugly” Fruits and Vegetables in a Virtual Supermarket

Verhulst, Adrien 02 July 2018 (has links)
La grande distribution affiche une politique anti-gaspillage et a ainsi proposé dès 2014des Fruits et Légumes (F&Ls) « moches » [109] à la vente. Mais ces ventes sont temporaires et locales,et ont des effets peu étudiés sur le comportement des consommateurs. Nous proposons ici d'étudier si un magasin virtuel immersif (dans lequel nous contrôlons les F&Ls) peut être utilisé pour étudier le comportement des consommateurs confronté à des F&Ls « moches ». Afin d'avoir assez de F&Ls pour remplir le magasin virtuel, nous avons généré des F&Ls d'apparences variables de manière semi-procédurale comme suit :(1) nous générons le maillage avec des Cylindres Généralisés (CGs) [6] ; puis (2) gêneront les couleurs avec un système de particule.Nous avons réalisé 2 études comparatives (resp.N=142 et N=196). L'une portant sur le comportement consommateur lorsque les F&Ls sont plus ou moins anormaux (8F&Ls séparés en 4 groupes : sans déformation,légèrement déformés, déformés et fortement déformés). Ces différences n'avaient pas d'incidences sur le comportement. L'autre portait sur le comportement consommateur lorsque l'environnement est plus ou moins immersif (8 F&Ls sans déformation et 8 F&Ls déformés, séparés en 3groupes : magasin laboratoire, magasin virtuel non immersif et magasin virtuel immersif). Il existe des différences entre ces environnements sur le comportement. Enfin, nous avons étudié si la représentation virtuelle du consommateur avait un effet lors de l'achat des produits (incluant, mais ne se limitant pas aux F&Ls) nous avons donc réalisé une étude (N=29) avec 2 groupes : avatar obèse et avatar non-obèse. Il existe des différences localisées entre ces représentations sur le comportement consommateur. / The retail sector has an anti-waste policyand has therefore offered “ugly” FaVs (Fruits and Vegetables) for sale as early as 2014 [109]. But these sales remain temporary and local and have little studied effects on consumer behavior. We propose here to study if an immersive virtual store (in which we control the FaVs) can be used to study consumer behavior confronted to “ugly” FaVs To have enough “ugly” FaVs to fill the virtual store, we developed a method capable of generatings emiprocedural FaVs. To do so we: (1) generate the mesh with Generalized Cylinders (GCs) [6]; then (2) generate the colors with a particle system.We conducted 2 comparative studies (N=142 andN=196 respectively). The first study focused on consumer behavior when the FaVs are abnormal (8 FaVs separated into 4groups: no deformation, slightly deformed, deformed and strongly deformed). These differences had no impact on consumer behavior. The other study focused on consumer behavior when the environment is more or less immersive (8 FaVs without deformation and 8 FaVs with deformation, separated into 3 groups: laboratory store, non immersive virtual store and immersive virtual store).There are differences between these environments on consumer behavior. Finally, we studied if the virtual representation of the consumer had an impact during the purchase of products (including, but not limited to, FaVs). To do so we carried out a third consumer study (N=29) (2groups: obese avatar and non-obese avatar). There are very localized differences between these representations on consumer behavior.
93

Gestion de la coagulopathie et de la transfusion au cours de la transplantation hépatique : Facteurs de risque de saignement, place du monitorage délocalisé de l’hémostase, étude de la génération de thrombine et de l’hyperfibrinolyse / Management of coagulopathy and transfusion in liver transplantation

Roullet, Stéphanie 17 December 2018 (has links)
La transplantation hépatique (TH) est une intervention à risque hémorragique, au cours de laquelle toutes les étapes de la coagulation (hémostase primaire, hémostase secondaire, fibrinolyse) sont perturbées. Nous avons d’abord montré que les facteurs de risque de saignement et transfusion étaient difficiles à identifier et n’étaient pas cliniquement très pertinents. Puis nous avons montré que la thromboélastométrie (ROTEM®) pouvait diagnostiquer la thrombopénie et l’hypofibrinogénémie au cours de la TH, même si l’utilisation d’un algorithme basé sur le ROTEM® ne diminuait pas le saignement ni la transfusion par rapport à un algorithme basé sur les résultats du laboratoire. De plus le ROTEM® manquait de sensibilité pour détecter l’hyperfibrinolyse. La thrombine est l’enzyme-clé de la cascade de la coagulation. Le Calibrated Automated Thrombogram (CAT®) est la méthode de référence de génération de thrombine. Nous avons cherché des moyens rapides d’évaluation de la génération de thrombine, utilisable en routine et sur échantillons individuels. Le Thrombodynamics-4D® (TD4D) permettait à la fois l’étude de la formation et de la propagation du caillot de fibrine dans le temps et l’espace et de la génération de thrombine. Une hyperfibrinolyse survient au cours de 20 à 66% des TH. Elle majore le saignement et la transfusion. Le diagnostic rapide de l’hyperfibrinolyse permettrait un traitement rapide et ciblé par antifibrinolytique. Le Lysis Timer était plus sensible que le ROTEM® pour détecter les hyperfibrinolyses. Le TD4D permettait également de visualiser la lyse du caillot. L’utilisation en routine de ces nouveaux appareils nécessite la validation des résultats sur plasma frais, après accélération des étapes pré-analytiques (centrifugation rapide) et des études cliniques pour les positionner au sein d’algorithmes transfusionnels. / Liver transplantation (LT) is a bleeding procedure, in which all the haemostatic steps (primary haemostasis, secondary haemostasis, fibrinolysis) are impaired. We have first shown the predictive factors of bleeding and transfusion were difficult to determine and were of poor clinical relevance. Then, we showed that thromboelastometry (ROTEM®) could detect thrombocytopenia and hypofibrinogenemia during LT. However, the utilisation of an algorithm based on ROTEM® results did not led to less bleeding and transfusion when compared to an algorithm based on laboratory results. Moreover, ROTEM® lacked sensitivity to detect hyperfibrinolysis. Thrombin is the key-enzyme of coagulation cascade. The Calibrated Automated Thrombogram (CAT®) is the reference test for thrombin generation. We searched for rapid tools to evaluate thrombin generation, usable in routine and on individual plasma samples. The Thrombodynamics-4D® (TD4D) enabled in the same time study of fibrin clot formation and propagation in time and space and thrombin generation. Hyperfibrinolysis is encountered in 20 to 66% of LT procedures. It is associated with more bleeding and transfusion. Rapid diagnosis of hyperfibrinolysis would allow a quick and target treatment with antifibrinolytic drugs. Lysis Timer was more sensitive than ROTEM® to detect hyperfibrinolysis. TD4D also visualized clot lysis. Routine utilization of these new devices now requires validation of its results in fresh plasma, after acceleration of pre-analytic steps (rapid centrifugation) and clinical studies to find their place in transfusion algorithms.
94

Amélioration de la conductivité thermique des composites à matrice céramique pour les réacteurs de 4ème génération

Cabrero, Julien 20 November 2009 (has links)
Résumé / Abstract
95

Evaluation de la méthode des personas en intervention corrective, préventive et prospective / Evaluation of persona method during corrective, preventive and prospective interventions

Christophe, Corinne 21 March 2014 (has links)
Cette thèse s’inscrit dans le cadre des recherches menées sur la méthode des personas. Modèles d’utilisateurs, les personas restituent de manière personnalisée des comportements, des attitudes ou encore des contextes d’usage. A ce titre, ils sont utilisés dans le domaine de la conception de produits numériques. Nous proposons, plus largement, de les mobiliser au cours d’interventions axées sur la santé des salariés et la performance des systèmes. En effet, les personas sont considérés dans la littérature comme un outil puissant de génération et de sélection des idées. De plus, les travaux menés principalement en psychologie de la créativité permettent de penser que les personas sont effectivement susceptibles d’améliorer les performances créatives des acteurs impliqués dans un processus de transformation ou de conception. Néanmoins, très peu de recherches ont porté sur cet aspect. La question est donc d’établir la capacité des personas à générer des idées nouvelles et adaptées. Cinq études ont été conduites pour répondre à cette question. Elles montrent que les personas ne se distinguent pas des autres sources d’inspiration étudiées par le nombre d’idées générées. Leur apport fondamental se situe au niveau de la nature des idées produites et de leur capacité à instrumenter la sélection de ces idées. De plus, les personas soutiennent la construction de représentations communes, la simulation langagière et l’activité argumentative dans les groupes de travail. Ces résultats confirment l’utilité du recours aux personas dans un processus de transformation ou de conception. Ils ouvrent des perspectives sur un enrichissement de l’intervention / This thesis is part of the research on personas. As user models, personas restore in a personalized way, behaviors, attitudes or contexts of use. Thus, they are commonly used in the field of digital product design. We propose using them in a broader context i.e in interventions focused in occupational health and systems performance. In the literature on personas they are considered as a powerful tool for idea generation and idea selection. In addition, the research mainly in the domain of the psychology of creativity shows that personas are actually likely to improve creative performance. However, very few studies have focused on this aspect. The question is to establish whether the personas are able to generate new and relevant ideas. Five studies were carried out to answer this question. They indicate that personas do not generate more ideas than other sources of inspiration taken into consideration. Their fundamental contribution lies in the nature of the ideas generated and in their ability to orchestrate the selection of these ideas. Moreover, personas support the construction of common representations, the simulation activity and the discussion in the working groups. These results confirm the contribution of personas to a transformation or design process. They allow us to open up perspectives for an enrichment of the intervention
96

Elementary functions : towards automatically generated, efficient, and vectorizable implementations / Fonctions élémentaires : vers des implémentations vectorisables, efficaces, et automatiquement générées

Lassus Saint-Genies, Hugues de 17 May 2018 (has links)
Les fonctions élémentaires sont utilisées dans de nombreux codes de calcul haute performance. Bien que les bibliothèques mathématiques (libm) auxquelles font appel ces codes proposent en général plusieurs variétés d'une même fonction, celles-ci sont figées lors de leur implémentation. Cette caractéristique représente un frein à la performance des programmes qui les utilisent car elles sont conçues pour être polyvalentes au détriment d'optimisations spécifiques. De plus, la duplication de modèles partagés rend la maintenance de ces libms plus difficile et sujette à l'introduction de bugs. Un défi actuel est de proposer des "méta-outils" visant la génération automatique de code performant pour l'évaluation des fonctions élémentaires. Ces outils doivent permettre la réutilisation d'algorithmes efficaces et génériques pour différentes variétés de fonctions ou architectures matérielles. Il devient alors possible de générer des libms optimisées pour des besoins très spécifiques avec du code générateur factorisé, qui facilite sa maintenance. Dans un premier temps, nous proposons un algorithme original permettant de générer des tables sans erreur pour les fonctions trigonométriques et hyperboliques. Puis nous étudions les performances de schémas d'évaluation polynomiale vectorisés, premier pas vers la génération de fonctions vectorisées efficaces. Enfin, nous proposons une méta-implémentation d'un logarithme vectorisé, factorisant la génération de code pour différents formats et architectures. Ces contributions sont compétitives comparées à d'autres solutions, justifiant le développement de tels méta-codes. / Elementary mathematical functions are pervasive in many high performance computing programs. However, although the mathematical libraries (libms), on which these programs rely, generally provide several flavors of the same function, these are fixed at implementation time. Hence this monolithic characteristic of libms is an obstacle for the performance of programs relying on them, because they are designed to be versatile at the expense of specific optimizations. Moreover, the duplication of shared patterns in the source code makes maintaining such code bases more error prone and difficult. A current challenge is to propose "meta-tools" targeting automated high performance code generation for the evaluation of elementary functions. These tools must allow reuse of generic and efficient algorithms for different flavours of functions or hardware architectures. Then, it becomes possible to generate optimized tailored libms with factorized generative code, which eases its maintenance. First, we propose an novel algorithm that allows to generate lookup tables that remove rounding errors for trigonometric and hyperbolic functions. The, we study the performance of vectorized polynomial evaluation schemes, a first step towards the generation of efficient vectorized elementary functions. Finally, we develop a meta-implementation of a vectorized logarithm, which factors code generation for different formats and architectures. Our contributions are shown competitive compared to free or commercial solutions, which is a strong incentive to push for developing this new paradigm.
97

All-dielectric nonlinear nanophotonics / Nanophotonique nonlinéaire tout diélectrique

Gili, Valerio flavio 07 November 2018 (has links)
La méta-optique non linéaire tout diélectrique suscite un vif intérêt, grâce à la faisabilité de nanostructures à contraste élevé et indice de réfraction disponible avec la lithographie à semi-conducteurs. Alors que des effets nonlinéaires au troisième ordre ont été rapportés dans les nanoantennes silicium sur isolant, la plate-forme AlGaAs-sur-isolant a récemment permis la démonstration de la génération de la seconde harmonique, dû à la noncentrosymétrie de ce matériel. Cette thèse illustre notre activité récente sur les nanoantennes non linéaires AlGaAs-sur-AlOx, où AlOx est obtenu par attaque chimique sélective par voie humide d'une couche épitaxiale d'AlGaAs riche en aluminium d'une épaisseur de quelques micromètres. Un tel substrat à faible indice de réfraction permet de découpler efficacement les modes nanoantenna de la tranche de GaAs (100) sous-jacent. La thèse présente d'abord les méthodes numériques, expérimentales et technologiques utilisées. Une analyse des résultats obtenus dans la génération de signaux non linéaires dans des nanoantennes simples et dans des structures complexes est ensuite présentée. Tous nos résultats expérimentaux ouvrent la voie à la génération et à la manipulation de signaux non linéaires à l'échelle nanométrique et pointent vers des applications telles que l'holographie non linéaire, la goniométrie sans fond et la vision nocturne. / All-dielectric nonlinear meta-optics is attracting a great deal of interest thanks to the feasibility of high refractive-index contrast nanostructures available with semiconductor lithography. While third order nonlinear effects have been reported in silicon-on-insulator nanoantennas, the AlGaAs-on-insulator platform has recently enabled the demonstration of second harmonic generation, owing to the non-centrosymmetry of this material. This PhD thesis illustrates our recent activity on AlGaAs-on-AlOx nonlinear nanoantennas, where AlOx is obtained from selective wet etching of micrometer-thick aluminium-rich AlGaAs epitaxial layer. Such a low refractive index substrate allows to effectively decouple the nanoantenna modes from the underlying GaAs (100) wafer. The thesis first introduces the numerical, experimental and technological methods employed. Afterwards, a review of the results obtained in nonlinear signal generation in single nanoantennas and in complex structures is given. All our experimental results pave the way towards nonlinear signal generation and manipulation at the nanoscale, and point towards applications such as nonlinear holography, background-free goniometry and night vision.
98

Synthèse de métallophosphates microstructurés obtenus par génération in situ de l'agent structurant / Synthesis of microporous metallophosphates obtained by in situ generation of the structure directing agent

Tawbi, Khouloud 18 December 2012 (has links)
Une nouvelle voie de synthèse de matériaux microstructurés à base de phosphore est présentée. Elle permet de réduire le nombre de réactifs et consiste à utiliser un composé phosphoré servant à la fois de source de phosphore et de précurseur d’agent structurant. Ce dernier est généré in situ dans le milieu de synthèse. Nous présentons le cas de l’utilisation de l’hexaméthylphosphoramide, l’oxyde de tripyrrolidinophosphine, l’hexaéthyltriaminophosphine et la trimorpholinophosphine dont la décomposition a fait l’objet d’une étude par RMN liquide 1H et 31P. Suite aux analyses effectuées à partir de mélanges de composition molaire différente, il apparait qu’une élévation de température, la présence d’ions H3O+ et de l’éthylène glycol soient des critères qui favorisent la décomposition des molécules d’alkylphosphoramides. Les synthèses réalisées en présence d’une source de gallium ont conduit à la cristallisation de gallophosphates de structure connue. De façon inattendue, deux agents structurants sont identifiés dans le fluorogallophosphate ULM-3 : la diméthylamine et NH4+. Les synthèses réalisées en présence d’une source d’aluminium ont conduit à la cristallisation d’une nouvelle phase dont la structure est en cours de résolution et à la cristallisation d’aluminophosphates de structure connue. Les analyses par RMN liquide 1H et 31P nous ont permis de proposer des mécanismes de décomposition d’alkylphosphoramides dans les différents milieux de synthèse. / This work focuses on the development of a new synthesis route by reducing the number of reactants for the synthesis of phosphate-based materials. This synthesis strategy was developed by using alkylphosphoramide which can play both the role of precursor of the structure-directing agent (SDA) and the phosphorus source. In this work we present the case of hexamethylphosphoramide, tris(N,N-tetramethylene)phosphoric acid triamide, tris(diethylamino)phosphine and trimorpholinophosphine oxide. 1H and 31P liquid NMR spectroscopy was used to fully characterize the decomposition of the alkylphosphoramide. It has been found that the heating temperature, the presence of an acid and ethylene glycol play a crucial role on the alkylphosphoramide decomposition. The synthesis results obtained for the gallophosphate and aluminophosphate systems are reported. The in situ generation of the SDA and the phosphorus source allowed preparing known crystallized gallophosphates and aluminophosphates. For the fluorogallophosphate ULM-3, the 1H liquid NMR spectrum shows clearly the presence of dimethylamine and ammonium cations as structure-directing agents. A new aluminophosphate has been obtained. Finally, a decomposition mechanism of the alkylphosphoramides was proposed for the different reaction media under study.
99

Impulsions attosecondes de lumière : caractérisation temporelle et sources de deuxième génération

Quere, Fabien 14 January 2010 (has links) (PDF)
Produire des impulsions lumineuses toujours plus courtes permet de résoudre temporellement des processus microscopiques de plus en plus rapides grâce aux techniques pompe-sonde. Ainsi, mesurer la dynamique d'évolution des électrons dans la matière nécessite des impulsions de durée situées dans la gamme attoseconde (1 as=10-18 s). Si une technique pour générer de telles impulsions a été identifiée dès le début des années 90, il a fallu attendre 2001 pour que des méthodes permettant d'en mesurer la durée soient enfin élaborées, basées sur la spectroscopie des photoélectrons produits par photoionisation d'atomes en présence d'un champ laser. Je présente l'évolution de ces méthodes, depuis les premiers concepts permettant simplement d'estimer une durée, jusqu'aux techniques plus élaborées donnant aujourd'hui accès expérimentalement à la structure temporelle exacte du champ électrique. Des sources d'impulsions attosecondes bien caractérisées sont ainsi aujourd'hui disponibles et commencent à être utilisées dans des expériences résolues en temps. Néanmoins, pour étendre la gamme des phénomènes accessibles, il est essentiel d'obtenir des sources plus intenses, plus brèves et à plus courtes longueurs d'onde. Dans ce contexte, j'analyse le phénomène de réflexion spéculaire d'impulsions lasers ultraintenses sur miroir plasma, qui devrait à terme permettre l'obtention de sources attosecondes de « 2ième génération ».
100

Optimisation de maillages

Tournois, Jane 04 November 2009 (has links) (PDF)
Dans cette thèse, une approche pratique pour la génération de maillages triangulaires isotropes est proposée. En 2D comme en 3D, l'ob jectif consiste à mailler un domaine donné, pouvant avoir une géométrie complexe. L'approche présentée consiste à entrelacer des étapes de raffinement de Delaunay et des étapes d'optimisation de maillages dans le but de générer des maillages gradés de qualité. L'utilisateur peut contrôler les caractéristiques du maillage en définissant des critères de taille et de forme des simplexes, ainsi que de topologie et d'approximation. Les méthodes par éléments finis, largement utilisées en simulation, nécessitent des maillages gradés, composés de simplexes bien formés. Des alternatives aux méthodes de raffinement de Delaunay usuelles sont développées. Les méthodes d'optimisation de maillages proposées permettent d'optimiser la position des sommets intérieurs et de ceux du bord. Les caractéristiques du bord du domaine à mailler, et en particulier des arêtes vives, sont préservées par ces méthodes. En 2D, l'optimisation est basée sur l'algorithme de Lloyd et les diagrammes de Voronoi centrés (CVT). En 3D, une extension naturelle des triangulations de Delaunay optimales (ODT) de Chen, capable d'optimiser la position des sommets du bord du maillage, est introduite. Notre algorithme de maillage tétraédrique est enrichi par une étape de post-traitement permettant d'améliorer de façon significative la qualité des angles dièdres du maillage. Nous montrons que l'entrelacement d'étapes de raffinement et d'optimisation permet d'obtenir des maillages de meilleure qualité que ceux générés par les méthodes connues en termes d'angles dans les simplexes et de complexité.

Page generated in 0.0728 seconds