• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 16
  • 8
  • Tagged with
  • 57
  • 27
  • 15
  • 14
  • 13
  • 12
  • 11
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Sur quelques problèmes algorithmiques relatifs à la détermination de structure à partir de données de spectrométrie de masse / Topics in mass spectrometry based structure determination

Agarwal, Deepesh 18 May 2015 (has links)
La spectrométrie de masse, initialement développée pour de petites molécules, a permis au cours de la dernière écoulée d’étudier en phase gazeuse des assemblages macro-moléculaires intacts, posant nombre de questions algorithmiques difficiles, dont trois sont étudiées dans cette thèse. La première contribution concerne la détermination de stoichiométrie (SD), et vise à trouver le nombre de copies de chaque constituant dans un assemblage. On étudie le cas où la masse cible se trouve dans un intervalle dont les bornes rendent compte des incertitudes des mesures des masses. Nous présentons un algorithme de taille mémoire constante (DIOPHANTINE), et un algorithme de complexité sensible à la sortie (DP++), plus performants que l’état de l’art, pour des masses en nombre entier ou flottant. La seconde contribution traite de l’inférence de connectivité à partir d’une liste d’oligomères dont la composition en termes de sous-unités est connue. On introduit le problème d’inférence de connectivité minimale (MCI) et présente deux algorithmes pour le résoudre. On montre aussi un accord excellent entre les contacts trouvés et ceux détermines expérimentalement. La troisième contribution aborde le problème d’inférence de connectivité de poids minimal, lorsque chaque contact potentiel a un poids reflétant sa probabilité d’occurrence. On présente en particulier un algorithme de bootstrap permettant de trouver un ensemble d’arêtes de sensitivité et spécificité meilleures que celles obtenues pour les solutions du problème MCI. / Mass spectrometry (MS), an analytical technique initially invented to deal with small molecules, has emerged over the past decade as a key approach in structural biology. The recent advances have made it possible to transfer large macromolecular assemblies into the vacuum without their dissociation, raising challenging algorithmic problems. This thesis makes contributions to three such problems. The first contribution deals with stoichiometry determination (SD), namely the problem of determining the number of copies of each subunit of an assembly, from mass measurements. We deal with the interval SD problem, where the target mass belongs to an interval accounting for mass measurement uncertainties. We present a constant memory space algorithm (DIOPHANTINE), and an output sensitive dynamic programming based algorithm (DP++), outperforming state-of-the-art methods both for integer type and float type problems. The second contribution deals with the inference of pairwise contacts between subunits, using a list of sub-complexes whose composition is known. We introduce the Minimum Connectivity Inference problem (MCI) and present two algorithms solving it. We also show an excellent agreement between the contacts reported by these algorithms and those determined experimentally. The third contribution deals with Minimum Weight Connectivity Inference (MWCI), a problem where weights on candidate edges are available, reflecting their likelihood. We present in particular a bootstrap algorithm allowing one to report a set of edges with improved sensitivity and specificity with respect to those obtaining upon solving MCI.
42

Dynamique d'apprentissage pour Monte Carlo Tree Search : applications aux jeux de Go et du Clobber solitaire impartial / Learning dynamics for Monte Carlo Tree Search : application to combinatorial games

Fabbri, André 22 October 2015 (has links)
Depuis son introduction pour le jeu de Go, Monte Carlo Tree Search (MCTS) a été appliqué avec succès à d'autres jeux et a ouvert la voie à une famille de nouvelles méthodes comme Mutilple-MCTS ou Nested Monte Carlo. MCTS évalue un ensemble de situations de jeu à partir de milliers de fins de parties générées aléatoirement. À mesure que les simulations sont produites, le programme oriente dynamiquement sa recherche vers les coups les plus prometteurs. En particulier, MCTS a suscité l'intérêt de la communauté car elle obtient de remarquables performances sans avoir pour autant recours à de nombreuses connaissances expertes a priori. Dans cette thèse, nous avons choisi d'aborder MCTS comme un système apprenant à part entière. Les simulations sont alors autant d'expériences vécues par le système et les résultats sont autant de renforcements. L'apprentissage du système résulte alors de la complexe interaction entre deux composantes : l'acquisition progressive de représentations et la mobilisation de celles-ci lors des futures simulations. Dans cette optique, nous proposons deux approches indépendantes agissant sur chacune de ces composantes. La première approche accumule des représentations complémentaires pour améliorer la vraisemblance des simulations. La deuxième approche concentre la recherche autour d'objectifs intermédiaires afin de renforcer la qualité des représentations acquises. Les méthodes proposées ont été appliquées aux jeu de Go et du Clobber solitaire impartial. La dynamique acquise par le système lors des expérimentations illustre la relation entre ces deux composantes-clés de l'apprentissage / Monte Carlo Tree Search (MCTS) has been initially introduced for the game of Go but has now been applied successfully to other games and opens the way to a range of new methods such as Multiple-MCTS or Nested Monte Carlo. MCTS evaluates game states through thousands of random simulations. As the simulations are carried out, the program guides the search towards the most promising moves. MCTS achieves impressive results by this dynamic, without an extensive need for prior knowledge. In this thesis, we choose to tackle MCTS as a full learning system. As a consequence, each random simulation turns into a simulated experience and its outcome corresponds to the resulting reinforcement observed. Following this perspective, the learning of the system results from the complex interaction of two processes : the incremental acquisition of new representations and their exploitation in the consecutive simulations. From this point of view, we propose two different approaches to enhance both processes. The first approach gathers complementary representations in order to enhance the relevance of the simulations. The second approach focuses the search on local sub-goals in order to improve the quality of the representations acquired. The methods presented in this work have been applied to the games of Go and Impartial Solitaire Clobber. The results obtained in our experiments highlight the significance of these processes in the learning dynamic and draw up new perspectives to enhance further learning systems such as MCTS
43

Criticalité, identification et jeux de suppression de sommets dans les graphes : Des étoiles plein les jeux / Criticality, identification and vertex deletion games on graphs

Dailly, Antoine 27 September 2018 (has links)
Dans cette thèse, nous étudions des problématiques de graphes et de jeux combinatoires. Il existe de nombreux liens entre ces deux domaines : ainsi, les jeux sont un bon moyen de modéliser une opposition dans un problème d'optimisation, et dans l'autre sens plusieurs jeux classiques sont définis sur les graphes. Nous allons étudier deux problèmes de graphes et adapter des jeux combinatoires classiques pour y jouer sur des graphes. Dans un premier temps, nous étudions un problème de criticalité. Un graphe qui vérifie une certaine propriété, mais tel qu'une simple modification (ajout ou suppression d'arête ou de sommet) la lui fait perdre est appelé critique pour cette propriété. Nous nous intéressons au problème des graphes critiques pour la propriété ≪ avoir un diamètre égal à 2 ≫, appelés graphes D2C. La conjecture de Murty-Simon donne une borne supérieure sur le nombre d'arêtes d'un graphe D2C en fonction de son nombre de sommets. Or, des recherches récentes laissent supposer que cette borne peut être améliorée pour les graphes D2C non-bipartis. Nous démontrons donc une borne amoindrie pour une sous-famille de graphes D2C. Dans un deuxième temps, nous considérons un problème d'identification, laquelle consiste à assigner une étiquette à toutes les arêtes ou à tous les sommets d'un graphe, cette assignation devant engendrer une étiquette différente pour chaque sommet. Nous définissons une coloration d'arêtes par des ensembles d'entiers induisant une identification des sommets, et démontrons que cette coloration nécessite au plus un nombre logarithmique d'entiers par rapport à l'ordre du graphe pour l'identifier. Ce résultat est mis en comparaison avec d'autres types de colorations identifiantes, qui nécessitent dans le pire des cas un nombre linéaire d'entiers pour identifier tous les sommets. Dans un troisième temps, nous étudions des jeux de suppression de sommets, qui sont des jeux dans lesquels deux joueurs suppriment d'un graphe des sommets en respectant certaines règles prédéfinies, le premier joueur incapable de jouer perdant la partie. Nous proposons un cadre global pour l'étude de nombreux jeux de suppression de sommets dans les graphes, qui inclut plusieurs jeux classiques comme Arc-Kayles et permet une généralisation des jeux de soustraction et des jeux octaux sur les graphes. Dans leur définition classique, ces jeux ont généralement des comportements réguliers : tous les jeux de soustraction finis sont ultimement périodiques et il est conjecture que c'est également le cas des jeux octaux. Nous étudions plus spécifiquement les jeux de soustraction connexes CSG(S), dans lesquels les joueurs peuvent supprimer k sommets induisant un sous-graphe connexe sans déconnecter le graphe si k ∈ S (avec S fini). Nous démontrons que tous ces jeux sont ultimement périodiques, dans le sens ou pour un graphe et un sommet donnés, un chemin attaché à ce sommet peut être réduit à partir d'un certain rang sans modifier la valeur de Grundy du graphe pour le jeu. Nous trouvons également des résultats de périodicité pure, en particulier sur les étoiles subdivisées : pour certains ensembles S, les chemins des étoiles peuvent être réduits à leur longueur modulo une certaine période sans changer l'issue du jeu. Enfin, nous définissons une variante pondérée de Arc-Kayles, appelée Weighted Arc-Kayles (ou WAK), dans laquelle les joueurs doivent sélectionner une arête pour réduire le poids de ses extrémités, les sommets ayant un poids nul étant supprimés du graphe. Nous montrons une réduction entre WAK et Arc-Kayles, puis que les valeurs de Grundy de WAK sont non-bornées, ce qui répond à une question ouverte sur Arc-Kayles. Nous montrons également que les valeurs de Grundy de WAK sont ultimement périodiques lorsque tous les poids du graphe sauf un sont fixes / In this thesis, we study both graphs and combinatorial games. There are several links betweenthose two domains : games are useful for modeling an opponent in optimization problems on graphs,and in the other direction several classical games are played on graphs. We will study two graphproblems and adapt some classical combinatorial games to be played on graphs.In a first chapter, we study a criticality problem. A graph that verifies some property, and suchthat any modification (vertex or edge addition or deletion) breaks the property is called critical forthis property. We focus on the critical graphs for the property "having diameter 2", called D2Cgraphs. The Murty-Simon conjecture gives an upper bound on the number of edges in a D2C graphwith a given number of vertices. However, recent research suggests that this bound can be improvedfor non-bipartite D2C graphs. We show the validity of this approach by proving a smaller upperbound for a subfamily of non-bipartite D2C graphs.In a second chapter, we consider an identification problem. Identification consists in assigningsome data to every edge or vertex of a graph, such that this assignment induces a label to everyvertex with the added condition that two distinct vertices must have a different label. We definean edge-coloring using sets of integers inducing an identification of the vertices, and prove that thiscoloring requires at most a logarithmic number of integers (with respect to the order of the graph)in order to successfully identify the vertices. This result is compared with other identifying colorings,for which the number of colors required to successfully identify the vertices can be linear with respectto the order of the graph.In order to show the link between graphs and games, we adapt a well-known family of games tobe played on graphs. We propose a general framework for the study of many vertex deletion games(which are games in which the players delete vertices from a graph under predefined rules) such asArc-Kayles. This framework is a generalization of subtraction and octal games on graphs. In theirclassical definition, those games exhibit a high regularity : all finite subtraction games are ultimatelyperiodic, and Guy conjectured that this is also true for all finite octal games.We specifically study the connected subtraction games CSG(S) (with S being a finite set). Inthose games, the players can remove k vertices from a graph if and only if they induce a connectedsubgraph, the graph remains connected after their deletion, and k ∈ S. We prove that those gamesare all ultimately periodic, in the sense that for a given graph and vertex, a path attached to thisvertex can be reduced (after a certain preperiod) without changing the Grundy value of the graph forthe game. We also prove pure periodicity results, mostly on subdivided stars : for some sets S, thepaths of a subdivided star can be reduced to their length modulo a certain period without changingthe outcome of the game.Finally, we define a weighted version of Arc-Kayles, called Weighted Arc-Kayles (WAKfor short). In this game, the players select an edge and reduce the weight of its endpoints. Verticeswith weight 0 are removed from the graph. We show a reduction between WAK and Arc-Kayles,then we prove that the Grundy values of WAK are unbounded, which answers an open question onArc-Kayles. We also prove that the Grundy values of WAK are ultimately periodic if we fix allbut one of the weights in the graph
44

Functional description of sequence constraints and synthesis of combinatorial objects / Description fonctionnelle de contraintes sur des séquences et synthèse d’objets combinatoires

Arafailova, Ekaterina 25 September 2018 (has links)
A l’opposé de l’approche consistant à concevoir aucas par cas des contraintes et des algorithmes leur étant dédiés, l’objet de cette thèse concerne d’une part la description de familles de contraintes en termes de composition de fonctions, et d’autre part la synthèse d’objets combinatoires pour de telles contraintes. Les objets concernés sont des bornes précises, des coupes linéaires, des invariants non-linéaires et des automates finis ; leur but principal est de prendre en compte l’aspect combinatoire d’une seule contrainte ou d’une conjonction de contraintes. Ces objets sont obtenus d’une façon systématique et sont paramétrés par une ou plusieurs contraintes, par le nombre de variables dans une séquence, et par les domaines initiaux de ces variables. Cela nous permet d’obtenir des objets indépendants d’une instance considérée. Afin de synthétiser des objets combinatoires nous tirons partie de la vue déclarative de telles contraintes, basée sur les expressions régulières, ainsi que la vue opérationnelle, basée sur les automates à registres et les transducteurs finis. Il y a plusieurs avantages à synthétiser des objets combinatoires par rapport à la conception d’algorithmes dédiés : 1) on peut utiliser ces formules paramétrées dans plusieurs contextes, y compris la programmation par contraintes et la programmation linéaire, ce qui est beaucoup plus difficile avec des algorithmes ; 2) la synergie entre des objets combinatoires nous donne une meilleure performance en pratique ; 3) les quantités calculées par certaines des formules peuvent être utilisées non seulement dans le contexte de l’optimisation mais aussi pour la fouille de données. / Contrary to the standard approach consisting in introducing ad hoc constraints and designing dedicated algorithms for handling their combinatorial aspect, this thesis takes another point of view. On the one hand, it focusses on describing a family of sequence constraints in a compositional way by multiple layers of functions. On the other hand, it addresses the combinatorial aspect of both a single constraint and a conjunction of such constraints by synthesising compositional combinatorial objects, namely bounds, linear inequalities, non-linear constraints and finite automata. These objects are obtained in a systematic way and are not instance-specific: they are parameterised by one or several constraints, by the number of variables in a considered sequence of variables, and by the initial domains of the variables. When synthesising such objects we draw full benefit both from the declarative view of such constraints, based on regular expressions, and from the operational view, based on finite transducers and register automata.There are many advantages of synthesising combinatorial objects rather than designing dedicated algorithms: 1) parameterised formulae can be applied in the context of several resolution techniques such as constraint programming or linear programming, whereas algorithms are typically tailored to a specific technique; 2) combinatorial objects can be combined together to provide better performance in practice; 3) finally, the quantities computed by some formulae cannot just be used in an optimisation setting, but also in the context of data mining.
45

Combinatorial surface-based electronic tongue development : Analytical applications and conception of 2D and 3D biomimetic surfaces / Développement d'une langue électronique sur des surfaces combinatoires : applications analytiques et conception de surfaces biomimétiques 2D et 3D

Genua, Maria 24 October 2013 (has links)
L'objectif de cette thèse est le développement d'une langue électronique avec une méthode simplifiée d'obtention de récepteurs à réactivité croisée. Ces récepteurs sont préparés par une approche combinatoire novatrice qui consiste au mélange et à l'auto-assemblage de deux disaccharides. Le couplage de ces récepteurs avec un système de détection d'imagerie par résonance des plasmons de surface nous a permis de réaliser une langue électronique capable de différencier des échantillons de différentes complexités, y compris des protéines pures et des mélanges complexes. Cela se fait grâce aux profils et images d'évolution continue, assimilés à des « empreintes digitales » des échantillons. D'un autre côté, ce système peut être utilisé en tant qu'outil pour la conception de surfaces biomimétiques 2D et 3D. Ce système est prometteur pour l'étude des interactions sucre-protéine et pour la préparation de nanovecteurs biomimétiques qui ciblent de façon spécifique des protéines d'intérêt. / L'objectif de cette thèse est le développement d'une langue électronique avec une méthode simplifiée d'obtention de récepteurs à réactivité croisée. Ces récepteurs sont préparés par une approche combinatoire novatrice qui consiste au mélange et à l'auto-assemblage de deux disaccharides. Le couplage de ces récepteurs avec un système de détection d'imagerie par résonance des plasmons de surface nous a permis de réaliser une langue électronique capable de différencier des échantillons de différentes complexités, y compris des protéines pures et des mélanges complexes. Cela se fait grâce aux profils et images d'évolution continue, assimilés à des « empreintes digitales » des échantillons. D'un autre côté, ce système peut être utilisé en tant qu'outil pour la conception de surfaces biomimétiques 2D et 3D. Ce système est prometteur pour l'étude des interactions sucre-protéine et pour la préparation de nanovecteurs biomimétiques qui ciblent de façon spécifique des protéines d'intérêt.
46

6 Essais sur les enchères: Approches théorique et empirique. Application aux marches de l'électricité.

Lamy, Laurent 28 June 2007 (has links) (PDF)
Cette thèse est consacrée à une analyse théorique et empirique de mécanismes de vente aux enchères. Motivée par les problèmes d'allocations dans les industries de réseau, en particulier par la libéralisation du secteur de l'électricité, elle s'intéresse aux enchères avec externalités ainsi qu'aux enchères de multi-objets. Après une introduction qui parcourt l'utilisation et l'analyse des mécanismes de ventes aux enchères d'électricité, six chapitres constitues cette thèse. Le premier considère des ventes aux enchères standard dans le modèle de Milgrom-Weber avec des estimations interdépendantes quand le vendeur ne peut pas s'engager à ne pas participer à la vente aux enchères. Les deuxièmes et troisièmes chapitres étudient le mécanisme de vente aux enchères combinatoires proposé par Ausubel et Milgrom. Le quatrième chapitre analyse le problème de conception optimal quand les capacités d'engagement du principal sont réduites, à savoir qu'elle ne peut pas se remettre à un jeu de participation simultané. Le cinquième chapitre est consacré à l'analyse structurelle d'un modèle as-symétrique à partir de données d'enchères ou les enchérisseurs sont anonymes. Il est montré que le modèle IPV (Independant Private Value) as-symétrique est identifié. Le dernier chapitre utilise les données sur les enchères aux inter-connexions électriques frontalières France-Angleterre pour une analyse sous forme réduite d'une enchère ascendante multi-unité.
47

Contributions aux Cartes Combinatoires et Cartes Généralisées : Simplification, Modèles, Invariants Topologiques et Applications

Damiand, Guillaume 23 September 2010 (has links) (PDF)
Ce mémoire résume nos principales contributions aux cartes combinatoires et cartes généralisées, deux modèles combinatoires représentant des subdivisions d'objets en cellules (sommets, arêtes, faces, volumes, ...). Ces modèles possèdent plusieurs avantages qui justifient leurs utilisations dans plusieurs domaines comme la modélisation géométrique et l'analyse d'images : ils sont définis en dimension quelconque à partir d'un seul type d'élément ; ils décrivent les cellules de la subdivision ainsi que toutes les relations d'adjacence et d'incidence entre ces cellules ; des contraintes de cohérence permettent de tester la validité des objets manipulés ; ils autorisent la mise en oeuvre d'algorithmes locaux, qui sont simples et efficaces en complexité. Nos travaux portent sur l'étude de ces modèles et sur la définition d'algorithmes. Nous avons tout d'abord défini quatre opérations de base : la suppression, la contraction, l'insertion et l'éclatement. Ces opérations sont les briques de base permettant de modifier un objet et peuvent être vues comme une généralisation des opérateurs d'Euler. Elles sont définies de manière générale en dimension quelconque. Il est ensuite possible d'ajouter des contraintes supplémentaires selon les applications et selon les propriétés spécifiques à conserver. Ces opérations sont au coeur de nos travaux. Nous les avons utilisées pour définir la carte topologique 2D et 3D, un modèle décrivant la partition d'une image en régions, puis pour définir des opérations de fusion et de découpe sur les cartes topologiques. Nous avons également défini les pyramides généralisées qui peuvent être vues comme des piles de cartes, chacune étant obtenue par simplification de la carte précédente. Enfin, nous avons proposé des algorithmes de calcul d'invariants topologiques : la caractéristique d'Euler-Poincaré, le schéma polygonal canonique, les nombres de Betti et les groupes d'homologies. Dans ces quatre cas, nous avons à nouveau utilisé les opérations de base afin de proposer des méthodes de mise à jour locales, ou pour simplifier la carte dans l'objectif d'accélérer les calculs du fait de la diminution du nombre de cellules. Nous avons utilisé ces travaux théoriques dans différentes applications. En modélisation géométrique, nous présentons le modeleur Moka qui est un modeleur géométrique à base topologique. Différentes applications se sont basées sur ce modeleur et nous présentons plus en détail une méthode de reconstruction automatique de bâtiments 3D à partir de plans numériques 2D. En traitement d'images, nous avons utilisé les cartes topologiques afin de proposer des algorithmes de segmentation d'images 2D et 3D pouvant intégrer un contrôle topologique.
48

Opérations et Algorithmes pour la Segmentation Topologique d'Images 3D

Dupas, Alexandre 25 November 2009 (has links) (PDF)
Une carte topologique 3D est un modèle servant à représenter la partition en régions d'une image 3D pour le traitement d'images. Dans ce travail, nous développons des outils permettant de modifier la partition représentée par une carte topologique, puis nous utilisons ces outils afin de proposer des algorithmes de segmentation intégrant des critères topologiques. Dans une première partie, nous proposons trois opérations. La fusion de régions est définie avec une approche locale adaptée à une utilisation interactive et une approche globale pour une utilisation automatisée comme lors d'une segmentation. La division de régions est proposée avec une méthode d'éclatement en voxels et la division à l'aide d'un guide. Enfin, la déformation de la partition est basée sur la définition de points ML-Simples : des voxels pouvant changer de région sans modifier la topologie de la partition. À l'aide de ces opérations, nous mettons en œuvre dans une seconde partie des algorithmes de segmentation d'images utilisant les cartes topologiques. Notre première approche adapte au modèle des cartes topologiques un algorithme existant qui utilise un critère basé sur la notion de contraste. Nous proposons ensuite des méthodes de calcul d'invariants topologiques sur les régions : les nombres de Betti. Grâce à eux, nous développons un critère topologique de segmentation permettant de contrôler le nombre de tunnels et de cavités des régions. Enfin, nous illustrons les possibilités de tous nos outils en mettant en place une chaîne de traitement pour la segmentation de tumeurs cérébrales dans des images médicales.
49

Pyramides irrégulières descendantes pour la segmentation de grandes images histologiques

Goffe, Romain 14 September 2011 (has links) (PDF)
Différents modes d'acquisition permettent d'obtenir des images de plusieurs gigaoctets. L'analyse de ces grandes images doit faire face à deux problèmes majeurs. Premièrement, le volume de données à traiter ne permet pas une analyse globale de l'image, d'où la difficulté d'en construire une partition. Deuxièmement, une approche multi-résolution est nécessaire pour distinguer les structures globales à faible résolution. Par exemple, dans le cadre des images d'histologie, les récentes améliorations des scanners permettent d'observer les structures cellulaires sur l'ensemble de la lame. En contrepartie, les images produites représentent jusqu'à 18 Go de données. De plus, l'agencement de ces cellules en tissus correspond à une information globale qui ne peut être observée qu'à faible résolution. Ces images combinent donc un aspect multi-échelle et multi-résolution. Dans ce manuscrit, nous définissons un modèle topologique et hiérarchique adapté à la segmentation de grandes images. Nos travaux sont fondés sur les modèles existants de carte topologique et de pyramide combinatoire. Nous présentons le modèle de carte tuilée pour la représentation de grandes partitions ainsi qu'une extension hiérarchique, la pyramide descendante tuilée, qui représente la dualité des informations multi-échelle et multi-résolution. Enfin, nous utilisons notre modèle pour la segmentation de grandes images en histologie.
50

Représentation des maillages multirésolutions : application aux volumes de subdivision

Untereiner, Lionel 08 November 2013 (has links) (PDF)
Les maillages volumiques sont très répandus en informatique graphique, en visualisation scientifique et en calcul numérique. Des opérations de subdivision, de simplification ou de remaillage sont parfois utilisées afin d'accélérer les traitements sur ces maillages. Afin de maîtriser la complexité de l'objet et des traitements numériques qui lui sont appliqués, une solution consiste alors à le représenter à différentes échelles. Les modèles existants sont conçus pour des approches spécifiques rendant leur utilisation limitée aux applications pour lesquelles ils ont été pensés. Nos travaux de recherche présentent un nouveau modèle pour la représentation de maillages multirésolutions en dimension quelconque basé sur le formalisme des cartes combinatoires. Nous avons d'abord appliqué notre modèle aux volumes de subdivision multirésolutions. Dans ce cadre, nous présentons plusieurs algorithmes de raffinement d'un maillage grossier initial. Ces algorithmes supportent des hiérarchies obtenues par subdivision régulière et adaptative. Nous proposons ensuite deux représentations, opposés en terme de coût spatial et temporel, pour ce modèle.

Page generated in 0.0403 seconds