• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 149
  • 69
  • 17
  • 6
  • 2
  • 1
  • Tagged with
  • 243
  • 108
  • 49
  • 41
  • 20
  • 20
  • 20
  • 20
  • 18
  • 17
  • 16
  • 15
  • 15
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Assemblage de répétitions de la séquence 601 dans le génome de Saccharomyces cerevisiae pour dicter l'espacement des nucléosomes in vivo / Repeats assembly of the 601 sequence into Saccharomyces cerevisiae's genome to dictate nucleosome spacing in vivo

Lancrey, Astrid 18 May 2018 (has links)
Le positionnement des nucléosomes le long des génomes eucaryotes est crucial étant donné qu’il affecte l’accessibilité de l’ADN à des protéines impliquées dans la transcription, la réplication, ou encore la réparation de l’ADN. Si il est aujourd’hui admis que les remodeleurs de chromatine ainsi que les préférences des nucléosomes pour certains motifs d’ADN constituent les deux principaux déterminants du positionnement des nucléosomes in vivo, leur importance relative fait encore l’objet de controverses. Dans le cadre de cette problématique nous avons développé une stratégie d’assemblage de répétitions de la séquence 601 positionnante de nucléosome directement dans le génome de Saccharomyces cerevisiae. Cette technique assistée par la technologie CRISPR/Cas9 et des oligonucléotides chevauchants s’est révélée très efficace et a permis d’assembler des répétitions sur une étendue d’environ 15 kilobases. Nous avons ainsi pu isoler trois souches se caractérisant par trois longueurs d’ADN de liaison de respectivement 20, 50 et 90 paires de bases séparant deux 601 consécutifs tout le long des répétitions. Ces longueurs d’ADN de liaison ont été choisies du fait de leur compatibilité avec les modèles de la fibre de 30 nm étudiés in vitro et parce qu’elles sont fréquemment observées chez les eucaryotes. Nous avons ensuite regardé si ces répétitions de la séquence 601 suffisent à dicter la succession des nucléosomes de S. cerevisiae selon le pas de chromatine attendu. Pour cela, nous avons eu recours à une approche de MNase-seq afin d’analyser les positions des dyades des nucléosomes dans les répétitions. Les résultats de ces analyses révèlent de façon intéressante l’incapacité de la séquence 601 à positionner le nucléosome dans ce contexte cellulaire et cela malgré l’étendue de la région de 601 répétés constituée. Nous avons également analysé le positionnement des nucléosomes chez ces trois mêmes souches suite à l’inactivation de Chd1, l’un des deux principaux architectes du paysage nucléosomal chez la levure, afin de s’affranchir de son potentiel effet sur le positionnement des nucléosomes dans la région 601. Nos résultats montrent que l’absence de Chd1 ne permet pas de rétablir un positionnement des nucléosomes sur les monomères de 601, suggérant que le 601 n’est pas positionnant in vivo ou que la région répétée est sous l’influence d’autres facteurs de remodelage. D’un point de vue méthodologique, notre technique de construction de répétitions in vivo permet d’envisager des approches simplifiées de biologie synthétique pour la construction de librairies de répétitions dans le génome de S. cerevisiae. / Nucleosome positioning along eukaryotic genomes is crucial as it influences DNA accessibility for DNA binding proteins involved in DNA replication, transcription and repair. It is now accepted that both nucleosome preferences for some DNA sequences and remodeling factors play an important role in nucleosome positioning in vivo. However their relative importance remains a matter of debate. To investigate the role played by DNA sequence in nucleosome positioning in a cellular context we developped a strategy to assemble tandem DNA repeats of a nucleosome positioning sequence directly into Saccharomyces cerevisiae’s genome. This method is assisted by CRISPR/Cas9 and overlapping oligonucleotides and it turned out to be very efficient as it allowed to synthetize about 15 kilobases of tandem DNA repeats inside a yeast chromosome. Using this apporoach we obtained three yeast strains differing by the DNA linker length separating two consecutive monomeres of the 601 nucleosome positioning sequence. We chose three lengths of linker (20, 50 and 90 pb) for two reasons. First, they are compatible with the formation of a 30 nm chromatin fiber in vitro, and second, nucleosome repeat length of 167, 197 and 237 pb are found in eukaryotic genomes. We then verified if nucleosomes are effectively positioned according to the theoretic DNA linker lengths we designed in the “601” repeated region. To that goal we performed MNase-seq analysis to deduce nucleosomes dyads positions in the repeats. Interestingly our results show that the 601 sequence is not able to dictate strong nucleosomes positioning differing from the natural nucleosome repeat length of about 165 pb along the repeats in an in vivo context. We further investigated positions of dyads in the same three strains after inactivating the gene coding for the chromatin remodeler Chd1, which could potentially be responsible of the nucleosomes organization in the repeated area. Our results show no effect of Chd1, indicating that the “601” sequence has no positionning effect in vivo or that other trans-acting factors are implicated in nucleosome positioning in the engineered repeats. Finally, this work provides a new fast and simple approach for synthetic DNA repeats construction inside the yeast genome and could easily be applied for other synthetic chromatin engineering approaches.
82

Eviter-Réduire-Compenser : d’un idéal conceptuel aux défis de mise en œuvre : une analyse pluridisciplinaire et multi-échelle / The mitigation hierarchy : from a conceptual ideal to the challenge of implementation : a pluridisciplinary and multi-scale analysis

Bigard, Charlotte 18 June 2018 (has links)
Le territoire est le support d’interactions entre les êtres vivants et leur espace de vie. Parmi ces interactions, il est aujourd’hui reconnu que les activités anthropiques sont une cause déterminante de l’érosion de la biodiversité. Dans ce contexte, la séquence « Eviter-Réduire-Compenser» (ERC) est un instrument réglementaire visant l’absence de perte nette de biodiversité (no net loss) en aménagement du territoire. Or, il semblerait qu’elle ne permette pas de remédier à la perte chronique de biodiversité. Au-delà de ses limites pratiques et théoriques, parmi les causes de cette inefficacité on peut mentionner : la focalisation sur la « compensation » et sur l’échelle « projet » ou encore la convergence des études vers la problématique des grands projets d’aménagement. Ainsi, en partant de questions issues du terrain, en adoptant une posture à l’interface entre recherche et action, et en choisissant une démarche pluridisciplinaire, cette thèse repose sur l’hypothèse que les difficultés actuelles sont liées à des défis scalaires et qu’un changement d’échelle spatiale, temporelle et fonctionnelle est nécessaire pour permettre à l’instrument de prétendre à son objectif. A travers une analyse qualitative et quantitative de l’application de la séquence ERC dans le cadre de petits projets d’aménagement, nous identifions une série de limites associées à l’échelle « projet ». Cela nous amène à analyser, tout d’abord théoriquement puis empiriquement grâce à l’étude de collectivités territoriales responsables de la planification de l’aménagement, les implications d’un changement d’échelle vers une mise en œuvre de la séquence ERC à l’échelle territoriale et stratégique de la planification. Enfin, nous conduisons une réflexion sur l’élaboration d’une démarche méthodologique d’anticipation de la séquence ERC dès la planification, appliquée au cas concret de Montpellier Méditerranée Métropole.In fine, ces recherches nous permettent d’apporter des compléments de réponse à la question des fins effectives de l’instrument : éviter ou plutôt légitimer la perte de biodiversité ? Nos propositions et perspectives pour les praticiens et les chercheurs vont dans le sens d’une mise en œuvre de la séquence ERC plus en phase avec son objectif de no net loss. / Territory provides the support for interactions between humans avec their living environment. Among these interactions, it is well known that anthropic activities are a major cause of biodiversity erosion. In this respect, the mitigation hierarchy (avoidance, reduction and offsetting impacts) is a regulatory tool whose objective is to achieve a “no net loss” of biodiversity following urban development. However, the efficiency of the tool is questioned because of its practical and theoretical limits, and the recurring focus on biodiversity offsets and on the “project” scale, or the convergence of studies on large development projects.Based on questions arising from practical action and by adopting a multi-disciplinary approach and posture at the knowledge-action interface, this thesis hypothesizes that the current lack of efficiency is the result of a problem of scale and that a temporal, spatial and functional switch in scale could help the mitigation hierarchy to reach its objectives. Through quantitative and qualitative analysis of the mitigation hierarchy implementation for small-scale development projects, we identify a set of limits associated with studies done at scale of individual projects. These findings illustrate the need to upscale towards a territorial and strategic approach to the implementation of the mitigation hierarchy. Finally, we initiate a reflexion on the development of a methodological framework to anticipate the mitigation hierarchy implementation at the urban planning stage, and we test it on the Montpellier metropolitan territory.Finally, these research studies provide new answers to the question of the effective purpose of the tool: is its aim to avoid or legitimise biodiversity loss? Our propositions and perspectives for practitioners and scientists are in line with a mitigation hierarchy implementation that is more likely to reach no net loss objectives.
83

Vers une méthodologie de structuration de la dynamique des interactions au sein du modèle Multi-Domaines et Multi-Vues. Application à la conception de familles de produits modulaires / Toward a methodology of structuring the interactions dynamic within the Multi-Domains and Multi-Views design model : Application to the design of modular product families

Robert, Aurélie 27 November 2012 (has links)
Dans le contexte économique actuel, il faut proposer des produits personnalisés dequalité, à faible coût et dans des délais de plus en plus courts. La société MABI a choisi devoir chacune de ces contraintes comme une opportunité de repenser ses produits en misantsur l’innovation. Il faut alors optimiser certaines tâches routinières d’ingénierie afin dedégager du temps pour la conception des nouveaux produits. Le travail de recherche réalisés’inscrit dans le cadre d’une thèse en convention CIFRE en partenariat entre la société MABIet le laboratoire IRTES-M3M de l’UTBM. MABI conçoit, assemble, commercialise et assurele service après-vente de produits propres dans le domaine de la protection et la rénovationdes bâtiments. Ses besoins d’amélioration concernent le processus de développement deproduits qui doivent répondre aux besoins des clients tout en respectant des contraintesd’assemblage spécifiques à l’entreprise. La finalité industrielle de la thèse consiste à décliner au niveau du domaine du« Produit », la méthodologie générique élaborée sur la base de notre travail de recherchescientifique. A ce niveau, notre problématique scientifique consiste à rendre opérationnel etdynamique le modèle Multi-Domaines et Multi-Vues (MD-MV), structuré de manière «plutôtstatique», en y apportant des éléments de raisonnement contribuant à créer des interactionsinter-domaines et inter-points de vue. Pour ce qui est du domaine du « Produit », il endécoule la méthodologie FARD (Functional And Robust Design) qui vise à concevoir et àgénérer rapidement l’ensemble des variantes de produits d’une même famille modulaire touten assurant le respect des besoins clients (conception fonctionnelle) et des contraintesd’assemblage à travers une aide à la décision pour le choix de la séquence d’assemblage,contribuant ainsi à créer une interaction dynamique avec le domaine du « Process ». Quatrethèmes de recherche sont abordés : la modularité, la conception fonctionnelle, la conceptionpour l’assemblage (dès les phases amont du processus de conception) et la simulation(accélérée grâce au paramétrage du maillage). Habituellement, le domaine de la modularitéest souvent associé à celui de la conception fonctionnelle ou encore à celui de la conceptionpour l’assemblage, mais rarement les trois ensemble, ce qui constitue la spécificité de nostravaux. Enfin, l’aspect paramétrique de la méthodologie FARD, à travers les liens établisentre les quatre thèmes de recherche évoqués précédemment, rend possible la générationrapide des produits d’une même famille à partir d’un produit générique et ainsi de gagner dutemps de conception, en vue d‘atteindre nos objectifs de conception routinière « HautementProductive ». Trois cas d’études industriels et académiques illustrent l’application et lafaisabilité la méthodologie FARD... / In current economic context, enterprises must provide quality custom products at alower cost and a shorter delay. MABI Company chose to consider these constraints as anopportunity to rethink its products through innovation. Then certain routine tasks must beoptimized to free up time in order to have more time to innovate and design new products.This thesis is part of a CIFRE partnership between the MABI Company and the IRTES-M3Mlaboratory at UTBM. MABI designs, assembles, sells and provides after-sales service ofproducts in the field of the protection and the renovation of buildings. MABI needs ofimprovement are in the development process of its products that must meet customer needs,while respecting its assembly constraints.The industrial purpose of the thesis is to decline in the Product domain, the genericmethodology developed on the basis of our scientific research work. At this level, ourscientific problematic is to make operational and dynamic the Multi-Domains and Multi-Viewsdesign model (MD-MV), structured in a "rather static" way, and to enriched these models byadding reasoning procedures. It follows the FARD methodology (Functional And RobustDesign) which aims to design and quickly generate variants of a modular product family whileensuring compliance with customer requirements (functional design) and assemblyconstraints. Four domains are covered: modularity, functional design, design for assembly (atthe early stages of the design process) and simulation (accelerated through theparameterisation of the mesh). Usually the domain of modularity is often associated withfunctional design or with the design for assembly, but rarely the three together, thatconstitutes one of our added values. Finally, the parametric aspect of the FARDmethodology, that is the link between the four domains, allows accelerated the generation ofproducts of the same family from a generic product and thus saving design time to achieveour goal of "High Productive" routine design. Three industrial and academic case studiesillustrate the application and the feasibility of the FARD methodology...
84

Imagerie astrophysique à la limite de diffraction des grands télescopes. Application à l'observation des objets froids.

Thiébaut, Eric 08 June 1994 (has links) (PDF)
L'interférométrie des tavelures permet de restaurer des images à la limite de résolution angulaire (quelques dizaines de millisecondes d'arc dans le visible) des plus grands télescopes terrestres malgré les effets de la turbulence atmosphérique. Je présente différentes méthodes de l'interférométrie des tavelures (méthodes de Labeyrie, de Knox et Thompson, du bispectre et de l'holographie auto-référencée) pour mettre en évidence la rigueur nécessaire à leur exploitation. L'application en astronomie visible de ces méthodes nécessite un détecteur à comptage de photons. J'explique comment je compense le défaut dit du "trou du comptage" de photons en intégrant des intercorrélations. Je propose une approche robuste pour résoudre le problème de la restauration d'image à partir de mesures très bruitées et/ou lacunaires. Je montre que cette approche générale peut être adaptée à la nature des mesures, en particulier à celles de l'interférométrie des tavelures. Cela me permet de dériver ou d'améliorer un certain nombre d'algorithmes : déconvolution, déconvolution en aveugle, restauration d'image en interférométrie des tavelures, etc. Ces algorithmes me permettent d'obtenir des résultats fiables et d'intérêt astrophysique : la découverte en Halpha de la base du jet émanant de T-Tau, la première mise en évidence du mouvement orbital d'une étoile double pré-séquence principale pour DF-Tau, la détection dans le visible du compagnon dit "infrarouge" de ZCMa et le sondage de l'atmosphère étendue de chi-Cygni dans les bandes du TiO.
85

Étude des concepts logiciels et matériels pour un système interactif d'animation en temps réel

Bruneaux, Sylvère 26 October 1989 (has links) (PDF)
Présentation d'un outil complet de description interactive et de visualisation en temps réel d'animations. Le système développé implémente des concepts originaux aussi bien au niveau du matériel conduisant a une architecture originale dédiée a l'animation temps réel, qu'au niveau du logiciel
86

Contribution à l'intégration des contraintes de désassemblage et de recyclage dès les premières phases de conception des produits

Haoues, Nizar 06 1900 (has links) (PDF)
Avec le renforcement des pressions réglementaires en matière de traitement des produits en fin de vie, les entreprises se trouvent obligées de s'engager dans une démarche environnementale. Pour répondre à cette contrainte, il faut intégrer les critères de valorisation dès la phase de conception. Les choix de conception doivent d'être plus adaptés aux spécificités des scénarios de valorisation et de désassemblage. L'intégration du désassemblage en fin de vie en conception du produit, s'est traduite par l'évaluation des prototypes ou au mieux par l'évaluation des modèles géométrique de CAO. Par conséquent, le champ de questionnement de ces travaux de recherche porte sur des outils permettant aux concepteurs d'améliorer la désassemblabilité et la recyclabilité de leurs produits. La question des méthodes et des outils d'aide à la conception pour le désassemblage est ici plus particulièrement abordée dans la phase de conception détaillée. Nos observations et nos analyses montrent que le désassemblage en phase amont de conception nécessite parfois de remettre en cause certains dispositifs traditionnels. Par conséquent, ce mémoire contribue à l'intégration des contraintes de désassemblage et de recyclage dès les premières phases de conception de produits. Dans un premier temps nous identifions les différents outils et modèle de DfD, et montrons le manque méthodologique au niveau de la phase conceptuelle de la conception. Pour complet ce manque, nous proposons par la suite un modèle minimal intégrant des outils de représentation des données du produit à partir des modèles d'analyse fonctionnelles et des contraintes de valorisation en fin de vie: BDS, les composants principaux, estimation massique, matériaux et scénarios de valorisation. Une séquence optimale de désassemblage est alors définie. Cette séquence représente dans notre démarche l'objectif à atteindre par les concepteurs. Finalement, nous proposons un outil d'évaluation constitué de trois indicateurs: structure; liaison et matériaux, intégrant aussi une méthode d'agrégation et un tableau de bord pour l'interprétation des résultats. Ainsi, cet outil est dédié au pilotage d'un projet de conception dans une logique de respect des contraintes de valorisation en fin de vie.
87

Etude dans l'ultraviolet lointain de la composante gazeuse de l'environnement circumstellaire des étoiles Ae/Be de Herbig -- L'hydorgène moléculaire

Martin-Zaidi, Claire 04 November 2005 (has links) (PDF)
L'étude de l'hydrogène moléculaire est fondamentale pour une meilleure compréhension des mécanismes de formation stellaire et planétaire. En effet, le H2 est la molécule la plus abondante dans l'environnement circumstellaire des étoiles jeunes, et permet<br />donc d'estimer les quantités totales de gaz disponibles à chaque étape de l'évolution de la protoétoile vers la séquence principale. Dans ce contexte, j'ai mené une étude sur la composante gazeuse, et en particulier sur l'hydrogène moléculaire, dans l'environnement circumstellaire d'un échantillon d'étoiles pré-séquence principale, dites étoiles Ae/Be de Herbig, à différents stades de leur évolution vers la séquence principale.<br /><br />A partir des spectres observés par le satellite FUSE dans<br />l'ultraviolet lointain, j'ai mis en évidence plusieurs mécanismes d'excitation de l'hydrogène moléculaire qui sont clairement corrélés à la structure de l'environnement circumstellaire. En particulier, pour les étoiles de type Be, qui sont les plus jeunes de l'échantillon, les diagrammes d'excitation de l'hydrogène moléculaire circumstellaire peuvent être assez bien reproduits par un modèle de région de photodissociation. Mon analyse montre que ces étoiles sont entourées d'une enveloppe circumstellaire, reste<br />du nuage dans lequel elles se sont formées. Les étoiles de type Ae/B9 de l'échantillon, connues pour être entourées de disques, forment un groupe plus hétérogène. Pour la plupart de ces étoiles, du fait des angles d'inclinaison, le gaz présent dans les disques est très rarement observé car la ligne de visée ne traverse pas les disques. Lorsque du H2 d'origine circumstellaire<br />est observé, j'ai mis en évidence la présence d'un milieu chaud très proche de l'étoile, excité par collisions. En utilisant un modèle de disque ouvert et en supposant que la poussière et le gaz sont couplés, j'ai montré que le gaz chaud que l'on observe ne se situe pas dans le disque, mais peut avoir plusieurs origines. Le gaz chaud peut provenir d'une région chaude de type chromosphère étendue ou de la photoévaporation du disque.<br /><br />Ces différences de structure dans l'environnement circumstellaire des étoiles de Herbig Ae et Be reflètent la différence d'évolution de ces deux groupes d'étoiles. En effet, cette structuration différente du milieu circumstellaire peut être expliquée par une évolution plus rapide des étoiles de Herbig de type Be qui sont associées à de plus forts champs de rayonnement. <br /><br />Ces résultats représentent des contraintes fortes sur les<br />conditions physiques dans lesquelles se trouve le gaz circumstellaire, qui, une fois complétées par de nouvelles observations, permettront d'avoir une compréhension globale de la structure et de l'évolution de l'environnement circumstellaire des étoiles jeunes.
88

Ciblage de vecteurs non viraux de thérapie génique

Carrière, Marie 20 February 2002 (has links) (PDF)
L'efficacité du transfert de gènes non viral est limitée par les barrières physiologiques qui entravent le cheminement de l'ADN jusqu'au noyau des cellules cibles. <br />Ce travail a permis de concevoir et d'étudier trois outils visant à améliorer cette efficacité. <br />Un premier volet concerne le ciblage du noyau cellulaire. Une banque de plasmides comportant une séquence aléatoire a été construite dans le but d'identifier une séquence nucléotidique permettant l'interaction du plasmide avec une protéine karyophile qui pourrait l'escorter jusqu'au noyau cellulaire. Le caractère aléatoire de la banque a été validé mais les séquences recherchées n'ont pas pu être identifiées grâce aux tests que nous avons employés.<br />Le peptide de localisation nucléaire IBB de l'importine a été couplé de façon covalente au squelette d'un plasmide dans le but de promouvoir la fixation du plasmide aux protéines récepteurs d'import nucléaire. La spécificité de l'interaction entre ce plasmide-IBB et les récepteurs cellulaires n'a pas pu être démontrée, les tests employés n'ont pas permis de mettre en évidence un import nucléaire accru de ces plasmides. En revanche le peptide IBB compacte l'ADN, améliorant la lipofection par modification des caractéristiques physico-chimiques du lipoplexe.<br />Le deuxième volet de ce travail concerne le ciblage extracellulaire, envisagé dans le système modèle du récepteur aux asialoglycoprotéines des hépatocytes. Des liposomes cationiques à têtes de ciblage galactosylées ont permis de définir les caractéristiques structurales et physico-chimiques les plus favorables pour l'accessibilité de la tête de ciblage. L'intégration d'un espaceur polyéthylèneglycol au lipide galactosylé a permis de limiter l'internalisation non spécifique des lipoplexes dans les cellules non visées, nous n'avons pas observé de ciblage des hépatocytes.
89

Formalisation en logique linéaire du fonctionnement des réseaux de Petri

GIRAULT, François 15 December 1997 (has links) (PDF)
En logique classique, la formalisation du fonctionnement des réseaux de Petri (RdP) se heurte à la pérennité de la vérité. En logique modale, elle impose la construction préalable du graphe des marquages accessibles. A contrario, la logique linéaire (LL) fondée par Girard permet de formaliser directement par des séquents prouvables purement propositionnels les relations d'accessibilité dans les RdP : toute transition apparaît comme une implication linéaire disponible ad libitum entre les propositions traduisant ses marquages d'entrée et de sortie. Pour approfondir cette formalisation, nous définissons comme primitives en LL les notions de ressource, d'action et de consommabilité/productibilité, analogues mais distinctes de celles de proposition, de déduction et de vérité/fausseté en logique classique. Nous développons une interprétation concrète pour tous les connecteurs linéaires en cohérence avec leurs propriétés syntaxiques. Nous présentons le connecteur « par » comme un opérateur de cumul disjoint d'exemplaires de ressources (dual du connecteur « fois » de cumul conjoint) et la négation linéaire « nil » comme un inverseur du sens du temps. Cette concrétisation montre les limites des formalisations existantes des RdP en LL ; nous les généralisons en traduisant chaque transition par une implication linéaire ordinaire, traitée comme une ressource périssable, dont tout exemplaire consommé correspond à une occurrence de franchissement. Ainsi, nous apportons une expression logique aux aspects primordiaux du fonctionnement des RdP : nous démontrons qu'une relation d'accessibilité par séquence de transitions équivaut à un séquent prouvable et que l'équation fondamentale est l'expression algébrique d'un corollaire du critère d'équilibrage en LL. Grâce à la combinatoire de tous les connecteurs linéaires, notre approche ouvre des perspectives d'analyse de relations complexes d'accessibilité comme celles de reprise après défa illance dans un système industriel.
90

Vision 3D non calibrée : contributions à la reconstruction projective et étude des mouvements critiques pour l'auto-calibrage

Sturm, Peter 17 December 1997 (has links) (PDF)
Cette thèse concerne la reconstruction tridimensionnelle d'objets à partir d'images prises par des caméras. Le schéma classique s'appuie sur un calibrage hors ligne des caméras. Ce calibrage n'est pas toujours possible et des applications dynamiques requièrent en général fréquemment une mise à jour du calibrage au vol. Il est donc clairement souhaitable de pouvoir s'affranchir du besoin d'un calibrage hors ligne. Dans cette thèse, nous nous concentrons d'une part sur des méthodes de reconstruction non calibrée et d'autre part sur le concept de calibrage en ligne ou auto-calibrage. Nous tâchons d'obtenir des mesures tridimensionnelles même avec des images prises par des caméras non calibrées. Les informations obtenues ne sont pas de nature métrique, mais elles sont néanmoins exploitables pour des tâches de reconnaissance d'objets ou d'asservissement de robots. Nous avons développé plusieurs méthodes pratiques pour la reconstruction tridimensionnelle non calibrée. L'auto-calibrage ou calibrage en ligne consiste à calibrer une caméra uniquement à partir d'images d'objets inconnus. Les images prises au cours d'une application peuvent donc être utilisées simultanément pour l'application elle-même et pour le calibrage de la caméra. Notre contribution majeure dans ce domaine est une étude des conditions de dégénérescence qui s'avèrent apparaître fréquemment en pratique. Plus précisément, nous identifions tous les types de mouvements de caméra qui prohibent l'auto-calibrage.

Page generated in 0.0571 seconds