• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Contribution à la détection de changements dans des séquences IRM 3D multimodales

Bosc, Marcel 17 December 2003 (has links) (PDF)
L'imagerie médicale a profondément influencé à la fois la recherche médicale et la pratique clinique. Elle est aujourd'hui incontournable aussi bien pour l'établissement du diagnostic que pour la mise en place et le suivi d'un traitement thérapeutique. Elle fournit un volume croissant de données tridimensionnelles provenant de modalités d'acquisition différentes (IRM, scanner-X, médecine nucléaire, échographie). Ce volume croissant de données rend délicate et laborieuse la tâche d'interprétation par un expert. Le traitement d'images est un outil permettant une automatisation des tâches et va assister l'expert aussi bien dans l'analyse qualitative que quantitative des images. Dans ce mémoire, nous proposons des techniques automatiques de détection de changements dans des séquences d'images IRM cérébrales. Nous nous intéressons plus particulièrement aux changements d'intensité localisés survenant lors d'évolutions pathologiques telles que les évolutions de lésions en sclérose en plaques (SEP). Les applications médicales des techniques développées ici sont nombreuses: aide au diagnostic, suivi à long terme de l'évolution d'une pathologie, évaluation de l'efficacité thérapeutique d'un médicament, aide à la prise de décision en vue d'une intervention chirurgicale. Ce travail de recherche a été mené en étroite collaboration entre le LSIIT (ULP/UMR CNRS 7005) et l'Institut de Physique Biologique (ULP-Hôpitaux Universitaires / UMR CNRS 7004), au sein de l'équipe-projet multi-laboratoires "Imagerie et Robotique Médicale et Chirurgicale" (EPML IRMC). Il a été soutenu par la Ligue Française Contre la Sclérose En Plaques (LFSEP), la société SERONO et la région Alsace. La détection automatique et fiable de changements interimages rencontre d'importantes difficultés rendant impossible la comparaison directe d'images acquises successivement. La position des patients dans l'imageur n'est jamais identique et les paramètres d'acquisition peuvent varier sensiblement entre chaque examen, entraînant, entre autres, des modifications de contraste. La définition même de ce qui doit être détecté est souvent subjective. Dans le cadre spécifique de la détection de changements d'intensité de lésions, des déformations globales de structures anatomiques, telle que l'atrophie cérébrale, peuvent également perturber la comparaison directe des images. Le travail présenté dans cette thèse est centré sur le développement d'outils de traitement d'images permettant de décider quels changements sont statistiquement significatifs ou non. Lorsque l'expert détermine visuellement des changements, il utilise des connaissances a priori, implicites, de haut niveau qui lui permettent de corriger certaines erreurs d'acquisition. Ainsi, il peut compenser visuellement des erreurs de repositionnement et utiliser ses connaissances anatomiques propres pour identifier et rejeter certains artefacts. Nous développons donc ici, des techniques automatiques d'identification et de correction des principaux artefacts (positionnement, déformations, variations d'intensité ...) et nous proposons une technique originale de segmentation du cortex, apportant les informations anatomiques permettant l'amélioration de la détection automatique. Les techniques de traitement d'images proposées ici ont été développées pour l'IRM cérébrale. Cependant, elles sont suffisamment générales pour s'appliquer à d'autres domaines. Notre système de détection de changements a été évalué dans le cadre de l'étude de l'évolution de lésions de sclérose en plaques. Ses performances ont été déterminées sur une grande base d'images multimodales (plus de 200 images FLAIR, RARE et GE3D) de taille $128^3$. L'évaluation a été faite à l'aide d'un protocole impliquant deux experts (neurologues) et utilisant une analyse statistique de type COR Le système automatique a été jugé plus performant que l'expert humain. Dans la première partie de ce manuscrit, nous présentons tout d'abord les éléments d'imagerie IRM et les aspects médicaux nécessaires à la compréhension de l'ensemble de ce travail. Nous décrivons les modalités d'acquisition IRM et les artefacts associés. Cette étape est importante pour la compréhension des imperfections pouvant apparaître et leur correction. Nous présentons ensuite des éléments sur l'anatomie cérébrale et nous décrivons l'apparence prise les différentes structures cérébrales dans les trois modalités IRM considérées. Puis, nous terminons par les pathologies cérébrales, leurs évolutions, et leur aspect en IRM. Les objectifs et les limites de notre approche sont situés par rapport à ce contexte applicatif. Dans une deuxième partie nous décrivons une approche nouvelle de segmentation sous-voxel. Pour décider de la pertinence d'un changement observé, l'expert utilise des connaissances anatomiques. Dans notre système de détection automatique, ces connaissances sont obtenues en segmentant l'image du cerveau. La méthode de segmentation proposée est basée sur l'évolution d'une image de labels de très haute résolution. L'évolution se fait sous l'influence de contraintes statistiques multiples, exprimées dans un cadre de minimisation d'énergie. L'évolution de l'image de labels n'ayant lieu qu'à la frontière entre régions, notre approche est comparable à un système d'évolution de surfaces. Afin de s'adapter aux spécificités de chaque région cérébrale, les contraintes sont paramétrées à l'aide d'un atlas. Celui-ci, composé d'une image de référence et d'images de paramètres, est plaqué sur l'image à segmenter à l'aide d'un recalage déformable multi-échelles. Les contraintes sont classées en deux catégories: les contraintes image (attache aux données) et le modèle a priori. Plusieurs contraintes image, opérant simultanément à des échelles différentes, sont employées. Elles utilisent une description rigoureuse du processus d'acquisition, permettant ainsi d'atteindre à la fois une précision sous-voxel et une convergence globale (à grande échelle). Le modèle a priori est également composé de plusieurs contraintes : une contrainte de distribution relative qui donne la probabilité d'observer un label à une distance donnée d'un autre label et une contrainte d'épaisseur. Notre approche permet d'obtenir une segmentation de haute résolution à partir d'images IRM pouvant être de résolution inférieure. La performance du système de segmentation a été évaluée sur des images simulées et testée sur des images réelles. La troisième partie présente l'ensemble de la chaîne de traitements conduisant à la détection de changements, ainsi que le protocole d'évaluation et les résultats. La chaîne de traitements est constituée d'une première étape de repositionnement et de correction des déformations. Toutes les images de la base sont alignées sur des références soigneusement choisies, d'abord à l'aide d'une méthode de recalage affine itératif robuste, puis à l'aide de recalage déformable. Au cours de la deuxième étape, les deux images à comparer subissent une correction d'intensité non-linéaire ainsi qu'une élimination d'erreurs résiduelles. La méthode de correction d'intensité que nous proposons permet d'établir une fonction de transfert d'intensité non-linéaire en optimisant un critère simple s'appuyant sur des informations de l'histogramme conjoint. Finalement, au cours de la dernière étape, une approche de détection statistique multimodale permet de décider quels changements sont significatifs. Les connaissances anatomiques fournies par la segmentation sont utilisées pour éliminer certaines détections aberrantes. L'ensemble de ces traitements est appliqué de manière entièrement automatique sur une base de plus de 200 images, de modalités différentes, démontrant ainsi la fiabilité des traitements. La validation du système a été menée à l'aide d'un protocole d'évaluation comprenant deux experts (neurologues). Le premier expert ainsi que le système automatique ont procédé indépendamment à un même travail de détection (l'expert opérant manuellement). Le second expert fait ensuite office d'arbitre pour comparer les résultats des deux procédés. L'analyse COR permet une vue synthétique de la performance du détecteur en donnant la probabilité de détection en fonction du nombre de fausses alarmes. Dans un cadre applicatif, les modifications détectées par le système automatique sont ordonnées par vraisemblance décroissante et présentées au neurologue dans un système de visualisation interactif. Ceci permet au médecin de conserver la décision finale, tout en parcourant efficacement et très rapidement les modifications détectées. En annexe nous proposons quelques réflexions sur l'importance du développement logiciel et de sa diffusion dans la recherche en traitement d'images. Nous présentons ensuite ImLib3D, une librairie C++ dédiée à la recherche en traitement d'images volumiques, que nous avons développée dans le cadre de cette recherche. ImLib3D propose à la fois un système de visualisation séparé et une librairie soigneusement conçue à l'aide d'une méthodologie orientée objet et utilisant des concepts modernes s'inspirant de la librairie standard du C++. L'objectif, dans la conception, a été de créer une librairie simple à utiliser par le chercheur, considéré comme le public cible. ImLib3D est distribuée librement (Open Source) et est placée dans un cadre de développement distribué coopératif (sourceforge.net). En conclusion, nous avons élaboré un système complet et opérationnel de détection de changements dans lequel nous avons systématiquement analysé et traité les principaux artefacts gênant la détection.
342

Composition de squelettes algorithmiques : application au prototypage rapide d'applications de vision

COUDARCHER, Rémi 16 December 2002 (has links) (PDF)
Le travail présenté s'inscrit dans le cadre de la recherche sur des outils d'aide à la programmation parallèle de machines MIMD-DM. Notre champ applicatif est celui de la programmation d'applications de vision artificielle. <br> Ces recherches ont abouti au développement de l'outil SKiPPER (SKeleton-based Parallel Programming EnviRonment) qui est un outil d'aide à la programmation parallèle pour le prototypage rapide d'applications de vision artificielle. Il a été conçu pour obtenir une application opérationnelle dans un délai très court et avec le minimum d'étapes intermédiaires dans le processus de réalisation. La méthodologie retenue pour Sa mise en oeuvre est fondée sur l'emploi de squelettes algorithmiques. Ces structures de programmation paramétrables encapsulent des formes communément utilisées de parallélisme pour les rendre facilement exploitables. <br> Dans le cadre de ce projet nous nous intéressons aux aspects compositionnels de ces squelettes afin d'augmenter le potentiel d'applications de vision artificielle qui peuvent être spécifiées avec notre outil. Le séquencement de squelettes étant un cas trivial de composition déjà pris en charge dans les premiers développements de SKiPPER, nous nous intéressons ici au cas plus difficile de l'imbrication de plusieurs squelettes, homogène et hétérogène, c'est-à-dire entre squelettes identiques ou non. <br> Nous proposons une approche dynamique de la composition des squelettes de parallélisation en établissant une formulation générique de tous les squelettes de la bibliothèque de l'environnement et un modèle d'exécution capable de gérer dynamiquement à l'exécution les problèmes qui lui sont lies. <br> Afin de valider l'approche, un certain nombre de programmes tests sont évalues ainsi qu'une application réelle de traitement d'images faisant apparaître la nécessite de disposer dans certains cas de figure de la souplesse et du potentiel offert par la composition de squelettes dans l'expression du parallélisme potentiel.
343

DYNAMIQUE SEDIMENTAIRE MULTICLASSE : DE L'ETUDE DES PROCESSUS A LA MODELISATION EN MANCHE

Blanpain, Olivier 06 October 2009 (has links) (PDF)
Ce travail a pour finalité la mise en place d'un modèle numérique de transport sédimentaire en Manche. La conception d'un tel modèle a nécessité l'identification des processus physiques, leur modélisation numérique et leur validation in-situ. Le domaine d'étude implique de modéliser le comportement mécanique d'un mélange hétérométrique de particules et particulièrement celui des grains fins au sein d'une matrice grossière. L'attention a été portée sur la caractérisation de ces processus par l'acquisition de données expérimentales et in-situ. Les données acquises dans des conditions hydro-sédimentaires comparables à celles rencontrées en Manche sont rares. Ainsi, un nouvel instrument et une méthode d'analyse d'images ont été spécifiquement conçus et mis en oeuvre in-situ dans le but d'observer et de quantifier la dynamique d'un mélange particulaire fortement hétérogène à l'échelle du grain et des fluctuations turbulentes. Les données obtenues ont été confrontées avec succès aux formulations existantes. Une d'entre elles a été choisie pour être adaptée. A partir de prélèvements stratigraphiques, la dynamique de transfert des particules fines dans un sédiment grossier et leur profondeur de pénétration ont pu être appréhendées. Le modèle de transport sédimentaire multiclasse multicouche, forcé par les vagues et les courants et prenant en compte le transport par charriage et en suspension a ainsi pu être appliqué à des scénarios réalistes Manche.
344

Modèles déformables 2-D et 3-D : application à la segmentation d'images médicales

Cohen, Isaac 03 June 1992 (has links) (PDF)
La segmentation d'images à l'aide des modèles déformables permet d'imposer des contraintes globales aux contours détectés. La résolution des équations aux dérivées partielles caractérisant les courbes et les surfaces déformables est faite à l'aide d'une méthode d'éléments finis conformes. Cette méthode plus élaborée, permet une détection des points de contour 2-D et 3-D plus précise et une réduction de la complexité algorithmique par rapport à la méthode des différences finies. Le modèle de courbes déformables a permis d'établir une première segmentation d'images 3-D ainsi qu'un suivi de structures dans des images spatio-temporelles. Ce suivi global a été complété par un suivi ponctuel des contours à l'aide d'une description explicite de la mise en correspondance basée sur les caractéristiques géométriques de la courbe et la régularité du champ de déplacement. Nous proposons également une méthode de détermination des paramètres de régularisation à partir de la géométrie de la surface (ou de la courbe) et des données. Cette méthode permet d'imposer implicitement des discontinuités de position et de tangente aux modèles déformables 2-D et 3-D. L'ensemble des modèles proposés est illustré par des expérimentations sur des images synthétiques et médicales.
345

Automatisation et optimisation de l'analyse d'images anatomo-fonctionnelles de cerveaux de souris par atlas numérique 3D

Lebenberg, Jessica 14 December 2010 (has links) (PDF)
La résolution des images de cerveau du petit animal acquises in vivo est encore limitée au regard de la taille des structures observées. Les modalités d'imagerie post mortem (coupes histologiques et autoradiographiques) restent encore aujourd'hui la référence pour une étude anatomo-fonctionnelle précise, bien que la cohérence 3D de l'organe soit perdue. Ces images 2D étant analysées par segmentation manuelle de régions d'intérêt (RDI), ce qui requiert du temps et une expertise en neuroanatomie, le nombre de coupes et de RDI étudiées est limité. Pour s'a ranchir de la perte de la cohérence 3D de l'organe et traiter un grand nombre de données, il est nécessaire de reconstruire des images 3D à partir de séries de coupes 2D et d'automatiser et d'optimiser l'analyse de ces volumes de données. Des travaux ont été réalisés pour restaurer la cohérence 3D de l'organe. L'objectif atteint de ce travail de thèse a donc été de proposer une méthode d'analyse de ces images 3D. Pour cela, nous avons recalé un atlas numérique 3D sur des images 3D de cerveaux de souris pour mener une étude de celles-ci grâce aux RDI de l'atlas. L'analyse par atlas à l'échelle des RDI, bien que able et rapide, met di cilement en évidence des variations fonctionnelles se produisant dans des zones de petite dimension par rapport à la taille des RDI. Ces di érences peuvent en revanche apparaître grâce à une analyse statistique réalisée à l'échelle du pixel. L'interprétation de ces résultats étant complexe chez la Souris, nous avons proposé d'utiliser l'atlas pour superviser cette analyse a n de coupler les avantages des méthodes. Un travail préliminaire a ensuite été réalisé pour évaluer la faisabilité d'analyser par atlas des images TEP acquises chez la Souris. Une perspective de ces travaux est d'utiliser l'atlas numérique 3D comme outil unique pour analyser conjointement des images acquises in vivo et post mortem sur les mêmes sujets et ainsi recouper les informations extraites de ces images.
346

Planning pour la thérapie de tumeur du foie par ultrasons haute intensité

Esneault, Simon 16 December 2009 (has links) (PDF)
Dans le contexte général des thérapies minimalement invasives, les travaux de cette thèse portent sur le planning d'une thérapie interstitielle de tumeurs du foie par ultrasons haute intensité. Dans un premier temps, une caractérisation des structures anatomiques hépatiques à partir de données scanner X est proposée selon deux méthodes de segmentation basée sur le graph cut : l'une semi-interactive et rapide pour extraire le foie et les éventuelles tumeurs ; et l'autre automatique et spécifique à la segmentation de la vascularisation hépatique par l'introduction d'un a priori local de forme estimé à partir de moments géométriques 3D. La seconde partie de cette étude est consacrée à la modélisation des effets de la thérapie sur les tissus. Le modèle proposé offre la possibilité de simuler différents types de sonde composée d'une matrice d'éléments contrôlables en phase et intensité. La description de la vascularisation locale dans le milieu peut également être intégrée dans le modèle. Les travaux et résultats obtenus portent sur trois aspects et/ou applications de ce modèle : 1) une méthode pour accélérer la résolution de la BHTE sous certaines hypothèses, 2) des résultats préliminaires de modélisation d'une sonde 64 éléments à focalisation dynamique et 3) le design géométrique d'une sonde endocavitaire 256 éléments.
347

Modélisation d'images agronomiques - application a la reconnaissance d'adventices par imagerie pour une pulvérisation localisée

Jones, Gawain 26 November 2009 (has links) (PDF)
Les nouvelles réglementations concernant les usages de produits phytosanitaires et la prise en compte de l'environnement (pollution, biodiversité) en agriculture ont conduit à la mise au point de méthodes d'identification de plantes (culture et adventices) par une gestion spécifique des adventices par imagerie. Afin de disposer d'un outil performant permettant l'évaluation de ces méthodes d'identification reposant sur une analyse spatiale de la scène photographiée, un modèle de simulation de scènes agronomiques a été mis au point. Prenant en considération certaines caractéristiques agronomiques d'une parcelle cultivée, ce modèle permet de simuler une vérité terrain dont les paramètres - la spatialisation de la culture, le taux d'infestation, la distribution des adventices - sont contrôlés. La scène agronomique ainsi créée subit ensuite une transformation projective afin de simuler la prise de photographie et, ainsi, de prendre en compte tous les paramètres nécessaire à la création d'une image. Ce modèle a ensuite été validé à l'aide de comparaison statistique avec des données réelles. De nouveaux algorithmes spatiaux basés sur la Transformée de Hough et utilisant l'alignement en rang de la culture ont également été développés. Trois méthodes basées sur une analyse en composante connexe, une estimation de contours et une méthode probabiliste ont été mises en œuvre et exhaustivement évaluées à l'aide du modèle développé. Les résultats obtenus sont de très bonne qualité avec une classification correcte de la culture et des adventices supérieure à 90% et pouvant atteindre 98% dans certains cas. Enfin, pour ce modèle, une approche spectrale a également été explorée afin de dépasser les limitations imposées par les méthodes spatiales. Une extension 3D a été apportée à ce modèle afin de permettre la simulation de la réflectance bidirectionnelle (BRDF) des plantes et du sol à l'aide des modèles PROSPECT et SOILSPECT. La transformation d'une information spectrale en une information couleur RGB, la prise en compte de filtres optiques ou la création de données multispectrales sont également discutées.
348

Decision Fusion in Identity Verification using Facial Images

Czyz, Jacek 12 December 2003 (has links)
Automatic verification of personal identity using facial images is the central topic of the thesis. This problem can be stated as follows. Given two face images, it must be determined automatically whether they are images of the same person or of different persons. Due to many factors such as variability of facial appearance, sensitivity to noise, template aging, etc., the problem is difficult. We can overcome some of these difficulties by combining different information sources for the classification/recognition task. In this thesis we propose strategies on how to combine the different information sources, i.e. fusion strategies, in order to improve the verification accuracy. We have designed and thoroughly optimised a number of face verification algorithms. Their individual properties such as how their accuracy depends on algorithm parameters, image size, or sensitivity to mis-registrations have been studied. We have also studied how to combine the outputs of the different algorithms in order to reduce the verification error rates. Another decision fusion aspect considered in this thesis is the fusion of confidences obtained sequentially on several video frames of the same person's face. Finally multimodal fusion has been studied. In this case, the speech and face of the same subject are recorded and processed by different algorithms which output separate opinions. These two opinions are then conciliated at the fusion stage. It is shown that in all cases, information fusion allows a considerable performance improvement if the fusion stage is carefully designed.
349

Caractérisation et modélisation du comportement de la phase dispersée dans les colonnes pulsées

Randriamanantena, Tojonirina 28 January 2011 (has links) (PDF)
Dans un contexte où il est devenu vital de réduire l'impact de l'activité humaine sur l'environnement, l'optimisation du recyclage des combustibles nucléaires prend une place grandissante. L'extraction liquide-liquide, procédé au coeur du recyclage, met en contact deux phases immiscibles dont une dispersée sous forme de gouttes. L'échange de matière entre les deux liquides est étroitement lié à la surface d'échange produite par l'appareil utilisé. La colonne pulsée, exploitée à une échelle industrielle, fait l'objet de cette étude dont le but est de fournir un modèle mathématique capable de prévoir la quantité d'aire interfaciale produite afin de permettre un meilleur dimensionnement des appareils. Les travaux menés au cours de cette thèse se sont axés autour de deux thèmes principaux : la caractérisation des émulsions en colonne pulsée et la modélisation du comportement de la phase dispersée. La phase de caractérisation a eu pour objectif de mesurer les données nécessaires à la connaissance de l'émulsion et au calibrage du modèle mathématique. Pour se mettre en conformité avec la nature eulérienne du modèle, un système de synchronisation des mesures avec le cycle de pulsation de la colonne a été mis en place. Des techniques de mesure innovantes, par traitement d'images, exploitant cette synchronisation ont été développées pour permettre de mesurer le taux de rétention moyen (fraction volumique), la distribution des tailles de gouttes, l'anisotropie ainsi que l'aire interfaciale volumique moyenne. Ces travaux expérimentaux ont fait l'objet d'une communication orale à l'International Congres on Multiphase Flow (ICMF 2010). La phase de modélisation s'est appuyée sur les travaux de D. LHUILLIER qui fournit un modèle eulèrien d''emulsion de type " modèle de m'elange ". L'émulsion y est perçue comme une phase unique, pseudo continue, aux propriétés pondérées par les fractions volumiques respectives de chacune des phases présentes. La nouveauté du modèle réside sur l'emploi d'une équation de transport de l'aire interfaciale volumique, grandeur clé pour le dimensionnement et la mesure de l'efficacité des appareils d'extraction liquide liquide. L'évolution de cette grandeur est le résultat de la compétition entre quatre phénomènes principaux que sont la déformation, le retour à l'isotropie, la coalescence et la fragmentation. La restitution correcte de cette physique a nécessité l'emploi d'une méthode de " fractionnement du pas de temps " où les effets de chaque phénomène sont pris en compte de façon séquentielle pour que les termes puits comme le retour à l'isotropie ou la coalescence n'effacent pas instantanément la production générée par les termes source. Dans un premier temps l'ajustement du modèle s'est basé sur des données de la littérature mettant en jeu des géométries académiques comme le convergent-divergent. Les données expérimentales fraîchement acquises ont ensuite servi à apporter une première validation du modèle sur une géométrie moins courante, la colonne pulsée.
350

Etude dynamique et observationnelle des astéroïdes de la ceinture principale

Souami, Damya 07 December 2012 (has links) (PDF)
Les astéroïdes sont les vestiges de notre système solaire primitif. Inconnus il y a encore 210 ans, leur découverte a changé notre vision du monde. Je me suis proposée dans cette thèse d'étudier les aspects tant dynamiques qu'observationnels relatifs à ces objets. Je prends le temps d'aborder le contexte historique de leur découverte ainsi que les conséquences qui y font suite. Ceci m'amène à définir le plan de référence le mieux adapté à leur étude. Laplace, il y a deux siècles de cela, s'était également intéressé à ce plan pour l'étude des planètes. Mon travail porte sur la caractérisation de ce plan, dit "invariable", mais aussi sur l'évaluation de l'effet des "plus gros petits corps" du système solaire et à la contribution de chaque planète sur son orientation. Dans la partie dynamique, je me cantonne à l'étude des astéroïdes de la ceinture principale. Je me penche sur les différentes distributions de ces populations, aujourd'hui considérées comme laboratoires grandeur nature permettant de tester théories et modèles dynamiques. Je m'intéresse à la distribution de ces populations en terme de plans orbitaux. Je m'intéresse à un autre type de distribution que sont les familles d'astéroïdes, i.e astéroïdes provenant d'un même corps parent. En particulier, j'étudie la dynamique à long terme des membres de la famille de l'astéroïde (4) Vesta. J'inclue à cet égard les effets relativistes ainsi que l'effet Yarkowsky, par essence non gravitationnel. Enfin dans la partie observationnelle, je m'intéresse à deux méthodes de détections des astéroïdes, l'une à l'oeil nu, l'autre automatisée. Enfin, je les applique aux données, du télescope SUBARU de 8,2m, dans le cadre du programme SMBAS-III (Sub-km Main Belt Asteroid Survey). En conclusion, je montre comment cette thèse m'a permis d'aborder sous différents aspects la population des astéroïdes.

Page generated in 0.0204 seconds