• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1117
  • 547
  • 152
  • 3
  • Tagged with
  • 1795
  • 885
  • 376
  • 261
  • 257
  • 241
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 130
  • 128
  • 114
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Évolution des propriétés dynamiques de poutres en béton armé endommagées en laboratoire

Saidou Sanda, Mamar January 2015 (has links)
Le présent document constitue une partie d'un projet de recherche global sur la quantification de l'endommagement minimal détectable par des mesures de vibrations ambiantes mesurées sur un pont routier en service. L'objectif de l'étude effectuée dans cette maîtrise est de suivre l'évolution des propriétés dynamiques de poutres en béton armé en fonction de différents niveaux d'endommagement qui leur sont infligés en laboratoire, et de vérifier si ces propriétés sont des indicateurs fiables de l'endommagement. Elles serviront par la suite à effectuer une détection d'endommagement avec le logiciel commercial FEMtools et avec un algorithme développé en langage Matlab. Une étude expérimentale qui a porté sur trois spécimens de poutre en béton armé simple fabriqués et testés à l'Université de Sherbrooke est présentée. Toutes les poutres ont été dimensionnées adéquatement en flexion et présentent des défauts de renforcement en cisaillement. Deux spécimens ne renferment que l'armature minimale de cisaillement, et la dernière ne renferme aucune armature de cisaillement, comme c'est le cas pour des ponts-dalle. Les types d'endommagement testés sont ceux qui sont le plus souvent retrouvés sur les ponts routiers au Québec: l'endommagement dû au travail des poutres en flexion-cisaillement, l'endommagement dû à la corrosion des armatures de flexion et l'altération des conditions d'appui. Des essais de flexion quatre points ont été effectués pour simuler les dommages en flexion-cisaillement. Les modifications des conditions d'appuis sont simulées en bloquant les degrés de liberté d'un des appuis. La corrosion des armatures de flexion est simulée en sectionnant de manière séquentielle ces armatures en trois positions le long de la poutre. L'extraction des propriétés modales des poutres a été effectuée après tout nouvel endommagement imposé à l'aide d'excitations au marteau d'impact et d'une série d'accéléromètres. Deux méthodes d'analyse modales ont été utilisées: FRF (fonctions de réponse en fréquence) et FDD (Frequency Domain Decomposition). Les évolutions des propriétés modales à travers les endommagements des trois poutres montrent que les fréquences naturelles et les déformées modales sont des indicateurs très clairs de l'altération des conditions d'appui et de la fissuration en flexion-cisaillement. L'évolution de ces indicateurs est néanmoins plus subtile dans le cas d'une poutre sans renforcement en cisaillement, dont la rupture est très précoce. Les résultats montrent, en revanche, que la corrosion des armatures est un dommage beaucoup plus difficile à saisir à travers l'évolution des propriétés modales. L'ensemble des analyses expérimentales montre aussi que les taux d'amortissement modaux ne constituent pas des indicateurs fiables des endommagements testés sur les poutres.
172

Restauration adaptative des contours par une approche inspirée de la prédiction des performances

Rousseau, Kami January 2008 (has links)
En télédétection, les cartes de contours peuvent servir, entre autres choses, à la restitution géométrique, à la recherche d'éléments linéaires, ainsi qu'à la segmentation. La création de ces cartes est faite relativement tôt dans la chaîne de traitements d'une image. Pour assurer la qualité des opérations subséquentes, il faut veiller à obtenir une carte de contours précise. Notre problématique est de savoir s'il est possible de diminuer la perte de temps liée au choix d'algorithme et de paramètre en corrigeant automatiquement la carte de contours. Nous concentrerons donc nos efforts sur le développement d'une méthode de détection/restauration de contours adaptative. Notre méthode s'inspire d'une technique de prédiction des performances d'algorithmes de bas niveau. Elle consiste à intégrer un traitement par réseau de neurones à une méthode"classique" de détection de contours. Plus précisément, nous proposons de combiner la carte de performances avec la carte de gradient pour permettre des décisions plus exactes. La présente étude a permis de développer un logiciel comprenant un réseau de neurones entraîné pour prédire la présence de contours. Ce réseau de neurones permet d'améliorer les décisions de détecteurs de contours, en réduisant le nombre de pixels de fausses alarmes et de contours manqués. La première étape de ce travail consiste en une méthode d'évaluation de performance pour les cartes de contours. Une fois ce choix effectué, il devient possible de comparer les cartes entre elles. Il est donc plus aisé de déterminer, pour chaque image, la meilleure détection de contours. La revue de la littérature réalisée simultanément a permis de faire un choix d'un groupe d'indicateurs prometteurs pour la restauration de contours. Ces derniers ont servi à la calibration et à l'entrainement d'un réseau de neurones pour modéliser les contours. Par la suite, l'information fournie par ce réseau a été combinée par multiplication arithmétique avec les cartes d'amplitudes de détecteurs"classiques" afin de fournir de nouvelles cartes d'amplitude du gradient. Le seuillage de ces contours donne des cartes de contours"optimisées". Sur les images aéroportées du jeu de données South Florida, la médiane des mesures-F de la pour l'algorithme de Sobel passe de 51,3 % avant la fusion à 56,4 % après. La médiane des mesures-F pour l'algorithme de Kirsch amélioré est de 56,3 % et celle de Frei-Chen amélioré est de 56,3 %. Pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F médiane est de 52,3 % avant fusion et de 57,2 % après fusion.En guise de comparaison, la mesure-F médiane pour le détecteur de Moon, mathématiquement optimal pour contours de type"rampe", est de 53,3 % et celle de l'algorithme de Canny, est de 61,1 %. L'applicabilité de notre algorithme se limite aux images qui, après filtrage, ont un rapport signal sur bruit supérieur ou égal à 20. Sur les photos au sol du jeu de données de South Florida, les résultats sont comparables à ceux obtenus sur les images aéroportées. Par contre, sur le jeu de données de Berkeley, les résultats n'ont pas été concluants. Sur une imagette IKONOS du campus de l'Université de Sherbrooke, pour l'algorithme de Sobel, la mesure-F est de 45,7 % «0,9 % avant la fusion et de 50,8 % après. Sur une imagette IKONOS de l'Agence Spatiale Canadienne, pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F est de 35,4 % «0,9 % avant la fusion et de 42,2 % après. Sur cette même image, l'algorithme de Argyle (Canny sans post-traitement) a une mesure-F de 35,1 % «0,9 % avant fusion et de 39,5 % après. Nos travaux ont permis d'améliorer la banque d'indicateurs de Chalmond, rendant possible le prétraitement avant le seuillage de la carte de gradient. À chaque étape, nous proposons un choix de paramètres permettant d'utiliser efficacement la méthode proposée. Les contours corrigés sont plus fins, plus complets et mieux localisés que les contours originaux. Une étude de sensibilité a été effectuée et permet de mieux comprendre la contribution de chaque indicateur. L'efficacité de l'outil développé est comparable à celle d'autres méthodes de détection de contours et en fait un choix intéressant pour la détection de contours. Les différences de qualité observées entre notre méthode et celle de Canny semble être dues à l'utilisation, ou non, de post-traitements. Grâce au logiciel développé, il est possible de réutiliser la méthodologie; cette dernière a permis d'opérationnaliser la méthode proposée. La possibilité de réutiliser le filtre, sans réentrainement est intéressante. La simplicité du paramétrage lors de l'utilisation est aussi un avantage. Ces deux facteurs répondent à un besoin de réduire le temps d'utilisation du logiciel.
173

Détection de la simulation de l'invalidité découlant de la douleur (SIDD) à l'aide de quatre échelles de validité de la forme révisée du Minnesota Multiphasic Personnality Inventory-2 (MMPI-2-RF)

Fournier, Jacques January 2015 (has links)
À l’aide du modèle de recherche de la simulation connu sous le nom de « comparaison de groupes connus » (known-groups studies / criterion- groups validation studies), la présente étude visait à vérifier l’efficacité de quatre échelles de validité du MMPI-2-RF (Fs, FBS-r, RBS et HHI-r) à détecter la simulation de l’invalidité découlant de la douleur (SIDD) auprès d’une population rapportant de la douleur chronique ayant subi une évaluation psychologique. Les données provenant de patients rapportant une condition de douleur chronique (n=111) ont été recueillies à partir de dossiers archivés d’une clinique indépendante spécialisée dans l’évaluation et le traitement de cas de douleur chronique et de troubles somatoformes. Une fois sélectionnés, les sujets ont été répartis dans l’un des deux groupes connus à l’aide de critères externes prédisant la simulation de l’invalidité découlant de la douleur : les simulateurs (SIDD Probable et Certaine) et les non-simulateurs (Non SIDD). Tel que stipulé dans la littérature actuelle existant sur l’évaluation de la simulation de l’invalidité de la douleur, les résultats indiquent que les quatre échelles à l’étude sont efficaces lorsqu’on cherche à différentier les sujets simulateurs des non- simulateurs. Dans la présente étude, l’échelle RBS a été la plus efficace à différencier les deux groupes, suivie de près par l’échelle HHI-r. Les implications de ces résultats sont discutées dans la perceptive de leur utilité clinique et psycho-légale.
174

Compteur sanguin [micro]volumétrique pour l'imagerie moléculaire chez le petit animal

Convert, Laurence January 2006 (has links)
Les études expérimentales sur les petits animaux de laboratoire sont devenues un axe essentiel de recherche dans la plupart des domaines de la biologie moléculaire, de la toxicologie et de la pharmacologie. Elles sont grandement facilitées par le développement de scanners dédiés, incluant des tomographes d'émission par positrons (TEP) à haute résolution pour petits animaux. En effet, en mesurant la biodistribution dynamique d'un radiotraceur in vivo, la TEP permet de mesurer des processus physiologiques et biochimiques à un niveau moléculaire. Des modèles mathématiques peuvent alors être appliqués pour décrire la cinétique des radiotraceurs et extraire des paramètres biologiques d'intérêt comme la perfusion, la consommation d'oxygène ou la consommation de glucose de l'organe étudié. Pour calculer ces constantes cinétiques, il est nécessaire d'obtenir les concentrations tissulaires et plasmatiques du radiotraceur en fonction du temps. Alors que la courbe tissulaire est dérivée des images TEP, il n'est pas toujours possible d'en extraire la courbe sanguine. Habituellement elle est obtenue par le prélèvement manuel d'échantillons sanguins, mais cette procédure peut s'avérer très délicate, surtout sur de très petits animaux comme les souris. Un Compteur Sanguin [micro]volumétrique (CS[micro]) automatisé a donc été développé pour faciliter la mesure de la radioactivité dans le sang. Le CS[micro], qui est l'objet de ce mémoire, est constitué d'un module de détection [bêta] à base de photodiodes PIN et d'un module de contrôle comprenant une pompe pousse-seringue à microvolumes. Cette dernière prélève continuellement du sang d'une canule artérielle ou veineuse à une vitesse réglable pour le faire passer devant les détecteurs. La détection directe des positrons par des photodiodes permet de minimiser la sensibilité aux rayonnements gamma environnants et donc de diminuer l'encombrement du système de détection, principalement par l'amincissement du blindage. L'appareil est entièrement contrôlé par ordinateur pour la sélection du protocole de prélèvement sanguin, les réglages et l'affichage en temps réel des données. Il peut être utilisé seul ou intégré à la caméra LabPET(TM) pour corréler la courbe sanguine avec une séquence d'imagerie TEP dynamique. Différentes caractéristiques physiques du compteur sanguin [micro]volumétrique ont été évaluées. Sa sensibilité absolue se situe entre 3,5 et 23% pour les isotopes les plus couramment utilisés en TEP ([indice supérieur 18]F, [indice supérieur 11]C, [indice supérieur 13]N, [indice supérieur 64]Cu). Le système est linéaire pour les activités utilisées sur modèle animal (1 à 15 kBq/[micro]1) et très peu sensible au bruit de fond radioactif ambiant.Les effets de la dispersion ont été mesurés pour différents cathéters, différentes distances entre l'animal et le détecteur et différentes vitesses de prélèvement. Le système utilisé avec un cathéter PE10 s'est révélé insensible aux interférences électromagnétiques (EMI). Un renfort du blindage EMI permet également de limiter grandement le bruit dans le cas d'un cathéter PE50 avec des animaux de la taille d'un rat. La stabilité à court terme est de l'ordre des variations engendrées par la statistique de Poisson. Enfin, une variation de seulement 0,07% a été observée dans la mesure de l'activité d'une même source repositionnée cinq fois dans le détecteur. Différentes études animales ont été entreprises pour compléter la caractérisation du système. La courbe sanguine obtenue avec le CS[micro] a été comparée avec succès avec des courbes provenant d'un échantillonnage manuel et d'une région d'intérêt (ROI) tracée sur l'image TEP. Des mesures de la consommation myocardique en glucose chez le rat et de la perfusion sanguine du myocarde chez la souris ont également été réalisées avec succès. Le compteur sanguin [micro]volumétrique s'avère donc un outil efficace donnant des mesures précises et reproductibles. Il permet de diminuer l'exposition du personnel tout en augmentant l'efficacité des études pharmacocinétiques en recherche biomédicale et pharmaceutique.
175

Étude de l'incidence des coïncidences triples simulées et mesurées à partir de systèmes TEP pixélisés sur les critères de qualité d'image / Study on the incidence of simulated and measured triple coincidences from pixelated PET system on image quality criteria

Clerk-Lamalice, Julien January 2015 (has links)
Résumé : En tomographie d'émission par positrons (TEP), les données sont enregistrées par la détection de paires de photons de haute énergie (511~keV) en coïncidence. Or, dans un système de détection pixélisé, comme celui des scanners LabPET, la diffusion Compton dans les cristaux voisins entraîne la détection fréquente d'événements multiples, présentement rejetés dans le processus de reconstruction des images. Ces événements multiples peuvent augmenter l'efficacité de détection du scanner de façon significative, mais il reste à démontrer que l'inclusion de ces coïncidences peut améliorer la sensibilité sans affecter les critères de qualité des images, tels que la résolution spatiale et le contraste. Le but du projet est de démontrer l'influence de l'inclusion de ces événements dans le processus de reconstruction d'images. Les méthodes à critères fixes seront utilisées pour sélectionner les coïncidences triple obtenues à partir de données simulées à l’aide du logiciel de simulation GATE (« Geant4 Application for Tomographic Emission ») et de mesures réelles effectuées sur les scanners LabPET. // Abstract : In positron emission tomography, data are acquired by detecting pairs of high energy photons (511 keV) in coincidence. Thus, in a highly pixelated system such as the LabPET scanner, Compton diffusion in neighboring crystals can trigger the detection of multiple events (multiple coincidences) which are currently rejected from the reconstruction process. These multiple events can increase significantly the scanner’s detection efficiency, but it remains to be demonstrated that they can be used to increase sensitivity in the images without decreasing image quality criteria, such as the spatial resolution and contrast. The goal of this work is to demonstrate the influence of including these events in the image reconstruction process. Fixed criteria methods were used to select triple coincidences obtained from simulated data from the GATE (Geant4 Application for Tomography Emission) software and real measurements from the LabPET scanner.
176

Mise à jour numérique d'un modèle de pont par éléments finis basée sur une analyse modale expérimentale

Turcotte, Nicolas January 2016 (has links)
L’étude présentée s’inscrit dans un programme de recherche mené par l’Université de Sherbrooke (UdeS) pour le ministère des Transports du Québec (MTQ) sur la détection de l’endommagement par des mesures de vibrations ambiantes sur un pont routier en service. La méthode s’appuie sur la mise à jour automatique des propriétés physiques d’un modèle numérique d’un pont de façon à reproduire les fréquences et modes propres de la structure mesurés expérimentalement. Pour cette étude, le logiciel commercial FEMtools a été utilisé. L’ouvrage ciblé est le pont Est de la Rivière-aux-Mulets situé à Sainte-Adèle (Qc) sur l’autoroute des Laurentides (autoroute 15) sur lequel des essais d’analyse modale ont été effectués sous vibrations ambiantes en novembre 2013. L’étude présentée porte essentiellement sur la phase d’ingénierie la plus délicate du processus de détection d’endommagement par mise à jour d’un modèle numérique, soit la définition et le recalage du modèle initial. Pour cela, un modèle du pont par éléments finis a été développé sous le logiciel Abaqus, puis a été exporté vers FEMtools selon une procédure qui a été établie. Avant d’utiliser le logiciel FEMtools pour le recalage automatique du modèle, une brève étude de vérification des capacités du logiciel à recaler un modèle et à détecter de l’endommagement est effectuée à partir d’un cas d’étude connu étudié antérieurement à l’UdeS (cadre de deux étages en béton armé endommagé sismiquement). Puisque les algorithmes de recalage automatique de modèles par éléments finis sont très sensibles à plusieurs variables et choix définis par l’utilisateur et que le problème de recalage est fortement sous-déterminé, le risque d’obtenir des résultats incohérents est grand si on ne suit pas une démarche rigoureuse. Une méthodologie en cinq étapes adaptée aux problématiques de pont est donc proposée et appliquée au cas du pont de la Rivière-aux-Mulets. Les résultats du recalage en termes de réductions de rigidité des sections de béton par rapport aux rigidités initiales supposées sont cohérents avec les comportements statique et dynamique attendus d’un pont routier en service. Pour en arriver à ce résultat, plusieurs tentatives de recalage ont été effectuées. Un échantillon de ces cas d’études est présenté, montrant notamment l’influence dans le processus de la définition et du nombre des paramètres de recalage, de leurs valeurs initiales, de la complexité des modes expérimentaux et du critère de convergence utilisé. Il est aussi montré que des résultats de recalage manifestement erronés permettent parfois d’identifier des erreurs majeures de modélisation, ce qui est un atout important de la méthode. Finalement, plusieurs scénarios d’endommagement fictifs imposés numériquement sont étudiés pour évaluer brièvement la capacité de FEMtools à détecter de l’endommagement sur le pont. Les résultats montrent notamment que la précision de la détection est grandement améliorée par l’utilisation d’un nombre croissant de modes expérimentaux.
177

Modèles et observateurs pour les systèmes d'écoulement sous pression. Extension aux systèmes chaotiques

Torres Ortiz, Flor 28 January 2011 (has links) (PDF)
Principalement, ce travail présente l'application d'observateurs non linéairespour la détection de fuites (uniques, séquentielles et simultanées) dans des canalisationssous pression. Les observateurs présentés ici ont été conçus à partir d'uneversion discrète des équations du coup de bélier, qui a été obtenue en utilisant laméthode des différences finies et en prenant comme alternative la méthode de collocationorthogonale. Les modèles discrets ainsi que certains observateurs ont étévalidés par une série d'expériences effectuées dans des canalisations d'essai. D'autrepart, une nouvelle version d'observateurs à grand gain pour des systèmes non uniformémentobservables a été développée. Elle a été utilisée pour la détection de fuitesainsi que pour la synchronisation de systèmes chaotiques avec des paramètres inconnus.Des résultats de convergence, expérimentaux et en simulation sont exposésdans ce mémoire.
178

Détection, Explications et Restructuration de défauts de conception : les patrons abîmés.

Bouhours, Cédric 04 February 2010 (has links) (PDF)
L'ingénierie des modèles considère les modèles comme des entités de première classe pour le développement logiciel. Les processus dirigés par les modèles se doivent d'être capables de prendre en compte le savoir-faire d'experts, généralement exprimé en termes de patrons, qu'ils soient d'analyse, de conception ou d'architecture. Choisir le bon patron et assurer sa bonne intégration au sein d'une modélisation constitue des freins à l'utilisation systématique des bonnes pratiques de conception. Afin d'alléger ces tâches, nous proposons une approche basée sur l'inspection automatique des modèles. De la même manière qu'il existe des revues de code visant à vérifier l'absence de mauvaises pratiques de codage dans un programme, nous avons outillé une activité de revue de conception identifiant, expliquant et corrigeant les mauvaises pratiques de conception dans un modèle. Un patron abîmé est comparable à un patron de conception, ses contextualisations résolvant les mêmes types de problèmes, mais avec une architecture différente et certainement améliorable. Des expérimentations ont été menées afin de collecter des patrons abîmés, nous amenant à proposer un catalogue de mauvaises pratiques, complémentaire au catalogue du GoF. La détection des contextualisations de patrons abîmés dans un modèle UML est apparentée à un morphisme de graphe étendu. Les graphes UML ayant des sommets typés, la détection s'appuie sur des particularités structurelles locales et globales permettant de résoudre ce problème NP-Complet par des filtrages successifs. Cet algorithme est ainsi capable de détecter toutes les contextualisations possibles d'un patron abîmé, en gérant de plus les arcs interdits et facultatifs. La sémantique d'un fragment de modèle est donnée par son intention et celle-ci est validée par le concepteur. L'intention des fragments détectés et les bénéfices d'un remplacement par le patron adéquat sont déduits par des requêtes sur une ontologie conçue à cet effet. La transformation des fragments en contextualisations de patrons de conception est réalisée grâce à des restructurations de modèles déduites automatiquement des différences structurelles entre un patron abîmé et un patron de conception.
179

Etude et réalisation d'un spectromètre intégré à transformée de Fourier (SWIFTS)

Ferrand, Jérôme 12 November 2010 (has links) (PDF)
En 1859 les physicien et chimiste allemands G. Kirchhoff et R. Bunsen ont découvert que chaque élément chimique dispose d'une signature spectrale unique. Suite à cela, la spectrométrie s'est imposée comme un outil d'analyse majeur y compris en astrophysique (notamment grâce à l'italien A. Secchi). Ainsi la plus grande partie des informations dont nous disposons sur les objets astrophysiques proviennent de l'analyse spectrale ; la découverte des premières planètes extra-solaires est même due à celle-ci. Depuis ses débuts, cette technique a trouvé de nombreuses applications dans des domaines aussi variés que la médecine, la détection de gaz ou encore l'étude des polluants. Dans cette thèse nous nous proposons d'étudier et de développer un nouveau type de spectromètres nommés SWIFTS (pour Stationary Wave Integrated Fourier Transform Spectrometer) basés sur la détection d'une onde stationnaire obtenue à l'intérieur d'un guide optique. Pour ce faire, nous utilisons une technique originale dite de " détection évanescente ". Dans cette thèse nous étudions et modélisons les performances d'un tel spectromètre notamment en utilisant une méthode matricielle et une méthode de décomposition dans le domaine de Fourier. Les premiers prototypes ont été réalisés dans les bandes I et R du système photométrique de Johnson, ces bandes ayant été choisies pour la facilité d'obtention de détecteurs et guides optiques efficaces. Étant donné les technologies disponibles, ces prototypes ne peuvent atteindre l'efficacité théorique maximale d'un SWIFTS (environ 73%) ; néanmoins elles nous ont permis de mesurer des résolutions de l'ordre du cm-1 sur un large domaine spectral (650 nm à 900 nm).
180

Recherche et Caractérisation des Propriétés Physiques et Chimiques des Compagnons de Faible Masse, Naines Brunes et Planètes Géantes, à l'aide d'observations à Haut Contraste et à Haute Résolution Angulaire

Bonnefoy, Mickaël 22 October 2010 (has links) (PDF)
Mon travail de thèse se place dans le contexte dynamique de la détection directe des compagnons de faible masse (naines brunes, planètes extrasolaires) dans le but de caractériser leurs propriétés physiques et chimiques et de comprendre leurs mécanismes de formation et d'évolution. Cette recherche requiert l'emploi de techniques d'observations à haut contraste et à haute résolution angulaire pour résoudre l'environnement proche des étoiles et ne pas être limité par leur flux. Dans ce cadre, j'ai eu la chance de participer à des campagnes d'observations pour tenter de détecter de nouvelles sources. J'ai élaboré un ensemble d'outils de traitement et d'analyse des données pour extraire les spectres et les flux des objets dans des bandes photométriques. Enfin, j'ai utilisé ces informations pour étudier les propriétés physiques (rayon, masse, âge) et atmosphériques (composition, température effective, gravité de surface) de ces objets. La première partie de ce manuscrit se focalise sur la détection par imagerie des compagnons de faible masse jeunes (< 100 millions d'années). Je décris un ensemble d'outils de réduction et d'analyse, spécifiques à la technique d'imagerie angulaire différentielle, que j'ai mis en place. Ces outils ont été utilisés sur des données provenant de l'instrument NaCo situé au Very Large Telescope (Chili). Ils ont permis de re-détecter la planète extrasolaire β Pictoris b. Ce compagnon est le plus proche de son étoile de toutes les exoplanètes détectées directement. Cette découverte fournit la preuve directe que des planètes géantes se forment en moins de 12 millions d'années à l'intérieur de disques. Je présente enfin l'analyse complémentaire que j'ai mené pour initier la caractérisation de cet objet particulier. Le second volet de mon travail, présenté dans la deuxième partie du manuscrit, est axé sur la détermination des propriétés spectroscopiques dans le proche infrarouge (1.1-2.5 µm) des objets de faible masse jeunes. Ce travail à débuté par l'optimisation et le développement d'outils de traitement et d'analyse des données du spectrographe intégral de champ SINFONI assisté par optique adaptative. Les efforts déployés ont permis d'analyser le spectre du compagnon naine brune/exoplanète AB Pic b. Ce travail s'est poursuivi par la construction d'une bibliothèque de spectres d'objets jeunes. Cette bibliothèque fournie un ensemble de spectres de référence pour l'étude des compagnons détectés. Elle apporte des contraintes inédites sur les dernières générations de modèles d'atmosphère froids. Enfin, j'ai tiré parti de l'expérience acquise sur les instruments NaCo et SINFONI pour caractériser le système binaire TWA 22AB qui pourrait calibrer les modèles d'évolution des objets de faible masse.

Page generated in 0.0803 seconds