• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 200
  • 83
  • 12
  • 1
  • Tagged with
  • 303
  • 81
  • 71
  • 38
  • 35
  • 31
  • 29
  • 28
  • 27
  • 25
  • 25
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Schémas de suivi d'objets vidéo dans une séquence animée : application à l'interpolation d'images intermédiaires.

Bonnaud, Laurent 20 October 1998 (has links) (PDF)
Le cadre général de cette étude est le traitement numérique du signal, appliqué<br />aux séquences d'images, pour des applications multimédia. Ce travail est<br />divisé en deux contributions principales~: un algorithme de segmentation<br />d'images en objets vidéo en mouvement, et une méthode d'interpolation<br />temporelle opérant sur ces objets.<br /><br />La segmentation de la séquence est effectuée par un algorithme de suivi<br />temporel. Un algorithme de segmentation spatio-temporelle est utilisé<br />initialement pour obtenir des régions dans la première image de la séquence.<br />Cette partition est ensuite suivie par une technique de contours actifs, qui<br />opère sur une nouvelle représentation de la segmentation, composée des<br />frontières ouvertes séparant les régions. L'algorithme estime à la fois le<br />mouvement des frontières et celui des régions. Il est capable de suivre<br />plusieurs objets simultanément et de traiter les occultations entre eux. Des<br />résultats, obtenus sur des séquences d'images réelles, montrent que cet<br />algorithme permet une bonne stabilité temporelle de la segmentation et une<br />bonne précision des frontières.<br /><br />Le but de l'algorithme d'interpolation est de reconstruire des images<br />intermédiaires entre deux images de la séquence. Il s'agit d'un algorithme de<br />faible complexité qui peut être utilisé à la fin d'une chaîne codeur/décodeur.<br />L'interpolation est compensée en mouvement et utilise le mouvement des régions,<br />estimé pendant la phase de suivi. Il est aussi basé objets, dans le sens où il<br />utilise la segmentation pour prédire correctement les zones d'occultation. Cet<br />algorithme peut être utilisé pour trois applications différentes~: le codage<br />interpolatif (où des images de la séquence sont prédites par interpolation),<br />l'adaptation de la fréquence de la séquence à la fréquence d'affichage du<br />terminal de visualisation dans une transmission multipoints et la<br />reconstruction d'images manquantes (où l'on calcule des images non observées).<br />Des résultats expérimentaux pour la première application montrent que pour une<br />qualité de reconstruction donnée, la taux de compression moyen sur un groupe<br />d'images est plus élevé en utilisant l'interpolation qu'avec une prédiction<br />causale.
142

Simulations de la caméra d'imagerie grand champ d'ECLAIRS – Modélisation des régions internes des Noyaux Actifs de Galaxies

Godet, Olivier 04 May 2005 (has links) (PDF)
La première partie de cette thèse est centrée sur la mission ECLAIRs, dédiée à l'étude de l'émission prompte multi-longueurs d'onde des sursauts γ. Les performances de la caméra X/γ d'imagerie grand champ d'ECLAIRs sont estimées par des simulations Monte-Carlo. La sensibilité de détection des sursauts γ dépend principalement du bruit de fond sur la caméra. En prenant en compte les principales composantes de l'environnement spatial (le fond diffus X extra-galactique, les protons du rayonnement cosmique et atmosphériques, les neutrons atmosphériques, et les photons X-γ de l'albédo terrestre) pour une orbite d'ECLAIRs à 600 km d'altitude et à 20o d'inclinaison, le bruit de fond dans la bande d'imagerie de 4 à 50 keV est estimé à 7,1 coups cm-2 s-1. La sensibilité limite pour un seuil de détection de 5,5 σ de fluctuations du bruit de fond est estimée à 530 milli-Crabe sur une seconde d'intégration dans la bande d'énergie de 4 à 50 keV. Compte tenu des niveaux de bruit de fond, le taux de sursauts γ détectables par an, dans la bande 4-300 keV, est estimé entre 50 et 90 sursauts γ suivant la dureté du sursaut. Pour un échantillon d'une centaine de sursauts détectés, 47% seront localisés à mieux que 10' et 61% à mieux 20' pour un temps d'intégration de 1,024 secondes. Par ailleurs, avec un champ de vue de 105o x 105o et une sensibilité limite de 10 milli-Crabe sur 10 h d'intégration dans la bande 20-200 keV et 3 milli-Crabe dans la bande 4-10 keV, la caméra X-γ fera également un balayage de la sphère céleste, à la recherche de noyaux actifs de galaxies (NAG), de novae X, et de Soft Gamma Repeaters.<br /><br />Dans la seconde partie de cette thèse, nous nous intéressons à l'apport du code de photo-ionisation, Titan, dans l'interprétation des spectres de haute résolution des NAG, obtenus en X avec les satellites XMM-Newton et Chandra. Nous montrons que les formalismes approchés utilisés pour résoudre le transfert radiatif induisent des interprétations imprécises des spectres des NAG en X, car les flux de raies calculées (notamment les raies de résonance) sont systématiquement surestimés par 30% pour des milieux avec une densité de colonne totale CD < 1021 cm-2 à un ordre de grandeur pour des milieux avec CD > 1024 cm-2. A partir d'une étude théorique du triplet de raies des ions héliumoïdes, nous mettons également en évidence un jeu de diagnostics spectroscopiques. Ces diagnostics permettent de déterminer la densité, la densité de colonne totale et le paramètre d'ionisation des milieux photo-ionisés observés, à partir de la mesure des flux de raies et de la température des continus de recombinaison radiative.
143

Fluctuations quantiques et thermiques dans les transducteurs électromécaniques

Grassia, Francesca 26 June 1998 (has links) (PDF)
Les fluctuations sont présentes dans toute mesure et elles en limitent la sensibilité ultime. Ceci est vrai en particulier pour les fluctuations de nature fondamentale qui correspondent au bruit thermique et au bruit quantique. Un premier objectif de cette thèse a été le développement d'une méthode générale qui permette le traitement de ces fluctuations dans des systèmes de mesure comportant des éléments passifs et des éléments actifs remplissant des fonctions d'amplification ou de contre-réaction. Cette méthode, basée d'une part sur la théorie des réseaux, d'autre part sur le formalisme quantique de la matrice S, s'applique aux systèmes linéaires et, plus généralement, aux systèmes linéarisables autour du point de fonctionnement. Elle peut prendre en compte toutes les sources de bruit et décrit donc la non-idéalité de la mesure. Son caractère modulaire se prête bien au traitement des systèmes complexes. Un deuxième objectif a été l'étude des effets des fluctuations quantiques et thermiques sur la sensibilité des mesures électromécaniques. Le bruit dans ces systèmes, habituellement dominé par les fluctuations thermiques, s'est rapproché du niveau quantique, sous la pression des expériences nécessitant de très hautes sensibilités (détection des ondes gravitationnelles, test du principe d'équivalence dans l'espace) et grâce aux développements technologiques dans le domaine cryogénique. La méthode développée dans cette thèse fournit un cadre théorique consistent pour traiter fluctuations quantiques et thermiques dans ces systèmes. Des résultats précis ont été obtenus pour un accéléromètre conçu par l'ONERA pour des expériences de physique fondamentale dans l'espace et qui présente la particularité d'utiliser un mécanisme de friction froide. Ces résultats permettent d'estimer les limites ultimes de sensibilité d'un tel instrument.
144

Segmentation d'images par contour actif: implantation optique avec un corrélateur incohérent ombroscopique

Hueber, Eric 25 November 2002 (has links) (PDF)
Nous proposons de mettre en œuvre un prototype de processeur<br />optoélectronique destiné à segmenter par contour actif des images<br />réelles. Le processus de segmentation est fondé sur des algorithmes<br />statistiques itératifs qui contiennent des opérations de corrélation.<br />Notre première contribution a été de les adapter pour bénéficier de la<br />rapidité de la rapidité des corrélations optiques.<br /><br />Nous avons conçu et mis en œuvre un corrélateur incohérent ombroscopique<br />dont les résultats ont pu valider cette approche optoélectronique de la<br />segmentation par contour actif.<br /><br />Afin d'accélérer le processus, nous avons ensuite exploité les capacités<br />de traitement parallèle de l'optique. La configuration multicanal permet<br />alors d'accélérer sensiblement la segmentation.<br /><br />Cette thèse ouvre de nouvelles perpectives pour les processeurs optiques<br />vers des applications de description et met en lumière les grandes<br />capacités de traitement des corrélateurs incohérents utilisés comme<br />calculateurs parallèles.
145

Propriétés élastiques et viscoélastiques de matériaux composites adaptatifs

Coquelle, Eric 15 December 2004 (has links) (PDF)
Les élastomères magnétorhéologiques sont des matériaux composites actifs, aux propriétés<br />mécaniques contrôlées par un champ magnétique. Ils sont composés de particules magnétiques,<br />structurées en chaînes unidirectionnelles au sein d'une matrice élastomère silicone. Les essais sous<br />champ ont révélé un fort accroissement des propriétés mécaniques : jusqu'à 35kPa pour un module de<br />62kPa en traction statique, et en dynamique un gain sur E' de 600kPa à ε=1%, qui atteint même<br />21MPa à ε=10-5 ! Dans ce dernier cas, la structuration en chaînes va de pair avec une nette<br />augmentation de l'effet Payne et de la dissipation d'énergie, encore accentuée en présence d'un<br />champ, même modeste (15kA/m). L'hypothèse avancée est un décollement progressif de l'élastomère<br />des charges sous l'effet des fortes contraintes locales, entre deux particules (en quasi-contact). Pour<br />faciliter l'étude, un traitement de surface à base de molécules couplantes, fonctionnelles, a été mis au<br />point. La modélisation a d'abord été effectuée sur un système macroscopique (où tous les paramètres<br />sont contrôlés), et validée par des simulations par éléments finis (FEM). Une méthode de milieu<br />effectif prédit le comportement du composites aux charges greffées (avant décollement), tandis qu'une<br />approche semi-analytique, utilisant un critère de décollement de Griffith, calcule le comportement<br />viscoélastique du composite MR. La complexité de la microstructure et son évolution ont été évaluées,<br />sous champ, par des cycles quasi-statiques (aboutissant à des σ de -40kPa à ε=0) et des mesures de<br />magnétostriction. D'autres propriétés originales peuvent être obtenues : piézorésistivité, bandes<br />périodiques (guides magnétiques).
146

Contours actifs d´ordre supérieur et leur application à la détection de linéiques dans des images de télédétection

Rochery, Marie 28 September 2005 (has links) (PDF)
Cette thèse aborde le problème de l´introduction d´une connaissance a priori sur la géométrie de l´objet à détecter dans le cadre général de la reconnaissance de formes dans une image. L´application choisie pour illustrer ce problème est la détection de réseaux de linéiques dans des images satellitaires et aériennes. Nous nous placons dans le cadre des contours actifs et nous introduisons une nouvelle classe de contours actifs d´ordre supérieur. Cette classe permet la création de nouveaux modèles rendant possible l´incorporation d´informations géométriques fortes définissant plutôt qu´une forme spécifique, une famille générale de formes. Nous étudions un cas particulier d´énergie quadratique qui favorise des structures à plusieurs bras de largeur à peu près constante et connectés entre eux. L´énergie étudiée ainsi que des termes linéaires de longueur et d´aire sont utilisés comme termes d´a priori pour les modèles d´extraction de linéiques que nous proposons. Plusieurs termes d´attache aux données sont proposés dont un terme quadratique permettant de lier la géométrie du contour et les propriétés de l´image. Un modèle d´extraction permettant de gérer les occultations est également présenté. Pour permettre la minimisation de l´énergie, nous développons un cadre méthodologique utilisant les courbes de niveau. Les forces non locales sont calculées sur le contour extrait avant d´être étendues sur tout le domaine considéré. Finalement, afin de résoudre certaines difficultés rencontrées avec les contours actifs standards ainsi que les nouveaux modèles, nous proposons d´utiliser des modèles de champs de phase pour modéliser les régions. Cette méthodologie offre une alternative avantageuse aux techniques classiques et nous définissons des modèles d´extraction de linéiques similaires aux contours actifs d´ordre supérieur dans ce cadre. La pertinence de tous les modèles proposés est illustrée sur des images satellitaires et aériennes réelles.
147

Etude des atomes d'hélium et de béryllium en champ laser intense et bref

Laulan, Stéphane 17 September 2004 (has links) (PDF)
Nous présentons une étude théorique de l'interaction entre un atome à deux électrons actifs et un champ laser de fort éclairement (10e14 à 10e15 W/cm²) et de durée d'impulsion ultra-brève (quelques 10e-15 à quelques 10e-18 s). Nous décrivons dans un premier temps les techniques expérimentales actuelles capables de produire un rayonnement cohérent de haute puissance dans le domaine spectral UV-XUV, et de durée d'impulsion de l'ordre de la femtoseconde ou subfemtoseconde. Un modèle semi-classique d'une impulsion laser avec de telles caractéristiques est alors défini. Puis, nous développons une méthode numérique basée sur l'utilisation des fonctions B-splines pour décrire la structure électronique d'un atome à deux électrons actifs. Un traitement non perturbatif de type spectral est alors proposé pour représenter la propagation dans le temps de la fonction d'onde du système irradié, où le point important est de définir le plus précisément possible la région du double continuum atomique. Nous exposons finalement des résultats sur la double ionisation des atomes d'hélium et de béryllium en présence d'un champ laser intense et bref, issus de notre approche numérique. Ils concernent en particulier des calculs de sections efficaces totales d'ionisation, et de distributions énergétiques entre les électrons éjectés dans le double continuum après absorption d'un photon et de deux photons.
148

L'optique adaptative du Telescope Canada France Hawaii et son utilisation pour l'etude des coeurs de galaxies a flambee d'etoiles

Lai, Olivier 11 December 1996 (has links) (PDF)
L'optique adaptative est une technique qui permet de corriger en temps reel des defauts introduits par la turbulence atmospherique sur les images produites par un telescope. Les instruments ont maintenant atteint une maturite suffisante pour que des systemes de seconde generation apparaissent. Le Telescope Canada France Hawaii s'est equipe d'une optique adaptative a mesure et controle de courbure. Son integration et csa caracterisation en laboratoire et sur le ciel constituent la permiere partie de cette these. La philosophie et la methodologie d'integration sont exposes, ainsi que les resultats des tests. Ces derniers permettent d'estimer les performances de l'instrument dans de nombreuses conditions d'observations; elles sont excellentes et s'accordent avec les previsions. Une etude des galaxies a flambee d'etoiles constitue la seconde partie de la these. En effet, l'optique adaptative est un outil de choix pour l'observation de ces objets pour deux raisons; tout d'abord les sursauts de formation d'etoiles ont lieu dans des regions tres riches en poussieres, dont la profondeur optique est moindre dans le domaine infrarouge que dans celui du visible; ce domaine est aussi celui ou la correction apportee par l'optique adaptative est la plus efficace. De plus ces objets sont lointains, et il est necessaire de les observer a haute resolution angulaire pour pouvoir saisir les details de leur morphologie, et c'est precisment le but de l'optique adaptative: augmenter la resolution en s'affranchissant du flou residuel introduit par la turbulence atmospherique. Des resultats obtenus par les deux instruments d'optique adaptative ouverts a la communaute astrophysique sont presentes: onze galaxies (NGC 863, NGC 1068, NGC 1365, NGC 5033, NGC 7469, NGC 7714m Markarian 231, Markarian 565 et Arp 299) ont ete observes, et chaque cas est replace dans le contexte du modele unifie des noyaux actifs de galaxie. Par ailleurs, certains phenomenes sont mis en evidence ou trouvent confirmation (barres internes, super-amas d'etoiles, entoulement de bras spiraux).
149

Recherche de sources gamma par une méthode de Maximum de Vraisemblance :

Khelifi, Bruno 25 November 2002 (has links) (PDF)
L'actuelle génération de détecteurs de rayons gamma au TeV a permis d'étudier les sources les plus brillantes (Noyaux Actifs de Galaxies et restes de supernovae). Afin de détecter des objets moins lumineux, nous proposons des techniques d'observation et d'analyse améliorant la sensibilité des détecteurs que nous avons appliqués sur le détecteur CAT (Cerenkov Array at Themis). Le développement d'un maximum de vraisemblance a permis de doubler notre sensibilité sur la nébuleuse du Crabe près du transit. Cet outil permet désormais de rechercher des sources de position inconnue sans perte de sensibilité (aux effets instrumentaux près) et de tester des hypothèses sur la forme des extensions spatiales des émissions.<br> Grâce à ces techniques, nous avons détecté de faibles et rapides variations de flux de Mkn 421, découvert deux nouveaux blazars IES 1959+65 et IES 1426+42.8 qui est de faible luminosité et nous avons identifié deux blazars susceptibles d'émettre au TeV. La comparaison des spectres en énergie des blazars de même redshift (Mkn 421 et Mkn 501) permet de nous affranchir de l'absorption des gamma par l'infrarouge intergalactique (IIR) : Mkn 421 semble posséder un spectre avant absorption distinct d'une loi de puissance sur au moins une nuit. La dérivation d'informations plus précises sur les blazars dépendra des futures connaissances sur l'IIR et des observations simultanées multi-longueurs d'onde.<br> Ayant observé des restes de supernovae contenant des plérions (IC 443, CTA 1 et CTB 80), nous avons cherché en vain une émission provenant des plérions et de l'interaction de ces restes avec des nuages moléculaires grâce au maximum de vraisemblance. Les valeurs supérieures extraites sur les plérions ont été comparées avec des modèles d'émission électromagnétique d'un spectre d'électrons accélérés. Ces comparaisons nous ont amenées à nous interroger sur les hypothèses faites dans ces modèles et sur la pertinence des plérions choisis.
150

Modèles déformables 2-D et 3-D : application à la segmentation d'images médicales

Cohen, Isaac 03 June 1992 (has links) (PDF)
La segmentation d'images à l'aide des modèles déformables permet d'imposer des contraintes globales aux contours détectés. La résolution des équations aux dérivées partielles caractérisant les courbes et les surfaces déformables est faite à l'aide d'une méthode d'éléments finis conformes. Cette méthode plus élaborée, permet une détection des points de contour 2-D et 3-D plus précise et une réduction de la complexité algorithmique par rapport à la méthode des différences finies. Le modèle de courbes déformables a permis d'établir une première segmentation d'images 3-D ainsi qu'un suivi de structures dans des images spatio-temporelles. Ce suivi global a été complété par un suivi ponctuel des contours à l'aide d'une description explicite de la mise en correspondance basée sur les caractéristiques géométriques de la courbe et la régularité du champ de déplacement. Nous proposons également une méthode de détermination des paramètres de régularisation à partir de la géométrie de la surface (ou de la courbe) et des données. Cette méthode permet d'imposer implicitement des discontinuités de position et de tangente aux modèles déformables 2-D et 3-D. L'ensemble des modèles proposés est illustré par des expérimentations sur des images synthétiques et médicales.

Page generated in 0.3981 seconds