Spelling suggestions: "subject:"suivi."" "subject:"quivi.""
371 |
Etude de concept d'instruments cophaseur pour l'imagerie interférométrique infrarouge. Observation de binaires en interaction à très haute résolution angulaire.Blind, Nicolas 03 November 2011 (has links) (PDF)
De part sa capacité de très haute résolution angulaire, l'interférométrie optique est une technique d'observation parfaitement adaptée pour l'étude des zones les plus internes d'objets complexes tels que les étoiles jeunes et leur environnement proche, les noyaux actifs de galaxie ou les binaires en interactions. Bien qu'étant entrée dans l'aire de l'imagerie avec des instruments de nouvelle génération tels que PIONIER au VLT Interferometer, ou MIRC à CHARA (combinant 4 ou 6 télescopes), l'interférométrie optique est forte- ment handicapée par les perturbations atmosphériques. Les suiveurs de franges sont des instruments développés spécifiquement dans le but de compenser ces perturbations, permettant ainsi d'augmenter la sensibilité des interféromètres d'un facteur 10 à 1000. Dans la première partie de ma thèse, je présente le résultat d'études visant à définir un concept optimal de suiveur de frange de seconde génération pour le VLTI. Je démontre en premier lieu l'intérêt du filtrage spatial monomode pour le suivi de frange, ainsi que l'importance capitale de l'Optique Adaptative pour l'interférométrie, y compris pour des télescopes de 1 à 2 mètres de diamètre. Je dé- termine ensuite la meilleure méthode de mesure de la position des franges et la configuration de recombinaison des télescopes offrant le meilleur compromis entre sensibilité et robustesse du suivi de frange. Ces études ont finalement menées au concept de suiveur de frange POPS proposé à l'ESO par l'IPAG. Dans la seconde partie de ma thèse, je me suis intéressée aux binaires en interaction, objets en mesure d'apporter des réponses à un vaste champs d'études, du fait de la diversité des processus physiques en jeu. Leur étude à très haute résolution angulaire, permise par l'interférométrie optique, se montre parfaitement complémentaire des techniques classiques employées jusque là. Je me suis intéressé au cas du système SS Leporis, observé avec les instruments AMBER et PIONIER du VLTI. Nous avons obtenu les premières reconstructions d'images d'une binaire en interaction avec le VLTI. Ces observations nous ont permis d'avoir une nouvelle vision de ce système méconnu, ouvrant par la même la voie à l'étude des binaires en interaction au VLTI.
|
372 |
Les tubes de mouvement : nouvelle représentation pour les séquences d'imagesUrvoy, Matthieu 29 March 2011 (has links) (PDF)
En quelques années, le trafic vidéo a augmenté de manière spectaculaire sur de nombreux médias. D'ici 2014, on estime que la quasi-intégralité du trafic IP sera composée de données vidéo. De même, l'usage de la vidéo sur les téléphones mobiles aura subi une augmentation sans précédent. Or, on estime que les infrastructures réseau, malgré les progrès constants en matière de transmission, ne pourront pas supporter une telle charge. A ce titre, il est plus que jamais capital d'améliorer nos capacités à compresser les vidéos. Depuis 30 ans, la recherche travaille à l'élaboration de techniques de décorrélation, notamment afin de réduire les redondances spatiales et temporelles des séquences d'images et les compresser. A ce jour, l'approche classique est basée sur le concept de macroblocs : le contenu spatial est divisé en un ensemble de blocs. Le long de l'axe temporel, les images sont traitées une à une, sans faire apparaître de continuité évidente. Bien que cette approche soit déjà très efficace (cf. standards AVC et futur HEVC), l'emploi d'approches en rupture reste toujours envisageable. Celles-ci offrent, entre autre, la possibilité de décrire l'évolution temporelle du contenu de manière continue. Cependant, elles mettent souvent en oeuvre des outils dont l'utilisation, en pratique, est délicate. Ce travail de thèse propose une nouvelle représentation, qui combine les avantages de l'approche classique et ceux de certaines approches en rupture, puis en étudie la viabilité. On cherche à exhiber la persistance temporelle des textures, à travers une description continue le long de l'axe temporel. A l'instar de l'approche classique, la représentation proposée est basée sur des blocs. Au lieu de réinitialiser la description à chaque image, notre représentation suit l'évolution de blocs initialement repérés à un instant de référence. Ces blocs, ainsi que leur trajectoire spatio-temporelle, sont appelés tubes de mouvement. Trois problématiques sont soulevées. Tout d'abord, les tubes doivent être capable de représenter continuités et discontinuités du mouvement, ainsi que de suivre les déplacements et les déformations de patchs de texture. Des mécanismes de régularisation sont également mis en place, et s'assurent que l'évolution des tubes se fait de manière cohérente. Ensuite, la représentation doit gérer les recouvrements et les découvrements de tubes, et donc la manière dont la texture doit être synthétisée. Enfin, la problématique de vie et de mort des tubes}est probablement la plus délicate: comment détecter la disparition ou l'impossibilité de suivre un patch de texture ? Le cas échéant, le tube correspondant devra être arrêté, ceci afin de garantir une représentation aussi compacte que possible. Les résultats montreront que notre représentation est viable, et ses performances seront comparées à celles du standard AVC.
|
373 |
DYNAMIQUE DE L'ASSEMBLAGE MOLÉCULAIRE SYNAPTIQUE : ÉTUDE DE LA DIFFUSION LATÉRALE DE LA SYNTAXIN 1ARibrault, Claire 31 May 2010 (has links) (PDF)
La synapse est un assemblage macromoléculaire dynamique : les protéines synaptiques sont constamment et rapidement échangées par un mouvement diffusif entre l'assemblage synaptique et la région extrasynaptique, alors que l'assemblage reste stable. Par ailleurs, dans le compartiment présynaptique, les cycles d'endo- et d'exocytose des vésicules synaptiques imposent une réorgani- sation dynamique de la membrane plasmique. La syntaxin1A est une protéine membranaire impliquée dans l'exocytose. Quelles sont les caractéristiques de la diffusion latérale de la syntaxin et ses implications pour la transmission sy- naptique ? Nous avons étudié la diffusion latérale de la syntaxin à l'échelle de la popu- lation (méthode de retour de fluorescence après photoblanchiment, FRAP) et à l'échelle de la molécule individuelle (suivi de particule unique, SPT). Nous avons montré que la syntaxin diffuse rapidement dans la membrane plasmique et présente des périodes d'immobilisation transitoire, qui reflètent des inter- actions moléculaires impliquées dans la formation du complexe exocytotique. Enfin, nous avons construit un modèle computationnel qui réconcilie les des- criptions de la diffusion latérale de la syntaxin à l'échelle de la population et de la molécule individuelle. Ce modèle a permis de caractériser les cinétiques des interactions entre la syntaxin et ses partenaires, qui conduisent à sa stabilisa- tion à la synapse.
|
374 |
Stabilité des structures minces et sensibilité aux imperfections par la Méthode Asymptotique NumériqueBaguet, Sébastien 29 October 2001 (has links) (PDF)
Ce travail est une contribution à l'analyse de stabilité et de sensibilité aux imperfections des structures minces, ainsi qu'au développement de méthodes numériques performantes pour le non-linéaire. La courbe de réduction de charge critique, qui permet d'estimer le degré de sensibilité d'une structure à un défaut donné, est obtenue grâce à un suivi numérique des courbes de points limites. L'algorithme sous-jacent repose sur la résolution d'un système non-linéaire augmenté. Ce système est composé des équations d'équilibre de la structure et d'une équation qui caractérise les points critiques, dans lesquelles l'amplitude de l'imperfection est un paramètre additionnel. Le modèle utilisé s'appuie sur un élément de coque moderne et performant, basé sur le concept EAS. Il autorise les grandes rotations et la dilatation suivant l'épaisseur, prend en compte de manière exacte les non-linéarités géométriques, et intègre les non-linéarités matérielles par le biais de relations de comportement 3D en chaque point de Gauss. Au terme de ce travail, on dispose d'un outil complet d'analyse de sensibilité aux imperfections, entièrement basé sur la Méthode Asymptotique Numérique, dont les principales fonctionnalités sont : (1) le calcul de branches d'équilibres non-linéaires au moyen d'une méthode de continuation, (2) la détection des points singuliers le long d'une branche d'équilibre, (3) le suivi de points limites, qui permet de mener des études de sensibilité sur des structures 3D, pour des imperfections d'ensemble ou localisées et des défauts de forme ou d'épaisseur.
|
375 |
Exploitation de contraintes photométriques et géométriques en vision. Application au suivi, au calibrage et à la reconstruction.Drareni, Jamil 01 June 2010 (has links) (PDF)
Cette thèse s'intéresse à trois problèmes fondamentaux de la vision par ordinateur qui sont le suivi vidéo, le calibrage et la reconstruction 3D. Les approches proposées sont strictement basées sur des contraintes photométriques et géométriques présentent dans des images 2D. Le suivi de mouvement se fait généralement dans un flux vidéo et consiste à suivre un objet d'intérêt identifié par l'usager. Nous reprenons une des méthodes les plus robustes à cet effet et l'améliorons de sorte à prendre en charge, en plus de ses translations, les rotations qu'effectue l'objet d'intérêt. Par la suite nous nous attelons au calibrage de caméras; un autre problème fondamental en vision. Il s'agit là, d'estimer des paramètres intrinsèques qui décrivent la projection d'entités 3D dans une image plane. Plus précisément, nous proposons des algorithmes de calibrage plan pour les caméras linéaires (pushbroom) et les vidéo projecteurs lesquels étaient, jusque là, calibrés de fa¸con laborieuse. Le troisième volet de cette thèse sera consacré à la reconstruction 3D par ombres projetée. À moins de connaissance à priori sur le contenu de la scène, cette technique est intrinsèquement ambigüe. Nous proposons une méthode pour réduire cette ambiguïté en exploitant le fait que les spots de lumières sont souvent visibles dans la caméra.
|
376 |
Modélisation et simulation des gaz de blow-by dans un décanteur automobile.Jues, Thomas 01 July 2010 (has links) (PDF)
L'objectif de cette thèse sur la modélisation des décanteurs automobiles est de mettre au point un outil de simulation numérique permettant de se substituer à un banc organe pour déterminer l'efficacité des décanteurs à l'étape de conception. Après avoir étudié la composition du blow-by sur banc moteur et cela pour différents points de fonctionnement du moteur, nous avons pu comparer la pertinence des différents outils de mesure granulométrique choisis (PCS, ELPI, TEOM) en fonction du spectre granulométrique émis par le moteur. Le PCS a été retenu comme l'outil le plus adéquat en fonction des tailles de gouttes sur lesquelles nous souhaitions avoir des informations. En parallèle, nous avons mené des investigations pour mettre au point une méthodologie de calcul permettant de simuler l'efficacité du décanteur. Le suivi des particules d'huile s'effectue grâce à une simulation lagrangienne. Les forces à prendre en compte ont été déterminées grâce à des expériences numériques simples permettant de verifier si les différentes expressions de ces forces trouvées dans la littérature étaient compatibles des conditions de calculs rencontrées dans les décanteurs. Une autre question soulevée par l'utilisation d'une modélisation lagrangienne dans la littérature, est celle de la prise en compte ou non de la dispersion turbulente. L'étude proposée dans cette thèse nous a permis de montrer que l'implémentation d'un modèle de dispersion turbulente rudimentaire ne permet pas d'obtenir des résultats satisfaisants. La faisabilité de la mise au point d'une méthodologie de calcul fiable de l'efficacité du décanteur repose finalement sur la modification du type de maillage utilisé ainsi que le traitement du calcul de l'écoulement à la paroi. Nous avons montré dans cette thèse que la mise en place d'un maillage raffiné aux parois reposant sur des prismes avec un Y+ =1, associé à une loi de parois à deux couches permettait d'obtenir des résultats satisfaisants en terme de prédiction de l'efficacité du décanteur.
|
377 |
Analyse du bruit sismique des rivières pour l'estimation du transport de la charge de fondBurtin, Arnaud 24 November 2009 (has links) (PDF)
L'érosion, au même titre que la tectonique et le climat, est un acteur majeur de l'évolution des paysages. En effet dans les zones non-englacées, les rivières sont responsables de l'essentiel de l'érosion et du transport de masse à la surface de la Terre, qui sont des processus clés dans la dynamique orogénique. La mise en mouvement des matériaux constituant la charge de fond des rivières (sables, galets...) est sans doute un des principaux agents de transport et d'incision fluviale. Malgré le rôle prépondérant de la charge de fond, aucune méthode n'est totalement satisfaisante pour sa quantification. Les nombreuses stratégies actuellement employées nécessitent une installation in situ (dans les rivières) des dispositifs de mesures, qui ne peuvent être mis en œuvre que ponctuellement pour des conditions hydrodynamiques faibles à modérés. Cette limitation est problématique car l'essentiel de la charge de fond est mobilisée lors d'événements extrêmes. Une meilleure compréhension des processus d'érosion fluviale implique donc le développement d'un outil autorisant un suivi temporel continu avec une large couverture spatiale. Cette thèse explore le potentiel offert par la mesure et l'analyse du bruit de fond sismique produit par les rivières. À partir des données acquises au cours de l'expérience sismologique Hi-CLIMB, le potentiel d'une telle approche est testé le long de la rivière trans-himalayenne Trisuli (pour des sismomètres installés jusqu'à 2 km de la rivière). Pendant la mousson 2003, l'analyse spectrale des signaux continus montre une augmentation de plus de 20 dB et une cohérence entre la variation temporelle du bruit sismique dans la gamme en fréquence 3-15 Hz avec l'évolution temporelle des paramètres hydrologiques. En particulier, l'observation d'une hystérésis annuelle entre la hauteur d'eau et l'amplitude du bruit sismique prouve que la turbulence de l'eau n'est pas l'unique source de bruit et confirme la signature des mouvements de la charge de fond dans le signal sismologique. En appliquant des techniques basées sur la corrélation de bruit sismique entre paires de stations, et à l'aide de modélisations numériques, nous montrons également que ce transport solide se localise préférentiellement au front de la Haute-Chaîne, là où les taux d'incision sont élevés. Enfin, l'analyse spectrale révèle également un intérêt pour la détection et la localisation des processus de pente, nombreux en Himalaya (46 coulées de débris observées le long de la Trisuli pendant la saison des pluies 2003). Cette étude ouvre la voix d'une nouvelle approche permettant le suivi spatio-temporel de ces phénomènes et l'estimation des volumes érodés qui alimentent les rivières en sédiments. Afin d'explorer le domaine d'application de cette approche, le suivi sismique d'un torrent de montagne ayant une capacité de transport plus réduite a été réalisé dans le Massif des Écrins. Le traitement des données sismologiques et hydrologiques acquises durant les étés 2007 et 2008 met en évidence des corrélations entre la variation temporelle des débits liquides, solides et celles du niveau de bruit à haute-fréquence (2-90 Hz). Il apparaît que pour ce type de rivière les sismomètres doivent être installés à des distances de la rivière inférieures à 50 m pour détecter le signal généré par les fractions les plus fines de grains en mouvement. Un éloignement supérieur diminuera l'aptitude à les détecter. Cette dernière étude a mis en évidence la nécessité d'effectuer des expériences de calibration sur le terrain et en laboratoire. Partiellement initiée durant cette thèse, la calibration doit permettre de mieux exploiter la richesse du signal sismologique. À l'avenir, la recherche d'un site naturel, où les suivis hydrologiques et géomorphologiques denses sont effectués, est nécessaire pour calibrer un outil permettant de quantifier le transport de la charge de fond dans les rivières
|
378 |
Perception et contrôle de la distance intervéhiculaire en condition de brouillard : Etude sur simulateurCaro, Stéphane 12 November 2008 (has links) (PDF)
Les statistiques mettent en évidence une augmentation importante du risque et de la gravité des accidents par temps de brouillard. Par ailleurs, les études de trafic menées sur autoroute montrent généralement une réduction des intervalles par temps de brouillard et indiquent que cette réduction ne peut pas être expliquée uniquement par la nécessité de garder le contact visuel avec le véhicule lièvre. Partant de ce constat, nous avons cherché à mieux comprendre les causes de la diminution des intervalles par temps de brouillard. Nous avons testé trois hypothèses selon lesquelles le brouillard affecte les mécanismes perceptifs et perceptivo-moteurs impliqués dans la régulation de l'intervalle et dans le contrôle de la trajectoire. La première hypothèse est celle d'une surestimation de la distance intervéhiculaire en condition de brouillard. Les travaux antérieurs ayant montré une surestimation importante de la distance intervéhiculaire en condition de brouillard très dense, nous avons cherché à préciser les conditions d'apparition de ce phénomène à travers deux expérimentations de jugement perceptif. Nos résultats montrent que la surestimation se limite aux conditions de brouillard extrêmement dense où très peu d'indices de distance sont disponibles. La réduction des intervalles par temps de brouillard ne peut donc pas être expliquée par une surestimation de la distance intervéhiculaire. La seconde hypothèse étudiée concerne la sensibilité au mouvement relatif (i.e., l'éloignement ou le rapprochement du véhicule lièvre). Nous supposons (i) qu'en réduisant le contraste du véhicule lièvre ou en masquant sa silhouette, le brouillard rend la perception du mouvement relatif plus difficile et (ii) que les conducteurs réduisent leur intervalle de façon à maintenir le seuil de perception du mouvement relatif au même niveau qu'en condition de visibilité normale. Au cours de deux expérimentations, nous avons mesuré le seuil de perception du mouvement relatif sous la forme d'un temps de réponse. Les résultats confirment le volet perceptif de notre hypothèse et montrent plus particulièrement que la sensibilité au mouvement relatif est largement dégradée lorsque les informations fournies par la silhouette du véhicule lièvre ne sont pas disponibles. Afin de tester le second volet de notre hypothèse portant sur les mécanismes du contrôle de l'intervalle, nous avons mené une expérience de suivi de véhicule où la tâche de contrôle de l'intervalle était rendue difficile par les variations de vitesse du véhicule lièvre. Les participants ont adopté différentes stratégies, dont l'une visant à se rapprocher du véhicule lièvre de façon à voir correctement sa silhouette et à augmenter ainsi la sensibilité au mouvement relatif, ce qui confirme le second volet de notre hypothèse. Pour finir, nous avons cherché à savoir si les exigences liées à la tâche de contrôle de la trajectoire sont en cause dans l'adoption d'intervalles courts par temps de brouillard. La littérature laisse en effet supposer que le suivi d'un véhicule lièvre de près facilite le contrôle de trajectoire en condition de brouillard, tout en évitant les erreurs de positionnement latéral. L'expérience de suivi de véhicule que nous avons menée, où les exigences du contrôle de directionnel étaient importantes, n'a pas confirmé cette hypothèse. Il n'est en effet apparu aucun bénéfice perceptivo-moteur à suivre le véhicule lièvre de près en condition de brouillard. Nous constatons néanmoins que le véhicule lièvre est utilisé comme guide en condition de brouillard. L'ensemble des résultats suggère que l'adaptation des conducteurs face à la réduction de la sensibilité au mouvement relatif due au brouillard contribue à la diminution des intervalles par temps de brouillard. Nous proposons des perspectives d'applications basées sur cette interprétation.
|
379 |
Modélisation et estimation du trafic intracellulaire par tomographie de réseaux et microscopie de fluorescencePecot, Thierry 15 March 2010 (has links) (PDF)
Cette thèse traite de l'analyse et de la simulation du trafic vésiculaire sur des séquences d'images de microscopie de fluorescence. À contre-courant des approches habituelles exploitant un suivi individuel des vésicules, nous avons développé une approche globale (tomographie de réseaux) inspirée de travaux antérieurs sur l'analyse du trafic routier et l'analyse du trafic sur des réseaux de télécommunications. Cette approche repose sur l'utilisation de comptages locaux de vésicules couplés à une procédure de routage qui permettent d'estimer les trajectoires globales des vésicules sur l'ensemble d'une séquence d'images. Contrairement aux précédentes applications de la tomographie de réseaux, les comptages et le routage sont également des inconnues du problème. Afin de mesurer les comptages locaux de vésicules, nous avons développé une méthode de séparation des composantes “objet” et “fond” dans des séquences de microscopie de fluorescence. Cette méthode exploite un terme de détection non local reposant sur la similarité entre motifs de l'image et utilise la composante “fond” estimée comme “référence” pour améliorer la détection des vésicules. Par ailleurs, la procédure de routage dépend des données observées. Dans le cas de l'estimation du trafic, le routage est établi à partir du comptage des vésicules ; dans le cas de simulations, le routage est contrôlé par l'utilisateur. La génération de séquences synthétiques a permis d'évaluer quantitativement la méthode d'estimation du trafic vésiculaire. Cette méthode a égale- ment été évaluée sur des séquences d'images réelles de microscopie dans le cadre d'une étude précise sur le transport membranaire et le trafic vésiculaire régulé par des isoformes de la protéine Rab6.
|
380 |
Détection d'événements dans une séquence vidéoLefèvre, Sébastien 13 December 2002 (has links) (PDF)
Le problème abordé ici concerne l'indexation de données multimédia par la recherche d'extraits pertinents. Nos travaux se focalisent sur l'analyse de séquences vidéo afin d'y détecter des événements prédéfinis. La recherche de ces événements étant contextuelle, nous proposons une architecture et des outils génériques et rapides pour la mise en oeuvre de systèmes d'indexation spécifiques. Nous insistons notamment sur les problèmes suivants : la segmentation temporelle des données, la séparation du fond et des objets, la structuration du fond, le suivi des objets (rigides ou non, avec ou sans apprentissage) et l'analyse des données audio. Afin de résoudre ces différents problèmes, les outils génériques que nous proposons sont basés sur des analyses semi-locales, des approches multirésolution, des modèles de Markov cachées et la méthode des contours actifs. L'architecture et les outils introduits ici ont été validés au travers de plusieurs applications.
|
Page generated in 0.0392 seconds