• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 165
  • 87
  • 44
  • Tagged with
  • 299
  • 299
  • 299
  • 293
  • 292
  • 292
  • 291
  • 290
  • 289
  • 284
  • 284
  • 283
  • 280
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Utilisation d'une caméra Temps-de-vol pour la gestion des mouvements en radiothérapie externe

WENTZ, Thomas 04 July 2013 (has links) (PDF)
Ces travaux de thèse se focalisent sur l'amélioration de la prise en charge des mouvements physiologiques qui dégradent la qualité du traitement du cancer par radiothérapie externe. L'erreur de localisation du volume tumoral détecté par imagerie est dépendante du repositionnement du patient par rapport à l'accélérateur linéaire de traitement. Une deuxième source d'incertitude concerne les localisations pulmonaires et des seins : le mouvement respiratoire induit un déplacement de la tumeur. Des marges sont alors ajoutées au volume détecté afin de certifier la délivrance de dose prescrite à la tumeur. L'enjeu de la réduction de ces marges est important cliniquement pour limiter les risques de cancers ultérieurs pour les tissus sains et organes à risques proches de la tumeur. Cependant, l'apparition de scanners 3D capturant les surfaces de manière dynamique sans nocivité permet le développement de systèmes optimisant la gestion de ces mouvements, c'est pourquoi ce travail de thèse a cherché à évaluer une caméra Temps-de-Vol pour sa capacité à suivre une déformation surfacique dynamiquement. En effet, la prédiction du mouvement interne dû à la respiration par l'observation et l'estimation en temps réel du mouvement surfacique externe constitue le point-clef d'une irradiation compensant la respiration. De même, le recalage et la surveillance dynamique de la surface d'un patient pendant une fraction du traitement permet d'améliorer son repositionnement inter et intra-fraction. Les capacités de la Caméra Temps-de-Vol comme scanner 3D permettant un tel suivi sont démontrées dans ce travail. La compréhension de l'influence des paramètres d'observation, la réduction du bruit de mesure ainsi que la création de systèmes bi-caméras amènent à une augmentation sensible de la précision et de la robustesse des estimations. Le développement de méthodes innovantes d'extraction de la déformation à partir des nuages de points 3D permet enfin d'obtenir une estimation précise et exhaustive d'une déformation surfacique en temps réel. Au final, les méthodologies développées montrent que l'on peut connaitre le mouvement respiratoire externe dans la direction antéro-postérieure avec une précision millimétrique à l'échelle d'un seul point en temps réel. De même, la fusion des informations 2D et 3D fournies par la caméra permet d'estimer la déformation tridimensionnelle avec une précision inférieure à deux millimètres, et ceci plusieurs fois par seconde. Enfin, une étude clinique pour le repositionnement montre la bonne capacité d'un système bi-caméras à détecter et estimer une translation et semble indiquer que l'analyse par surface ne permet pas de détecter un mauvais alignement interne.
22

Outils statistiques et géométriques pour la classification des images SAR polarimétriques hautement texturées

Formont, P. 10 December 2013 (has links) (PDF)
Les radars à synthèse d'ouverture (Synthetic Aperture Radar ou SAR) permettent de fournir des images à très haute résolution de la surface de la Terre. Les algorithmes de classification traditionnels se basent sur une hypothèse de bruit gaussien comme modèle de signal, qui est rapidement mise en défaut lorsque l'environnement devient inhomogène ou impulsionnel, comme c'est particulièrement le cas dans les images SAR polarimétriques haute résolution, notamment au niveau des zones urbaines. L'utilisation d'un modèle de bruit composé, appelé modèle SIRV, permet de mieux prendre en compte ces phénomènes et de représenter la réalité de manière plus adéquate. Cette thèse s'emploie alors à étudier l'application et l'impact de ce modèle pour la classification des images SAR polarimétriques afin d'améliorer l'interprétation des classifications au sens de la polarimétrie et à proposer des outils adaptés à ce nouveau modèle. En effet, il apparaît rapidement que les techniques classiques utilisent en réalité beaucoup plus l'information relative à la puissance de chaque pixel plutôt qu'à la polarimétrie pour la classification. Par ailleurs, les techniques de classification traditionnelles font régulièrement appel à la moyenne de matrices de covariance, calculée comme une moyenne arithmétique. Cependant, étant donnée la nature riemannienne de l'espace des matrices de covariance, cette définition n'est pas applicable et il est nécessaire d'employer une définition plus adaptée à cette structure riemannienne. Nous mettons en évidence l'intérêt d'utiliser un modèle de bruit non gaussien sur des données réelles et nous proposons plusieurs approches pour tirer parti de l'information polarimétrique qu'il apporte. L'apport de la géométrie de l'information pour le calcul de la moyenne est de même étudié, sur des données simulées mais également sur des données réelles acquises par l'ONERA. Enfin, une étude préliminaire d'une extension de ces travaux au cas de l'imagerie hyperspectrale est proposée, de par la proximité de ce type de données avec les données SAR polarimétriques.
23

Caractérisation des problèmes conjoints de détection et d'estimation

Chaumette, Eric 13 January 2014 (has links) (PDF)
Le thème général de ma recherche est la caractérisation des problèmes conjoints détection-estimation les plus fréquemment rencontrés en écoute active ou passive (radar, télécoms, sonar, ...) : l'estimation des paramètres déterministes (non aléatoires) d'un signal d'intérêt intermittent en présence d'un environnement permanent. Ce problème peut être modélisé par un test d'hypothèses binaires : H0 (environnement seul) et H1 (environnement et signal d'intérêt). L'intérêt premier pour l'estimation des paramètres déterministes provient de mon domaine d'application professionnel : le radar actif où l'approche à paramètres déterministe est privilégiée. Dans le cadre de paramètres déterministes, cette recherche peut s'aborder graduellement (en terme de difficulté théorique et calculatoire) sous deux axes : * l'étude des performances en estimation non conditionnelle (sans test de détection préalable) par le biais des bornes de performance en estimation. Dans ce cas il n'y a qu'un seul modèle d'observation H1. * l'étude des performances en estimation conditionnelle (avec test de détection préalable), c'est à dire la caractérisation des problèmes conjoints détection-estimation. Cette étude est réalisée par le biais des bornes de performance conditionnelle appliquées à deux modèles d'observation particuliers (l'antenne monopulse et le modèle d'observation gaussien déterministe) pour lesquels certains calculs analytiques sont accessibles.
24

Assessment and Improvement of the Capabilities of a Window Correlator to Model GPS Multipath Phase Errors

Betaille, David 17 February 2004 (has links) (PDF)
This thesis is concerned with the modelling of Global Positioning System (GPS) phase multipath. GPS is increasingly used for very high precision (centimetre level) engineering surveying applications such as setting out on construction sites and the control of major civil engineering plant (e.g. bulldozers, graders and pavement layers). In such applications the phase of the carrier signal is the basic observable and the dominant error source is multipath (electromagnetic reflections of the carrier waves from surfaces in the surroundings of the antennas). The work contained in the thesis has been carried out in collaboration with the LCPC (Laboratoire Central des Ponts et Chaussées) in Nantes, France, which made available its test facility and Leica Geosystems, Heerbrugg, Switzerland, a GPS manufacturer, which funded the work and which made available modified equipment for testing. The specific subject of the research is the assessment and improvement of the capabilities of a Phase Multipath Mitigation Window correlator (PMMW) to model GPS multipath phase errors. The phase window correlator is a new sampling technique dedicated to the estimation of multipath errors in phase measurements. The thesis contains background material on GPS multipath mitigation and on several existing patents related to the PMMW technique. The main contribution of the work relates to : - The rigorous mathematical modelling of multipath, starting from the physics of the phenomenon, right through to the phase measurement process itself, particularly that based on the PMMW correlator ; - The design of a general testing methodology in a controlled environment to assess the efficacy of multipath mitigation techniques ; - The carrying out of full-scale experiments at the LCPC in both static and kinematic modes and the assessment of the performances and limitations of the PMMW correlator ; - Initial investigations into the design of a new real-time correction strategy for phase multipath phase errors based on a combination of multipath observables including the signal-to-noise ratio, the output from the PMMW correlator and an estimation of the code multipath errors from dual frequency phase data. A key feature of the new strategy is its ability to overcome the major limitation of the PMMW technique, i.e. its insensitivity to multipath caused by very close reflectors. It enables the multipath corrupted phase measurements to be improved by 10 % in average in this case, whereas the PMMW corrections on their own had almost no effect.
25

De l'indexation d'évènements dans des films : application à la détection de violence

Penet, Cédric 10 October 2013 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la détection de concepts sémantiques dans des films "Hollywoodiens" à l'aide de concepts audio et vidéos, dans le cadre applicatif de la détection de violence. Nos travaux se portent sur deux axes : la détection de concepts audio violents, tels que les coups de feu et les explosions, puis la détection de violence, dans un premier temps uniquement fondée sur l'audio, et dans un deuxième temps fondée sur l'audio et la vidéo. Dans le cadre de la détection de concepts audio, nous mettons tout d'abord un problème de généralisation en lumière, et nous montrons que ce problème est probablement dû à une divergence statistique entre les attributs audio extraits des films. Nous proposons pour résoudre ce problème d'utiliser le concept des mots audio, de façon à réduire cette variabilité en groupant les échantillons par similarité, associé à des réseaux Bayésiens contextuels. Les résultats obtenus sont très encourageants, et une comparaison avec un état de l'art obtenu sur les même données montre que les résultats sont équivalents. Le système obtenu peut être soit très robuste vis-à-vis du seuil appliqué en utilisant la fusion précoce des attributs, soit proposer une grande variété de points de fonctionnement. Nous proposons enfin une adaptation de l'analyse factorielle développée dans le cadre de la reconnaissance du locuteur, et montrons que son intégration dans notre système améliore les résultats obtenus. Dans le cadre de la détection de violence, nous présentons la campagne d'évaluation MediaEval Affect Task 2012, dont l'objectif est de regrouper les équipes travaillant sur le sujet de la détection de violence. Nous proposons ensuite trois systèmes pour détecter la violence, deux fondés uniquement sur l'audio, le premier utilisant une description TF-IDF, et le second étant une intégration du système de détection de concepts audio dans le cadre de la détection violence, et un système multimodal utilisant l'apprentissage de structures de graphe dans des réseaux bayésiens. Les performances obtenues dans le cadre des différents systèmes, et une comparaison avec les systèmes développés dans le cadre de MediaEval, montrent que nous sommes au niveau de l'état de l'art, et révèlent la complexité de tels systèmes.
26

Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application a l'épilepsie

Hofmanis, Janis 20 November 2013 (has links) (PDF)
La thérapie de l'épilepsie par résection partielle exige l'identification des structures cérébrales qui sont impliquées dans la genèse des crises d'épilepsie focales. Plusieurs modalités telles que l'IRM, le PET SCAN, la sémiologie de la crise et l'électrophysiologie sont exploitées par les experts pour contribuer à la localisation de la zone épileptogène. L'EEG du scalp est la modalité qui procure la résolution temporelle à l'échelle des processus électrophysiologiques étudiés. Cependant du fait du positionnement des capteurs sur le scalp, sa résolution spatiale et, plus précisément, de profondeur est très médiocre. Dans certain cas (épilepsies pharmaco-résistantes), et pour palier à cette déficience spatiale, il est possible d'avoir recours à la SEEG. La SEEG permet des mesures électrophysiologiques intracérébrales : la résolution spatiale et donc anatomique est excellente dans l'axe de la microélectrode. La définition de la zone épileptogène, comme celle proposée par Talairach et Bancaud, est une définition électro-clinique basée sur les résultats d'enregistrements de SEEG intracérébraux. Elle tient compte non seulement de la localisation anatomique de la décharge épileptique partielle, mais également de l'évolution dynamique de cette décharge, c'est à dire les réseaux neurologiques actifs durant la période intercritique-critique et des symptômes cliniques. Récemment, il a été proposé une technique de diagnostic complémentaire de localisation de la zone epileptogénique employant la stimulation electrique cérébrale de profondeur (Deep Brain Stimulation). Cette source exogène peut activer les réseaux épileptiques et produire une réaction électrophysiologique telle qu'une crise d'épilepsie. Elle permet également de mettre en exergue les zones fonctionnelles cognitives. Cette source exogène est parfaitement définie spatialement et temporellement. Ainsi, la stimulation, couplée aux mesures SEEG, contribue à la modélisation de la propagation électrique cérébrale et, par voie de conséquence, à la compréhension du processus épileptique De plus, ce travail sur le modèle de propagation directe apporte une aide à la résolution du problème inverse et donc à la localisation de sources. Les différentes tâches accomplies au cours de cette thèse sont les suivantes : - Création d'une base de données réelles à partir de 3000 stimulations et mesures SEEG pour 42 patients explorés ; - Extraction par séparation des signaux de propagation de la stimulation électrique (DBS) des mesures multidimensionnelles SEEG : 5 méthodes ont été développées ou adaptées et ont été validées au cours d'une première phase en simulation puis sur des signaux réels SEEG dans une seconde phase. - Localisation des électrodes de SEEG dans le repère anatomique de l'IRM et du CT Scanner en y ajoutant une étape de segmentation de la matière grise et blanche, du liquide céphalorachidien et de l'os. - Discussion sur de nombreux modèles de propagation réalistes ou non réalistes proposés dans la littérature, à la fois sur le plan du raffinement du modèle mais également sur les implantations numériques possibles : modèles de milieu, sphériques et réalistes infinis basés sur MRI et CT du patient. - Comparaison entre les résultats générés par les modèles de sources et de milieux et les données obtenues après séparation de la stimulation électrique in vivo chez l'homme. - Validation des modèles de tête FEM en intégrant les conductivités des milieux (CSF), gris et blancs céphalo-rachidiens et perspectives envisagées.
27

Fusion d'images en télédétection satellitaire

Chikr El-Mezouar, Miloud 10 December 2012 (has links) (PDF)
Les satellites d'observation de la Terre fournissent des données multi-spectrales et panchromatiques ayant différentes résolutions spatiales, spectrales, temporelles, et radiométriques. La fusion d'une image panchromatique ayant une haute résolution spatiale, mais une basse résolution spectrale avec une image multi-spectrale ayant une basse résolution spatiale mais une haute résolution spectrale est très utile dans de nombreuses applications de télédétection nécessitant à la fois de hautes résolutions spatiales et spectrales. Dans l'image fusionnée les structures et les objets sont bien rehaussés et la classification de ces objets devient plus précise. Ces techniques de traitement d'image sont connues sous le nom de pansharpening ou techniques de fusion de résolutions. Dans cette thèse, trois algorithmes sont proposés pour la fusion dont deux dans la catégorie de substitution de composantes où nos principales contributions consistent à utiliser la transformée IHS et à rehausser la bande verte dans les zones de végétation. Dans le premier algorithme, la végétation est détectée en utilisant l'indice NDVI et le rehaussement de la végétation est effectué avant le processus de fusion. En revanche, pour le second algorithme le rehaussement de la végétation se fait après le processus de fusion et la végétation est délimitée à l'aide d'un nouvel indice (HRNDVI) proposé pour des images de hautes résolutions. HRNDVI est utilisé dans l'extraction de la végétation, même dans le cas complexe des zones urbaines où la végétation est dispersée. Ainsi, en utilisant HRNDVI, une nouvelle méthode a été proposée et testée pour extraire la végétation. Le troisième algorithme de pansharpening est inclus dans la catégorie multi-résolution basée sur la transformée NSCT. L'amélioration des résultats est assurée par l'utilisation d'un nombre de niveaux de décomposition réduit pour les images multi-spectrales et un nombre plus élevé de niveaux de décomposition pour l'image panchromatique. Cette stratégie permet d'aboutir à des résultats visuels et quantitatifs satisfaisants. En outre, la contribution de la thèse se trouve aussi dans l'évaluation de la qualité des images fusionnées. C'est ainsi qu'un nouveau protocole pour l'évaluation de la qualité est proposé. En fonction de l'application visée, il peut être réglé pour favoriser la qualité spectrale ou spatiale.
28

Indexation des émotions dans les documents audiovisuels à partir de la modalité auditive

Lê, Xuân Hùng 01 July 2009 (has links) (PDF)
Cette thèse concerne la détection des émotions dans les énoncés audio multi-lingues. Une des applications envisagées est l'indexation des états émotionnels dans les documents audio-visuels en vue de leur recherche par le contenu. Notre travail commence par l'étude de l'émotion et des modèles de représentation de celle-ci : modèles discrets, continus et hybride. Dans la suite des travaux, seul le modèle discret sera utilisé pour des raisons pratiques d'évaluation mais aussi parce qu'il est plus facilement utilisable dans les applications visées. Un état de l'art sur les différentes approches utilisées pour la reconnaissance des émotions est ensuite présenté. Le problème de la production de corpus annoté pour l'entraînement et l'évaluation des systèmes de reconnaissance de l'état émotionnel est également abordé et un panorama des corpus disponibles est effectué. Une des difficultés sur ce point est d'obtenir des corpus réalistes pour les applications envisagées. Afin d'obtenir des données plus spontanées et dans des langues plus variées, deux corpus ont été créés à partir de films cinématographiques, l'un en Anglais, l'autre en Vietnamien. La suite des travaux se décompose en quatre parties : études et recherche des meilleurs paramètres pour représenter le signal acoustique pour la reconnaissance des émotions dans celui-ci, étude et recherche des meilleurs modèles et systèmes de classification pour ce même problème, expérimentation sur la reconnaissance des émotions inter-langues, et enfin production d'un corpus annoté en vietnamien et évaluation de la reconnaissance des émotions dans cette langue qui a la particularité d'être tonale. Dans les deux premières études, les cas mono-locuteur, multi-locuteur et indépendant du locuteur ont été considérés. La recherche des meilleurs paramètres a été effectuée sur un ensemble large de paramètres locaux et globaux classiquement utilisés en traitement automatique de la parole ainsi que sur des dérivations de ceux-ci. Une approche basée sur la sélection séquentielle forcée avant a été utilisée pour le choix optimal des combinaisons de paramètres acoustiques. La même approche peut être utilisée sur des types de données différents bien que le résultat final dépende du type considéré. Parmi, les MFCC, LFCC, LPC, la fréquence fondamentale, l'intensité, le débit phonétique et d'autres coefficients extraits du domaine temporel, les paramètres de type MFCC ont donné les meilleurs résultats dans les cas considérés. Une approche de normalisation symbolique a permis d'améliorer les performances dans le cas indépendant du locuteur. Pour la recherche du meilleur modèle et système de classification associé, une approche d'élimination successive selon des cas de complexité croissante (mono-locuteur, multi-locuteur et indépendant du locuteur) a été utilisée. Les modèle GMM, HMM, SVM et VQ (quantification vectorielle) on été étudiés. Le modèle GMM est celui qui donne les meilleurs résultats sur les données considérées. Les expérimentations inter-langue (Allemand et Danois) ont montré que les méthodes développées fonctionnent bien d'une langue à une autre mais qu'une optimisation des paramètres spécifique pour chaque langue ou chaque type de données est nécessaire pour obtenir les meilleurs résultats. Ces langues sont toutefois des langues non tonales. Des essais avec le corpus créé en Vietnamien ont montré une beaucoup moins bonne généralisation dans ce cas. Cela peut être du au fait que le Vietnamien est une langue tonale mais cela peut aussi être dû à la différence entre les conditions de création des corpus : acté dans les premiers cas et plus spontané pour le Vietnamien.
29

Ultrasound contrast imaging with multi-pulse transmission

Lin, Fanglue 14 November 2013 (has links) (PDF)
In ultrasound imaging domain, nonlinear imaging has become an important branch. Nonlinear imaging can be divided into tissue harmonic imaging and contrast harmonic imaging, according to where the nonlinear signals come from. Contrast harmonic imaging emerges because contrast agents, which are intravenously injected to enhance the weak echoes backscattered from blood cells, can vibrate nonlinearly when they undergo an acoustic pressure. Then, these nonlinear signals backscattered by contrast agents are collected to form harmonic images. However, during the wave propagation in tissue, the harmonics of the transmitted wave are also generated in tissue. The presence of tissue harmonic signals degrades the image quality in contrast harmonic imaging. This thesis aims to better distinguish the echoes from contrast agents and the echoes from tissue, whether through designing new modalities, or investigating and optimizing the existing modalities. Our efforts are mainly focused on the multi-pulse techniques in ultrasound contrast imaging. Firstly, we propose a mathematical background to generalize most of the multi-pulse ultrasound imaging techniques that have been described in previous literatures. The formulation can be used to predict the nonlinear components in each frequency band and to design new transmission sequences to either increase or decrease specified nonlinear components in each harmonic band. Simulation results on several multi-pulse techniques are in agreement with the results given in previous literatures. Secondly, the techniques using multiple transmissions to increase the CTR are generally based on the response of static scatterers inside the imaged region. However, scatterer motion, for example in blood vessels, has an inevitable influence on the relevance of the techniques. It can either upgrade or degrade the technique involved. Simulations, in-vitro experiments from a single bubble and clouds of bubbles, and in-vivo experiments from rats show that the phase shift of the echoes backscattered from bubbles is dependent on the transmissions' phase shift, and that the bubble motion influences the efficiency of multi-pulse techniques. Furthermore, experimental results based on the second-harmonic inversion (SHI) technique reveal that bubble motion can be taken into account to optimize multi-pulse techniques. Besides, a new technique, called double pulse inversion (DPI), has also been proposed. The PI technique is applied twice before and after the arrival of the contrast agents to the region of interest. The resulting PI signals are substracted to suppress the tissue-generated harmonics and to improve CTR. Simulations and in-vitro experimental results have shown an improved CTR of DPI. However, the presence of tissue movements may hamper the effectiveness of this technique. In-vivo experimental results confirm that the tissue motion of the rat during the acquisition is an inevitable barrier of this technique.
30

Management d'opérateurs communs dans les architectures de terminaux multistandards.

Naoues, Malek 26 November 2013 (has links) (PDF)
Les équipements de communications numériques intègrent de plus en plus de standards. La commutation d'un standard à l'autre doit pouvoir se faire au prix d'un surcoût matériel modéré, ce qui impose l'utilisation de ressources communes dans des instanciations différentes. La plateforme matérielle nécessaire à l'exécution d'une couche physique multistandard est le segment du système présentant le plus de contraintes par rapport à la reconfiguration : réactivité, consommation et occupation de ressources matérielles. Nos travaux se focalisent sur la paramétrisation qui vise une implémentation multistandards efficace. L'objectif de cette technique est d'identifier des traitements communs entre les standards, voire entre blocs de traitement au sein d'un même standard, afin de définir des blocs génériques pouvant être réutilisés facilement. Nous définissons le management d'opérateurs mutualisés (opérateurs communs) et nous étudions leur implémentation en se basant essentiellement sur des évaluations de complexité pour quelques standards utilisant la modulation OFDM. Nous proposons en particulier l'architecture d'un opérateur commun permettant la gestion efficace des ressources matérielles entre les algorithmes FFT et décodage de Viterbi. L'architecture, que nous avons proposé et implémenté sur FPGA, permet d'adapter le nombre d'opérateurs communs alloués à chaque algorithme et donc permet l'accélération des traitements. Les résultats montrent que l'utilisation de cette architecture commune offre des gains en complexité pouvant atteindre 30% dans les configurations testées par rapport à une implémentation classique avec une réduction importante de l'occupation mémoire.

Page generated in 0.1384 seconds