• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2768
  • 906
  • 403
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4136
  • 1297
  • 979
  • 902
  • 735
  • 732
  • 700
  • 633
  • 598
  • 577
  • 504
  • 393
  • 384
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1291

Échantillonnage Non Uniforme : Application aux filtrages et aux conversions CAN/CNA (Convertisseurs Analogique-Numérique et Numérique/Analogique) dans les télécommunications par satellite / Non Uniform Sampling : Application to filtering and ADC/DAC conversions (Analog-to-Digital and Digital-to-Analog) in the telecommunications by satellite

Vernhes, Jean-Adrien 25 January 2016 (has links)
La théorie de l'échantillonnage uniforme des signaux, développée en particulier par C. Shannon, est à l'origine du traitement numérique du signal. Depuis, de nombreux travaux ont été consacrés à l'échantillonnage non uniforme. Celui-ci permet, d'une part, de modéliser les imperfections des dispositifs d'échantillonnage uniforme. D'autre part, l'échantillonnage peut être effectué de manière délibérément non uniforme afin de bénéficier de propriétés particulières, notamment un assouplissement des conditions portant sur le choix de la fréquence moyenne d'échantillonnage. La plupart de ces travaux reste dans un cadre théorique en adoptant des schémas d'échantillonnage et des modèles de signaux simplifiés. Or, actuellement, dans de nombreux domaines d'application, tels que les communications par satellites, la conversion analogique-numérique s'effectue sous des contraintes fortes pour les largeurs de bande mises en jeu, en raison notamment des fréquences très élevées utilisées. Ces conditions opérationnelles accentuent les imperfections des dispositifs électroniques réalisant l'échantillonnage et induisent le choix de modèles de signaux et de schémas d'échantillonnage spécifiques. Cette thèse a pour objectif général d'identifier des modèles d'échantillonnage adaptés à ce cadre applicatif. Ceux-ci s'appliquent à des signaux aléatoires passe-bande, qui constituent un modèle classique en télécommunications. Ils doivent prendre en compte des facteurs technologiques, économiques ainsi que des contraintes bord de complexité et éventuellement intégrer des fonctionnalités propres aux télécommunications. La première contribution de cette thèse est de développer des formules d'échantillonnage non uniforme qui intègrent dans le domaine numérique des fonctionnalités délicates à implémenter dans le domaine analogique aux fréquences considérées. La deuxième contribution consiste à caractériser et à compenser les erreurs de synchronisation de dispositifs d'échantillonnage non uniforme particuliers, à savoir les convertisseurs analogique-numérique entrelacés temporellement, via des méthodes supervisées ou aveugles. / The theory of uniform sampling, developed among others by C. Shannon, is the foundation of today digital signal processing. Since then, numerous works have been dedicated to non uniform sampling schemes. On the one hand, these schemes model uniform sampling device imperfections. On the other hand, sampling can be intentionally performed in a non uniform way to benefit from specific properties, in particular simplifications concerning the choice of the mean sampling frequency. Most of these works have focused on theoretical approaches, adopting simplified models for signals and sampling devices. However, in many application domains, such as satellite communications, analog-to-digital conversion is submitted to strong constraints over the involved bandwidth due to the very high frequencies used. These operational conditions enhance the imperfections of the involved electronic devices and require the choice of particular signal models and sampling schemes. This thesis aims at proposing sampling models suitable for this context. These models apply to random band-pass signals, which are the classical models for telecommunication signals. They must take into account technological, economical factors and on-board complexity constraints and allow to integrate particular functionalities useful for telecommunication applications. This thesis first contribution is to develop non uniform sampling formulas that can digitally integrate functionalities that appear to be tricky in the analog domain at the considered frequencies. The thesis second contribution consists in applying non uniform sampling theory to the estimation and compensation of synchronization errors encountered in particular sampling devices, the timeinterleaved analog-to-digital converters. This estimation will be performed through supervised or blind methods.
1292

Modeling and monitoring of new GNSS signal distortions in the context of civil aviation / Modélisation et surveillance des distorsions pour les nouveaux signaux GNSS dans le contexte de l'aviation civile

Pagot, Jean-Baptiste 20 December 2016 (has links)
Le GNSS est actuellement présent dans de nombreux domaines et permet le positionnement et la navigation. Parmi ces domaines, l’aviation civile a besoin d’une qualité de service élevée, notamment pendant les phases de vol les plus exigeantes en termes d’intégrité, de précision, de disponibilité et de continuité. Afin de satisfaire ces exigences, toutes les sources de dégradations potentielles du service doivent être prises en compte. Les distorsions des signaux GNSS générées par la charge utile du satellite sont un exemple de problème qui doit être pris en compte par l’aviation civile. Elles peuvent se manifester de deux manières différentes: les distorsions nominales générées par les satellites en fonctionnement normal et les distorsions non nominales générées lors d’une panne de la charge utile. Tout d’abord, cette thèse aborde le problème des déformations nominales affectant les signaux GPS L1 C/A et Galileo E1C. Différentes observations sont réalisées à partir de la visualisation de la fonction de corrélation ou du signal et par l’utilisation d’antennes à haut gain et d’une antenne omnidirectionnelle. Après l’observation des distorsions nominales, cette thèse aborde le sujet des distorsions non nominales du signal. En utilisant les travaux réalisés dans le passé par l’aviation civile dans le cadre du signal GPS L1 C/A, le but est de proposer de nouveaux modèles de distorsions associés aux nouveaux signaux GPS et Galileo qui vont être utilisés par l’aviation civile après 2020. Dans cette optique, de nouveaux modèles de menace (appelés TMs) pour les nouveaux signaux (GPS L5 et Galileo E5a et E1C) sont proposés. La dernière étape de cette thèse se focalise sur l’étude d’une technique capable de protéger un utilisateur de l’aviation civile contre les TMs proposés pour les nouveaux signaux. Cette technique appelée SQM est aujourd’hui implémentée dans les systèmes GBAS et SBAS pour détecter les distorsions de la fonction de corrélation dans le cadre des signaux GPS L1 C/A. / GNSS is used nowadays in various fields for navigation and positioning including safety -of-life applications. Among these applications is civil aviation that requires a very high quality of service for the most demanding phases of flight in terms of integrity, accuracy, availability and continuity. To meet these requirements any source of potential service degradations has to be accounted for. One such example is GNSS signal distortions due to the satellite payload which can manifest in two ways: nominal distortions that are generated by healthy satellites due to payload imperfections and nonnominal distortions that are triggered by a satellite payload failure. The thesis first looks at the nominal distortions through GPS L1 C/A and Galileo E1C signals. Different types of observations are used based on correlation or chip domain visualization, and using high-gain and omnidirectional antennas. After the observation of nominal distortions, the dissertation investigates the non-nominal distortions due to the payload failure. Supported by the groundwork performed by civil aviation on signal distortion for the GPS L1 C/A signal, this dissertation aims at proposing new distortions models associated to the new GPS and Galileo signals that will be used by civil aviation after 2020. In particular, new TMs for new signals (GPS L5, Galileo E5a and Galileo E1C) are proposed. Finally, in this dissertation is built an appropriate monitor, referred to as SQM that is able to detect any distortion from the proposed TMs (for new signals) that could lead to a position integrity failure. Regarding GPS L1 C/A signal monitoring, such SQM is today implemented in GNSS augmentation systems including GBAS and SBAS. The current monitors are based on the analysis of the correlation function.
1293

New Precoding and Equalization Techniques for Multicarrier Systems / Nouvelles Techniques de Précodage et d’Égalisation pour les Systèmes Multiporteuses

Sens Chang, Bruno 24 September 2012 (has links)
Dans cette thèse, de nouvelles techniques d'égalisation et de précodage pour des systèmes multiporteuses ont été proposées et analysées. D'abord, la performance d'erreur des systèmes multiporteuses à base de bancs de filtres (FBMC) précodées a été analysée. Il a été découvert que cette performance est très sensible à l'égalisation complète des sous-canaux. Quand il y a de l'interference inter-symbole residuel qui vient de l'égalisation imparfaite du sous-canaux, il y a une perte de diversité; cette diversité peut être recuperée avec l'adoption d'un nombre de sous-canaux assez grand pour que chaque sous-canaux subisse de l'évanouissement plat ou avec l'utilisation d'un égaliseur de sous-canaux avec une longueur assez suffisante pour compenser cette réponse en fréquence. Après, une approximation pour la distribution du rapport signal/bruit-plus-interfèrence (SINR) des systèmes SC-FDE qui utilisent égalisation MMSE linéaire a été proposée. Cette approximation utilise la distribution lognormal avec la plus petit distance de Kullback-Leibler vers la vraie distribution, et il s'est révélé qu'elle est precise dans la performance d'erreur; elle sert aussi comme une abstraction de cette système. Avec cette abstraction, une méthode précise pour obtenir la performance d'erreur analytique codée de ces systèmes a été proposée. Finalement, des précodeurs Tomlinson-Harashima (THP) et égaliseurs (linéaires et à retour de décision) largement linéaires pour des systèmes SC-FDE ont été proposés. Ces précodeurs et égaliseurs ont une performance d'erreur mieux quand comparés avec ses versions strictement linéaires si des signaux de constellations impropres sont transmises. Aussi, la performance d'erreur quand des égaliseurs à retour de décision sont utilisés est moins sensible au longueur du filtre de retour. Quand des précodeurs largement linéaires sont utilisés, cette performance devient moins sensible à des erreurs d'estimation du canaux. / In this thesis, new precoding and equalization techniques for multicarrier systems were proposed and analyzed.First, the error performance of precoded filterbank multicarrier (FBMC) systems was analyzed. It was found out that this performance is highly sensitive to complete subchannel equalization. When there is residual intersymbol interference (ISI) stemming from imperfect subchannel equalization there is a loss of diversity; this loss can be prevented with the adoption of a number of subchannels large enough so that each subchannel suffers flat fading or with the utilization of a subchannel equalizer with sufficient length to compensate the subchannel frequency response.After that, an approximation for the signal to interference-plus-noise ratio (SINR) distribution of SC-FDE systems using linear MMSE equalization was proposed. This approximation uses the lognormal distribution with the smallest Kullback-Leibler distance to the true distribution, and was shown to be precise in the error performance sense; it serves as a system abstraction. With this abstraction, a precise method to obtain the analytical coded error performance of these systems was proposed.Finally, widely linear Tomlinson-Harashima precoders and equalizers (linear and decision-feedback) for SC-FDE systems were proposed. These precoders and equalizers have better error performance when compared to their strictly linear versions if signals coming from an improper constellation are transmitted. Their error performance when decision-feedback equalizers are used is less sensitive to the length of the feedback filter. When widely linear precoders are used, this error performance becomes less sensitive to channel estimation errors.
1294

Développement de nouveaux traitements non-biocides de protection du bois basés sur la formation in situ de polyesters bio-sourcés / Development of new non-biocide wood protection treatments based on the in situ formation of bio-based polyesters

L'hostis, Clément 20 December 2017 (has links)
Afin de garantir la pérennité des ouvrages en bois, ce matériau naturellement dégradable par de nombreux organismes biologiques, doit généralement subir des traitements de protection. L'usage de produits biocides est actuellement la solution la plus employée pour conférer au bois une durabilité supplémentaire. Cependant, devant la problématique environnementale qu'ils soulèvent, l'utilisation de substances biocides est de plus en plus limitée par la réglementation. Des alternatives à l'emploi de biocides ont été développées pour augmenter la durabilité du bois : le traitement thermique et la modification chimique. Le traitement thermique consiste en la dégradation contrôlée des macromolécules du bois, pour le rendre plus hydrophobe, plus stable dimensionnellement et plus résistant à l'attaque des champignons de dégradation. Cependant ce type de traitement affaiblit les propriétés mécaniques du matériau. La modification chimique consiste en l'imprégnation de molécules au sein du matériau, lesquelles vont ensuite réagir avec les constituants du bois pour modifier sa structure chimique. Au cours de cette thèse, des traitements à base de molécules bio-sourcées ont été développés. Ainsi, les traitements opérés sur du hêtre, essence particulièrement sensible à la biodégradation et dimensionnellement instable, ont permis d'améliorer sensiblement ces propriétés. La formation in situ de polyesters de glycérol et de différents acides carboxyliques engendre un matériau plus résistant mécaniquement que les bois traités thermiquement, tout en apportant également une stabilité dimensionnelle et une durabilité renforcées. Les différents acides carboxyliques employés ont, de plus, induit des comportements différents au regard des différentes propriétés étudiées, mettant en lumière l'importance de la structure chimique des réactifs employés. Le traitement le plus prometteur a fait l'objet d'une étude économique montrant la viabilité de l'industrialisation du procédé, qui permettrait alors l'obtention d'un bois modifié utilisable en classe d'emploi 3, tout en valorisant une ressource abondante et sous-exploitée / In order to guarantee the sustainability of structure made of wood, this material, which is naturally degradable by many biological organisms, must generally undergo protection treatments. The use of biocidal products is currently the most employed solution to confer the wood additional durability. However, facing of the environmental problem they raise, their use tends to be increasingly limited by regulation. Alternatives to the use of biocides have been developed to increase the durability of wood: heat treatment and chemical modification. Heat treatment consists of the controlled degradation of wood macromolecules to make it more hydrophobic and therefore more dimensionally stable and more resistant to the attack of the fungi of degradation, but weakens its mechanical properties. Chemical modification involves the impregnation of molecules within the material, which then react with the constituents of the wood to modify its chemical structure. During this thesis, treatments based on bio-based molecules have been developed. Thus, the treatments carried out on beech, a species which is particularly sensitive to biodegradation and dimensionally unstable, have made possible to improve substantially these properties. The in situ formation of polyesters of glycerol and various carboxylic acids produces a material more resistant mechanically than thermally treated wood, while also providing enhanced dimensional stability and durability. The various carboxylic acids employed have also induced different behavior with regard to the various properties studied, highlighting the importance of the chemical structure of the reagents employed. The most promising treatment was the subject of an economic study showing the viability of the industrialization of the process, which would then make it possible to produce a modified wood that can be used in use class 3, while enhancing an abundant under-exploited resource
1295

Catégorisation par le contenu sémantique d'objets vidéo : recherche et reconnaissance d'acteurs dans les films / Content-Based Video Semantic Object Categorization : actor Retrieval and Recognition in Movies

Zhao, Shuji 10 June 2011 (has links)
Dans cette thèse, nous proposons un nouveau système de recherche par le contenu de catégories sémantiques d'objets vidéo.A partir des séquences vidéo, nous détectons et extrayons les régions contenant le même objet (visage d'une personne, un modèle de voiture, etc.) au cours d'un plan-séquence. A partir de ce volume, appelé Track, nous extrayons un ensemble de caractéristiques visuelles spatio-temporellement cohérentes qui forme ainsi un Tube Spatio-Temporel représentant l'objet.Pour évaluer la similarité entre Tubes Spatio-Temporels, nous concevons des fonctions noyaux dédiées. À partir de ces noyaux, nous proposons des stratégies d'apprentissage supervisé et interactif, intégrées dans un cadre Machine à Vecteurs de Supports.Notre approche est évaluée sur des bases de données de films réels. Elle surpasse les méthodes de l'état de l'art pour la reconnaissance d'acteurs multi-classes. Notre méthode est également testée pour la recherche interactive d'un acteur dans une base de vidéo et sur une base de données de voitures, illustrant ainsi la généricité de la méthode et ses possibles extensions à tout type d'objets vidéo. / In this thesis, we propose a new video object retrieval and recognition system based on visual content.From video sequences, we detect, then extract video objects such as face and car, and define the continuous content made of regions containing this object in successive frames. From this volume, called Track, we extract spatio-temporally consistent visual features to define the video object representation: Spatio-Temporal Tube.To evaluate the similarity between complex tube objects, we design a Spatio-Temporal Tube Kernel (STTK) function. Based on this kernel similarity we present both supervised and active learning strategies embedded in Support Vector Machine framework. Additionally, we propose a multi-class classification framework dealing with highly unbalanced datasets.Our approach is successfully evaluated on real movie databases. Our machine learning approach outperforms the state of the art methods for multi-class actor recognition. Our method is also evaluated for actor retrieval task and on a car database showing hence promising results for car identification task and the potential of extension to any category of video objects.
1296

Video Analysis for Micro- Expression Spotting and Recognition / Analyse de vidéo pour la détection et la reconnaissance de micro-expressions

Lu, Hua 05 April 2018 (has links)
Les principales contributions de cette these, en analyse d'image, portent sur l’etude des caracteristiques de reperage et de reconnaissance des micro-expressions. les approches d’analyse d’expressions faciales dans le domaine de la vision par ordinateur consistent a les detecter et a les classer dans des videos. par rapport a la macro-expression, une micro-expression induit dans une partie du visage un changement rapide durant moins d'une demi-seconde. de plus, cette subtile apparition dans une partie du visage rend difficile sa detection et sa reconnaissance. ces dernieres annees ont connu un interet croissant pour des algorithmes d’extraction automatique de micro-expressions faciales. cela a ete motive par des applications dans des contextes a enjeux eleves tels les enquetes criminelles, les points de controle des aeroports et des transports en commun, le contre-terrorisme, … le choix de caracteristiques faciales efficaces joue un role crucial dans l’analyse des micro-expressions.ce travail se concentre sur la partie d’extraction de caracteristiques, en proposant diverses methodes pour les taches de detection et de reconnaissance de micro-expression.la detection constitue la premiere etape dans l'analyse des micro-expressions. les methodes de detection existantes basees sur des caracteristiques, tels les motifs binaires locaux (lbp), l’histogramme de gradients orientes (hog), le flux optique, souffrent de complexite de mise en œuvre entrainant un probleme d'implementation en temps reel. ainsi, dans cette these, une methode de detection basee sur la projection integrale est proposee pour resoudre ce probleme. cependant, toutes les caracteristiques ci-dessus sont extraites des visages recadres et rognees ; ce qui cause, generalement, un decalage residuel entre les images. pour resoudre ce probleme, est proposee une autre methode de detection basee sur des caracteristiques geometriques. cette derniere exploite les distances geometriques entre des points cles du visage sans necessite de recadrer l'image. ceci permet de capturer des deplacements geometriques subtils le long des sequences et s’avere approprie pour differentes taches d’analyse faciale qui requierent une grande vitesse de calcul.parmi les caracteristiques de reconnaissance de micro-expressions existantes, celles de mouvement basees sur le flux optique presentent des avantages dans la caracterisation de mouvements subtils sur le visage. toutefois, il reste difficile de determiner les emplacements precis de chaque mappage de traits du visage entre les differentes trames par flux optique, meme si les images ont ete alignees. un tel probleme peut donner lieu a une mauvaise estimation, a la fois, de l'orientation et de l’amplitude associees au flux optique. pour y pallier, nous proposons une nouvelle approche (dite fmbh) basee sur les histogrammes de frontiere de mouvement (mbh). elle permet de supprimer les mouvements inattendus causes par un mauvais recalage residuel apparaissant entre les images recadrees tout en capturant le mouvement relatif caracterisant la micro-expression. cette caracteristique est generee en combinant les composantes horizontales et verticales du differentiel de flux optique.les differents developpements de ce travail ont conduit a des etudes comparatives avec des approches de l'etat de l'art sur des bases de donnees bien connues et exploitees par la communaute du domaine. les resultats experimentaux, ainsi obtenues, montrent l'efficacite de nos contributions. / Recent years, there has been an increasing interest in the computer vision in automatic facial micro-expression algorithms. this has been driven by applications in high-stakes contexts such as criminal investigations, airport and mass transit checkpoints, counter terrorism, and so on. micro-expression approaches in computer vision area consist of detecting and classifying them from videos. compared to macro-expression, a micro-expression involves a rapid change which lasts less than a half of second, and moreover, its subtle appearance in part of the face makes detection and recognition difficult to achieve. effective facial features play a crucial role for micro-expression analysis. this thesis focuses on the feature extraction parts, by developing various feature extraction methods for types of micro-expression detection and recognition tasks.the detection of micro-expressions is the first step for its analysis. this thesis aims to spot micro-expressions from videos. existing detection methods based on features, such as the local binary patterns, the histogram of gradient, the optical flow suffer difficulties in computation consuming leading to real-time implementation problem. thus, in this thesis, the spotting method based on integral projection to address this problem. however, all the above features are extracted from cropped faces which usually cause residual mis-registration that appears between images. in order to deal with this issue, another detection method based on geometrical feature is proposed. it involves the geometrical distances between facial key-points without the need of cropping face. this captures subtle geometric displacements along sequences and is proved to be suitable for different facial analysis tasks that require high computational speed. for micro-expression recognition, motion features based on the optical flow have advantages in characterizing subtle movements on face among the existing recognition features. it is still a difficult problem for optical flow to determine the accurate locations of each facial feature mappings between different images even though the face images have been aligned. such an issue may give rise to wrong orientation and magnitude estimation associated to the optical flow field. in order to address this problem, the motion boundary histograms are considered. it can remove unexpected motions caused by residual mis-registration that appears between images cropped from different frames. nevertheless, the relative motion can be captured. based on the the motion boundary, a new descriptor the fusion motion boundary histograms is introduced. this feature is generated by combing both the horizontal and the vertical components of the differential of optical flow as inspired from the motion boundary histograms. the main contributions of this thesis lie at the study of features for micro-expressions spotting and recognition. experiments on the micro-expression databases show the effectiveness of the presented contributions.
1297

Tumeurs cérébrales et rayonnement Synchrotron. Développement méthodologique pour la radiothérapie par minifaisceaux et suivi du traitement par imagerie fonctionnelle / Brain tumors and synchrotron radiation : new methods for minibeams radiation therapy and treatment follow-up by functional imaging.

Deman, Pierre 08 February 2012 (has links)
En 2006 Dilmanian et al. ont proposé une méthode d'irradiation par rayonnement synchrotron innovante appelée minifaisceaux. L'irradiation de tumeur par minifaisceaux monochromatiques consiste en un motif fractionné spatialement de faisceaux de rayons X submillimétriques produits par un synchrotron. Afin d'obtenir une dose homogène dans le volume cible, deux incidences orthogonales sont entrecroisées. Le tissu sain environnant ne subit que l'irradiation fractionnée, entre les faisceaux la dose n'est dûe qu'au diffusé et l'énergie déposée y est donc 10 à 15 fois inférieure à celle déposée sur les axes des faisceaux. Cela permet un effet protecteur des tissus sains tout en distribuant de fortes doses à la tumeur. Cette thèse porte sur le développement de la méthode expérimentale des minifaisceaux monochromatiques, ce qui comprend le contrôle de la géométrie d'irradiation, la dosimétrie expérimentale et l'étude Monte Carlo correspondante. Afin d'évaluer son efficacité, des études précliniques ont été réalisées sur un modèle de tumeur cérébrale implantée chez le rat (F98). Un suivi de traitement est réalisé par de l'imagerie anatomique et fonctionnelle afin d'évaluer son efficacité. L'imagerie de perfusion cérébrale (menant aux volumes et débits sanguin cérébrales, au temps de transit moyen) est d'après la littérature un moyen efficace de pronostique du résultat du traitement. Les paramètres clés de la vascularisation cérébrale sont principalement étudiés par imagerie IRM, du fait de l'innocuité de ce type d'imagerie. La Synchrotron Radiation Computed Tomography (SRCT) est une modalité d'imagerie dont les performances sont proches des limites théoriques dans l'obtention de mesures absolues des concentrations d'agent de contraste et peut être utilisé en tant que gold-standard. Les modèles pharmacocinétiques utilisés nécessitent comme paramètre d'entrée des concentrations d'agent de contraste en fonction du temps. La relation entre le signal obtenu par IRM et la concentration d'agent de contraste est très complexe et difficilement quantitative. Une comparaison des mesures de perfusion effectuées par IRM et par SRCT a été effectuée afin de calibrer les mesures IRM. / An innovative method of synchrotron radiation therapy, called minibeams, was proposed by A. Dilmanian et al. in 2006. Minibeams consists in tumor irradiation with monochromatic submillimetric x-ray beams spatially fractionated produced by a synchrotron source. To obtain a homogeneous dose in the target volume, an interleaving is realized using two orthogonal incidences. Adjacent healthy tissue is only partially irradiated by minibeams, the areas between the beams only receive scattered radiation and therefore the energy deposited is 10 to 15 times lower than on one minibeam axis, leading to a sparing effect of healthy tissue even when a high dose is deposited in the target volume. The thesis project is the development of this experimental method of monochromatic minibeams, which involves the control of the irradiation geometry, the control of dosimetry and its modeling by Monte Carlo simulations. To evaluate the method, preclinical experiments on models of brain tumors implanted in rats (F98) are performed. Follow-up by anatomical and functional imaging is carried out to evaluate the effectiveness of the treatment. Functional imaging of cerebral perfusion (volume and cerebral blood flow, mean transit time of heavy elements) appears to be associated in the literature as a relevant method for monitoring prognostic. The key parameters of the cerebral vasculature are mainly studied in magnetic resonance imaging (MRI), because of the harmlessness of this imaging modality. The relation between MRI signal and contrast agent concentration is very complex and no quantitative relationship is well known. Synchrotron Radiation Computed Tomography (SRCT) is an imaging modality with performances to measure absolute contrast agent concentration very close to the theoretical limits and can be used as gold-standard. The used pharmacokinetic models need as input parameters a contrast agent concentration versus time. A comparison of perfusion measurements between MRI and SRCT has been done in order to calibrate MRI measurements.
1298

Traitement d'antenne et corrélation du bruit sismique ambiant : applications multi-échelles / Array Seismology and Correlation of Ambient Seismic Noise

Boué, Pierre 02 December 2013 (has links)
L'utilisation d'un grand nombre de capteurs sismiques est de plus en plus courant pour imager l'intérieur de notre planète depuis sa surface pour la prospection sismique, jusqu'à sa structure profonde avec la sismologie continentale et globale. L'application d'un traitement d'antenne aux enregistrements issus de réseaux de capteurs permet l'extraction de nouvelles observables et une meilleure compréhension de la propagation des ondes dans les milieux complexes. Parmi ces méthodes, on s'intéresse particulièrement aux traitements simultanés en émission-réception de type double formation de voies (DFV). A l'échelle de la prospection sismique, la DFV est utilisée pour extraire des ondes de volume pouvant être masquées par des ondes de surface plus énergétiques. A l'échelle continentale, les réseaux de sources étant plus rares, on propose d'appliquer la méthode DFV à des signaux reconstruits par corrélation du bruit sismique ambiant. De la même manière que pour un couple de stations, la corrélation d'enregistrements continus permet d'évaluer la fonction de Green entre deux antennes réceptrices. Cette méthode est appliquée à des données du réseau Transportable Array (USArray) afin de mesurer et cartographier la vitesse de phase des ondes de surface au centre des USA. Enfin à l'échelle globale, une combinaison de plusieurs grands réseaux sismologiques est utilisée pour démontrer que la corrélation d'enregistrements continus, dans la gamme de périodes, 5-100s permet la reconstruction des ondes de volume à des distances télésismiques. Une analyse de la contribution respective du bruit ambiant, d'origine océanique, et des séismes est réalisée. On montre que les arrivées tardives des forts séismes, réverbérées à l'intérieur du globe, contribuent de manière importante à la reconstruction des phases profondes. Les ondes de volume reconstruites à partir du bruit ambiant constituent une nouvelle source d'information, complémentaire aux données issues des séismes, et pouvant être utilisée pour imager notre planète. / The use of a large number of sensors is becoming more common in seismology at both the global scale for deep Earth studies, and at the exploration geophysics scale for monitoring and subsurface imaging. Seismic arrays require array processing from which new type of observables contribute to a better understanding of the wave propagation complexity. This thesis deals with a subset of these techniques. It first focuses on a way to select and identify different phases between two source-receiver arrays based on the double beamforming (DBF) method. At the exploration geophysics scale, the goal is to identify and separate low-amplitude body waves from high-amplitude dispersive surface waves. At the continental scale, as the source arrays are uncommon, the cross-correlation (CC) method of broadband ambient seismic noise can be used to evaluate the Green's function between two receiver arrays. The combination of DBF and CC is applied on Transportable Array (USArray) data to construct high-resolution phase velocity maps of Rayleigh and Love waves. Finally, at the global scale, by using a large number of sensors, it is shown that body waves can emerge form CC of continuous records in the 5-100s period band. We also analyze the contribution of strong earthquakes and particularly their long lasting reverberated coda. We compare it to the contribution to correlations of the continuous background sources associated with the ocean-crust interaction. The reconstructed body waves constitute a valuable supplement to traditional earthquake data to image and to monitor the structure of the Earth from its surface to the inner core.
1299

Segmentation de la locomotion humaine dans le domaine du sport et de la déficience à partir de capteurs embarqués / Measurement and control of non-periodic motions of lower and upper limbs in functional rehabilitation

Pasquier, Maud 16 September 2013 (has links)
Cette thèse porte sur le traitement de données multi-capteurs liées à la locomotion humaine.Son objectif est de concevoir des outils pour la segmentation de la locomotion à partir d'un réseau de capteurs embarqués et appliquée à deux domaines différents: le sport avec l'ultra-marathon et la déficience causée par un symptome de la maladie de Parkinson. Pour ces deux applications, le travail peut atteindre cet objectif concerné. d'une part, les contraintes matérielles liées au réseau de capteurs, et d'autre part, les algorithmes de traitement des données. Dans un premier temps, nous avons recueilli des données multi-capteurs sur un coureur du Marathon des Sables. Le réseau des capteurs étant confronté à des conditions extrêmes, il a fallu s'adapter à des problèmes techniques avant de pouvoir proposer un outil pour segmenter et classer ces grandes quantités de données. Dans un second temps, nous avons travaillé en collaboration avec un médecin, pour comprendre au mieux le ''freezing" (symptôme perturbant la marche de certains malades atteints de la maladie de Parkinson) afin de proposer une nouvelle méthode de détection pour ce symptôme. / This thesis focuses on the treatment of multi-sensor related data locomotion humaine.Son goal is to develop tools for segmentation of locomotion from a network of embedded and applied to two different domains sensors : sport with ultra -marathon and disability caused by a symptom of Parkinson's disease . For both applications, the work can achieve this question. one hand , the physical constraints of the network sensors , and secondly , the data processing algorithms . At first , we collected multi-sensor data on a runner Marathon des Sables. The network of sensors being confronted with extreme conditions, it was necessary to adapt to technical before proposing a tool to segment and classify these large amounts of data problems. In a second step , we worked with a doctor, to understand better the '' freezing " (symptom disrupting the progress of some patients with Parkinson's disease ) to propose a new detection method for this symptom.
1300

Débruitage de séquences par approche multi-échelles : application à l'imagerie par rayons X / Spatio-temporal denoising using a multi-scale approach : application to fluoroscopic X-ray image sequences

Amiot, Carole 18 December 2014 (has links)
Les séquences fluoroscopiques, acquises à de faibles doses de rayons X, sont utilisées au cours de certaines opérations médicales pour guider le personnel médical dans ces actes. Cependant, la qualité des images obtenues est inversement proportionnelle à cette dose. Nous proposons dans ces travaux un algorithme de réduction de bruit permettant de compenser les effets d'une réduction de la dose d'acquisition et donc garantissant une meilleure protection pour le patient et le personnel médical. Le filtrage développé est un filtre spatio-temporel s'appuyant sur les représentations multi-échelles 2D des images de la séquence pour de meilleures performances. Le filtre temporel récursif d'ordre 1 et compensé en mouvement permet une forte réduction de bruit. Il utilise une détection et un suivi des objets de la séquence. Ces deux étapes déterminent le filtrage spatio-temporel de chaque coefficient multi-échelles. Le filtrage spatial est un seuillage contextuel utilisant le voisinage multi-échelles des coefficients pour éviter l'apparition d'artefacts de forme dans les images reconstruites. La méthode proposée est testée dans deux espaces multi-échelles différents, les curvelets et les ondelettes complexes suivant l'arbre dual. Elle offre des performances supérieures à celles des meilleures méthodes de l'état de l'art. / Acquired with low doses of X-rays, fluoroscopic sequences are used to guide the medical staff during some medical procedures. However, image quality is inversely proportional to acquisition doses. We present here a noise reduction algorithm compensating for the effects of an acquisition at a reduced dose. Such a reduction enables better health protection for the patient as well as for the medical staff. The proposed method is based on a spatio-temporal filter applied on the 2D multi-scales representations of the sequence images to allow for a greater noise reduction. The motion-compensated, recursive filter acccounts for most of the noise reduction. It is composed of a detection and pairing step, which output determines how a coefficient is filtered. Spatial filtering is based on a contextual thresholding to avoid introducing shape-like artifacts. We compare this filtering both in the curvelet and dual-tree complex wavelet domains and show it offers better results than state-of-the-art methods.

Page generated in 0.029 seconds