61 |
Dense spectral beam combining with volume bragg gratings in photo-thermo-refractive glassAndrusyak, Oleksiy G. 11 March 2009 (has links)
En utilisant la combinaison spectrale de faisceaux, des faisceaux provenant de plusieurs lasers opérant à des longueurs d'onde différentes sont combinés en un seul faisceau avec une divergence proche de la limite de diffraction. Cette thèse présente des résultats expérimentaux de combinaison spectrale de faisceaux avec une grande densité spectrale dans deux régions spectrales d'intérêt (1064 et 1550 nm). Un système laser avec une puissance de sortie de l'ordre du kW et une divergence du faisceau combiné proche de la limite de diffraction est démontré. Le système combine cinq fibres lasers dopées Ytterbium polarisées de façon aléatoire avec une séparation spectrale de 0.5 nm en utilisant des réseaux de Bragg volumiques réfléchissants présentant une largeur spectrale étroite et une efficacité de combinaison absolue supérieure à 90%. La projection d'un tel système pour des puissances de sortie de l'ordre de 100 kW est discutée. / Using spectral beam combining (SBC), beams from an array of lasers with each element operated at a different wavelength are combined into a single near-diffraction-limited beam with the same aperture using dispersive optical elements. In this thesis, experimental results of SBC with high spectral density of combined channels in two spectral regions of interest (1064 and 1550 nm) are reported. A laser system with kW-level output power and near-diffraction-limited divergence of spectrally-combined output beam is demonstrated. The system combines five randomly-polarized Yb-doped fiber lasers with 0.5 nm spectral separation in central wavelengths with absolute efficiency of combining > 90% using narrow-band reflecting volume Bragg gratings recorded in photo-thermo-refractive glass. Scaling of such systems to 100 kW power level is discussed.
|
62 |
Conception d’un amplificateur de puissance reconfigurable en CMOS nanométrique pour les applications LTE dans les drones / Design of a reconfigurable power amplifier on 65nm CMOS for LTE applications in dronesLuong, Giap 20 July 2018 (has links)
Les véhicules aériens sans pilote (UAV), souvent appelés drones, trouvent de nombreuses applications dans la vie. Les applications de drones nécessitent plusieurs indicateurs de performance essentiels tels que la couverture, la force du signal, la latence et la mobilité dans des scénarios. Par conséquent, l'utilisation des communications sans fil dans les drones est essentielle pour répondre à toutes les exigences. En raison des connexions au haut débit entre les drones et les utilisateurs pour transférer des données de haut volume à haute résolution, les dernières générations sans fil, comme la norme LTE, sont privilégiées. Il est évident que l'intégration de blocs de radiofréquence (RF) est essentielle pour construire un système sur puce et réduire la taille des drones. Dans ce contexte, cette thèse vise à développer un amplificateur de puissance (PA) innovant avec haute performance reconfigurable entièrement intégré qui adresse les différents besoins imposés par le standard LTE à utiliser dans les applications des UAV. Le PA entièrement intégré en CMOS 65 nm a pour objectif de fournir une puissance de sortie élevée et résoudre le compromis entre la linéarité et l’efficacité. Un transformateur à quatre enroulements est implémenté pour configurer le fonctionnement en multi modes du PA. La technique « segmented bias » permet au PA d’améliorer la linéarité. Le PA obtient non seulement des performances élevées en RF, mais démontre également un potentiel pour l'adopter dans la bande 5G inférieure. / Unmanned aerial vehicles (UAVs), often known as drones, have been finding numerous applications in life. Drones applications need several essential performance indicators such as coverage, signal strength, latency, and mobility under scenarios. Therefore, the use of wireless communications in drones is critical to address all requirements. Because of high-speed connections between drones and users to transfer high-resolution high-volume data, latest wireless generations, namely the LTE standard, are privileged. It is straightforward that the integration of RF blocks is essential to build a system-on-chip and shrink the size of drones. To answer the above question, this thesis aims to develop a fully integrated reconfigurable high-performance innovated PA that supports 4G LTE standard to be used in UAVs’ applications. The fully integrated 65-nm CMOS power amplifier (PA) provides a watt-level output power, addresses the linearity/efficiency trade-off. A four-winding transformer is implemented to configure the multi-mode operation of the PA. The “segmented bias” technique allows the PA to increase the linearity. The PA not only obtains high radiofrequency performances but also demonstrates a potential to adopt it design in the lower 5G band.
|
63 |
Reducing development costs of large vocabulary speech recognition systems / Réduction des coûts de développement de systèmes de reconnaissance de la parole à grand vocabulaireFraga Da Silva, Thiago 29 September 2014 (has links)
Au long des dernières décennies, des importants avancements ont été réalisés dans le domaine de la reconnaissance de la parole à grand vocabulaire. Un des défis à relever dans le domaine concerne la réduction des coûts de développement nécessaires pour construire un nouveau système ou adapter un système existant à une nouvelle tâche, langue ou dialecte. Les systèmes de reconnaissance de la parole à l’état de l’art sont basés sur les principes de l’apprentissage statistique, utilisant l’information fournie par deux modèles stochastiques, un modèle acoustique (MA) et un modèle de langue (ML). Les méthodes standards utilisées pour construire ces modèles s’appuient sur deux hypothèses de base : les jeux de données d’apprentissage sont suffisamment grands, et les données d’apprentissage correspondent bien à la tâche cible. Il est bien connu qu’une partie importante des coûts de développement est dû à la préparation des corpora qui remplissent ces deux conditions, l’origine principale des coûts étant la transcription manuelle des données audio. De plus, pour certaines applications, notamment la reconnaissance des langues et dialectes dits "peu dotés", la collecte des données est en soi une mission difficile. Cette thèse a pour but d’examiner et de proposer des méthodes visant à réduire le besoin de transcriptions manuelles des données audio pour une tâche donnée. Deux axes de recherche ont été suivis. Dans un premier temps, des méthodes d’apprentissage dits "non-supervisées" sont explorées. Leur point commun est l’utilisation des transcriptions audio obtenues automatiquement à l’aide d’un système de reconnaissance existant. Des méthodes non-supervisées sont explorées pour la construction de trois des principales composantes des systèmes de reconnaissance. D’abord, une nouvelle méthode d’apprentissage non-supervisée des MAs est proposée : l’utilisation de plusieurs hypothèses de décodage (au lieu de la meilleure uniquement) conduit à des gains de performance substantiels par rapport à l’approche standard. L’approche non-supervisée est également étendue à l’estimation des paramètres du réseau de neurones (RN) utilisé pour l’extraction d’attributs acoustiques. Cette approche permet la construction des modèles acoustiques d’une façon totalement non-supervisée et conduit à des résultats compétitifs en comparaison avec des RNs estimés de façon supervisée. Finalement, des méthodes non-supervisées sont explorées pour l’estimation des MLs à repli (back-off ) standards et MLs neuronaux. Il est montré que l’apprentissage non-supervisée des MLs conduit à des gains de performance additifs (bien que petits) à ceux obtenus par l’apprentissage non-supervisée des MAs. Dans un deuxième temps, cette thèse propose l’utilisation de l’interpolation de modèles comme une alternative rapide et flexible pour la construction des MAs pour une tâche cible. Les modèles obtenus à partir d’interpolation se montrent plus performants que les modèles de base, notamment ceux estimés à échantillons regroupés ou ceux adaptés à la tâche cible. Il est montré que l’interpolation de modèles est particulièrement utile pour la reconnaissance des dialectes peu dotés. Quand la quantité de données d’apprentissage acoustiques du dialecte ciblé est petite (2 à 3 heures) ou même nulle, l’interpolation des modèles conduit à des gains de performances considérables par rapport aux méthodes standards. / One of the outstanding challenges in large vocabulary automatic speech recognition (ASR) is the reduction of development costs required to build a new recognition system or adapt an existing one to a new task, language or dialect. The state-of-the-art ASR systems are based on the principles of the statistical learning paradigm, using information provided by two stochastic models, an acoustic (AM) and a language (LM) model. The standard methods used to estimate the parameters of such models are founded on two main assumptions : the training data sets are large enough, and the training data match well the target task. It is well-known that a great part of system development costs is due to the construction of corpora that fulfill these requirements. In particular, manually transcribing the audio data is the most expensive and time-consuming endeavor. For some applications, such as the recognition of low resourced languages or dialects, finding and collecting data is also a hard (and expensive) task. As a means to lower the cost required for ASR system development, this thesis proposes and studies methods that aim to alleviate the need for manually transcribing audio data for a given target task. Two axes of research are explored. First, unsupervised training methods are explored in order to build three of the main components of ASR systems : the acoustic model, the multi-layer perceptron (MLP) used to extract acoustic features and the language model. The unsupervised training methods aim to estimate the model parameters using a large amount of automatically (and inaccurately) transcribed audio data, obtained thanks to an existing recognition system. A novel method for unsupervised AM training that copes well with the automatic audio transcripts is proposed : the use of multiple recognition hypotheses (rather than the best one) leads to consistent gains in performance over the standard approach. Unsupervised MLP training is proposed as an alternative to build efficient acoustic models in a fully unsupervised way. Compared to cross-lingual MLPs trained in a supervised manner, the unsupervised MLP leads to competitive performance levels even if trained on only about half of the data amount. Unsupervised LM training approaches are proposed to estimate standard back-off n-gram and neural network language models. It is shown that unsupervised LM training leads to additive gains in performance on top of unsupervised AM training. Second, this thesis proposes the use of model interpolation as a rapid and flexible way to build task specific acoustic models. In reported experiments, models obtained via interpolation outperform the baseline pooled models and equivalent maximum a posteriori (MAP) adapted models. Interpolation proves to be especially useful for low resourced dialect ASR. When only a few (2 to 3 hours) or no acoustic data truly matching the target dialect are available for AM training, model interpolation leads to substantial performance gains compared to the standard training methods.
|
64 |
Optimisation d'un vaccin thérapeutique dans les tumeurs des voies aérodigestives supérieures associées aux papillomavirus : rôle de l'induction d'une immunité muqueuse et de la combinaison à la radiothérapie / Therapeutic vaccine optimisation in human papilloma virus associated head and neck cancer : mucosal immunity induction and radiotherapy combination as new playersNizard, Mevyn 02 July 2015 (has links)
Le cancer est la seconde cause de mortalité dans le monde et les cancers de localisation muqueuse (poumon, estomac, colorectal, du col de l’utérus, …) représentent la première cause de mortalité due au cancer dans le monde. La majorité des vaccins contre les cancers muqueux n’ont à ce jour, pas montré de résultats cliniques significatifs. Au cours de ce travail, nous avons développé une immunothérapie efficace basée sur la sous-unité B non toxique de la toxine de Shiga et montré pour la première fois dans le domaine de la cancérologie que la localisation de l’immunisation était cruciale pour induire des réponses immunitaires anti-tumorales. En effet, dans un modèle préclinique, une immunisation systémique intramusculaire n’a pas permis d’induire de protection thérapeutique efficace contre le développement de tumeurs muqueuses de la langue, alors que la voie d’immunisation intranasale a induit une réponse clinique complète. Nous avons identifié les lymphocytes T CD8+ comme les cellules nécessaires à cette protection et plus précisément la population de lymphocytes T résidents mémoires (Trm). Ces Trm présentent le phénotype classique CD103+ mais expriment également l’intégrine CD49a qui joue un rôle dans la migration/rétention au sein des tumeurs mais également dans la survie à long terme des Trm. Par ailleurs nous avons montré que les cellules dendritiques muqueuses pulmonaires permettaient d’induire ce phénotype CD49a sur les lymphocytes T CD8+ alors que les cellules dendritiques de la rate non. Notre travail montre que l’aspect quantitatif de ces Trm joue un rôle dans la protection anti-tumorale, en effet nous avons pu pour la première fois moduler in vivo le nombre de Trm en traitant les souris par un anticorps anti-TGF-β. La diminution du nombre des Trm est corrélée à la diminution de la protection anti-tumorale. Les patients atteints de cancers des voies aérodigestives supérieures sont majoritairement traités par radiothérapie. Dans l’optique d’essais cliniques à court terme, nous avons montré que la radiothérapie localisée associée à notre immunothérapie permet une protection plus efficace que le traitement seul de l’un ou de l’autre notamment en provoquant un remodelage du microenvironnement tumoral associé à une normalisation vasculaire. Nos résultats ouvrent de nouvelles perspectives dans le développement d’immunothérapies thérapeutiques efficaces contre les cancers muqueux et pourront mener rapidement à des essais cliniques. / Cancer is the second mortality cause worldwide while mucosal cancers (lung, stomac, …) is the first mortality cause from. The majority of cancer vaccines against mucosal tumors have not given rise yet to significant clinical results. In this work we developed a strong immunotherapy based on the nontoxic subunit B from shiga toxin and showed for the first time that the localization of the immunization is crucial to induce potent and effective anti-tumoral responses. In a preclinical model a systemic immunization failed to induce a therapeutical protection against mucosal tumor challenge while intranasal immunization completely succeed. We identified a CD8 T lymphocyte population as a required cells in this protection and more precisely the T resident memory (Trm) cells. This Trm showed the classical CD103 phenotype as well as the CD49a which can play a specific role in the retention or the migration of this cells in the tumor tissue and might play a role in the survival. We also demonstrate that dendritic cells from the mucosal parenchyma was required to induce the CD49a expression on CD8 T cells while dendritic cells from the spleen was not. Our work shows that the Trm number as an impact in the anti-tumoral protection. We were able to reduce the Trm number in vivo using an anti-TGF-β antibody. This number diminution was correlated with a less efficient anti-tumoral protection. Patients with head and neck cancers are treated with radiotherapy. In this situation we showed that the combination of radiotherapy and our immunotherapy was associated with a better protection than radiotherapy alone or immunotherapy alone thanks to a vascular normalization. These results might rapidly lead to clinical trials and might open new ways to work with immunotherapies.
|
65 |
Combinaison monolithique de lasers à cascade quantique par couplage évanescent / Monolithic beam combining of quantum cascade laser by evanescent couplingNaurois, Guy-Maël de 21 December 2012 (has links)
Au cours des dix dernières années, les performances des lasers à cascade quantique dans le moyen infrarouge ont connu une progression rapide: Les rendements ont atteint des valeurs supérieures à 20% avec une puissance d’émission de 5W en régime continu, à température ambiante. Ces valeurs ont été atteintes notamment grâce à la diminution de la sensibilité des lasers à l’échauffement, avec des températures caractéristiques T0 s’approchant de 300K. Les performances sont donc actuellement limitées par la puissance injectée, qui est proportionnelle à la taille de la zone de gain. Les travaux de cette thèse présentent une solution innovante, consistant à combiner un réseau d’émetteurs de petites tailles de façon monolithique. Nous démontrons expérimentalement pour la première fois, des dispositifs jusqu’à 32 émetteurs de 2µm de larges, émettant en phase par couplage évanescent. De plus, nous mettons en évidences des résistances thermiques record. Ces résultats mettent en évidence la possibilité de fabriquer des sources de hautes puissances (supérieures à 10W) dans le moyen-infrarouge avec une très bonne qualité de faisceau. / During the last 10 years, the quantum cascade lasers performances in the mid-infrared have been considerably improved: the wall plug efficiency has reached values superior to 20%, with output power up to 5W in continuous wave operation, at room temperature. Those values have been achieved due to the reduction of the temperature sensibility of the lasers, with characteristic temperature T0 reaching 300K. The output power is now limited to the injected power, which is proportional to the gain region size. This thesis reports an innovating solution consisting on beam combining an array of narrow emitters, monolithically. We experimentally demonstrate for the first time devices of up to 32 emitters of 2µm width emitting in phase by evanescent coupling. Moreover, we show record thermal resistance. Those results highlight the possibility to fabricate high power sources (superior to 10 W) in the mid-infrared, with a good beam quality.
|
66 |
Belief detection and temporal analysis of experts in question answering communities : case strudy on stack overflow / Détection et analyse temporelle des experts dans les réseaux communautaires de questions réponses : étude de cas Stack OverflowAttiaoui, Dorra 01 December 2017 (has links)
L'émergence du Web 2.0 a changé la façon avec laquelle les gens recherchent et obtiennent des informations sur internet. Entre sites communautaires spécialisés, réseaux sociaux, l'utilisateur doit faire face à une grande quantité d'informations. Les sites communautaires de questions réponses représentent un moyen facile et rapide pour obtenir des réponses à n'importe quelle question qu'une personne se pose. Tout ce qu'il suffit de faire c'est de déposer une question sur un de ces sites et d'attendre qu'un autre utilisateur lui réponde. Dans ces sites communautaires, nous voulons identifier les personnes très compétentes. Ce sont des utilisateurs importants qui partagent leurs connaissances avec les autres membres de leurs communauté. Ainsi la détection des experts est devenue une tache très importantes, car elle permet de garantir la qualité des réponses postées sur les différents sites. Dans cette thèse, nous proposons une mesure générale d'expertise fondée sur la théorie des fonctions de croyances. Cette théorie nous permet de gérer l'incertitude présente dans toutes les données émanant du monde réel. D'abord et afin d'identifier ces experts parmi la foule d'utilisateurs présents dans la communauté, nous nous sommes intéressés à identifier des attributs qui permettent de décrire le comportement de chaque individus. Nous avons ensuite développé un modèle statistique fondé sur la théorie des fonctions de croyance pour estimer l'expertise générale des usagers de la plateforme. Cette mesure nous a permis de classifier les différents utilisateurs et de détecter les plus experts d'entre eux. Par la suite, nous proposons une analyse temporelle pour étudier l'évolution temporelle des utilisateurs pendant plusieurs mois. Pour cette partie, nous décrirons com- ment les différents usagers peuvent évoluer au cours de leur activité dans la plateforme. En outre, nous nous sommes également intéressés à la détection des experts potentiels pendant les premiers mois de leurs inscriptions dans un site. L'efficacité de ces approches a été validée par des données réelles provenant de Stack Overflow. / During the last decade, people have changed the way they seek information online. Between question answering communities, specialized websites, social networks, the Web has become one of the most widespread platforms for information exchange and retrieval. Question answering communities provide an easy and quick way to search for information needed in any topic. The user has to only ask a question and wait for the other members of the community to respond. Any person posting a question intends to have accurate and helpful answers. Within these platforms, we want to find experts. They are key users that share their knowledge with the other members of the community. Expert detection in question answering communities has become important for several reasons such as providing high quality content, getting valuable answers, etc. In this thesis, we are interested in proposing a general measure of expertise based on the theory of belief functions. Also called the mathematical theory of evidence, it is one of the most well known approaches for reasoning under uncertainty. In order to identify experts among other users in the community, we have focused on finding the most important features that describe every individual. Next, we have developed a model founded on the theory of belief functions to estimate the general expertise of the contributors. This measure will allow us to classify users and detect the most knowledgeable persons. Therefore, once this metric defined, we look at the temporal evolution of users' behavior over time. We propose an analysis of users activity for several months in community. For this temporal investigation, we will describe how do users evolve during their time spent within the platform. Besides, we are also interested on detecting potential experts during the beginning of their activity. The effectiveness of these approaches is evaluated on real data provided from Stack Overflow.
|
67 |
Développement d’un procédé de réduction des sulfites dans les vins / Development of a method to reduce sulfites in wineBakaï, Marie-France 11 December 2015 (has links)
Le SO2 est un additif utilisé en oenologie pour ses propriétés antiseptiques,antioxydantes et antioxydasiques. Il est introduit dans les vins en grandes quantités en raisonde son fort pouvoir de combinaison avec les dérivés carbonylés, ce qui limite son activité. Leproblème est que les teneurs maximales de SO2 autorisées ne permettent pas toujours uneprotection suffisante du vin contre les phénomènes de refermentation. L'objectif principal dece projet était de réduire la concentration en dioxyde de soufre dans les vins en éliminant unepartie des dérivés carbonylés responsables de la combinaison bisulfitique. La méthoderetenue a été l’extraction sur phase solide (SPE). Elle fait intervenir des interactions entre unephase liquide et un support solide poreux modifié avec une fonction extractive. Les travauxantérieurs ont permis de sélectionner l’hydrazine et la sulfonylhydrazine comme agentsd’extraction. Ces fonctions ont été fixées sur des supports polymères organiques selon deuxvoies : la fonctionnalisation de résines sulfoniques commerciales et la copolymérisation ensuspension de méthacrylate de glycidyle suivie d’une fonctionnalisation. Les supports solidesobtenus ont été caractérisés afin de valider la fonctionnalisation. Ils ont ensuite été testés surdes solutions modèles du vin et le procédé a prouvé son efficacité. La présence decontaminants dans les solutions a été recherchée avant d’appliquer la méthode sur du vin. / SO2 is an additive used in enology for its antiseptic, antioxidant and antioxydasic properties. It is introduced in wines in large quantities due to its high binding power with carbonyl compounds, which limits its activity. The maximum SO2 content authorized is notalways enough to avoid fermentative phenomena during wine storage. The main objective of this project was to develop a method to reduce the sulfur dioxide concentration in wines byeliminating some of carbonyl compounds responsible for the SO2 binding. The method used was solid-phase extraction (SPE). It involves interactions between a liquid and a porous solid support modified with an extractive function. Previous work allowed to select hydrazine andsulfonylhydrazine as extractive reagents. These functions were fixed on organic polymersupports according to two routes : functionnalization of commercial sulfonic resins and suspension copolymerization of glycidyl methacrylate (followed by the functionnalization). The solid supports obtained were characterized in order to validate the functionnalization.Then selective extractions were executed on model solutions. The diminution of carbonylcompounds concentration and SO2 content was showed by those experiments. The presence of contaminants in the solutions was investigated before applying the method to wine.
|
68 |
Conception d'amplificateurs de puissance hautement linéaires à 60 GHz en technologies CMOS nanométriques / Design of highly linear 60GHz power amplifiers in nanoscale CMOS technologiesLarie, Aurélien 31 October 2014 (has links)
Dans le cadre des applications sans fil à 60GHz, l’amplificateur de puissance reste un des composants les plus compliqués à implémenter en technologie CMOS. Des modulations à enveloppe non constante obligent à concevoir des circuits hautement linéaires, conduisant à une consommation statique importante. La recherche de topologies et de techniques de linéarisation viables aux fréquences millimétriques fait l’objet de cette thèse. Dans un premier temps, un état de l’art des différents amplificateurs de puissance à 60GHz est dressé, afin d’en extraire l’ensemble des verrous technologiques limitant leurs performances. Suite à l’analyse des phénomènes physiques impactant les composants passifs, plusieurs structures d’amplificateurs élémentaires sont conçues dans les technologies 65nm et 28nm Bulk. Les topologies les plus pertinentes sont déduites de cette étude. Enfin, deux amplificateurs intégrant des techniques de combinaison de puissance et de linéarisation sont implémentés dans les technologies 65nm et 28nm FD-SOI. Ces deux circuits présentent les plus hauts facteurs de mérite ITRS publiés à ce jour. Le circuit en 28nm FD-SOI atteint en outre le meilleur compromis linéarité/consommation de l’état de l’art. / The CMOS 60GHz power amplifier (PA) remains one of the most design-challenging components. Indeed, a high linearity associated with a large back-off range are required due to complex modulated signals.In this context, this work focuses on the design of architectures and linearization techniques which are usable at millimeter-wave frequencies. First, a CMOS PA state of the art is presented to define all bottlenecks. Then, the physical phenomena impacting on passive device performances are described. Elementary PAs are implemented in CMOS 65nm and 28nm Bulk and the most suitable topologies are selected. Finally, two highly linear circuits are designed in 65nm Bulk and 28nm FD-SOI. They achieve the highest ITRS figures of merit reported to this day. In addition, the 28nm FD-SOI PA exhibits the best linearity/consumption tradeoff.
|
69 |
Comparaison et couplage de méthodes géophysiques pour l'amélioration des reconnaissances des sols dans les projets géotechniques en milieu périurbain / Comparison and coupling of geophysical methods for improving the recognition of soils in geotechnical projects in periurban areasGuerrero, Olivier 01 July 2014 (has links)
Dans le cadre d’un projet d’aménagement, la reconnaissance du sous-sol est une étape prépondérante pour la construction d’un bâtiment. Le géotechnicien se doit de définir le comportement mécanique des sols à partir d’un nombre limité de sondages. La problématique soulevée par les prospections géotechniques est qu’il est difficile d’une part d’étendre une information ponctuelle dans l’environnement proche des sondages, et d’autre part d’estimer la variabilité latérale des matériaux. Dans cette optique, cette thèse développe une approche novatrice de combinaison de méthodes géophysiques aidant à la quantification de la variabilité spatiale des structures géoélectriques du sous-sol. Dans un second temps, au regard des limites rencontrées dans la modélisation 3D des structures géoélectriques du sous-sol, nous avons mis au point un processus innovant de modélisation 3D des propriétés physiques du sous-sol par combinaison de méthodes géophysiques. Les travaux menés ont permis de caractériser les paramètres régissant le positionnement et la quantité de données sources nécessaires.Enfin, un dispositif innovant de mesure de Tomographie de Résistivité Electrique en Cinématique (TREC) a été développé. La validation du dispositif sur trois sites différents a permis de mettre en évidence sa capacité à détecter les structures géoélectriques des sols sur un linéaire de plusieurs centaines de mètres. Ce dispositif constitue un outil précieux pour l’étude des structures géoélectriques du sous-sol dans le cadre de prospections géophysiques à grand rendement. / The geotechnical study of a building project is a decisive step for the construction of it. The geotechnical engineer must define the mechanical behavior of soils from a limited number of drills. The problem of the geotechnical surveys is, on the one hand that difficult to extend a punctual data in the near space to the drills,and on the other hand to estimate the lateral variability of materials. In this context, this thesis develops an innovative approach by combination of geophysical methods to quantify the spatial variability of geoelectrical structures. In asecond time, against the known limits of the 3D modeling of soil geoelectrical structures, we have developed an innovative process of 3D modeling of the physical properties of soil by geophysical methods combination. These works allow characterizing the parameters who governing the positioning and the number of necessary primary data.Finally, an innovative measuring device of Kinematic Electrical Resistivity Tomography (KERT) has been developed. The validation of the device on three different site has allowed to highlight its ability to detect the soil geoelectrical structures within a linear of hundreds meters. This device is a valuable tool for studying soil geoelectrical structures in the context of high yield geophysical prospection.
|
70 |
Segmentation d'images par combinaison adaptative couleur-texture et classification de pixels. : Applications à la caractérisation de l'environnement de réception de signaux GNSS / Image segmentation by adaptive color/texture combination and classification of pixels : Application to characterization of the reception environment of GNSS signalsAttia, Dhouha 03 October 2013 (has links)
En segmentation d’images, les informations de couleur et de texture sont très utilisées. Le premier apport de cette thèse se situe au niveau de l’utilisation conjointe de ces deux sources d’informations. Nous proposons alors une méthode de combinaison couleur/texture, adaptative et non paramétrique, qui consiste à combiner un (ou plus) gradient couleur et un (ou plus) gradient texture pour ensuite générer un gradient structurel utilisé comme image de potentiel dans l’algorithme de croissance de régions par LPE. L’originalité de notre méthode réside dans l’étude de la dispersion d’un nuage de point 3D dans l’espace, en utilisant une étude comparative des valeurs propres obtenues par une analyse des composantes principales de la matrice de covariance de ce nuage de points. L’approche de combinaison couleur/texture proposée est d’abord testée sur deux bases d’images, à savoir la base générique d’images couleur de BERKELEY et la base d’images de texture VISTEX. Cette thèse s’inscrivant dans le cadre des projets ViLoc (RFC) et CAPLOC (PREDIT), le deuxième apport de celle-ci se situe au niveau de la caractérisation de l’environnement de réception des signaux GNSS pour améliorer le calcul de la position d’un mobile en milieu urbain. Dans ce cadre, nous proposons d’exclure certains satellites (NLOS dont les signaux sont reçus par réflexion voir totalement bloqués par les obstacles environnants) dans le calcul de la position d’un mobile. Deux approches de caractérisation, basées sur le traitement d’images, sont alors proposées. La première approche consiste à appliquer la méthode de combinaison couleur/texture proposée sur deux bases d’images réelles acquises en mobilité, à l’aide d’une caméra fisheye installée sur le toit du véhicule de laboratoire, suivie d’une classification binaire permettant d’obtenir les deux classes d’intérêt « ciel » (signaux LOS) et « non ciel » (signaux NLOS). Afin de satisfaire la contrainte temps réel exigée par le projet CAPLOC, nous avons proposé une deuxième approche basée sur une simplification de l’image couplée à une classification pixellaire adaptée. Le principe d’exclusion des satellites NLOS permet d’améliorer la précision de la position estimée, mais uniquement lorsque les satellites LOS (dont les signaux sont reçus de manière direct) sont géométriquement bien distribués dans l’espace. Dans le but de prendre en compte cette connaissance relative à la distribution des satellites, et par conséquent, améliorer la précision de localisation, nous avons proposé une nouvelle stratégie pour l’estimation de position, basée sur l’exclusion des satellites NLOS (identifiés par le traitement d’images), conditionnée par l’information DOP, contenue dans les trames GPS. / Color and texture are two main information used in image segmentation. The first contribution of this thesis focuses on the joint use of color and texture information by developing a robust and non parametric method combining color and texture gradients. The proposed color/texture combination allows defining a structural gradient that is used as potential image in watershed algorithm. The originality of the proposed method consists in studying a 3D points cloud generated by color and texture descriptors, followed by an eigenvalue analysis. The color/texture combination method is firstly tested and compared with well known methods in the literature, using two databases (generic BERKELEY database of color images and the VISTEX database of texture images). The applied part of the thesis is within ViLoc project (funded by RFC regional council) and CAPLOC project (funded by PREDIT). In this framework, the second contribution of the thesis concerns the characterization of the environment of GNSS signals reception. In this part, we aim to improve estimated position of a mobile in urban environment by excluding NLOS satellites (for which the signal is masked or received after reflections on obstacles surrounding the antenna environment). For that, we propose two approaches to characterize the environment of GNSS signals reception using image processing. The first one consists in applying the proposed color/texture combination on images acquired in mobility with a fisheye camera located on the roof of a vehicle and oriented toward the sky. The segmentation step is followed by a binary classification to extract two classes « sky » (LOS signals) and « not sky » (NLOS signals). The second approach is proposed in order to satisfy the real-time constraint required by the application. This approach is based on image simplification and adaptive pixel classification. The NLOS satellites exclusion principle is interesting, in terms of improving precision of position, when the LOS satellites (for which the signals are received directly) are well geometrically distributed in space. To take into account the knowledge of satellite distribution and then increase the precision of position, we propose a new strategy of position estimation, based on the exclusion of NLOS satellites (identified by the image processing step), conditioned by DOP information, which is provided by GPS data.
|
Page generated in 0.0362 seconds