• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 66
  • 18
  • 11
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 279
  • 82
  • 61
  • 35
  • 34
  • 30
  • 24
  • 23
  • 22
  • 22
  • 22
  • 20
  • 20
  • 18
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Étude des mécanismes d'interaction fluide-structure d'un cœur RNR-Na lors de l'évacuation d'une poche de gaz / Analysis of fluid-structure interaction mechanism of a Na-FBR core while the evacuation of a gas pocket

Sargentini, Lucia 17 December 2014 (has links)
Cette thèse vise à améliorer la compréhension du comportement d'un cœur de réacteur à neutrons rapides refroidi au sodium (RNR-Na) par l'analyse de l'interaction fluide-structure lors de vibrations de courte durée (AURNs de Phénix) et de longe durée (séisme pour le projet ASTRID).Pour ce faire, trois approches ont été suivies : élaboration de solutions analytiques, développement de modèles numériques et réalisation d'expériences.Une solution analytique du champ de pression et de vitesse a été obtenue, pour la première fois, pour le cas d'oscillations libres et de forts confinements.Une carte d'écoulement a été réalisée pour identifier les régimes présentsdans l'inter-assemblage.Nous avons conçu et dimensionné deux maquettes, PISE-2c (2 couronnes d'assemblages hexagonaux) et PISE-1a (un assemblage). Chaque assemblage vibre en eau à une fréquence cible de quelques Hertz avec un mouvement de translation.Des essais d'oscillations libres en air et en eau ont été réalisés pourétudier les caractéristiques dynamiques de l'assemblage. Un écoulement 3D du type<< jambage >> se produit dans l'inter-assemblage, qui conduit à une baisse de lafréquence de vibration par rapport à la théorie bidimensionnelle.Les essais ont été modélisés avec un modèle numérique 2D<< Cast3M Navier-Stokes >> (équations de Navier-Stokes couplées avec l'équation de la dynamique de corps rigide).Dans les modèles 2D il faut imposer une force fluide inférieure, qui prenne en compte les effetsde l'écoulement 3D.Le modèle << Cast3M $up\phi$ >> (équationsd'Euler linéarisées couplées avec l'équation de la dynamique) a également été utilisé pourreprésenter en 3D la maquette PISE-1a. / The purpose of this study is to improve the knowledge about the core behavior of a sodium fast breeder reactor (Na-FBR) during vibrations through the fluid-structure interaction analysis. Namely, we investigate the flowering of the Phénix core during the SCRAM for negative reactivity (AURN) and the seismic behavior of the core of Astrid project. Three approaches are followed : experimental campaign, performing of analytical solution and development of numerical model. We create a flow regime map to identify the flow regimes in the fluid gap for very short times scales (as AURN) as well as longer time scales (as seismic oscillations). The most suitable equation system (Navier-Stokes, Euler or linearized Euler) is chosen to model the fluid flow in the numerical code. To our knowledge, for the first time, an analytical solution for free vibration and very narrow gaps is proposed. We designed two experimental apparatus (PISE-1a and PISE-2c) composed respectively by 1 and 19 hexagonal assemblies (two crowns) of Poly-methyl methacrylate (PMMA). Every PMMA assembly is fixed to a stainless steel twin-blades support allowing only orthogonal oscillations with respect to generating line of assembly. The twin-blades supports are designed to give the same range frequency of Phénix assembly in liquid sodium. The experimental equipment PISE-1a is used to determine the dynamic characteristics of PISE-2c assembly, to calibrate instrumentation and for validating our numerical model. Free vibration tests in air are performed to evaluate the dynamic characteristics of the body. Free vibration experiments in water allow to assess the added mass and added damping effect on the frequency. Even though the fluid flow during vibration should be completely bidimensional, the fluid flow is affected by a 3D effect - named ’jambage’ - at the top and the basis of the assembly. This effect produces a lower frequency than the theoretical value. Tests are modeled with a bidimensional numerical model through the finite-elements method with the Cast3M code. The fluid is viscous and incompressible, whereas the structure is considered as a mass-damped-spring system with a 1 degree of freedom. Our model is solved by the Navier-Stokes equations coupled by the dynamic equation of structures. Also the « upφ model » is used to have a 3D representation of PISE-1a. Because of the 3D fluid flow presence, to reproduce the oscillation of a test, we have to impose a lower fluid force in the 2D numerical model to reproduce tests.
62

Architecture génétique du comportement chez la caille japonaise et relations avec des caractères de production / Genetic architecture of the Japanese quail's behavior and relationships with production traits

Recoquillay, Julien 12 December 2014 (has links)
Notre étude a porté sur le contrôle génétique des comportements sociaux ou de peur et leur relation avec les caractères de production au sein d’un croisement entre deux lignées de cailles sélectionnées de façon divergente sur la motivation sociale. Les résultats alertent sur un possible effet délétère de la sélection pour une plus forte productivité sur la sociabilité et la réactivité émotionnelle des animaux. Dans le même temps, ils indiquent des synergies possibles entre une plus forte motivation sociale et la précocité de la ponte, ou une plus faible réactivité émotionnelle et une production d’œufs plus importante. L’étude a permis la construction de la première carte génétique de moyenne densité à l’aide de marqueurs SNP chez la caille. Les analyses de liaison ont révélé un total de 45 QTLs dont 23 pour les caractères comportementaux et 22 pour ceux de production. Ce sont pour les critères de motivation sociale que les QTLs sont les plus nombreux (15). Certaines régions contrôlent à la fois la réactivité émotionnelle et le poids ou la sociabilité et l’âge au premier œuf. Plusieurs gènes candidats en lien avec la sociabilité ont été suggérés. / Our study focused on the genetic control of social and fear behaviors and their relationships with production traits in a second generation crossing between two lines of quail divergently selected for their social reinstatement behavior. The results warn us about a possible deleterious effect of the selection for higher productivity on the animal’s sociability and emotional reactivity. At the same time, they also indicate possible synergies between a stronger social motivation and a precocious laying onset, or a lower emotional reactivity toward a novel object and a higher egg production. The study allowed us to construct the first genetic map of medium density using SNP markers in the quail. Linkage analyses reveal a total of 45 QTLs with 23 linked to behavioral traits and 22 to the production traits. Most of the behavioral QTLs were linked to the social motivation (15). Also, some regions control both emotional reactivity and weight or sociability and the age at first egg. At this stage of the study, several candidate genes related to sociability were suggested.
63

Méthodes de segmentation du ventricule gauche basée sur l'algorithme graph cut pour les images par résonance magnétique et échocardiographiques

Bernier, Michaël January 2017 (has links)
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
64

Circuit générique de commandes rapprochées pour l'électronique de puissance / Generic gate driver for power electronics

Nguyen, The Van 26 September 2012 (has links)
Les travaux de thèse portent sur la conception et la réalisation d'un circuit intégré de commande rapprochée générique pour les transistors à grille isolée comme les MOSFETs et les IGBTs dans les structures de conversion d'énergie de l'électronique de puissance. L'objectif principal est de concevoir un système de commande simple à mettre en oeuvre, compact et configurable pouvant servir un panel varié d'applications dites multi-transistors. Le mémoire de thèse se structure en quatre chapitres : état de l'art de la commande rapprochée des transistors à grille isolée, présentation et validation d'une nouvelle topologie de commande rapprochée à base de transformateur d'impulsion, présentation et validation d'une version améliorée pour travailler à large spectre de fréquence et de rapport cyclique, conception et validation du driver intégré générique. Les champs d'application de ce concept du driver sont multiples, celui-ci favorise la simplicité de la conception et de la mise en oeuvre des système de commande pour l'électronique de puissance. / The thesis work focuses on the design and the implementation of a generic integrated gate driver circuit for power transistors such as MOSFETs and IGBTs in power conversion structure. The main objective is to design a control system which is simple to implement, compact and can be configurable to serve several multi-transistors applications. The thesis is structured into four chapters: state of the art of the gate driver for power transistor, presentation and validation of a new gate driver topology based on pulse transformer, presentation and validation of an upgraded version enable to work with wider range of frequency and duty cycle, design and validation of a generic integrated driver. The fields of application of this driver concept are multiples; it promotes the simplicity of the design and implementation of control system for power electronics.
65

Two contributions to geometric data analysis : filamentary structures approximations, and stability properties of functional approaches for shape comparison / Deux contributions à l'analyse géométrique de données : approximation de structures filamentaires et stabilité des approches fonctionnelles pour la comparaison de formes

Huang, Ruqi 14 December 2016 (has links)
En ce moment même, d'énormes quantités de données sont générées, collectées et analysées. Dans de nombreux cas, ces données sont échantillonnées sur des objets à la structure géométrique particulière. De tels objets apparaissent fréquemment dans notre vie quotidienne. Utiliser ce genre de données pour inférer la structure géométrique de tels objets est souvent ardue. Cette tâche est rendue plus difficile encore si les objets sous-jacents sont abstraits ou encore de grande dimension. Dans cette thèse, nous nous intéressons à deux problèmes concernant l'analyse géométrique de données. Dans un premier temps, nous nous penchons sur l'inférence de la métrique de structures filamentaires. En supposant que ces structures sont des espaces métriques proches d'un graphe métrique nous proposons une méthode, combinant les graphes de Reeb et l'algorithme Mapper, pour approximer la structure filamentaire via un graphe de Reeb. Notre méthode peut de plus être facilement implémentée et permet de visualiser simplement le résultat. Nous nous concentrons ensuite sur le problème de la comparaison de formes. Nous étudions un ensemble de méthodes récentes et prometteuses pour la comparaison de formes qui utilisent la notion de carte fonctionnelles. Nos résultats théoriques montrent que ces approches sont stables et peuvent être utilisées dans un contexte plus général que la comparaison de formes comme la comparaison de variétés Riemanniennes de grande dimension. Enfin, en nous basant sur notre analyse théorique, nous proposons une généralisation des cartes fonctionnelles aux nuages de points. Bien que cette généralisation ne bénéficie par des garanties théoriques, elle permet d'étendre le champ d'application des méthodes basées sur les cartes fonctionnelles. / Massive amounts of data are being generated, collected and processed all the time. A considerable portion of them are sampled from objects with geometric structures. Such objects can be tangible and ubiquitous in our daily life. Inferring the geometric information from such data, however, is not always an obvious task. Moreover, it’s not a rare case that the underlying objects are abstract and of high dimension, where the data inference is more challenging. This thesis studies two problems on geometric data analysis. The first one concerns metric reconstruction for filamentary structures. We in general consider a filamentary structure as a metric space being close to an underlying metric graph, which is not necessarily embedded in some Euclidean spaces. Particularly, by combining the Reeb graph and the Mapper algorithm, we propose a variant of the Reeb graph, which not only faithfully approximates the metric of the filamentary structure but also allows for efficient implementation and convenient visualization of the result. Then we focus on the problem of shape comparison. In this part, we study the stability properties of some recent and promising approaches for shape comparison, which are based on the notion of functional maps. Our results show that these approaches are stable in theory and potential for being used in more general setting such as comparing high-dimensional Riemannian manifolds. Lastly, we propose a pipeline for implementing the functional-maps-based frameworks under our stability analysis on unorganised point cloud data. Though our pipeline is experimental, it undoubtedly extends the range of applications of these frameworks.
66

Reconstruction 3D et production de carte dense de disparité en stéréovision non-alignée pour des applications industrielles de localisation 3D et d'analyse de surface / 3D reconstruction and production of dense disparity map in non-aligned stereo vision for industrial applications of 3D measurement and surface analysis

Pelcat, Jimmy 23 February 2012 (has links)
En vision industrielle, de nombreuses applications de mesure et de contrôle qualité évoluent vers des problématiques tri-dimensionnelles. Les systèmes de stéréovision sont des solutions technologiques qui attirent les industriels par leur simplicité mécanique. Deux caméras statiques disposées à des endroits stratégiques peut s'avérer suffisantes pour répondre à cette problématique bien que les contraintes industrielles imposent de respecter des temps de traitement courts et des mesures précises. La diversité des applications nous amènent à envisager deux approches afin de répondre à deux types d'application. La première technique consiste en la reconstruction 3D à partir de paires de points images qui se correspondent dans les deux images. Elle est destinée à répondre à la problématique de mesure 3D. Les méthodes de calibration monoculaire et de calcul 3D par triangulation sont la base de la reconstruction 3D. Nous étudions la précision de mesure et son évolution selon la pose du système de capture par rapport à la scène observée. La seconde technique consiste à construire des images de disparité afin de répondre à des problématiques de construction de profil et d'analyse de défaut. La contrainte d'alignement des caméras, nécessaire pour accélérer le processus de mise en correspondance, implique d'utiliser des méthodes de calibration stéréoscopique et de rectification des images. Nous étudions l'impact de l'alignement sur la qualité de la rectification. La production de carte dense de disparité se base sur les techniques de stéréo-corrélation. Nous montrons les limites de l'utilisation d'un noyau de corrélation carré et proposons une alternative par production de deux cartes denses de disparité à partir de deux noyaux mono-directionnels, améliorant la mesure de disparité sur les zones de contours et d'occultations. / In industrial vision, many applications for measuring and quality control are moving to three-dimensional problems. Stereovision systems are technological solutions that attract industry by their mechanical simplicity. Two static cameras placed at strategic locations may be sufficient to address this problem although the industrial constraints imposed to respect a short processing time and precise measurements. The diversity of applications lead us to consider two approaches to resolve the two types of application. The first technique consists in the 3D reconstruction from pairs of image points which correspond in both images. It is intended to address the problem of 3D measurement. The methods of monocular calibration and 3D triangulation are the basis of 3D reconstruction. We study the accuracy and its evolution according to the capture system pose compared to the observed scene. The second technique is to construct disparity maps to address problems of building profile and default analysis. The alignment constraint of cameras needed to accelerate the process of matching involves the use of methods of stereoscopic calibration and image rectification. We study the impact of alignment on the quality of the rectification. The production of dense disparity map is based on the stereo-correlation techniques. We show the limits of the use of a squared correlation kernel and propose an alternative production of two dense disparity maps from two mono-directional kernels, improving the measurement of disparity around edges and occlusions.
67

How polarimetry may contribute to understand reflective road scenes : theory and applications / Comment la polarimétrie contribue à comprendre les scènes routières : théorie et applications

Wang, Fan 16 June 2016 (has links)
Les systèmes d'aide à la conduite (ADAS) visent à automatiser/ adapter/ améliorer les systèmes de transport pour une meilleure sécurité et une conduite plus sûre. Plusieurs thématiques de recherche traitent des problématiques autour des ADAS, à savoir la détection des obstacles, la reconnaissance de formes, la compréhension des images, la stéréovision, etc. La présence des réflexions spéculaires limite l'efficacité et la précision de ces algorithmes. Elles masquent les textures de l'image originale et contribuent à la perte de l'information utile. La polarisation de la lumière traduit implicitement l'information attachée à l'objet, telle que la direction de la surface, la nature de la matière, sa rugosité etc. Dans le contexte des ADAS, l'imagerie polarimétrique pourrait être utilisée efficacement pour éliminer les réflexions parasites des images et analyser d'une manière précise les scènes routières. Dans un premier temps, nous proposons dans cette thèse de supprimer les réflexions spéculaires des images via la polarisation en appliquant une minimisation d'énergie globale. L'information polarimétrique fournit une contrainte qui réduit les distorsions couleurs et produit une image diffuse beaucoup plus améliorée. Nous avons ensuite proposé d'utiliser les images de polarisation comme une caractéristique vu que dans les scènes routières, les hautes réflexions proviennent particulièrement de certains objets telles que les voitures. Les attributs polarimétriques sont utilisés pour la compréhension de la scène et la détection des voitures. Les résultats expérimentaux montrent que, une fois correctement fusionnés avec les caractéristiques couleur, les attributs polarimétriques offrent une information complémentaire qui améliore considérablement les résultats de la détection.Nous avons enfin testé l'imagerie de polarisation pour l'estimation de la carte de disparité. Une méthode d'appariement est proposée et validée d'abord sur une base de données couleur. Ensuite, Une règle de fusion est proposée afin d'utiliser l'imagerie polarimétrique comme une contrainte pour le calcul de la carte de disparité. A partir des différents résultats obtenus, nous avons prouvé le potentiel et la faisabilité d'appliquer l'imagerie de polarisation dans différentes applications liées aux systèmes d’aide à la conduite. / Advance Driver Assistance Systems (ADAS) aim to automate/adapt/enhance trans-portation systems for safety and better driving. Various research topics are emerged to focus around the ADAS, including the object detection and recognition, image understanding, disparity map estimation etc. The presence of the specular highlights restricts the accuracy of such algorithms, since it covers the original image texture and leads to the lost of information. Light polarization implicitly encodes the object related information, such as the surface direction, material nature, roughness etc. Under the context of ADAS, we are inspired to further inspect the usage of polarization imaging to remove image highlights and analyze the road scenes.We firstly propose in this thesis to remove the image specularity through polarization by applying a global energy minimization. Polarization information provides a color constraint that reduces the color distortion of the results. The global smoothness assumption further integrates the long range information in the image and produces an improved diffuse image.We secondly propose to use polarization images as a new feature, since for the road scenes, the high reflection appears only upon certain objects such as cars. Polarization features are applied in image understanding and car detection in two different ways. The experimental results show that, once properly fused with rgb-based features, the complementary information provided by the polarization images improve the algorithm accuracy. We finally test the polarization imaging for depth estimation. A post-aggregation stereo matching method is firstly proposed and validated on a color database. A fusion rule is then proposed to use the polarization imaging as a constraint to the disparity map estimation. From these applications, we proved the potential and the feasibility to apply polariza-tion imaging in outdoor tasks for ADAS.
68

Development of an Efficient Methodology for Modeling Parasitic Effects within a Broadband Test Circuit / Développement d'une méthodologie efficace pour la modélisation des effets parasitaires dans un circuit de test large bande

Hamze, Kassem 06 November 2018 (has links)
Les travaux de cette thèse traitent de l'élaboration d'une méthodologie efficace pour la modélisation des effets parasites dans une carte en large bande de fréquence. La réduction du «Time to Market» pour la conception des produits RF et hyperfréquences nécessite le développement d'une méthode efficace de caractérisation et de modélisation pour mieux prendre en compte les erreurs incluses dans la carte de test.Les principaux résultats concernent les contributions suivantes :- Mise au point des standards de calibrage innovateur pour caractériser et modéliser les effets parasites inhérent au modèle.- Élaboration d'une nouvelle approche basée sur une technique de calibrage TRL et une méthode d’élimination efficace de ces effets.- Application aux dispositifs différentiels lors de l'utilisation du calibrage TRL dans le cas de plusieurs ports.La nouvelle approche proposée pour le calibrage et le de-embedding est appliquée à un dispositif actif qui est actuellement utilisé dans l'industrie. Les résultats de mesure d’un dispositif inclus dans une carte de test ont été comparés à des mesures calibrées à l’aide d’une carte d’évaluation comportant des standards TRL.Cette étude a été prolongée avec le calibrage TRL multi-port pour être utilisé pour la bande large des dispositifs comme les dispositifs différentiels. / The work of this thesis deals with the developing of an efficient methodology for modeling parasitic effects within a broadband board. Reducing “Time to Market” for the design of RF and microwave products necessitates the development of an efficient characterization and modeling methodologies for better calibrating the errors embedded within the test board.Main results concern the following contributions:- Development of an innovative calibration standards to characterize and model the parasitic effects embedded within the model.- Elaboration of a new approach based on a TRL calibration technique and de-embedding method effective to de-embed these effects.- Application on differential devices upon using multi-port TRL calibration.The new proposed approach for calibration and de-embedding is applied to an active device which is being in use in industry nowadays. The measurement result of the device within a load board has been compared to a calibrated measurement using an evaluation board that include TRL standards.This study has been extended with multi-port TRL calibration to be used for large variety of devices like the differential ones.
69

La mesure de performance dans les cartes à puce

Cordry, Julien 30 November 2009 (has links)
La mesure de performance est utilisée dans tous les systèmes informatiques pour garantir la meilleure performance pour le plus faible coût possible. L'établissement d'outils de mesures et de métriques a permis d'établir des bases de comparaison entre ordinateurs. Bien que le monde de la carte à puce ne fasse pas exception, les questions de sécurité occupent le devant de la scène pour celles-ci. Les efforts allant vers une plus grande ouverture des tests et de la mesure de performance restent discrets. Les travaux présentés ici ont pour objectif de proposer une méthode de mesure de la performance dans les plates-formes Java Card qui occupent une part considérable du marché de la carte à puce dans le monde d’aujourd’hui. Nous étudions en détails les efforts fournis par d'autres auteurs sur le sujet de la mesure de performance et en particulier la mesure de performance sur les cartes à puce. Un grand nombre de ces travaux restent embryonnaires ou ignorent certains aspects des mesures. Un des principaux défauts de ces travaux est le manque de rapport entre les mesures effectuées et les applications généralement utilisées dans les cartes à puce. Les cartes à puce ont par ailleurs des besoins importants en termes de sécurité. Ces besoins rendent les cartes difficiles à analyser. L'approche logique consiste à considérer les cartes à puce comme des boites noires. Après l'introduction de méthodologies de mesures de performance pour les cartes à puce, nous choisirons les outils et les caractéristiques des tests que nous voulons faire subir aux cartes, et nous analyserons la confiance à accorder aux données ainsi récoltées. Enfin une application originale des cartes à puce est proposée et permet de valider certains résultats obtenus. / Performance measurements are used in computer systems to guaranty the best performance at the lowest cost. Establishing measurement tools and metrics has helped build comparison scales between computers. Smart cards are no exception. But the centred stage of the smart card industry is mostly busy with security issues. Efforts towards a better integration of performance tests are still modest. Our work focused on a better approach in estimating the execution time within Java Card platforms. Those platforms constitute a big part of the modern smart card market share especially with regards to multi-applicative environments. After introducing some methodologies to better measure the performance of Java Cards, we detail the tools and the tests that we mean to use on smart cards. We will thereafter analyze the data obtained in this way. Finally, an original application for smart cards is proposed. We used it to validate some points about the results.
70

Etude du passage à l'échelle des algorithmes de segmentation et de classification en télédétection pour le traitement de volumes massifs de données / Study of the scalability of segmentation and classification algorithms to process massive datasets for remote sensing applications

Lassalle, Pierre 06 November 2015 (has links)
Les récentes missions spatiales d'observation de la Terre fourniront des images optiques à très hautes résolutions spatiale, spectrale et temporelle générant des volumes de données massifs. L'objectif de cette thèse est d'apporter de nouvelles solutions pour le traitement efficace de grands volumes de données ne pouvant être contenus en mémoire. Il s'agit de lever les verrous scientifiques en développant des algorithmes efficaces qui garantissent des résultats identiques à ceux obtenus dans le cas où la mémoire ne serait pas une contrainte. La première partie de la thèse se consacre à l'adaptation des méthodes de segmentation pour le traitement d'images volumineuses. Une solution naïve consiste à découper l'image en tuiles et à appliquer la segmentation sur chaque tuile séparément. Le résultat final est reconstitué en regroupant les tuiles segmentées. Cette stratégie est sous-optimale car elle entraîne des modifications par rapport au résultat obtenu lors de la segmentation de l'image sans découpage. Une étude des méthodes de segmentation par fusion de régions a conduit au développement d'une solution permettant la segmentation d'images de taille arbitraire tout en garantissant un résultat identique à celui obtenu avec la méthode initiale sans la contrainte de la mémoire. La faisabilité de la solution a été vérifiée avec la segmentation de plusieurs scènes Pléiades à très haute résolution avec des tailles en mémoire de l'ordre de quelques gigaoctets. La seconde partie de la thèse se consacre à l'étude de l'apprentissage supervisé lorsque les données ne peuvent être contenues en mémoire. Dans le cadre de cette thèse, nous nous focalisons sur l'algorithme des forêts aléatoires qui consiste à établir un comité d'arbres de décision. Plusieurs solutions ont été proposées dans la littérature pour adapter cet algorithme lorsque les données d'apprentissage ne peuvent être stockées en mémoire. Cependant, ces solutions restent soit approximatives, car la contrainte de la mémoire réduit à chaque fois la visibilité de l'algorithme à une portion des données d'apprentissage, soit peu efficaces, car elles nécessitent de nombreux accès en lecture et écriture sur le disque dur. Pour pallier ces problèmes, nous proposons une solution exacte et efficace garantissant une visibilité de l'algorithme sur l'ensemble des données d'apprentissage. L'exactitude des résultats est vérifiée et la solution est testée avec succès sur de grands volumes de données d'apprentissage. / Recent Earth observation spatial missions will provide very high spectral, spatial and temporal resolution optical images, which represents a huge amount of data. The objective of this research is to propose innovative algorithms to process efficiently such massive datasets on resource-constrained devices. Developing new efficient algorithms which ensure identical results to those obtained without the memory limitation represents a challenging task. The first part of this thesis focuses on the adaptation of segmentation algorithms when the input satellite image can not be stored in the main memory. A naive solution consists of dividing the input image into tiles and segment each tile independently. The final result is built by grouping the segmented tiles together. Applying this strategy turns out to be suboptimal since it modifies the resulting segments compared to those obtained from the segmentation without tiling. A deep study of region-merging segmentation algorithms allows us to develop a tile-based scalable solution to segment images of arbitrary size while ensuring identical results to those obtained without tiling. The feasibility of the solution is shown by segmenting different very high resolution Pléiades images requiring gigabytes to be stored in the memory. The second part of the thesis focuses on supervised learning methods when the training dataset can not be stored in the memory. In the frame of the thesis, we decide to study the Random Forest algorithm which consists of building an ensemble of decision trees. Several solutions have been proposed to adapt this algorithm for processing massive training datasets, but they remain either approximative because of the limitation of memory imposes a reduced visibility of the algorithm on a small portion of the training datasets or inefficient because they need a lot of read and write access on the hard disk. To solve those issues, we propose an exact solution ensuring the visibility of the algorithm on the whole training dataset while minimizing read and write access on the hard disk. The running time is analysed by varying the dimension of the training dataset and shows that our proposed solution is very competitive with other existing solutions and can be used to process hundreds of gigabytes of data.

Page generated in 0.0477 seconds