• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 45
  • 14
  • Tagged with
  • 191
  • 60
  • 55
  • 47
  • 34
  • 32
  • 27
  • 26
  • 24
  • 24
  • 22
  • 22
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Analyse physique et modélisation de la séparation centrifuge de particules ultrafines en film fluant : application au séparateur industriel Falcon / Physical analysis and modelling of centrifuge separation of ultrafine particles in a flowing film : application to the Falcon concentrator

Kroll-Rabotin, Jean-Sébastien 03 December 2010 (has links)
Les concentrateurs Falcon permettent de séparer des particules en fonction de leur densité. Leur capacité à traiter des débits de suspension importants rend leur utilisation courante dans les procédés miniers. Dans les gammes de tailles ultrafines (entre 1 et 100 μm), leur coupure devient à la fois granulométrique et densimétrique. Ce travail a porté sur la compréhension de leur physique et de ses limites. Une analyse de leurs mécanismes de séparation a abouti à une loi d’échelle analytique, validée expérimentalement. Des investigations plus complètes appliquées aux suspensions ultrafines ont été réalisées numériquement. Finalement un critère physique liant la gamme de taille à séparer aux densités des différentes fractions a été explicité et appliqué à la valorisation de sédiments fins. / Enhanced gravity separators are widely used in minerals beneficiation, as their superior gravity field enables them to separate particles within narrow classes of density and size. This study aims to shed light on the Falcon concentrator’s ability to separate particles with size and density ranges lower than usual, 1 to 100 micrometers and 1.2 to 3.0 s.g. respectively. Differential particle settling being identified as the prevailing separation mechanism under such conditions, this study couples a theoretical and numerical approach with targeted experiments to build a predictive Falcon separation model that embeds phenomenological fluid and particle flow analysis. Based on this model, physical limitations were identified and quantified through explicit relations between operating parameters, and particle size and density ranges. Falcon’s efficiency to beneficiate dredged sediments was characterized in this way.
52

Perfectionnement des algorithmes d'optimisation par essaim particulaire : applications en segmentation d'images et en électronique / Improvement of particle swarm optimization algorithms : applications in image segmentation and electronics

El Dor, Abbas 05 December 2012 (has links)
La résolution satisfaisante d'un problème d'optimisation difficile, qui comporte un grand nombre de solutions sous-optimales, justifie souvent le recours à une métaheuristique puissante. La majorité des algorithmes utilisés pour résoudre ces problèmes d'optimisation sont les métaheuristiques à population. Parmi celles-ci, nous intéressons à l'Optimisation par Essaim Particulaire (OEP, ou PSO en anglais) qui est apparue en 1995. PSO s'inspire de la dynamique d'animaux se déplaçant en groupes compacts (essaims d'abeilles, vols groupés d'oiseaux, bancs de poissons). Les particules d'un même essaim communiquent entre elles tout au long de la recherche pour construire une solution au problème posé, et ce en s'appuyant sur leur expérience collective. L'algorithme PSO, qui est simple à comprendre, à programmer et à utiliser, se révèle particulièrement efficace pour les problèmes d'optimisation à variables continues. Cependant, comme toutes les métaheuristiques, PSO possède des inconvénients, qui rebutent encore certains utilisateurs. Le problème de convergence prématurée, qui peut conduire les algorithmes de ce type à stagner dans un optimum local, est un de ces inconvénients. L'objectif de cette thèse est de proposer des mécanismes, incorporables à PSO, qui permettent de remédier à cet inconvénient et d'améliorer les performances et l'efficacité de PSO. Nous proposons dans cette thèse deux algorithmes, nommés PSO-2S et DEPSO-2S, pour remédier au problème de la convergence prématurée. Ces algorithmes utilisent des idées innovantes et se caractérisent par de nouvelles stratégies d'initialisation dans plusieurs zones, afin d'assurer une bonne couverture de l'espace de recherche par les particules. Toujours dans le cadre de l'amélioration de PSO, nous avons élaboré une nouvelle topologie de voisinage, nommée Dcluster, qui organise le réseau de communication entre les particules. Les résultats obtenus sur un jeu de fonctions de test montrent l'efficacité des stratégies mises en oeuvre par les différents algorithmes proposés. Enfin, PSO-2S est appliqué à des problèmes pratiques, en segmentation d'images et en électronique / The successful resolution of a difficult optimization problem, comprising a large number of sub optimal solutions, often justifies the use of powerful metaheuristics. A wide range of algorithms used to solve these combinatorial problems belong to the class of population metaheuristics. Among them, Particle Swarm Optimization (PSO), appeared in 1995, is inspired by the movement of individuals in a swarm, like a bee swarm, a bird flock or a fish school. The particles of the same swarm communicate with each other to build a solution to the given problem. This is done by relying on their collective experience. This algorithm, which is easy to understand and implement, is particularly effective for optimization problems with continuous variables. However, like several metaheuristics, PSO shows some drawbacks that make some users avoid it. The premature convergence problem, where the algorithm converges to some local optima and does not progress anymore in order to find better solutions, is one of them. This thesis aims at proposing alternative methods, that can be incorporated in PSO to overcome these problems, and to improve the performance and the efficiency of PSO. We propose two algorithms, called PSO-2S and DEPSO-2S, to cope with the premature convergence problem. Both algorithms use innovative ideas and are characterized by new initialization strategies in several areas to ensure good coverage of the search space by particles. To improve the PSO algorithm, we have also developed a new neighborhood topology, called Dcluster, which can be seen as the communication network between the particles. The obtained experimental results for some benchmark cases show the effectiveness of the strategies implemented in the proposed algorithms. Finally, PSO-2S is applied to real world problems in both image segmentation and electronics fields
53

Lane-level vehicle localization with integrity monitoring for data aggregation / Estimation intègre par les véhicules de leur voie de circulation pour l’agrégation de données

Li, Franck 18 December 2018 (has links)
Les informations contenues dans les cartes routières numériques revêtent une importance grandissante dans le domaine des véhicules intelligents. La prise en compte d’environnements de plus en plus complexes a augmenté le niveau de précision exigé des informations cartographiques. Les cartes routières numériques, considérées ici comme des bases de données géographiques, contiennent des informations contextuelles sur le réseau routier, facilitant la compréhension correcte de l’environnement. En les combinant avec les données provenant des capteurs embarqués, une représentation plus fine de l’environnement peut être obtenue, améliorant grandement la compréhension de contexte du véhicule et la prise de décision. La performance des différents capteurs peut varier grandement en fonction du lieu considéré, ceci étant principalement dû à des facteurs environnementaux. Au contraire, une carte peut fournir ses informations de manière fiable, sans être affectée par ces éléments extérieurs, mais pour cela, elle doit reposer sur un autre élément essentiel : une source de localisation. Le secteur automobile utilise les systèmes de localisation globale par satellite (GNSS) à des fins de localisation absolue, mais cette solution n’est pas parfaite, étant soumise à différentes sources d’erreur. Ces erreurs sont elles aussi dépendantes de l’environnent d’évolution du véhicule (par exemple, des multi-trajets causés par des bâtiments). Nous sommes donc en présence de deux systèmes centraux, dont les performances sont d´dépendantes du lieu considéré. Cette étude se focalise sur leur dénominateur commun : la carte routière numérique, et son utilisation en tant qu’outil d’évaluation de leur performance. L’idée développée durant cette thèse est d’utiliser la carte en tant que canevas d’apprentissage, pour stocker des informations géoréférencées sur la performance des diésèrent capteurs équipant le véhicule, au cours de trajets répétitifs. Pour cela, une localisation robuste, relative à la carte, est nécessaire au travers d’une méthode de map-matching. La problématique principale réside dans la différence de précision entre la carte et le positionnement GNSS, créant des situations ambigües. Durant cette thèse, un algorithme de map-matching a été conçu pour gérer ces ambigüités en fournissant des hypothèses multiples lorsque nécessaire. L’objectif est d’assurer l’intégrité de l’algorithme en retournant un ensemble d’hypothèses contenant l’hypothèse correcte avec une grande probabilité. Cet algorithme utilise les capteurs proprioceptifs dans une approche de navigation à l’estime aidée d’informations cartographiques. Une procédure d’évaluation de cohérence, utilisant le GNSS comme information redondante de positionnement est ensuite appliquée, visant à isoler une hypothèse cohérente unique qui pourra ainsi être utilisée avec confiance dans le processus d’écriture dans la carte. L’utilisation de la carte numérique en écriture/lecture a été évaluée et la procédure complète d’écriture a été testée sur des données réelles, enregistrées par des véhicules expérimentaux sur route ouverte. / The information stored in digital road maps has become very important for intelligent vehicles. As intelligent vehicles address more complex environments, the accuracy requirements for this information have increased. Regarded as a geographic database, digital road maps contain contextual information about the road network, crucial for a good understanding of the environment. When combined with data acquired from on-board sensors, a better representation of the environment can be made, improving the vehicle’s situation understanding. Sensors performance can vary drastically depending on the location of the vehicle, mainly due to environmental factors. Comparatively, a map can provide prior information more reliably but to do so, it depends on another essential component: a localization system. Global Navigation Satellite Systems (GNSS) are commonly used in automotive to provide an absolute positioning of the vehicle, but its accuracy is not perfect: GNSS are prone to errors, also depending greatly on the environment (e.g., multipaths). Perception and localization systems are two important components of an intelligent vehicle whose performances vary in function of the vehicle location. This research focuses on their common denominator, the digital road map, and its use as a tool to assess their performance. The idea developed during this thesis is to use the map as a learning canvas, to store georeferenced information about the performance of the sensors during repetitive travels. This requires a robust localization with respect to the map to be available, through a process of map-matching. The main problematic is the discrepancy between the accuracy of the map and of the GNSS, creating ambiguous situations. This thesis develops a map-matching algorithm designed to cope with these ambiguities by providing multiple hypotheses when necessary. The objective is to ensure the integrity of the result by returning a hypothesis set containing the correct matching with high probability. The method relies on proprioceptive sensors via a dead-reckoning approach aided by the map. A coherence checking procedure using GNSS redundant information is then applied to isolate a single map-matching result that can be used to write learning data with confidence in the map. The possibility to handle the digital map in read/write operation has been assessed and the whole writing procedure has been tested on data recorded by test vehicles on open roads.
54

Synthèse réactive de Composites à Matrice Métallique / Reactive synthesis of Metal Matrix Composites

Samer, Nassim 12 May 2016 (has links)
En raison de leur propriétés spécifiques élevées, par rapports aux alliages légers, les Composites à matrice métallique (CMM) représentent des matériaux d'intérêt pour des applications de haute technologie dans les domaines aéronautique et aérospatiale. Les CMM les plus couramment utilisés sont à renfort particulaire, ou PRMMC, et à matrice Al en raison de leur faible densité. Cette thèse porte sur la mise au point de PRMMC à renfort nanométrique par une voie de synthèse réactive globale. En raison des normes encadrant l’usage des nanomatériaux et visant à limiter l’exposition des usagers et de l’environnement, la manipulation de poudres de taille nanométrique est coûteuse et problématique dans le cadre d’un usage industriel. La nouvelle voie de synthèse qui a été développée dans le cadre de cette thèse a permis de démontrer la faisabilité de composites à matrice métallique et à renfort particulaire nanométrique, dimension moyenne de 30 nm, sans avoir recourt initialement à des poudres de taille nanométrique. Le procédé étudié consiste en une réaction chimique à haute température entre deux matériaux précurseurs qui conduit à la formation in-situ non seulement du renfort mais aussi de la matrice. Par rapport aux techniques de synthèse classiques, cette technique permet de synthétiser des nanoparticules in situ et d’en contrôler la taille. De plus, la matrice et le renfort étant co produits par la réaction à haute température, l’interface entre les deux phases est exempte de couches d’oxydes, ce qui lui assure une très bonne adhésion. Dans le cadre du projet ANR NanoTiCAl, la faisabilité de cette nouvelle méthode a été étudiée à travers le cas d'un composite à matrice aluminium renforcé par des particules de carbure de titane (TiC). Les synthèses ont été réalisées entre 900°C et 1000°C à partir d’un couple de précurseurs incluant le graphite et un aluminiure de titane (Al3Ti). Le composite obtenu, caractérisé par un taux de renfort élevé de 34wt.%, possède un module de Young de 106 GPa, un allongement maximal à la rupture de 6% ainsi qu’une énergie à rupture de l’ordre de 28 J.cm-3. Ces valeurs démontrent un compromis entre résistance et capacité d’endommagement original et particulièrement intéressant, jamais observé dans la littérature pour des composites d’une teneur en renfort aussi importante. La caractérisation fine de la microstructure du composite ainsi que du renfort TiC après extraction du composite massif, ont permis de mieux comprendre les mécanismes à l’oeuvre dans cette voie de synthèse réactive. Enfin, sur la base de la compréhension obtenue dans le cas du composite Al/TiC, des critères ont été identifiés permettant d’aller vers une généralisation de ce procédé de synthèse. La pertinence de cette généralisation a finalement pu être démontrée par quelques mises en application à d’autres systèmes / Metal Matrix Composites (MMCs) have attracted research and industrial attentions as materials for high technological applications in the aeronautic and aerospace industry. The MMCs differ by their high specific mechanical properties compared to light weight alloys. The most commonly used are the Particulate Reinforcement Metal Matrix Composites (PRMMCs), especially the Al based matrices because of their low density.This thesis deals with the reactive synthesis of PRMMCs reinforced by nanoparticles. Because of the standards governing the use of nanomaterials to limit the exposure of users and environment, handling nanoscaled powders is very problematic and expensive in industry. Furthermore, the cost of this kind of processes is very high. This new synthesis route, developed during this thesis, shows the feasibility of PRMMCs reinforced by nanosized particles, with a mean size of 30 nm, without using any starting nanoparticles.The process consists in a chemical reaction at high temperature between precursor materials which leads to form both of the matrix and the reinforcement phase. Compared to conventional synthesis techniques as stir casting, this route allows to synthesis nanoparticles in-situ and to control their size. In addition, the matrix and the reinforcement, which are formed by a reaction at high temperature, have an interface free of oxide layers which assures a good adhesion.In the NanoTiCAl project, the feasibility of this new method is illustrated in the case of an aluminium based composite reinforced by titanium carbide (TiC). The synthesis were realized between 900°C and 1000°C from a couple of precursors including graphite and titanium aluminide (Al3Ti). The resulting composite, characterized by a high reinforcement ratio (34 wt.%), presents a Young’s modulus of 106 GPa, a maximum elongation of 6 % and a high toughness, about 28 J.cm-3. These values represent an uncommon compromise between strength and toughness never seen in the literature regarding to the high content of reinforcement.The characterization of the composite microstructure and of the reinforcement phase, after extraction of the solid composite, allowed a better understanding of the reaction mechanism during the reactive synthesis. Finally, based on our understanding of the Al-TiC composite, criteria have been identified to generalize this synthesis process. This generalization was demonstrated with success in other systems
55

Simulations gros grains de systèmes complexes et forces d’interactions : du microscopique au mésoscopique / Coarse-grained simulations of complex systems and interaction forces : from microscopic to mesoscopic

Trément, Sébastien 24 September 2014 (has links)
Un fondu de polymères est un liquide complexe constitué de chaînes macromoléculaires. Ces chaînes présentent la particularité d'offrir une distribution de temps caractéristiques extrêmement importante. L'ensemble de ces différentes échelles représente donc un défi pour la simulation numérique de polymères longs et sont bien au-delà des capacités des ordinateurs actuels. Un thème actuel de recherche porte donc sur le développement de modèles mésoscopiques (modèle gros grains). La construction d'un tel modèle consiste à éliminer les degrés de liberté rapide en regroupant un certain nombre d'atomes en un monomère. Ce monomère est représenté par une sphère molle évoluant dans un bain thermique créé par les degrés de liberté rapides éliminés au cours du processus de nivellement. La dynamique des particules créées est donc stochastique. La dynamique particulaire dissipative qui intègre ces idées est une combinaison de dynamique moléculaire, de Lattice Gas Automata ainsi que de dynamique Brownienne. Le champ de force DPD est constitué d'une interaction molle et d'un thermostat (force dissipative et bruit) et les paramètres de ce champ de force sont généralement calibrés sur des données expérimentales (compressibilité et diffusion). Cette approche est difficilement applicable aux mélanges de polymères. Pour surmonter cette difficulté, l'intégralité du champ de force DPD est construit à partir d'une dynamique moléculaire pour des corps purs ainsi que pour des mélanges. Nous montrons également que pour calculer correctement la force dissipative, la dynamique moléculaire doit être altérée en contraignant la position des monomères. Les coefficients de transport sont calculés par DPD et comparés à ceux obtenus par dynamique moléculaire. Ce travail s'achève par une étude de la transferabilité du champ de force du monomère vers toute une chaîne de polymères. / A molten polymer is a complex liquid consisting of macromolecular chains. These chains have many different time scales. All these scales present a real challenge to numerical simulations and exceed the computational capabilities of today's computers. A current topic of research therefore focuses on the development of mesoscopic models. The main idea behind coarse-graining is to eliminate fast degrees of freedom grouping atoms or molecules into clusters (or monomers). This monomer is represented by a soft sphere operating in a thermal bath generated by the fast degrees of freedom eliminated during the coarse-graining. Particle dynamics is therfore stochastic. Dissipative particle dyna-mics, which includes these ideas, is a combination of molecular dynamics, Lattice Gas Automata and Brownian dynamics. DPD force field consist of a soft interaction and a thermostat (dissipative and random force) and parameters of DPD interaction are generally optimized to match some macroscopic properties like compressibility or self-diffusion coefficient. This approach is difficult to apply to polymer melt. To overcome this problem, we apply an operational procedure available in the literature to the cons-truction of conservative and dissipative forces of DPD force field for pure substances and mixtures. We also show that in order to calculate the dissipative forces, the underlying molecular dynamics must be altered by constraining the position of the mo-nomers. Transport coefficients are calculated by DPD and compared with those obtained by molecular dynamics. This work concludes with a study of the transferability of the force field of the monomer to a chain of polymers.
56

Contribution au pronostic d'une pile à combustible de type PEMFC : approche par filtrage particulaire / contribution to prognostics of fuel cells of PEMFC type : approach based on particle filtering

Jouin, Marine 10 December 2015 (has links)
Le développement de nouveaux convertisseurs d’énergie, plus efficients et plus respectueux de l’environnement, tels que les piles à combustibles, tend à s’accélérer. Leur diffusion à grande échelle suppose cependant des garanties en termes de sécurité et de disponibilité. Une solution possible pour ce faire est de développer des solutions de Prognostics and Health Management (PHM) de ces systèmes, afin de mieux les surveiller, anticiper les défaillances et recommander les actions nécessaires à l’allongement de leur durée de vie. Dans cet esprit, cette thèse porte sur la proposition d’une approche de pronostic dédiée aux piles à combustibles de types PEMFC à l’aide de filtrage particulaire.Le raisonnement s’attache tout d’abord à mettre en place une formalisation du cadre de travail ainsi que des exigences de mise en. Ceci se poursuit par le développement d’un modèle basé sur la physique permettant une estimation d’état de santé et de son évolution temporelle. L’estimation d’état est réalisée grâce à du filtrage particulaire. Différentes variantes de filtres sont considérées sur la base d’une de la littérature et de nouvelles propositions adaptées au PHM sont formulées et comparées à celles existantes. Les estimations d’état de santé fournies par le processus de filtrages ont utilisées pour réaliser des prédictions de l’état de santé futur du système, puis de sa durée devie résiduelle. L’ensemble des propositions est validé sur 4 jeux de données obtenus sur des PEMFC suivant des profils de mission variés. Les résultats montrent de bonnes performances de prédictions et d’estimations de durée de vie résiduelle avant défaillance. / The development of new energy converters, more efficient and environment friendly, such as fuelcells, tends to accelerate. Nevertheless, their large scale diffusion supposes some guaranties in termsof safety and availability. A possible solution to do so is to develop Prognostics and HealthManagement (PHM) on these systems, in order to monitor and anticipate the failures, and torecommend the necessary actions to extend their lifetime. In this spirit, this thesis deals with theproposal of a prognostics approach based on particle filtering dedicated to PEMFCs.The reasoning focuses first on setting a formalization of the working framework and theexpectations. This is pursued by the development of a physic-based modelling enabling a state ofhealth estimation and its evolution in time. The state estimation is made thanks to particle filtering.Different variants of filters are considered on the basis of the literature and new proposals adaptedto PHM are proposed and compared to existing ones. State of health estimates given by the filter areused to predict the future state of the system and its remaining useful life. All the proposals arevalidated on four datasets from PEMFC following different mission profiles. The results show goodperformances for predictions and remaining useful life estimates before failure.
57

Etude des mécanismes de contamination particulaire et des moyens de détection : proposition et evaluation de solutions innovantes pour la détection en temps-réel de la sédimentation des particules sur les surfaces critiques / Study of particulate contamination mechanisms and detection methods : proposition and evaluation of innovating solutions for the real-time detection of particles sedimentation on critical surfaces

Menant, Nina 16 December 2016 (has links)
L’assemblage des satellites dans des salles propres est actuellement surveillé, afin de garantir leur fiabilité, via des compteurs optiques de particules qui indiquent la quantité de particules par volume d’air prélevé dans la salle. Cependant, pourquoi mesurer la quantité de particules qu’il y a dans l’air alors que c’est la propreté des surfaces qui est importante ? La complexité des phénomènes de transport et de sédimentation des particules rend la simulation, la prédiction ou la prévention de ces phénomènes particulièrement difficile. L’objectif de cette thèse, qui s’est déroulée au Centre National d’Etudes Spatiales (CNES), est de proposer une méthode de mesure de la contamination particulaire locale et surfacique. Deux axes sont privilégiés dans ce but. En premier lieu, une évaluation des phénomènes de contamination et des moyens de mesure existants est proposée en abordant les spécificités du domaine du spatial. Les études théoriques et expérimentales rassemblées dans ce mémoire et le bilan des interrogations restantes tracent un portrait clair de l’état des connaissances actuelles dans ce domaine. Cet état de l’art amène à la définition d’un besoin pour la première fois clairement exprimé. Un tour d’horizon des moyens métrologiques s’appuyant sur cette évaluation préalable permet d’étudier avec précision les possibilités de développement d’un capteur. Finalement, cette thèse démontre que l’objectif de mesure de particules de 1 µm avec un moyen actif et en temps-réel est atteint avec une méthode de détection optique par transmission du signal lumineux. En second lieu, cette thèse s’attache donc aux caractéristiques du capteur dont les spécifications ont été étudiées et précisées en première partie. Si le développement du capteur est encore au stade initial, les perspectives de valorisation industrielle sont clairement établies. Ce mémoire s’appuie donc sur une recherche de fond sur la théorie de la contamination particulaire et les phénomènes physiques d’interaction entre les particules et leur environnement pour définir une méthode de mesure optique fiable, validée par la simulation, et faisant l’objet d’un dépôt de brevet. / The assembly of the satellites in clean rooms is currently monitored, in order to guarantee their reliability, via optical counters of particles which indicate the quantity of particles per volume of air in the room. However, why measure the quantity of particles in the air whereas it is the cleanliness of surfaces which is important? The complexity of the phenomena of transport and sedimentation of the particles makes the simulation, the prediction or the prevention of these phenomena particularly difficult. The objective of this thesis, which proceeded at the Centre National d’Etudes Spatiales (CNES), is to propose a method of measurement of the local and surface particulate contamination. Two axes are privileged to this end. Initially, an evaluation of the phenomena of contamination and existing methods of measurement are proposed by approaching space field specificities. The theoretical and experimental studies gathered in this memory and the assessment of the remaining interrogations trace a clear portrait of the state of current knowledge in this field. This state of the art brings to the definition of a need for the first time clearly expressed. A review of the metrological methods being based on this preliminary evaluation makes it possible to study with precision the possibilities of development of a sensor. Finally, this thesis shows that the goal of active and real-time measurement of particles of 1 µm is achieved with a method of optical detection by transmission of the light signal. In the second place, this thesis attempts to describe the characteristics of the sensor whose specifications were studied and specified in first part. If the development of the sensor is still at the initial stage, the prospects for industrial valorization are clearly established. This memory is thus based on a background research on the theory of the particulate contamination and the physical phenomena of interaction between the particles and their environment to define a method of optical measurement reliable, validated by simulation, and being the object of a patent filling.
58

Going further with direct visual servoing / Aller plus loin avec les asservissements visuels directs

Bateux, Quentin 12 February 2018 (has links)
Dans cette thèse, nous nous concentrons sur les techniques d'asservissement visuel (AV), critiques pour de nombreuses applications de vision robotique et insistons principalement sur les AV directs. Afin d'améliorer l'état de l'art des méthodes directes, nous nous intéressons à plusieurs composantes des lois de contrôle d'AV traditionnelles. Nous proposons d'abord un cadre générique pour considérer l'histogramme comme une nouvelle caractéristique visuelle. Cela permet de définir des lois de contrôle efficaces en permettant de choisir parmi n'importe quel type d'histogramme pour décrire des images, depuis l'histogramme d'intensité à l'histogramme couleur, en passant par les histogrammes de Gradients Orientés. Une nouvelle loi d'asservissement visuel direct est ensuite proposée, basée sur un filtre particulaire pour remplacer la partie optimisation des tâches d'AV classiques, permettant d'accomplir des tâches associées à des fonctions de coûts hautement non linéaires et non convexes. L'estimation du filtre particulaire peut être calculée en temps réel à l'aide de techniques de transfert d'images permettant d'évaluer les mouvements de caméra associés aux déplacements des caractéristiques visuelles considérées dans l'image. Enfin, nous présentons une nouvelle manière de modéliser le problème de l'AV en utilisant l'apprentissage profond et les réseaux neuronaux convolutifs pour pallier à la difficulté de modélisation des problèmes non convexes via les méthodes analytiques classiques. En utilisant des techniques de transfert d'images, nous proposons une méthode permettant de générer rapidement des ensembles de données d'apprentissage de grande taille afin d'affiner des architectures de réseau pré-entraînés sur des tâches connexes, et résoudre des tâches d'AV. Nous montrons que cette méthode peut être appliquée à la fois pour modéliser des scènes connues, et plus généralement peut être utilisée pour modéliser des estimations de pose relative entre des couples de points de vue pris de scènes arbitraires. / In this thesis we focus on visual servoing (VS) techniques, critical for many robotic vision applications and we focus mainly on direct VS. In order to improve the state-of-the-art of direct methods, we tackle several components of traditional VS control laws. We first propose a method to consider histograms as a new visual servoing feature. It allows the definition of efficient control laws by allowing to choose from any type of his tograms to describe images, from intensity to color histograms, or Histograms of Oriented Gradients. A novel direct visual servoing control law is then proposed, based on a particle filter to perform the optimization part of visual servoing tasks, allowing to accomplish tasks associated with highly non-linear and non-convex cost functions. The Particle Filter estimate can be computed in real-time through the use of image transfer techniques to evaluate camera motions associated to suitable displacements of the considered visual features in the image. Lastly, we present a novel way of modeling the visual servoing problem through the use of deep learning and Convolutional Neural Networks to alleviate the difficulty to model non-convex problems through classical analytic methods. By using image transfer techniques, we propose a method to generate quickly large training datasets in order to fine-tune existing network architectures to solve VS tasks.We shows that this method can be applied both to model known static scenes, or more generally to model relative pose estimations between couples of viewpoints from arbitrary scenes.
59

Assimilation de données: les propriétés asymptotiques du filtre de Kalman d'ensemble

Tran, Vu Duc 29 June 2009 (has links) (PDF)
Cette thèse porte sur les méthodes d'assimilation de données, qui consistent à combiner des informations provenant d'un modèle dynamique avec des observations. Nous présentons des méthodes d'assimilation les plus connues: l'interpolation statistique, les méthodes variationnelles d'assimilation de données et les méthodes séquentielles d'assimilation de données. Nous nous intéressons particulièrement au filtre de Kalman d'ensemble qui est de plus en plus utilisé dans les applications océanographiques. Le filtre de Kalman d'ensemble a été proposé initialement comme une approximation du filtre de Kalman pour les modèles linéaires gaussiens de grande dimension, il a ensuite été étendu au cas du modèle non linéaire gaussien. Il existe très peu de résultats théoriques sur les propriétés asymptotiques du filtre de Kalman d'ensemble, alors qu'il est connu que le filtre particulaire converge vers le filtre bayésien optimal quand le nombre de particules tend vers l'infini. Nous démontrons dans cette thèse que, quand le nombre d'éléments tend vers l'infini, dans le cas où la fonction du modèle dynamique est continue et localement lipschitzienne avec un accroissement au plus polynomial à l'infini, les éléments du filtre de Kalman d'ensemble convergent vers les éléments indépendants et identiquement distribués selon une loi qui diffère de la loi a posteriori du filtre bayésien optimal dans le cas général. Dans le cas du modèle linéaire gaussien, cette loi asymptotique n'est autre que la loi a posteriori du filtre de Kalman. Nous présentons aussi des résultats de simulations du filtre de Kalman d'ensemble et du filtre particulaire sur un modèle linéaire gaussien simple et sur le modèle de Lorenz afin de comparer la performance des deux filtres à l'asymptotique et aussi dans le cas où le nombre d'éléments d'ensemble est faible.
60

Paramétrage et Capture Multicaméras du Mouvement Humain

Knossow, David 23 April 2007 (has links) (PDF)
Au cours de cette thèse, nous avons abordé la problématique du suivi du mouvement humain. Nous proposons d'utiliser plusieurs caméras vidéos, permettant de s'affranchir de contraintes sur l'environnement de capture ainsi que de la pose de marqueurs sur l'acteur, au contraire des systèmes courament utilisés. Cela complexifie la recherche d'une information pertinente dans les images mais aussi la corrélation de cette information entre les différentes images ainsi que l'interprétation de cette information en terme de mouvements articulaires du corps humain. Nous nous intéressons à une approche utilisant les contours occultants du corps et étudions le lien entre le mouvement articulaire du corps et le mouvement apparent des contours dans les images. La minimisation de l'erreur entre les contours extraits des images et la projection du modèle nous permet d'estimer le mouvement de l'acteur. Nous montrons que l'utilisation d'images video permet entre autres de produire des informations complémentaires telles que les contacts entre les parties du corps de l'acteur. Ces informations sont importantes pour la ré-utilisation des mouvements en animation 3D.

Page generated in 0.0667 seconds