• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 695
  • 319
  • 99
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Développement de nouvelles techniques de contrôle optimal en dynamique quantique : de la Résonance Magnétique Nucléaire à la physique moléculaire

Lapert, Marc 12 October 2011 (has links) (PDF)
L'objectif de cette thèse est d'appliquer la théorie du contrôle optimal à la dynamique de systèmes quantiques. Le premier point consiste à introduire dans le domaine du contrôle quantique des outils de contrôle optimal initialement développés en mathématique. Cette approche a ensuite été appliquée sur différent types de systèmes quantiques décrit par une grande ou une petite dimension. La première partie du manuscrit introduit les différents outils de contrôles utilisés avec une approche adaptée à un public de physiciens. Dans la seconde partie, ces techniques sont utilisées pour contrôler la dynamique des spins en RMN et IRM. La troisième partie s'intéresse au développement de nouveaux algorithmes itératifs de contrôle optimal appliqués au contrôle par champ laser de la dynamique rotationnelle des molécules linéaires en phases gazeuse ainsi qu'au développement d'une stratégie de contrôle simple permettant de délocaliser une molécule dans un plan. La quatrième partie traite le contrôle en temps minimum d'un condensat de Bose-Einstein à deux composantes. La dernière partie permet de comparer qualitativement et quantitativement les différentes méthodes de contrôle optimal utilisées. Les seconde et troisième parties ont également bénéficier de l'implémentation expérimentale des solutions de contrôle optimal obtenues.
312

Étude de la performance d’un algorithme Metropolis-Hastings avec ajustement directionnel

Mireuta, Matei 08 1900 (has links)
Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Étant donné leur facilité d’application, ces méthodes sont largement répandues dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en 1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue d’être une aire de recherche active. Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé de cette méthode sur la performance globale de l’approche. Un second objectif est de comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa performance de façon relative. / Markov Chain Monte Carlo algorithms (MCMC) have become popular tools for sampling from complex and/or high dimensional probability distributions. Given their relative ease of implementation, these methods are frequently used in various scientific areas, particularly in Statistics and Bayesian analysis. The volume of such methods has risen considerably since the first MCMC algorithm described in 1953 and this area of research remains extremely active. A new MCMC algorithm using a directional adjustment has recently been described by Bédard et al. (IJSS, 9:2008) and some of its properties remain unknown. The objective of this thesis is to attempt determining the impact of a key parameter on the global performance of the algorithm. Moreover, another aim is to compare this new method to existing MCMC algorithms in order to evaluate its performance in a relative fashion.
313

Représentation de solution en optimisation continue, multi-objectif et applications

Zidani, Hafid 26 October 2013 (has links) (PDF)
Cette thèse a pour objectif principal le développement de nouveaux algorithmes globaux pour la résolution de problèmes d'optimisation mono et multi-objectif, en se basant sur des formules de représentation ayant la tâche principale de générer des points initiaux appartenant à une zone proche du minimum globale. Dans ce contexte, une nouvelle approche appelée RFNM est proposée et testée sur plusieurs fonctions non linéaires, non différentiables et multimodales. D'autre part, une extension à la dimension infinie a été établie en proposant une démarche pour la recherche du minimum global. Par ailleurs, plusieurs problèmes de conception mécanique, à caractère aléatoire, ont été considérés et résolus en utilisant cette approche, avec amélioration de la méthode multi-objectif NNC. Enfin, une contribution à l'optimisation multi-objectif par une nouvelle approche a été proposée. Elle permet de générer un nombre suffisant de points pour représenter la solution optimale de Pareto.
314

Algorithms for Deterministic Parallel Graph Exploration

Pajak, Dominik 13 June 2014 (has links) (PDF)
Nous étudions dans cette thèse le problème de l'exploration parallèle d'un graphe à l'aide des multiples, synchronisés et mobiles agents. Chaque agent est une entité individuelle qui peut, indépendamment des autres agents, visitez les sommets du graphe ou parcourir ses arêtes. Le but de ensemble des agents est de visiter tous les sommets de graphe. Nous étudions d'abord l'exploration du graphe dans un modèle où chaque agent est équipé de mémoire interne, mais les nœuds n'ont pas de mémoire. Dans ce modèle les agents sont autorisés à communiquer entre eux en échangeant des messages. Nous présentons des algorithmes qui s'exécutent dans un minimum de temps possible pour polynomiale nombre d'agents (polynomiale en nombre de sommets du graphe). Nous étudions aussi quelle est l'impacte de différent méthodes des communications. Nous étudions des algorithmes où les agents peuvent se communiquer à distance arbitraire, mais aussi où communication est possible seulement entre les agents situés dans le même sommet. Dans les deux cas nous présentons des algorithmes efficaces. Nous avons aussi obtenu des limites inférieures qui correspondent bien à la performance des algorithmes. Nous considérons également l'exploration de graphe en supposant que les mouvements des agents sont déterminés par le soi-disant rotor-router mécanisme. Du point de vue d'un sommet fixé, le rotor- router envoie des agents qui visitent les sommet voisins dans un mode round-robin. Nous étudions l'accélération défini comme la proportion entre le pire des cas de l'exploration d'un agent unique et des plusieurs agents. Pour générales graphes, nous montrerons que le gain de vitesse en cas de multi-agent rotor-router est toujours entre fonction logarithmique et linéaire du nombre d'agents. Nous présentons également des résultats optimaux sur l'accélération de multi-agent rotor-router pour cycles, expanseurs, graphes aléatoires, cliques, tores de dimension fixé et une analyse presque optimale pour hypercubes. Finalement nous considérons l'exploration sans collision, où chaque agent doit explorer le graphe de manière indépendante avec la contrainte supplémentaire que deux agents ne peuvent pas occuper le même sommet. Dans le cas où les agents sont donnés le plan de graphe, on présente un algorithme optimal pour les arbres et un algorithme asymptotiquement optimal pour générales graphes. Nous présentons aussi des algorithmes dans le cas de l'exploration sans collision des arbres et des générales graphes dans la situation où les agents ne connaissent pas le graphe. Nous fermons la thèse par des observations finales et une discussion de problèmes ouverts liés dans le domaine de l'exploration des graphes.
315

Recyclage des candidats dans l'algorithme Metropolis à essais multiples

Groiez, Assia 03 1900 (has links)
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît. / Markov Chain Monte Carlo (MCMC) algorithms are methods that are used for sampling from probability distributions. These tools are based on the path of a Markov chain whose stationary distribution is the distribution to be sampled. Given their relative ease of application, they are one of the most popular approaches in the statistical community, especially in Bayesian analysis. These methods are very popular for sampling from complex and/or high dimensional probability distributions. Since the appearance of the first MCMC method in 1953 (the Metropolis algorithm, see [10]), the interest for these methods, as well as the range of algorithms available, continue to increase from one year to another. Although the Metropolis-Hastings algorithm (see [8]) can be considered as one of the most general Markov chain Monte Carlo algorithms, it is also one of the easiest to understand and explain, making it an ideal algorithm for beginners. As such, it has been studied by several researchers. The multiple-try Metropolis (MTM) algorithm , proposed by [9], is considered as one interesting development in this field, but unfortunately its implementation is quite expensive (in terms of time). Recently, a new algorithm was developed by [1]. This method is named the revisited multiple-try Metropolis algorithm (MTM revisited), which is obtained by expressing the MTM method as a Metropolis-Hastings algorithm on an extended space. The objective of this work is to first present MCMC methods, and subsequently study and analyze the Metropolis-Hastings and standard MTM algorithms to allow readers a better perspective on the implementation of these methods. A second objective is to explore the opportunities and disadvantages of the revisited MTM algorithm to see if it meets the expectations of the statistical community. We finally attempt to fight the sedentarity of the revisited MTM algorithm, which leads to a new algorithm. The latter performs efficiently when the number of generated candidates in a given iteration is small, but the performance of this new algorithm then deteriorates as the number of candidates in a given iteration increases.
316

Matheuristic algorithms for minimizing total tardiness in flow shop scheduling problems / Algorithmes métaheuristiques pour minimiser la somme des retards des problèmes d'ordonnancement de type flowshop

Ta, Quang-Chieu 12 February 2015 (has links)
Nous considérons dans cette thèse un problème d’ordonnancement de flow-shop de permutation où un ensemble de travaux doit être ordonnancé sur un ensemble de machines. Les travaux doivent être ordonnancés sur les machines dans le même ordre. L’objectif est de minimiser le retard total. Nous proposons des algorithmes heuristiques et des nouvelles matheuristiques pour ce problème. Les matheuristiques sont un nouveau type d’algorithmes approchés qui ont été proposés pour résoudre des problèmes d’optimisation combinatoire. Les méthodes importent de la résolution exacte au sein des approches (méta) heuristiques. Ce type de méthode de résolution a reçu un grand intérêt en raison de leurs très bonnes performances pour résoudre des problèmes difficiles. Nous présentons d’abord les concepts de base d’un problème d’ordonnancement. Nous donnons aussi une brève introduction à la théorie de l’ordonnancement et nous présentons un panel de méthodes de résolution. Enfin, nous considérons un problème où un flow shop de permutation à m-machine et un problème de tournées de véhicules sont intégrés, avec pour objectif la minimisation de la somme des retards. Nous proposons un codage direct d’une solution et une méthode de voisinage. Les résultats montrent que l’algorithme Tabou améliore grandement la solution initiale donnée par EDD et où chaque voyage ne délivre qu’un travail. / We consider in this thesis a permutation flow shop scheduling problem where a set of jobs have to be scheduled on a set of machines. The jobs have to be processed on the machines in the same order. The objective is to minimize the total tardiness. We propose heuristic algorithms and many new matheuristic algorithms for this problem. The matheuristic methods are a new type of approximated algorithms that have been proposed for solving combinatorial optimization problems. These methods embed exact resolution into (meta)heuristic approaches. This type of resolution method has received a great interest because of their very good performances for solving some difficult problems. We present the basic concepts and components of a scheduling problem and the aspects related to these components. We also give a brief introduction to the theory of scheduling and present an overview of resolution methods. Finally, we consider a problem where m-machine permutation flow shop scheduling problem and a vehicle routing problem are integrated and the objective is to minimize the total tardiness. We introduce a direct coding for a complete solution and a Tabu search for finding a sequence and trips. The results show that the TS greatly improves the initial solution given by EDD heuristic where each trip serves only one job at a time.
317

Évaluation et requêtage de données multisources : une approche guidée par la préférence et la qualité des données : application aux campagnes marketing B2B dans les bases de données de prospection / A novel quality-based, preference-driven data evaluation and brokering : approaches in multisource environments : application to marketing prospection databases

Ben Hassine, Soumaya 10 October 2014 (has links)
Avec l’avènement du traitement distribué et l’utilisation accrue des services web inter et intra organisationnels alimentée par la disponibilité des connexions réseaux à faibles coûts, les données multisources partagées ont de plus en plus envahi les systèmes d’informations. Ceci a induit, dans un premier temps, le changement de leurs architectures du centralisé au distribué en passant par le coopératif et le fédéré ; et dans un deuxième temps, une panoplie de problèmes d’exploitation allant du traitement des incohérences des données doubles à la synchronisation des données distribuées. C’est le cas des bases de prospection marketing où les données sont enrichies par des fichiers provenant de différents fournisseurs.Nous nous intéressons au cadre particulier de construction de fichiers de prospection pour la réalisation de campagnes marketing B-to-B, tâche traitée manuellement par les experts métier. Nous visons alors à modéliser le raisonnement de brokers humains, afin d’optimiser et d’automatiser la sélection du « plan fichier » à partir d’un ensemble de données d’enrichissement multisources. L’optimisation en question s’exprimera en termes de gain (coût, qualité) des données sélectionnées, le coût se limitant à l’unique considération du prix d’utilisation de ces données.Ce mémoire présente une triple contribution quant à la gestion des bases de données multisources. La première contribution concerne l’évaluation rigoureuse de la qualité des données multisources. La deuxième contribution porte sur la modélisation et l’agrégation préférentielle des critères d’évaluation qualité par l’intégrale de Choquet. La troisième contribution concerne BrokerACO, un prototype d’automatisation et d’optimisation du brokering multisources basé sur l’algorithme heuristique d’optimisation par les colonies de fourmis (ACO) et dont la Pareto-optimalité de la solution est assurée par l’utilisation de la fonction d’agrégation des préférences des utilisateurs définie dans la deuxième contribution. L’efficacité du prototype est montrée par l’analyse de campagnes marketing tests effectuées sur des données réelles de prospection. / In Business-to-Business (B-to-B) marketing campaigns, manufacturing “the highest volume of sales at the lowest cost” and achieving the best return on investment (ROI) score is a significant challenge. ROI performance depends on a set of subjective and objective factors such as dialogue strategy, invested budget, marketing technology and organisation, and above all data and, particularly, data quality. However, data issues in marketing databases are overwhelming, leading to insufficient target knowledge that handicaps B-to-B salespersons when interacting with prospects. B-to-B prospection data is indeed mainly structured through a set of independent, heterogeneous, separate and sometimes overlapping files that form a messy multisource prospect selection environment. Data quality thus appears as a crucial issue when dealing with prospection databases. Moreover, beyond data quality, the ROI metric mainly depends on campaigns costs. Given the vagueness of (direct and indirect) cost definition, we limit our focus to price considerations.Price and quality thus define the fundamental constraints data marketers consider when designing a marketing campaign file, as they typically look for the "best-qualified selection at the lowest price". However, this goal is not always reachable and compromises often have to be defined. Compromise must first be modelled and formalized, and then deployed for multisource selection issues. In this thesis, we propose a preference-driven selection approach for multisource environments that aims at: 1) modelling and quantifying decision makers’ preferences, and 2) defining and optimizing a selection routine based on these preferences. Concretely, we first deal with the data marketer’s quality preference modelling by appraising multisource data using robust evaluation criteria (quality dimensions) that are rigorously summarized into a global quality score. Based on this global quality score and data price, we exploit in a second step a preference-based selection algorithm to return "the best qualified records bearing the lowest possible price". An optimisation algorithm, BrokerACO, is finally run to generate the best selection result.
318

Robust tools for weighted Chebyshev approximation and applications to digital filter design / Outils robustes pour l’approximation de Chebyshev pondérée et applications à la synthèse de filtres numériques

Filip, Silviu-Ioan 07 December 2016 (has links)
De nombreuses méthodes de traitement du signal reposent sur des résultats puissants d'approximation numérique. Un exemple significatif en est l'utilisation de l'approximation de type Chebyshev pour l'élaboration de filtres numériques.En pratique, le caractère fini des formats numériques utilisés en machine entraîne des difficultés supplémentaires pour la conception de filtres numériques (le traitement audio et le traitement d'images sont deux domaines qui utilisent beaucoup le filtrage). La majorité des outils actuels de conception de filtres ne sont pas optimisés et ne certifient pas non plus la correction de leurs résultats. Notre travail se veut un premier pas vers un changement de cette situation.La première partie de la thèse traite de l'étude et du développement de méthodes relevant de la famille Remez/Parks-McClellan pour la résolution de problèmes d'approximation polynomiale de type Chebyshev, en utilisant l'arithmétique virgule-flottante.Ces approches sont très robustes, tant du point de vue du passage à l'échelle que de la qualité numérique, pour l'élaboration de filtres à réponse impulsionnelle finie (RIF).Cela dit, dans le cas des systèmes embarqués par exemple, le format des coefficients du filtre qu'on utilise en pratique est beaucoup plus petit que les formats virgule flottante standard et d'autres approches deviennent nécessaires.Nous proposons une méthode (quasi-)optimale pour traîter ce cas. Elle s'appuie sur l'algorithme LLL et permet de traiter des problèmes de taille bien supérieure à ceux que peuvent traiter les approches exactes. Le résultat est ensuite utilisé dans une couche logicielle qui permet la synthèse de filtres RIF pour des circuits de type FPGA.Les résultats que nous obtenons en sortie sont efficaces en termes de consommation d'énergie et précis. Nous terminons en présentant une étude en cours sur les algorithmes de type Remez pour l'approximation rationnelle. Ce type d'approches peut être utilisé pour construire des filtres à réponse impulsionnelle infinie (RII) par exemple. Nous examinons les difficultés qui limitent leur utilisation en pratique. / The field of signal processing methods and applications frequentlyrelies on powerful results from numerical approximation. One suchexample, at the core of this thesis, is the use of Chebyshev approximationmethods for designing digital filters.In practice, the finite nature of numerical representations adds an extralayer of difficulty to the design problems we wish to address using digitalfilters (audio and image processing being two domains which rely heavilyon filtering operations). Most of the current mainstream tools for thisjob are neither optimized, nor do they provide certificates of correctness.We wish to change this, with some of the groundwork being laid by thepresent work.The first part of the thesis deals with the study and development ofRemez/Parks-McClellan-type methods for solving weighted polynomialapproximation problems in floating-point arithmetic. They are veryscalable and numerically accurate in addressing finite impulse response(FIR) design problems. However, in embedded and power hungry settings,the format of the filter coefficients uses a small number of bits andother methods are needed. We propose a (quasi-)optimal approach basedon the LLL algorithm which is more tractable than exact approaches.We then proceed to integrate these aforementioned tools in a softwarestack for FIR filter synthesis on FPGA targets. The results obtainedare both resource consumption efficient and possess guaranteed accuracyproperties. In the end, we present an ongoing study on Remez-type algorithmsfor rational approximation problems (which can be used for infinite impulseresponse (IIR) filter design) and the difficulties hindering their robustness.
319

Conception et validation de plateformes de communication autour du corps humain, à l'échelle de l'individu et du groupe / Design and validation of wireless body area communication platforms, for individual and group monitoring

Lauzier, Matthieu 03 April 2015 (has links)
Depuis plusieurs années, bénéficiant de nombreuses évolutions technologiques, le domaine de l'instrumentation sans fil a conquis de nouveaux champs d'application, comme le suivi de paramètres physiologiques des personnes, par le développement des réseaux de capteurs sans fil autour du corps humain (BAN, pour Body Area Networks). Majoritairement orienté vers le domaine médical et l'amélioration des conditions de vie des patients, ce type de plate-forme s'est plus récemment étendu à d'autres activités, notamment aux loisirs et au sport. Selon le contexte applicatif, les hypothèses et les contraintes liées à ces réseaux peuvent être très variées, c'est pourquoi le développement de mécanismes de communication adaptés est nécessaire. Au cours de mes travaux de thèse, je me suis intéressé à la réalisation de plate-formes de collecte de données pour des applications sportives en situation de mobilité. Dans une première partie est abordée la collecte d'informations individuelles, pour laquelle nous présentons une preuve de concept en contexte sportif, avant d'apporter des éléments complémentaires à la modélisation des canaux des BAN et aux stratégies de communication pour la collecte individuelle. Ensuite, nous abordons la réflexion sur la collecte d'informations dans les réseaux denses et mobiles, en proposant des algorithmes distribués basés sur le consensus permettant d'identifier des groupes de façon dynamique, à petite et large échelle. Des réalisations pratiques à chaque étape de mes travaux de thèse permettent la validation des plate-formes développées, grâce à un ensemble conséquent de données collectées sur le terrain. L'analyse des données fournit également des éléments pour mieux caractériser les communications, notamment à large échelle, ce qui ouvre de nombreuses pistes quant à de futurs travaux. De plus, si un fort contexte applicatif est présent dans ces travaux, les méthodes d'analyse et les algorithmes développés sont valorisables et extensibles à d'autres domaines. / The technological evolutions which have taken place for the last decades allowed the emergence of new application fields, such as the wireless monitoring of physiological parameters collected on the human body, with the development of Wireless Body Area Networks (WBANs, or BANs). Mostly dedicated to the medical domain and the improvement of the patients' comfort and safety, this kind of platforms more recently extended to other kinds of activities, such as sports and leisures. According to the applicative context, the hypotheses and constraints associated to these networks can vary drastically, yielding the necessity of developing adapted communication mechanisms. The works presented in this thesis have focused on the realization of data collection platforms for mobile sports applications. In a first part, we concentrate on the individual data collection, for which we give a proof of concept in the context of a Marathon race, before aiming at a better understanding of individual channel models and cooperative mechanisms for on-body data centralization. In a second part, we are interested in dense and mobile networks consisting in an important number of coexisting BANs. Our aim is to propose distributed algorithms based on consensus to allow dynamic group detection, with a variable scale. The validation of the approaches developed in this document is performed by practical implementations and experiments at each step of this work, thanks to an important amount of real world collected data. Through extended analyzes, we provide elements allowing to characterize the communication within mobile BANs, and particularly large scale networks. Although guided by the strong applicative context of live TV broadcast, these works and analysis methods don't lose in generality, and this challenging and original context opens a lot of perspectives.
320

Application des techniques de numérisation tridimensionnelle au contrôle de process de pièces de forge / Application of 3D scanning techniques to the process control of forged parts

Bokhabrine, Youssef 11 October 2010 (has links)
L’objectif de ces travaux de thèse est la conception et le développement d’un système de caractérisation tridimensionnelle de pièces forgées de grande dimension portées à haute température. Les travaux se basent sur de nombreuses thématiques telles que l’acquisition tridimensionnelle, l’extraction, la segmentation et le recalage de primitives 3D. Nous présentons tout d’abord les limites des systèmes de caractérisation de pièces forgées cités dans la littérature. Dans la deuxième partie, nous présentons la réalisation du système de caractérisation de pièces forgées, constitué de deux scanners temps de vol (TOF). Nous présentons également le simulateur de numérisation par scanner TOF qui nous permet de nous affranchir des contraintes industrielles (temps, difficulté de manœuvres) pour positionner les deux scanners. La troisième partie est consacrée à l’extraction des primitives 3D. Nous avons traité deux types de primitives : viroles et sphères avec deux approches différentes : méthode supervisée et méthode automatique. La première approche basée sur une méthode de croissance de région et de contour actif, permet d’extraire des formes extrudées complexes. Des problèmes d’ergonomie du système nous ont conduits à développer une deuxième approche, basée sur l’image de Gauss et l’extraction d’ellipse, qui permet l’extraction automatique de formes cylindriques ovales ou circulaires. Nous présentons également quatre méthodes d’extraction automatique de sphères basées sur des approches heuristiques : RANSAC (RANdom SAmple Consensus), algorithme génétique et algorithme génétique par niche. Dans la quatrième partie, nous étudions les différentes approches de recalage de données 3D traitées : le calibrage basé sur les cibles artificielles et le recalage fin basé sur l’algorithme ICP. Pour conclure, nous présentons la réalisation d’un système complet de caractérisation tridimensionnelle de pièces forgées de grande dimension. Ensuite, nous comparons les performances et les limites de ce système avec les systèmes de caractérisation cités dans la littérature. / The main objective of this Phd project is to conceive a machine vision system for hot cylindrical metallic shells diameters measurement during forging process. The manuscript is structured by developing in the first chapter the state of the art and the limits of hot metallic shells measurement systems suggested in literature. Our implemented system which is based on two conventional Time Of Flight (TOF) laser scanners has been described in the same chapter along, chapter two, with presentation of its respective numerical simulator. Simulation series have been done using the digitizing simulator and were aimed to determine the optimal positions of the two scanners without any industrial constraints (time, difficulty of operations). The third part of the manuscript copes with 3D primitives extraction. Two major types of approaches have been studied according to the primitive’s form (cylinders or spheres) to be extracted: supervised method and automatic method. The first approach, based on a growing region method and active contour, enables to extract complex extruded forms; while problems of ergonomics have been solved using automatic methods that have been carried out along the programme research. The proposed methods consist in automatically extracting: oval or circular cylindrical forms, using Gauss map associated with ellipse extraction techniques : spherical forms, using heuristic approaches such as RANdom SAmple Consensus RANSAC, Genetic Algorithm (GA) and Niche Genetic Algorithm (NGA). Two varieties of 3D data registration approach have been presented and discussed in chapter 4: the registration based on the artificial targets and the fine registration based on algorithm ICP. A complete system for three-dimensional characterization of hot cylindrical metallic shells during forging process has been implemented and then compared with existing systems in order to identify its performances and limits in conclusion.

Page generated in 0.0337 seconds