• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 6
  • 5
  • Tagged with
  • 33
  • 33
  • 12
  • 9
  • 9
  • 7
  • 7
  • 6
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Apprentissage faiblement supervisé appliqué à la segmentation d'images de protéines neuronales

Bilodeau, Anthony 20 July 2020 (has links)
Titre de l'écran-titre (visionné le 9 juillet 2020) / Thèse ou mémoire avec insertion d'articles / Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2020-2021 / En biologie cellulaire, la microscopie optique est couramment utilisée pour visualiser et caractériser la présence et la morphologie des structures biologiques. Suite à l’acquisition, un expert devra effectuer l’annotation des structures pour quantification. Cette tâche est ardue, requiert de nombreuses heures de travail, parfois répétitif, qui peut résulter en erreurs d’annotations causées par la fatigue d’étiquetage. L’apprentissage machine promet l’automatisation de tâches complexes à partir d’un grand lot de données exemples annotés. Mon projet de maîtrise propose d’utiliser des techniques faiblement supervisées, où les annotations requises pour l’entraînement sont réduites et/ou moins précises, pour la segmentation de structures neuronales. J’ai d’abord testé l’utilisation de polygones délimitant la structure d’intérêt pour la tâche complexe de segmentation de la protéine neuronale F-actine dans des images de microscopie à super-résolution. La complexité de la tâche est supportée par la morphologie hétérogène des neurones, le nombre élevé d’instances à segmenter dans une image et la présence de nombreux distracteurs. Malgré ces difficultés, l’utilisation d’annotations faibles a permis de quantifier un changement novateur de la conformation de la protéine F-actine en fonction de l’activité neuronale. J’ai simplifié davantage la tâche d’annotation en requérant seulement des étiquettes binaires renseignant sur la présence des structures dans l’image réduisant d’un facteur 30 le temps d’annotation. De cette façon, l’algorithme est entraîné à prédire le contenu d’une image et extrait ensuite les caractéristiques sémantiques importantes pour la reconnaissance de la structure d’intérêt à l’aide de mécanismes d’attention. La précision de segmentation obtenue sur les images de F-actine est supérieure à celle des annotations polygonales et équivalente à celle des annotations précises d’un expert. Cette nouvelle approche devrait faciliter la quantification des changements dynamiques qui se produisent sous le microscope dans des cellules vivantes et réduire les erreurs causées par l’inattention ou le biais de sélection des régions d’intérêt dans les images de microscopie. / In cell biology, optical microscopy is commonly used to visualize and characterize the presenceand morphology of biological structures. Following the acquisition, an expert will have toannotate the structures for quantification. This is a difficult task, requiring many hours ofwork, sometimes repetitive, which can result in annotation errors caused by labelling fatigue.Machine learning promises to automate complex tasks from a large set of annotated sampledata. My master’s project consists of using weakly supervised techniques, where the anno-tations required for training are reduced and/or less precise, for the segmentation of neuralstructures.I first tested the use of polygons delimiting the structure of interest for the complex taskof segmentation of the neuronal protein F-actin in super-resolution microscopy images. Thecomplexity of the task is supported by the heterogeneous morphology of neurons, the highnumber of instances to segment in an image and the presence of many distractors. Despitethese difficulties, the use of weak annotations has made it possible to quantify an innovativechange in the conformation of the F-actin protein as a function of neuronal activity. I furthersimplified the annotation task by requiring only binary labels that indicate the presence ofstructures in the image, reducing annotation time by a factor of 30. In this way, the algorithmis trained to predict the content of an image and then extract the semantic characteristicsimportant for recognizing the structure of interest using attention mechanisms. The segmen-tation accuracy obtained on F-actin images is higher than that of polygonal annotations andequivalent to that of an expert’s precise annotations. This new approach should facilitate thequantification of dynamic changes that occur under the microscope in living cells and reduceerrors caused by inattention or bias in the selection of regions of interest in microscopy images.
22

Cartographier l'occupation du sol à grande échelle : optimisation de la photo-interprétation par segmentation d'image. / Land cover mapping at large scale using photo-interpretation : Contribution of image segmentation

Vitter, Maxime 23 March 2018 (has links)
Depuis une quinzaine d’années, l’émergence des données de télédétection à Très Haute Résolution Spatiale (THRS) et la démocratisation des Systèmes d’Information Géographique (SIG) aident à répondre aux nouveaux besoins croissants d’informations spatialisées. Le développement de nouvelles méthodes de cartographie offre une opportunité pour comprendre et anticiper les mutations des surfaces terrestres aux grandes échelles, jusqu’ici mal connues. En France, l’emploi de bases de données spatialisées sur l’occupation du sol à grande échelle (BD Ocsol GE) est devenu incontournable dans les opérations courantes de planification et de suivi des territoires. Pourtant, l’acquisition de ce type de bases de données spatialisées est encore un besoin difficile à satisfaire car les demandes portent sur des productions cartographiques sur-mesure, adaptées aux problématiques locales des territoires. Face à cette demande croissante, les prestataires réguliers de ce type de données cherchent à optimiser les procédés de fabrication avec des techniques récentes de traitements d’image. Cependant, la Photo-Interprétation Assistée par Ordinateur (PIAO) reste la méthode privilégiée des prestataires. En raison de sa grande souplesse, elle répond toujours au besoin de cartographie aux grandes échelles, malgré son coût important. La substitution de la PIAO par des méthodes de production entièrement automatisées est rarement envisagée. Toutefois, les développements récents en matière de segmentation d’images peuvent contribuer à l’optimisation de la pratique de la photo-interprétation. Cette thèse présente ainsi une série d’outils (ou modules) qui participent à l’élaboration d’une assistance à la digitalisation pour l’exercice de photo-interprétation d’une BD Ocsol GE. L’assistance se traduit par la réalisation d’un prédécoupage du paysage à partir d’une segmentation menée sur une image THRS. L’originalité des outils présentés est leur intégration dans un contexte de production fortement contraint. La construction des modules est conduite à travers trois prestations cartographiques à grande échelle commandités par des entités publiques. L’apport de ces outils d’automatisation est analysé à travers une analyse comparative entre deux procédures de cartographie : l’une basée sur une démarche de photo-interprétation entièrement manuelle et la seconde basée sur une photo-interprétation assistée en amont par une segmentation numérique. Les gains de productivité apportés par la segmentation sont, évalués à l’aide d’indices quantitatifs et qualitatifs, sur des configurations paysagères différentes. À des degrés divers, il apparaît que quelque soit le type de paysage cartographié, les gains liés à la cartographie assistée sont substantiels. Ces gains sont discutés, à la fois, d’un point de vue technique et d’un point de vue thématique dans une perspective commerciale. / Over the last fifteen years, the emergence of remote sensing data at Very High Spatial Resolution (VHRS) and the democratization of Geographic Information Systems (GIS) have helped to meet the new and growing needs for spatial information. The development of new mapping methods offers an opportunity to understand and anticipate land cover change at large scales, still poorly known. In France, spatial databases about land cover and land use at large scale have become an essential part of current planning and monitoring of territories. However, the acquisition of this type of database is still a difficult need to satisfy because the demands concern tailor-made cartographic productions, adapted to the local problems of the territories. Faced with this growing demand, regular service providers of this type of data seek to optimize manufacturing processes with recent image-processing techniques. However, photo interpretation remains the favoured method of providers. Due to its great flexibility, it still meets the need for mapping at large scale, despite its high cost. Using fully automated production methods to substitute for photo interpretation is rarely considered. Nevertheless, recent developments in image segmentation can contribute to the optimization of photo-interpretation practice. This thesis presents a series of tools that participate in the development of digitalization assistance for the photo-interpretation exercise. The assistance results in the realization of a pre-cutting of the landscape from a segmentation carried out on a VHRS image. Tools development is carried out through three large-scale cartographic services, each with different production instructions, and commissioned by public entities. The contribution of these automation tools is analysed through a comparative analysis between two mapping procedures: manual photo interpretation versus digitally assisted segmentation. The productivity gains brought by segmentation are evaluated using quantitative and qualitative indices on different landscape configurations. To varying degrees, it appears that whatever type of landscape is mapped, the gains associated with assisted mapping are substantial. These gains are discussed both technically and thematically from a commercial perspective.
23

Vérification automatique des montages d'usinage par vision : application à la sécurisation de l'usinage / Vision-based automatic verification of machining setup : application to machine tools safety

Karabagli, Bilal 06 November 2013 (has links)
Le terme "usinage à porte fermée", fréquemment employé par les PME de l’aéronautique et de l’automobile, désigne l’automatisation sécurisée du processus d’usinage des pièces mécaniques. Dans le cadre de notre travail, nous nous focalisons sur la vérification du montage d’usinage, avant de lancer la phase d’usinage proprement dite. Nous proposons une solution sans contact, basée sur la vision monoculaire (une caméra), permettant de reconnaitre automatiquement les éléments du montage (brut à usiner, pions de positionnement, tiges de fixation,etc.), de vérifier que leur implantation réelle (réalisée par l’opérateur) est conforme au modèle 3D numérique de montage souhaité (modèle CAO), afin de prévenir tout risque de collision avec l’outil d’usinage. / In High Speed Machining it is of key importance to avoid any collision between the machining tool and the machining setup. If the machining setup has not been assembled correctly by the operator and is not conform to the 3D CAD model sent to the machining unit, such collisions can occur. We have developed a vision system, that utilizes a single camera, to automatically check the conformity of the actual machining setup within the desired 3D CAD model, before launching the machining operation. First, we propose a configuration of the camera within the machining setup to ensure a best acquisition of the scene. In the aim to segmente the image in regions of interest, e.g. regions of the clamping elements and piece, based-on 3D CAD model, we realise a matching between graphes, theorical and real graphe computed from theorical image of 3D-CAD model and real image given by real camera. The graphs are constructed from a simple feature, such as circles and lines, that are manely present in the machining setup. In the aim to define the regions of interest (ROI) in real image within ROI given by 3D CAD model, we project a 3D CAD model in the real image, e.g. augmented reality. To automatically check the accordance between every region defined, we propose to compute three parametres, such as skeleton to represente the form, edges to represent a geometry and Area to represent dimension. We compute a score of accordance between three parameters that will be analyzed in fuzzy system to get a decision of conformity of the clamping element within it definition given in the CAD model. Some cases of machining setup configurations require 3D information to test the trajectory of the machine tool. To get out this situation, we have proposed a new depth from defocus based-method to compute a depth map of the scene. Finally, we present the result of our solution and we show the feasibility and robustness of the proposed solution in differents case of machining setup.
24

Contributions pour la Recherche d'Images par Composantes Visuelles

Fauqueur, Julien 21 November 2003 (has links) (PDF)
Dans le contexte de la recherche d'information par le contenu visuel, lorsque l'utilisateur formule une requête visuelle, sa cible de recherche est rarement représentée par une image entière comme le suppose le paradigme classique de recherche par une image exemple. L'image ne doit pas être traitée comme une unité atomique, car elle est généralement constituée d'un ensemble composite de zones visuelles exprimant une certaine sémantique.<br /><br /> Un système de recherche d'information visuelle doit permettre à l'utilisateur de désigner d'une manière explicite la cible visuelle qu'il recherche se rapportant aux différentes composantes de l'image. Notre objectif au cours de ce travail a été de réfléchir à comment définir des clés de recherche visuelle permettant à l'utilisateur d'exprimer cette cible visuelle, de concevoir et d'implémenter efficacement les méthodes correspondantes.<br /><br /> Les contributions originales de cette thèse portent sur de nouvelles approches permettant de retrouver des images à partir de leurs différentes composantes visuelles selon deux paradigmes de recherche distincts.<br /><br /> Le premier paradigme est celui de la recherche par région exemple. Il consiste à retrouver les images comportant une partie d'image similaire à une partie visuelle requête. Pour ce paradigme, nous avons mis au point une approche de segmentation grossière en régions et de description fine de ces régions ensuite. Les régions grossières des images de la base, extraites par notre nouvel algorithme de segmentation non supervisée, représentent les composantes visuellement saillantes de chaque image. Cette décomposition permet à l'utilisateur de désigner séparément une région d'intérêt pour sa requête. La recherche de régions similaires dans les images de la base repose sur un nouveau descripteur de régions (ADCS). Il offre une caractérisation fine, compacte et adaptative de l'apparence photométrique des régions, afin de tenir compte de la spécificité d'une base de descripteurs de régions. Dans cette nouvelle approche, la segmentation est rapide et les régions extraites sont intuitives pour l'utilisateur. La finesse de description des régions améliore la similarité des régions retournées par rapport aux descripteurs existants, compte tenu de la fidélité accrue au contenu des régions.<br /><br /> Notre seconde contribution porte sur l'élaboration d'un nouveau paradigme de recherche d'images par composition logique de catégories de régions. Ce paradigme présente l'avantage d'apporter une solution au problème de la page zéro. Il permet d'atteindre les images, quand elles existent dans la base, qui se rapprochent de la représentation mentale de la cible visuelle de l'utilisateur. Ainsi aucune image ou région exemple n'est nécessaire au moment de la formulation de la requête. Ce paradigme repose sur la génération non-supervisée d'un thésaurus photométrique constitué par le résumé visuel des régions de la base. Pour formuler sa requête, l'utilisateur accède directement à ce résumé en disposant d'opérateurs de composition logique de ces différentes parties visuelles. Il est à noter qu'un item visuel dans ce résumé est un représentant d'une classe photométrique de régions. Les requêtes logiques sur le contenu des images s'apparentent à celles en recherche de texte. L'originalité de ce paradigme ouvre des perspectives riches pour de futurs travaux en recherche d'information visuelle.
25

Détection d'événements dans une séquence vidéo

Lefèvre, Sébastien 13 December 2002 (has links) (PDF)
Le problème abordé ici concerne l'indexation de données multimédia par la recherche d'extraits pertinents. Nos travaux se focalisent sur l'analyse de séquences vidéo afin d'y détecter des événements prédéfinis. La recherche de ces événements étant contextuelle, nous proposons une architecture et des outils génériques et rapides pour la mise en oeuvre de systèmes d'indexation spécifiques. Nous insistons notamment sur les problèmes suivants : la segmentation temporelle des données, la séparation du fond et des objets, la structuration du fond, le suivi des objets (rigides ou non, avec ou sans apprentissage) et l'analyse des données audio. Afin de résoudre ces différents problèmes, les outils génériques que nous proposons sont basés sur des analyses semi-locales, des approches multirésolution, des modèles de Markov cachées et la méthode des contours actifs. L'architecture et les outils introduits ici ont été validés au travers de plusieurs applications.
26

Perfectionnement d'un algorithme adaptatif d'Optimisation par Essaim Particulaire : application en génie médical et en électronique

Cooren, Yann 27 November 2008 (has links) (PDF)
Les métaheuristiques sont une famille d'algorithmes stochastiques destinés à résoudre des problèmes d 'optimisation difficile . Utilisées dans de nombreux domaines, ces méthodes présentent l'avantage d'être généralement efficaces, sans pour autant que l'utilisateur ait à modifier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes proposée pour résoudre les problèmes à variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux évoluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un même essaim communiquent de manière directe entre elles tout au long de la recherche pour construire une solution au problème posé, en s'appuyant sur leur expérience collective. Reconnues depuis de nombreuses années pour leur efficacité, les métaheuristiques présentent des défauts qui rebutent encore certains utilisateurs. Le réglage des paramètres des algorithmes est un de ceux-ci. Il est important, pour chaque problème posé, de trouver le jeu de paramètres qui conduise à des performances optimales de l'algorithme. Cependant, cette tâche est fastidieuse et coûteuse en temps, surtout pour les utilisateurs novices. Pour s'affranchir de ce type de réglage, des recherches ont été menées pour proposer des algorithmes dits adaptatifs . Avec ces algorithmes, les valeurs des paramètres ne sont plus figées, mais sont modifiées, en fonction des résultats collectés durant le processus de recherche. Dans cette optique-là, Maurice Clerc a proposé TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramètre de contrôle. Cet algorithme fonctionne comme une boîte noire , pour laquelle l'utilisateur n'a qu'à définir le problème à traiter et le critère d'arrêt de l'algorithme. Nous proposons dans cette thèse une étude comportementale de TRIBES, qui permet d'en dégager les principales qualités et les principaux défauts. Afin de corriger certains de ces défauts, deux modules ont été ajoutés à TRIBES. Une phase d'initialisation régulière est insérée, afin d'assurer, dès le départ de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratégie de déplacement, basée sur une hybridation avec un algorithme à estimation de distribution, est aussi définie, afin de maintenir la diversité au sein de l'essaim, tout au long du traitement. Le besoin croissant de méthodes de résolution de problèmes multiobjectifs a conduit les concepteurs à adapter leurs méthodes pour résoudre ce type de problème. La complexité de cette opération provient du fait que les objectifs à optimiser sont souvent contradictoires. Nous avons élaboré une version multiobjectif de TRIBES, dénommée MO-TRIBES. Nos algorithmes ont été enfin appliqués à la résolution de problèmes de seuillage d'images médicales et au problème de dimensionnement de composants de circuits analogiques
27

Vérification automatique des montages d'usinage par vision : application à la sécurisation de l'usinage

Karabagli, Bilal 06 November 2013 (has links) (PDF)
Le terme "usinage à porte fermée", fréquemment employé par les PME de l'aéronautique et de l'automobile, désigne l'automatisation sécurisée du processus d'usinage des pièces mécaniques. Dans le cadre de notre travail, nous nous focalisons sur la vérification du montage d'usinage, avant de lancer la phase d'usinage proprement dite. Nous proposons une solution sans contact, basée sur la vision monoculaire (une caméra), permettant de reconnaitre automatiquement les éléments du montage (brut à usiner, pions de positionnement, tiges de fixation,etc.), de vérifier que leur implantation réelle (réalisée par l'opérateur) est conforme au modèle 3D numérique de montage souhaité (modèle CAO), afin de prévenir tout risque de collision avec l'outil d'usinage.
28

Méthodes variationnelles pour la segmentation d'images à partir de modèles : applications en imagerie médicale / Variational methods for model-based image segmentation - applications in medical imaging

Prevost, Raphaël 21 October 2013 (has links)
La segmentation d’images médicales est depuis longtemps un sujet de recherche actif. Cette thèse traite des méthodes de segmentation basées modèles, qui sont un bon compromis entre généricité et capacité d’utilisation d’informations a priori sur l’organe cible. Notre but est de construire un algorithme de segmentation pouvant tirer profit d’une grande variété d’informations extérieures telles que des bases de données annotées (via l’apprentissage statistique), d’autres images du même patient (via la co-segmentation) et des interactions de l’utilisateur. Ce travail est basé sur la déformation de modèle implicite, une méthode variationnelle reposant sur une représentation implicite des formes. Après avoir amélioré sa formulation mathématique, nous montrons son potentiel sur des problèmes cliniques difficiles. Nous introduisons ensuite différentes généralisations, indépendantes mais complémentaires, visant à enrichir le modèle de forme et d’apparence utilisé. La diversité des applications cliniques traitées prouve la généricité et l’efficacité de nos contributions. / Within the wide field of medical imaging research, image segmentation is one of the earliest but still open topics. This thesis focuses on model-based segmentation methods, which achieve a good trade-off between genericity and ability to carry prior information on the target organ. Our goal is to build an efficient segmentation framework that is able to leverage all kinds of external information, i.e. annotated databases via statistical learning, other images from the patient via co-segmentation and user input via live interactions. This work is based on the implicit template deformation framework, a variational method relying on an implicit representation of shapes. After improving the mathematical formulation of this approach, we show its potential on challenging clinical problems. Then, we introduce different generalizations, all independent but complementary, aimed at enriching both the shape and appearance model exploited. The diversity of the clinical applications addressed shows the genericity and the effectiveness of our contributions.
29

Perfectionnement d'un algorithme adaptatif d'optimisation par essaim particulaire : application en génie médical et en électronique / Improvement of an adaptive algorithm of Optimization by Swarm Particulaire : application in medical engineering and in electronics

Cooren, Yann 27 November 2008 (has links)
Les métaheuristiques sont une famille d'algorithmes stochastiques destinés à résoudre des problèmes d 'optimisation difficile . Utilisées dans de nombreux domaines, ces méthodes présentent l'avantage d'être généralement efficaces, sans pour autant que l'utilisateur ait à modifier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes proposée pour résoudre les problèmes à variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux évoluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un même essaim communiquent de manière directe entre elles tout au long de la recherche pour construire une solution au problème posé, en s'appuyant sur leur expérience collective. Reconnues depuis de nombreuses années pour leur efficacité, les métaheuristiques présentent des défauts qui rebutent encore certains utilisateurs. Le réglage des paramètres des algorithmes est un de ceux-ci. Il est important, pour chaque probléme posé, de trouver le jeu de paramètres qui conduise à des performances optimales de l'algorithme. Cependant, cette tâche est fastidieuse et coûteuse en temps, surtout pour les utilisateurs novices. Pour s'affranchir de ce type de réglage, des recherches ont été menées pour proposer des algorithmes dits adaptatifs . Avec ces algorithmes, les valeurs des paramètres ne sont plus figées, mais sont modifiées, en fonction des résultats collectés durant le processus de recherche. Dans cette optique-là, Maurice Clerc a proposé TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramètre de contrôle. Cet algorithme fonctionne comme une boite noire , pour laquelle l'utilisateur n'a qu'à définir le problème à traiter et le critàre d'arrêt de l'algorithme. Nous proposons dans cette thèse une étude comportementale de TRIBES, qui permet d'en dégager les principales qualités et les principaux défauts. Afin de corriger certains de ces défauts, deux modules ont été ajoutés à TRIBES. Une phase d'initialisation régulière est insérée, afin d'assurer, dès le départ de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratégie de déplacement, basée sur une hybridation avec un algorithme à estimation de distribution, est aussi définie, afin de maintenir la diversité au sein de l'essaim, tout au long du traitement. Le besoin croissant de méthodes de résolution de problèmes multiobjectifs a conduit les concepteurs à adapter leurs méthodes pour résoudre ce type de problème. La complexité de cette opération provient du fait que les objectifs à optimiser sont souvent contradictoires. Nous avons élaboré une version multiobjectif de TRIBES, dénommée MO-TRIBES. Nos algorithmes ont été enfin appliqués à la résolution de problèmes de seuillage d'images médicales et au problème de dimensionnement de composants de circuits analogiques / Metaheuristics are a new family of stochastic algorithms which aim at solving difficult optimization problems. Used to solve various applicative problems, these methods have the advantage to be generally efficient on a large amount of problems. Among the metaheuristics, Particle Swarm Optimization (PSO) is a new class of algorithms proposed to solve continuous optimization problems. PSO algorithms are inspired from the social behavior of animals living in swarm, such as bird flocks or fish schools. The particles of the swarm use a direct way of communication in order to build a solution to the considered problem, based on their collective experience. Known for their e ciency, metaheuristics show the drawback of comprising too many parameters to be tuned. Such a drawback may rebu some users. Indeed, according to the values given to the parameters of the algorithm, its performance uctuates. So, it is important, for each problem, to nd the parameter set which gives the best performance of the algorithm. However, such a problem is complex and time consuming, especially for novice users. To avoid the user to tune the parameters, numerous researches have been done to propose adaptive algorithms. For such algorithms, the values of the parameters are changed according to the results previously found during the optimization process. TRIBES is an adaptive mono-objective parameter-free PSO algorithm, which was proposed by Maurice Clerc. TRIBES acts as a black box , for which the user has only the problem and the stopping criterion to de ne. The rst objective of this PhD is to make a global study of the behavior of TRIBES under several conditions, in order to determine the strengths and drawbacks of this adaptive algorithm. In order to improve TRIBES, two new strategies are added. First, a regular initialization process is defined in order to insure an exploration as wide as possible of the search space, since the beginning of the optimization process. A new strategy of displacement, based on an hybridation with an estimation of distribution algorithm, is also introduced to maintain the diversity in the swarm all along the process. The increasing need for multiobjective methods leads the researchers to adapt their methods to the multiobjective case. The di culty of such an operation is that, in most cases, the objectives are con icting. We designed MO-TRIBES, which is a multiobjective version of TRIBES. Finally, our algorithms are applied to thresholding segmentation of medical images and to the design of electronic components
30

Analyse et Interprétation d'Images : Analyse Multiéchelle pour la Description des Formes Planaires

Kpalma, Kidiyo 14 October 2009 (has links) (PDF)
L'essor technologique, induit une production d'énormes masses de données électroniques et oblige à une adaptation des traitements du flux d'information correspondant. D'où un besoin d'outils d'aide à l'interprétation permettant des prises de décision dans les délais raisonnables. En matière d'imagerie numérique, les champs d'application sont vastes allant de l'utilisation domestique (appareil photo numérique, webcam ou simplement téléphone portable) jusqu'aux applications de type télédétection. L'évolution croissante du volume des données s'accompagne de contraintes, qu'il s'agisse du dépouillement des images de télédétection et c'est là que se situe un premier axe de nos travaux, ou du tri de photos, ou de la recherche d'une photo spécifique, prise à une certaine occasion en un lieu donné et c'est là le second axe de nos travaux. S'agissant de la télédétection, la multitude de satellites d'observation nous fournit une grande variété d'images. Celles-ci nous apportent des informations à la fois redondantes et complémentaires. Aussi s'avère-t-il judicieux de les combiner dans un processus de fusion pour en tirer des renseignements plus consistants et plus intelligibles. Traditionnellement, l'indexation et la recherche d'une photo se fait à l'aide d'une annotation par mots-clés. Compte-tenu des limitations de cette procédure, l'enjeu, aujourd'hui, est la détermination de descripteurs efficaces basés sur le contenu des images pour leur indexation. Toutes ces considérations visent à proposer des solutions alliant différents descripteurs dans un processus de fusion pouvant fournir un index hybride prenant en compte l'aspect sémantique du contenu de l'image. C'est dans ce contexte d'analyse d'images pour leur interprétation que se situent nos travaux de recherche dont le présent mémoire fait l'objet. Il s'articule en trois parties. Dans la première partie, nous présentons un résumé des activités tant du point de vue de l'enseignement que de la recherche : un aperçu de nos travaux de recherche retrace les études réalisées pour des applications de fusion en télédétection et pour la description des formes. La deuxième partie reprend plus en détails l'une de nos études sur le thème de l'analyse multi-échelle de contours d'objets planaires pour des applications de description et de reconnaissance de formes. On y présente ainsi la méthode MSGPR basée sur la carte des points d'intersection, méthode que nous proposons pour l'extraction d'un descripteur pour l'indexation des objets planaires. Pour finir, la dernière partie présente quelques articles représentatifs de nos activités de recherche : analyse de textures, recalage d'images, fusion d'image, analyse espace-échelle, reconnaissance de formes.

Page generated in 0.107 seconds