• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 20
  • 4
  • Tagged with
  • 80
  • 80
  • 33
  • 32
  • 30
  • 28
  • 26
  • 26
  • 25
  • 23
  • 23
  • 20
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Energetic-lattice based optimization / L’optimization par trellis-énergetique

Kiran, Bangalore Ravi 31 October 2014 (has links)
La segmentation hiérarchique est une méthode pour produire des partitions qui représentent une même image de manière de moins en moins fine. En même temps, elle sert d'entrée à la recherche d'une partition optimale, qui combine des extraits des diverses partitions en divers endroits. Le traitement hiérarchique des images est un domaine émergent en vision par ordinateur, et en particulier dans la communauté qui étudie les images hyperspectrales et les SIG, du fait de son capacité à structurer des données hyper-dimensionnelles. Le chapitre 1 porte sur les deux concepts fondamentaux de tresse et de treillis énergétique. La tresse est une notion plus riche que celle de hiérarchie de partitions, en ce qu'elle incorpore, en plus, des partitions qui ne sont pas emboîtées les unes dans les autres, tout en s'appuyant globalement sur une hiérarchie. Le treillis énergétique est une structure mixte qui regroupe une tresse avec une énergie, et permet d'y définir des éléments maximaux et minimaux. Lorsqu'on se donne une énergie, trouver la partition formée de classes de la tresse (ou de la hiérarchie) qui minimise cette énergie est un problème insoluble, de par sa complexité combinatoriale. Nous donnons les deux conditions de h-croissance et de croissance d'échelle, qui garantissent l'existence, l'unicité et la monotonie des solutions, et conduisent à un algorithme qui les détermine en deux passes de lecture des données. Le chapitre 2 reste dans le cadre précédent, mais étudie plus spécifiquement l'optimisation sous contrainte. Il débouche sur trois généralisations du modèle Lagrangien. Le chapitre 3 applique l'optimisation par treillis énergétique au cas de figure où l'énergie est introduite par une « vérité terrain », c'est à dire par un jeu de dessins manuel, que les partitions optimales doivent serrer au plus près. Enfin, le chapitre 4 passe des treillis énergétiques à ceux des courbes de Jordan dans le plan euclidien, qui définissent un modèle continu de segmentations hiérarchiques. Il permet entre autres de composer les hiérarchies avec diverses fonctions numériques / Hierarchical segmentation has been a model which both identifies with the construct of extracting a tree structured model of the image, while also interpreting it as an optimization problem of the optimal scale selection. Hierarchical processing is an emerging field of problems in computer vision and hyper-spectral image processing community, on account of its ability to structure high-dimensional data. Chapter 1 discusses two important concepts of Braids and Energetic lattices. Braids of partitions is a richer hierarchical partition model that provides multiple locally non-nested partitioning, while being globally a hierarchical partitioning of the space. The problem of optimization on hierarchies and further braids are non-tractable due the combinatorial nature of the problem. We provide conditions, of h-increasingness, scale-increasingness on the energy defined on partitions, to extract unique and monotonically ordered minimal partitions. Furthermore these conditions are found to be coherent with the Braid structure to perform constrained optimization on hierarchies, and more generally Braids. Chapter 2 demonstrates the Energetic lattice, and how it generalizes the Lagrangian formulation of the constrained optimization problem on hierarchies. Finally in Chapter 3 we apply the method of optimization using energetic lattices to the problem of extraction of segmentations from a hierarchy, that are proximal to a ground truth set. Chapter 4 we show how one moves from the energetic lattice on hierarchies and braids, to a numerical lattice of Jordan Curves which define a continous model of hierarchical segmentation. This model enables also to compose different functions and hierarchies
22

Comportement thermique macroscopique de milieux fibreux réels anisotropes : étude basée sur l'analyse d'images tridimensionnelles.

Lux, Jérôme 30 September 2005 (has links) (PDF)
Ce travail de thèse traite de la relation entre les propriétés thermiques effectives de matériaux fibreux à base de bois d'une part et leur microstructure d'autre part. La technique de prise de moyenne est utilisée, dans le cadre général du non-équilibre thermique local, pour écrire les équations de transfert macroscopique de matériaux pouvant présenter une anisotropie locale de conductivité thermique (liée ici aux propriétés intrinsèques des fibres de bois) et exprimer le tenseur de conductivité thermique effective. Le modèle est renseigné par l'analyse quantitative d'images 3D de matériaux réels acquises par microtomographie X. Des outils issus de la morphologie mathématique sont mis en oeuvre pour caractériser finement la microstructure du réseau fibreux et en quantifier l'anisotropie locale et globale. Un volume élémentaire représentatif (VER) qui satisfait aux contraintes de la méthode de prise de moyenne peut être défini grâce à ces informations. Une méthode de segmentation basée sur un algorithme de squelettisation par amincissement homotopique est également développée afin d'identifier chaque fibre individuellement, ce qui permet d'accéder à de nombreux paramètres comme la longueur, la tortuosité ou encore le nombre de contacts. Le modèle thermique macroscopique développé ainsi que son implémentation numérique sont d'abord validés par une comparaison avec les prédictions théoriques dans des cas simples puis les valeurs des tenseurs de conductivité thermique effective, obtenus à partir des images de différents matériaux, sont finalement confrontés aux résultats expérimentaux.
23

Détection et analyse du mouvement sur système de vision à base de rétine numérique

Richefeu, Julien 14 December 2006 (has links) (PDF)
La rétine numérique programmable est un imageur qui combine fonctions d'acquisition et de traitement de l'image au sein de chaque pixel. L'objectif de notre travail consiste à utiliser ce circuit dans un système de détection et d'analyse du mouvement en se conformant à ses capacités de calcul et de mémorisation limitées. Nous présentons d'abord trois méthodes de détection du mouvement adaptées à nos contraintes : un calcul de fond par une moyenne récursive classique ; un estimateur statistique, le filtre Σ-
24

Architectures flot de données dédiées au traitement d'images par morphologie mathématique

Clienti, Christophe 30 September 2009 (has links) (PDF)
Nous abordons ici la thématique des opérateurs et processeurs flot de données dédiés au traitement d'images et orientés vers la morphologie mathématique. L'objectif principal est de proposer des architectures performantes capables de réaliser les opérations simples de ce corpus mathématique afin de proposer des opérateurs morphologiques avancés. Ces dernières années, des algorithmes astucieux ont été proposés avec comme objectif de réduire la quantité des calculs nécessaires à la réalisation de transformations telle que la ligne de partage des eaux. Toutefois, les mises en œuvre proposées font souvent appel à des structures de données complexes qui sont difficiles à employer sur des machines différentes des processeurs généralistes monocœurs. Les processeurs standard poursuivant aujourd'hui leur évolution vers une augmentation du parallélisme, ces implémentations ne nous permettent pas d'obtenir les gains de performance escomptés à chaque nouvelle génération de machine. Nous proposons alors des mises en œuvre rapides des opérations complexes de la morphologie mathématique par des machines exploitant fortement le parallélisme intrinsèque des opérations basiques. Nous étudions dans une première partie les processeurs de voisinage travaillant directement sur un flot de pixels et nous proposons différentes méthodologies de conception rapide de pipelines dédiés à une application. Nous proposons également une structure de pipeline programmable via l'utilisation de processeurs vectoriels avec différentes possibilités de chaînage. Enfin, une étude avec des machines est proposée afin d'observer la pertinence de notre approche.
25

Algorithmes de la morphologie mathématique pour les architectures orientées flux

Brambor, Jaromír 11 July 2006 (has links) (PDF)
Cette thèse est consacrée aux algorithmes de morphologie mathématique qui peuvent considérer les pixels d'une image comme un flux de données. Nous allons démontrer qu'un grand nombre d'algorithmes de morphologie mathématique peuvent être décrits comme un flux de données traversant des unités d'exécution. Nous verrons que cette approche peut aussi fonctionner sur des processeurs génériques possédant un jeu d'instructions multimédia ou sur des cartes graphiques. Pour décrire les algorithmes en flux de données, nous proposons d'utiliser le langage fonctionnel Haskell, ce qui nous permettra de décrire les briques de base de la construction des algorithmes de morphologie mathématique. On applique ces briques dans la description des algorithmes les plus couramment utilisés (dilatation/érosion, opérations géodésiques, fonction distance et nivellements) ce qui facilitera le portage de ces algorithmes sur plusieurs plate-formes. Nous proposons pour la construction des algorithmes morphologiques un mode d'exécution original par macro blocs et nous étudions en profondeur la transposition de cette idée aux architectures SIMD. Nous montrons que l'utilisation des macro blocs est intéressante pour les architectures multimédia et nous montrons également que les algorithmes morphologiques proposés dans cette thèse atteignent de meilleures performances que les implémentations standard. Un nouveau champ s'ouvre ainsi aux algorithmes développés dans les applications de traitement d'images en temps réel. Cette thèse explore également les processeurs graphiques et démontre sur des résultats expérimentaux qu'ils sont, dès à présent, assez performants pour concurrencer les processeurs généraux.
26

Segmentation morphologique interactive pour la fouille de séquences vidéo

Weber, Jonathan 30 September 2011 (has links) (PDF)
Nous observons actuellement une augmentation importante du volume de données vidéo disponibles. L'utilisation efficace de cette masse de données nécessite d'en extraire de l'information. Dans cette thèse, nous proposons d'utiliser les méthodes de fouille de données et de les appliquer sur les objets-vidéo d'intérêt afin de combler le fossé sémantique en impliquant l'utilisateur dans le processus. Extraire ces objets à partir des pixels nécessite de manipuler un grand volume de données, induisant un traitement coûteux (en temps et en mémoire) peu compatible avec une implication interactive de l'utilisateur. Ainsi, nous proposons d'appliquer le processus interactif de segmentation sur une réduction des données, les zones quasi-plates. N'étant définies que pour les images fixes, nous proposons une extension des zones quasi-plates aux séquences vidéo ainsi qu'une nouvelle méthode de filtrage. La segmentation est effectuée interactivement par l'utilisateur qui dessine des marqueurs sur les objets d'intérêt afin de guider la fusion des zones quasi-plates composant ces objets. Elle est effectuée sur un graphe d'adjacence de régions représentant les zones quasi-plates spatiotemporelles ainsi que leurs relations d'adjacence. L'utilisation de cette structure assure un faible temps de calcul. Les objets-vidéo obtenus sont ensuite utilisés dans un processus de fouille interactif guidé par des descripteurs extraits automatiquement de la video et des informations données par l'utilisateur. La forte interactivité avec l'utilisateur, à la fois lors de l'étape de segmentation puis lors de l'étape de fouille favorise la synergie entre données numériques et interprétation humaine.
27

Analyse et optimisation des surfaces des chemises de moteurs thermiques

Caciu, Costin 01 June 2006 (has links) (PDF)
Dans le secteur automobile, la réduction de l'émission des gaz à effet de serre (CO2) passe par l'amélioration du rendement des véhicules ; pour cela, la réduction des pertes par frottement est actuellement privilégiée. Nous nous intéressons dans cette thèse à l'étude de la topographie des surfaces des chemises de moteurs afin de réduire le frottement entre la chemise et les segments du piston, sans détériorer la consommation d'huile. Nous avons axé notre travail sur le développement de quatre outils numériques que nous présentons dans ce qui suit. Lors des travaux antérieurs sur le même sujet, des outils d'analyse, de décomposition et de simulation de surface ont été développés par Decencière et Jeulin, grâce aux apports de la morphologie mathématique. Nous les utilisons dans le cadre de notre travail aux fins d'opérations d'analyse, filtrage, décomposition ou correction d'images. Un outil de simulation de textures est développé afin de générer de nouvelles surfaces, meilleures en termes de frottement et de consommation d'huile, tout en respectant certaines contraintes fonctionnelles par rapport aux paramètres d'une surface de référence. Un modèle de prédiction du frottement hydrodynamique entre segment et chemise est développé. Cet outil permet, notamment, de remplacer des expériences souvent coûteuses ou difficiles à mener. En partant de la résolution des équations de Navier-Stokes ou de Reynolds, l'écoulement 3D entre la chemise et les segments (animés d'une vitesse donnée par la cinématique du système) est simulé. Après la validation du modèle en le confrontant avec des écoulements analytiques simples ou des mesures expérimentales, il est utilisé pour remonter à de nombreuses mesures globales ou locales permettant d'évaluer les performances des surfaces en termes de frottement, charge, transport de lubrifiant, etc. Des travaux d'optimisation de texture sont menés, ayant comme critère de classification les mesures fournies par l'outil de prédiction, afin d'obtenir des enseignements importants sur les valeurs optimales de certains paramètres des textures. Un outil d'optimisation stochastique de formes est également développé, dans le but de mener une optimisation plus exhaustive des motifs élémentaires des textures de surface périodiques. Enfin, à partir des résultats obtenus à la suite de ces travaux d'optimisation, des nouveaux dessins de surface, générés à l'aide de l'outil de simulation, sont soumis aux tests. Ces nouvelles textures présentent des performances a priori intéressantes, qui mériteraient d'être vérifiées expérimentalement.
28

Un arbre des formes pour les images multivariées / A Tree of shapes for multivariate images

Carlinet, Edwin 27 November 2015 (has links)
De nombreuses applications issues de la vision par ordinateur et de la reconnaissance des formes requièrent une analyse de l'image multi-échelle basée sur ses régions. De nos jours, personne ne considérerait une approche orientée « pixel » comme une solution viable pour traiter ce genre de problèmes. Pour répondre à cette demande, la Morphologie Mathématique a fourni des représentations hiérarchiques des régions de l'image telles que l'Arbre des Formes (AdF). L'AdF représente l'image par un arbre d'inclusion de ses lignes de niveaux. L'AdF est ainsi auto-dual et invariant au changement de contraste, ce qui fait de lui une structure bien adaptée aux traitements d'images de haut niveau. Néanmoins, il est seulement défini aux images en niveaux de gris et la plupart des tentatives d'extension aux images multivariées (e.g. en imposant un ordre total «arbitraire ») ne sont pas satisfaisantes. Dans ce manuscrit, nous présentons une nouvelle approche pour étendre l'AdF scalaire aux images multivariées : l'Arbre des Formes Multivarié (AdFM). Cette représentation est une « fusion » des AdFs calculés marginalement sur chaque composante de l'image. On vise à fusionner les formes marginales de manière « sensée » en préservant un nombre maximal d'inclusion. La méthode proposée a des fondements théoriques qui consistent en l'expression de l'AdF par une carte topographique de la variation totale curvilinéaire depuis la bordure de l'image. C'est cette reformulation qui a permis l'extension de l'AdF aux données multivariées. De plus, l'AdFM partage des propriétés similaires avec l'AdF scalaire ; la plus importante étant son invariance à tout changement ou inversion de contraste marginal (une sorte d'auto-dualité dans le cas multidimensionnel). Puisqu'il est évident que, vis-à-vis du nombre sans cesse croissant de données à traiter, nous ayons besoin de techniques rapides de traitement d'images, nous proposons un algorithme efficace qui permet de construire l'AdF en temps quasi-linéaire vis-à-vis du nombre de pixels et quadratique vis-à-vis du nombre de composantes. Nous proposons également des algorithmes permettant de manipuler l'arbre, montrant ainsi que, en pratique, l'AdFM est une structure facile à manipuler, polyvalente, et efficace. Finalement, pour valider la pertinence de notre approche, nous proposons quelques expériences testant la robustesse de notre structure aux composantes non-pertinentes (e.g. avec du bruit ou à faible dynamique) et nous montrons que ces défauts n'affectent pas la structure globale de l'AdFM. De plus, nous proposons des applications concrètes utilisant l'AdFM. Certaines sont juste des modifications mineures aux méthodes employant d'ores et déjà l'AdF scalaire mais adaptées à notre nouvelle structure. Par exemple, nous utilisons l'AdFM à des fins de filtrage, segmentation, classification et de détection d'objet. De ces applications, nous montrons ainsi que les méthodes basées sur l'AdFM surpassent généralement leur analogue basé sur l'AdF, démontrant ainsi le potentiel de notre approche / Nowadays, the demand for multi-scale and region-based analysis in many computer vision and pattern recognition applications is obvious. No one would consider a pixel-based approach as a good candidate to solve such problems. To meet this need, the Mathematical Morphology (MM) framework has supplied region-based hierarchical representations of images such as the Tree of Shapes (ToS). The ToS represents the image in terms of a tree of the inclusion of its level-lines. The ToS is thus self-dual and contrast-change invariant which make it well-adapted for high-level image processing. Yet, it is only defined on grayscale images and most attempts to extend it on multivariate images - e.g. by imposing an “arbitrary” total ordering - are not satisfactory. In this dissertation, we present the Multivariate Tree of Shapes (MToS) as a novel approach to extend the grayscale ToS on multivariate images. This representation is a mix of the ToS's computed marginally on each channel of the image; it aims at merging the marginal shapes in a “sensible” way by preserving the maximum number of inclusion. The method proposed has theoretical foundations expressing the ToS in terms of a topographic map of the curvilinear total variation computed from the image border; which has allowed its extension on multivariate data. In addition, the MToS features similar properties as the grayscale ToS, the most important one being its invariance to any marginal change of contrast and any marginal inversion of contrast (a somewhat “self-duality” in the multidimensional case). As the need for efficient image processing techniques is obvious regarding the larger and larger amount of data to process, we propose an efficient algorithm that can be build the MToS in quasi-linear time w.r.t. the number of pixels and quadraticw.r.t. the number of channels. We also propose tree-based processing algorithms to demonstrate in practice, that the MToS is a versatile, easy-to-use, and efficient structure. Eventually, to validate the soundness of our approach, we propose some experiments testing the robustness of the structure to non-relevant components (e.g. with noise or with low dynamics) and we show that such defaults do not affect the overall structure of the MToS. In addition, we propose many real-case applications using the MToS. Many of them are just a slight modification of methods employing the “regular” ToS and adapted to our new structure. For example, we successfully use the MToS for image filtering, image simplification, image segmentation, image classification and object detection. From these applications, we show that the MToS generally outperforms its ToS-based counterpart, demonstrating the potential of our approach
29

Waterpixels et Leur Application à l'Apprentissage Statistique de la Segmentation / Waterpixels and their Application to Image Segmentation Learning

Machairas, Vaïa 16 December 2016 (has links)
L’objectif de ces travaux est de fournir une méthode de segmentation sémantique qui soit générale et automatique, c’est-à-dire une méthode qui puisse s’adapter par elle-même à tout type de base d’images, afin d’être utilisée directement par les non experts en traitement d’image, comme les biologistes par exemple. Pour cela, nous proposons d’utiliser la classification de pixel, une approche classique d’apprentissage supervisé, où l’objectif est d’attribuer à chaque pixel l’étiquette de l’objet auquel il appartient. Les descripteurs des pixels à classer sont souvent calculés sur des supports fixes, par exemple une fenêtre centrée sur chaque pixel, ce qui conduit à des erreurs de classification, notamment au niveau des contours d’objets. Nous nous intéressons donc à un autre support, plus large que le pixel et s’adaptant au contenu de l’image: le superpixel. Les superpixels sont des régions homogènes et plutôt régulières, issues d’une segmentation de bas niveau. Nous proposons une nouvelle façon de les générer grâce à la ligne de partage des eaux, les waterpixels, méthode rapide, performante et facile à prendre en main par l’utilisateur. Ces superpixels sont ensuite utilisés dans la chaîne de classification, soit à la place des pixels à classer, soit comme support pertinent pour calculer les descripteurs, appelés SAF (Superpixel-Adaptive Features). Cette seconde approche constitue une méthode générale de segmentation dont la pertinence est vérifiée qualitativement et quantitativement sur trois bases d’images provenant du milieu biomédical. / In this work, we would like to provide a general method for automatic semantic segmentation, which could adapt itself to any image database in order to be directly used by non-experts in image analysis (such as biologists). To address this problem, we first propose to use pixel classification, a classic approach based on supervised learning, where the aim is to assign to each pixel the label of the object it belongs to. Features describing each pixel properties, and which are used to determine the class label, are often computed on a fixed-shape support (such as a centered window), which leads, in particular, to misclassifcations on object contours. Therefore, we consider another support which is wider than the pixel itself and adapts to the image content: the superpixel. Superpixels are homogeneous and rather regular regions resulting from a low-level segmentation. We propose a new superpixel generation method based on the watershed, the waterpixels, which are efficient, fast to compute and easy to handle by the user. They are then inserted in the classification pipeline, either in replacement of pixels to be classified, or as pertinent supports to compute the features, called Superpixel-Adaptive Features (SAF). This second approach constitutes a general segmentation method whose pertinence is qualitatively and quantitatively highlighted on three databases from the biological field.
30

Une étude du bien-composé en dimension n. / A Study of Well-composedness in n-D.

Boutry, Nicolas 14 December 2016 (has links)
Le processus de discrétisation faisant inévitablement appel à des capteurs, et ceux-ci étant limités de par leur nature, de nombreux effets secondaires apparaissent alors lors de ce processus; en particulier, nous perdons la propriété d'être "bien-composé" dans le sens où deux objects discrétisés peuvent être connectés ou non en fonction de la connexité utilisée dans l'image discrète, ce qui peut amener à des ambigüités. De plus, les images discrétisées sont des tableaux de valeurs numériques, et donc ne possèdent pas de topologie par nature, contrairement à notre modélisation usuelle du monde en mathématiques et en physique. Perdre toutes ces propriétés rend difficile l'élaboration d'algorithmes topologiquement corrects en traitement d'images: par exemple, le calcul de l'arbre des formes nécessite que la representation d'une image donnée soit continue et bien-composée; dans le cas contraire, nous risquons d'obtenir des anomalies dans le résultat final. Quelques representations continues et bien-composées existent déjà, mais elles ne sont pas simultanément n-dimensionnelles et auto-duales. La n-dimensionalité est cruciale sachant que les signaux usuels sont de plus en plus tridimensionnels (comme les vidéos 2D) ou 4-dimensionnels (comme les CT-scans). L'auto-dualité est nécéssaire lorsqu'une même image contient des objets a contrastes divers. Nous avons donc développé une nouvelle façon de rendre les images bien-composées par interpolation de façon auto-duale et en n-D; suivie d'une immersion par l'opérateur span, cette interpolation devient une représentation auto-duale continue et bien-composée du signal initial n-D. Cette représentation bénéficie de plusieurs fortes propriétés topologiques: elle vérifie le théorème de la valeur intermédiaire, les contours de chaque coupe de la représentation sont déterminés par une union disjointe de surfaces discrète, et ainsi de suite / Digitization of the real world using real sensors has many drawbacks; in particular, we loose ``well-composedness'' in the sense that two digitized objects can be connected or not depending on the connectivity we choose in the digital image, leading then to ambiguities. Furthermore, digitized images are arrays of numerical values, and then do not own any topology by nature, contrary to our usual modeling of the real world in mathematics and in physics. Loosing all these properties makes difficult the development of algorithms which are ``topologically correct'' in image processing: e.g., the computation of the tree of shapes needs the representation of a given image to be continuous and well-composed; in the contrary case, we can obtain abnormalities in the final result. Some well-composed continuous representations already exist, but they are not in the same time n-dimensional and self-dual. n-dimensionality is crucial since usual signals are more and more 3-dimensional (like 2D videos) or 4-dimensional (like 4D Computerized Tomography-scans), and self-duality is necessary when a same image can contain different objects with different contrasts. We developed then a new way to make images well-composed by interpolation in a self-dual way and in n-D; followed with a span-based immersion, this interpolation becomes a self-dual continuous well-composed representation of the initial n-D signal. This representation benefits from many strong topological properties: it verifies the intermediate value theorem, the boundaries of any threshold set of the representation are disjoint union of discrete surfaces, and so on

Page generated in 0.4663 seconds