• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 303
  • 152
  • 57
  • 1
  • 1
  • Tagged with
  • 503
  • 243
  • 169
  • 144
  • 134
  • 104
  • 99
  • 94
  • 81
  • 70
  • 64
  • 61
  • 61
  • 56
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Détourage interactif de photographies d'Intérêt général

Bertier, Marc 01 July 1983 (has links) (PDF)
Dans un premier temps, nous mettrons en valeur le contexte technologique matériel et surtout logiciel qui permet aujourd'hui le développement de systèmes de mise en page pour les métiers de l'édition(§ I.1). Dans cette perspective, apparaîtront d'eux mêmes, la motivation et l'intérêt pratique présentés par l'étude détaillée du détourage, opération fondamentale qui consiste à extraire d'une photographie l'image d'un objet y figurant (§ I.2). Nous aborderons, dans la suite de ce chapitre une présentation plus technique des difficultés soulevées par l'automatisation du détourage. Plus précisément, nous présenterons le problème comme relevant à la fois de la segmentation et de l'interprétation d'image (§ I.3).
102

Lancer de Faisceaux en Synthèse d'Images

Hasenfratz, Jean-Marc 05 January 1998 (has links) (PDF)
On peut affirmer, sans grand risque de se tromper, que le XXIème siècle sera, entre autres, celui des images virtuelles. Pour s'en convaincre, il suffit de regarder à quel point notre quotidien a changé ces dernières années. La part consacrée aux images de synthèse ne fait que croître. Prenons par exemple les bulletins météorologiques télévisés qui sont présentés à l'aide d'animations 3D, les films utilisant massivement des effets spéciaux informatiques, les publicités, ... Bien sûr, toutes les industries sont aussi très friandes d'images de synthèse. Et demain, peut-être nous déplacerons nous dans des mondes virtuels pour faire nos achats, aller au travail ou au cinéma ... Il est clair que les images de synthèse sont promises à un bel avenir mais on en "demandera toujours davantage", on cherchera à être plus rapide, plus précis et plus réaliste. Ce mémoire s'inscrit dans cette évolution et présente nos recherches dans ce domaine. Avant de présenter la démarche suivie, il est nécessaire d'aborder deux problèmes, relatifs à la synthèse d'images. Ces problèmes seront le fil directeur de nos travaux. Le premier problème est celui de l'aliassage. On regroupe dans ce terme trois phénomènes visuels qui nuisent au réalisme des images. Le premier, et le plus connu, est le phénomène des marches d'escalier sur les contours des objets. On peut le traiter efficacement avec un lancer de rayons et un suréchantillonnage adaptatif des pixels. Le deuxième est le phénomène des moirés sur les textures, il peut être traité en utilisant des textures filtrées a priori en fonction de différents taux de compression. Enfin, le troisième phénomène est la disparition des petits objets et des petites ombres. C'est un problème complexe, qu'un lancer de rayons conventionnel ne peut résoudre efficacement. En effet, il est impossible d'assurer qu'aucun objet ne se glisse entre les rayons d'épaisseur infinitésimale lancés. C'est, de plus, un problème important puisqu'il produit des effets involontaires de scintillement de petits objets dans les animations. Notons que les difficultés rencontrées avec de petits objets se retrouvent dans d'autres domaines comme l'acoustique ou les télécommunications. On cherche à calculer dans ces disciplines, avec précision, la propagation des ondes dans des environnements particuliers, par exemple un théâtre dans le cas des ondes sonores, ou une ville lors de la détermination de la visibilité entre deux antennes dédiée à une liaison microondes point à point. Le deuxième problème est le temps de calculs nécessaire pour obtenir une image de synthèse réaliste. Un algorithme tel que le tampon de profondeur ("z-buffer"), en général câblé sur les stations graphiques, permet un calcul très rapide des images et des animations. Malheureusement, des effets tels que la réfraction, la pénombre et l'éclairage diffus sont difficiles à réaliser, voire impossible. Ces manques laissent aux images produites un aspect synthétique et irréel. Pour produire des images plus réalistes, on peut utiliser des algorithmes de lancer de rayons et de calcul de radiosité. Le premier propose un très grand nombre d'effets spéciaux comme la réflexion, la réfraction, la pénombre, le flou de bougé, la profondeur de champs, ..., le deuxième crée des éclairages diffus très réalistes. Malheureusement, ces effets, augmentant le réalisme sont coûteux en temps de calculs. On constate en fait que réalisme et rapidité de calcul sont des critères qui ne vont pas souvent ensemble et qu'il faut la plupart du temps choisir entre les deux. Notre travail de recherche a donc consisté à trouver et développer des solutions à ces deux problèmes. Une première solution qui résout efficacement les problèmes d'aliassage et en particulier la disparition des petits objets et des petites ombres, est le remplacement des rayons d'épaisseur infinitésimale du lancer de rayons par des rayons volumiques. On parle alors de lancer de faisceaux. Cette approche n'est pas nouvelle puisque [AMAN 84] remplace les rayons par des cônes, [HECK 84] les remplace par un seul faisceau volumique et [GHAZ 92] les remplace par des pyramides. Ces propositions résolvent en principe les problèmes d'aliassage mais ne permettent pas toujours des effets de réflexion ou de réfraction réalistes et sont limitées à certains types de scènes. Une approche fondée sur [GHAZ 92] résout tous les problèmes d'aliassage, permet des effets de réfraction et de pénombre au moins aussi réaliste qu'un lancer de rayons et peut être utilisée pour des scènes non polygonales comme les scènes "CSG". Nous proposons, entre autres, dans ce mémoire l'étude détaillée de l'algorithme de [GHAZ 92] et des optimisations et extensions apportées [HASE 96][GHAZ 98]. Une autre solution, pour résoudre les problèmes d'aliassage, est de calculer exactement tous les contours visibles des objets à partir d'un point de vue. On parle alors d'algorithme de calcul de visibilité exacte. Pour cela, de manière très schématique, on projette tous les objets sur le plan de l'écran et on les découpe en fonction de leurs parties visibles depuis l'oeil. Cette approche est intéressante parce qu'elle permet de faire abstraction de toutes définitions d'un écran. On peut ainsi modifier la taille de l'image sans la recalculer entièrement et sans perte d'informations. Nous proposons dans ce mémoire un algorithme de calcul de visibilité exacte fondé sur le modèle des cartes généralisées et sur un lancer de faisceaux. Le modèle des cartes simplifie les différents découpages entre polygones et autorise une représentation des contours intégrant les propriétés d'adjacence entre les arêtes. Les faisceaux permettent de positionner très précisément les objets les uns par rapport aux autres et optimisent le nombre d'objets à traiter. Notre solution tient de plus compte des effets d'ombres portées, de réflexion et approche les effets de réfraction. Une solution pour diminuer les temps de calcul est de diminuer le nombre d'objets à traiter. Pour cela, il existe plusieurs approches comme les volumes englobants, les subdivisions spatiales régulières ou adaptatives, les "BSP", ... Mais toutes ces solutions ont leurs limites, en particulier lorsque l'on travaille avec des scènes décrites avec plusieurs dizaines de milliers de polygones ou lors d'animation. Nous proposons une approche qui, plutôt que de chercher les objets visibles, cherche ceux qui sont cachés afin de les exclure des traitements. Ces objets sont en général situés derrière d'autres objets très imposants qui rendent une partie de la scène non visible. Nous proposons donc des solutions pour trouver ces objets imposants et pour déterminer rapidement les objets qu'ils cachent. Ce mémoire se décompose en cinq chapitres. Dans le 1er chapitre, nous étudions les algorithmes fondés sur des variantes du lancer de rayons et les algorithmes qui utilisent, d'une manière ou d'une autre, des faisceaux. Pour synthétiser la présentation, nous avons classé les différentes approches en quatre catégories : * les algorithmes fondés sur des ensembles de rayons lancés en même temps ; * les algorithmes utilisant exclusivement des faisceaux ; * les algorithmes hybrides utilisant à la fois des rayons et des faisceaux ; * les algorithmes utilisant ponctuellement les faisceaux pour résoudre un problème. Le 2ième chapitre présente les résultats de l'analyse et de l'implémentation de l'algorithme de "lancer de faisceaux pyramidaux" proposé par [GHAZ 92] pour des scènes polygonales. Nous verrons que les problèmes d'aliassage sont résolus mais que les temps de calculs restent importants. Une extension de cet algorithme aux scènes non polygonales ("CSG") est présentée. Le chapitre 3 reprend l'algorithme de "lancer de faisceaux pyramidaux" pour améliorer ses performances. Plusieurs points de cet algorithme sont optimisés pour finalement améliorer très sensiblement les temps de calculs. Une nouvelle extension permettant des effets de pénombre avec des sources lumineuses volumiques est décrite. Le chapitre 4 propose un nouvel algorithme de visibilité. Il est fondé sur les "cartes généralisées" [LIEN 89c] et sur un lancer de faisceaux. Cet algorithme permet de produire une description de tous les contours des objets, des ombres, des réflexions et des réfractions sur le plan image. La construction de ces contours est facilitée par le modèle topologique utilisé et en particulier par les propriétés d'adjacence dont on dispose. Le dernier chapitre présente une méthode permettant de diminuer le nombre d'objets à traiter dans un algorithme de visibilité. Pour cela, des faisceaux sont lancés à partir du point de vue sur des polygones imposants afin de déterminer les objets de la scène manifestement cachés. Cette approche est exploitée dans un algorithme de calcul de la radiosité.
103

Lignes de partage des eaux discrètes : théorie et application à la segmentation d'images cardiaques

Cousty, Jean 17 October 2007 (has links) (PDF)
La notion de clivage formalise l'idée d'ensemble frontiére dans un graphe. Fusionner deux régions, comme le requièrent certaines méthodes de segmentation d'images, pose des diffIcultés. Nous introduisons quatre classes de graphes (de fusion) dans lesquels ces diffIcultés sont progressivement supprimées. Nous montrons que l'une de ces classes est celle pour laquelle tout clivage est mince. Nous introduisons une relation d'adjacence, appelée grille de fusion parfaite, dans laquelle deux régions voisines peuvent être fusionnées, en préservant toutes les autres régions.<br /><br />La ligne de partage des eaux topologique (LPE) étend la notion de clivage aux graphes dont les sommets sont valués et permet de segmenter une image. Nous étendons les propriétés des clivages dans les graphes de fusion aux cas des fonctions et proposons un algorithme de LPE<br />monotone et linéaire dans les grilles de fusion parfaites. Grâce à la notion de graphe d'arêtes, les propriétés des LPE dans les grilles de fusion parfaites s'étendent aux graphes à arêtes valuées.<br /><br />Nous étudions en profondeur les LPE dans les graphes à arêtes valuées. Les LPE peuvent y être définies en suivant l'idée intuitive de gouttes d'eau s'écoulant sur un relief topographique. Nous établissons aussi bien la consistance que l'optimalité de cette définition. De plus, nous proposons deux algorithmes linéaires qui, à notre connaissance, sont les plus efficaces pour le calcul des LPE.<br /><br />En nous reposant sur ces résultats théoriques, nous proposons une méthode et développons un logiciel pour la segmentation du ventricule gauche dans des images cardiaques 3D+t par résonance magnétique. La méthode est quantitativement et qualitativement validée par comparaison avec des segmentations manuelles tracées par deux experts cardiologues.
104

Architecture et traitements d'images temps réel appliqués à l'étude des écoulements

Jay, Jacques 29 November 2005 (has links) (PDF)
Ce document donne une synthèse des travaux de recherche de l'auteur autour du thème instrumentation dans trois domaines applicatifs. Des techniques de traitement du signal associées à de la télémesure ont été mises en œuvre dans le domaine médical. Des études d'écoulements d'air à faibles nombres de Reynold sont ensuite présentées, en mettant l'accent sur l'acquisition et le traitement en temps réel des images PIV et de suivi de structure mis en place spécifiquement.<br /> Enfin, des méthodes optiques associées à des techniques de traitements d'images ont été utilisées dans le cadre d'étude de transfert de chaleur entre une pièce usinée et l'outil.
105

Caractérisation de l'homogénéité de mélange de poudres et de l'agitation en mélangeur Triaxe®

Demeyre, Jean-François 22 June 2007 (has links) (PDF)
Afin de caractériser l'agitation et le mélange en mélangeur Triaxe® nous avons mis au point un logiciel capable de piloter le mélangeur, de suivre les conditions opératoires — vitesses d'agitation et couples développés par les moteurs — et d'analyser la qualité du mélange obtenu en temps réel.<br /><br />Le suivi des couples développés par les moteurs lors du mélange a permis d'identifier les régimes d'écoulements présents dans ce type de mélangeur.<br /><br />La mise en œuvre et la validation de la méthode d'analyse d'image pour mesurer la qualité du mélange ont permis de suivre l'évolution cinétique de mélanges binaires de deux poudres à écoulement libre — couscous/semoule — et d'une poudre à écoulement libre et d'une poudre cohésive — couscous/lactose.<br /><br />Cette étude a permis de caractériser ce nouvel équipement de mélange, de définir les protocoles opératoires à utiliser en fonction des propriétés des poudres afin d'obtenir un mélange efficace à la fois en terme de temps de mélange court et de puissance consommée faible. Des corrélations basées sur des nombres adimensionnels ainsi qu'une corrélation liant le temps de mélange et les vitesses d'agitation ont été déterminées.
106

Analyse statistique de textures directionnelles. Application à la caractérisation de matériaux composites.

Da Costa, Jean-Pierre 21 December 2001 (has links) (PDF)
Ce mémoire a pour objet l'analyse d'images de textures directionnelles, c'est à dire composées d'éléments structuraux orientés. Plus précisément, nous montrons que ces textures peuvent être décrites au moyen du champ de leurs orientations locales. Plusieurs points sont abordés.<br />Tout d'abord, nous proposons une approche originale pour la conception d'opérateurs de mesure d'une orientation. Deux types d'opérateurs sont introduits : le gradient et le vallonnement, qui s'appliquent respectivement sur les régions pentées et sur les lignes de crête (et de vallée). Guidés par le respect du caractère local et le souci de robustesse et de précision, nous présentons une procédure d'optimisation de ces deux opérateurs vis à vis du biais et de la sensibilité au bruit. Une règle de combinaison des deux opérateurs permet d'associer leurs avantages respectifs et de garantir une estimation correcte en tout point d'une image. Leurs performances sont étudiées sur des textures synthétiques et naturelles.<br />Nous définissons ensuite une méthode statistique pour la description des textures directionnelles. Elle se fonde sur les propriétés du second ordre du champ des orientations locales. Plus précisément, nous nous appuyons sur les histogrammes des différences spatiales d'orientations et proposons d'utiliser ces statistiques pour la construction de cartes d'interaction. Ces cartes sont appliquées d'une part à la caractérisation de textures naturelles quasi périodiques et d'autre part à la description de textures de matériaux composites.<br />Le dernier point abordé concerne la caractérisation d'images issues de l'observation de matériaux composites en microscopie électronique en transmission. Ces images, dites de franges de réseau, sont composées de primitives texturales (les franges) longiformes et ondulées. L'approche suivie pour leur caractérisation est une approche structurale. Elle consiste en premier lieu à identifier les primitives puis à les décrire en termes de longueur et d'ondulation. La caractérisation de l'ondulation repose sur le spectre d'ondulation, c'est à dire le spectre de l'orientation calculée le long des primitives texturales. Pour finir, nous développons un modèle stochastique de formation de ces textures qui explique les résultats expérimentaux obtenus.
107

Thermographie courtes longueurs d'onde avec des caméras silicium : contribution à la modélisation radiométrique

Rotrou, Yann 13 December 2006 (has links) (PDF)
Le Centre de Recherche sur les Outillages, les Matériaux et les Procédés (CROMeP) veut obtenir des cartes de températures précises, sur des moules métalliques entre 400 et 1000°C. Plusieurs équipes ont montré l'intérêt d'utiliser des caméras silicium dans ce contexte.<br />Nous nous distinguons de leurs travaux par l'approche adoptée pour modéliser le système. Nous proposons un nouveau modèle, plus précis et paramétré par un unique jeu de coefficients indépendant du temps d'intégration. Il permet d'obtenir une procédure d'étalonnage courte et précise, ainsi qu'un système dont la dynamique est contrôlable en ligne. Nous étudions d'autre part différents phénomènes perturbant la mesure, afin de l'améliorer, et d'évaluer sa précision. Ces caractérisations sont en partie effectuées au laboratoire de Conception d'Imageurs Matriciels Intégrés (CIMI).<br />Enfin nous positionnons les caméras CCD et CMOS par rapport aux systèmes de thermographie infrarouges, et présentons une application de mesures couplées dimensionnelles/thermiques, basée sur un unique capteur de stéréovision silicium.
108

Reconstruction 3D de bâtiments en interférométrie RSO haute résolution : approche par gestion d'hypothèses /

Cellier, François, January 1900 (has links)
Thèse de doctorat--Signal et images--Paris--ENST, 2007. / RSO = Radar à synthèse d'ouverture. Bibliogr. p. 195-199. Résumé.
109

Compactly supported radial basis functions multidimensional reconstruction and applications /

Gelas, Arnaud Prost, Rémy January 2007 (has links)
Thèse doctorat : Images et Systèmes : Villeurbanne, INSA : 2006. / Thèse rédigée en anglais. Titre provenant de l'écran-titre. Bibliogr. p. 161-172.
110

Etude de modifications épigénétiques corrélées à l'expression du gène MDR1 et à la texture nucléaire dans des cellules de carcinome pulmonaire H69 sensibles et résistantes à la chimiothérapie

El Khoury, Victoria Dufer, Jean. January 2006 (has links) (PDF)
Reproduction de : Thèse doctorat : Pharmacie. Biologie cellulaire et moléculaire : Reims : 2006. / Titre provenant de l'écran-titre. Bibliogr. p.198-229.

Page generated in 0.3344 seconds