• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 34
  • 8
  • Tagged with
  • 136
  • 136
  • 53
  • 47
  • 36
  • 35
  • 34
  • 25
  • 21
  • 20
  • 20
  • 19
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Etude de la torréfaction : modélisation et détermination du degré de torréfaction du café en temps réel

Hernández Pérez, José Alfredo 15 July 2002 (has links) (PDF)
Afin de garantir et d'optimiser la qualité du café torréfié, il est important de contrôler un grand nombre de facteurs au cours du procédé. Aujourd'hui, des capteurs robustes et des algorithmes permettent d'analyser en temps réel des valeurs essentielles telles que la couleur, la surface, la température, la masse... Dans cette étude de torréfaction, une stratégie de contrôle est appliquée pour estimer la qualité du produit en considérant des capteurs-algorithmes. Pour la mise en place de cette stratégie, une outil expérimental, basé sur l'analyse d'images, l'acquisition de températures et de masse du produit en temps réel est développé. Les grains de café sont torréfiés par un courant d'air chaud. Une base de données expérimentales des grandeurs (température, masse, couleur et surface des grains de café) est réalisée permettant une meilleure compréhension des phénomènes pendant la torréfaction. Un modèle dynamique est obtenu pour prédire l'évolution de la température interne et la teneur en eau des grains de café au cours de la torréfaction en tenant compte de la mesure de la température de l'air d'entrée. Les cinétiques de niveau de gris et de surface des grains sont modélisées par des réseaux de neurones en utilisant comme entrée le temps et la température du grain. Des réseaux de neurones réccurents sont appliqués pour déterminer les cinétiques du niveau de gris au temps suivant (t+1), en considérant le niveau de gris des valeurs précédentes. Les modèles permettent de simuler la température, le niveau de gris et la surface des grains en temps réel. Le niveau de gris estimé par le modèle est le facteur clé pour arrêter le procédé, car le degré de torréfaction est atteint lorsque le niveau de gris est égal à la qualité optimale.
42

Apprentisage profond pour la super-résolution et la segmentation d'images médicales / Deep learning for medical image super resolution and segmentation

Pham, Chi-Hieu 20 December 2018 (has links)
L'objectif de cette thèse est d'étudier le comportement de différentes représentations d'images, notamment apprentissage profond, dans le contexte d'application en imagerie médicale. Le but est de développer une méthode unifiée efficace pour les applications visées que sont la super résolution, la segmentation et la synthèse. La super-résolution est un procès d'estimation d'une image haute-résolution à partir d'une ou plusieurs images basses résolutions. Dans cette thèse, nous nous concentrons sur la super résolutionunique, c'est-à-dire que l'image haute résolution (HR) est estimée par une image basse-résolution (LR) correspondante. Augmenter la résolution de l'image grâce à la super-résolution est la clé d'une compréhension plus précise de l'anatomie. L'application de la super résolution permet d'obtenir des cartes de segmentation plus précises. Étant donné que deux bases de données qui contiennent les images différentes (par exemple, les images d'IRM et les images de CT), la synthèse est un procès d'estimation d'une image qui est approximative aux images dans la base de données de cible à partir d'une image de la base de données de source. Parfois, certains contrastes tissulaires ne peuvent pas être acquis pendant la séance d'imagerie en raison du temps et des coûts élevés ou de l'absence d'appareils. Une solution possible est à utiliser des méthodes de synthèse d'images médicales pour générer les images avec le contraste différent qui est manquée dans le domaine à cible à partir de l'image du domaine donnée. L'objectif des images synthétiques est d'améliorer d'autres étapes du traitement automatique des images médicales telles que la segmentation, la super-résolution ou l'enregistrement. Dans cette thèse, nous proposons les réseaux neurones pour la super résolutionet la synthèse d'image médicale. Les résultats démontrent le potentiel de la méthode que nous proposons en ce qui concerne les applications médicales pratiques. / In this thesis, our motivation is dedicated to studying the behaviors of different image representations and developing a method for super-resolution, cross-modal synthesis and segmentation of medical imaging. Super-Resolution aims to enhance the image resolution using single or multiple data acquisitions. In this work, we focus on single image super-resolution (SR) that estimates the high-resolution (HR) image from one corresponding low-resolution (LR) image. Increasing image resolution through SR is a key to more accurate understanding of the anatomy. The applications of super-resolution have been shown that applying super-resolution techniques leads to more accurate segmentation maps. Sometimes, certain tissue contrasts may not be acquired during the imaging session because of time-consuming, expensive costor lacking of devices. One possible solution is to use medical image cross-modal synthesis methods to generate the missing subject-specific scans in the desired target domain from the given source image domain. The objective of synthetic images is to improve other automatic medical image processing steps such as segmentation, super-resolution or registration. In this thesis, convolutional neural networks are applied to super-resolution and cross-modal synthesis in the context of supervised learning. In addition, an attempt to apply generative adversarial networks for unpaired cross-modal synthesis brain MRI is described. Results demonstrate the potential of deep learning methods with respect to practical medical applications.
43

Comportement thermique macroscopique de milieux fibreux réels anisotropes : étude basée sur l'analyse d'images tridimensionnelles.

Lux, Jérôme 30 September 2005 (has links) (PDF)
Ce travail de thèse traite de la relation entre les propriétés thermiques effectives de matériaux fibreux à base de bois d'une part et leur microstructure d'autre part. La technique de prise de moyenne est utilisée, dans le cadre général du non-équilibre thermique local, pour écrire les équations de transfert macroscopique de matériaux pouvant présenter une anisotropie locale de conductivité thermique (liée ici aux propriétés intrinsèques des fibres de bois) et exprimer le tenseur de conductivité thermique effective. Le modèle est renseigné par l'analyse quantitative d'images 3D de matériaux réels acquises par microtomographie X. Des outils issus de la morphologie mathématique sont mis en oeuvre pour caractériser finement la microstructure du réseau fibreux et en quantifier l'anisotropie locale et globale. Un volume élémentaire représentatif (VER) qui satisfait aux contraintes de la méthode de prise de moyenne peut être défini grâce à ces informations. Une méthode de segmentation basée sur un algorithme de squelettisation par amincissement homotopique est également développée afin d'identifier chaque fibre individuellement, ce qui permet d'accéder à de nombreux paramètres comme la longueur, la tortuosité ou encore le nombre de contacts. Le modèle thermique macroscopique développé ainsi que son implémentation numérique sont d'abord validés par une comparaison avec les prédictions théoriques dans des cas simples puis les valeurs des tenseurs de conductivité thermique effective, obtenus à partir des images de différents matériaux, sont finalement confrontés aux résultats expérimentaux.
44

Détection et analyse non destructive de caractéristiques internes de billons d'Epicéa commun (Picea abies (L.) Karst.) par tomographie à rayons X

Longuetaud, Fleur 10 1900 (has links) (PDF)
La tomographie par rayons X permet un accès direct aux caractéristiques internes des billons scannés par l'intermédiaire des variations de densité et de teneur en eau. L'objectif de ce travail est de démontrer la faisabilité de la détection automatique de caractéristiques dans des billons à des fins d'analyses scientifiques. Nous disposons pour cela d'une base d'images tomographiques de 24 épicéas communs (Picea abies (L.) Karst.) obtenues avec un scanner médical. Les arbres sont représentatifs de différents statuts sociaux et proviennent de quatre peuplements du nord-est de la France, eux-mêmes sont représentatifs de plusieurs classes d'âge, de densité et de fertilité. Les procédures de détection développées sont les suivantes : - détection de la moelle dans les billons, y compris en présence de nœuds et/ou d'excentricité des cernes. La précision de la localisation est inférieure au millimètre ; - détection de la limite aubier/duramen dans les billons, y compris en présence des nœuds (principale source de difficulté). L'erreur sur le diamètre du duramen est de 1.8mm soit une erreur relative de 1.3%. ; - détection de la localisation des verticilles et une comparaison à une méthode optique ; - détection des nœuds individualisés. Cette procédure permet de compter les nœuds dans un billon et de les localiser (hauteur dans le billon et azimut); cependant, la validation de la méthode et l'extraction du diamètre et de l'inclinaison des branches reste à effectuer. Une application de ce travail a été l'analyse de la variabilité de la quantité d'aubier dans le tronc: en intra-arbre, la largeur d'aubier était constante sous la base du houppier; en inter-arbre, une forte corrélation avec la quantité de branches vivantes a notamment été mise en évidence. De nombreuses analyses sont envisageables à partir des résultats de notre travail, parmi lesquelles: l'étude architecturale des arbres avec le suivi de la moelle dans les billons et l'occurrence des prises de relais sur l'axe principal, l'analyse des variations radiales de la forme du duramen, l'analyse de la distribution des nœuds dans les billons.
45

Cinématique de l'extension post-pliocène en Afar. Imagerie SPOT et modélisation analogique.

Souriot, Thierry 27 March 1992 (has links) (PDF)
La partie centrale de la dépression Afar (Sud Mer Rouge) est bordée de blocs sans déformation récente (Danakil et d'Aysha). En raison du climat désertique, la morphologie des structures récentes et/ou actives est très bien conservée. Dans le cadre du programme TECTOSCOPE Afar financé par l'INSU/CNRS et pour la partie sud de la dépression, l'analyse détaillée de 8 couples d'images stéréoscopiques SPOT a permis non seulement de cartographier et d'interpréter le champ de failles mais aussi de mesurer le rejet vertical des failles. Cette interprétation a été réalisée d'une part sur des tirages photographiques Vizir réalisés à l'INSU, d'autre part sur station de travail par images "anaglyphes". Il a ainsi été possible de définir la géométrie et la cinématique du champ de déformation finie post-stratoïde (4Ma). Les caractéristiques du champ de failles ont été déterminées en utilisant des critères structuraux (intersection de failles, segmentation de coulées volcaniques, etc ... ) et l'analyse statistique de la distribution spatiale des orientations, rejets, et densités de la fracturation. Deux domaines de déformations (blocs basculés et horst-grabens) sont caractérisés et des zones de transfert entre ces domaines et les zones non déformées accommodent les variations latérales de la déformation. Cette étude met en évidence une direction/ moyenne d'extension N020° dans le centre de la dépression, s'orientant N040° en bordure du bloc danakil. Cette configuration structurale résulte d'une déformation progressive du domaine central de l'Afar et les hétérogénéités du champ de déformations sont interprétables en termes d'effets de bordure le long des blocs non déformés Dankaly et Aysha. Les implications cinématiques en sont déduites et comparées avec des expériences sur modèles réduits fragilesductiles inspirés du modèle de la "Biellette" Danakil (Sichler 1980). La rotation senestre de 10° du bloc Danakil offre une explication cohérente de la geométrie du champ de failles, des rotations dextres des blocs basculés du Sud de la dépression et de l'extension oblique du golfe de Tadjoura.
46

Images & télédétection : analyse de séquences à basse et très haute résolution spatiale

Corpetti, Thomas 20 June 2011 (has links) (PDF)
Ce document d'habilitation est consacré à l'étude de séries temporelles d'images de télédétection à basse (LSR) et à très haute résolution spatiale (VHSR). Les phénomènes étudiés concernent la météorologie et l'océanographie (données LSR) et l'agriculture et le milieu urbain (données VHSR). La fréquence d'acquisition des données satellites est inversement proportionnelle à la résolution spatiale. Ainsi, pour des données LSR, la cadence d'acquisition est élevée (une images pour $15min$ avec le satellite MSG --Météosat Seconde Génération) et cela autorise l'étude des mouvement atmosphériques turbulents observés à travers le mouvement des nuages, la circulation océanique, ... Les problèmes d'analyse d'images associés concernent l'estimation du mouvement, le suivi de courbe ou encore l'interpolation de données manquantes. En ce qui concerne les données VHSR, la période séparant deux images peut varier de quelques semaines à quelques mois. Les études associées sont alors dédiées à la détection de changements structurels entre deux images. Du point de vue méthodologique, l'analyse de données LSR est principalement réalisée en introduisant des connaissances physiques a priori dans les outils classiques d'analyse d'images. Une part importante est dédiée à l'utilisation de techniques d'assimilation variationnelle de données. Pour l'analyse de données VHSR, nous proposons des descripteurs spécifiques permettant de caractériser les motifs texturés que l'on a à manipuler. Ces descripteurs sont ensuite utilisés pour résoudre différents problèmes d'analyse de données VHSR tels que la segmentation, la classification, la détection de fronts texturés ou encore l'estimation de l'orientation. Enfin, un chapitre est consacré à la détection de changements où nous proposons des techniques pour le détection binaire et multi-labels.
47

Imagerie par résonance magnétique du tenseur de diffusion (IRM-TD) en imagerie cardiaque humaine : traitements et premi`eres interprétations

Frindel, Carole 04 December 2009 (has links) (PDF)
Cette thèse a pour cadre l'étude de l'organisation spatiale des fibres du muscle cardiaque à partir de séries d'images tridimensionnelles acquises par IRM du Tenseur de Diffusion (IRMTD). Cette organisation constitue une propriété fondamentale du coeur sous-tendant la fonction contractile. Néanmoins elle est très complexe à obtenir au vu des difficultés inhérentes au mouvements cardiaque et respiratoire. Notre objectif consiste à développer de nouvelles approches, basées sur la prise en compte du mouvement du coeur et de la sensibilité au bruit de l'acquisition, pour l'estimation, l'analyse et la visualisation des fibres du myocarde. Dans ce cadre, mes travaux se déclinent selon trois axes principaux. Le premier compare, dans le contexte d'études cliniques ex vivo, les principales approches de régularisation opérant soit sur les images pondérées en diffusion soit sur les champs de tenseurs de diffusion. Les différences sont suffisamment faibles pour conclure que la qualité de nos données IRMTD est suffisante pour considérer toutes les méthodes de régularisation comme équivalentes. Partant de ce constat, une méthode de régularisation simple et rapide apparaî satisfaisante. Le second concerne la mise en place d'une méthode de tractographie spécialement conçue pour la spécificité cardiaque. Celle-ci est guidée par une fonctionnelle de coût globale qui permet l'estimation automatique des fibres cardiaques en une seule fois pour l'ensemble des données, et ce sans l'utilisation de points d'initialisation. Le dernier axe consiste en la distinction d'une population de fibres cardiaques en sous-groupes. Celle-ci s'appuie sur la comparaison de méthodes de classification de type géométrique et de type topologique exploitant toutes trois modes différents de représentation des fibres. Les résultats établissent que la classification pourrait permettre l'identification automatique de régions spécialisées dans le myocarde, ce qui pourrait grandement faciliter l'analyse et la comparaison des données IRMTD cardiaques pour la conception de thérapies patient-spécifiques.
48

Approches géométriques pour l'analyse d'images et de textures

Xia, Gui-Song 18 March 2011 (has links) (PDF)
Cette thèse se concentre sur l'étude de l'extraction et de la caractérisation des structures locales, dans le contexte de l'analyse d'images et des textures. S'appuyant sur les lignes de niveau des images ou sur la notion duale et moins structuré e d'orientation du gradient, les contributions de cette thèse se concentrent sur trois thèmes suivants: La première partie présente une nouvelle méthode pour l'analyse de texture qui dans l'esprit est similaire a la granulométrie morphologique, tout en permettant un haut degré d'invariance géométrique et radiométrique. Avec l'aide de la représentation par carte topographique, la deuxième partie de cette thèse développe une approche générale pour l'abstraction d'images, dont le but est de générer automatiquement des images abstraites à partir de photographies réalistes. Le sujet de la dernière partie de cette thèse est la détection des jonctions dans les images naturelles. L'approche s'appuie sur les directions locales de lignes de niveau à travers l'orientation du gradient de l'image. Nous introduisons un système générique d'analyse de jonction. Le premier avantage de la procédure proposée est un critère pour la détection automatique de jonctions. Celui-ci permet de traiter des parties texturées de l'image dans lesquelles aucune détection n'est attendue. Deuxièmement, la méthode donne une caractérisation des jonction en L-, Y et en X, y compris un calcul précis de leur type, de leur localisation et de leur échelle. Contrairement aux approches classiques, la caractérisation de l'échelle ne repose pas sur un espace-échelle linéaire, et permet donc d'obtenir une bonne précision géométrique.
49

Organisation spatiale du tissu conjonctif intramusculaire: Relation avec la texture de la viande bovine

Maunier-Sifre, Laurence 06 July 2005 (has links) (PDF)
Le périmysium a été analysé à l'aide de deux modalités d'imagerie, l'histologie et l'imagerie par résonance magnétique (IRM). L'histologie a permis l'observation des faisceaux primaires et l'IRM des faisceaux d'ordre supérieur. Dans les deux cas, une méthode de seuillage du périmysium a été mise au point et validée avec la construction d'une banque de cartes de référence probabilistes, résultat de la segmentation manuelle du réseau par un jury d'experts. Le périmysium segmenté a été caractérisé à l'aide de variable morpho-anatomiques et granulométriques. Celles-ci ont été ensuite reliées à la résistance mécanique et à la tendreté sensorielle de la viande cuite. Ce sont les structures macroscopiques, visualisées en IRM, qui jouent un rôle majeur sur le déterminisme de la tendreté de la viande bovine cuite. Ces résultats ouvrent des perspectives pour le développement de méthodes d'imagerie simples adaptées à la prédiction et au contrôle de la tendreté de la viande bovine.
50

Structure et Cinématique de la Zone Houillère Briançonnaise entre Arc et Isère (Alpes françaises): Apport de l'Inversion des Données de la Déformation Finie aux Modèles Cinématiques Classiques

Ailleres, Laurent 11 January 1996 (has links) (PDF)
L'objectif du travail présenté dans ce mémoire est de développer une méthode pour mettre en évidence des structures non observables directement en surface à partir de données structurales utilisées comme données de champ. Le paramètre choisi est la déformation finie. La fiabilité de la méthode est testée en comparant les restaurations de la déformation (d'après les données de déformation finie) avec les modèles cinématiques issus d'une approche classique de terrain. La région d'application est la Zone Houillère Briançonnaise. Elle est située juste au dessus du Front Briançonnais (FB) qui est une des structures majeures des Alpes occidentales associée au Chevauchement Pennique Frontal (limite entre les zones internes et externes). Le modèle cinématique issu de l'approche classique de terrain a permis de mettre en évidence trois événements principaux suivis d'un épisode extensif. L'événement D1 traduit très probablement la subduction de l'océan piémontais au cours de laquelle, restant à un niveau structural élevé dans le prisme d'accrétion tectonique, la Zone Houillère subit un écaillage vers l'Ouest alors qu'une partie de la Vanoise, située plus à l'Est, est entraînée dans la subduction. Au cours de D2, la subduction de la Vanoise se bloque et cette zone est alors charriée sur la Zone Houillère puis elle l'emboutit. L'événement D3 est associé à l'indentation de la croûte européenne par le poinçon adriatique. Cette indentation est, entre autre, la cause de la surrection des Massifs cristallins externes qui réactive une surface correspondant au FB originel (décollement précoce D1 et/ou structure D2) en faille normale. Le rebroussement résultant de la surrection des Massifs cristallins externes produit une structure de type roll-over. L'événement extensif D4, continuum plus superficiel de D3, provoque alors le basculement de tout l'édifice vers l'Ouest. Les données de déformation finie ont été acquises par l'utilisation d'algorithmes d'analyse d'images, semi-automatisées au cours de ce travail. Les méthodes utilisées sont fondées soit sur l'analyse de forme des grains (diamètres de Féret) soit sur l'analyse de leur position (méthode de Fry normée). La comparaison et l'analyse des résultats obtenus montrent que la déformation enregistrée au cours de l'événement 02 (surface régionale de référence ) est de très faible intensité. Le processus de déformation est l'aplatissement accompagné d'une variation de volume inférieure à 10%. Les données ont été ensuite interpolées et visualisées à l'aide de GOCAO (modeleur 3D développé par l'équipe de J.L. Mallet, ENSG-LIAD). L'inversion de la déformation en plan a été effectuée à l'aide du logiciel FaultPack en collaboration avec l'équipe de P.R. Cobbold (Univ. Rennes 1). Les restaurations, bien qu'incomplètes, confirment, au cours de l'événement D2, l'absence d'une déformation cisaillante, la faible intensité de la déformation et la prédominance de l'aplatissement à l'échelle de la Zone Houillère entre l'Isère et l'Arc. Cependant, ce genre d'approche devra être à l'avenir associé très étroitement à une restauration géométrique 3D préalable, le problème majeur, non encore résolu. étant de faire la part de chaque événement de déformation dans les fabriques mesurées.

Page generated in 0.0579 seconds