Spelling suggestions: "subject:"designal anda image aprocessing"" "subject:"designal anda image eprocessing""
211 |
Stratégies MIMO Coopératives pour Réseaux de Capteurs Sans Fil Contraints en EnergieNguyen, Tuan-Duc 15 May 2009 (has links) (PDF)
Dans les réseaux sans fil distribués où plusieurs antennes ne peuvent pas être intégrées dans un même nœud de communication, les techniques MIMO (Multiple Input Multiple Output) coopératives permettent d'exploiter le gain de la diversité spatio-temporelle pour augmenter les performances ou réduire l'énergie consommée pour les communications. Dans cette thèse, des stratégies MIMO coopératives sont proposées pour les réseaux de capteurs sans fil (RCS), où la consommation d'énergie est la contrainte la plus importante. Leur avantage en termes de taux d'erreur et de consommation d'énergie sur les techniques mono-antenne (SISO), même multi-étapes, et sur les techniques de relais, est clairement mis en évidence. Une sélection du nombre d'antennes d'émission et de réception, optimale en termes d'efficacité énergétique, est également proposée en fonction des distances de transmission. Les inconvénients du MIMO coopératif, comme les imperfections de synchronisation à l'émission ou les bruits additifs en réception, qui affectent leurs performances dans les réseaux sans fil distribués, sont abordés. Deux nouvelles techniques de réception coopérative basées sur le principe de relais, ainsi qu'une nouvelle technique de combinaison spatio-temporelle sont proposées afin d'augmenter l'efficacité énergique de ces systèmes MIMO coopératifs. Enfin, des comparaisons de performance et de consommation d'énergie entre les techniques MIMO coopératives et de relais montrent que leur utilisation dépend beaucoup de la topologie du réseau et de l'application. Une stratégie d'association est proposée pour exploiter simultanément les avantages des deux techniques de coopération.
|
212 |
Indexation et fusion multimodale pour la recherche d'information par le contenu. Application aux bases de données d'images médicales.Quellec, Gwénolé 19 September 2008 (has links) (PDF)
Dans cette thèse, nous étudions des méthodes pour la recherche d'information dans des bases de données constituées de documents multimédia. Notre objectif est de sélectionner dans la base des documents similaires à un document proposé en requête. L'application visée est l'aide au diagnostic dans un cadre médical : la base est constituée de dossiers patients contenant plusieurs images et des informations cliniques contextuelles à propos du patient. Dans un premier temps, nous cherchons à caractériser individuellement chaque image du dossier patient. Nous avons ainsi proposé deux méthodes originales d'indexation à partir de la transformée en ondelettes des images : 1) une méthode globale, modélisant la distribution des coefficients d'ondelette dans l'image, 2) une méthode locale, basée sur l'extraction de lésions. Une fois les images caractérisées, nous cherchons à fusionner l'ensemble des informations du dossier pour sélectionner les dossiers patients les plus proches. Outre le problème de l'hétérogénéité des données, nous devons résoudre le problème de l'incomplétude des dossiers patients. Nous proposons trois nouvelles approches, inspirées de la fouille de données et de la fusion d'information. La première est basée sur les arbres de décision, la deuxième sur les réseaux bayésiens et la troisième sur la théorie de Dezert-Smarandache (DSmT). Les résultats que nous obtenons pour deux bases de données médicales multimodales sont très satisfaisants et supérieurs aux méthodes classiques. Ainsi, la précision moyenne pour une fenêtre de cinq cas atteint 81,78% pour une base d'images rétiniennes et 92,90% pour une base de mammographies.
|
213 |
Architecture et traitements d'images temps réel appliqués à l'étude des écoulementsJay, Jacques 29 November 2005 (has links) (PDF)
Ce document donne une synthèse des travaux de recherche de l'auteur autour du thème instrumentation dans trois domaines applicatifs. Des techniques de traitement du signal associées à de la télémesure ont été mises en œuvre dans le domaine médical. Des études d'écoulements d'air à faibles nombres de Reynold sont ensuite présentées, en mettant l'accent sur l'acquisition et le traitement en temps réel des images PIV et de suivi de structure mis en place spécifiquement.<br /> Enfin, des méthodes optiques associées à des techniques de traitements d'images ont été utilisées dans le cadre d'étude de transfert de chaleur entre une pièce usinée et l'outil.
|
214 |
Quantification vectorielle algébrique : un outil performant pour la compression et le tatouage d'images fixesMoureaux, Jean-Marie 10 December 2007 (has links) (PDF)
Ce manuscrit décrit douze ans d'activités de recherche au Centre de Recherche en Automatique de Nancy dans le domaine de la compression d'images (grand public mais aussi médicales), ainsi que dans celui du tatouage d'images dans un contexte de compression.<br />Nous avons mis l'accent sur l'étape de quantification de la chaîne de compression pour laquelle nous avons proposé une méthode dite de « quantification vectorielle algébrique avec zone morte »<br />(QVAZM) associée à une analyse multirésolution par ondelettes, permettant d'améliorer sensiblement, par rapport au nouveau standard JPEG2000 ainsi qu'à l'algorithme de référence SPIHT, les performances en termes de compromis débit-distorsion, et ainsi la qualité visuelle de l'image reconstruite.<br />Nous avons travaillé sur trois points essentiels et proposé à chaque fois des solutions afin de rendre l'utilisation de la QVAZM réaliste dans une chaîne de compression : l'indexage des vecteurs du dictionnaire, le réglage des paramètres du dictionnaire (facteur d'échelle et zone morte) et l'allocation des ressources binaires.<br />La contribution majeure de nos travaux dans le domaine de l'imagerie médicale 3D a consisté à tenter d'ouvrir une voie à la compression avec perte, encore inenvisageable il y a quelques années pour des raisons évidentes de diagnostic. Nous avons pour cela étendu avec succès notre algorithme<br />QVAZM au cas des images médicales volumiques. Parallèlement à ces travaux, nous avons étudié l'impact de la compression avec perte sur certaines applications de traitement d'images médicales, en particulier sur un outil d'aide à la détection de nodules pulmonaires pour lequel nous avons pu montrer une robustesse à la compression avec perte, même à fort taux de compression (jusqu'à 96 :1).<br />Enfin, la contribution principale de nos travaux dans le domaine du tatouage concerne le développement d'approches combinées compression/tatouage et ont abouti à la proposition de deux méthodes de tatouage reposant sur la QVAZM, associée à une analyse multirésolution par transformée en ondelettes. Elles sont particulièrement attractives pour les applications où la compression constitue la principale attaque (ou le principal traitement).
|
215 |
Parole d'homme – Parole de clone<br />Vers une machine parlante anthropomorphique : Données et modèles en production de paroleBadin, Pierre 18 April 2002 (has links) (PDF)
La parole, un signal biologique de communication<br />Le signal de parole est un signal destiné à la communication orale entre humains, et donc à encoder des messages linguistiques. Il possède un certain nombre de propriétés qui en font un type de signal très particulier. C'est un signal produit par un système biologique, l'appareil phonatoire humain, et qui reflète donc les propriétés biomécaniques des articulateurs. C'est un signal audiovisuel, puisqu'il fait simultanément intervenir le son et l'image du visage du locuteur, pour ne pas mentionner le toucher. C'est un signal redondant, aussi bien au niveau du son qu'au niveau de la complémentarité entre les canaux acoustiques et visuels, ce qui lui confère des qualités de robustesse indispensables à un signal de communication. Son degré de redondance est adaptable en fonction des conditions environnementales de bruit et de la quantité d'information contenue dans le message à transmettre (liée en particulier au degré de prédictibilité). Cette adaptabilité en fait un signal très variable.<br />Ainsi, le signal de parole est extrêmement complexe du point de vue de sa structure, mais cette complexité peut être lue et interprétée plus facilement si l'on fait référence aux gestes des articulateurs qui l'ont produit. Les mécanismes de production de parole font intervenir la coordination des gestes des différents articulateurs – mâchoire, langue et lèvres – qui modulent la forme du conduit vocal et du visage au cours du temps ; les sources d'excitation acoustiques générées par l'écoulement de l'air issu des poumons à travers le conduit vocal sont alors filtrées par les résonances de ce conduit et finalement rayonnées vers l'extérieur. Depuis mon arrivée à l'ICP en 1979, mon travail de recherche a été essentiellement consacré, selon une approche anthropomorphique, à modéliser les signaux de parole en tant que conséquences de ces mécanismes biomécaniques et aéroacoustiques qui se produisent dans le conduit vocal humain.<br /><br />Données, modèles, et tête parlante audiovisuelle<br />Notre principale approche en modélisation consiste à développer des modèles fonctionnels à partir de données expérimentales, et, dans une moindre mesure, à mettre en œuvre des modèles physiques basés sur des théories pré-établies, en les confrontant aux données. Ainsi, dans tous les cas, modèles et données jouent des rôles fondamentaux et complémentaires.<br /><br />Données acoustiques et articulatoires – dispositifs expérimentaux. Nous avons utilisé ou développé un certain nombre de techniques expérimentales de mesure de paramètres liés à la production de la parole : banc de mesure de la fonction de transfert acoustique du conduit vocal, masque pneumotachométrique pour la mesure de l'écoulement et des pressions de l'air dans le conduit vocal, cinéradiographie et articulographie électromagnétique pour l'étude du mouvement, imagerie IRM pour la caractérisation tridimensionnelle des articulateurs, vidéo pour les mesures tridimensionnelles de lèvres et de visage. Un ensemble précieux de données articulatoires et acoustiques complémentaires a ainsi été recueilli, sur quelques sujets de référence prononçant, dans des conditions maîtrisées, les mêmes corpus représentatifs de l'ensemble des articulations de la langue. Cette démarche orientée sujet offre ainsi la possibilité de disposer, pour le même phénomène (un sujet et une articulation), de données qui ne peuvent être acquises qu'avec des dispositifs expérimentaux impossibles à mettre en œuvre au cours d'une même expérience, comme par exemple la cinéradiographie et le masque pneumo¬tachographique.<br /><br />Modèles articulatoires et acoustiques. <br />Nous avons ainsi développé des modèles articulatoires linéaires de conduit vocal, de langue ou de velum, médiosagittaux ou tridimensionnels, pilotés par les degrés de liberté articulatoires extraits par analyse en composantes linéaires des données. Des degrés de liberté tout à fait similaires ont pu être identifiés pour les différents locuteurs, même si ces locuteurs utilisent des stratégies de contrôle parfois assez différentes. La décomposition selon ces degrés de liberté des gestes articulatoires présents dans certaines séquences Voyelle – Consonne – Voyelle (VCV) a dévoilé des stratégies de compensation entre articulateurs qui n'auraient pas été lisibles directement sur les contours sagittaux bruts. Des stratégies de synergies entre langue et mâchoire ont également pu être mises en évidence. Par ailleurs, nous avons mis en œuvre un ensemble de modèles d'écoulement d'air, de sources acoustiques de voisement et de bruit de friction, et de propagation et rayonnement acoustique dans les domaines temporels et/ou fréquentiels. Nous avons ainsi pu étudier la coordination précise des gestes glotte / constriction orale nécessaire à la production des consonnes fricatives, en liaison avec les interactions entre sources et conduit vocal.<br /><br />Tête parlante audiovisuelle et synthèse articulatoire<br />Nous avons intégré les modèles mentionnés ci-dessus dans un robot articulatoire anthropomorphique : une tête parlante. Cette tête parlante est donc contrôlée par des paramètres articulatoires supra-laryngés qui pilotent le modèle articulatoire et par des paramètres de contrôle glottique qui déterminent les sources acoustiques en interaction avec le conduit vocal ; elle est finalement capable de fournir un signal audio-visuel de parole cohérent. Nous avons par ailleurs développé des procédures d'inversion, basées sur le concept de robotique de la parole, qui nous ont permis de reconstruire avec une bonne fiabilité les trajectoires des paramètres de contrôle articulatoire à partir de l'acoustique, même si ce problème d'inversion est un problème mal posé a priori. Nous avons ainsi pu réaliser une synthèse articulatoire de séquences VCV contenant les fricatives du français.<br /><br />Perspectives<br />D'un côté, il sera nécessaire de poursuivre le développement et l'amélioration des différents modèles qui constituent la tête parlante. D'autre part, le temps est venu de nous tourner de manière plus approfondie dans le cadre du développement des STIC (Sciences et Technologies de l'Information et de la Communication) et du 6e Programme cadre européen de recherche et de développement technologique européen, vers des applications comme la synthèse articulatoire audiovisuelle, les clones pour les télécommunications, ou encore l'aide à l'apprentissage des langues. <br /><br />Données et modèles en production de parole<br />Le développement de la tête parlante continuera à être basé sur des données expérimentales, l'objectif étant de modéliser tous les articulateurs, afin de générer des fonctions d'aire tridimensionnelles complètes. L'approche de modélisation linéaire sera conservée, en explorant ses limites, mais sans exclure des modèles locaux non-linéaires capables de prendre en compte la déformation des organes qui entrent en contact les uns avec les autres. Cette approche orientée sujet sera par ailleurs étendue à plusieurs locuteurs afin de comparer les stratégies individuelles, et d'en tirer des principes plus généraux. La nécessaire normalisation inter-sujets sera explorée à deux niveaux : conformation anatomique, et stratégies de synergie / compensation articulatoires. Les modèles aérodynamiques et acoustiques devront être développés pour prendre en compte les modes transversaux nécessaires pour les consonnes fricatives, le couplage avec les cavités nasales pour les voyelles et consonnes nasales, et la génération des bruits de relâchement pour les consonnes occlusives. Par ailleurs, nous explorerons les degrés de liberté des articulateurs en relation avec l'anatomie, et nous déterminerons les espaces de réalisation des différents phonèmes sous forme d'espaces de réalisation de cibles spatio-temporelles aux niveaux articulatoire, géométrique, aérodynamique, et acoustique, pour différentes conditions d'élocution, ce qui nous permettra d'aborder l'étude de la variabilité de la parole.<br /><br />Têtes parlantes et applications<br />Un certain nombre d'applications des têtes parlantes peuvent être envisagées. L'un des intérêt de la tête parlante réside dans la possibilité de réalité augmentée qu'elle offre : en affichant la peau et certains articulateurs de manière semi-transparente, ou en utilisant des techniques d'écorché, il est possible de montrer des articulateurs cachés dans des conditions normales d'élocution. L'apprentissage de la prononciation des langues étrangères pourrait bénéficier de ces propriétés : en effet montrer à un apprenant les mouvements articulatoires qu'il doit effectuer pour produire un son fait partie des stratégies pédagogiques intéressantes ; il sera donc nécessaire d'évaluer la tête parlante à ce niveau, en déterminant les modes de présentation les plus efficaces. De manière similaire, nous envisageons d'utiliser la tête parlante dans le cadre de la réhabilitation des déficients auditifs. Par ailleurs, la tête parlante et l'ensemble des données articulatoires et acoustiques qui ont été progressivement accumulées permettent d'envisager le développement d'un système de synthèse articulatoire audiovisuelle à partir du texte. Enfin, dans le domaine des télécommunications, il sera possible à tout locuteur auquel un clone aura été adapté à partir d'un clone générique d'intervenir dans une visioconférence par l'intermédiaire de ce clone, avec les avantages d'une réduction considérable de la bande passante nécessaire à l'image et d'une représentation complète tridimensionnelle de la tête du locuteur.
|
216 |
Modélisations polynomiales des signaux ECG. Application à la compression.Tchiotsop, Daniel 15 November 2007 (has links) (PDF)
La compression des signaux ECG trouve encore plus d'importance avec le développement de la télémédecine. En effet, la compression permet de réduire considérablement les coûts de la transmission des informations médicales à travers les canaux de télécommunication. Notre objectif dans ce travail de thèse est d'élaborer des nouvelles méthodes de compression des signaux ECG à base des polynômes orthogonaux. Pour commencer, nous avons étudié les caractéristiques des signaux ECG, ainsi que différentes opérations de traitements souvent appliquées à ce signal. Nous avons aussi décrit de façon exhaustive et comparative, les algorithmes existants de compression des signaux ECG, en insistant sur ceux à base des approximations et interpolations polynomiales. Nous avons abordé par la suite, les fondements théoriques des polynômes orthogonaux, en étudiant successivement leur nature mathématique, les nombreuses et intéressantes propriétés qu'ils disposent et aussi les caractéristiques de quelques uns de ces polynômes. La modélisation polynomiale du signal ECG consiste d'abord à segmenter ce signal en cycles cardiaques après détection des complexes QRS, ensuite, on devra décomposer dans des bases polynomiales, les fenêtres de signaux obtenues après la segmentation. Les coefficients produits par la décomposition sont utilisés pour synthétiser les segments de signaux dans la phase de reconstruction. La compression revient à utiliser un petit nombre de coefficients pour représenter un segment de signal constitué d'un grand nombre d'échantillons. Nos expérimentations ont établi que les polynômes de Laguerre et les polynômes d'Hermite ne conduisaient pas à une bonne reconstruction du signal ECG. Par contre, les polynômes de Legendre et les polynômes de Tchebychev ont donné des résultats intéressants. En conséquence, nous concevons notre premier algorithme de compression de l'ECG en utilisant les polynômes de Jacobi. Lorsqu'on optimise cet algorithme en supprimant les effets de bords, il dévient universel et n'est plus dédié à la compression des seuls signaux ECG. Bien qu'individuellement, ni les polynômes de Laguerre, ni les fonctions d'Hermite ne permettent une bonne modélisation des segments du signal ECG, nous avons imaginé l'association des deux systèmes de fonctions pour représenter un cycle cardiaque. Le segment de l'ECG correspondant à un cycle cardiaque est scindé en deux parties dans ce cas: la ligne isoélectrique qu'on décompose en séries de polynômes de Laguerre et les ondes P-QRS-T modélisées par les fonctions d'Hermite. On obtient un second algorithme de compression des signaux ECG robuste et performant.
|
217 |
Traitement des signaux pour la détection de mines antipersonnelPotin, Delphine 14 May 2007 (has links) (PDF)
La multiplication des conflits de part le monde a eu pour principale conséquence de disséminer des millions de mines antipersonnel qui mettent en danger la vie des populations et constituent une entrave au développement économique des régions concernées. Dans ce mémoire, de nouvelles techniques de traitement du signal sont proposées pour la détection des mines antipersonnel dans les données enregistrées par un GPR (Ground Penetrating Radar). Deux filtres numériques sont tout d'abord conçus pour réduire le clutter, qui constitue un ensemble de phénomènes indésirables, dans les données de type Bscan et Cscan fournies par le GPR. Ces deux types de données représentent respectivement des images de tranches verticales et horizontales du sous-sol. La conception des filtres nécessite une modélisation géométrique du clutter et d'une signature de mine, pour chaque type de données, suivie d'une analyse spectrale permettant de définir le gabarit du filtre idéal. Ensuite, une nouvelle méthode de détection, basée sur une technique de détection de ruptures non paramétrique, est proposée afin de localiser automatiquement les réponses des mines antipersonnel sur des données Bscan. La méthode consiste à rechercher les ruptures spatiales suivant la direction des mesures afin de détecter les positions horizontales des mines et les ruptures suivant l'axe temporel afin de détecter les temps de réponse des mines. Une méthode de détection, basée sur l'extraction de contours fermés, est également proposée pour localiser les réponses des mines sur des données Cscan. Les performances de ces deux méthodes de détection sont évaluées par le calcul de probabilité de détection et de fausses alarmes.
|
218 |
Détection en Environnement non GaussienJay, Emmanuelle 14 June 2002 (has links) (PDF)
Les échos radar provenant des diverses réflexions du signal émis sur les éléments de l'environnement (le fouillis) ont longtemps été modélisés par des vecteurs Gaussiens. La procédure optimale de détection se résumait alors en la mise en oeuvre du filtre adapté classique.<br />Avec l'évolution technologique des systèmes radar, la nature réelle du fouillis s'est révélée ne plus être Gaussienne. Bien que l'optimalité du filtre adapté soit mise en défaut dans pareils cas, des techniques TFAC (Taux de Fausses Alarmes Constant) ont été proposées pour ce détecteur, dans le but d'adapter la valeur du seuil de détection aux multiples variations locales du fouillis. Malgré leur diversité, ces techniques se sont avérées n'être ni robustes ni optimales dans ces situations.<br />A partir de la modélisation du fouillis par des processus complexes non-Gaussiens, tels les SIRP (Spherically Invariant Random Process), des structures optimales de détection cohérente ont pu être déterminées. Ces modèles englobent de nombreuses lois non-Gaussiennes, comme la K-distribution ou la loi de Weibull, et sont reconnus dans la littérature pour modéliser de manière pertinente de nombreuses situations expérimentales. Dans le but d'identifier la loi de leur composante caractéristique qu'est la texture, sans a priori statistique sur le modèle, nous proposons, dans cette thèse, d'aborder le problème par une approche bayésienne. <br />Deux nouvelles méthodes d'estimation de la loi de la texture en découlent : la première est une méthode paramétrique, basée sur une approximation de Padé de la fonction génératrice de moments, et la seconde résulte d'une estimation Monte Carlo. Ces estimations sont réalisées sur des données de fouillis de référence et donnent lieu à deux nouvelles stratégies de détection optimales, respectivement nommées PEOD (Padé Estimated Optimum Detector) et BORD (Bayesian Optimum Radar Detector). L'expression asymptotique du BORD (convergence en loi), appelée le "BORD Asymptotique", est établie ainsi que sa loi. Ce dernier résultat permet d'accéder aux performances théoriques optimales du BORD Asymptotique qui s'appliquent également au BORD dans le cas où la matrice de corrélation des données est non singulière.<br />Les performances de détection du BORD et du BORD Asymptotique sont évaluées sur des données expérimentales de fouillis de sol. Les résultats obtenus valident aussi bien la pertinence du modèle SIRP pour le fouillis que l'optimalité et la capacité d'adaptation du BORD à tout type d'environnement.
|
219 |
Systèmes de fusion pour la segmentation hors-ligne de signaux GPS multi-porteusesBoutoille, Stanislas 27 March 2007 (has links) (PDF)
Le système de positionnement GPS (Global Positioning System) permet à tout utilisateur de déterminer sa position sur la Terre. Un récepteur calcule les temps de propagation que mettent des ondes électromagnétiques émises par une constellation de satellites pour lui parvenir. L'estimation de ce temps de propagation est obtenue grâce à un signal discriminant, construit à partir de la corrélation des codes du signal reçu avec les codes générés par le récepteur. Actuellement, ces ondes ne sont émises que sur une unique fréquence porteuse pour une utilisation civile. Avec l'évolution future du système GPS, ainsi que la mise en place du système européen Galileo, plusieurs fréquences et donc plusieurs mesures de discriminants seront disponibles. Le travail présenté dans cette thèse a pour objet l'étude et la mise en oeuvre de méthodes de fusion appliquées à la segmentation hors-ligne des discriminants de code. Pour cela, plusieurs approches de segmentations bayésiennes sont étudiées. Une première technique de fusion hybride permet de déterminer la présence d'une rupture de stationnarité dans une fenêtre d'observation et sur plusieurs signaux. La seconde méthode de fusion, hors-ligne et multi-ruptures, permet de déterminer les ruptures de linéarités de signaux grâce à la minimisation d'une fonction de contraste pénalisée. Ces méthodes sont ensuite appliquées à l'estimation de la distance entre un satellite et un récepteur, et évaluées sur signaux réels pour le calcul de la position d'un récepteur toutes les millisecondes.
|
220 |
Analyse statistique de textures directionnelles. Application à la caractérisation de matériaux composites.Da Costa, Jean-Pierre 21 December 2001 (has links) (PDF)
Ce mémoire a pour objet l'analyse d'images de textures directionnelles, c'est à dire composées d'éléments structuraux orientés. Plus précisément, nous montrons que ces textures peuvent être décrites au moyen du champ de leurs orientations locales. Plusieurs points sont abordés.<br />Tout d'abord, nous proposons une approche originale pour la conception d'opérateurs de mesure d'une orientation. Deux types d'opérateurs sont introduits : le gradient et le vallonnement, qui s'appliquent respectivement sur les régions pentées et sur les lignes de crête (et de vallée). Guidés par le respect du caractère local et le souci de robustesse et de précision, nous présentons une procédure d'optimisation de ces deux opérateurs vis à vis du biais et de la sensibilité au bruit. Une règle de combinaison des deux opérateurs permet d'associer leurs avantages respectifs et de garantir une estimation correcte en tout point d'une image. Leurs performances sont étudiées sur des textures synthétiques et naturelles.<br />Nous définissons ensuite une méthode statistique pour la description des textures directionnelles. Elle se fonde sur les propriétés du second ordre du champ des orientations locales. Plus précisément, nous nous appuyons sur les histogrammes des différences spatiales d'orientations et proposons d'utiliser ces statistiques pour la construction de cartes d'interaction. Ces cartes sont appliquées d'une part à la caractérisation de textures naturelles quasi périodiques et d'autre part à la description de textures de matériaux composites.<br />Le dernier point abordé concerne la caractérisation d'images issues de l'observation de matériaux composites en microscopie électronique en transmission. Ces images, dites de franges de réseau, sont composées de primitives texturales (les franges) longiformes et ondulées. L'approche suivie pour leur caractérisation est une approche structurale. Elle consiste en premier lieu à identifier les primitives puis à les décrire en termes de longueur et d'ondulation. La caractérisation de l'ondulation repose sur le spectre d'ondulation, c'est à dire le spectre de l'orientation calculée le long des primitives texturales. Pour finir, nous développons un modèle stochastique de formation de ces textures qui explique les résultats expérimentaux obtenus.
|
Page generated in 0.0848 seconds