• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Contribution aux traitements des incertitudes : application à la métrologie des nanoparticules en phase aérosol. / Contribution to the treatment of uncertainties. : Application to the metrology of nanoparticles under aerosol-phase.

Coquelin, Loïc 04 October 2013 (has links)
Cette thèse a pour objectif de fournir aux utilisateurs de SMPS (Scanning Mobility Particle Sizer) une méthodologie pour calculer les incertitudes associées à l’estimation de la granulométrie en nombre des aérosols. Le résultat de mesure est le comptage des particules de l’aérosol en fonction du temps. Estimer la granulométrie en nombre de l’aérosol à partir des mesures CNC revient à considérer un problème inverse sous incertitudes.Une revue des modèles existants est présentée dans le premier chapitre. Le modèle physique retenu fait consensus dans le domaine d’application.Dans le deuxième chapitre, un critère pour l’estimation de la granulométrie en nombre qui couple les techniques de régularisation et de la décomposition sur une base d’ondelettes est décrit.La nouveauté des travaux présentés réside dans l’estimation de granulométries présentant à la fois des variations lentes et des variations rapides. L’approche multi-échelle que nous proposons pour la définition du nouveau critère de régularisation permet d’ajuster les poids de la régularisation sur chaque échelle du signal. La méthode est alors comparée avec la régularisation classique. Les résultats montrent que les estimations proposées par la nouvelle méthode sont meilleures (au sens du MSE) que les estimations classiques.Le dernier chapitre de cette thèse traite de la propagation de l’incertitude à travers le modèle d’inversiondes données. C’est une première dans le domaine d’application car aucune incertitude n’est associée actuellement au résultat de mesure. Contrairement à l’approche classique qui utilise un modèle fixe pour l’inversion en faisant porter l’incertitude sur les entrées, nous proposons d’utiliser un modèle d’inversion aléatoire (tirage Monte-Carlo) afin d’intégrer les erreurs de modèle. Une estimation moyenne de la granulométrie en nombre de l’aérosol et une incertitude associée sous forme d’une région de confiance à 95 % est finalement présentée sur quelques mesures réelles. / This thesis aims to provide SMPS (Scanning Mobility Particle Sizer) users with a methodology to compute the uncertainties associated with the estimation of aerosol size distributions. Recovering aerosol size distribution yields to consider an inverse problem under uncertainty.The first chapter of his thesis presents a review of physical models and it shows that competitive theories exist to model the physic.A new criterion that couples regularization techniques and decomposition on a wavelet basis is described in chapter 2 to perform the estimation of the size distribution.Main improvement of this work is brought when size distributions to be estimated show both broad and sharp profiles. The multi-scale approach helps to adjust the weights of the regularization on each scale of the signal. The method is then tested against common regularization and shows better estimates (in terms of the mean square error).Last chapter of this thesis deals with the propagation of the uncertainty through the data inversion process.Results from SMPS measurements are not given with any uncertainty at this time so providing end-users with an uncertainty is already a real improvement. Common approach is to consider a fixed physical model and to model the inputs (particle count) as random. We choose to consider both the physical model as well as the inputs as random to account for the model error. The result is expressed as a mean estimate of the size distribution with a 95% coverage region. The all methodology is finally tested on real measurements.
262

Réduction de dimension en apprentissage supervisé : applications à l’étude de l’activité cérébrale

Vezard, Laurent 13 December 2013 (has links)
L'objectif de ce travail est de développer une méthode capable de déterminer automatiquement l'état de vigilance chez l'humain. Les applications envisageables sont multiples. Une telle méthode permettrait par exemple de détecter automatiquement toute modification de l'état de vigilance chez des personnes qui doivent rester dans un état de vigilance élevée (par exemple, les pilotes ou les personnels médicaux).Dans ce travail, les signaux électroencéphalographiques (EEG) de 58 sujets dans deux états de vigilance distincts (état de vigilance haut et bas) ont été recueillis à l'aide d'un casque à 58 électrodes posant ainsi un problème de classification binaire. Afin d'envisager une utilisation de ces travaux sur une application du monde réel, il est nécessaire de construire une méthode de prédiction qui ne nécessite qu'un faible nombre de capteurs (électrodes) afin de limiter le temps de pose du casque à électrodes ainsi que son coût. Au cours de ces travaux de thèse, plusieurs approches ont été développées. Une première approche propose d'utiliser un pré-traitement des signaux EEG basé sur l'utilisation d'une décomposition en ondelettes discrète des signaux EEG afin d'extraire les contributions de chaque fréquence dans le signal. Une régression linéaire est alors effectuée sur les contributions de certaines de ces fréquences et la pente de cette régression est conservée. Un algorithme génétique est utilisé afin d'optimiser le choix des fréquences sur lesquelles la régression est réalisée. De plus, cet algorithme génétique permet la sélection d'une unique électrode.Une seconde approche est basée sur l'utilisation du Common Spatial Pattern (CSP). Cette méthode permet de définir des combinaisons linéaires des variables initiales afin d'obtenir des signaux synthétiques utiles pour la tâche de classification. Dans ce travail, un algorithme génétique ainsi que des méthodes de recherche séquentielle ont été proposés afin de sélectionner un sous groupes d'électrodes à conserver lors du calcul du CSP.Enfin, un algorithme de CSP parcimonieux basé sur l'utilisation des travaux existant sur l'analyse en composantes principales parcimonieuse a été développé.Les résultats de chacune des approches sont détaillés et comparés. Ces travaux ont aboutit sur l'obtention d'un modèle permettant de prédire de manière rapide et fiable l'état de vigilance d'un nouvel individu. / The aim of this work is to develop a method able to automatically determine the alertness state of humans. Such a task is relevant to diverse domains, where a person is expected or required to be in a particular state. For instance, pilots, security personnel or medical personnel are expected to be in a highly alert state, and this method could help to confirm this or detect possible problems. In this work, electroencephalographic data (EEG) of 58 subjects in two distinct vigilance states (state of high and low alertness) were collected via a cap with $58$ electrodes. Thus, a binary classification problem is considered. In order to use of this work on a real-world applications, it is necessary to build a prediction method that requires only a small number of sensors (electrodes) in order to minimize the time needed by the cap installation and the cap cost. During this thesis, several approaches have been developed. A first approach involves use of a pre-processing method for EEG signals based on the use of a discrete wavelet decomposition in order to extract the energy of each frequency in the signal. Then, a linear regression is performed on the energies of some of these frequencies and the slope of this regression is retained. A genetic algorithm (GA) is used to optimize the selection of frequencies on which the regression is performed. Moreover, the GA is used to select a single electrode .A second approach is based on the use of the Common Spatial Pattern method (CSP). This method allows to define linear combinations of the original variables to obtain useful synthetic signals for the task classification. In this work, a GA and a sequential search method have been proposed to select a subset of electrode which are keep in the CSP calculation.Finally, a sparse CSP algorithm, based on the use of existing work in the sparse principal component analysis, was developed.The results of the different approaches are detailed and compared. This work allows us to obtaining a reliable model to obtain fast prediction of the alertness of a new individual.
263

Un système intégré d'acquisition 3D multispectral : acquisition, codage et compression des données / A 3D multispectral integrated acquisition system : acquisition, data coding and compression

Delcourt, Jonathan 29 October 2010 (has links)
Nous avons développé un système intégré permettant l'acquisition simultanée de la forme 3D ainsi que de la réflectance des surfaces des objets scannés. Nous appelons ce système un scanner 3D multispectral du fait qu’il combine, dans un couple stéréoscopique, une caméra multispectrale et un système projecteur de lumière structurée. Nous voyons plusieurs possibilités d’application pour un tel système mais nous mettons en avant des applications dans le domaine de l’archivage et la diffusion numériques des objets du patrimoine. Dans le manuscrit, nous présentons d’abord ce système ainsi que tous les calibrages et traitements nécessaires à sa mise en oeuvre. Ensuite, une fois que le système est fonctionnel, les données qui en sont générées sont riches d’informations, hétérogènes (maillage + réflectances, etc.) et surtout occupent beaucoup de place. Ce fait rend problématiques le stockage et la transmission, notamment pour des applications en ligne de type musée virtuel. Pour cette raison, nous étudions les différentes possibilités de représentation et de codage des données acquises par ce système pour en adopter la plus pertinente. Puis nous examinons les stratégies les plus appropriées à la compression de telles données, sans toutefois perdre la généralité sur d’autres données (type satellitaire). Nous réalisons un benchmark des stratégies de compression en proposant un cadre d’évaluation et des améliorations sur les stratégies classiques existantes. Cette première étude nous permettra de proposer une approche adaptative qui se révélera plus efficace pour la compression et notamment dans le cadre de la stratégie que nous appelons Full-3D. / We have developed an integrated system permitting the simultaneous acquisition of the 3D shape and the spectral spectral reflectance of scanned object surfaces. We call this system a 3D multispectral scanner because it combines within a stereopair, a multispectral video camera and a structured light projector. We see several application possibilities for a such acquisition system but we want to highlight applications in the field of digital archiving and broadcasting for heritage objects. In the manuscript we first introduce the acquisition system and its necessary calibrations and treatments needed for his use. Then, once the acquisition system is functional, data that are generated are rich in information, heterogeneous (mesh + reflectance, etc.) and in particular require lots of memory space. This fact makes data storage and transmission problematic, especially for applications like on line virtual museum. For this reason we study the different possibilities of representation and coding of data acquired by this system to adopt the most appropriate one. Then we examinate the most appropriate strategies to compress such data, without lost the generality on other data (satellite type). We perform a benchmark of compression strategies by providing an evaluation framework and improvements on existing conventional strategies. This first study will allow us to propose an adaptive approach that will be most effective for compression and particularly in the context of the compression strategy that we call Full-3D.
264

Nouvelle méthode de traitement des potentiels évoqués visuels pour l’estimation de l’acuité visuelle chez le jeune enfant / New signal processing method of visual evoked potentials for visual acuity assessment in infants

Cabon, Maelenn 27 April 2016 (has links)
L’examen PEV (Potentiel Évoqué Visuel) avec stimulation par balayage de fréquence spatiale est reconnu pour l’estimation de l’acuité visuelle (AV) chez le jeune enfant en raison de son objectivité et de sa faible durée d’examen. Néanmoins, plusieurs études ont souligné la variabilité des réponses et pour certains cas, des atténuations à certaines fréquences spatiales. Dans cette thèse, nous démontrons la relation entre la phase du signal et ces atténuations lorsque la transformée de Fourier à court terme (TFCT) est utilisée. Nous présentons une nouvelle méthode de traitement dusignal qui prend en compte les variations de phase, basée sur la transformée en ondelettes discrète stationnaire (TODS) pour le débruiter le signal et sur le filtre de Kalman étendu (FKE) pour l’estimer la réponse du système visuel. La nouvelle méthode est testée sur deux ensembles d’examens. Le premier provient du CHRU de Lille et le second de notre laboratoire. La TODS améliore le rapport signal sur bruit de 10.9 dB en moyenne (IC95 [6.3,15.6]) et réduit les artéfacts dus aux clignements et aux mouvements. Le FKE permet une estimation de la réponse du système visuel plus précise. Grâce à la prise en compte de la phase du signal, la forme de la réponse présente moins de variations. La dispersion entre les balayages est divisée par 1.4 en comparaison à la méthode actuelle. La corrélation entre l’AV ETDRS et l’estimation de l’acuité visuelle de la nouvelle méthode est meilleure (indice de Spearman=0.64, valeur-p=6 10-4, écart-type=0.34 logMAR) que celle de la méthode actuelle (indice de Spearman=0.57, valeur-p=1.1 10-3, écart type=0.45 logMAR). / Sweep VEP (visual evoked potentials) is known to be a valuable exam to estimate visual acuity (VA) in infants because of its objectivity and its rapidity. Nevertheless, several studies have pointed out the variability of the responses and sometimes attenuations at some spatial frequencies called “notches”. In this thesis, we demonstrate a relationship between the phase of the signal and these attenuations when the short-time discrete Fourier transform (STDFT) is used. We introduce a new method of signal processing which takes in account the phase shifting, based on stationary discrete wavelet transform (SDWT) for the denoising and on extended Kalman filtering (EKF) for the estimation of the visual system response. The new method is tested on two sets of exams. The first one comes from the CHRU of Lille and the second one from our laboratory. The SDWT improves the signal to noise ratio on average by 10.9 dB (CI95 [6.3,15.6]) and reduces artefacts caused by blinking or eyes movements. Thanks to the EKF, the estimation of the response of the visual system is more precise. By taking into account the phase of the signal, the shape of the reponse presentsless variations. The dispersion among the sweeps is divided by 1.4 compared to the DSTFT. The correlation between ETDRS VA and the VA estimation of the new method (Spearman’s correlation= 0.64, p-value=6 10-4, root mean squared error (RMSE)=0.34 logMAR) is better than that of the current method (Spearman’s correlation=0.58, p-value=1.1 10-3, RMSE=0.45 logMAR).
265

Graphes d'ondelettes pour la recherche d'ondes gravitationnelles : application aux binaires excentriques de trous noirs / Wavelet graphs for the detection of gravitational waves : application to eccentric binary black holes

Bacon, Philippe 28 September 2018 (has links)
En décembre 2015, les détecteurs LIGO ont pour la première fois détecté une onde gravitationnelle émise lors de la coalescence d'une paire de trous noirs il y a de cela 1.3 milliards d'années. Une telle première dans la toute nouvelle astronomie gravitationnelle a été suivie par plusieurs autres observations. La dernière en date est la fusion de deux étoiles à neutron dont la contrepartie électromagnétique a pu être observée par plusieurs observatoires à travers le monde. A cette occasion, les ondes gravitationnelles se sont inscrites dans l'astronomie multi-messager. Ces observations ont été rendues possibles par des techniques avancées d'analyse de données. Grâce à elles, la faible empreinte laissée par une onde gravitationnelle dans les données de détecteurs peut être isolée. Le travail de cette thèse est dédié au développement d'une technique de détection d'ondes gravitationnelles ne reposant que sur une connaissance minimale du signal à isoler. Le développement de cette méthode consiste plus précisément à introduire une information sur la phase du signal d'onde gravitationnelle selon un contexte astrophysique déterminé. La première partie de cette thèse est consacrée à la présentation de la méthode. Dans une seconde partie cette méthode est appliquée à la recherche de signaux d'ondes gravitationnelles en provenance de systèmes binaires de trous noirs de masse stellaire dans du bruit Gaussien. Puis l'étude est répétée dans du bruit de détecteurs collecté pendant la première période de prise de données. Enfin la troisième partie est dédiée à la recherche de binaires de trous noirs dont l'orbite montre un écart à la géométrie circulaire, ce qui complexifie la morphologie du signal. De telles orbites sont qualifiées d'excentriques. Cette troisième analyse permet d'établir de premiers résultats quant à la méthode proposée lorsque le signal d'intérêt est peu connu / In december 2015 the LIGO detectors have first detected a gravitational wave emitted by a pair of coalescing black holes 1.3 billion years ago. Many more observations have been realised since then and heralded gravitational waves as a new messenger in astronomy. The latest detection is the merge of two neutron stars whose electromagnetic counterpart has been followed up by many observatories around the globe. These direct observations have been made possible by the developpement of advanced data analysis techniques. With them the weak gravitational wave inprint in detectors may be recovered. The realised work during this thesis aims at developping an existing gravitational wave detection method which relies on minimal assumptions of the targeted signal. It more precisely consists in introducing an information on the signal phase depending on the astrophysical context. The first part is dedicated to a presentation of the method. The second one presents the results obtained when applying the method to the search of stellar mass binary black holes in simulated Gaussian noise data. The study is repeated in real instrumental data collected during the first run of LIGO. Finally, the third part presents the method applied in the search for eccentric binary black holes. Their orbit exhibits a deviation from the quasi-circular orbit case considered so far and thus complicates the signal morphology. This third analysis establishes first results with the proposed method in the case of a poorly modeled signal
266

Méthodes d'analyse de texture pour la cartographie d'occupations du sol par télédetection très haute résolution : application à la fôret, la vigne et les parcs ostréicoles / Texture analysis approach for soil occupation mapping using very high resolution remote sensing data : application to forest, vineyards and oyster parks

Regniers, Olivier 11 December 2014 (has links)
Le travail présenté dans cette thèse a pour objectif d’évaluer le potentiel de modèles probabilistes multivariés appliqués sur les sous-bandes d’une décomposition en ondelettes pour la classification d’images de télédétection optiques à très haute résolution spatiale. Trois thématiques principales ont été investiguées dans ce travail : la différenciation de classes d’âge de peuplements de pins maritimes, la détection de parcelles viticoles et la détection de parcs ostréicoles. Une contribution originale concerne la proposition d’une chaîne traitement pour une classification supervisée orientée objet se basant sur des mesures de similarité adaptées au contexte de modélisation probabiliste. Celle-ci implique la création d’une base de données de patchs de texture pour l’apprentissage et l’utilisation d’une pré-segmentation de l’image à classifier. Les modèles probabilistes multivariés testés ont tout d’abord été évalués dans une procédure d’indexation d’images. Les modèles les plus performants identifiés par cette procédure ont été ensuite appliqués dans la chaîne de traitement proposée. Dans les trois thématiques explorées, les modèles multivariés ont révélé des capacités remarquables de représentation de la texture et ont permis d’obtenir une qualité de classification supérieure à celle obtenue par la méthode des matrices de co-occurrence. Ces résultats démontrent l’intérêt de la représentation multi-échelles et multi-orientations de la texture dans l’espace transformé en ondelettes et la pertinence de la modélisation multivariée des coefficients d’ondelettes issus de cette décomposition. / The prime objective of this thesis is to evaluate the potential of multivariate probabilistic models applied on wavelet subbands for the classification of very high resolution remote sensing optical data. Three main applications are investigated in this study: the differentiation of age classes of maritime pine forest stands, the detection of vineyards and the detection of oyster fields. One main contribution includes the proposal of an original supervised and object-oriented classification scheme based on similarity measurements adapted to the context of probabilistic modeling. This scheme involves the creation of a database of texture patches for the learning step and a pre-segmentation of the image to classify. The tested multivariate models were first evaluated in an image retrieval framework. The best models identified in this procedure were then applied in the proposed image processing scheme. In the three proposed thematic applications, multivariate models revealed remarkable abilities to represent the texture and reached higher classification accuracies than the method based on co-occurrence matrices. These results confirm the interest of the multi-scale and multi-orientation representation of textures through the wavelet transform, as well as the relevance of the multivariate modeling of wavelet coefficients
267

Cascades log-infiniment divisibles et analyse multiresolution. Application à l'étude des intermittences en turbulence.

Chainais, Pierre 30 November 2001 (has links) (PDF)
Les cascades log-infiniment divisibles fournissent un cadre général à l'étude de la propriété d' invariance d'échelle. Nous introduisons ces objets en décrivant l'évolution historique des différents modèles proposés pour décrire le phénomène d'intermittence statistique en turbulence. Nous nous appliquons alors à préciser une définition formelle des cascades log-infiniment divisibles. Nous remplaçons aussi les accroissements, usuels en turbulence, par les coefficients d'une transformée en ondelettes associée à une analyse multirésolution, outil dédié à l'analyse temps-échelle. Une réflexion approfondie sur la signification du formalisme nous amène à démontrer sa flexibilité pour la modélisation, ainsi que sa richesse en lien avec les cascades multiplicatives, les processus de Markov, l'équation de Langevin, l'équation de Fokker-Planck...Grâce à l'étude des cascades log-Poisson composées, nous proposons une vision originale du phénomène d'intermittence statistique. Ensuite, des estimateurs des exposants de lois d'échelle (éventuellement relatives) sont étudiés en insistant sur la correction du biais et la détermination d'intervalles de confiance. Nous les appliquons à des données de télétrafic informatique. Nous expliquons pourquoi une procédure usuelle d'estimation du spectre multifractal appliquée aux mouvements linéaires stables fractionnaires risque de mener à une méprise. Enfin, le lien entre intermittence statistique et intermittence spatio-temporelle (structures cohérentes) en turbulence est étudié à partir de l'enregistrement de signaux de vitesse et de pression conjointement en espace et en temps dans un écoulement turbulent. De fortes dépressions associées à des tourbillons filamentaires sont détectées. Une analyse statistique des coefficients d'ondelette de la vitesse conditionnée à ces événements nous permet de décrire l'influence de ces structures cohérentes à différents nombres de Reynolds.
268

Recalage de signaux et analyse de variance fonctionnelle par ondelettes. Applications au domaine biomédical

Bigot, Jérémie 02 September 2003 (has links) (PDF)
Cette thèse porte sur le recalage de signaux à partir de l'alignement de leurs landmarks, pour la comparaison d'ensembles de courbes ou d'images. Après une revue des techniques de recalage qui existent dans la littérature, une approche nonparamétrique est proposée pour estimer les landmarks d'une fonction 1D bruitée à partir des lignes de maxima d'ondelettes et de zero-crossings de sa transformée continue en ondelettes. Un nouvel outil, l'intensité structurelle, est introduit pour représenter les positions des points caractéristiques d'une courbe sous forme d'une densité de probabilité. Cette méthode conduit à une nouvelle technique de mise en correspondance automatique des landmarks de deux fonctions. L'approche envisagée dans le cas 1D est étendue au cas 2D en utilisant des décompositions en wedgelets/platelets pour détecter les contours d'une image. De nombreuses simulations et des problèmes réels d'analyse de variance fonctionnelle servent d'illustration des méthodes proposées.
269

Dynamique cérébrale en neuroimagerie fonctionnelle

Ciuciu, Philippe 10 July 2008 (has links) (PDF)
Mes travaux portent sur l'analyse de la dynamique cérébrale à partir de données de neuro-imagerie fonctionnelle issues d'examens d'Imagerie par Résonance Magnétique fonctionnelle (IRMf). Ils concernent aussi bien l'étude de la dynamique évoquée par un paradigme d'activation cérébrale et celle issue de l'activité spontanée ou de « fond » lorsque le sujet est au repos (resting state). Les algorithmes que j'ai développés s'appuient pour une large partie sur une connaissance explicite du paradigme expérimental mis au point par l'expérimentateur mais aussi prennent place dans une moindre part au sein des méthodes exploratoires, qui n'exploitant pas ces informations issues du paradigme.<br /><br />Ce thème de recherche embrasse à la fois des problèmes bas niveau relatifs à la reconstruction d'images en IRM mais aussi des aspects plus haut niveau qui concernent l'estimation et la sélection de modèles hémodynamiques régionaux non-paramétriques, capables de prendre en compte la variabilité inter-individuelle de la réponse impulsionnelle du système neuro-vasculaire. Les problèmes de reconstruction sont traités à l'aide de méthodes classiques de régularisation dans l'espace image ou des méthodes plus évoluées opérant dans l'espace transformé des coefficients d'ondelette. Les aspects inférentiels haut niveau sont majoritairement abordés dans le cadre des statistiques bayésiennes.
270

Estimation de mouvement et segmentation<br />Partie I : Estimation de mouvement par ondelettes spatio-temporelles adaptées au mouvement.<br />Partie II : Segmentation et estimation de mouvement par modèles de Markov cachés et approche bayésienne dans les domaines direct et ondelette.

Brault, Patrice 29 November 2005 (has links) (PDF)
La première partie de ce mémoire présente une nouvelle vision de l'estimation de mouvement, et donc de la compression, dans les séquences<br />vidéo. D'une part, nous avons choisi d'aborder l'estimation de mouvement à partir de familles d'ondelettes redondantes adaptées à différentes<br />transformations, dont, plus particulièrement, la vitesse. Ces familles, très peu connues, ont déjà été étudiées dans le cadre de la poursuite de<br />cibles. D'autre part, les standards de compression actuels comme MPEG4 prennent en compte une compression objet mais ne calculent toujours que de<br />simples vecteurs de mouvements de ``blocs''. Il nous a paru intéressant de chercher à mettre en oeuvre ces familles d'ondelettes car 1)<br />elle sont construites pour le calcul de paramètres sur plusieurs types de mouvement (rotation, vitesse, accélération) et 2) nous<br />pensons qu'une approche de l'estimation basée sur l'identification de trajectoires d'objets dans une scène est une solution intéressante pour les<br />méthodes futures de compression. En effet nous pensons que l'analyse et la compréhension des mouvements dans une scène est une voie pour des méthodes<br />de compression ``contextuelles'' performantes.<br /><br /><br /><br />La seconde partie présente deux développements concernant la segmentation non-supervisée dans une approche bayésienne. Le premier, destiné à réduire<br />les temps de calcul dans la segmentation de séquences vidéo, est basé sur une mise en oeuvre itérative, simple, de la segmentation. Il nous a aussi<br />permis de mettre une estimation de mouvement basée sur une segmentation ``région'' (voire objet). Le second est destiné à diminuer les temps de<br />segmentation d'images fixes en réalisant la segmentation dans le domaine des ondelettes. Ces deux développements sont basés sur une approche par<br />estimation bayésienne utilisant un modèle de champ aléatoire de Potts-Markov (PMRF) pour les étiquettes des pixels, dans le domaine direct, et pour<br />les coefficients d'ondelettes. Il utilise aussi un algorithme itératif de type MCMC (Markov Chain Monte Carlo) avec échantillonneur de Gibbs.<br />L'approche initiale, directe, utilise un modèle de Potts avec voisinage d'ordre un. Nous avons développé le modèle de Potts pour l'adapter à des<br />voisinages convenant aux orientations privilégiées des sous-bandes d'ondelettes. Ces réalisations apportent, à notre connaissance, des approches<br />nouvelles dans les méthodes de segmentation<br />non-supervisées.

Page generated in 0.0502 seconds