• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 6
  • 3
  • Tagged with
  • 20
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Stratégies de segmentation d'images multicomposantes par analyse d'histogrammes multidimensionnels : Application à des images couleur de coupes histologiques de pommes

Ouattara, Sié 11 December 2009 (has links) (PDF)
Des progrès techniques récents ont permis la mise en oeuvre de capteurs capables de caractériser une scène par un ensemble d'images appelé image multicomposantes (couleur, multispectrale et multisource ou multiprotocole). Les algorithmes de traitement développés en segmentation pour les images monocomposantes ne sont pas directement applicables aux images multicomposantes en raison de leur caractère vectoriel. Dans la littérature, la plupart des travaux s'appuient sur la segmentation d'images multicomposantes par analyse d'histogrammes marginaux en faisant fi de la corrélation existante entre les composantes de l'image ou sur des images requantifiées à cause de la difficulté de manipuler les histogrammes multidimensionnels (nD, n étant le nombre de composantes de l'image) dont le volume de données est considérable. Dans un premier temps, nous avons développé une méthode de segmentation d'images multicomposantes (n ≥ 3) à caractère vectoriel, non supervisée et non paramétrique appelée ImSegHier_nD. Elle repose sur une analyse hiérarchique d'histogrammes nD compacts, une structure de données algorithmique permettant de réduire sans perte de données l'espace mémoire occupé par les histogrammes nD classiques. Les modes sont obtenus grâce à la mise en oeuvre d'un algorithme d'étiquetage en composantes connexes (ECC) adapté à ce type d'histogrammes. L'évaluation de la qualité de segmentation d'ImSegHier_nD relativement à K-means a montré qu'en évaluation supervisée notre approche est meilleure que K-means et inversement en évaluation non supervisée. Les cas de moindres performances de ImSegHier_nD au regard des critères étudiés (Levine-Nazif, Zeboudj, Borsotti et Rosenberger) s'expliquent par l'aspect diffus des histogrammes nD et ont été étudiés pour différentes typologies d'histogrammes. Dans un deuxième temps, pour apporter une réponse plus générale à la problématique de la sur-segmentation engendrée par le caractère diffus des histogrammes nD quand n augmente, nous avons proposé un algorithme d'étiquetage en composantes connexes floues (ECCF) dont nous comparons les résultats sur la classification avec une requantification de l'histogramme. Nous aboutissons ainsi à quatre stratégies de segmentation dérivées d'ImSegHier_nD dont nous comparons les résultats sur des images naturelles et des images de synthèse. Enfin, nous avons appliqué ce travail à l'analyse de coupes histologiques de pommes en microscopie optique. Nos résultats ont mis en évidence la différence entre trois variétés de pommes en lien avec des analyses de texture et de fermeté.
2

Estimation de densité en dimension élevée et classification de courbes

Rouvière, Laurent 18 November 2005 (has links) (PDF)
L'objectif de cette thèse consiste étudier et approfondir des techniques d'estimation de la densité et de classification dans des espaces de dimension élevée. Nous avons choisi de structurer notre travail en trois parties.<br /><br />La première partie, intitulée compléments sur les histogrammes modifiés, est composée de deux chapitres consacrés l'étude d'une famille d'estimateurs non paramétriques de la densité, les histogrammes modifiés, connus pour posséder de bonnes propriétés de convergence au sens des critères de la théorie de l'information. Dans le premier chapitre, ces estimateurs sont envisagés comme des systèmes dynamiques espace d'états de dimension infinie. Le second chapitre est consacré l'étude de ces estimateurs pour des dimensions suprieures un.<br /><br />La deuxième partie de la thèse, intituleé méthodes combinatoires en estimation de la densité, se divise en deux chapitres. Nous nous intéressons dans cette partie aux performances distance finie d'estimateurs de la densité sélectionnés à l'intérieur d'une famille d'estimateurs candidats, dont le cardinal n'est pas nécessairement fini. Dans le premier chapitre, nous étudions les performances de ces méthodes dans le cadre de la sélection des différents paramètres des histogrammes modifiés. Nous poursuivons, dans le deuxième chapitre, par la sélection d'estimateurs à noyau dont le paramètre de lissage s'adapte localement au point d'estimation et aux données.<br /><br />Enfin, la troisième et dernière partie, plus appliquée et indépendante des précédentes, présente une nouvelle méthode permettant de classer des courbes partir d'une décomposition des observations dans des bases d'ondelettes.
3

Histogramme, régressogramme et polygone de fréquences en temps continu

Lejeune, François-Xavier 07 December 2007 (has links) (PDF)
Nos travaux portent sur l'estimation non paramétrique de la densité d'un processus à temps continu, faiblement stationnaire et à valeurs dans Rd lorsqu'une trajectoire est observée continûment sur [0,T]. Dans le premier chapitre, nous étudions les vitesses optimale et suroptimale des convergences L2 et presque sûres ainsi que la normalité asymptotique des estimateurs par histogrammes et polygones de fréquences dans le cadre fortement mélangeant. Le deuxième chapitre est consacré aux vitesses L2 du régressogramme pour estimer la régression quand on observe (Xt,Yt) à valeurs dans RdxRd' sur [0,T]. Le troisième chapitre reprend l'étude dans L2 de l'histogramme et du polygone de fréquences pour des observations discrétisées en introduisant différents schémas de discrétisation. En particulier, nous établissons pour le polygone de fréquences des vitesses de convergence qui sont comparables à celles des estimateurs à noyau. Finalement, des simulations viennent valider nos résultats.
4

Modèles de mélange semi-paramétriques et applications aux tests multiples.

Nguyen, Van Hanh 01 October 2013 (has links) (PDF)
Dans un contexte de test multiple, nous considérons un modèle de mélange semi-paramétrique avec deux composantes. Une composante est supposée connue et correspond à la distribution des p-valeurs sous hypothèse nulle avec probabilité a priori p. L'autre composante f est nonparamétrique et représente la distribution des p-valeurs sous l'hypothèse alternative. Le problème d'estimer les paramètres p et f du modèle apparaît dans les procédures de contrôle du taux de faux positifs (''false discovery rate'' ou FDR). Dans la première partie de cette dissertation, nous étudions l'estimation de la proportion p. Nous discutons de résultats d'efficacité asymptotique et établissons que deux cas différents arrivent suivant que f s'annule ou non surtout un intervalle non-vide. Dans le premier cas (annulation surtout un intervalle), nous présentons des estimateurs qui convergent \' la vitesse paramétrique, calculons la variance asymptotique optimale et conjecturons qu'aucun estimateur n'est asymptotiquement efficace (i.e atteint la variance asymptotique optimale). Dans le deuxième cas, nous prouvons que le risque quadratique de n'importe quel estimateur ne converge pas à la vitesse paramétrique. Dans la deuxième partie de la dissertation, nous nous concentrons sur l'estimation de la composante inconnue nonparamétrique f dans le mélange, en comptant sur un estimateur préliminaire de p. Nous proposons et étudions les propriétés asymptotiques de deux estimateurs différents pour cette composante inconnue. Le premier estimateur est un estimateur à noyau avec poids aléatoires. Nous établissons une borne supérieure pour son risque quadratique ponctuel, en montrant une vitesse de convergence nonparamétrique classique sur une classe de Holder. Le deuxième estimateur est un estimateur du maximum de vraisemblance régularisée. Il est calculé par un algorithme itératif, pour lequel nous établissons une propriété de décroissance d'un critère. De plus, ces estimateurs sont utilisés dans une procédure de test multiple pour estimer le taux local de faux positifs (''local false discovery rate'' ou lfdr).
5

Estimation du mouvement apparent majoritaire dans une séquence d'images vidéo par accumulation de votes bimodaux sur un histogramme approché

Comby, Frédéric 19 December 2001 (has links) (PDF)
Ce manuscrit présente une approche particulièrement novatrice du problème d'estimation du mouvement apparent dominant dans une séquence d'images. Elle se démarque des approches classiques apparentées à la corrélation ou au flot optique par le fait que les hypothèses sur les relations entre le mouvement apparent et les variations du niveau de gris des pixels de l'image influent peu sur la robustesse du procédé. L'originalité de ce travail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécis et de l'incertain permettant de minimiser l'a priori dans le processus d'estimation. L'estimation du mouvement majoritaire fait appel à l'estimation de la densité de probabilité du mouvement puis à la recherche du mode principal de cette distribution. Ces deux étapes sont réalisées grâce à une extension de la technique des histogrammes que nous avons appelée histogrammes approchés. Ces derniers permettent de prendre en compte les défauts de type imprécision et incertitude des données accumulées et de minimiser l'influence du partitionnement de l'espace paramétrique de ces données. La validité de notre approche est établie par des expérimentations sur des séquences d'images synthétiques et réelles. Celles-ci permettent de tester le comportement de notre méthode vis-à-vis de perturbations usuelles en traitement d'images telles que des variations d'illumination, des mouvements parasites ou des occlusions. Nous proposons deux applications à notre méthode d'estimation qui sont : la construction de mosaïque d'images et la stabilisation de séquences vidéo. Les résultats présentés permettent d'illustrer les performances satisfaisantes de notre approche en termes de robustesse et de précision.
6

Vision-based multi-sensor people detection system for heavy machines / Étude d'un système de détection multi-capteurs pour la détection de risques de collision : applications aux manoeuvres d'engins de chantier

Bui, Manh-Tuan 27 November 2014 (has links)
Ce travail de thèse a été réalisé dans le cadre de la coopération entre l’Université de Technologie de Compiègne (UTC) et le Centre Technique des Industries Mécaniques (CETIM). Nous présentons un système de détection de personnes pour l’aide à la conduite dans les engins de chantier. Une partie du travail a été dédiée à l’analyse du contexte de l’application, ce qui a permis de proposer un système de perception composé d’une caméra monoculaire fisheye et d’un Lidar. L’utilisation des caméras fisheye donne l’avantage d’un champ de vision très large avec en contrepartie, la nécessité de gérer les fortes distorsions dans l’étape de détection. A notre connaissance, il n’y a pas eu de recherches dédiées au problème de la détection de personnes dans les images fisheye. Pour cette raison, nous nous sommes concentrés sur l’étude et la quantification de l’impact des distorsions radiales sur l’apparence des personnes dans les images et nous avons proposé des approches adaptatives pour gérer ces spécificités. Nos propositions se sont inspirées de deux approches de l’état de l’art pour la détection des personnes : les histogrammes de gradient orientés (HOG) et le modèle des parties déformables (DPM). Tout d’abord, en enrichissant la base d’apprentissage avec des imagettes fisheye artificielles, nous avons pu montrer que les classificateurs peuvent prendre en compte les distorsions dans la phase d’apprentissage. Cependant, adapter les échantillons d’entrée, n’est pas la solution optimale pour traiter le problème de déformation de l’apparence des personnes dans les images. Nous avons alors décidé d’adapter l’approche de DPM pour prendre explicitement en compte le modèle de distorsions. Il est apparu que les modèles déformables peuvent être modifiés pour s’adapter aux fortes distorsions des images fisheye, mais ceci avec un coût de calculatoire supérieur. Dans cette thèse, nous présentons également une approche de fusion Lidar/camera fisheye. Une architecture de fusion séquentielle est utilisée et permet de réduire les fausses détections et le coût calculatoire de manière importante. Un jeu de données en environnement de chantier a été construit et différentes expériences ont été réalisées pour évaluer les performances du système. Les résultats sont prometteurs, à la fois en terme de vitesse de traitement et de performance de détection. / This thesis has been carried out in the framework of the cooperation between the Compiègne University of Technology (UTC) and the Technical Centre for Mechanical Industries (CETIM). In this work, we present a vision-based multi-sensors people detection system for safety on heavy machines. A perception system composed of a monocular fisheye camera and a Lidar is proposed. The use of fisheye cameras provides an advantage of a wide field-of-view but yields the problem of handling the strong distortions in the detection stage.To the best of our knowledge, no research works have been dedicated to people detection in fisheye images. For that reason, we focus on investigating and quantifying the strong radial distortions impacts on people appearance and proposing adaptive approaches to handle that specificity. Our propositions are inspired by the two state-of-the-art people detection approaches : the Histogram of Oriented Gradient (HOG) and the Deformable Parts Model (DPM). First, by enriching the training data set, we prove that the classifier can take into account the distortions. However, fitting the training samples to the model, is not the best solution to handle the deformation of people appearance. We then decided to adapt the DPM approach to handle properly the problem. It turned out that the deformable models can be modified to be even better adapted to the strong distortions of the fisheye images. Still, such approach has adrawback of the high computation cost and complexity. In this thesis, we also present a framework that allows the fusion of the Lidar modality to enhance the vision-based people detection algorithm. A sequential Lidar-based fusion architecture is used, which addresses directly the problem of reducing the false detections and computation cost in vision-based-only system. A heavy machine dataset have been also built and different experiments have been carried out to evaluate the performances of the system. The results are promising, both in term of processing speed and performances.
7

Modèles de mélange semi-paramétriques et applications aux tests multiples / Semi-parametric mixture models and applications to multiple testing

Nguyen, Van Hanh 01 October 2013 (has links)
Dans un contexte de test multiple, nous considérons un modèle de mélange semi-paramétrique avec deux composantes. Une composante est supposée connue et correspond à la distribution des p-valeurs sous hypothèse nulle avec probabilité a priori p. L'autre composante f est nonparamétrique et représente la distribution des p-valeurs sous l'hypothèse alternative. Le problème d'estimer les paramètres p et f du modèle apparaît dans les procédures de contrôle du taux de faux positifs (``false discovery rate'' ou FDR). Dans la première partie de cette dissertation, nous étudions l'estimation de la proportion p. Nous discutons de résultats d'efficacité asymptotique et établissons que deux cas différents arrivent suivant que f s'annule ou non surtout un intervalle non-vide. Dans le premier cas (annulation surtout un intervalle), nous présentons des estimateurs qui convergent \`{a} la vitesse paramétrique, calculons la variance asymptotique optimale et conjecturons qu'aucun estimateur n'est asymptotiquement efficace (i.e atteint la variance asymptotique optimale). Dans le deuxième cas, nous prouvons que le risque quadratique de n'importe quel estimateur ne converge pas à la vitesse paramétrique. Dans la deuxième partie de la dissertation, nous nous concentrons sur l'estimation de la composante inconnue nonparamétrique f dans le mélange, en comptant sur un estimateur préliminaire de p. Nous proposons et étudions les propriétés asymptotiques de deux estimateurs différents pour cette composante inconnue. Le premier estimateur est un estimateur à noyau avec poids aléatoires. Nous établissons une borne supérieure pour son risque quadratique ponctuel, en montrant une vitesse de convergence nonparamétrique classique sur une classe de Holder. Le deuxième estimateur est un estimateur du maximum de vraisemblance régularisée. Il est calculé par un algorithme itératif, pour lequel nous établissons une propriété de décroissance d'un critère. De plus, ces estimateurs sont utilisés dans une procédure de test multiple pour estimer le taux local de faux positifs (``local false discovery rate'' ou lfdr). / In a multiple testing context, we consider a semiparametric mixture model with two components. One component is assumed to be known and corresponds to the distribution of p-values under the null hypothesis with prior probability p. The other component f is nonparametric and stands for the distribution under the alternative hypothesis. The problem of estimating the parameters p and f of the model appears from the false discovery rate control procedures. In the first part of this dissertation, we study the estimation of the proportion p. We discuss asymptotic efficiency results and establish that two different cases occur whether f vanishes on a non-empty interval or not. In the first case, we exhibit estimators converging at parametric rate, compute the optimal asymptotic variance and conjecture that no estimator is asymptotically efficient (i.e. attains the optimal asymptotic variance). In the second case, we prove that the quadratic risk of any estimator does not converge at parametric rate. In the second part of the dissertation, we focus on the estimation of the nonparametric unknown component f in the mixture, relying on a preliminary estimator of p. We propose and study the asymptotic properties of two different estimators for this unknown component. The first estimator is a randomly weighted kernel estimator. We establish an upper bound for its pointwise quadratic risk, exhibiting the classical nonparametric rate of convergence over a class of Holder densities. The second estimator is a maximum smoothed likelihood estimator. It is computed through an iterative algorithm, for which we establish a descent property. In addition, these estimators are used in a multiple testing procedure in order to estimate the local false discovery rate.
8

Estimation adaptative par sélection de partitions en rectangles dyadiques

Akakpo, Nathalie 07 December 2009 (has links) (PDF)
Dans cette thèse, nous étudions divers problèmes d'estimation par sélection d'estimateurs constants ou polynomiaux par morceaux sur des partitions en intervalles ou rectangles dyadiques, en utilisant un critère de type moindres carrés pénalisé adéquat. Nos travaux portent sur trois sujets différents. Nous nous intéressons tout d'abord à l'estimation d'une loi de probabilité discrète, ainsi qu'à une application à la détection de ruptures multiples. Puis, nous proposons un cadre unifié pour l'estimation fonctionnelle basée sur des données éventuellement censurées. Enfin, nous étudions simultanément l'estimation de densité multivariée et de densité conditionnelle pour des données dépendantes. Le choix de la collection de partitions en intervalles ou rectangles dyadiques s'avère intéressant aussi bien en théorie qu'en pratique. En effet, notre estimateur pénalisé vérifie dans chacun des cadres une inégalité de type oracle non-asymptotique, pour une pénalité bien choisie. Il atteint également la vitesse minimax à constante près sur de nombreuses classes de fonctions, dont la régularité est éventuellement à la fois non homogène et non isotrope. Cette propriété, qui à notre connaissance n'a été démontrée pour aucun autre estimateur, repose sur des résultats d'approximation dont les preuves sont inspirées d'un article de DeVore et Yu. Par ailleurs, le calcul de notre estimateur dans un cadre univarié est basé sur un algorithme de plus court chemin dont la complexité est seulement linéaire en la taille de l'échantillon.
9

Concepts et outils fractals pour l'analyse et la synthèse en imagerie couleur

Chauveau, Julien 11 February 2011 (has links) (PDF)
Les images naturelles sont des structures complexes. Leur modélisation est essentielle à de nombreuses tâches en traitement d'images, et des progrès restent encore à réaliser dans ce sens. Des propriétés d'autosimilarité en échelle ont été observées dans l'organisation spatiale des images naturelles. Au-delà de leur organisation spatiale, nous abordons ici leur organisation colorimétrique. Différents outils de caractérisation fractale sont identifiés et mis en oeuvre. L'application de ces outils sur les histogrammes tridimensionnels des images couleur nous permet de mettre en évidence, et de caractériser, des propriétés fractales dans leur organisation colorimétrique. Par ailleurs, nous abordons aussi, en synthèse d'images, de nouvelles applications des concepts fractals pour les images couleur, le contrôle de leurs propriétés et la génération automatique de motifs décoratifs. Des collaborations applicatives ont été développées durant la thèse en vue de valoriser ces travaux, notamment dans le cadre du dispositif de doctorant-conseil, et en direction de l'industrie du textile-habillement.
10

Lois limites des écarts extrêmes associés aux histogrammes et à diverses statistiques d'ordre dans l'estimation d'une densité de probabilité

Béra, Michel 13 June 1977 (has links) (PDF)
L'étude est associée aux problèmes de lois limites associées à un échantillon (X1,..,Xn). Le chapitre 1 est consacré à certains aspects de la loi multinomiale, et dégage une loi limite sur les valeurs extrêmes de problèmes d'occupation. Il améliore significativement les résultats de P.Revesz (1971-72), et conduit à des lois limites sur l'estimation de la densité dans Rs, par deux méthodes dites d'estimation par histogramme aléatoire. Le chapitre 2 est consacré à la loi conjointe des écarts inter-quantiles, et donne une nouvelle loi limite des extrêmes de ces écarts, généralisant les travaux de G.Tusnady (1974). Le chapitre 3 prolonge les travaux de ce dernier sur l'estimation de la densité par histogramme aléatoire. Le caractère asymptotiquement poissonnien de la loi multinomiale et de la loi de Dirichlet est mis en évidence dans des conditions très générales.

Page generated in 0.0621 seconds