• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 42
  • 5
  • Tagged with
  • 124
  • 66
  • 39
  • 39
  • 30
  • 28
  • 25
  • 19
  • 18
  • 18
  • 17
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Noisy channel-output feedback in the interference channel / Retour de sortie de canal bruyant dans le canal d'interférence

Quintero Florez, Victor 12 December 2017 (has links)
Dans cette thèse, le canal Gaussien à interférence à deux utilisateurs avec voie de retour dégradée par un bruit additif (GIC-NOF) est étudié sous deux perspectives : les réseaux centralisés et décentralisés. Du point de vue des réseaux centralisés, les limites fondamentales du GIC-NOF sont caractérisées par la région de capacité. L’une des principales contributions de cette thèse est une approximation à un nombre constant de bits près de la région de capacité du GIC-NOF. Ce résultat est obtenu grâce à l’analyse d’un modèle de canal plus simple, le canal linéaire déterministe à interférence à deux utilisateurs avec voie de retour dégradée par un bruit additif (LDIC-NOF). L’analyse pour obtenir la région de capacité du LDIC-NOF fournit les idées principales pour l’analyse du GIC-NOF. Du point de vue des réseaux décentralisés, les limites fondamentales du GIC-NOF sont caractérisées par la région d’η-équilibre de Nash (η-EN). Une autre contribution de cette thèse est une approximation de la région η-EN du GIC-NOF, avec η > 1. Comme dans le cas centralisé, le cas décentralisé LDIC-NOF (D-LDIC-NOF) est étudié en premier et les observations sont appliquées dans le cas décentralisé GIC-NOF (D-GIC-NOF). La contribution finale de cette thèse répond à la question suivante : “À quelles conditions la voie de retour permet d’agrandir la région de capacité, la région η-EN du GIC-NOF ou du D-GIC-NOF ? ”. La réponse obtenue est de la forme : L’implémentation de la voie de retour de la sortie du canal dans l’émetteur-récepteur i agrandit la région de capacité ou la région η-EN si le rapport signal sur bruit de la voie de retour est supérieure à SNRi* , avec i ∈ {1, 2}. La valeur approximative de SNRi* est une fonction de tous les autres paramètres du GIC-NOF ou du D-GIC-NOF. / In this thesis, the two-user Gaussian interference channel with noisy channel-output feedback (GIC-NOF) is studied from two perspectives: centralized and decentralized networks. From the perspective of centralized networks, the fundamental limits of the two-user GICNOF are characterized by the capacity region. One of the main contributions of this thesis is an approximation to within a constant number of bits of the capacity region of the two-user GIC-NOF. This result is obtained through the analysis of a simpler channel model, i.e., a two-user linear deterministic interference channel with noisy channel-output feedback (LDIC-NOF). The analysis to obtain the capacity region of the two-user LDIC-NOF provides the main insights required to analyze the two-user GIC-NOF. From the perspective of decentralized networks, the fundamental limits of the two-user decentralized GIC-NOF (D-GIC-NOF) are characterized by the η-Nash equilibrium (η-NE) region. Another contribution of this thesis is an approximation of the η-NE region of the two-user GIC-NOF, with η> 1. As in the centralized case, the two-user decentralized LDIC-NOF (D-LDIC-NOF) is studied first and the lessons learnt are applied in the two-user D-GIC-NOF. The final contribution of this thesis consists in a closed-form answer to the question: “When does channel-output feedback enlarge the capacity or η-NE regions of the two-user GIC-NOF or two-user D-GIC-NOF?”. This answer is of the form: Implementing channel-output feedback in transmitter-receiver i enlarges the capacity or η-NE regions if the feedback SNR is beyond SNRi* , with i ∈ {1, 2}. The approximate value of SNRi* is shown to be a function of all the other parameters of the two-user GIC-NOF or two-user D-GIC-NOF.
22

Approche pixel de la soustraction d'arrière-plan en vidéo, basée sur un mélange de gaussiennes imprécises / Fuzzy pixel approach of video background subtraction, based on a mixture of imprecise Gaussian

Darwich, Ali 01 March 2018 (has links)
La détection d'objets en mouvement représente une étape très importante pour de nombreuses applications telles que l'analyse du comportement humain pour la surveillance visuelle, la reconnaissance d'action par modèle, le suivi du trafic routier, etc. La soustraction d'arrière-plan est une approche populaire, mais difficile étant donnée qu'elle doit surmonter de nombreux obstacles, comme l'évolution dynamique du fond, les variations de luminosité, les occlusions, etc. Dans les travaux présentés, nous nous sommes intéressés à ce problème de segmentation objets/fond, avec une modélisation floue de type-2 pour gérer l'imprécision du modèle et des données. La méthode proposée modélise l'état de chaque pixel à l'aide d'un modèle de mélange de gaussiennes imprécis et évolutif, qui est exploité par plusieurs classifieurs flous pour finalement estimer la classe du pixel à chaque image. Plus précisément, cette décision prend en compte l'historique de son évolution, mais aussi son voisinage spatial et ses éventuels déplacements dans les images précédentes. Puis nous avons comparé la méthode proposée avec d'autres méthodes proches, notamment des méthodes basées sur un modèle de mélanges gaussiens, des méthodes basées floues, ou de type ACP. Cette comparaison nous a permis de situer notre méthode par rapport à l'existant et de proposer quelques perspectives à ce travail. / Moving objects detection is a very important step for many applications such as human behavior analysis surveillance, model-based action recognition, road traffic monitoring, etc. Background subtraction is a popular approach, but difficult given that it must overcome many obstacles, such as dynamic background changes, brightness variations, occlusions, and so on. In the presented works, we focused on this problem of objects/background segmentation, using a type-2 fuzzy modeling to manage the inaccuracy of the model and the data. The proposed method models the state of each pixel using an imprecise and scalable Gaussian mixture model, which is exploited by several fuzzy classifiers to ultimately estimate the pixel class at each image. More precisely, this decision takes into account the history of its evolution, but also its spatial neighborhood and its possible displacements in the preceding images. Then we compared the proposed method with other close methods, including methods based on a gaussian mixture model, fuzzy based methods, or ACP type methods. This comparison allowed us to assess its good performances, and to propose some perspectives to this work.
23

Optimisation de fonctions coûteuses<br />Modèles gaussiens pour une utilisation efficace du budget d'évaluations : théorie et pratique industrielle

Villemonteix, Julien 10 December 2008 (has links) (PDF)
Cette thèse traite d'une question centrale dans de nombreux problèmes d'optimisation, en particulier<br />en ingénierie. Comment optimiser une fonction lorsque le nombre d'évaluations autorisé est très limité au regard de la dimension et de la complexité du problème ? Par exemple, lorsque le budget d'évaluations est limité par la durée des simulations numériques du système à optimiser, il n'est pas rare de devoir optimiser trente paramètres avec moins<br />de cent évaluations. Ce travail traite d'algorithmes d'optimisation spécifiques à ce contexte pour lequel la plupart des méthodes classiques sont inadaptées.<br />Le principe commun aux méthodes proposées est d'exploiter les propriétés des processus gaussiens et du krigeage pour construire une approximation peu coûteuse de la fonction à optimiser. Cette approximation est ensuite utilisée pour choisir itérativement les évaluations à réaliser. Ce choix est dicté par un critère d'échantillonnage qui combine recherche locale, à proximité des résultats prometteurs, et recherche globale, dans les zones non explorées. La plupart des critères proposés dans la littérature, tel celui de l'algorithme EGO (pour Efficient Global Optimization), cherchent à échantillonner la fonction là où l'apparition d'un optimum est jugée la plus probable. En comparaison, l'algorithme IAGO (pour Informational Approach to Global Optimization), principale contribution de nos travaux, cherche à maximiser la quantité d'information apportée, sur la position de l'optimum, par l'évaluation réalisée. Des problématiques industrielles ont guidé l'organisation de ce mémoire, qui se destine à la communauté de l'optimisation<br />tout comme aux praticiens confrontés à des fonctions à l'évaluation coûteuse. Aussi les applications industrielles y tiennent-elles une place importante tout comme la mise en place de l'algorithme IAGO. Nous détaillons non seulement le cas standard de l'optimisation d'une fonction réelle, mais aussi la prise en compte de contraintes, de<br />bruit sur les résultats des évaluations, de résultats d'évaluation du gradient, de problèmes multi-objectifs, ou encore d'incertitudes de fabrication significatives.
24

Modélisation et classification des données de grande dimension : application à l'analyse d'images.

Bouveyron, Charles 28 September 2006 (has links) (PDF)
Le thème principal d'étude de cette thèse est la modélisation et la classification des données de grande<br />dimension. Partant du postulat que les données de grande dimension vivent dans des sous-espaces de<br />dimensions intrinsèques inférieures à la dimension de l'espace original et que les données de classes<br />différentes vivent dans des sous-espaces différents dont les dimensions intrinsèques peuvent être aussi<br />différentes, nous proposons une re-paramétrisation du modèle de mélange gaussien. En forçant certains<br />paramètres à être communs dans une même classe ou entre les classes, nous exhibons une famille de 28 modèles gaussiens adaptés aux données de grande dimension, allant du modèle le plus général au modèle le plus parcimonieux. Ces modèles gaussiens sont ensuite utilisés pour la discrimination et la classification<br />automatique de données de grande dimension. Les classifieurs associés à ces modèles sont baptisés respectivement High Dimensional Discriminant Analysis (HDDA) et High Dimensional Data Clustering (HDDC) et<br />leur construction se base sur l'estimation par la méthode du maximum de vraisemblance des paramètres du<br />modèle. La nature de notre re-paramétrisation permet aux méthodes HDDA et HDDC de ne pas être perturbées par le mauvais conditionnement ou la singularité des matrices de covariance empiriques des classes et d'être<br />efficaces en terme de temps de calcul. Les méthodes HDDA et HDDC sont ensuite mises en dans le cadre d'une<br />approche probabiliste de la reconnaissance d'objets dans des images. Cette approche, qui peut être<br />supervisée ou faiblement supervisée, permet de localiser de manière probabiliste un objet dans une<br />nouvelle image. Notre approche est validée sur des bases d'images récentes et comparée aux meilleures<br />méthodes actuelles de reconnaissance d'objets.
25

Construction de bases d'ondelettes de $L^2[0,1]$ et estimation du paramètre de longue mémoire par la méthode des ondelettes.

Bibi, Hatem 04 November 2011 (has links) (PDF)
Cette thèse est consacrée à l'utilisation des ondelettes dans deux domaines à savoir la construction de bases sur l'intervalle et l'estimation du paramètre de longue mémoire par transformée (discrète) d'ondelettes. Dans un premier volet Nous présentons des constructions générales d'analyses multirésolution orthogonales (par une méthode directe) et biorthogonale sur l'intervalle (par la méthode d'intégration et de dérivation) .Comme applications, on étudie les espaces de Sobolev $H^{s}([0,1])$ et $H^{s}_{0}([0,1])$ pour $s\in\mathbb{N}$ . Le second volet est consacré à l'estimation du paramètre de longues ondelettes (non issues d'une analyse multirésolution) dans un cadre semi paramétrique. Les processus stationnaires à longue mémoire considérés sont du type gaussien puis linéaire. Pour chaque type de processus, on construit un estimateur adaptatif vérifiant un théorème limite central à vitesse de convergence au sens du minimax (à un logarithme prés). Les qualités statistiques de ces estimateurs (robustesses et consistances) sont vérifiées par des simulations et enfin un test d'adéquation est établi (considéré comme un test de longue mémoire dans le cas linéaire).
26

Agrégation d'estimateurs et méthodes à patch pour le débruitage d'images numériques

Salmon, Jospeh 09 December 2010 (has links) (PDF)
Le problème étudié dans cette thèse est celui du débruitage d'images numériques cor- rompues par un bruit blanc gaussien. Les méthodes utilisées pour récupérer une meilleure image reposent sur les patchs et sont des variantes des Non-Local Means. Les contributions de la thèse sont à la fois pratiques et théoriques. Tout d'abord, on étudie précisément l'influence des divers paramètres de la méthode. On met ensuite en lumière une lim- ite observée sur le traitement des bords par les méthodes à patchs habituelles. On donne alors une meilleure façon de combiner l'information fournie à partir des patchs pour estimer pixel par pixel. D'un point de vue théorique, on présente un cadre non asymptotique pour contrôler notre estimateur. On donne alors des résultats de type inégalités oracles pour des estimateurs vérifiant des propriétés plus restrictives. Les techniques utilisées reposent sur l'agrégation d'estimateurs, et plus particulièrement sur l'agrégation à poids exponentiels. La méthode requiert typiquement une mesure du risque, obtenue à travers un estimateur sans biais de celui-ci, par exemple par la méthode de Stein. Les méthodes de débruitage étudiées sont analysées numériquement par simulations.
27

Puissance asymptotique des tests non paramétriques d'ajustement du type Cramer-Von Mises

Boukili Makhoukhi, Mohammed 21 June 2007 (has links) (PDF)
L'analyse statistique, prise au sens large, est centrée sur la description, et, lorsque les circonstances le permettent, la modélisation quantitative des phénomènes observés, pour peu que ces derniers possèdent une part d'incertitude, et donc, qu'ils soient soumis aux lois du hasard. Dans cette activité scientifique, le plus grand soin doit être apporté à la validation des hypothèses de modélisation, nécessaires à l'interprétation des résultats. Ce principe général s'applique d'ailleurs à toutes les sciences expérimentales, et tout aussi bien aux sciences humaines (en psychologie), qu'en économie, et dans bien d'autres disciplines. Une théorie scientifique repose, au départ, sur des hypothèses de modélisation, qui sont ensuite soumises à l'épreuve de l'expérimentation. Celle-ci est basée sur le recueil de données, dont il est nécessaire de décider la nature, compatible ou non, avec les modèles choisis, aboutissant, soit au rejet, soit à l'acceptation, de ces derniers. La statistique a développé, dans ce but, une technologie basée sur les tests d'hypothèses, dont nous nous abstiendrons de discuter dans mon mémoire de thèse les bases et les fondements. Dans cette thèse, nous avons abordé l'étude de certains tests d'ajustement (dits, en Anglais, tests of fit"), de nature paramétrique et non paramétrique. Les aspects techniques de ces tests d'hypothèses ont été abordés, dans le contexte particulier de notre étude pour les tests de type Cramer-Von Mises. On ne manquera pas de citer l'approche initialement utilisée pour les tests de type Kolmogorov-Smirnov. Enfin, l'ouvrage de Nikitin était une référence de base particulièrement adaptée à la nature de notre recherche. L'objectif principal de la thèse est d'évaluer la puissance asymptotique de certains tests d'ajustement, relevant de la catégorie générale des tests de Cramer-Von Mises. Nous avons évalué cette puissance, relativement à des suites convenables d'alternatives locales. Notre méthode utilise les développements de Karhunen-Loève d'un pont brownien pondéré. Notre travail avait pour objet secondaire de compléter des recherches récentes de P.Deheuvels et G.Martynov, qui ont donné l'expression des fonctions propres et valeurs propres des développements de Karhunen-Loève de certains ponts browniens pondérés à l'aide de fonctions de Bessel. Dans le premier temps, nous avons exposé les fondements des développements de Karhunen-Loève [D.K.L], ainsi que les applications qui en découlent en probabilités et statistiques. Le deuxième paragraphe de cette thèse a été consacré à un exposé de la composante de la théorie des tests d'hypothèses adaptée à la suite de notre mémoire. Dans ce même paragraphe, nous montrons l'intérêt qu'apporte une connaissance explicite des composantes d'un développement de Karhunen-Loève, en vue de l'évaluation de la puissance de tests d'ajustement basés sur les statistiques de type Cramer-Von Mises qui sont liées à ce D.K.L.
28

Détection et Estimation en Environnement non Gaussien

Pascal, Frédéric 04 December 2006 (has links) (PDF)
Dans le contexte très général de la détection radar, les détecteurs classiques, basés sur l'hypothèse d'un bruit Gaussien, sont souvent mis en défaut dès lors que l'environnement (fouillis de sol, de mer) devient inhomogène, voire impulsionnel, s'écartant très vite du modèle Gaussien. Des modèles physiques de fouillis basés sur les modèles de bruit composé (SIRP, Compound Gaussian Processes) permettent de mieux représenter la réalité (variations spatiales de puissance et nature de fouillis, transitions, ...). Ces modèles dépendent cependant de paramètres (matrice de covariance, loi de texture, paramètres de "disturbance") qu'il devient nécessaire d'estimer. Une fois ces paramètres estimés, il est possible de construire des détecteurs radar optimaux (Generalized Likelihood Ratio Test - Linear Quadratic) pour ces environnements. Cette thèse, qui s'appuie sur ces modèles, propose une analyse complète de diverses procédures d'estimation de matrices de covariance, associées à ce problème de détection. Une étude statistique des principaux estimateurs de matrice de covariance, utilisés actuellement, est réalisée. De plus, un nouvel estimateur est proposé: l'estimateur du point fixe, très attractif grâce à ses bonnes propriétés statistiques et "radaristiques".<br />Elle décrit également les performances et les propriétés théoriques (SIRV-CFAR) du détecteur GLRT-LQ construits avec ces nouveaux estimateurs. En particulier, on montre l'invariance du détecteur à la loi de la texture mais également à la matrice de covariance régissant les propriétés spectrales du fouillis. Ces nouveaux détecteurs sont ensuite analysés sur des données simulées mais également testés sur des données réelles de fouillis de sol.
29

Quelques contributions à l'estimation fonctionnelle par méthodes d'ondelettes

Chesneau, Christophe 07 December 2006 (has links) (PDF)
Nous présentons quelques contributions à l'estimation fonctionnelle par méthodes d'ondelettes.<br />Deux axes de recherches orientent notre travail. Premier axe: étude de modèles statistiques complexes. Le point de départ de notre étude est le modèle de bruit blanc gaussien généralisé et le modèle de régression à pas aléatoires.<br />Ceux-ci font intervenir une fonction perturbant l'estimation de la fonction inconnue.<br />Notre objectif est de montrer l'influence exacte de cette fonction parasite via l'approche minimax sous le risque Lp. Dans un premier temps,<br />nous utilisons des méthodes en ondelettes pour cerner les limites de cette approche lorsque l'on se place sur des boules de Besov standards. Dans un deuxième temps, nous étudions l'alternative des boules de Besov pondérées et des méthodes en ondelettes déformées.<br />Deuxième axe: estimation adaptative. Nous étudions les performances de plusieurs estimateurs de seuillage par blocs en ondelettes sous le risque Lp.<br />Nous montrons leurs excellentes propriétés minimax et maxisets pour un large panel de modèles statistiques. En guise d'applications, nous traitons le modèle de régression à pas aléatoires et le modèle de convolution en bruit blanc gaussien.
30

Analyse spectrale à haute résolution de signaux irrégulièrement échantillonnés : application à l'Astrophysique.

Bourguignon, Sébastien 14 December 2006 (has links) (PDF)
L'étude de nombreux phénomènes astronomiques repose sur la recherche de périodicités dans des séries temporelles (courbes de lumière ou de vitesse radiale). En raison des contraintes observationnelles, la couverture temporelle des données résultantes est souvent incomplète, présentant des trous périodiques ainsi qu'un échantillonnage irrégulier. L'analyse du contenu fréquentiel de telles séries basée sur le spectre de Fourier s'avère alors inefficace et les méthodes heuristiques de déconvolution de type CLEAN, couramment utilisées en astronomie, ne donnent pas entière satisfaction. Cette thèse s'inscrit dans le formalisme fréquemment rencontré depuis les années 1990 abordant l'analyse spectrale sous la forme d'un problème inverse, le spectre étant discrétisé sur une grille fréquentielle arbitrairement fine. Sa régularisation est alors envisagée en traduisant la nature a priori parcimonieuse de l'objet à reconstruire: nous nous intéressons ici à la recherche de raies spectrales. <br />Une première approche envisagée a trait au domaine de l'optimisation et consiste à minimiser un critère de type moindres carrés, pénalisé par une fonction favorisant les solutions parcimonieuses. La pénalisation par la norme l1 est en particulier étudiée en extension à des variables complexes et s'avère satisfaisante en termes de modélisation. Nous proposons des solutions algorithmiques particulièrement performantes permettant d'envisager une analyse à très haute résolution fréquentielle. <br />Nous étudions ensuite la modélisation probabiliste des amplitudes spectrales sous la forme d'un processus Bernoulli-Gaussien, dont les paramètres sont estimés au sens de la moyenne a posteriori à partir de techniques d'échantillonnage stochastique, permettant d'envisager une estimation totalement non supervisée. L'interprétation probabiliste du résultat ainsi que l'obtention conjointe des variances associées, sont alors d'un intérêt astrophysique majeur, s'interprétant en termes de niveaux de confiance sur les composantes spectrales détectées. Nous proposons dans un premier temps des améliorations de l'algorithme échantillonneur de Gibbs permettant d'accélérer l'exploration de la loi échantillonnée. Ensuite, nous introduisons des variables de décalage fréquentiel à valeur continue, permettant d'augmenter la précision de l'estimation sans trop pénaliser le coût calculatoire associé. <br />Pour chaque méthode proposée, nous illustrons sur des simulations la qualité de l'estimation ainsi que les performances des algorithmes développés. Leur application à un jeu de données issu d'observations astrophysiques est enfin présentée, mettant en évidence l'apport d'une telle méthodologie par rapport aux méthodes d'analyse spectrale habituellement utilisées.

Page generated in 0.0446 seconds