• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 80
  • 13
  • Tagged with
  • 169
  • 169
  • 105
  • 72
  • 41
  • 38
  • 33
  • 28
  • 23
  • 23
  • 22
  • 21
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Estimation Statistique En Grande Dimension, Parcimonie et Inégalités D'Oracle

Lounici, Karim 24 November 2009 (has links) (PDF)
Dans cette thèse nous traitons deux sujets. Le premier sujet concerne l'apprentissage statistique en grande dimension, i.e. les problèmes où le nombre de paramètres potentiels est beaucoup plus grand que le nombre de données à disposition. Dans ce contexte, l'hypothèse généralement adoptée est que le nombre de paramètres intervenant effectivement dans le modèle est petit par rapport au nombre total de paramètres potentiels et aussi par rapport au nombre de données. Cette hypothèse est appelée ``\emph{sparsity assumption}''. Nous étudions les propriétés statistiques de deux types de procédures : les procédures basées sur la minimisation du risque empirique muni d'une pénalité $l_{1}$ sur l'ensemble des paramètres potentiels et les procédures à poids exponentiels. Le second sujet que nous abordons concerne l'étude de procédures d'agrégation dans un modèle de densité. Nous établissons des inégalités oracles pour la norme $L^{\pi}$, $1\leqslant \pi \leqslant \infty$. Nous proposons ensuite une application à l'estimation minimax et adaptative en la régularité de la densité.
52

Vers une description efficace du contenu visuel pour l'annotation automatique d'images

Hervé, Nicolas 08 June 2009 (has links) (PDF)
Les progrès technologiques récents en matière d'acquisition de données multimédia ont conduit à une croissance exponentielle du nombre de contenus numériques disponibles. Pour l'utilisateur de ce type de bases de données, la recherche d'informations est très problématique car elle suppose que les contenus soient correctement annotés. Face au rythme de croissance de ces volumes, l'annotation manuelle présente aujourd'hui un coût prohibitif. Dans cette thèse, nous nous intéressons aux approches produisant des annotations automatiques qui tentent d'apporter une réponse à ce problème. Nous nous intéressons aux bases d'images généralistes (agences photo, collections personnelles), c'est à dire que nous ne disposons d'aucun a priori sur leur contenu visuel. Contrairement aux nombreuses bases spécialisées (médicales, satellitaires, biométriques, ...) pour lesquelles il est important de tenir compte de leur spécificité lors de l'élaboration d'algorithmes d'annotation automatique, nous restons dans un cadre générique pour lequel l'approche choisie est facilement extensible à tout type de contenu.<br /><br />Pour commencer, nous avons revisité une approche standard basée sur des SVM et examiné chacune des étapes de l'annotation automatique. Nous avons évalué leur impact sur les performances globales et proposé plusieurs améliorations. La description visuelle du contenu et sa représentation sont sans doute les étapes les plus importantes puisqu'elles conditionnent l'ensemble du processus. Dans le cadre de la détection de concepts visuels globaux, nous montrons la qualité des descripteurs de l'équipe Imedia et proposons le nouveau descripteur de formes LEOH. D'autre part, nous utilisons une représentation par sacs de mots visuels pour décrire localement les images et détecter des concepts plus fins. Nous montrons que, parmi les différentes stratégies existantes de sélection de patches, l'utilisation d'un échantillonnage dense est plus efficace. Nous étudions différents algorithmes de création du vocabulaire visuel nécessaire à ce type d'approche et observons les liens existants avec les descripteurs utilisés ainsi que l'impact de l'introduction de connaissance à cette étape. Dans ce cadre, nous proposons une nouvelle approche utilisant des paires de mots visuels permettant ainsi la prise en compte de contraintes géométriques souples qui ont été, par nature, ignorées dans les approches de type sacs de mots. Nous utilisons une stratégie d'apprentissage statistique basée sur des SVM. Nous montrons que l'utilisation d'un noyau triangulaire offre de très bonnes performances et permet, de plus, de réduire les temps de calcul lors des phases d'apprentissage et de prédiction par rapport aux noyaux plus largement utilisés dans la littérature. La faisabilité de l'annotation automatique n'est envisageable que s'il existe une base suffisamment annotée pour l'apprentissage des modèles. Dans le cas contraire, l'utilisation du bouclage de pertinence, faisant intervenir l'utilisateur, est une approche efficace pour la création de modèles sur des concepts visuels inconnus jusque là, ou en vue de l'annotation de masse d'une base. Dans ce cadre, nous introduisons une nouvelle stratégie permettant de mixer les descriptions visuelles globales et par sac de mots.<br /><br />Tous ces travaux ont été évalués sur des bases d'images qui correspondent aux conditions d'utilisation réalistes de tels systèmes dans le monde professionnel. Nous avons en effet montré que la plupart des bases d'images utilisées par les académiques de notre domaine sont souvent trop simples et ne reflètent pas la diversité des bases réelles. Ces expérimentations ont mis en avant la pertinence des améliorations proposées. Certaines d'entre elles ont permis à notre approche d'obtenir les meilleures performances lors de la campagne d'évaluation ImagEVAL.
53

Estimation de densité en dimension élevée et classification de courbes

Rouvière, Laurent 18 November 2005 (has links) (PDF)
L'objectif de cette thèse consiste étudier et approfondir des techniques d'estimation de la densité et de classification dans des espaces de dimension élevée. Nous avons choisi de structurer notre travail en trois parties.<br /><br />La première partie, intitulée compléments sur les histogrammes modifiés, est composée de deux chapitres consacrés l'étude d'une famille d'estimateurs non paramétriques de la densité, les histogrammes modifiés, connus pour posséder de bonnes propriétés de convergence au sens des critères de la théorie de l'information. Dans le premier chapitre, ces estimateurs sont envisagés comme des systèmes dynamiques espace d'états de dimension infinie. Le second chapitre est consacré l'étude de ces estimateurs pour des dimensions suprieures un.<br /><br />La deuxième partie de la thèse, intituleé méthodes combinatoires en estimation de la densité, se divise en deux chapitres. Nous nous intéressons dans cette partie aux performances distance finie d'estimateurs de la densité sélectionnés à l'intérieur d'une famille d'estimateurs candidats, dont le cardinal n'est pas nécessairement fini. Dans le premier chapitre, nous étudions les performances de ces méthodes dans le cadre de la sélection des différents paramètres des histogrammes modifiés. Nous poursuivons, dans le deuxième chapitre, par la sélection d'estimateurs à noyau dont le paramètre de lissage s'adapte localement au point d'estimation et aux données.<br /><br />Enfin, la troisième et dernière partie, plus appliquée et indépendante des précédentes, présente une nouvelle méthode permettant de classer des courbes partir d'une décomposition des observations dans des bases d'ondelettes.
54

ACQUISITION PLURILINGUE CHEZ UN JEUNE ENFANT DE VÉNÉTIE : ÉTUDE DE LA FRÉQUENCE D'USAGE DES LANGUES ET DES INDICES PRAGMATIQUES LORS DES INTERACTIONS FAMILIALES

Ghimenton, Anna 08 December 2008 (has links) (PDF)
Cette thèse porte sur le développement langagier d'un enfant de Vénétie (nord-ouest de l'Italie), Francesco, suivi entre 17 et 30 mois. Dans cette région se côtoient quotidiennement l'italien et des variétés dialectales. Nous examinons les patrons des choix langagiers de cet enfant et nous les mettons en relation avec ces mêmes patrons dans la parole qu'il perçoit directement et indirectement de ses interlocuteurs. Deux types de situations constituent ce corpus : des échanges dy-triadiques entre l'enfant et ses parents (15h07, soit 6.430 énoncés transcrits) et des interactions multipartites entre l'enfant et les membres de sa famille élargie (19h50, soit 12.084 énoncés transcrits). En prenant appui sur les approches basées sur l'usage (Tomasello, 2003) et le modèle de compétition de MacWhinney (2005), nous tentons d'élucider les processus acquisitionnels concernant les choix de langues dans un contexte où ils sont fortement variables. Trois aspects définissent la spécificité de ce travail : 1/ il a été conduit dans une situation de contact où les variétés des répertoires se répartissent au long d'un continuum et où l'enfant doit apprendre à effectuer des choix codiques appropriés au contexte interactionnel ; 2/ l'exploration des productions dans différents types d'interactions permet de repérer divers modes d'apprentissage (statistique et pragmatique) et, 3/ les résultats documentent les rôles de l'input indirect et des enjeux pragmatiques dans la transmission de variétés minoritaires. Une approche interdisciplinaire permettra d'examiner ces trois points sous un éclairage alliant dialectologie, psycholinguistique et sociolinguistique.
55

Style du génome exploré par analyse textuelle de l'ADN

Lespinats, Sylvain 10 April 2006 (has links) (PDF)
Les séquences d'ADN peuvent être considérées comme des textes écrits dans un alphabet de 4 lettres. Des techniques inspirées de l'analyse textuelle permettent donc de les caractériser, entre autres à partir de fréquences d'apparition de courtes suites de caractères (les oligonucléotides ou mots). L'ensemble des fréquences des mots d'une longueur donnée est appelé « signature génomique » (cet ensemble est spécifique de l'espèce, ce qui justifie le terme de « signature »). La signature d'espèce est observable sur la plupart des courts fragments d'ADN, ce qui donne à penser qu'elle résulte d'un « style d'écriture ». De plus, la proximité entre espèces du point de vue de la signature génomique correspond bien souvent à une proximité en terme taxonomique. Pourtant, l'analyse des signatures génomiques se confronte rapidement à des limitations dues à la malédiction de la dimension. En effet, les données de grande dimension (la signature génomique a généralement 256 dimensions) montrent des propriétés qui mettent en défaut l'intuition. Par exemple, le phénomène de concentration des distances euclidiennes est bien connu.<br />Partant de ces constatations, nous avons mis en place des procédures d'évaluation des distances entre signatures de façon à rendre plus manifeste les informations biologiques sur lesquelles s'appuient nos analyses. Une méthode de projection non-linéaire des voisinages y est associée ce qui permet de s'affranchir des problèmes de grande dimension et de visualiser l'espace occupé par les données. L'analyse des relations entre les signatures pose le problème de la contribution de chaque variable (les mots) à la distance entre les signatures. Un Z-score original basé sur la variation de la fréquence des mots le long des génomes a permis de quantifier ces contributions. L'étude des variations de l'ensemble des fréquences le long d'un génomes permet d'extraire des segments originaux. Une méthode basée sur l'analyse du signal permet d'ailleurs de segmenter précisément ces zones originales.<br />Grâce à cet ensemble de méthodes, nous proposons des résultats biologiques. En particulier, nous mettons en évidence une organisation de l'espace des signatures génomiques cohérente avec la taxonomie des espèces. De plus, nous constatons la présence d'une syntaxe de l'ADN : il existe des « mots à caractère syntaxique » et des « mots à caractère sémantique », la signature s'appuyant surtout sur les mots à caractère syntaxique. Enfin, l'analyse des signatures le long du génome permet une détection et une segmentation précise des ARN et de probables transferts horizontaux. Une convergence du style des transferts horizontaux vers la signature de l'hôte a d'ailleurs pu être observée.<br />Des résultats variés ont été obtenus par analyse des signatures. Ainsi, la simplicité d'utilisation et la rapidité de l'analyse des séquences par signatures en font un outil puissant pour extraire de l'information biologique à partir des génomes.
56

Contextualisation d'un détecteur de piétons : application à la surveillance d'espaces publics

Chesnais, Thierry 24 June 2013 (has links) (PDF)
La démocratisation de la " vidéosurveillance intelligente " nécessite le développement d'outils automatiques et temps réel d'analyse vidéo. Parmi ceux-ci, la détection de piétons joue un rôle majeur car de nombreux systèmes reposent sur cette technologie. Les approches classiques de détection de piétons utilisent la reconnaissance de formes et l'apprentissage statistique. Elles souffrent donc d'une dégradation des performances quand l'apparence des piétons ou des éléments de la scène est trop différente de celle étudiée lors de l'apprentissage. Pour y remédier, une solution appelée " contextualisation du détecteur " est étudiée lorsque la caméra est fixe. L'idée est d'enrichir le système à l'aide d'informations provenant de la scène afin de l'adapter aux situations qu'il risque de fréquemment rencontrer. Ce travail a été réalisé en deux temps. Tout d'abord, l'architecture d'un détecteur et les différents outils utiles à sa construction sont présentés dans un état de l'art. Puis la problématique de la contextualisation est abordée au travers de diverses expériences validant ou non les pistes d'amélioration envisagées. L'objectif est d'identifier toutes les briques du système pouvant bénéficier de cet apport afin de contextualiser complètement le détecteur. Pour faciliter l'exploitation d'un tel système, la contextualisation a été entièrement automatisée et s'appuie sur des algorithmes d'apprentissage semi-supervisé. Une première phase consiste à collecter le maximum d'informations sur la scène. Différents oracles sont proposés afin d'extraire l'apparence des piétons et des éléments du fond pour former une base d'apprentissage dite contextualisée. La géométrie de la scène, influant sur la taille et l'orientation des piétons, peut ensuite être analysée pour définir des régions, dans lesquelles les piétons, tout comme le fond, restent visuellement proches. Dans la deuxième phase, toutes ces connaissances sont intégrées dans le détecteur. Pour chaque région, un classifieur est construit à l'aide de la base contextualisée et fonctionne indépendamment des autres. Ainsi chaque classifieur est entraîné avec des données ayant la même apparence que les piétons qu'il devra détecter. Cela simplifie le problème de l'apprentissage et augmente significativement les performances du système.
57

Hiérarchies sémantiques pour l'annotation multifacette d'images

Tousch, Anne-Marie 01 February 2010 (has links) (PDF)
Cette thèse a pour sujet l'annotation automatique d'images. Pour plus de souplesse, nous utilisons un vocabulaire structuré, permettant de construire des annotations multifacettes et à différents niveaux d'interprétation. Une annotation prend alors la forme d'un ensemble de multilabels associés à des indices de confiance et permet d'exprimer un compromis fiabilité/précision sémantique. Le traitement proposé se déroule en deux phases : extraction de caractéristiques informatives et calcul de probabilités normalisées sur un espace de multilabels. Chacune exploite des mécanismes d'apprentissage. La démarche est évaluée sur deux jeux de données : un ensemble d'images de voitures et la base d'objets génériques Caltech-101. Les résultats suggèrent d'utiliser le vocabulaire structuré à différentes étapes selon la nature des données.
58

Méthodes d'apprentissage appliquées à la séparation de sources mono-canal

Augustin, Lefèvre 03 October 2012 (has links) (PDF)
Étant donne un mélange de plusieurs signaux sources, par exemple un morceau et plusieurs instruments, ou un entretien radiophonique et plusieurs interlocuteurs, la séparation de source mono-canal consiste a' estimer chacun des signaux sources a' partir d'un enregistrement avec un seul microphone. Puisqu'il y a moins de capteurs que de sources, il y a a priori une infinité de solutions sans rapport avec les sources originales. Il faut alors trouver quelle information supplémentaire permet de rendre le problème bien pose. Au cours des dix dernières années, la factorisation en matrices positives (NMF) est devenue un composant majeurs des systèmes de séparation de sources. En langage profane, la NMF permet de d'écrire un ensemble de signaux audio a ́ partir de combinaisons d' éléments sonores simples (les atomes), formant un dictionnaire. Les systèmes de séparation de sources reposent alors sur la capacité a trouver des atomes qui puissent être assignes de fa con univoque 'a chaque source sonore. En d'autres termes, ils doivent être interprétables. Nous proposons dans cette thèse trois contributions principales aux méthodes d'apprentissage de dictionnaire. La première est un critère de parcimonie par groupes adapte a la NMF lorsque la mesure de distorsion choisie est la divergence d'Itakura-Saito. Dans la plupart des signaux de musique on peut trouver de longs intervalles ou' seulement une source est active (des soli). Le critère de parcimonie par groupe que nous proposons permet de trouver automatiquement de tels segments et d'apprendre un dictionnaire adapte a chaque source. Ces dictionnaires permettent ensuite d'effectuer la tache de séparation dans les intervalles ou' les sources sont mélangées. Ces deux taches d'identification et de séparation sont effectuées simultanément en une seule passe de l'algorithme que nous proposons. Notre deuxième contribution est un algorithme en ligne pour apprendre le dictionnaire a grande échelle, sur des signaux de plusieurs heures, ce qui était impossible auparavant. L'espace mémoire requis par une NMF estimée en ligne est constant alors qu'il croit linéairement avec la taille des signaux fournis dans la version standard, ce qui est impraticable pour des signaux de plus d'une heure. Notre troisième contribution touche a' l'interaction avec l'utilisateur. Pour des signaux courts, l'apprentissage aveugle est particulièrement difficile, et l'apport d'information spécifique au signal traite est indispensable. Notre contribution est similaire à l'inpainting et permet de prendre en compte des annotations temps-fréquence. Elle repose sur l'observation que la quasi-totalite du spectro- gramme peut être divise en régions spécifiquement assignées a' chaque source. Nous d'éecrivons une extension de NMF pour prendre en compte cette information et discutons la possibilité d'inférer cette information automatiquement avec des outils d'apprentissage statistique simples.
59

Apprentissage statistique pour l'évaluation et le contrôle non destructifs : application à l'estimation de la durée de vie restante des matériaux par émission acoustique sous fluage

Darwiche, Mohamad 04 June 2013 (has links) (PDF)
Les matériaux composites se caractérisent par une forte dispersion de leur durée de vie qui peut s'étendre de quelques minutes à plusieurs semaines lors d'un test de fluage. Lors d'un essai en fluage de ces matériaux nous distinguons trois phases de temps caractérisées chacune par une activité acoustique propre. Dans la première phase, le taux d'apparition des signaux d'EA est important, puis le taux diminue et atteint une valeur constante relativement faible durant la seconde phase, ensuite ce taux d'apparition s'accélère annonçant la troisième phase qui se termine par la rupture. Les caractéristiques des signaux d'émission acoustique (EA) émis dans la phase précédant la rupture sont différentes de celles des autres phases. Le premier volet de cette étude consiste à utiliser des méthodes d'apprentissage relevant de l'intelligence artificielle (réseaux de neurones, machines à vecteurs de support et classifieurs bayésiens) afin de prédire si les signaux recueillis à partir d'un matériau sous test se trouve dans la phase de pré-rupture ou non. Ce sont des méthodes qui, appliquées à l'émission acoustique, permettent d'identifier parmi un grand nombre de signaux, caractérisés par des paramètres principaux, des classes de signaux ayant des paramètres voisins et donc provenant probablement de la même phase. Ces méthodes se sont avérées très performantes en classification, nous atteignons avec les SVM une sensibilité de 82 % et une spécificité de 84% pour les résultats en validation croisée, et une sensibilité de 90 % et une spécificité de 94 % pour les résultats en test, avec un temps de calcul acceptable.Le deuxième volet de l'étude effectué dans le cadre de cette thèse concerne l'estimation de la durée de vie restante des les matériaux composites. La normalisation des courbes cumulées des signaux d'émission acoustique en fonction du temps prouve que les réponses en fluage des éprouvettes mises en test sont parfaitement ressemblantes. Un modèle a été établi pour caractériser le comportement de ce matériau lors de ce test. Deux approches sont utilisées pour déterminer le temps de rupture. Par rapport à la littérature, la première approche proposée améliore la détection des temps de transition des différentes phases. Cette approche fournit également une meilleure corrélation avec le temps de rupture. La deuxième approche est fondée sur la corrélation du temps de rupture avec le temps de référence correspondant à la diminution de la vitesse d'un certain pourcentage. Les résultats de cette dernière approche sont très intéressants : l'estimation du temps de rupture pour une éprouvette ayant une durée de vie de 1 heure peut être possible dès les 15 premières secondes, avec une erreur de l'ordre de 4 %.
60

Modèles structurés pour la reconnaissance d'actions dans des vidéos réalistes

Gaidon, Adrien 25 October 2012 (has links) (PDF)
Cette thèse décrit de nouveaux modèles pour la reconnaissance de catégories d'actions comme "ouvrir une porte" ou "courir" dans des vidéos réalistes telles que les films. Nous nous intéressons tout particulièrement aux propriétés structurelles des actions : comment les décomposer, quelle en est la structure caractéristique et comment utiliser cette information afin de représenter le contenu d'une vidéo. La difficulté principale à laquelle nos modèles s'attellent réside dans la satisfaction simultanée de deux contraintes antagonistes. D'une part, nous devons précisément modéliser les aspects discriminants d'une action afin de pouvoir clairement identifier les différences entre catégories. D'autre part, nos représentations doivent être robustes en conditions réelles, c'est-à-dire dans des vidéos réalistes avec de nombreuses variations visuelles en termes d'acteurs, d'environnements et de points de vue. Dans cette optique, nous proposons donc trois modèles précis et robustes à la fois, qui capturent les relations entre parties d'actions ainsi que leur contenu. Notre approche se base sur des caractéristiques locales --- notamment les points d'intérêts spatio-temporels et le flot optique --- et a pour objectif d'organiser l'ensemble des descripteurs locaux décrivant une vidéo. Nous proposons aussi des noyaux permettant de comparer efficacement les représentations structurées que nous introduisons. Bien que nos modèles se basent tous sur les principes mentionnés ci-dessus, ils différent de par le type de problème traité et la structure sur laquelle ils reposent. Premièrement, nous proposons de modéliser une action par une séquence de parties temporelles atomiques correspondant à une décomposition sémantique. De plus, nous décrivons comment apprendre un modèle flexible de la structure temporelle dans le but de localiser des actions dans des vidéos de longue durée. Deuxièmement, nous étendons nos idées à l'estimation et à la représentation de la structure spatio-temporelle d'activités plus complexes. Nous décrivons un algorithme d'apprentissage non supervisé permettant de dégager automatiquement une décomposition hiérarchique du contenu dynamique d'une vidéo. Nous utilisons la structure arborescente qui en résulte pour modéliser une action de manière hiérarchique. Troisièmement, au lieu de comparer des modèles structurés, nous explorons une autre alternative : directement comparer des modèles de structure. Pour cela, nous représentons des actions de courte durée comme des séries temporelles en haute dimension et étudions comment la dynamique temporelle d'une action peut être utilisée pour améliorer les performances des modèles non structurés formant l'état de l'art en reconnaissance d'actions. Dans ce but, nous proposons un noyau calculant de manière efficace la similarité entre les dépendances temporelles respectives de deux actions. Nos trois approches et leurs assertions sont à chaque fois validées par des expériences poussées sur des bases de données publiques parmi les plus difficiles en reconnaissance d'actions. Nos résultats sont significativement meilleurs que ceux de l'état de l'art, illustrant ainsi à quel point la structure des actions est importante afin de bâtir des modèles précis et robustes pour la reconnaissance d'actions dans des vidéos réalistes.

Page generated in 0.0916 seconds