• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 949
  • 444
  • 136
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1579
  • 381
  • 295
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 145
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
631

Intégration de connaissances linguistiques pour la reconnaissance de textes manuscrits en-ligne

Quiniou, Solen 17 December 2007 (has links) (PDF)
L'objectif de ces travaux de thèse est de construire un système de reconnaissance de phrases, en se basant sur un système de reconnaissance de mots existant. Pour cela, deux axes de recherche sont abordés : la segmentation des phrases en mots ainsi que l'intégration de connaissances linguistiques pour prendre en compte le contexte des phrases. Nous avons étudié plusieurs types de modèles de langage statistiques, en comparant leurs impacts respectifs sur les performances du système de reconnaissance. Nous avons également recherché la meilleure stratégie pour les intégrer efficacement dans le système de reconnaissance global. Une des orginalités de cette étude est l'ajout d'une représentation des différentes hypothèses de phrases sous forme d'un réseau de confusion, afin de pouvoir détecter et corriger les erreurs de reconnaissance restantes. L'utilisation des technique présentées permet de réduire de façon importante le nombre d'erreurs de reconnaissance, parmi les mots des phrases.
632

Adaptation thématique non supervisée d'un système de reconnaissance automatique de la parole

Lecorvé, Gwénolé 24 November 2010 (has links) (PDF)
Les systèmes actuels de reconnaissance automatique de la parole (RAP) reposent sur un modèle de langue (ML) qui les aide à déterminer les hypothèses de transcription les plus probables. Pour cela, le ML recense des probabilités de courtes séquences de mots, appelées n-grammes, fondées sur un vocabulaire fini. Ces ML et vocabulaire sont estimés une fois pour toutes à partir d'un vaste corpus de textes traitant de sujets variés. En conséquence, les systèmes actuels souffrent d'un manque de spécificité lorsqu'il s'agit de transcrire des documents thématiquement marqués. Pour pallier ce problème, nous proposons un nouveau processus d'adaptation thématique non supervisée du ML et du vocabulaire. Sur la base d'une première transcription automatique d'un document audio, ce processus consiste à récupérer sur Internet des textes du même thème que le document, textes à partir desquels nous réestimons le ML et enrichissons le vocabulaire. Ces composants adaptés servent alors à produire une nouvelle transcription dont la qualité est espérée meilleure. Ce processus est particulièrement original car il se préserve de toute connaissance a priori sur les éventuels thèmes des documents à transcrire et il intègre des techniques de traitement automatique des langues. De plus, nous apportons des contributions pour chaque étape du processus. Tout d'abord, étant donnée la transcription initiale d'un document audio, nous avons aménagé le critère tf-idf , issu du domaine de la recherche d'information, aux spécificités de l'oral afin de caractériser le thème du document par des mots-clés extraits automatiquement. Via un moteur de recherche sur Internet, ces mots-clés nous permettent de récupérer des pages Web que nous filtrons afin d'assurer leur cohérence thématique avec le document audio. Ensuite, nous avons proposé une nouvelle technique de réestimation thématique du ML. En extrayant des mots et séquences de mots spécifiques au thème considéré à partir des corpora Web, nous utilisons le cadre de l'adaptation par minimum d'information discriminante pour ne modifier que les probabilités des n-grammes propres au thème, laissant les autres probabilités inchangées. Enfin, nous montrons également que les corpora extraits du Web peuvent servir à repérer des mots hors vocabulaire spécifiques aux thèmes. Nous proposons une technique originale qui permet d'apprendre ces nouveaux mots au système et, notamment, de les intégrer dans le ML en déterminant automatiquement dans quels n-grammes ils sont susceptibles d'apparaître. Pour cela, chaque nouveau mot est assimilé à d'autres, déjà connus du système, avec lesquels il partage une relation paradigmatique. Nos expériences, menées sur des émissions d'actualités radiodiffusées, montrent que l'ensemble de ces traitements aboutit à des améliorations significatives du taux de reconnaissance d'un système de RAP.
633

Contributions à l'estimation de modèles probabilistes discriminants: apprentissage semi-supervisé et sélection de caractéristiques

Sokolovska, Nataliya 25 February 2010 (has links) (PDF)
Dans cette thèse nous étudions l'estimation de modèles probabilistes discriminants, surtout des aspects d'apprentissage semi-supervisé et de sélection de caractéristiques. Le but de l'apprentissage semi-supervisé est d'améliorer l'efficacité de l'apprentissage supervisé en utilisant des données non étiquetées. Cet objectif est difficile à atteindre dans les cas des modèles discriminants. Les modèles probabilistes discriminants permettent de manipuler des représentations linguistiques riches, sous la forme de vecteurs de caractéristiques de très grande taille. Travailler en grande dimension pose des problèmes, en particulier computationnels, qui sont exacerbés dans le cadre de modèles de séquences tels que les champs aléatoires conditionnels (CRF). Sélectionner automatiquement les caractéristiques pertinentes s'avère alors intéressant et donne lieu à des modèles plus compacts et plus faciles à utiliser. Notre contribution est double. Nous introduisons une méthode originale et simple pour intégrer des données non étiquetées dans une fonction objectif semi-supervisé. Nous démontrons alors que l'estimateur semi-supervisé correspondant est asymptotiquement optimal. Le cas de la régression logistique est illustré par des résultats d'expériences. Nous proposons un algorithme d'estimation pour les CRF qui réalise une sélection de caractéristiques, par le truchement d'une pénalisation $L_1$. Nous présentons également les résultats d'expériences menées sur des tâches de traitement des langues, en analysant les performances en généralisation et les caractéristiques sélectionnées. Nous proposons finalement diverses pistes pour améliorer l'efficacité computationelle de cette technique.
634

Couplage mécano-fiabiliste : 2 SMART - méthodologie d'apprentissage stochastique en fiabilité

Deheeger, François 28 January 2008 (has links) (PDF)
La prise en compte de l'incertain dans les analyses mécaniques est une condition indispensable pour un dimensionnement optimal et robuste des structures. Avec cet objectif les méthodes de couplage mécano-fiabiliste doivent intégrer les modélisations mécaniques de plus en plus complexes (comportement non-linéaire, dynamique, fatigue, mécanique de la rupture,...) complexité qui rend les analyses de plus en plus exigeantes en temps de calcul. La voie retenue dans la thèse consiste à substituer au modèle mécanique, un modèle approché obtenu par apprentissage statistique. La mise en oeuvre s'appuie sur la méthode des Support Vector Machines (SVM). Deux nouvelles méthodes sont proposées. SMART Support vector Margin Algorithm for Reliability es Timation permet d'élaborer de manière incrémentale une base de données optimale pour l'apprentissage de la frontière entre sûreté et défaillance. En couplant l'appprentissage avec la technique des subsets simulations, 2 SMART Subset by Support vector Margin Algorithm for Reliability es Timation prend en compte de faibles niveaux de probalité et un nombre relativement important de variables. Les travaux ont été validés sur des cas tests issus de la littérature ainsi que sur des cas mécaniques plus significatifs issus de problèmes industriels. Les résultats obtenus confirment la robustesse des méthodes proposées pour traiter les analyses de sensibilité et de fiabilité.
635

Modèles ordonnés dans un produit direct d'ordres totaux : applications à l'analyse des questionnaires

Kergall, Yves 19 December 1975 (has links) (PDF)
.
636

Traitement riemannien des tenseurs pour l'IRM de diffusion et l'anatomie algorithmique du cerveau.

Fillard, Pierre 08 February 2008 (has links) (PDF)
Les matrices symétriques et définies positives, ou tenseurs, sont aujourd'hui fréquemment utilisées en traitement et analyse des images. Leur importance a été mise à jour avec l'apparition récente de l'IRM du tenseur de diffusion (ITD) et de l'anatomie algorithmique (AA). Cependant, il est difficile de travailler avec : la contrainte de positivité doit être satisfaite à tout prix, ce qui n'est pas garanti avec les opérations matricielles standard. Dans ce travail, nous proposons deux alternatives au calcul euclidien sur les tenseurs. Au lieu de voir l'espace des tenseurs comme un espace vectoriel, nous le considérons comme une variété, i.e., un espace courbe et lisse. Grâce à la géométrie riemannienne, il est alors possible de " déplier " cet espace et de généraliser aux tenseurs toute opération avec des implémentations étonnamment simples. Dans un deuxième temps, nous passons en revue les applications de tels cadres de calcul en ITD clinique et en AA du cerveau. En ITD, nous montrons qu'il est possible de traiter de manière optimale des données très bruitées typiques d'acquisitions cliniques, et de produire des reconstructions de fibres plausibles. En AA du cerveau, nous montrons qu'en considérant des repères anatomiques simples - les lignes sulcales - il est possible de mesurer précisément la variabilité interindividuelle du cortex. Finalement, nous développons un cadre nouveau pour étudier les corrélations anatomiques entre régions du cerveau, et présentons des résultats jusqu'à maintenant inconnus de dépendances entre sillons symétriques, et entre sillons à priori non reliés, soulevant ainsi de nouvelles questions sur l'origine de telles dépendances statistiques.
637

Systèmes de transport multivoies : application au trafic piétonnier

Cividini, Julien 27 June 2014 (has links) (PDF)
Dans cette thèse on étudie certaines applications de modèles simples de la physique théorique au trafic piétonnier. Ces modèles sont tous des automates cellulaires, plus précisément des processus d'exclusion. Dans la première partie de le thèse on étudie un système unidimensionnel, le processus d'exclusion simple totalement symétrique (TASEP), un modèle paradigmatique de particules qui sautent dans une direction favorisée sur un réseau. Le TASEP peut être utilisé pour modéliser de nombreux phénomènes de transport, et ici on l'étudie avec des schémas de mise à jour adaptés aux piétons. Le "frozen shuffle update", schéma plutôt régulier, est défini et ses propriétés principales sont déterminées exactement sur un anneau, avec conditions aux bords ouvertes et pour deux voies qui se croisent en un seul site. Une théorie du domain wall (mur séparant des domaines) exacte au niveau microscopique est alors construite pour un TASEP avec mise a jour parallèle. On montre que cette dernière est en désaccord avec les prédictions précédentes et que la différence vient de corrélations à courte portée qui sont habituellement négligées pour les schémas de mise à jour présentant des fluctuations plus importantes. Dans la seconde partie on combine plusieurs TASEP afin de former un croisement à deux dimensions comprenant deux flux de particules qui s'intersectent perpendiculairement. Sur un tore on observe une alternance de diagonales de particules de chaque type qu'on voit aussi chez les vrais piétons. Cette structure est alors expliquée par une analyse de stabilité linéaire d'équations type champ moyen. Avec des conditions aux bords ouvertes les diagonales s'inclinent légèrement, donnant naissance à "l'effet chevron", qu'on observe aussi bien pour les particules que pour les équations. L'effet chevron est fondamentalement nonlinéaire, mais peut tout de même être expliqué par des calculs d'interactions effectives entre les particules, de manière similaire à ce qui est fait en mécanique des fluides. Pour finir, quelques généralisations naturelles sont rapidement étudiées numériquement pour tester l'applicabilité du modèle aux piétons et la possibilité de mesurer l'effet chevron dans des expériences.
638

L'oral comme fiction : stylistique de l'oralité populaire dans le théâtre de Michel Tremblay (1968-1998)

Dargnat, Mathilde January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
639

Sparse coding for machine learning, image processing and computer vision / Représentations parcimonieuses en apprentissage statistique, traitement d’image et vision par ordinateur

Mairal, Julien 30 November 2010 (has links)
Nous étudions dans cette thèse une représentation particulière de signaux fondée sur une méthode d’apprentissage statistique, qui consiste à modéliser des données comme combinaisons linéaires de quelques éléments d’un dictionnaire appris. Ceci peut être vu comme une extension du cadre classique des ondelettes, dont le but est de construire de tels dictionnaires (souvent des bases orthonormales) qui sont adaptés aux signaux naturels. Un succès important de cette approche a été sa capacité à modéliser des imagettes, et la performance des méthodes de débruitage d’images fondées sur elle. Nous traitons plusieurs questions ouvertes, qui sont reliées à ce cadre : Comment apprendre efficacement un dictionnaire ? Comment enrichir ce modèle en ajoutant une structure sous-jacente au dictionnaire ? Est-il possible d’améliorer les méthodes actuelles de traitement d’image fondées sur cette approche ? Comment doit-on apprendre le dictionnaire lorsque celui-ci est utilisé pour une tâche autre que la reconstruction de signaux ? Y a-t-il des applications intéressantes de cette méthode en vision par ordinateur ? Nous répondons à ces questions, avec un point de vue multidisciplinaire, en empruntant des outils d’apprentissage statistique, d’optimisation convexe et stochastique, de traitement des signaux et des images, de vison par ordinateur, mais aussi d'optimisation sur des graphes. / We study in this thesis a particular machine learning approach to represent signals that that consists of modelling data as linear combinations of a few elements from a learned dictionary. It can be viewed as an extension of the classical wavelet framework, whose goal is to design such dictionaries (often orthonormal basis) that are adapted to natural signals. An important success of dictionary learning methods has been their ability to model natural image patches and the performance of image denoising algorithms that it has yielded. We address several open questions related to this framework: How to efficiently optimize the dictionary? How can the model be enriched by adding a structure to the dictionary? Can current image processing tools based on this method be further improved? How should one learn the dictionary when it is used for a different task than signal reconstruction? How can it be used for solving computer vision problems? We answer these questions with a multidisciplinarity approach, using tools from statistical machine learning, convex and stochastic optimization, image and signal processing, computer vision, but also optimization on graphs.
640

Un calcul algébrique détaillé de la fonction de partition du modèle d'Ising bidimensionnel

Loranger, Francis January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Page generated in 0.0558 seconds