• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 186
  • 56
  • 16
  • 10
  • 9
  • 3
  • Tagged with
  • 290
  • 68
  • 66
  • 47
  • 45
  • 29
  • 27
  • 27
  • 25
  • 23
  • 22
  • 21
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Vers une meilleure utilisabilité des mémoires de traduction, fondée sur un alignement sous-phrastique

Chenon, Christophe 28 October 2005 (has links) (PDF)
La traduction assistée par ordinateur a connu un grand essor dans les années 1990 avec l'arrivée des environnements à mémoires de traduction. Ces systèmes exploitent la redondance des textes techniques produits et traduits dans l'industrie, en proposant aux traducteurs de réutiliser des traductions archivées et d'accroître ainsi leur productivité. Ces mémoires utilisent, sans analyse, des segments de textes (le plus souvent des phrases entières) dont le découpage et l'alignement sont garantis par le traducteur.<br /><br />Pourtant ces mémoires recèlent des gisements d'information importants au niveau sous-phrastique dont les utilisateurs ne peuvent pas bénéficier. Le formalisme TransTree permet de représenter des correspondances sous-segmentales enchassées bilingues. Ces correspondances complexes (les amphigrammes) forment une structure arborescente exprimable en XML. Une transformation de surface conduit à une visualisation dynamique mettant en évidence les différents niveaux de correspondance entre sous-segments.<br /><br />TransTree s'accompagne d'une méthode générale de construction par voie statistique, fondée sur les arbres binaires de sécabilité. Cette méthode permet d'établir des amphigrammes à partir des correspondances entre mots typographiques. Il est possible d'abstraire des patrons de traduction (amphigrammes génériques) par classification des exemples rencontrés dans le corpus.<br /><br />Quelques expérimentations ont été effectuées pour valider le pouvoir d'expression du formalisme, explorer différentes options de construction et esquisser un algorithme de reconstitution d'un segment cible à partir d'un segment source inconnu avec la connaissance extraite des mémoires de traduction.
132

Logique, Réalisabilité et Concurrence

Beffara, Emmanuel 06 December 2005 (has links) (PDF)
Cette thèse se consacre à l'application de techniques de réalisabilité dans le cadre de l'étude du sens calculatoire de la logique. Dans une première partie, nous rappelons le formalisme de la réalisabilité classique de Krivine, dans lequel nous menons ensuite une étude du contenu opérationnel de tautologies purement classiques. Cette exploration du sens calculatoire de la disjonction classique révèle des comportements riches, avec une forte intuition interactive, qui s'interprètent avantageusement comme des structures de contrôle typées. Afin de mieux comprendre la nature de ces mécanismes, nous définissons ensuite une technique de réalisabilité à la Krivine pour un modèle de calcul concurrent, dans le but d'obtenir une notion de constructivité qui ne soit plus fondée sur l'idée de fonction, mais sur celle de processus interactif. Le cadre ainsi obtenu donne une interprétation réellement concurrente de la logique linéaire dans un calcul de processus dérivé du pi-calcul, permettant d'appliquer au cas concurrent la méthode de spécification précédemment étudiée dans le cas séquentiel. Par la suite, l'étude des traductions de la logique classique vers la logique linéaire mène à reconstruire systématiquement des décompositions interactives du calcul fonctionnel, permettant ainsi de faire le lien au niveau logique entre les réalisabilités classique et concurrente. Dans une dernière partie, nous étudions plus en détail le mode de calcul issu des algèbres de processus, afin de comprendre son système d'ordonnancement. Cette étude mène à la définition d'un modèle de calcul plus géométrique qui permet une exploration formelle de la notion de causalité dans les calculs concurrents.
133

Simultaneous localization and mapping in 3D environments with stereovision

JUNG, Il Kyun 02 March 2004 (has links) (PDF)
Dans cette thèse, nous abordons le problème SLAM pour des robots évoluant en 3D dans de grands environnements, en utilisant la stéréovision. Une implémentation complète des différentes fonctionnalités nécessaires a été conçue, développée et expérimentée dans différents contextes. La première partie de la thèse traite du problème d'association des données :elle présente un algorithme de mise en correspondance de points d'intérêt détectés dans les images, qui est robuste par rapport au bruit et aux changements de point de vue. La deuxième partie de la thèse est dédiée au développement d'une approche du problème SLAM basée sur le filtrage de Kalman. Les amers sont les points d'intérêt détectés dans les images, dont les coordonnées 3D sont fournies par la stéréovision. La dernière partie de la thèse présente et analyse des résultats obtenus dans différents contextes~: sur des trajectoires de plusieurs centaines de mètres effectuées par un ballon dirigeable évoluant à faible altitude, avec un robot évoluant en environnement naturel non structuré, et avec un robot évoluant en environnements intérieurs. Lorsque la trajectoire ``ferme une boucle'', une méthode rapide de correction de l'estimée des différentes positions par lesquelles le robot est passé permet de reconstruire un modèle numérique du terrain.
134

Autour des représentations modulo p des groupes réductifs p-adiques de rang 1

Abdellatif, Ramla 02 December 2011 (has links) (PDF)
Soit p un nombre premier. Cette thèse est une contribution à la théorie des représentations modulo p des groupes réductifs p-adiques, jusque là essentiellement centrée sur le groupe linéaire général GL(n) défini sur un corps local non archimédien F complet pour une valuation discrète, de caractéristique résiduelle p et de corps résiduel fini. L'originalité de nos travaux réside notamment dans le fait qu'ils concernent d'autres groupes : nous nous intéressons en effet à la description des classes d'isomorphisme des représentations modulo p de groupes formés des F-points d'un groupe réductif connexe défini, quasi-déployé de rang semi-simple égal à 1 sur F. Une place particulière est accordée au groupe spécial linéaire SL(2) et au groupe unitaire quasi-déployé non ramifié en trois variables U(2,1). Dans ces deux cas, nous montrons que les classes d'isomorphisme des représentations lisses irréductibles admissibles à coefficients dans un corps algébriquement clos de caractéristique p se scindent en deux familles : les représentations non supersingulières et les représentations supersingulières. Nous décrivons complètement les représentations non supersingulières, et montrons que la notion de supersingularité est équivalence à la notion de supercuspidalité apparaissant dans la théorie complexe. Nous donnons aussi une description explicite des représentations supersingulières de SL(2,Q_{p}), ce qui nous permet de définir dans ce cas une correspondance de Langlands locale semi-simple modulo p compatible à celle construite par Breuil pour GL(2). Nous généralisons ensuite les méthodes utilisées jusqu'alors pour obtenir la description des représentations non supercuspidales de G(F) lorsque G est un groupe réductif connexe défini, quasi-déployé, et rang semi-simple égal à 1 sur F. Elle fait apparaître trois familles deux à deux disjointes de représentations : les caractères, les représentations de la série principale et celles de la série spéciale. Nous terminons par une classification des modules à droite simples sur la pro-p-algèbre de Hecke-Iwahori H de SL(2,F). On déduit en particulier que l'application qui envoie une représentation lisse modulo p de SL(2,F) sur son espace de vecteurs invariants sous l'action du pro-p-sous-groupe d'Iwahori induit une bijection entre l'ensemble des classes d'isomorphisme des représentations lisses irréductibles non supersingulières de SL(2,F) et l'ensemble des classes d'isomorphisme des H-modules à droite simples non supersinguliers. Cette bijection s'étend aux objets supersinguliers lorsque l'on suppose que F = Q_{p}, ce qui est de bon augure dans la recherche d'une équivalence de catégories analogue à celle obtenue par Ollivier dans le cadre de la théorie existant pour GL(2, Q_{p}).
135

Étude de la dynamique cardiaque par analyse d'images tridimensionnelles

Declerck, Jérôme 17 November 1997 (has links) (PDF)
Les maladies cardiovasculaires demeurent à ce jour la première cause de mortalité dans les pays occidentaux développés. Le diagnostic d'une pathologie permet de prescrire au patient une thérapie adaptée avec un succès d'autant plus grand que la détection est précoce. Nous nous intéressons dans cette thèse à l'étude de la dynamique cardiaque par analyse d'images tridimensionnelles, plus précisément à l'étude du ventricule gauche, la pompe principale du système de circulation sanguine. La première partie de ces travaux porte sur l'étude de la perfusion myocardique par tomoscintigraphie (SPECT) : dans cette étude, deux images 3D fonctionnelles du ventricule gauche sont acquises afi n de détecter, par comparaison, d'éventuelles ischémies ou infarctus. Un outil a été développé pour mettre en correspondance ces images de façon automatique et de normaliser la géométrie de ces images dans un coeur de référence, en vue d'une quanti fication objective en 3D de l'étendue d'une pathologie. Cet outil a été mis au point sur une base de données d'entraînement de 40 cas et évalué sur une base de données de routine de 250 cas avec un succès de 97 %. La seconde partie de ces travaux porte sur l'étude du mouvement du ventricule gauche : nous décrivons une classe de transformations planisphériques 4D qui permettent de décrire le mouvement du ventricule en 4D (espace + temps). Ces transformations sont continues, dé finies grâce à la donnée d'un nombre réduit de paramètres. Elles sont décrites dans une géométrie particulièrement adaptée, permettant une écriture simple de la transformation. De plus, il est possible de réaliser une décomposition du mouvement dont la description spatiale et temporelle fournit des paramètres quantitatifs en vue d'une analyse objective et, potentiellement, et d'un diagnostic indépendant de l'opérateur. La méthode a été testée sur des séquences d'images tomoscintigraphiques synchronisées à l'électro-cardiogramme (gated SPECT) et par IRM marquées (tagged MRI).
136

Approche monodimensionnelle de la mise en correspondance stéréoscopique par corrélation - Application à la détection d'obstacles routiers

Lefebvre, Sébastien 03 July 2008 (has links) (PDF)
En stéréovision, une carte dense des disparités peut être déterminée grâce à des méthodes locales exploitant la mise en correspondance des contenus de voisinages bidimensionnels. Toutefois, dans le contexte d'une application de métrologie 3D, il n'est pas nécessaire que la carte soit dense, mais elle doit être très précise. Par ailleurs, en présence d'un fort eet de perspective, d'importantes variations locales de la disparit é apparaissent et les méthodes locales exploitant des fenêtres 2D ne garantissent plus une précision susante. Dans ce travail, nous proposons une méthode générique de mise en correspondance qui exploite des caractéristiques extraites d'un ensemble de courbes de similarité calculées sur des fenêtres 1D. Nous établissons une notion de conance reliant directement la précision à la densité de la carte des disparités obtenue, entre lesquelles il est alors possible de xer un compromis. La méthode générique proposée est évaluée en comparant ses résultats à ceux obtenus par six autres méthodes locales similaires. Nous montrons ainsi son ecacité, tout particulièrement quand la scène contient un plan fortement incliné. Nous testons nalement notre méthode dans le cadre d'une application de détection d'obstacles à l'avant d'un véhicule routier. Nous montrons qu'en segmentant notre carte des disparités par un procédé assez simple, la détection des obstacles est possible et surtout plus précise qu'avec des cartes des disparités calculées sur des voisinages 2D. Le comportement de la méthode 1D face à diérents défauts de texture ou de calibration est étudié à la fois sur des images de synthèse et des images réelles.
137

Découverte automatique de correspondances entre ontologies

Tournaire, Rémi 08 October 2010 (has links) (PDF)
Dans cette thèse, nous adoptons une approche formelle pour définir et découvrir des mappings d'inclusion probabilistes entre deux taxonomies avec une sémantique claire, dans l'optique d'échange collaboratif de documents. Nous comparons deux façons de modéliser des mappings probabilistes tout en étant compatible avec les contraintes logiques déclarées dans chaque taxonomie selon une propriété de monotonie, puis nous montrons que ces modèles sont complémentaires pour distinguer les mappings pertinents. Nous fournissons un moyen d'estimer les probabilités d'un mapping par une technique bayésienne basée sur les statistiques des extensions des classes impliquées dans le mapping. Si les ensembles d'instances sont disjoints, on utilise des classifieurs pour les fusionner. Nous présentons ensuite un algorithme de type "générer et tester" qui utilise les deux modèles de mappings pour découvrir les plus probables entre deux taxonomies. Nous menons une analyse expérimentale fouillée de ProbaMap. Nous présentons un générateur de données synthétiques qui produit une entrée contrôlée pour une analyse quantitative et qualitative sur un large spectre de situations. Nous présentons aussi deux séries de résultats d'expériences sur des données réelles : l'alignement du jeu de donnée "Directory" d'OAEI, et une comparaison pour l'alignement de Web Directories sur lesquels ProbaMap obtient de meilleurs résultats que SBI (IJCAI 2003). Les perspectives pour ces travaux consistent à concevoir un système de réponse à des requêtes probabilistes en réutilisant des mappings probabilites, et la conversion des coefficients retournés par les méthodes de matching existantes en probabilités.
138

De l'appariement a l'indexation des images

Gros, Patrick 18 December 1998 (has links) (PDF)
Nous présentons dans ce document l'ensemble de nos travaux concernant l'appariement, la modélisation et l'indexation des images. Cet ensemble de techniques concourt au développement d'un système de reconnaissance automatique d'images. Dans un premier temps, nous présentons diverses méthodes d'appariement d'images adaptées spécifiquement aux images structurées, texturées en niveaux de gris ou en couleur. Nous montrons comment faire coopérer ces méthodes dans le cas d'images difficiles. La deuxième partie est consacrée à la modélisation d'images et de concepts visuels, modélisation qui repose sur une technique de regroupement hiérarchique. La taille des groupes formés est calculée par une méthode basée sur l'entropie. L'indexation des images occupe la fin du mémoire. Deux cas sont étudiés : celui du stockage des données en mémoire vive, cas pour lequel nous fournissons des résultats de complexité, et celui du stockage en mémoire auxiliaire, qui reste encore largement à explorer. Le tout est largement illustré de cas concrets et ouvre de nombreuses pistes de travail.
139

Apprentissage de variétés et applications au traitement de formes et d'images

Thorstensen, Nicolas 26 November 2009 (has links) (PDF)
Grâce aux bases de données en ligne, le volume de données ne cesse d accroitre. Non seulement la quantité de donnes augmente mais aussi la complexité des donnes est hautement complexe. Ce fait nécessite le développement d algorithmes performants. Récemment, une nouvelle classe de méthodes connue sous le nom de: "apprentissage de variétés" a été introduite. Ces méthodes présentent un formalisme intéressant et performant pour l analyse de données à très haute dimension. Ces méthode assument que les degrés de liberté dans les données sont bien plus petit que la dimension de l espace des données. Le but de ces algorithmes est retrouve une variété plongée dans un espace à haute dimension (voire infinie). La sortie d un tel algorithme est une fonction transformant les données dans un espace (espace de feature) où l'analyse devient plus facile. Souvent cette fonction est considère comme une para métrisation de la variété. Dans la première partie de ce manuscrit, nous allons introduire les idées principales ainsi que la théorie des espaces métriques. Ceci nous fournira les outils de bases pour les méthodes d'apprentissage de variétés. Par la suite nous présenterons des méthodes linéaires et non- linéaires pour l'apprentissage de variétés et analyserons leurs points forts et faibles. La deuxième partie développera deux applications en utilisant l'apprentissage des variétés. Dans les deux cas l'apprentissage de variétés est appliqué pour approximer le métrique dans l espace initiale. Ainsi la distance entre points dans l'espace originale peut être approximé en utilisant la métrique dans l'espace feature. Ainsi nous pouvant résoudre des problèmes d optimisation basée sur les distances entre points. Dans cette idée nous regardons le premier problème connu sous le nom "problème de la pré-image". Nous analyserons ce problème dans le contexte de la ACP a noyau and la technique des di
140

Imitation Of Human Body Poses And Hand Gestures Using A Particle Based Fluidics Method

Tilki, Umut 01 October 2012 (has links) (PDF)
In this thesis, a new approach is developed, avoiding the correspondence problem caused by the difference in embodiment between imitator and demonstrator in imitation learning. In our work, the imitator is a fluidic system of dynamics totally different than the imitatee, which is a human performing hand gestures and human body postures. The fluidic system is composed of fluid particles, which are used for the discretization of the problem domain. In this work, we demonstrate the fluidics formation control so as to imitate by observation initially given human body poses and hand gestures. Our fluidic formation control is based on setting suitable parameters of Smoothed Particle Hydrodynamics (SPH), which is a particle based Lagrangian method, according to imitation learning. In the controller part, we developed three approaches: In the first one, we used Artificial Neural Networks (ANN) for training of the input-output pairs on the fluidic imitation system. We extracted shape based feature vectors for human hand gestures as inputs of the system and for output we took the fluid dynamics parameters. In the second approach, we employed the Principal Component Analysis (PCA) method for human hand gesture and human body pose classification and imitation. Lastly, we developed a region based controller which assigns the fluid parameters according to the human body poses and hand gestures. In this controller, our algorithm determines the best fitting ellipses on human body regions and human hand finger positions and maps ellipse parameters to the fluid parameters. The fluid parameters adjusted by the fluidics imitation controller are body force (f), density, stiffness coefficient and velocity of particles (V) so as to lead formations of fluidic swarms to human body poses and hand gestures.

Page generated in 0.0377 seconds