• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 63
  • 9
  • Tagged with
  • 169
  • 89
  • 34
  • 34
  • 27
  • 26
  • 25
  • 23
  • 19
  • 19
  • 19
  • 18
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Recalage non rigide d'images médicales volumiques : contributions aux approches iconiques et géométriques

Cachier, Pascal 29 January 2002 (has links) (PDF)
Le recalage non rigide d'images est un problème classique en vision par ordinateur qui revient à déformer une image afin qu'elle ressemble à une autre. Les techniques existantes, très nombreuses, sont généralement répertoriées selon l'information utilisée pour le recalage. D'un côté les algorithmes iconiques utilisent l'intensité des images. De l'autre, les algorithmes géométiques utilisent des amers géométriques extraits des images, comme les bords d'un objet. Dans cette thèse, nous montrons d'abord que cette classification n'est pas assez fine pour expliquer certaines différences fondamentales dans le comportement de certains algorithmes. Nous proposons de ce fait de diviser la classe des algorithmes iconiques en deux : nous distinguons d'une part les algorithmes iconiques standard, et d'autre part les algorithmes de recalage d'amers iconiques. Nous introduisons une énergie générale de recalage d'amers iconiques, puis nous développons des instances particulières de cette énergie ayant des propriétés spéciales selon l'application visée : ajout de contraintes géométriques supplémentaires, invariance au biais non uniforme, régularisation vectorielle avec des effets croisés, invariance par échange des images. Nous montrons des applications de nos algorithmes en suivi du mouvement dans des séquences échographiques tridimensionnelles, en relage intersujet de cerveaux, et en interpolation de formes et d'intensités.
52

Mesures de similarité et cosinus généralisé : une approche d'apprentissage supervisé fondée sur les k plus proches voisins

Qamar, Ali Mustafa 19 November 2010 (has links) (PDF)
Les performances des algorithmes d'apprentissage automatique dépendent de la métrique utilisée pour comparer deux objets, et beaucoup de travaux ont montré qu'il était préférable d'apprendre une métrique à partir des données plutôt que se reposer sur une métrique simple fondée sur la matrice identité. Ces résultats ont fourni la base au domaine maintenant qualifié d'apprentissage de métrique. Toutefois, dans ce domaine, la très grande majorité des développements concerne l'apprentissage de distances. Toutefois, dans certaines situations, il est préférable d'utiliser des similarités (par exemple le cosinus) que des distances. Il est donc important, dans ces situations, d'apprendre correctement les métriques à la base des mesures de similarité. Il n'existe pas à notre connaissance de travaux complets sur le sujet, et c'est une des motivations de cette thèse. Dans le cas des systèmes de filtrage d'information où le but est d'affecter un flot de documents à un ou plusieurs thèmes prédéfinis et où peu d'information de supervision est disponible, des seuils peuvent être appris pour améliorer les mesures de similarité standard telles que le cosinus. L'apprentissage de tels seuils représente le premier pas vers un apprentissage complet des mesures de similarité. Nous avons utilisé cette stratégie au cours des campagnes CLEF INFILE 2008 et 2009, en proposant des versions en ligne et batch de nos algorithmes. Cependant, dans le cas où l'on dispose de suffisamment d'information de supervision, comme en catégorisation, il est préférable d'apprendre des métriques complètes, et pas seulement des seuils. Nous avons développé plusieurs algorithmes qui visent à ce but dans le cadre de la catégorisation à base de k plus proches voisins. Nous avons tout d'abord développé un algorithme, SiLA, qui permet d'apprendre des similarités non contraintes (c'est-à-dire que la mesure peut être symétrique ou non). SiLA est une extension du perceptron par vote et permet d'apprendre des similarités qui généralisent le cosinus, ou les coefficients de Dice ou de Jaccard. Nous avons ensuite comparé SiLA avec RELIEF, un algorithme standard de re-pondération d'attributs, dont le but n'est pas sans lien avec l'apprentissage de métrique. En effet, il a récemment été suggéré par Sun et Wu que RELIEF pouvait être considéré comme un algorithme d'apprentissage de métrique avec pour fonction objectif une approximation de la fonction de perte 0-1. Nous montrons ici que cette approximation est relativement mauvaise et peut être avantageusement remplacée par une autre, qui conduit à un algorithme dont les performances sont meilleurs. Nous nous sommes enfin intéressés à une extension directe du cosinus, extension définie comme la forme normalisée d'un produit scalaire dans un espace projeté. Ce travail a donné lieu à l'algorithme gCosLA. Nous avons testé tous nos algorithmes sur plusieurs bases de données. Un test statistique, le s-test, est utilisé pour déterminer si les différences entre résultats sont significatives ou non. gCosLA est l'algorithme qui a fourni les meilleurs résultats. De plus, SiLA et gCosLA se comparent avantageusement à plusieurs algorithmes standard, ce qui illustre leur bien fondé.
53

Détection de dérivation de texte

Poulard, Fabien 24 March 2011 (has links) (PDF)
L'Internet permet la production et la diffusion de contenu sans effort et à grande vitesse. Cela pose la question du contrôle de leur origine. Ce travail s'intéresse à la détection des liens de dérivation entre des textes. Un lien de dérivation unit un texte dérivé et les textes préexistants à partir desquels il a été écrit. Nous nous sommes concentré sur la tâche d'identification des textes dérivés étant donné un texte source, et ce pour différentes formes de dérivation. Notre première contribution consiste en la définition d'un cadre théorique posant les concepts de la dérivation ainsi qu'un modèle mulitidimensionnel cadrant les différentes formes de dérivation. Nous avons ensuite mis en place un cadre expérimental constitué d'une infrastructure logicielle libre, de corpus d'évaluation et d'un protocole expérimental inspiré de la RI. Les corpus Piithie et Wikinews que nous avons développé sont à notre connaissance les seuls corpus en français pour la détection de dérivation. Finalement, nous avons exploré différentes méthodes de détection fondées sur l'approche par signature. Nous avons notamment introduit les notions de singularité et d'invariance afin de guider le choix des descripteurs utilisés pour la modélisation des textes en vue de leur comparaison. Nos résultats montrent que le choix motivé des descripteurs, linguistiques notamment, permet de réduire la taille de la modélisation des textes, et par conséquence des coûts de la méthode, tout en offrant des performances comparables à l'approche état de l'art beaucoup plus volumineuse.
54

Extraction et reconnaissance de primitives dans les façades de Paris à l'aide de similarités de graphes.

Haugeard, Jean-Emmanuel 17 December 2010 (has links) (PDF)
Cette dernière décennie, la modélisation des villes 3D est devenue l'un des enjeux de la recherche multimédia et un axe important en reconnaissance d'objets. Dans cette thèse nous nous sommes intéressés à localiser différentes primitives, plus particulièrement les fenêtres, dans les façades de Paris. Dans un premier temps, nous présentons une analyse des façades et des différentes propriétés des fenêtres. Nous en déduisons et proposons ensuite un algorithme capable d'extraire automatiquement des hypothèses de fenêtres. Dans une deuxième partie, nous abordons l'extraction et la reconnaissance des primitives à l'aide d'appariement de graphes de contours. En effet une image de contours est lisible par l'oeil humain qui effectue un groupement perceptuel et distingue les entités présentes dans la scène. C'est ce mécanisme que nous avons cherché à reproduire. L'image est représentée sous la forme d'un graphe d'adjacence de segments de contours, valué par des informations d'orientation et de proximité des segments de contours. Pour la mise en correspondance inexacte des graphes, nous proposons plusieurs variantes d'une nouvelle similarité basée sur des ensembles de chemins tracés sur les graphes, capables d'effectuer les groupements des contours et robustes aux changements d'échelle. La similarité entre chemins prend en compte la similarité des ensembles de segments de contours et la similarité des régions définies par ces chemins. La sélection des images d'une base contenant un objet particulier s'effectue à l'aide d'un classifieur SVM ou kppv. La localisation des objets dans l'image utilise un système de vote à partir des chemins sélectionnés par l'algorithme d'appariement.
55

Fusion multi-niveaux pour l'indexation et la recherche multimédia par le contenu sémantique

Benmokhtar, Rachid 09 June 2009 (has links) (PDF)
Aujourd'hui, l'accès aux documents dans les bases de données, d'archives et sur Internet s'effectue principalement grâce à des données textuelles : nom de l'image ou mots-clés. Cette recherche est non exempte de fautes plus ou moins graves : omission, orthographe, etc. Les progrès effectués dans le domaine de l'analyse d'images et de l'apprentissage automatique permettent d'apporter des solutions comme l'indexation et la recherche à base des caractéristiques telles que la couleur, la forme, la texture, le mouvement, le son et le texte. Ces caractéristiques sont riches en informations et notamment d'un point de vue sémantique. Cette thèse s'inscrit dans le cadre de l'indexation automatique par le contenu sémantique des documents multimédia: plans vidéo et images-clés. L'indexation consiste à extraire, représenter et organiser efficacement le contenu des documents d'une base de données. L'état de l'art du domaine est confronté au «fossé sémantique» qui sépare les représentations visuelles brutes (bas-niveau) et conceptuelles (haut-niveau). Pour limiter les conséquences de cette problématique, nous avons introduit dans le système plusieurs types de descripteurs, tout en prenant à notre avantage les avancées scientifiques dans le domaine de l'apprentissage automatique et de la ``fusion multi-niveaux''. En effet, la fusion est utilisée dans le but de combiner des informations hétérogènes issues de plusieurs sources afin d'obtenir une information globale, plus complète, de meilleure qualité, permettant de mieux décider et d'agir. Elle peut être appliquée sur plusieurs niveaux du processus de classification. Dans cette thèse, nous avons étudié la fusion bas-niveau (précoce), la fusion haut-niveau (tardive), ainsi qu'à un niveau décisionnel basé sur l'ontologie et la similarité inter-concepts dit de raisonnement. Les systèmes proposés ont été validés sur les données de TRECVid (projet NoE K-Space) et les vidéos de football issues d'Orange-France Télécom Labs (projet CRE-Fusion). Les résultats révèlent l'importance de la fusion sur chaque niveau du processus de classification, en particulier, l'usage de la théorie des évidences.
56

Traitement automatique d'informations appliqué aux ressources humaines

Kessler, Rémy 10 July 2009 (has links) (PDF)
Depuis les années 90, Internet est au coeur du marché du travail. D'abord mobilisée sur des métiers spécifiques, son utilisation s'étend à mesure qu'augmente le nombre d'internautes dans la population. La recherche d'emploi au travers des « bourses à l'emploi électroniques » est devenu une banalité et le e-recrutement quelque chose de courant. Cette explosion d'informations pose cependant divers problèmes dans leur traitement en raison de la grande quantité d'information difficile à gérer rapidement et efficacement pour les entreprises. Nous présentons dans ce mémoire, les travaux que nous avons développés dans le cadre du projet E-Gen, qui a pour but la création d'outils pour automatiser les flux d'informations lors d'un processus de recrutement. Nous nous intéressons en premier lieu à la problématique posée par le routage précis de courriels. La capacité d'une entreprise à gérer efficacement et à moindre coût ces flux d'informations, devient un enjeu majeur de nos jours pour la satisfaction des clients. Nous proposons l'application des méthodes d'apprentissage afin d'effectuer la classification automatique de courriels visant leur routage, en combinant techniques probabilistes et machines à vecteurs de support. Nous présentons par la suite les travaux qui ont été menés dans le cadre de l'analyse et l'intégration d'une offre d'emploi par Internet. Le temps étant un facteur déterminant dans ce domaine, nous présentons une solution capable d'intégrer une offre d'emploi d'une manière automatique ou assistée afin de pouvoir la diffuser rapidement. Basé sur une combinaison de systèmes de classifieurs pilotés par un automate de Markov, le système obtient de très bons résultats. Nous proposons également les diverses stratégies que nous avons mises en place afin de fournir une première évaluation automatisée des candidatures permettant d'assister les recruteurs. Nous avons évalué une palette de mesures de similarité afin d'effectuer un classement pertinent des candidatures. L'utilisation d'un modèle de relevance feedback a permis de surpasser nos résultats sur ce problème difficile et sujet à une grande subjectivité.
57

Modélisation expérimentale de la fracturation d'un milieu sédimentaire

Jorand, Cédric 14 May 2007 (has links) (PDF)
La modélisation de la déformation, de la rupture et de la fracturation des milieux rocheux représente un enjeu majeur dans de nombreux domaines scientifiques et pratiques, notamment pour l'exploitation des réservoirs fracturés. Cependant, cette modélisation se heurte à la mauvaise connaissance des lois constitutives, ce qui rend particulièrement importantes les approches expérimentales et en particulier la modélisation physique, qui est au coeur de ce travail.<br /> Nous avons développé une technique originale d'une telle modélisation, basée sur un nouveau matériau Crack1 à l'échelle physique par rapport à une roche réservoir typique: le calcaire. Un programme étendu d'expérimentation avec les modèles de Crack1 a été réalisé avec un dispositif de chargement poly-tridimensionnel. Ce dispositif combine à la fois la simplicité et l'efficacité des solutions réalisées pour la réduction et l'élimination complète de la friction aux bords des modèles. Les résultats principaux peuvent être résumés de la façon suivante:<br />1.Des réseaux de diaclases ont été reproduits pour la première fois dans des conditions de chargement homogènes.<br />2.Les diaclases se forment, dans nos expériences, sous une compression triaxiale. Elles ne sont donc pas des fractures en Mode I. <br />3.Les figures fractographiques visibles sur les surfaces des diaclases naturelles et celles obtenues dans les modèles sont très similaires, ce qui suggère que la similarité physique est assurée pas seulement à macro-échelle, mais aussi à micro-échelle.<br />4.L'espacement S entre les diaclases ne dépend pas de l'épaisseur du modèle , contrairement au concept de « saturation » largement adopté dans la littérature et les modèles de réservoirs. Il a été démontré que S est contrôlé par l'état des contraintes imposé et la déformation accumulée du modèle.<br />5.Nous avons pu également reproduire dans des modèles les couloirs fracturés dont la formation est contrôlée par la rigidité des contacts aux limites de l'unité mécanique affectée par la fracturation.<br />6.L'augmentation de la pression moyenne appliquée au modèle résulte en un changement du style de la fracturation, qui évolue de manière continue des diaclases vers des fractures «obliques » conjuguées.<br />7.L'analyse des conditions de cette transition à partir de la théorie de la bifurcation de la déformation montre qu'elle est associée à la réduction du facteur de dilatance β de Crack1 avec l'augmentation de la pression p (ce type de dépendance β (p) est également connu pour les roches réelles).<br />Les résultats obtenus confirment donc que les lois constitutives contrôlent directement la fracturation. Des études expérimentales plus larges doivent désormais être menées pour contraindre ces lois dans toute leur complexité et avec une précision nécessaire.
58

Adaptations et applications de modèles mixtes de réseaux de neurones à un processus industriel

Schutz, Georges 05 October 2006 (has links) (PDF)
Cette étude consiste à étudier l'apport de réseaux de neurones<br />artificiels pour améliorer le contrôle de processus industriels<br />complexes, caractérisés en particulier par leur aspect temporel.<br />Les motivations principales pour traiter des séries temporelles<br />sont la réduction du volume de données, l'indexation pour la<br />recherche de similarités, la localisation de séquences,<br />l'extraction de connaissances (data mining) ou encore la<br />prédiction.<br /><br />Le processus industriel choisi est un four à arc<br />électrique pour la production d'acier liquide au Luxembourg. Notre<br />approche est un concept de contrôle prédictif et se base sur des<br />méthodes d'apprentissage non-supervisé dans le but d'une<br />extraction de connaissances.<br /><br />Notre méthode de codage se base sur<br />des formes primitives qui composent les signaux. Ces formes,<br />composant un alphabet de codage, sont extraites par une méthode<br />non-supervisée, les cartes auto-organisatrices de Kohonen (SOM).<br />Une méthode de validation des alphabets de codage accompagne<br />l'approche.<br /><br />Un sujet important abordé durant ces recherches est<br />la similarité de séries temporelles. La méthode proposée est<br />non-supervisée et intègre la capacité de traiter des séquences de<br />tailles variées.
59

Evaluation et application de méthodes de criblage in silico

Guillemain, Hélène 25 October 2012 (has links) (PDF)
Lors de la conception de médicaments, le criblage in silico est de plus en plus utilisé et lesméthodes disponibles nécessitent d'être évaluées. L'évaluation de 8 méthodes a mis enévidence l'efficacité des méthodes de criblage in silico et des problèmes de construction de labanque d'évaluation de référence (DUD), la conformation choisie pour les sites de liaisonn'étant pas toujours adaptée à tous les actifs. La puissance informatique actuelle le permettant,plusieurs structures expérimentales ont été choisies pour tenter de mimer la flexibilité dessites de liaison. Un autre problème a été mis en évidence : les métriques d'évaluation desméthodes souffrent de biais. De nouvelles métriques ont donc été proposées, telles queBEDROC et RIE. Une autre alternative est proposée ici, mesurant la capacité prédictive d'uneméthode en actifs. Enfin, une petite molécule active sur le TNFα in vitro et in vivo sur souris aété identifiée par un protocole de criblage in silico. Ainsi, malgré le besoin d'amélioration desméthodes, le criblage in silico peut être d'un important soutien à l'identification de nouvellesmolécules a visée thérapeutique.
60

Apprentissage statistique pour l'étiquetage de musique et la recommandation

Bertin-Mahieux, Thierry January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Page generated in 0.0346 seconds