• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 463
  • 169
  • 91
  • 1
  • 1
  • Tagged with
  • 739
  • 739
  • 739
  • 152
  • 89
  • 78
  • 67
  • 66
  • 56
  • 53
  • 52
  • 48
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Parallel magnetic resonance imaging reconstruction problems using wavelet representations

Chaari, Lotfi 05 November 2010 (has links) (PDF)
Pour réduire le temps d'acquisition ou bien améliorer la résolution spatio-temporelle dans certaines application en IRM, de puissantes techniques parallèles utilisant plusieurs antennes réceptrices sont apparues depuis les années 90. Dans ce contexte, les images d'IRM doivent être reconstruites à partir des données sous-échantillonnées acquises dans le " k-space ". Plusieurs approches de reconstruction ont donc été proposées dont la méthode SENSitivity Encoding (SENSE). Cependant, les images reconstruites sont souvent entâchées par des artéfacts dus au bruit affectant les données observées, ou bien à des erreurs d'estimation des profils de sensibilité des antennes. Dans ce travail, nous présentons de nouvelles méthodes de reconstruction basées sur l'algorithme SENSE, qui introduisent une régularisation dans le domaine transformé en ondelettes afin de promouvoir la parcimonie de la solution. Sous des conditions expérimentales dégradées, ces méthodes donnent une bonne qualité de reconstruction contrairement à la méthode SENSE et aux autres techniques de régularisation classique (e.g. Tikhonov). Les méthodes proposées reposent sur des algorithmes parallèles d'optimisation permettant de traiter des critères convexes, mais non nécessairement différentiables contenant des a priori parcimonieux. Contrairement à la plupart des méthodes de reconstruction qui opèrent coupe par coupe, l'une des méthodes proposées permet une reconstruction 4D (3D + temps) en exploitant les corrélations spatiales et temporelles. Le problème d'estimation d'hyperparamètres sous-jacent au processus de régularisation a aussi été traité dans un cadre bayésien en utilisant des techniques MCMC. Une validation sur des données réelles anatomiques et fonctionnelles montre que les méthodes proposées réduisent les artéfacts de reconstruction et améliorent la sensibilité/spécificité statistique en IRM fonctionnelle
332

Topological tools for discrete shape analysis

Chaussard, John 02 December 2010 (has links) (PDF)
L'analyse d'images est devenue ces dernières années une discipline de plus en plus riche de l'informatique. La topologie discrète propose un panel d'outils incontournables dans le traitement d'images, notamment grâce à l'outil du squelette, qui permet de simplifier des objets tout en conservant certaines informations intactes. Cette thèse étudie comment certains outils de la topologie discrète, notamment les squelettes, peuvent être utilisés pour le traitement d'images de matériaux.Le squelette d'un objet peut être vu comme une simplification d'un objet, possédant certaines caractéristiques identiques à celles de l'objet original. Il est alors possible d'étudier un squelette et de généraliser certains résultats à l'objet entier. Dans une première partie, nous proposons une nouvelle méthode pour conserver, dans un squelette, certaines caractéristiques géométriques de l'objet original (méthode nécessitant un paramètre de filtrage de la part de l'utilisateur) et obtenir ainsi un squelette possédant la même apparence que l'objet original. La seconde partie propose de ne plus travailler avec des objets constitués de voxels, mais avec des objets constitués de complexes cubiques. Dans ce nouveau cadre, nous proposons de nouveaux algorithmes de squelettisation, dont certains permettent de conserver certaines caractéristiques géométriques de l'objet de départ dans le squelette, de façon automatique (aucun paramètre de filtrage ne doit être donné par l'utilisateur). Nous montrerons ensuite comment un squelette, dans le cadre des complexes cubiques, peut être décomposé en différentes parties. Enfin, nous montrerons nos résultats sur différentes applications, allant de l'étude des matériaux à l'imagerie médicale
333

Génération aléatoire d'automates et analyse d'algorithmes de minimisation

David, Julien 28 September 2010 (has links) (PDF)
Cette thèse porte sur la génération aléatoire uniforme des automates finis et l'analyse des algorithmes de minimisation qui s'y appliquent. La génération aléatoire permet de conduire une étude expérimentale sur les propriétésde l'objet engendré et sur les méthodes algorithmiques qui s'y appliquent. Il s'agit également d'un outil de recherche, qui permet de faciliter l'étude théorique du comportement moyen des algorithmes. L'analyse en moyenne des algorithmes s'inscrit dans la suite des travaux précurseurs de Donald Knuth. Le schéma classique en analyse d'algorithmes consiste à étudier le pire des cas, qui n'est souvent pas représentatif du comportement de l'algorithme en pratique. D'un point de vue théorique, on définit ce qui se produit "souvent'' en fixant une loi de probabilitésur les entrées de l'algorithme. L'analyse en moyenne consiste alors à estimer des ressources utiliséespour cette distribution de probabilité. Dans ce cadre, j'ai travaillé sur des algorithmes de génération aléatoire d'automatesdéterministes accessibles (complets ou non). Ces algorithmes sont basés sur de la combinatoirebijective, qui permet d'utiliser un procédé générique : les générateurs de Boltzmann. J'ai ensuite implanté ces méthodes dans deux logiciels : REGAL et PREGA. Je me suis intéressé à l'analyse en moyenne des algorithmes de minimisation d'automateset j'ai obtenu des résultats qui montrent le cas moyen des algorithmes de Moore et Hopcroft est bien meilleur que le pire des cas
334

Éléments pour l'Apprentissage et l'Optimisation de Fonctions Chères

Rolet, Philippe 22 December 2010 (has links) (PDF)
Ces travaux de doctorat sont centrés sur l'apprentissage artificiel et l'optimisation, c'est à dire la construction de programmes apprenant à identifier un concept, à approximer une fonction ou à trouver un optimum à partir d'exemples de ce concept (ou de points de la fonction). Le contexte applicatif est l'apprentissage et l'optimisation de modèles simplifiés en ingénierie numérique, pour des problèmes industriels pour lesquels les exemples sont coûteux à obtenir. Il est nécessaire d'en utiliser le moins possible pour l'apprentissage; c'est le principe de l'apprentissage actif et de l'optimisation de fonction chères. Mes efforts de recherche ont d'abord porté sur la conception et le développement d'une nouvelle approche de l'apprentissage Actif, fondée sur l'apprentissage par renforcement. Les fondements théoriques de l'approche ont été établis. Parallèlement, l'implémentation d'un logiciel fondé sur cette approche, BAAL, a permis une validation expérimentale (publications: CAP'09, ECML'09). Une extension de cette approche a été réalisée pour l'optimisation de fonction chères (publication: GECCO 2009). La deuxième partie de mon doctorat s'intéresse aux potentiels et aux limites de l'apprentissage actif et de l'optimisation chère d'un point de vue théorique. Une étude des bornes de complexités de l'apprentissage actif par "paquets" a été réalisée (publication: ECML 2010). Dans le domaine de l'optimisation bruitée, des résultats sur le nombre minimal d'exemples nécessaires pour trouver un optimum ont été obtenus (publications: LION 2010, EvoSTAR 2010).
335

Allocation et routage dynamique dans un FMS basés sur le concept de champ de potentiel

Zbib, Nadine 08 July 2010 (has links) (PDF)
Ce mémoire traite de la notion de champ de potentiel et de son application à l'allocation dynamique des tâches et au routage de produits dans des systèmes de production flexibles (FMS). Dans cette approche, les produits ont une liste de services à obtenir au sein du système de production. Les ressources émettent des champs de potentiel correspondant aux différents services offerts. Les produits détectent les champs émis par les ressources et sélectionnent le champ qui répond mieux à leur besoin. Les interactions se font donc entre produits et ressources et non uniquement entre ressources comme c'est généralement le cas dans les approches de pilotage plus classiques. Après un état de l'art sur les différentes approches d'interaction entre les entités intervenant dans le pilotage des systèmes de production, nous choisissons et détaillons l'approche à base de champs de potentiel. Un modèle formalisant les champs de potentiel est proposé pour le contrôle hétérarchique résolvant simultanément les problématiques d'allocation dynamique des ressources et de routage dynamique des produits en temps réel. L'approche repose sur l'utilisation d'entités autonomes décisionnelles capables de capter des informations dans leur environnement et de réagir dans celui-ci. Un modèle de produit « actif » embarquant des capacités décisionnelles, basé sur le concept d'augmentation est proposé. Grâce à la plateforme de simulation multi-agents « NetLogo », le modèle est validé tenant compte de contraintes caractéristiques des systèmes de production (temps de transport non négligeables, capacité des files d'attente des ressources et certaines situations de panne), et en s'inspirant d'un benchmark existant. Ce dernier est utilisé pour effectuer une comparaison entre notre modèle et une étude de référence basée sur l'utilisation du protocole contrat-net pour résoudre les problèmes d'allocation des produits entre ressources. Pour valider ce modèle, une mise en oeuvre réelle est présentée sur la cellule flexible AIP-PRIMECA de Valenciennes dans une partie « implémentation ». Dans celle-ci, après une présentation des équipements utilisés, une comparaison des deux approches (champ de potentiel / contract-net) est réalisée en utilisant le même protocole expérimental.
336

Procedures d'agregation ordinale de preferences avec points de reference pour l'aide a la decision

Rolland, Antoine 25 September 2008 (has links) (PDF)
Cette thèse porte sur l'étude de modèles d'agrégations de préférences utilisant des points de références. En théorie de la décision, de nombreux travaux axiomatiques montrent les difficultés théoriques et pratiques que pose l'agrégation de relations de préférences partiellement conflictuelles. Les théorèmes d'impossibilité existants expliquent d'une part les difficultés rencontrées par les concepteurs de méthodes multicritères reposant sur une modélisation ordinale des préférences mais aussi la difficulté de concevoir des modèles purement qualitatifs pour la décision dans l'incertain. Nous proposons ici de comparer les solutions non plus de manière directe, mais de manière indirecte en examinant leurs mérites respectifs du point de vue de plusieurs points de références. Nous étudions le potentiel descriptif et prescriptif de ces modèles, les propriétés formelles des règles d'agrégation associées, et nous proposons des théorèmes de représentation caractérisant les préférences représentables par ces modèles dans les domaines de la décision multicritère et la décision dans l'incertain. Enfin, nous montrons leur apport potentiel en aide à la décision à travers des exemples d'application.
337

Matériel et logiciel pour l'évaluation de fonctions numériques :<br />précision, performance et validation

De Dinechin, Florent 28 June 2007 (has links) (PDF)
Ce mémoire reprend quelques résultats obtenus entre 2000 et 2007 au sein du projet Arénaire du LIP. La problématique centrale est l'évaluation de fonctions numériques : étant donnée une fonction réelle, par exemple un polynôme, un sinus, une exponentielle ou toute autre fonction utile, il s'agit de construire un opérateur pour l'évaluer. Pour cela, on dispose de quelques règles du jeu et de quelques briques de bases: pour le matériel, on peut utiliser, avec un parallélisme arbitraire, des additions et multiplications entières et des tables précalculées. Pour le logiciel, on dispose en plus d'opérateurs de calcul en virgule flottante, mais avec un modèle d'exécution séquentiel. Dans les deux cas, on est contraint à des approximations dont on cherche à minimiser l'erreur. La question de la précision, notamment des calculs intermédiaires, est ici intimement liée à celle de la performance. Pour gérer tous ces paramètres et obtenir des implémentations de qualité, il faut de plus en plus d'automatisation. De plus, pour que cette qualité soit garantie, il faut se rapprocher du monde de la preuve formelle. Ces différents aspects sont évoqués, ainsi que des applications de ces travaux aux accélérateurs de calcul reconfigurables et à la normalisation de la virgule flottante.
338

Représentation multi-facette des documents pour leur accès sémantique.

Ralalason, Bachelin 30 September 2010 (has links) (PDF)
La recherche d'information (RI) est un domaine prépondérant dans la vie contemporaine car elle permet de disposer d'éléments d'informations qui permettent d'agir et de prendre des décisions face à une situation donnée. En effet, l'objectif d'une RI est de s'informer, d'apprendre de nouvelles notions que nous ne maîtrisons pas. La disponibilité et la pertinence de ces nouvelles informations ont donc une très grande influence sur la prise de décision. La plupart des moteurs de recherche actuels utilisent des index regroupant les mots représentatifs des documents afin de permettre leur recherche ultérieure. Dans ces méthodes, les documents et les requêtes sont considérées comme des sacs de mots, non porteurs de sens. L'une des méthodes innovantes actuelles est l'indexation et la recherche sémantique des documents. Il s'agit de mieux prendre en compte le besoin de l'utilisateur en considérant la sémantique des éléments textuels. Nous nous intéressons à cet aspect de la RI en considérant une indexation et une recherche à base d'ontologies de domaine. Les solutions que nous proposons visent à améliorer la pertinence des réponses d'un système par rapport au thème de la recherche. Le discours contenu dans un document ou dans une requête ne sont pas les seuls éléments à prendre en compte pour espérer mieux satisfaire l'utilisateur. D'autres éléments relatifs au contexte de sa recherche doivent aussi être pris en compte. La granularité des informations à restituer à l'utilisateur est un autre aspect. Nous nous sommes intéressés à ces différents aspects et avons développé un méta-modèle de représentation multi-facette des documents en vue de leur accès sémantique. Dans notre modèle, le document est vu selon différentes dimensions dont la structure logique, la structure physique, la sémantique des contenus ainsi que leurs évolutions dans le temps. Nous avons également proposé des mesures de similarité sémantique entre concepts et une fonction de similarité entre les graphes d'annotation des requêtes et ceux des documents. Pour évaluer et valider nos solutions, nous avons instancié ce modèle dans trois domaines distincts : l'apprentissage en ligne, la maintenance automobile et les partitions musicales Braille. Nous avons également évalué les résultats en termes de rappel/précision des fonctions que nous avons proposées et montré leur supériorité par rapport à l'état de l'art.
339

Eléments méthodologiques pour le développement des systèmes décisionnels dans un contexte de réutilisation

Estella, Annoni 16 July 2007 (has links) (PDF)
Face au besoin croissant de réactivité et de compétitivité des organisations, les développements de systémes qui facilitent la prise de décision se sont démocratisés. Ces systèmes sont des «systèmes d'information décisionnels» (SID). Cependant, 80% des projets décisionnels ne parviennent pas à satisfaire les besoins des utilisateurs et 40% d'entre eux échouent à faciliter la prise de décision. Les récentes propositions de méthodes liées aux SID définissent leur schéma à partir des besoins des utilisateurs et des systèmes sources. Néanmoins, elles ne permettent pas de représenter toutes les spécificités des SID. De plus, elles reposent sur des modèles spécifiques ne représentant que les données, l'aspect dynamique des SID n'étant que peu abordé. Aucun de ces modèles n'est donc reconnu par les chercheurs et les industriels. Dans un premier temps, nous proposons une méthode qui prend en compte les spécificités du SID ainsi que celles des besoins de ces acteurs. Nous analysons l'aspect statique et l'aspect dynamique du SID d´efinis à partir de structures spécifiant les besoins et nous les représentons via un modèle proche de la vision multidimensionnelle des données par les utilisateurs. A partir de cette formalisation, nous guidons suivant un processus automatique le choix de l'architecture du SID adaptée à un projet. Cette architecture repose sur plusieurs types de modules décisionnels dont certains sont multidimensionnels. Nous proposons donc un modèle multidimensionnel généralisé à partir des propositions existantes, visant par la même de répondre à ce manque de modèle standard. Dans un second temps, nous proposons un catalogue de patrons qui capitalise notre méthode de développement. Ce catalogue favorise la réutilisation systématique de notre méthode : d'une part, la formalisation du contexte d'un patron facilite sa recherche car les conditions dans lesquelles il est utilisable et celles dans lesquelles il requiert un autre patron sont formellement spécifiées, d'autre part, la gestion intégrée de la documentation dans sa représentation contribue à améliorer la fiabilit´e des systèmes développés. Enfin, pour faciliter le développement rapide de SID par réutilisation de nos patrons, nous avons développé un outil, appelé eBIPAD (Electronic Business Intelligence Patterns for Analysis and Design), de gestion de ces patrons avec des fonctionnalités d'organisation et de réutilisation. Cet outil est dédié aux administrateurs des patrons et aux concepteurs décisionnels. Nous avons pu valider nos propositions au cours des missions que nous avons menées au sein de la société, I-D6, spécialisée dans le décisionnel, et ce, dans le cadre d'une collaboration CIFRE.
340

Calculer géométriquement sur le plan - machines à signaux -

Durand-Lose, Jérôme 13 December 2003 (has links) (PDF)
Ce mémoire se place dans l'étude des modèles du calcul continus. Nous y montrons que la géométrie plane permet de calculer. Nous définissons un calcul géométrique et utilisons la continuité de l'espace et du temps pour stocker de l'information au point de provoquer des accumulations. Dans le monde des automates cellulaires, on parle souvent de particules ou de signaux (qui forment des lignes discrètes sur les diagrammes espace-temps) tant, pour analyser une dynamique que, pour concevoir des automates cellulaires particuliers. Le point de départ de nos travaux est d'envisager des versions continues de ces signaux. Nous définissons un modèle de calcul continu, les machines à signaux, qui engendre des figures géométriques suivant des règles strictes. Ce modèle peut se comprendre comme une extension continue des automates cellulaires. Le mémoire commence par une présentation des automates cellulaires et des particules. Nous faisons ensuite une classification des différents modèles de calcul existants et mettons en valeur leurs aspects discrets et continus. À notre connaissance, notre modèle est le seul à temps et espace continus mais à valeurs et mises à jour discrètes. Dans la première partie du mémoire, nous présentons ce modèle, les machines à signaux, et montrons comment y mener tout calcul au sens de Turing (par la simulation de tout automate à deux compteurs). Nous montrons comment modifier une machine de manière à réaliser des transformations géométriques (translations, homothéties) sur les diagrammes engendrés. Nous construisons également les itérations automatiques de ces constructions de manière à contracter le calcul à une bande (espace borné) puis, à un triangle (temps également borné). Dans la seconde partie du mémoire, nous cherchons à caractériser les points d'accumulation. Nous reformulons de manière topologique les diagrammes espace-temps: pour chaque position, la valeur doit correspondre au voisinage sur un ouvert suffisamment petit. Muni de cet outil, nous regardons les plus simples accumulations possibles (les singularités isolées) et proposons un critère pour y prolonger le calcul; mais le déterminisme peut être perdu dans le cône d'influence. Enfin, en construisant pour tout automate à deux compteurs une machine à signaux et une configuration initiale simulant l'automate pour toutes les valeurs possibles, nous montrons que le problème de la prévision de l'apparition d'une accumulation est Σ20-complet. Le mémoire se conclut par la présentation de nombreuses perspectives de recherches.

Page generated in 0.4414 seconds