• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 51
  • 20
  • Tagged with
  • 171
  • 171
  • 171
  • 148
  • 140
  • 140
  • 130
  • 128
  • 124
  • 32
  • 25
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Méthodes de Recalage Scanner/Echographie.Application à la Navigation Chirurgicale des Ponctions Rénales Percutanées

Leroy, Antoine 11 November 2004 (has links) (PDF)
La ponction rénale percutanée est un geste d'urologie courant préliminaire à l'ablation de calculs. La taille réduite des cavités rénales, la présence de structures nobles, et l'information limitée que fournit l'imagerie interventionnelle, rendent complexe l'insertion de l'aiguille de ponction. En collaboration avec le service d'urologie de la Pitié-Salpêtrière, nous avons étudié la faisabilité d'un système d'assistance informatisée au geste de ponction. Notre travail a connu deux phases. D'abord, un protocole basé sur le triptyque planification/recalage/guidage a été validé ; il repose sur la segmentation manuelle des images scanner pré-opératoires et échographiques per-opératoires et sur un algorithme de recalage de nuages de points 3D. Dans un deuxième temps, une nouvelle méthode de recalage iconique permettant de s'affranchir des étapes de segmentation a été mise au point. Ces deux approches ont été mises en œuvre et expérimentées sur des fantômes, des pièces anatomiques et sur des données de patients. Nous en présentons les fondements et l'évaluation.
92

Modélisation en Interaction Homme-Machine et en Système d'Information : A la croisée des chemins

Dupuy-Chessa, Sophie 01 December 2011 (has links) (PDF)
Les recherches présentées dans ce mémoire visent à inventer des méthodes de conception ou des composants de méthodes (c'est-à-dire des modèles de produits, de processus, et des outils) de nature à soutenir le développement de Systèmes d'Information (SI) innovants, bénéficiant des avancées technologiques pour assurer à l'utilisateur une qualité en tout contexte d'usage. Elles se situent ainsi à la croisée de trois communautés, introduisant chacune une préoccupation : l'Interaction Homme-Machine (IHM) pour la prise en compte de l'utilisateur final ; les Systèmes d'Information (SI) pour la considération du contexte organisationnel ; et le Génie Logiciel (GL) pour l'étude et l'invention des techniques et outils supports. Les contributions s'articulent autour de trois axes : 1) la mise en commun des pratiques des domaines de l'IHM et des SI pour favoriser la prise en compte des spécificités de ces deux domaines ; 2) l'étude conjointe de l'auto-explication pour avancer, avec les spécificités de chacun, vers le défi commun des modèles interactifs ; 3) les pratiques et outils de gestion de modèles au delà des domaines de l'IHM et des SI.
93

Optimisation hybride mono et multi-objectifs de modèles actifs d'apparence 2,5D pour l'analyse de visage

Sattar, Abdul 29 April 2010 (has links) (PDF)
L'équipe SCEE de Supélec travaille dans le domaine de la radio logicielle et intelligente, encore appelée Radio Cognitive (CR - Cognitive Radio). Dans cette thèse, nous avons présenté une solution pour l'analyse de visage temps réel dans un équipement de radio cognitive. Dans ce cadre particulier, nous proposons des solutions d'analyse de visage, à savoir "l'estimation de la pose et des caractéristiques faciale d'un visage inconnu orienté ". Nous proposons deux systèmes d'alignement de visages. 1) Le premier exploite un AAM 2.5D et une seule caméra. La phase d'optimisation de cet AAM est hybride: elle mixe un algorithme génétique et une descente de gradient. Notre contribution tient dans l'opérateur de descente de gradient qui travaille de concert avec l'opérateur classique de mutation : de cette manière sa présence ne pénalise pas la vitesse d'exécution du système. 2) Le second met en œuvre un AAM 2.5D mais exploite plusieurs caméras. La recherche de la meilleure solution découle également d'une approche hybride qui mixe une optimisation multi-objectifs : le NSGA-II, avec une descente de gradient. Notre contribution tient dans la proposition d'une méthode efficace pour extraire des informations concernant la pertinence de chacune des vues, ces informations sont ensuite exploitées par la descente de gradient. Des comparaisons quantitatives et qualitatives avec d'autres approches mono et multi-objectifs montrent l'intérêt de notre méthode lorsqu'il s'agit d'évaluer la pose et les traits caractéristiques d'un visage inconnu.
94

Production de paraphrases pour les systèmes vocaux humain-machine

Chevelu, Jonathan 17 March 2011 (has links) (PDF)
Cette thèse s'intéresse au lien entre ce qui est prononcé et le système vocal humaine-machine qui le prononce. Plutôt que de proposer des systèmes capables de tout vocaliser, nous envisageons le message comme une variable qui peut être modifiée. L'élément primordial d'un message est son sens. Il est donc possible de changer les mots utilisés si cela conserve le sens du message et améliore les systèmes vocaux. Cette modification s'appelle " production de paraphrases ". Dans cette thèse, nous proposons une étude de la production statistique de paraphrases pour les systèmes vocaux humain-machine. Pour ce faire, nous présentons la conception d'un système de référence et d'une plateforme d'évaluation en ligne. Nous mettons en lumière les différentes limites de l'approche classique et nous proposons un autre modèle fondé sur l'application de règles de transformation. Nous montrons qu'il est nécessaire de prendre en compte l'utilisation souhaitée des paraphrases lors de leur production et de leurs évaluations, pas uniquement du critère de conservation du sens. Enfin, nous proposons et étudions un nouvel algorithme pour produire des paraphrases, fondé sur l'échantillonnage de Monte- Carlo et l'apprentissage par renforcement. Cet algorithme permet de s'affranchir des contraintes habituelles de l'algorithme de Viterbi et donc de proposer librement de nouveaux modèles pour la paraphrase.
95

Protection des Vidéos Hiérarchiques par Cryptage et Tatouage

Shahid, Zafar 08 October 2010 (has links) (PDF)
Le champ du traitement des images et des vidéos attire l'attention depuis les deux dernières décennies. Ce champ couvre maintenant un spectre énorme d'applications comme la TV 3D, la télé-surveillance, la vision par ordinateur, l'imagerie médicale, la compression, la transmission, etc. En ce début de vingt et unième siècle nous sommes témoins d'une révolution importante. Les largeurs de bande des réseaux, les capacités de mémoire et les capacités de calcul ont été fortement augmentés durant cette période. Un client peut avoir un débit de plus de 100~mbps tandis qu'un autre peut utiliser une ligne à 56~kbps. Simultanément, un client peut avoir un poste de travail puissant, tandis que d'autres peuvent avoir juste un téléphone mobile. Au milieu de ces extrêmes, il y a des milliers de clients avec des capacités et des besoins très variables. De plus, les préférences d'un client doivent s'adapter à sa capacité, par exemple un client handicapé par sa largeur de bande peut être plus intéressé par une visualisation en temps réel sans interruption que d'avoir une haute résolution. Pour y faire face, des architectures hiérarchiques de codeurs vidéo ont été intoduites afin de comprimer une seule fois, et de décomprimer de différentes manières. Comme la DCT n'a pas la fonctionnalité de multi-résolution, une architecture vidéo hiérarchique est conçue pour faire face aux défis des largeurs de bande et des puissances de traitement hétérogènes. Avec l'inondation des contenus numériques, qui peuvent être facilement copiés et modifiés, le besoin de la protection des contenus vidéo a pris plus d'importance. La protection de vidéos peut être réalisée avec l'aide de trois technologies : le tatouage de méta-données et l'insertion de droits d'auteur, le cryptage pour limiter l'accès aux personnes autorisées et la prise des empreintes digitales active pour le traçage de traître. L'idée principale dans notre travail est de développer des technologies de protection transparentes à l'utilisateur. Cela doit aboutir ainsi à un codeur vidéo modifié qui sera capable de coder et d'avoir un flux de données protégé. Puisque le contenu multimédia hiérarchique a déjà commencé à voir le jour, algorithmes pour la protection indépendante de couches d'amélioration sont également proposées.
96

Recherche de motifs graduels et application aux données médicales

Lisa, Di Jorio 05 October 2010 (has links) (PDF)
Avec le développement des nouvelles technologies d'analyse (comme par exemple les puces à ADN) et de gestion de l'information (augmentation des capacités de stockage), le domaine de la santé a particulièrement évolué ces dernières années. En effet, des techniques de plus en plus avancées et efficaces sont mises à disposition des chercheurs, et permettent une étude approfondie des paramètres génomiques intervenant dans des problèmes de santé divers (cancer, maladie d'Alzheimer ...) ainsi que la mise en relation avec les paramètres cliniques. Parallèlement, l'évolution des capacités de stockage permet désormais d'accumuler la masse d'information générée par les diverses expériences menées. Ainsi, les avancées en terme de médecine et de prévention passent par l'analyse complète et pertinente de cette quantité de données. Le travail de cette thèse s'inscrit dans ce contexte médical. Nous nous sommes particulièrement intéressé à l'extraction automatique de motifs graduels, qui mettent en évidence des corrélations de variation entre attributs de la forme "plus un patient est âgé, moins ses souvenirs sont précis". Nous décrivons divers types de motifs graduels tels que les itemsets graduels, les itemset multidimensionnels graduels ou encore les motifs séquentiels graduels, ainsi que les sémantiques associées à ces motifs. Chacune de nos approches est testée sur un jeu de données synthétique et/ou réel.
97

Reconstruction en tomographie locale : introduction d'information à priori basse résolution

Rouault-Pic, Sandrine 23 October 1996 (has links) (PDF)
Un des objectifs actuel en tomographie est de réduire la dose injectée au patient. Les nouveaux systèmes d'imagerie, intégrant des détecteurs haute résolution de petites tailles ou des sources fortement collimatées permettent ainsi de réduire la dose. Ces dispositifs mettent en avant le problème de reconstruction d'image à partir d'informations locales. Un moyen d'aborder le problème de tomographie locale est d'introduire une information à priori, afin de lever la non-unicité de la solution. Nous proposons donc de compléter les projections locales haute résolution (provenant de systèmes décrits précédemment) par des projections complètes basse résolution, provenant par exemple d'un examen scanner standard. Nous supposons que la mise en correspondance des données a été effectuée, cette partie ne faisant pas l'objet de notre travail. Nous avons dans un premier temps, adapté des méthodes de reconstruction classiques (ART, Gradient conjugué régularisé et Rétroprojection filtrée) au problème local, en introduisant dans le processus de reconstruction l'information à priori. Puis, dans un second temps, nous abordons les méthodes de reconstruction par ondelettes et nous proposons également une adaptation à notre problème. Dans tous les cas, la double résolution apparait également dans l'image reconstruite, avec une résolution plus fine dans la région d'intérêt. Enfin, étant donné le coût élevé des méthodes mises en oeuvre, nous proposons une parallélisation des algorithmes implémentés.
98

Télé-échographie robotisée

Vilchis-Gonzales, Adriana 01 January 2003 (has links) (PDF)
Ce mémoire concerne la télé-échographie robotisée, vue comme un ensemble de plusieurs modules (poste maître, poste esclave, communication, image, visio-conférence, retour haptique, etc.). Le travail s'inscrit dans le cadre de la conception, du développement et de l'évaluation d.un tel système et concerne plus spécialement le poste esclave. Une présentation générale de la télé-échographie robotisée est fournie afin d.ensuite se focaliser sur l'architecture du robot esclave dont deux prototypes TER1 et TER2 sont présentés. Le robot porte-sonde possède 6ddl (degrés de liberté). Le premier prototype peut être considéré comme un robot parallèle ayant une structure pour la translation du robot et une autre pour son orientation. Le deuxième prototype est considéré comme un robot hybride dont la structure pour la translation est un sous-système parallèle et celle de l.orientation peut être considérée comme une structure série. Les deux prototypes sont des robots non rigides avec transmission par câbles. Le coeur de ce travail concerne cette nouvelle architecture qui est proposée tout en respectant les consignes de légèreté, compliance et portabilité. En effet, un des objectifs de ce système est de pouvoir être utilisé là où d'habitude il n'existe pas d'experts médicaux qui puissent réaliser l'examen échographique. Un modèle géométrique inverse est développé pour chaque prototype afin de déduire les longueurs des câbles dont on peut déduire les déplacements (translation et orientation) du robot sur le corps du patient. Pour le premier prototype, une loi de commande du type PIDA (Proportionnelle, Intégrale et Dérivative avec un terme d'Anticipation) est utilisée. Le robot TER2 utilise une commande articulaire en boucle fermée. Des tests et des expériences in-vitro et in-vivo ont été réalisés et sont présentés dans ce mémoire, incluant des expériences locales et à distance (Grenoble-Toulouse, Grenoble-Brest, Grenoble-Toulon). Des résultats encourageants et l'avis favorable des médecins pour l'utilisation de ce type de système lors des expériences ont été obtenus
99

Une approche décentralisée et adaptative de la gestion d'informations en vision ; application à l'interprétation d'images de cellules en mouvement

Boucher, Alain 18 January 1999 (has links) (PDF)
Cette thèse propose une nouvelle approche de la vision par ordinateur, insistant sur le rôle joué par les différentes informations et connaissances présentes dans un système intégré de vision. Ces connaissances peuvent être vues comme un but à atteindre dans la chaine de traitement ou comme un instrument pour guider ces différents traitement. Ce double rôle est mis en évidence en insistant sur la gestion des informations disponibles à tout moment pour effectuer la tâche de reconnaissance. Une approche distribuée est proposée, sous la forme d'un système multi-agents, où chaque agent est spécialisé pour la reconnaissance d'un concept de l'image. Le modèle générique d'agent est composé de quatre comportements de base : perception (croissance de région, suivi de contour), interaction (fusion de primitives), différenciation (interprétation de primitive) et reproduction (stratégie de focalisation des agents). Ces comportements prennent des décisions à l'aide d'évaluations multi-critères, faisant référence à plusieurs critères spécialisés. Des capacités d'adaptation et de coopération sont nécessaires aux agents pour mener à bien leurs tâches, et ce tant au niveau local qu'au niveau des groupes d'agents (travaillant sur un même groupement perceptuel). Ce système est appliqué pour la reconnaissance des cellules en mouvement. Chaque cellule est divisée en plusieurs composantes (noyau, pseudopode, cytoplasme, ...) qui servent de concepts de base pour la spécialisation des agents.
100

Une Approche Générique pour la Sélection d'Outils de Découverte de Correspondances entre Schémas

Duchateau, Fabien 20 November 2009 (has links) (PDF)
L'interopérabilité entre applications et les passerelles entre différentes sources de don- nées sont devenues des enjeux cruciaux pour permettre des échanges d'informations op- timaux. Cependant, certains processus nécessaires à cette intégration ne peuvent pas être complétement automatisés à cause de leur complexité. L'un de ces processus, la mise en correspondance de schémas, est maintenant étudié depuis de nombreuses années. Il s'attaque au problème de la découverte de correspondances sémantiques entre éléments de différentes sources de données, mais il reste encore principalement effectué de manière manuelle. Par conséquent, le déploiement de larges systèmes de partage d'informations ne sera possible qu'en (semi-)automatisant ce processus de mise en correspondance. De nombreux outils de mise en correspondance de schémas ont été développés ces dernières décennies afin de découvrir automatiquement des mappings entre éléments de schémas. Cependant, ces outils accomplissent généralement des tâches de mise en cor- respondance pour des critères spécifiques, comme un scénario à large échelle ou la décou- verte de mappings complexes. Contrairement à la recherche sur l'alignement d'ontologies, il n'existe aucune plate-forme commune pour évaluer ces outils. Aussi la profusion d'outils de découverte de correspondances entre schémas, combinée aux deux problèmes évoqués précedemment, ne facilite pas, pour une utilisatrice, le choix d'un outil le plus ap- proprié pour découvrir des correspondances entre schémas. La première contribution de cette thèse consiste à proposer un outil d'évaluation, appelé XBenchMatch, pour mesurer les performances (en terme de qualité et de temps) des outils de découverte de corre- spondances entre schémas. Un corpus comprenant une dizaine de scénarios de mise en correspondance sont fournis avec XBenchMatch, chacun d'entre eux représentant un ou plusieurs critères relatif au processus de mise en correspondance de schémas. Nous avons également conçu et implémenté de nouvelles mesures pour évaluer la qualité des schémas intégrés et le post-effort de l'utilisateur. Cette étude des outils existants a permis une meilleure compréhension du processus de mise en correspondance de schémas. Le premier constat est que sans ressources ex- ternes telles que des dictionnaires ou des ontologies, ces outils ne sont généralement pas capables de découvrir des correspondances entre éléments possédant des étiquettes très différentes. Inversement, l'utilisation de ressources ne permet que rarement la découverte de correspondances entre éléments dont les étiquettes se ressemblent. Notre seconde con- tribution, BMatch, est un outil de découverte de correspondances entre schémas qui inclut une mesure de similarité structurelle afin de contrer ces problèmes. Nous démontrons en- suite de manière empirique les avantages et limites de notre approche. En effet, comme la plupart des outils de découverte de correspondances entre schémas, BMatch utilise une moyenne pondérée pour combiner plusieurs valeurs de similarité, ce qui implique une baisse de qualité et d'efficacité. De plus, la configuration des divers paramètres est une autre difficulté pour l'utilisatrice. Pour remédier à ces problèmes, notre outil MatchPlanner introduit une nouvelle méth- ode pour combiner des mesures de similarité au moyen d'arbres de décisions. Comme ces arbres peuvent être appris par apprentissage, les paramètres sont automatiquement config- urés et les mesures de similarité ne sont pas systématiquement appliquées. Nous montrons ainsi que notre approche améliore la qualité de découverte de correspondances entre sché- mas et les performances en terme de temps d'exécution par rapport aux outils existants. Enfin, nous laissons la possibilité à l'utilisatrice de spécifier sa préférence entre précision et rappel. Bien qu'équipés de configuration automatique de leurs paramètres, les outils de mise en correspondances de schémas ne sont pas encore suffisamment génériques pour obtenir des résultats qualitatifs acceptables pour une majorité de scénarios. C'est pourquoi nous avons étendu MatchPlanner en proposant une "fabrique d'outils" de découverte de corre- spondances entre schémas, nommée YAM (pour Yet Another Matcher). Cet outil apporte plus de flexibilité car il génère des outils de mise en correspondances à la carte pour un scénario donné. En effet, ces outils peuvent être considérés comme des classifieurs en apprentissage automatique, puisqu'ils classent des paires d'éléments de schémas comme étant pertinentes ou non en tant que mappings. Ainsi, le meilleur outil de mise en cor- respondance est construit et sélectionné parmi un large ensemble de classifieurs. Nous mesurons aussi l'impact sur la qualité lorsque l'utilisatrice fournit à l'outil des mappings experts ou lorsqu'elle indique une préférence entre précision et rappel.

Page generated in 0.1142 seconds