• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 474
  • 188
  • 93
  • 17
  • 7
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 816
  • 743
  • 740
  • 152
  • 89
  • 87
  • 69
  • 66
  • 56
  • 56
  • 55
  • 49
  • 48
  • 48
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
621

Learning during search

Arbelaez Rodriguez, Alejandro 31 May 2011 (has links) (PDF)
La recherche autonome est un nouveau domaine d'intérêt de la programmation par contraintes, motivé par l'importance reconnue de l'utilisation de l'apprentissage automatique pour le problème de sélection de l'algorithme le plus approprié pour une instance donnée, avec une variété d'applications, par exemple: Planification, Configuration d'horaires, etc. En général, la recherche autonome a pour but le développement d'outils automatiques pour améliorer la performance d'algorithmes de recherche, e.g., trouver la meilleure configuration des paramètres pour un algorithme de résolution d'un problème combinatoire. Cette thèse présente l'étude de trois points de vue pour l'automatisation de la résolution de problèmes combinatoires; en particulier, les problèmes de satisfaction de contraintes, les problèmes d'optimisation de combinatoire, et les problèmes de satisfiabilité (SAT).Tout d'abord, nous présentons domFD, une nouvelle heuristique pour le choix de variable, dont l'objectif est de calculer une forme simplifiée de dépendance fonctionnelle, appelée dépendance-relaxée. Ces dépendances-relaxées sont utilisées pour guider l'algorithme de recherche à chaque point de décision.Ensuite, nous révisons la méthode traditionnelle pour construire un portefeuille d'algorithmes pour le problème de la prédiction de la structure des protéines. Nous proposons un nouveau paradigme de recherche-perpétuelle dont l'objectif est de permettre à l'utilisateur d'obtenir la meilleure performance de son moteur de résolution de contraintes. La recherche-perpétuelle utilise deux modes opératoires: le mode d'exploitation utilise le modèle en cours pour solutionner les instances de l'utilisateur; le mode d'exploration réutilise ces instances pour s'entraîner et améliorer la qualité d'un modèle d'heuristiques par le biais de l'apprentissage automatique. Cette deuxième phase est exécutée quand l'unité de calcul est disponible (idle-time). Finalement, la dernière partie de cette thèse considère l'ajout de la coopération au cours d'exécution d'algorithmes de recherche locale parallèle. De cette façon, on montre que si on partage la meilleure configuration de chaque algorithme dans un portefeuille parallèle, la performance globale peut être considérablement amélioré.
622

Modèles géométriques et physiques pour la simulation d'interventions chirurgicales

Picinbono, Guillaume 12 February 2001 (has links) (PDF)
Dans cette thèse, nous proposons un ensemble d'outils nécessaires à l'élaboration d'un simulateur de chirurgie. Dans un premier temps, nous définissons plusieurs modèles déformables physiques temps réels permettant de simuler les déformations et la découpe d'organes du corps humain. Ces modèles s'appuient sur la théorie de l'élasticité et la méthode des éléments finis. Nous avons tout d'abord travaillé sur l'enrichissement du modèle élastique linéaire en le généralisant au cas des matériaux dont le comportement est anisotrope, soit en raison de la présence de fibres (muscles, tendons), soit parce qu'ils sont entourés d'une peau (capsule de Glisson pour le foie). Cependant, la principale limitation de l'élasticité linéaire est de n'être valable que dans l'hypothèse de petits déplacements. Nous proposons donc un nouveau modèle déformable mettant en oeuvre l'élasticité non-linéaire de St Venant-Kirchhoff, qui reste valable pour les grands déplacements. Après avoir étendu ce modèle aux matériaux anisotropes, nous proposons plusieurs méthodes d'optimisation des calculs, soit en utilisant un algorithme adaptatif qui combine les modèles linéaires et non-linéaires, soit à partir d'une nouvelle formulation. La seconde partie de ces travaux porte sur la simulation des interactions entre les instruments chirurgicaux et les organes virtuels. Pour cela, nous avons modélisé les contacts, ainsi que certaines actions spécifiques comme le glissement, la préhension et la découpe. De plus, nous nous sommes intéressés aux problèmes liés à l'utilisation d'interfaces à retour d'effort.
623

Recalage et Mosaïques d'Images pour la Microscopie Confocale Fibrée Dynamique In Vivo

Vercauteren, Tom 25 January 2008 (has links) (PDF)
La microscopie confocale classique permet d'obtenir des images à haute réso- lution de cellules en culture ou dans un tissu biologique excisé. Cette technologie peut être adaptée aux applications in vivo grâce à l'utilisation de fibres optiques et d'optiques miniaturisées. A terme, la microscopie confocale fibrée devrait permettre aux médecins et biologistes de réaliser des biopsies optiques; c'est à dire un exa- men histologique, en temps réel, des tissus biologiques à l'intérieur d'un organisme vivant et directement au contact de la zone d'intérêt. Le but premier de cette thèse est de dépasser les limites matérielles de ces in- struments d'imagerie en développant des outils de recalage d'images spécifiques et innovants. En particulier, le propos de ce manuscrit est cadré par l'objectif de pro- poser, au travers d'outils de création de mosaïques d'images, des biopsies optiques à grand champ aux médecins. Cette application est considérée, dans cette thèse, comme un système, ou un circuit, qui prendrait en entrée un flot de données brutes et délivrerait en sortie des mosaïques d'images à grand champ. Nous détaillons les éléments critiques de ce système, en particulier la reconstruction d'images en temps réel, le recalage linéaire d'images et le recalage non linéaire, avant de présenter la structure du système complet. Les données brutes produites par la microscopie confocale fibrée sont difficiles à interpréter parce qu'elle sont modulées par la structure en nid d'abeille du réseau de fibres optiques et parce qu'elle sont entachées d'artefacts géométriques. Dans ce contexte, nous montrons qu'une reconstruction en temps réel des images peut être utilisée en pré-traitement afin de produire des séquences vidéos directement interprétables. Comme la microscopie confocale fibrée est une imagerie qui se fait au contact des tissus, le mouvement relatif du tissu par rapport à la sonde optique implique qu'il est parfois difficile d'obtenir de manière robuste certaines mesures quantitatives d'intérêt. Nous avons donc attaqué le problème du recalage linéaire, efficace et robuste de paires d'images. Nous montrons que des outils ré- cents provenant du domaine du contrôle robotique par la vision peuvent surpasser les solutions standards utilisées en analyse d'images biomédicales. L'adéquation de ces outils au problème du recalage linéaire d'images nous a amenés à revisiter le problème du recalage non-linéaire. En interprétant le recalage non-linéaire comme un problème d'optimisation sur un groupe de Lie, nous développons un algorithme rapide de recalage difféomorphe non-paramétrique d'images. En plus d'être dif- féomorphe, notre algorithme produit des résultats qui sont similaires à ceux de l'algorithme des démons de Thirion mais qui sont plus lisses et plus proche de la vérité. Finalement, nous obtenons une boîte à outils de reconstruction et de recalage d'images que nous utilisons pour proposer un algorithme robuste de création de mosaïques d'images qui permette de calculer un alignement globalement cohérent à partir de résultats locaux, de compenser les distorsions liées au mouvement et de retrouver les déformations non-rigides. Par ailleurs, notre algorithme de mosaïques d'images a récemment été incorporé dans un essai clinique multicentrique. Cet essai illustre l'intérêt clinique de nos outils dans le cadre spécifique de la surveillance de l'oesophage de Barrett.
624

Comparaison de l'Anatomie et de la Fonction Cardiaque : Statistiques sur l'Architecture des Fibres et Recalage d'Images 4D CT

Peyrat, Jean-Marc 27 November 2009 (has links) (PDF)
Ce travail de thèse s'est consacré à la comparaison de l'anatomie et de la fonction cardiaques à partir d'images médicales. Une première partie se concentre sur l'anatomie cardiaque avec une étude statistique de l'architecture des bres musculaires du c÷ur à partir d'IRM de tenseur de di usion. Dans la deuxième partie est proposée une comparaison la fonction cardiaque de di érents patients ou du même patient a di érents instants par le recalage spatiotemporel de séquences 4D CT. La complexe organisation des bres musculaires cardiaques a un rôle très important dans le comportement électrique et mécanique du c÷ur. Pour étudier cette architecture des bres, nous avons proposé de nouveaux outils algorithmiques d'analyse statistique d'IRM de tenseurs de di usion. La nouveauté de cette approche est de réaliser cette analyse statistique directement sur les tenseurs de di usion l'a où la plupart des études statistiques se font sur des vecteurs ou angles d'orientation décrivant les directions des bres et des feuillets. La variabilité de l'orientation des bres et des feuillets est ensuite directement donnée par la matrice de covariance des tenseurs de di usion de laquelle sont extraites les variabilités des vecteurs propres. L'application de ces outils a une base de données d'IRM de tenseur de di usion de c÷urs de chiens acquis ex vivo a permis d'obtenir un atlas de l'architecture des bres mais aussi de révééler une cohérence de l'orientation des bres et une plus grande variabilité de l'orientation des feuillets. Ensuite, nous avons comparé l'atlas de c÷urs de chien à un c÷ur humain et un modèle synthétique couramment utilisé pour des simulations électromé- caniques ou l'analyse d'images cardiaques. Le c÷ur humain s'est révélé plus proche des c÷urs de chien au niveau de l'orientation des bres que de celle des feuillets. Le modèle synthétique quant à lui s'est montré trop simple pour décrire en détails la complexité de l'architecture des bres. L'acquisition de séquences d'images cardiaques permet d'observer le mouvement cardiaque et donc sa fonction. Nous avons proposé un nouvel algorithme de recalage nonlin éaire spatiotemporel de séquences d'images qui permet de comparer cette fonction cardiaque. Le recalage temporel assure la mise en correspondance d'instants physiologiques similaires. Le recalage spatial quant à lui doit assure une cohérence entre le mouvement des points physiques intra-séquence et leur mise en correspondance inter-séquence. Cette cohérence est assurée par les contraintes de trajectoires liant les transformations intras équences décrivant le mouvement cardiaque aux transformations inter-séquences décrivant les di érences anatomiques au cours du temps. Sous ces contraintes de trajectoires, le recalage spatial 4D est simpli é en un recalage multicanal 3D résolu avec une nouvelle version des Demons Di eomorphes Multicanaux. Cette méthode de recalage spatiotemporel est appliquée au recalage inter-sujet de séquences 4D CT pour évaluation. Comparée a d'autres techniques existantes, cette technique de recalage s'est révélée le meilleur compromis en terme de précision, de régularité spatiale et temporelle, mais aussi de temps de calcul. Un exemple d'application possible du recalage spatiotemporal est proposé avec la comparaison de l'anatomie et de la fonction cardiaques avant et après thérapie.
625

Recherche du rôle des intervenants et de leurs interactions pour la structuration de documents audiovisuels

Bigot, Benjamin 06 July 2011 (has links) (PDF)
Nous présentons un système de structuration automatique d'enregistrements audiovisuels s'appuyant sur des informations non lexicales caractéristiques des rôles des intervenants et de leurs interactions. Dans une première étape, nous proposons une méthode de détection et de caractérisation de séquences temporelles, nommée " zones d'interaction ", susceptibles de correspondre à des conversations. La seconde étape de notre système réalise une reconnaissance du rôle des intervenants : présentateur, journaliste et autre. Notre contribution au domaine de la reconnaissance automatique du rôle se distingue en reposant sur l'hypothèse selon laquelle les rôles des intervenants sont accessibles à travers des paramètres " bas-niveau " inscrits d'une part dans l'organisation temporelle des tours de parole des intervenants, dans les environnements acoustiques dans lesquels ils apparaissent, ainsi que dans plusieurs paramètres prosodiques (intonation et débit). Dans une dernière étape, nous combinons l'information du rôle des intervenants à la connaissance des séquences d'interaction afin de produire deux niveaux de description du contenu des documents. Le premier niveau de description segmente les enregistrements en zones de 4 types : informations, entretiens, transition et intermède. Un second niveau de description classe les zones d'interaction orales en 4 catégories : débat, interview, chronique et relais. Chaque étape du système est validée par une grand nombre d'expériences menées sur le corpus du projet EPAC et celui de la campagne d'évaluation ESTER.
626

Démarche centrée utilisateur pour la conception de SIAD basés sur un processus d'Extraction de Connaissances à partir de Données, Application à la lutte contre les infections nosocomiales

Ltifi, Hela 09 July 2011 (has links) (PDF)
Ce mémoire contribue au domaine de l'interaction homme-machine (IHM), en proposant un cadre méthodologique global en vue de la conception et la réalisation de systèmes interactifs d'aide à la décision basés sur l'extraction de connaissances à partir de données (SIAD/ECD). Dans ce travail, nous mettons l'accent sur les aspects humain et itératif du développement des SIAD, et en tenant compte des spécificités des systèmes d'ECD. Le cadre méthodologique proposé consiste à étendre les activités du processus unifié sous l'angle de l'IHM pour le développement des différents modules d'un SIAD/ECD. Cette méthodologie, nommée processus unifié étendu, a été appliquée en vue de démontrer ou valider ses principes fondateurs sur une étude de cas dans le domaine médical, relative à la prise de décision dynamique pour la lutte contre les infections nosocomiales (SIADDM/ECD) dans un service de réanimation d'un hôpital situé à Sfax, Tunisie. Une évaluation globale de la démarche suivie d'un ensemble de perspectives de recherche termine le mémoire.
627

Modèles anatomiques déformables en temps réel : application à la simulation de chirurgie avec retour d'effort

Cotin, Stéphane 19 November 1997 (has links) (PDF)
Dans cette thèse, nous présentons différentes approches pour le calcul, en temps-réel, de la déformation de modèles anatomiques volumiques. Une des applications principales de ce type de modèles concerne la simulation de chirurgie laparoscopique. Cette technique chirurgicale récente, et en permanente évolution, nécessite une formation accrue. Dans ce cadre, l'utilisation d'un simulateur présente de multiples avantages : polyvalence, fréquences d'entraînement élevées, outils d'évaluation, simulation de cas pathologiques rares, etc. La première partie de cette thèse concerne la modélisation du comportement déformable des tissus mous, en prenant en compte les aspects biomécaniques ainsi que les contraintes de temps de calcul. Le premier modèle que nous proposons est basé sur une modélisation par éléments finis d'un solide élastique linéaire. Le calcul, en temps-réel, de la déformation repose sur des combinaisons linéaires de déformation élémentaires obtenues lors d'une étape de pré-calcul. Afin de prendre en compte, dans la déformation, d'éventuelles modifications topologiques du maillage - pouvant représenter, par exemple, l'incision de tissus mous - nous avons proposé un second modèle, appelé "masses/tenseurs". Enfin, nous proposons une formulation originale, appelée "modèle hybride", permettant de combiner, dans une même représentation, les deux modèles déformables précédents. Dans la seconde partie de cette thèse, nous nous intéressons aux problèmes liés à l'utilisation de systèmes à retour d'effort pour les interactions avec un modèle déformable. Nous proposons ainsi une architecture matérielle intégrant les différents modules assurant le calcul des déformations, des forces, le contrôle des systèmes à retour d'effort, la détection de collision, l'affichage graphique, etc. Un premier prototype du simulateur, réalisé sur la base de cette architecture et incluant deux systèmes à retour d'effort, a permis de valider l'ensemble des algorithmes. Finalement, nous proposons en annexe une étude relative à une nouvelle technique de reconstruction faciale. En utilisant différents outils d'analyse et de traitement d'images médicales, nous avons réalisé une série d'expériences visant à retrouver une approximation du visage d'une personne à partir de la seule donnée de son crâne et d'un ensemble réduit de paramètres.
628

Contribution aux relations entre les grammaires attribuées et la programmation fonctionnelle

Duris, Étienne 05 October 1998 (has links) (PDF)
L'ingénierie du logiciel doit concilier, d'une part, la modularité requise par les phases de développement et de maintenance et, d'autre part, l'efficacité indispensable dans la mise en oeuvre des applications. Ce dilemme nécessite des méthodes et des techniques de transformation permettant d'accroître l'efficacité des programmes modulaires. La déforestation, qui consiste à éliminer les structures intermédiaires apparaissant lors de la composition des différentes parties d'un programme, a suscité beaucoup d'intérêt, notamment en grammaires attribuées et en programmation fonctionnelle. En dépit de la diversité des formalismes utilisés, cette thèse compare les différentes techniques existantes et s'inspire de leurs atouts pour développer une nouvelle méthode de déforestation plus générale. Tout d'abord, une extension naturelle des grammaires attribuées est introduite pour permettre de représenter une plus large classe de programmes fonctionnels. Les grammaires attribuées dynamiques peuvent se passer de la présence physique d'un arbre pour guider les calculs et les transformations, mais bénéficient des méthodes classiques d'évaluation des grammaires attribuées. Ensuite, les principales méthodes fonctionnelles de déforestation (algorithme de Wadler, règle d'élimination foldr/build, normalisation des folds, fusion d'hylomorphismes) sont étudiées et comparées avec la composition descriptionnelle des grammaires attribuées. Les limitations de chaque méthode sont établies et permettent de déterminer les atouts nécessaires pour ces transformations de programmes. Finalement, une nouvelle méthode de déforestation est proposée. La composition symbolique utilise la puissance du formalisme des grammaires attribuées et incorpore un mécanisme d'évaluation partielle. Cette technique générale peut être appliquée sur des grammaires attribuées ou sur des programmes fonctionnels et permet de déforester des programmes pour lesquelles les méthodes existantes restaient impuissantes.
629

Morphodynamique de réseaux viaires - Application au risque

Nabaa, Michel 12 April 2011 (has links) (PDF)
Le travail présenté dans cette thèse a pour cadre la prévention des risques et la gestion de crises nécessitant une évacuation. La structure du réseau viaire est étudiée mais également les processus de mobilité qui s'y développent. Nous utilisons en particulier des techniques d'intelligence en essaim pour étudier la morphodynamique du réseau. La prévention des risques est considérée en analysant la vulnérabilité du réseau représenté par un multigraphe. Sa structure est étudiée à différents niveaux d'échelle, par des méthodes de calcul de la centralité d'intermédiarité et de clustering hiérarchique. La gestion de crise lors d'une évacuation a aussi été traitée et a conduit à l'étude de la dynamique des déplacements au sein du réseau routier et à un traitement et une analyse multi-échelle. Nous avons développé un modèle microscopique de trafic ainsi qu'un modèle de microévacuation permettant d'organiser une évacuation depuis l'occurrence de la crise jusqu'à l'évacuation des véhicules en passant par la délimitation d'éventuelles zones en danger et par les stratégies de choix d'itinéraires afin de les évacuer. Le modèle est adaptatif, il prend en compte la structure du multigraphe, la vulnérabilité des éléments à différents niveaux d'échelle, les événements inattendus lors d'une évacuation et permet d'amener des éléments de réponse aux décideurs gérant le risque.
630

Une approche à base de composants logiciels pour l'observation de systèmes embarqués

Prada Rojas, Carlos Hernan 24 June 2011 (has links) (PDF)
À l'heure actuelle, les dispositifs embarqués regroupent une grande variété d'applications, ayant des fonctionnalités complexes et demandant une puissance de calcul de plus en plus importante. Ils évoluent actuellement de systèmes multiprocesseur sur puce vers des architectures many-core et posent de nouveaux défis au développement de logiciel embarqué. En effet, Il a classiquement été guidé par les performances et donc par les besoins spécifiques des plates-formes. Or, cette approche s'avère trop couteuse avec les nouvelles architectures matérielles et leurs évolutions rapprochées. Actuellement, il n'y a pas un consensus sur les environnements à utiliser pour programmer les nouvelles architectures embarquées. Afin de permettre une programmation plus rapide du logiciel embarqué, la chaîne de développement a besoin d'outils pour la mise au point des applications. Cette mise au point s'appuie sur des techniques d'observation, qui consistent à recueillir des informations sur le comportement du système embarqué pendant l'exécution. Les techniques d'observation actuelles ne supportent qu'un nombre limité de processeurs et sont fortement dépendantes des caractéristiques matérielles. Dans cette thèse, nous proposons EMBera~: une approche à base de composants pour l'observation de systèmes multiprocesseurs sur puce. EMBera vise la généricité, la portabilité, l'observation d'un grand nombre d'éléments, ainsi que le contrôle de l'intrusion. La généricité est obtenue par l'encapsulation de fonctionnalités spécifiques et l'exportation d'interfaces génériques d'observation. La portabilité est possible grâce à des composants qui, d'une part, ciblent des traitements communs aux MPSoCs, et d'autre part, permettent d'être adaptés aux spécificités des plates-formes. Le passage à l'échelle est réussi en permettant une observation partielle d'un système en se concentrant uniquement sur les éléments d'intérêt~: les modules applicatifs, les composants matériels ou les différents niveaux de la pile logicielle. Le contrôle de l'intrusion est facilité par la possibilité de configurer le type et le niveau de détail des mécanismes de collecte de données. L'approche est validée par le biais de différentes études de cas qui utilisent plusieurs configurations matérielles et logicielles. Nous montrons que cette approche offre une vraie valeur ajoutée dans le support du développement de logiciels embarqués.

Page generated in 0.051 seconds