• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 51
  • 20
  • Tagged with
  • 171
  • 171
  • 171
  • 148
  • 140
  • 140
  • 130
  • 128
  • 124
  • 32
  • 25
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

ArCo : une Architecture informatique pour un Compagnon Artificiel en interaction avec un utilisateur

Jost, Céline 08 January 2013 (has links) (PDF)
La progression rapide de la technologie a donné lieu à un panorama riche et varié de dispositifs numériques : caméra, téléphones mobiles, GPS, tablettes tactiles, liseuses numériques, robots, télévisions, éléments de domotique... La majorité de ces appareils sont aujourd'hui connectés à Internet. Et en plus de leurs fonctionnalités principales, ils permettent à leur propriétaire de rester en contact avec " le monde " à l'aide de logiciels de communication, de personnages virtuels ou de robots. Tous ces dispositifs numériques fonctionnent indépendamment les uns des autres. La question qui se pose est de savoir si ces dispositifs numériques doivent être coordonnés afin de partager certaines informations et effectuer certaines actions ensembles. Cette collaboration entre les dispositifs numériques est gérée par le Compagnon Artificiel qui est en contact permanent avec un utilisateur par les biais des divers dispositifs numériques. Une architecture modulaire ArCo permettant de mettre en place un Compagnon Artificiel a été réalisée dans le cadre de ce travail. Les dispositifs numériques sont gérés par des modules spécifiques, créés grâce à un cadriciel MICE (Machines Interaction Control in their Environment). L'utilisateur final du système peut programmer des scenarii d'interaction, qui indiquent les actions que doivent effectuer les dispositifs numériques, grâce à une interface de programmation visuelle AmbiProg. Chaque scénario est interprété par un module AmbiLive. Les conflits d'accès aux dispositifs numériques sont gérés par un module AmbiCop. Un ensemble d'évaluations a permis de valider expérimentalement l'architecture ArCo et de répondre à des problématiques d'interaction homme-machine.
152

De l'Apprentissage Statistique pour le Contrôle Optimal et le Traitement du Signal

Pietquin, Olivier 10 May 2011 (has links) (PDF)
Les travaux présentés dans ce manuscrit ont pour but le développement de méthodes de prise de décisions optimales (statiques ou séquentielles) ou de traitement de signaux par des méthodes d'appren- tissage automatique. Ils répondent cependant à un certain nombre de contraintes qui ont été imposées par l'objectif de prendre en compte la présence de l'humain dans la boucle de décision ou de traitement ou même comme générateur des signaux que l'on analyse. La présence de l'humain rend la nature des données que l'on traite assez imprévisible et, à une même situation en apparence, des décisions diffé- rentes peuvent être prises. Dans les domaines de l'apprentissage statistique, du contrôle optimal ou du traitement du signal ceci se traduit par la nécessité de gérer l'incertain, de traiter le caractère stochastique du système ainsi que la non-stationnarité de celui-ci. Ainsi, les décisions que l'on considère optimales peuvent dépendre de manière aléatoire de la situation mais de plus, cette dépendance peut varier avec le temps. Des méthodes d'optimisation convergeant vers une solution globale ne sont donc pas adaptées mais des méthodes permettant d'apprendre au fil de l'eau et de poursuivre l'évolution de la solution optimale seront préférées. Par ailleurs, dans le cas où les décisions résultent en une action sur le monde extérieur, il est né- cessaire de quantifier le risque pris en accomplissant ces actions, particulièrement si ces actions doivent avoir un impact sur l'humain. Ceci passe par une estimation de l'incertitude sur le résultat des actions possibles et la sélection en conséquence de ces actions. Une autre implication est qu'il ne sera pas tou- jours envisageable de tester toutes les actions possibles pour en estimer les effets puisque ces actions peuvent ne pas être acceptables pour l'humain. Ainsi, il faudra apprendre à partir d'exemples de situa- tions imposées ce qui se traduit par une phase d'inférence utilisant les informations observables pour en déduire des conséquences sur des situations que l'on ne peut observer. Les travaux exposés dans ce manuscrit apportent des contributions théoriques permettant de tenir compte de ces contraintes et des applications à des problèmes concrets imposant ces contraintes seront exposées.
153

De l'utilisation des noyaux maxitifs en traitement de l'information

Loquin, Kevin 03 November 2008 (has links) (PDF)
Dans cette thèse, nous proposons et développons de nouvelles méthodes en statistiques et en traitement du signal et des images basées sur la théorie des possibilités. Ces nouvelles méthodes sont des adaptations d'outils usuels de traitement d'information dont le but est de prendre en compte les défauts dus à la méconnaissance de l'utilisateur sur la modélisation du phénomène observé. Par cette adaptation, on passe de méthodes dont les sorties sont précises, ponctuelles, à des méthodes dont les sorties sont intervallistes et donc imprécises. Les intervalles produits reflètent, de façon cohérente, l'arbitraire dans le choix des paramètres lorsqu'une méthode classique est utilisée.<br />Beaucoup d'algorithmes en traitement du signal ou en statistiques utilisent, de façon plus ou moins explicite, la notion d'espérance mathématique associée à une représentation probabiliste du voisinage d'un point, que nous appelons noyau sommatif. Nous regroupons ainsi, sous la dénomination d'extraction sommative d'informations, des méthodes aussi diverses que la modélisation de la mesure, le filtrage linéaire, les processus d'échantillonnage, de reconstruction et de dérivation d'un signal numérique, l'estimation de densité de probabilité et de fonction de répartition par noyau ou par histogramme,...<br />Comme alternative à l'extraction sommative d'informations, nous présentons la méthode d'extraction maxitive d'informations qui utilise l'intégrale de Choquet associée à une représentation possibiliste du voisinage d'un point, que nous appelons noyau maxitif. La méconnaissance sur le noyau sommatif est prise en compte par le fait qu'un noyau maxitif représente une famille de noyaux sommatifs. De plus, le résultat intervalliste de l'extraction maxitive d'informations est l'ensemble des résultats ponctuels des extractions sommatives d'informations obtenues avec les noyaux sommatifs de la famille représentée par le noyau maxitif utilisé. En plus de cette justification théorique, nous présentons une série d'applications de l'extraction maxitive d'informations en statistiques et en traitement du signal qui constitue une boîte à outils à enrichir et à utiliser sur des cas réels.
154

Equations aux différences partielles définies sur des graphes pour le traitement d'images et de données

Ta, Vinh Thong 02 December 2009 (has links) (PDF)
Cette thèse s'intéresse aux traitements d'images et de données non uniformes en utilisant le formalisme des équations aux différences partielles définies sur des graphes pondérés. Nous exploitons ce formalisme afin de transcrire et d'adapter des modèles définis dans le domaine continu vers des formulations discrètes. Les modèles continus considérés dans ce manuscrit proviennent du domaine du traitement des images et sont définis comme des modèles variationnels ou des approches basées sur des équations aux dérivées partielles. Nous nous sommes intéressés à des modèles de régularisation, à la morphologie mathématique et à l'équation eikonale. Afin de transcrire ces modèles définis dans le domaine continu vers des formulations discrètes, nous avons introduit une large famille de nouveaux opérateurs différentiels discrets définis sur des graphes pondérés: différences pondérées, gradients discrets, p-Laplacien. Ces opérateurs permettent de redéfinir les modèles continus considérés dans un cadre discret mais également de proposer un formalisme général permettant de considérer de nombreux problèmes liées aux traitements des images et, plus généralement, de données arbitraires. A partir des modèles discrets de régularisation, de morphologie mathématique et de l'équation eikonale, nous montrons dans ce manuscrit les potentialités de notre formalisme pour des applications telles que le filtrage, la simplification, la segmentation, le regroupement et la classification d'images et de données. Notre formalisme unifie également les traitements locaux et non locaux basés sur des patchs. Nous avons généralisé l'utilisation de ce type de configuration dans les problématiques considérées et montré la supériorité de ces schémas dans le contexte du traitement des images. Notre formalisme est basé sur des graphes pondérés. Cela nous permet d'étendre les modèles définis dans le domaine continu aux traitements de n'importe quel type de donnée pouvant être représenté par cette structure (par exemple des images, des collections d'images, des nuages de points, des variétés, des bases de données, etc.). Finalement, ces travaux de thèse permettent d'envisager de nombreuses pistes de recherche tant dans le domaine du traitement des images que dans des domaines tels que celui de l'apprentissage ou de la fouille de données.
155

Étude et réalisation d'un système de localisation en six dimensions pour la chirurgie assistée par ordinateur

Chassat, Fabrice 26 March 2001 (has links) (PDF)
La plupart des Gestes Médicaux-Chirurgicaux Assistés par Ordinateur (G.M.C.A.O.) nécessitent l'utilisation d'un localisateur en six-dimensions. Il s'agit d'un système permettant de déterminer et de suivre la position et l'orientation de corps rigides constitués de marqueurs dans l'espace. De nombreux localisateurs ont été utilisés en chirurgie. Très peu de systèmes sont dédiés spécifiquement à la chirurgie ainsi ils ne répondent pas entièrement de façon satisfaisante aux contraintes du domaine. Nous présentons dans cette thèse, une approche originale de la localisation. A partir d'une étude des applications chirurgicales utilisant un localisateur, nous avons défini un ensemble de critères qualitatifs (encombrement, poids, forme) et quantitatifs en particulier sur la précision pour laquelle un protocole générique d'évaluation des localisateurs pour la chirurgie est proposé. Ces critères nous ont conduit à proposer une évolution des principaux systèmes utilisés aujourd'hui (les localisateurs optiques) afin de les rendre totalement adaptés aux besoins du domaine. En particulier, il est apparu que le coût, la précision et l'ergonomie globale des systèmes existants bien que satisfaisantes dans la plupart des cas étaient insuffisantes pour des applications exigeantes. Nous avons étudié et nous détaillons dans cette thèse deux prototypes permettant de répondre aux problèmes posés par le coût, la précision et surtout l'ergonomie. A partir de la base commune d'un localisateur par stéréovision passive repérant des marqueurs ponctuels, nous proposons une évolution originale basée sur la localisation et l'identification de marqueurs linéaires par le rapport de Thalès pour améliorer la visibilité des cibles. Enfin nous proposons deux concepts très innovants de localisation répondant à l'inconvénient majeur des systèmes optiques qui doivent avoir une ligne de vue entre les caméras et les marqueurs libre de tout obstacle.
156

Extraction d'attributs et mesures de similarité basées sur la forme

Yang, Mingqiang 03 July 2008 (has links) (PDF)
Dans le contexte de la reconnaissance de forme et de l'observation de similarité d'un objet parmi d'autres, les caractéristiques de forme extraites de son image sont des outils puissants. En effet la forme de l'objet est habituellement et fortement liée à sa fonctionnalité et son identité. S'appuyant sur cette forme, un éventail de méthodes par extraction de caractéristiques et mesures de similarité a été proposé dans la littérature. De nombreuses et diverses applications sont susceptibles d'utiliser ces caractéristiques de forme. L'invariance géométrique et la résistance aux déformations sont des propriétés importantes que doivent posséder ces caractéristiques et mesures de similarité. Dans cette thèse, trois nouveaux descripteurs de forme sont développés. Les deux premiers, celui par différence de surfaces et contrôlée par l'échelle (SCAD) et celui correspondant au vecteur de surfaces partielles normalisées (NPAV), sont fondés sur une normalisation "iso-surface" (IAN). SCAD est un vecteur dont les éléments sont les différences de surface entre les principaux segments du contour original et contour filtré. Ces segments sont définis par des ensembles de points entre chaque paire de points de courbure nulle, relative au contour filtré et au contour original. En nous appuyant sur deux théorèmes que nous proposons et en prenant en considération surface partielle, transformée affine et filtrage linéaire, nous avons défini le second descripteur, NPAV. Nous prouvons alors, que pour tout contour filtré linéairement, la surface d'un triangle, dont les sommets sont le barycentre du contour et une paire de points successifs sur le contour normalisé, reste linéaire sous toutes les transformations affines. Ainsi est établie une relation entre filtrage et transformation affine. Les deux descripteurs SCAD et NPAV ont la propriété d'invariance aux transformations affines. Comparant les deux approches SCAD et NPAV, SCAD s'avère plus compact que NPAV mais les performances de NPAV sont meilleures que celles de SCAD. La dernière approche proposée est la représentation par "contexte des cordes". Cette représentation décrit une distribution des longueurs de cordes selon une orientation. L'histogramme représentant ce contexte des cordes est compacté et normalisé dans une matrice caractéristique. Une mesure de similarité est alors définie sur cette matrice. La méthode proposée est insensible à la translation, à la rotation et au changement d'échelle; de plus, elle s'avère robuste aux faibles occultations, aux déformations élastiques et au bruit. En outre, son évaluation sur des objets réels souligne tous ses atouts dans le contexte des applications de la vision. Ces nouveaux descripteurs de forme proposés sont issus d'une recherche et d'études menées sur une quarantaine de techniques de la littérature. Contrairement à la classification traditionnelle, ici, les approches de descripteurs de forme sont classées selon leurs approches de traitement: ceci facilite ainsi le choix du traitement approprié. Une description et une étude de ces approches est ici fournie, et nous reprenons certaines d'entre elles dans une évaluation comparative avec les nôtres et ce sur différentes bases de données
157

Fusion de Données Multicapteurs pour un Système de Télésurveillance Médicale de Personnes à Domicile

Duchêne, Florence 15 October 2004 (has links) (PDF)
Le développement des systèmes de télésurveillance médicale à domicile est fondamental face au vieillissement de la population et aux capacités limitées d admission dans les hôpitaux et centres spécialisés. Ce travail de thèse concerne particulièrement la conception d un assistant intelligent pour l analyse des données hétérogènes collectées par des capteurs au domicile afin de détecter, voire prévenir, l occurrence de situations inquiétantes. Il s agit de concevoir un système d apprentissage des habitudes de vie d une personne, tout écart par rapport à ce profil comportemental étant considéré comme critique. L étude proposée concerne d une part la conception d un processus de simulation pour la génération de grandes quantités de données appropriées au contexte expérimental. D autre part, une méthode générique pour l extraction non supervisée de motifs dans des séquences temporelles multidimensionnelles et hétérogènes est proposée puis expérimentée dans le contexte de l identification des comportements récurrents d une personne dans ses activités quotidiennes. On évalue en particulier les indices de sensibilité (tolérance aux modifications normales de comportement) et de spécificité (rejet des modifications inquiétantes) du système. L application du système d apprentissage aux séquences générées par la simulation permet également de vérifier l extraction possible de comportements récurrents interprétés a posteriori en terme de la réalisation d activités de la vie quotidienne.
158

Les ontologies comme support à l'interaction et à la personnalisation dans un processus décisionnel. Exploitation de la sémantique pour favoriser l'automatisation cognitive

Ranwez, Sylvie 11 July 2013 (has links) (PDF)
Impliqué dans un processus décisionnel, l'opérateur humain est souvent confronté à un trop grand nombre d'informations, qu'il doit analyser, synthétiser et exploiter parfois dans un contexte de crise où le facteur temps est décisif. Il est alors nécessaire d'automatiser certaines tâches à haute valeur cognitive ajoutée pour optimiser ce processus décisionnel. Les ontologies de domaine peuvent être utilisées lors de différentes phases de celui-ci. Les travaux de recherche décrits dans ce mémoire concernent l'instrumentation de l'automatisation cognitive lors de différents traitements de l'information, en exploitant des ontologies. Ces recherches ont été menées au sein de l'équipe KID (Knowledge and Image analysis for Decision making) du centre de recherche LGI2P de l'école des mines d'Alès (EMA), de 2001 à 2013. Une première partie détaille mes différentes activités sous la forme d'un curriculum vitae étendu. La deuxième partie constitue le cœur de ce mémoire et détaille mes contributions en matière d'indexation, de recherche d'information conceptuelle et de visualisation de cartes de connaissances. Le premier chapitre pose les définitions des ontologies, leur application en particulier pour la recherche d'information et argumente notre positionnement. Le deuxième chapitre détaille notre vision de l'indexation, des qualités que l'on peut en attendre et de la pertinence des applications qui l'utilisent. Plusieurs stratégies d'indexation sont évoquées, dont une, l'indexation par propagation, constitue notre principale contribution et la piste privilégiés de nos perspectives à court terme. Le troisième chapitre présente nos contributions en recherche d'information (RI) conceptuelle. Disposant d'un ensemble de ressources indexées à l'aide de concepts issus d'une ontologie de domaine, des techniques de requêtage performantes en termes de rappel et de précision, peuvent être mises en place. Nos travaux s'intègrent dans un processus décisionnel : il faut non seulement fournir un résultat pertinent par rapport à une requête d'un utilisateur, mais également être à même de lui justifier ce résultat. Pour cela nous avons choisi d'utiliser des opérateurs d'agrégation issus du domaine de l'aide à la décision pour déterminer la pertinence d'un document. La reformulation de requête, quant à elle, est envisagée dans ces travaux comme l'optimisation d'une fonction objectif dans un processus de RI itératif. Nos perspectives dans ce domaine concernent la RI complémentaire, où les ressources sélectionnées doivent non seulement être pertinentes par rapport à la requête, mais encore se compléter les unes les autres vis-à-vis de cette requête. La RI nécessitant des méthodes de calcul de similarité sémantique, une partie de nos contributions concerne ces mesures. Un cadre abstrait unificateur a été proposé et une librairie dédiée développée. Pour favoriser l'automatisation cognitive, les techniques de visualisation et d'interaction jouent un rôle majeur. Le quatrième chapitre synthétise nos contributions dans le domaine, en particulier concernant les cartes de connaissances interactives, où les ontologies de domaine sont utilisées pour structurer la carte. Ainsi, la proximité physique des entités représentées tient compte de leur proximité sémantique. Différentes techniques peuvent être employées pour mettre en relief certaines caractéristiques de ces entités, différentes vues pouvant être proposées en fonction du contexte d'utilisation (indexation, navigation, recherche d'information, etc.) Un dernier chapitre conclut ce manuscrit en synthétisant nos contributions et en présentant nos perspectives concernant les différentes thématiques abordées dans ce manuscrit. Un positionnement de ce travail par rapport à l'EMA et plus globalement au sein de l'Institut Mines-Télécom est également proposé, ainsi que mes perspectives en matière d'enseignement.
159

Luminance-Chrominance linear prediction models for color textures: An application to satellite image segmentation

Qazi, Imtnan-Ul-Haque 01 July 2010 (has links) (PDF)
Cette thèse détaille la conception, le développement et l'analyse d'un nouvel outil de caractérisation des textures exploitant les modèles de prédiction linéaire complexe sur les espaces couleur perceptuels séparant l'intensité lumineuse de la partie chromatique. Des modèles multicanaux 2-d causaux et non-causaux ont été utilisés pour l'estimation simultanée des densités spectrales de puissance d'une image " bi-canal ", le premier contenant les valeurs réelles de l'intensité et le deuxième les valeurs complexes de la partie chromatique. Les bonnes performances en terme de biais et de variance de ces estimations ainsi que l'usage d'une distance appropriée entre deux spectres assurent la robustesse et la pertinence de l'approche pour la classification de textures. Une mesure de l'interférence existante entre l'intensité et la partie chromatique à partir de l'analyse spectrale est introduite afin de comparer les transformations associées aux espaces couleur. Des résultats expérimentaux en classification de textures sur différents ensembles de tests, dans différents espaces couleur (RGB, IHLS et L*a*b*) sont présentés et discutés. Ces résultats montrent que la structure spatiale associée à la partie chromatique d'une texture couleur est mieux caractérisée à l'aide de l'espace L*a*b* et de ce fait, cet espace permet d'obtenir les meilleurs résultats pour classifier les textures à l'aide de leur structure spatiale et des modèles de prédiction linéaire. Une méthode bayésienne de segmentation d'images texturées couleur a aussi été développée à partir de l'erreur de prédiction linéaire multicanale. La contribution principale de la méthode réside dans la proposition d'approximations paramétriques robustes pour la distribution de l'erreur de prédiction linéaire multicanale : la distribution de Wishart et une approximation multimodale exploitant les lois de mélanges gaussiennes multivariées. Un autre aspect original de l'approche consiste en la fusion d'un terme d'énergie sur la taille des régions avec l'énergie du modèle de Potts afin de modéliser le champ des labels de classe à l'aide d'un modèle de champ aléatoire possédant une distribution de Gibbs. Ce modèle de champ aléatoire est ainsi utilisé pour régulariser spatialement un champ de labels initial obtenu à partir des différentes approximations de la distribution de l'erreur de prédiction. Des résultats expérimentaux en segmentation d'images texturées couleur synthétiques et d'images satellites hautes résolutions QuickBird et IKONOS ont permis de valider l'application de la méthode aux images fortement texturées. De plus les résultats montrent l'intérêt d'utiliser les approximations de la distribution de l'erreur de prédiction proposées ainsi que le modèle de champ de labels amélioré par le terme d'énergie qui pénalise les petites régions. Les segmentations réalisées dans l'espace L*a*b* sont meilleures que celles obtenues dans les autres espaces couleur (RGB et IHLS) montrant à nouveau la pertinence de caractériser les textures couleur par la prédiction linéaire multicanale complexe à l'aide de cet espace couleur.
160

Ondelettes et applications en imagerie et en calcul de surfaces

Waku Kouomou, Jules 04 November 1993 (has links) (PDF)
Cette these presente des travaux sur les aspects theoriques de la transformation en ondelettes et quelques applications en imagerie et en calcul de surface. Nous presentons trois approches de construction d'une base d'ondelettes, a savoir l'approche theorie des groupes. l'approche analyse multiresolution et l'approche banc de filtres. Les applications de la transformee en ondelettes portent sur la compression d'image, la representation de courbes discretes et le calcul de l'approximation d'une surface par les fonctions radiales. Nous commencons par un survol de differentes techniques de compression. Nous montrons graphiquement et numeriquement que les transformations en ondelettes, comparativement aux autres methodes pyramidales (Brt et Adelson) permettent d'anvisager de tres bons resultats de compression. On montre que parmi les representations hierarchiques, la representation par ondelettes est celle qui permet de preserver au mieux les indices visuels dans le cadre de la construction d'un modele numerique de terrain par exemple. En ce qui concerne la representation des courbes discrete, nous avons mis au point un algorithme d'analyse et de synthese multi-echelles. Ce nouvel algorithme s'applique a des directions elementaires correspondant a une suite de Freeman representant un contour discret ou une courbe discrete. On montre que l'ondelette de Haar permet d'obtenir une bonne representation multi-echelle d'une courbe discrete avec une taille memoire faible et un cout de calcul minimal. Enfin, apres avoir pose dans le cadre general le probleme d'interpolation par les fonctions radiales et presente une analyse des conditions d'existence de la solution, nous proposons une nouvelle approche de resolution de systeme lineaire qui definit les parametres du probleme. Notre approche est fondee sur la transformation en ondelettes et permet de rendre creuse la matrice du systeme. nous montrons la performance de cette approche surtout quand le nombre de donnees est important. Les resultats d'interpolation d'une surface par une spline de type plaque mince ou multiquadratique sont presentes. En particulier, nous avons teste les ondelettes splines, les ondelettes a support compact et les ondelettes biorthogonales. Les resultats graphiques sont accompagnes des estimations numeriques des erreurs, ceci permettant une meilleure appreciation des demarches proposees.

Page generated in 0.0592 seconds