• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1988
  • 769
  • 726
  • 187
  • 90
  • 60
  • 15
  • 14
  • 11
  • 10
  • 8
  • 5
  • 5
  • 5
  • 5
  • Tagged with
  • 4223
  • 4223
  • 4223
  • 1752
  • 1724
  • 1707
  • 1194
  • 946
  • 871
  • 666
  • 542
  • 513
  • 470
  • 442
  • 361
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Méthodes Variationnelles pour le Recalage Multimodal

Hermosillo Valadez, Gerardo 03 May 2002 (has links) (PDF)
Depuis quelques années, l'utilisation des équations aux dérivées partielles a pourvu la recherche en traitement d'images d'une approche formelle solide, et a abouti à des algorithmes dont on peut montrer le caractère bien posé, étant donné un ensemble d'hypothèses clairement définies. Ces algorithmes forment l'état de l'art dans beaucoup de domaines d'application tels que le débruitage, la segmentation et la mise en correspondance. En parallèle à ceci, des approches combinant des principes variationnels et stochastiques ont amené à de puissants algorithmes qui peuvent aussi être décrits en termes d'équations aux dérivées partielles. C'est l'approche suivi dans ce travail, où est étudié le problème de mise en correspondance dense entre deux images, en utilisant des critères statistiques de dissemblance. Deux classes d'algorithmes sont considérées, selon que ces critères soient calculés globalement pour toute l'image, ou localement entre des régions correspondantes. Dans chaque cas, trois critères de dissemblance sont étudiés, définis comme l'opposé des critères de ressemblance suivants: information mutuelle (bien adaptée à une dépendance statistique très générale entre les niveaux de gris), rapport de corrélation (adapté à une dépendance fonctionnelle), et corrélation croisée (adaptée à une dépendance affine). La minimisation de la somme du terme de dissemblance et un terme de régularisation définit, à travers les équations d'Euler-Lagrange, un système d'équations fonctionnelles d'évolution. Nous étudions les conditions sous lesquelles ces équations d'évolution sont bien posées, c'est-à-dire ont une solution unique et montrons que les algorithmes proposés satisfont ces conditions pour deux classes d'opérateurs linéaires régularisants, dont une est connue pour encourager des variations rapides de la solution le long des contours de l'image de référence. La performance de ces algorithmes est illustrée à travers plusieurs exemples synthétiques et réels, aussi bien sur des images 2D que 3D. Comme le montrent ces exemples, les algorithmes décrits sont applicables à des problèmes qui ne font pas nécessairement intervenir des capteurs de modalités différentes. Ils sont aussi spécialement intéressants pour la communauté de l'imagerie médicale, où le problème de fusionner des données provenant de différentes modalités d'imagerie nécessite souvent de corriger des distorsions non-linéaires.
72

Contrôle d'exécution des mouvements d'un robot mobile : apllication à l'assistance à la conduite automobile

Hassoun, Mouna 21 December 1994 (has links)
Cette thèse présente une étude du problème du contrôle d'exécution des mouvements d'un robot mobile autonome. D'une manière générale, un système décisionnel autonome est constitué de trois fonctions : la perception, la décision et l'action. La perception construit un modèle de l'environnement du robot. La décision utilise ce modèle pour générer un plan nominal et le traduire en une suite de consignes de mouvement. L'action transforme enfin ces consignes en commandes adéquates pour les effecteurs du robot. L'environnement du robot considéré est dynamique, les consignes de mouvement doivent alors assurer une réactivité du robot face aux événements imprévus qui peuvent survenir pendant l'exécution du plan nominal, nous parlons alors du contrôle d'exécution et c'est le point sur lequel nous avons concentré notre étude. Dans le cas d'un robot mobile de type voiture se déplaçant dans un réseau routier, nous avons mis au point un contrôleur d'exécution qui assure les tâches suivantes : analyse de la situation courante, adaptation du plan nominal (utilisation d'une base de règles), et génération périodique des consignes de mouvement nécessaires a` l'exécution du plan nominal adapté (utilisation de techniques de champs de potentiels). Ce contrôleur d'exécution a été d'abord intégré au sein d'une architecture de contrôle assurant l'autonomie des mouvements du robot. Nous avons ensuite adapté les techniques présentées pour une application réelle d'assistance a` la conduite automobile (démonstrateur français ProLab II, Action Pro-Art du projet Européen Eureka PROMETHEUS). Une validation expérimentale du démonstrateur a été réalisée avec succès en octobre 1994 sur une voiture Peugeot 605 (manifestation européenne Prometheus Board Members Meeting'94).
73

Méthodes stochastiques en analyse d'image : des champs de Markov aux processus ponctuels marqués

Descombes, Xavier 02 February 2004 (has links) (PDF)
Ce mémoire résume mes travaux sur la décennie (entre 1994 et 2003) suivant ma thèse de doctorat qui était consacrée aux champs de Markov en analyse d'image et fut soutenue en décembre 1993. Ces travaux ont vu le jour dans différents laboratoires d'accueil : – Laboratoire Image - Télécom Paris – Université Catholique de Louvain (K.U.Leuven) – Projet Pastis - INRIA Sophia Antipolis – Institut Max Planck pour les Neuroscience - Leipzig – Projet Ariana - INRIA Sophia Antipolis La diversité des laboratoires d'accueil a permis de traiter de plusieurs applications sur différents types d'images parmi lesquelles : – La binarisation d'empreintes digitales – La segmentation d'IRM du cerveau – La restauration d'angiographies cérébrales – La détection des régions d'activation en IRM fonctionnelle – La détection des espaces de Virchow Robin à partir d'IRM – La segmentation d'images satellitaires – L'extraction et la caractérisation des tissus urbains – L'extraction des réseaux routiers – La reconstruction du bâti
74

Transformée en ondelettes et compression de données tridimensionnelles

Cagnazzo, Marco 08 March 2005 (has links) (PDF)
Notre thèse de doctorat porte principalement sur la transformée en ondelettes (TO) tridimensionnelle, et ses variations, comme la TO compensée en mouvement ou la TO adaptée à la forme, pour le codage des séquences vidéo et des images multispectrales (MS). Cette approche peut sembler a priori normale, néanmoins, dans le domaine de la compression vidéo, les approches basées sur les transformée 3D ont juste commencé à être concurrentielles avec les schémas hybrides basés sur la transformée cosinus discret (DCT). Notons qu'en ce qui concerne les images MS, la littérature scientifique n'appréhende pas le problème de la compression par une approche intégrale. L'approche TO 3D, étudiée dans cette thèse, a reçu une attention particulière par les chercheurs qui s'intéressent au domaine de la compression de données, car la version bi-dimensionnelle a des très bons résultats pour le codage d'images fixes. D'ailleurs, l'approche de TO fournit un support total à la scalabilité qui semble être l'une des aspects les plus importantes dans le domaine de la livraison de multimédia. Une représentation scalable d'information se compose de plusieurs sous ensembles de données, dont chacune d'elle est une représentation efficace de l'information originale. Une telle approche est obligatoire pour la livraison efficace de multimédia sur les réseaux hétérogènes. Le problème d'allocation des ressources est un autre aspect commun au codage vidéo et aux images MS.
75

Compression des images et des vidéos numériques : dix années de recherches au CNRS

Antonini, Marc 20 October 2003 (has links) (PDF)
Ce document comporte trois parties qui synthétisent environ dix années de mes recherches. J'ai voulu mettre en valeur mes activités de recherche et d'administration de la recherche principales en faisant apparaître les collaborations que j'ai pu avoir avec d'autres laboratoires en France ou à l'étranger, ainsi que les travaux des doctorants que j'ai eu l'occasion de co-encadrer. Il est structuré de la façon suivante. Dans la première partie du document je présente un rapport de mes activités nationales et internationales ainsi qu'une liste complète de mes publications. Dans la deuxième partie je développe les travaux de recherches les plus importants que j'ai effectué depuis mon entrée au CNRS. Enfin, dans la troisième partie sont insérées quelques unes de mes publications significatives utiles pour la compréhension de mes travaux.
76

Contributions à la modélisation, la réutilisation et la flexibilité des systèmes d'information

Mirbel, Isabelle 25 June 2008 (has links) (PDF)
L'ingénierie des systèmes d'information fournit des méthodes, des techniques et des outils pour développer et implanter le plus efficacement possible les systèmes d'information. Ce domaine d'activité a ouvert un champ considérable d'activités de recherche et de développement d'applications avec aujourd'hui de nouvelles perspectives pour aborder la complexité croissante des systèmes d'information d'entreprise. Ce mémoire a pour objectif de montrer comment mes activités de recherche se sont inscrites dans ce domaine de recherche riche et en perpétuelle évolution. J'ai choisi pour cela de donner un aperçu synthétique et précis de mes travaux de recherche selon trois angles d'approche : la séparation des dimensions durant l'activité de modélisation des systèmes d'information, la réutilisation dans l'ingénierie des systèmes d'information et la flexibilité dans l'ingénierie des systèmes d'information. Je développerai plus avant ces aspects dans la section 1.3 de ce chapitre. Avant cela, j'évoquerai dans la section 1.1 les motivations de mon travail dans le domaine de l'ingénierie des systèmes d'information. Puis, je donnerai dans la section 1.2 un aperçu des projets auxquels j'ai participé et qui ont été mon contexte de travail.
77

Pair testing : comparing Windows Exploratory Testing in pairs with testing alone

Lischner, Ray 31 May 2001 (has links)
Windows Exploratory Testing (WET) is examined to determine whether testers working in pairs produce higher quality results, are more productive, or exhibit greater confidence and job satisfaction than testers working alone. WET is a form of application testing where a tester (or testers) explores an unknown application to determine the application's purpose and main user, produce a list of functions (categorized as primary and contributing), write a test case outline, and capture a list of instabilities. The result of performing WET is a report that includes the above with a list of issues and questions raised by the tester. The experiment measured and compared the quality of these reports. Pair testing is a new field of study, one suggested by the success of pair programming, especially in the use of Extreme Programming (XP). In pair programming, two programmers work at a single workstation, with a single keyboard and mouse, performing a single programming task. Experimental and anecdotal evidence shows that programs written by pairs are of higher quality than programs written solo. This success suggests that pair testing might yield positive results. As a result of the experiment, we conclude that pair testing does not produce significantly higher quality results than solo testing. Nor are pairs more productive. Nonetheless, some areas are noted as deserving further study. / Graduation date: 2002
78

Implementation of virtual sales agents at e-stores

Abdoli, Mansour. January 1900 (has links)
Thesis (Ph.D.)--University of Nebraska-Lincoln, 2006. / Title from title screen (site viewed on Mar. 9, 2007). PDF text: xi, 158 p. : ill. (some col.) UMI publication number: AAT 3225892. Includes bibliographical references. Also available in microfilm and microfiche format.
79

Contributions en modélisation de la vision algorithmique et bio-inspirée

Kornprobst, Pierre 14 December 2007 (has links) (PDF)
Le traitement d'images a une longue histoire, à commencer par les approches provenant de techniques du traitement du signal 1-D. Ces approches reposent sur la théorie du filtrage (linéaire ou non), l'analyse spectrale, ou sur des concepts basiques de probabilité et statistiques.
80

Improving understanding of website privacy policies

Levy, Stephen Eric 24 January 2005
Machine-readable privacy policies have been developed to help reduce user effort in understanding how websites will use personally identifiable information (PII). The goal of these policies is to enable the user to make informed decisions about the disclosure of personal information in web-based transactions. However, these privacy policies are complex, requiring that a user agent evaluate conformance between the users privacy preferences and the sites privacy policy, and indicate this conformance information to the user. The problem addressed in this thesis is that even with machine-readable policies and current user agents, it is still difficult for users to determine the cause and origin of a conflict between privacy preferences and privacy policies. The problem arises partly because current standards operate at the page level: they do not allow a fine-grained treatment of conformance down to the level of a specific field in a web form. In this thesis the Platform for Privacy Preferences (P3P) is extended to enable field-level comparisons, field-specific conformance displays, and faster access to additional field-specific conformance information. An evaluation of a prototype agent based on these extensions showed that they allow users to more easily understand how the website privacy policy relates to the users privacy preferences, and where conformance conflicts occur.

Page generated in 0.049 seconds