• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1989
  • 769
  • 726
  • 187
  • 90
  • 60
  • 15
  • 14
  • 11
  • 10
  • 8
  • 5
  • 5
  • 5
  • 5
  • Tagged with
  • 4225
  • 4225
  • 4225
  • 1752
  • 1724
  • 1707
  • 1194
  • 946
  • 871
  • 666
  • 542
  • 513
  • 470
  • 442
  • 361
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Gender differences in end-user debugging strategies /

Narayanan, Vaishnavi. January 1900 (has links)
Thesis (M.S.)--Oregon State University, 2008. / Printout. Includes bibliographical references (leaves 35-37). Also available on the World Wide Web.
232

Analyse adaptative du mouvement dans des séquences monoculaires non calibrées

Lingrand, Diane 22 July 1999 (has links) (PDF)
Part of the robotic vision framework, this thesis focuses on uncalibrated monocular video sequence analysis, taking singular physical cases into account (camera models, internal camera parameter evolution, object displacements, scene structure) that leads to specific equations. Singularities may allow us to retrieve more movement or structure elements than general equations. Moreover, numerical precision is improved as the number of parameters decreases. Thus, the detection and the proper management of geometric and kinematic properties of those singular cases are fundamental. The complete study of all singular cases in a pair of images, or a video sequence, is computationally intractable and requires an appropriately adapted algorithm. The implementation of the theoretical study is based on the Argès robotic system. The system is able to determine the specific movement from a pair of images and computes the related parameters.
233

Proposition d'une approche de segmentation d'images hyperspectrales

Gorretta, Nathalie 25 February 2009 (has links) (PDF)
L'imagerie hyper-spectrale (IHS) consiste à créer et à analyser des images de la même scène pour une succession de longueurs d'onde dans un domaine spectral donné. De telles images apportent des informations sur la constitution chimique des objets et permettent ainsi de distinguer des objets de même couleur mais de compositions chimiques différentes. <br />Cependant, quel que soit le domaine d'application, la plupart des méthodes développées pour le traitement des images hyperspectrales analysent les données sans prendre en compte l'information spatiale. Les pixels sont alors traités individuellement comme un simple tableau de mesures spectrales sans arrangement particulier. Cependant, l'exploitation conjointe de l'information spectrale et spatiale disponibles, du fait entre autres, de l'apparition d'imageurs spectraux de meilleure résolution, apparaît aujourd'hui essentielle pour permettre le traitement d'images de contenu complexe.<br />Dans le cadre de nos travaux concernant l'IHS, nous nous sommes intéressés à cette<br />problématique. Nous avons ainsi proposé un schéma itératif générique appelé \emph{papillon} permettant de mêler les aspects spatiaux et spectraux de manière symétrique, de façon à ne pas privilégier un espace par rapport à l'autre et de manière conjointe, de façon à ce que l'information spatiale se nourrisse de l'information spectrale et vice-versa, pour avancer dans le processus de traitement de l'image. Pour ce faire, la combinaison spectro/spatiale proposée repose, d'une part, sur la construction d'un espace spectral adapté à l'information topologique (construction de variables latentes), et d'autre part, sur la génération d'une topologie sur l'espace spatial. Dans nos développements récents, la notion d'information topologique est limitée à la notion de région.\\<br />L'approche proposée apparaît comme une procédure générique dont le contenu et l'implémentation peuvent être choisis et adaptés aux images traitées. Dans le cadre de cette thèse, nous avons proposé une implémentation utilisant une étape de division suivie d'une étape de fusion. La construction d'un espace adapté pour chacune de ces deux étapes a été réalisée respectivement par la diagonalisation de la matrice de variance intra-région et inter-région. Nous avons également utilisé, pour l'étape de division, plusieurs approches de segmentation régions dont les coupes normalisées avec contrainte spatiale et une version modifiée de l'algorithme de partage des eaux ou LPE. <br />Pour finir, nous avons validé le fonctionnement de notre approche et illustré ces principales caractéristiques à l'aide d'images synthétiques et réelles.
234

Scénarios temporels pour l'interprétation automatique de séquences vidéos

Vu, Van-Thinh 14 October 2004 (has links) (PDF)
Cette thèse traite de la reconnaissance de scénarios temporels pour l'interprétation automatique de sé-quences vidéos : l'objectif est de reconnaître à cadence vidéo les comportements d'individus évoluant dans des scènes décrites par des séquences vidéos (acquises par des caméras). Le processus de reconnaissance prend en en-trée (1) les modèles de comportements humains (i.e. scénarios temporels) pré-définis par des experts, (2) les infor-mations sémantiques et géometriques-3D de l'environnement observé et (3) les individus suivis par un module de vision.<br />Pour résoudre ce problème, premièrement, nous avons proposé un modèle générique de scénarios temporels et un langage de description pour la représentation de connaissances décrivant des comportements humains. La repré-sentation de ces connaissances doit être claire, riche, intuitive et flexible pour être compris par les experts du do-maine d'application. Le modèle proposé d'un scénario temporel M se compose de cinq parties : (1) un ensemble de variables correspondant aux acteurs impliqués dans M, (2) un ensemble de variables temporelles correspondant aux sous-scénarios qui composent M, (3) un ensemble de variables interdites correspondant aux scénarios qui ne doivent pas être reconnus pendant la reconnaissance de M, (4) un ensemble de contraintes (symboliques, logiques, spatiales et contraintes temporelles comprenant les opérateurs de l'algèbre d'intervalles d'Allen) portant sur ces variables et (5) un ensemble de décisions correspondant aux tâches pré-définies par les experts pour être exécutées quand M est reconnu.<br />Deuxièmement, nous avons proposé une technique originale de résolution de contraintes temporelles pour la re-connaissance à cadence vidéo de modèles de scénarios temporels pré-définis par des experts. En général, l'algorithme proposé est efficace car il propage les contraintes temporelles et combine seulement les objets physi-ques définis dans le scénario donné M. Par efficace, nous voulons dire que le processus de reconnaissance est li-néaire en fonction du nombre de sous-scénarios et, dans quasiment tous les cas, en fonction du nombre d'objets physiques définis dans M.<br />Pour valider l'algorithme proposé en termes d'exactitude, de robustesse et du temps de traitement en fonction de la complexité des scénarios et de la scène (e.g. nombre de sous-scénarios, nombre de personnes dans la scène), nous avons testé l'algorithme en appuyant sur un grand nombre de vidéos provenant de différentes applications sur des données simulées et également réelles en modes hors-ligne/en-ligne.<br />Les expérimentations réalisées dans différentes applications montrent la capacité du langage de description de scénarios à représenter facilement les scénarios temporels correspondant aux comportements humains d'intérêt. De plus, ces expérimentations montrent également la capacité de l'algorithme proposé à reconnaître à cadence vidéo des modèles de scénarios sophistiqués (jusqu'à 10 acteurs et 10 sous-scénarios par scénario) dans des sé-quences vidéos complexes (jusqu'à 240 personnes/frame dans la scène).
235

Mise en œuvre et évaluation d'outils de fusion d'image en radiothérapie

Bondiau, Pierre-Yves 22 November 2004 (has links) (PDF)
Le cancer est un problème majeur de santé publique. Les traitements peuvent être à visée systémique ou loco-régionale, dans ce dernier cas l'imagerie médicale joue un rôle important en permettant de préciser la localisation de la tumeur. L'objectif de la radiothérapie est de délivrer une dose curatrice de radiation au volume cible tout en épargnant les organes à risques (OAR) avoisinants. La détermination de la localisation précise de ce volume cible ainsi que des OAR permet de définir la position et la puissance des faisceaux d'irradiation. Après le rappel des principes de la radiothérapie et du traitement des cancers, nous précisons les enjeux cliniques des tumeurs oculaires, cérébrales et prostatiques.<br />Nous effectuerons une mise au point sur le recalage d'images, les différentes techniques sont passées en revue dans le but d'être didactique vis-à-vis de la communauté médicale. Les résultats du recalage sont présentés dans le cadre de la planification de la radiothérapie cérébrale et prostatique afin de préciser les types de recalage applicables en oncologie et plus particulièrement à la radiothérapie.<br />Ensuite, nous présentons les perspectives de ce type d'application selon différentes régions anatomiques. Les applications de la segmentation automatiques et l'évaluation des résultats dans le cadre des tumeur de l'encéphale sont décrits après avoir passé en revue les différentes méthodes de segmentation utilisables selon les localisations anatomiques.<br />Nous verrons une application originale : la simulation numérique de la croissance tumorale virtuelle et la comparaison avec la croissance réelle d'une tumeur cérébrale présentée par un patient.<br />Enfin, nous exposerons les futurs développements possibles des outils de traitement de l'image en radiothérapie ainsi que les pistes des recherche à explorer en oncologie.
236

Capture et Rendu à Base d'Images avec Application aux Projets Urbains

Reche, Alex 19 April 2005 (has links) (PDF)
Cette thèse traite le problème de la capture des objets réels dans le but de les intégrer dans un environnement de réalité virtuelle et de les afficher (ou les rendre) d'une manière efficace. La thèse a deux parties : dans la première partie, nous présentons deux nouvelles méthodes pour la capture et le rendu des objets réels avec des techniques à base d'images, et dans la deuxième, nous présentons un système intégré de réalité virtuelle qui permet l'utilisation de plusieurs techniques réalistes pour la conception et l'évaluation de projets d'urbanisme. La première méthode proposée permet la capture d'objets réels avec une géométrie relativement simple, comme les façades de bâtiments par exemple. La capture se fait à partir d'un faible nombre de photographies. Avec cette méthode les objets capturés ont une représentation compacte ; le travail des infographistes est facilité pour permettre un affichage de meilleure qualité et enfin la méthode de rendu ne nécessite pas un découpage géométrique des objets, comme c'était le cas pour les méthodes précédentes. La deuxième méthode proposée traite le cas des objets complexes comme les arbres, à partir d'un ensemble de photographies prises autour de l'objet. Une première estimation de l'opacité est effectuée avec une méthode inspirée de la tomographie, ce qui donne une représentation volumique de l'arbre. Ensuite le détail de haute fréquence du feuillage est ajouté par un algorithme de génération de textures à partir des images d'origine. Le résultat est l'affichage très réaliste des arbres réels capturés, qui peuvent être insérés dans des environnements virtuels. Le système de réalité virtuelle présenté dans la deuxième partie de la thèse intègre des méthodes d'affichage à base d'images, ainsi que d'autres algorithmes d'affichage réaliste (ombres, son 3D, etc.). Le système multi plateforme est opérationnel sur des systèmes de réalité virtuelle allant du plan de travail virtuel à l'Inria Sophia-Antipolis jusqu'à la salle RealityCenter du CSTB. Notre travail dans le cadre d'un projet réel, celui du Tramway de Nice, nous a permis d'évaluer nos choix sur le réalisme et l'interface du système. Plusieurs essais ont été effectués avec les architectes responsables du réaménagement de la Place Garibaldi à Nice, et nous présentons ici les premières conclusions de nos observations.
237

Intégration d'attributs et évolutions de fronts en segmentation d'images

Rousson, Mikaël 06 December 2004 (has links) (PDF)
La détection et l'extraction automatique de régions d'intérêt à l'intérieur d'une image est une étape primordiale pour la compréhension des images. Une multitude d'études dédiées à ce problème ont été proposées durant les dix dernières années. Des algorithmes efficaces et robustes ont été développés pour diverses applications. Cependant, la plupart d'entre eux introduisent des heuristiques propres au type d'image considéré.<br />La variété des caractéristiques possibles définissant une région d'intérêt est le principal facteur limitant leur généralisation. Ces critères région peuvent être le niveau de gris, la couleur, la texture, la forme des objets, etc...<br />Dans cette thèse, nous proposons une formulation générale qui permet d'introduire chacune de ces caractéristiques. Plus précisément, nous considérons l'intensité de l'image, la couleur, la texture, le mouvement et enfin, la connaissance a priori sur la forme des objets à extraire. Dans cette optique, nous obtenons un critère probabiliste à partir d'une formulation Bayésienne du problème de la segmentation d'images. Ensuite, une formulation variationnelle équivalente est introduite et la segmentation la plus probable est finalement obtenue par des techniques d'évolutions de fronts. La représentation par ensembles de niveaux est naturellement introduite pour décrire ces évolutions, tandis que les statistiques régions sont estimées en parallèle. Ce cadre de travail permet de traiter naturellement des images scalaires et vectorielles mais des caractéristiques plus complexes sont considérées par la suite. La texture, le mouvement ainsi que l'a priori sur la forme sont traités successivement. Finalement, nous présentons une extention de notre approche aux images de diffusion à résonance magnétique où des champs de densité de probabilité 3D doivent être considérés.
238

Maintien de la cohérence dans les systèmes d'information répartis

Balter, Roland 02 July 1985 (has links) (PDF)
Ce travail concerne l'étude des techniques de maintien de la cohérence dans les systèmes d'information répartis. il s'appuie principalement sur l'expérience acquise dans la réalisation du projet SCOT. L'objectif consiste a définir un noyau de contrôle de la cohérence, intégrant des mécanismes de base suffisamment souples pour qu'il soit possible aux concepteurs d'applications distribuées de définir des stratégies de contrôle de la cohérence conformes aux exigences de chaque application. dans cette étude, l'accent est mis sur le traitement des erreurs et des pannes. En complément, une analyse comparative de plusieurs mécanismes de verrouillage a permis de déterminer une technique de synchronisation des accès aux objets partagés. les résultats de ce travail ont largement influencé la définition de systèmes d'information répartis en cours de réalisation dans le groupe BULL<br />~
239

Etude de quelques problèmes liés à l'analyse d'images : Recherche de direction privilégiée et projection d'images - Application au dénombrement et à la mesure de structures en domaine ferroélectrique

Rubat Du Mérac, Claire 13 May 1977 (has links) (PDF)
.
240

Contributions à la sémantique de la programmation logique

Jaume, Mathieu 11 January 1999 (has links) (PDF)
La notion de preuves en programmation logique est examinée à deux niveaux différents. D'un point de vue externe, la "théorie classique" de la programmation logique est complètement formalisée dans le calcul des constructions inductives. Après avoir envisagé le problème de la définition de fonctions partielles dans un système dans lequel seules les fonctions totales sont représentables, l'unification est obtenue en réutilisant une preuve formelle existante portant sur un sur-ensemble des termes. Les propriétés fondamentales des SLD-résolution sont alors formalisées. Le niveau de détail imposé par la mécanisation des preuves considérées a mis en relief la complexité cachée de certaines preuves: le mécanisme de renommage est traité de manière explicite, transformant ainsi certaines certitudes théoriques en réalités. D'un point de vue interne, les preuves SLD,finies ou infinies, sont comparées à celles que l'on peut obtenir, par induction ou par co-induction, à partir des clauses d'un programme logique vues comme des règles d'inférence. Dans le cas fini la correspondance est complète ("ce que calcule un programme est prouvable") tandis que dans le cas infini, certains objets non calculables sont toutefois prouvables. Les propriétés classiques des définitions co-inductives et la comparaison de certaines dérivations infinies à des termes de preuve d'un type co-inductif, se révèlent utiles tant pour expliquer les résultats d'incomplétude d'approches existantes que pour définir une sémantique valide et complète pour une classe de dérivations infinies (précisement celles qui ne construisent pas de termes infinis).(résumé de l'auteur)

Page generated in 0.0413 seconds