• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1988
  • 769
  • 726
  • 187
  • 90
  • 60
  • 15
  • 14
  • 11
  • 10
  • 8
  • 5
  • 5
  • 5
  • 5
  • Tagged with
  • 4223
  • 4223
  • 4223
  • 1752
  • 1724
  • 1707
  • 1194
  • 946
  • 871
  • 666
  • 542
  • 513
  • 470
  • 442
  • 361
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Contribution à l'étude des techniques de communication graphique avec un ordinateur - Elements de base des logiciels graphiques interactifs

Lucas, Michel 16 December 1977 (has links) (PDF)
No description available.
242

Projet SOCRATE - (2-3) Interprétation et compilation

Morin, Robert 22 December 1970 (has links) (PDF)
No description available.
243

Géométrie inverse : du nuage de points brut à la surface 3D : théorie et algorithmes

Digne, Julie 23 November 2010 (has links) (PDF)
De nombreux scanners laser permettent d'obtenir la surface 3D à partir d'un objet. Néanmoins, la surface reconstruite est souvent lisse, ce qui est du au débruitage interne du scanner et aux décalages entre les scans. Cette thèse utilise des scans haute précision et choisit de ne pas perdre ni altérer les échantillons initiaux au cours du traitement afin de les visualiser. C'est en effet la seule façon de découvrir les imperfections (trous, décalages de scans). De plus, comme les données haute précision capturent même le plus léger détail, tout débruitage ou sous-échantillonnage peut amener à perdre ces détails. La thèse s'attache à prouver que l'on peut trianguler le nuage de point initial en ne perdant presque aucun échantillon. Le problème de la visualisation exacte sur des données de plus de 35 millions de points et de 300 scans différents est ainsi résolu. Deux problèmes majeurs sont traités: le premier est l'orientation du nuage de point brut complet et la création d'un maillage. Le second est la correction des petits décalages entre les scans qui peuvent créer un très fort aliasing et compromettre la visualisation de la surface. Le second développement de la thèse est une décomposition des nuages de points en hautes/basses fréquences. Ainsi, des méthodes classiques pour l'analyse d'image, l'arbre des ensembles de niveau et la représentation MSER, sont étendues aux maillages, ce qui donne une méthode intrinsèque de segmentation de maillages. Une analyse mathématiques d'opérateurs différentiels discrets, proposés dans la littérature et opérant sur des nuages de points est réalisée. En considérant les développements asymptotiques de ces opérateurs sur une surface régulière, ces opérateurs peuvent être classifiés. Cette analyse amène au développement d'un opérateur discret consistant avec le mouvement par courbure moyenne (l'équation de la chaleur intrinsèque) définissant ainsi un espace-échelle numérique simple et remarquablement robuste. Cet espace-échelle permet de résoudre de manière unifiée tous les problèmes mentionnés auparavant (orientation et triangulation du nuage de points, fusion de scans, segmentation de maillages) qui sont ordinairement traités avec des techniques distinctes.
244

Visualisation Interactive de Modeles Complexes avec les Cartes Graphiques Programmables

Toledo, Rodrigo 12 October 2007 (has links) (PDF)
La visualisation d'objets et de scènes de grande taille est un des dé s de la visualisation par ordinateur, particulièrement dans le cadre d'applications interactives. Celles-ci re- quièrent deux qualités: une vitesse de l'ordre de 30 images par seconde dans le but de donner une impression de temps-réel et la qualité. En e et, des images réalistes sont de plus en plus considérées comme une condition essentielle, notamment en ce qui concerne les simulateurs. Ainsi est-il communément reconnu que l'industrie pétrolière est pourvoyeuse de don- nées de grande taille. Ces données sont également caractérisées par la grande diversitée des objets et des scènes utilisés: terrains, données géologiques volumiques (sismique 3D), données SIG (Systèmes d'Information Géographique), modèles d'ingénierie complexes (plateformes, ra neries), puits de forages, oléoducs et gazoducs. En outre, des informa- tions additionnelles sont souvent attachées à tous ces éléments: annotations, identi ca- tions, descriptions techniques, et conditions instantanées. Parmi tous ces objets, deux grandes familles peuvent être distingués: les objets na- turels et les objets manufacturés. Malgré cette classi cation, tous les objets sont com- munément représentes par des maillages triangulés. De nombreuses raisons expliquent ce choix du triangle comme base de la représentation des primitives géométriques: tout ob- jet peut être discrétisé en un maillage triangulaire; tout polygone peut se décomposer en un ensemble de triangles; les points d'un triangle sont toujours coplanaires; les triangles sont toujours convexes; les coordonnées barycentriques peuvent toujours être utilisées comme règle non-ambiguë d'interpolation de valeurs attachées au point dans le domaine du triangle; de plus, les cartes graphiques sont spécialisées dans la 'rasterisation' des triangles. Cependant, le choix d'un maillage triangulé ne s'avère pas toujours judicieux, à la fois pour des questions de performance et de qualité de rendu des images. La thèse apporte deux contributions principales: * un algorithme pour récupérer des primitives géométriques implicites à partir d'une base de données maillée * un algorithme de rendu qui emploie directement les équations des primitives géométriques implicites (ex: cylindres, cônes et tores), pour éviter leur triangulation
245

Algorithmes d'estimation pour des modèles visuels ambigus : Modélisation Humaine Tridimensionnelle et Reconstruction du Mouvement dans des Séquences Vidéo Monoculaires

Sminchisescu, Cristian 16 July 2002 (has links) (PDF)
Cette thèse s'intéresse au problème du suivi et de la reconstruction tridimensionnelle de mouvements articulés humains dans des séquences vidéo monoculaires. Cette problématique est importante et comporte un champ d'applications assez large qui touche des domaines tels que la capture du mouvement sans cibles pour l'animation et la réalité virtuelle, l'indexation vidéo, les interactions homme-machines ou la télésurveillance. La reconstruction de mouvement 3D humain à partir de séquences monoculaires est un problème complexe en raison de la perte d'informations due à la projection monoculaire, et en raison de la dimensionnalité importante nécessaire à la modélisation du corps humain. En effet, la complexité de la structure articulaire et volumétrique du corps humain, ses contraintes physiques, ainsi que la grande variabilité dans les observations images, rendent la recherche d'une solution à ce problème difficile. L'objectif principal de cette thèse est donc d'étudier dans quelle mesure l'estimation de mouvement générique humain est réalisable à partir d' une seule caméra. Par conséquent, nous ne faisons pas d'hypothèses sur le mouvement ou l'habillement du sujet suivi, sur la structure du fond, ou sur la présence de plusieurs caméras. Cette formulation non-restrictive résulte en une distribution de probabilité dynamique et fortement multimodale dans l'espace des configurations (les poses). Le défi majeur réside ici dans la localisation temporelle effective des modes les plus importants de cette distribution. Pour aborder cette étude, nous proposons un cadre de modélisation qui tient compte des contraintes physiques du corps humain et qui permet une intégration cohérente, robuste et statistiquement justifiée des différentes informations visuelles comme les contours, les intensités ou les silhouettes. Dans ce cadre, nous décrivons trois nouvelles méthodes de recherche continues reposant sur des hypothèses multiples qui nous permettent à la fois une localisation déterministe et un échantillonage stochastique des modes multiples sur les surfaces de probabilité associées aux poses du corps humain: Covariance Scaled Sampling, Eigenvector Tracking et Hypersurface Sweeping et Hyperdynamic Importance Sampling. Ces méthodes nous permettent a la fois un suivi et une reconstruction efficace du mouvement humain dans des contextes naturels, ainsi qu'une étude systématique et déterministe des surfaces d'erreurs multimodales souvent rencontrées dans des problèmes de vision par ordinateur.
246

Les modèles génératifs en classification supervisée et applications à la catégorisation d'images et à la fiabilité industrielle

Bouchard, Guillaume 10 May 2005 (has links) (PDF)
L'apprentissage statistique utilise le formalisme des probabilités et des statistiques pour créer des algorithmes qui "s'adaptent" automatiquement en fonction des données qui leurs sont fournies. Les outils les plus performants aujourd'hui (Support Vector Machine, boosting, régression logistique pénalisée et réseaux de neurones) font partie d'une classe générale d'algorithmes de type "discriminatif". Cependant, dans le cas de données structurées (e.g. les séries temporelles et les images numériques) ou en présence d'une forte information a priori, ces méthodes ne permettent pas de modéliser facilement le problème et nécessitent une véritable expertise pour pouvoir être appliquées. A l'opposé, l'approche générative permet de modéliser toutes les variables d'un problème sous la forme d'une distribution de probabilité incluant les informations sur la structure des données grâce à tous les outils de modélisation non-supervisés. Dans cette thèse, nous montrons que cette approche, longtemps considérée comme sous-optimale, permet de résoudre des problèmes complexes de manière cohérente. L'approche générative est définie dans un cadre de classification supervisée et de régression et propose plusieurs outils novateurs pour l'apprentissage statistique supervisé. Un critère de sélection de modèle adapté à ce type d'approche est développé. Les deux principales manières d'estimer les paramètres - générative et discriminative - sont introduites et analysées en classification et en régression, conduisant à la définition d'un nouveau type d'estimateur intermédiaire appelé Generative-Discriminative Tradeoff (GDT). Des exemples d'approches génératives utilisant le formalisme des modèles graphiques sont étudiées pour la catégorisation d'objets dans des images numériques et pour calculer une probabilité de défaillance en fiabilité industrielle. Enfin, un exemple de méthode discriminative utilisant un estimateur à noyau est proposé pour estimer la frontière d'un ensemble de points.
247

Géométrie d'images multiples

Triggs, William 26 November 1999 (has links) (PDF)
On étudie les relations géométriques entre une scène 3D et ses images perspectives. Les liens entre les images, et la reconstruction 3D de la scène à partir de ces images, sont particulièrement élucidés. L'outil central est un formalisme tensoriel de la géométrie projective des images multiples. La forme et la structure algébrique des contraintes géométriques qui lient les différentes images d'une primitive 3D sont établies. à partir de là, plusieurs nouvelles méthodes de reconstruction 3D projective d'une scène à partir d'images non-calibrées sont développées. Pour rehausser cette structure projective à une structure euclidienne, on introduit un nouveau formalisme d'auto-calibrage d'une caméra en mouvement.
248

Raisonnements standard et non-standard pour les systèmes décentralisés de gestion de données et de connaissances

Abdallah, Nada 13 July 2010 (has links) (PDF)
Les systèmes d'inférence pair-à-pair (P2PIS) sont constitués de serveurs autonomes appelés pairs. Chaque pair gère sa propre base de connaissances (BC) et peut communiquer avec les autres pairs via des mappings afin de réaliser une inférence particulière au niveau global du système. Dans la première partie de la thèse, nous proposons un algorithme totalement décentralisé de calcul de conséquences par déduction linéaire dans les P2PIS propositionnels et nous étudions sa complexité communicationnelle, en espace et en temps. Nous abordons ensuite la notion d'extension non conservative d'une BC dans les P2PIS et nous exhibons son lien théorique avec la déduction linéaire décentralisée. Cette notion est importante car elle est liée à la confidentialité des pairs et à la qualité de service offerte par le P2PIS. Nous étudions donc les problèmes de décider si un P2PIS est une extension conservative d'un pair donné et de calculer les témoins d'une possible corruption de la BC d'un pair de sorte à pouvoir l'empêcher. La seconde partie de la thèse est une application directe des P2PIS au domaine des systèmes de gestion de données pair-à-pair (PDMS) pour le Web Sémantique. Nous définissons des PDMS basés sur la logique de description DL-LITER pour lesquels nous fournissons les algorithmes nécessaires de test de consistance et de réponse aux requêtes. Notre approche repose sur les P2PIS propositionnels car nous réduisons les problèmes de la reformulation des requêtes et de test de l'inconsistance à des problèmes de calcul de conséquences en logique propositionnelle.
249

De l'analyse à la conception d'algorithmes pour une radiosité hiérarchique efficace

Turbet, Jérémie 21 March 2002 (has links) (PDF)
no abstract
250

Extension du modèle IFS pour une géométrie fractale constructive

Thollot, Joëlle 09 September 1996 (has links) (PDF)
no abstract

Page generated in 0.0617 seconds