• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 59
  • 53
  • 14
  • Tagged with
  • 128
  • 100
  • 69
  • 26
  • 24
  • 23
  • 22
  • 21
  • 20
  • 20
  • 20
  • 19
  • 17
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Reconstruction et analyse automatiques pour le rééclairage d'objets basés-image

Mercier, Bruno 24 October 2006 (has links) (PDF)
Le rééclairage d'objets réels à partir d'images est un problème difficile à traiter car il implique l'estimation d'un nombre important de paramètres. Néanmoins le rééclairage de tels objets est indispensable pour une intégration de manière réaliste dans un environnement comportant des conditions d'illumination différentes de celles présentes lors de l'acquisition. Le travail proposé dans ce mémoire décrit une méthodologie de reconstruction automatique de toute la chaîne d'analyse : il couvre tous les aspects allant de la reconstruction géométrique à l'estimation de la réflectance de la surface en passant par la détection de sources lumineuses. Les seules données nécessaires à l'application de cette méthode sont de multiples points de vue de l'objet acquis sous des conditions d'illumination fixes et les paramètres de la caméra. Aucun objet additionnel n'est présent sur les images et la surface de l'objet basé-image peut être diffuse, spéculaire et/ou texturée. Nous avons mis en place un système d'acquisition robuste constitué d'un appareil photographique grand marché et d'un plateau tournant. Notre modèle géométrique reconstruit permet de passer d'un modèle discret à un modèle triangulé sans perte d'information topologique (propriétés de fermeture et nombre de composantes connexes conservés). De multiples sources ponctuelles et directionnelles sont détectées et la réflectance des objets est estimée sur chaque maille par un modèle de BRDF paramétrique. Nous utilisons les données reconstruites pour visualiser les objets avec de nouvelles conditions d'illumination. La version actuelle permet de générer de nouvelles images en quelques secondes avec une méthode de lancer de rayons.
42

Analyse morphologique et modélisation en 3D de systèmes aléatoires de fibres

Altendorf, Hellen 07 November 2011 (has links) (PDF)
L'utilisation diversifiée des composites renforcés par des fibres, par exemple dans le corps des avions, des bateaux ou des voitures, génère une demande croissante d'analyse de ces matériaux. Le but final de notre étude réside dans l'optimisation de ces matériaux fibreux à l'aide d'un " schème de conception de matériaux virtuels ". De nouveaux matériaux fibreux sont créés virtuellement en tant que réalisations d'un modèle stochastique, puis évalués par rapport à leurs propriétés physiques. De cette manière, les matériaux peuvent être optimisés pour des cas d'utilisation spécifique, sans réellement construire de coûteux prototypes ou faire des tests mécaniques. La reconstruction virtuelle du matériau réel demande une connaissance précise de la géométrie de sa microstructure. La première partie de cette thèse décrit une méthode de quantification de fibres à l'aide de mesures locales de leurs rayons et de leurs orientations. La combinaison de la transformée " chord length " et des moments d'inertie locaux apporte une méthode efficace et précise pour déterminer ces propriétés. Cette approche surpasse les méthodes existantes par rapport à la possibilité de traiter des fibres de rayons variés, possède une précision accrue, et un temps de calcul rapide. Cette méthode de quantification locale peut être appliquée directement sur des images à niveaux de gris en adaptant la transformée en distances directionnelles dans le cadre des images à niveau de gris. Dans ce travail, plusieurs approches de ce type sont développées et évaluées. Une caractérisation supplémentaire des systèmes de fibres requiert la segmentation de chaque fibres. Ce sujet est traité dans la deuxième partie de cette thèse. Grâce à l'utilisation d'opérateurs morphologiques avec des formes explicites d'élément structurant, il est possible de dériver une probabilité pour chaque pixel, de faire partie du cœur de la fibre dans une région où les fibres ne se croisent pas. En traçant des chemins de probabilité élevée, il est possible de reconstruire des parties non connexes du cœur des fibres. Dans un second temps, ces parties sont reconnectées à travers des zones critiques, sous des contraintes assurant que celles ci font effectivement partie de la même fibre. Dans la troisième partie de ce travail, nous développons un nouveau modèle stochastique de système dense de fibres sans intersection avec un niveau de courbure contrôlable. Les approches existantes de la littérature possèdent au moins une des faiblesses suivantes : la fraction volumique produite n'est pas assez élevée, les fibres peuvent se croiser, la distribution d'orientation ainsi que la courbure des fibres n'est pas contrôlable. Ce manque peut effectivement être comblé avec notre modèle, qui fonctionne en deux étapes. Une première étape utilise une marche aléatoire pour définir des fibres dont la courbure est liée à une distribution de von Mises-fisher. Une deuxième étape utilise un algorithme d'empilement pour produire une configuration sans imbrication. En outre, on propose des estimateurs pour tout les paramètres de notre modèle, afin de l'adapter à une microstructure réelle. Dans la dernière partie du manuscrit, on simule numériquement le comportement macroscopique des différentes microstructures étudiées pour obtenir leurs propriétés mécaniques et thermiques. Cette partie est basée sur des logiciels existants et consiste essentiellement à résumer l'état de l'art de la simulation physique de systèmes de fibres aléatoires. L'application à un polymère renforcé par des fibres de verre démontre la qualité des reconstructions de la microstructure réelle obtenues par notre modèle. Cette thèse inclus toutes les étapes nécessaires pour effectuer la conception de matériaux virtuels. Des algorithmes nouveaux et efficaces ont été développés afin d'enrichir les connaissances et les possibilités d'analyse et de modélisation des matériaux composites renforcés par des fibres.
43

Quelques défis posés par l'utilisation de protocoles de Gossip dans l'Internet

Pace, Alessio 04 October 2011 (has links) (PDF)
Les systèmes pair-à-pair (P2P) sont aujourd'hui très populaires. Leur utilisation va de la messagerie instantanée au partage de fichiers, en passant par la sauvegarde et le stockage distribué ou encore le streaming video. Parmi les protocoles P2P, les protocoles basés sur le "gossip" sont une famille de protocoles qui a fait l'objet de nombreux travaux de recherche durant la dernière décennie. Les raisons de l'engouement pour les protocoles basés sur le "gossip" sont qu'ils sont considérés robustes, faciles à mettre en oeuvre et qu'ils ont des propriétés de passage à l'échelle intéressantes. Ce sont donc des candidats intéressants dès lors qu'il s'agit de réaliser des systèmes distribués dynamiques à large échelle. Cette thèse considère deux problématiques rencontrées lorsque l'on déploie des protocoles basé sur le "gossip" dans un environnement réel comme l'Internet. La première problématique est la prise en compte des pare-feux (NAT) dans le cadre des protocoles d'échantillonnage basés sur le "gossip". Ces protocoles font l'hypothèse que, a tout moment, chaque noeud est capable de communiquer avec n'importe quel noeud du réseau. Cette hypothèse est fausse dès lors que certains noeuds utilisent des NAT. Nous présentons Nylon, un protocole d'échantillonnage qui fonctionne malgré la présence de NAT. Nylon introduit un faible surcoût pour gérer les NAT et partage équitablement ce surcoût entre les noeuds possédant un NAT et les autres noeuds. La deuxième problématique que nous étudions est la possibilité de limiter la dissémination de messages de type "spam" dans les protocoles de dissémination basés sur le "gossip". Ces protocoles sont en effet des vecteurs idéaux pour diffuser les messages de type "spam" du fait qu'il n'y a pas d'autorité de contrôle permettant de filtrer les messages basés sur leur contenu. Nous proposons FireSpam, un protocole de dissémination basé sur le "gossip" qui permet de limiter la diffusion des messages de type "spam". FireSpam fonctionne par filtrage décentralisé (chaque noeud participe au filtrage). Par ailleurs, il fonctionne malgré la présence d'une fraction de noeuds malicieux (aussi appelés "Byzantins") et malgré la présence de noeuds dits "rationnels" (aussi appelés "égoïstes"). Ces derniers sont prêts à dévier du protocole s'ils ont un intérêt à le faire.
44

Personnage virtuel : contrôleur hybride couplant commande dynamique multi-objectifs et mouvements capturés

Liu, Mingxing 28 September 2012 (has links) (PDF)
Un grand défi pour les personnages virtuels est de pouvoir interagir avec des opérateurs humains en effectuant des tâches dans des environnements virtuels physiquement réalistes. Cette thèse s'intéresse particulièrement à l'interaction avec des opérateurs faiblement immergés, c'est-à-dire avec des opérateurs disposant du minimum d'équipement nécessaire à l'interaction, par exemple, une simple capture de mouvement des mains. Cela implique de doter le personnage virtuel de la capacité d'ajuster ses postures de manière autonome, d'accomplir les tâches requises par l'opérateur en temps réel en tâchant de suivre au mieux ses mouvements, tout en gérant de manière autonome les multiples contraintes dues aux interactions avec l'environnement virtuel. Cette thèse présente un système de contrôle hybride original qui permet de réaliser un personnage virtuel interactif avec certains niveaux de l'autonomie. Une approche d'optimisation de posture est proposée, permettant au personnage virtuel de chercher des postures optimales et robustes. Un cadre de contrôle multi-objectif est développé, pouvant gérer plusieurs objectifs de tâches et de multiples contacts. Il permet au personnage d'effectuer les tâches de suivi de mouvement et les tâches de manipulation d'objets dans un environnement virtuel physiquement réaliste, tout en interagissant avec un opérateur en temps réel. Une méthode de type "wrench-bound" est développée. Il s'agit d'une nouvelle approche de contrôle hiérarchisé comportant différents niveaux de priorité, permettant d'imposer des contraintes d'inégalité sur la tâche de haute priorité, tout en assurant la passivité du système pour garantir la stabilité des opérations.
45

Composition de Services Web: Une Approche basée Liens Sémantiques

Lécué, Freddy 08 October 2008 (has links) (PDF)
La composition automatisée de services Web ou le processus de formation de nouveaux services Web à plus forte valeure ajoutée est l'un des plus grand défis auxquels le Web sémantique est face aujourd'hui. La sémantique permet d'un côte de décrire les capacités des services Web mais aussi leurs processus d'exécution, d'où un élément clé pour la composition automatique de services Web. Dans cette étude de doctorat, nous nous concentrons sur la description fonctionnelle des services Web c'est-à-dire, les services sont vus comme une fonction ayant des paramètres i) d'entrée, de sortie sémantiquement annotés par des concepts d'une ontologie de domaine et ii) des conditions préalables et effets conditionnels sur le monde. La composition de services Web est alors considérée comme une composition des liens sémantiques où les lois de cause à effets ont aussi un rôle prépondérant. L'idée maîtresse est que les liens sémantiques et les lois causales permettent, au moment de l'exécution, de trouver des compatibilités sémantiques, indépendamment des descriptions des services Web. En considérant un tel niveau de composition, nous étudions tout d'abord les liens sémantiques, et plus particulièrement leurs propriétés liées à la validité et la robustesse. A partir de là et dépendant de l'expressivité des services Web, nous nous concentrons sur deux approches différentes pour effectuer la composition de services Web. Lors de la première approche, un modèle formel pour effectuer la composition automatique de services Web par le biais de liens sémantiques i.e., Matrice de liens sémantiques est introduite. Cette matrice est nécessaire comme point de départ pour appliquer des approches de recherche basées sur la régression (ou progression). Le modèle prend en charge un contexte sémantique et met l'accent sur les liens sémantiques afin de trouver des plans corrects, complets, cohérents et robustes comme solutions au problème de composition de services Web. Dans cette partie un modèle formel pour la planification et composition de services Web est présenté. Dans la seconde approche, en plus de liens sémantiques, nous considérons les lois de causalité entre effets et pré-conditions de services Web pour obtenir les compositions valides de services Web. Pour ceci, une version étendue et adaptée du langage de programmation logique Golog (ici sslGolog) est présentée comme un formalisme naturel non seulement pour le raisonnement sur les liens sémantiques et les lois causales, mais aussi pour composer automatiquement les services Web. sslGolog fonctionne comme un interprète qui prend en charge les paramètres de sortie de services pour calculer les compositions conditionnelles de services. Cette approche (beaucoup plus restrictive) suppose plus d'expressivité sur la description de service Web. Enfin, nous considérons la qualité des liens sémantiques impliqués dans la composition comme critère novateur et distinctif pour estimer la qualité sémantique des compositions calculées. Ainsi les critères non fonctionnels tels que la qualité de service(QoS) ne sont plus considérés comme les seuls critères permettant de classer les compositions satisfaisant le même objectif. Dans cette partie, nous nous concentrons sur la qualité des liens sémantiques appartenant à la composition de service Web. Pour ceci, nous présentons un modèle extensible permettant d'évaluer la qualité des liens sémantiques ainsi que leur composition. De ce fait, nous introduisons une approche fondée sur la sélection de liens sémantiques afin de calculer la composition optimale. Ce problème est formulé comme un problème d'optimisation qui est résolu à l'aide de la méthode par programmation linéaire entière. Notre système est mis en œuvre et interagit avec des services Web portant sur de scénarios de télécommunications. Les résultats de l'évaluation a montré une grande efficacité des différentes approches proposées.
46

Implémentation et évaluation d'un système logique parallèle

Chassin de Kergommeaux, Jacques 23 November 1989 (has links) (PDF)
Cette thèse est consacrée à l'implémentation de PEPSys (Parallel ECRC Prolog System) sur un multiprocesseur à mémoire partagée et à l'évaluation de cette implémentation. Le projet PEPSys vise à exploiter le parallélisme en programmation logique pour obtenir, sur les multiprocesseurs existants actuellement, des gains de performances relativement aux systèmes Prolog les plus efficaces. Un langage, extension de Prolog, un modèle de calcul et une machine abstraite basée sur la WAM ont été définis et validés par une implémentation sur multiprocesseur et une simulation d'architecture parallèle extensible. Le modèle de calcul supporte les parallélismes OU et ET indépendant ainsi que leur combinaison avec l'exécution séquentielle et le retour-arrière. L'implémentat,ion de PEPSys qui fait l'objet de cette thèse constitue l'un des premiers systèmes logiquesO.U-parallèles à procurer des gains de performances, relativement aux systèmes Prolog séquentiels efficaces. Les nombreuses mesures présentées dans la thèse permettent de valider cette implémentation ainsi que les principaux mécanismes du modèle de calcul, tout en suggérant des optimisations
47

Agents ubiquitaires pour un accès adapté aux systèmes d'information : <br />Le Framework PUMAS

Carrillo Ramos, Angela Cristina 05 March 2007 (has links) (PDF)
L'informatique ubiquitaire est un paradigme récent dont l'objectif est de permettre aux utilisateurs de consulter des données n'importe quand, n'importe où, notamment à l'aide de Dispositifs Mobiles (DM). Dans ce cadre, garantir l'accès par des utilisateurs nomades aux Systèmes d'Information (SI) à travers divers dispositifs, ainsi que l'adaptation de l'information aux préférences de l'utilisateur nomade et au contexte d'utilisation de la session en cours, sont deux problèmes liés non encore résolus. En effet, les utilisateurs nomades de SI peuvent être exposés à une grande quantité d'informations qui n'est pas toujours pertinente ni même simplement supportée par leurs DM. A des fins d'adaptation, un SI doit donc disposer de données sur le contexte d'utilisation – notion qui englobe les conditions temporelles, spatiales, matérielles, etc. dans lesquelles l'utilisateur accède au SI –, mais également sur les préférences de l'utilisateur afin de satisfaire ses attentes à la fois en termes de fonctionnalités, de contenu, et d'affichage.<br />A travers deux propositions, les travaux de thèse exposés ici tentent d'apporter une réponse à cette double problématique. Tout d'abord, nous avons conçu et réalisé un framework appelé PUMAS qui offre à des utilisateurs nomades un accès à l'information, qui prend en compte le contexte d'utilisation. L'approche que nous avons choisie est celle des agents. Ainsi, l'architecture de PUMAS est composée de quatre Systèmes Multi-Agents (SMA) respectivement dédiés à la connexion aux SI, la communication entre les utilisateurs et les SI, la gestion de l'information et l'adaptation de celle-ci. Ensuite, nous avons élaboré un Système de Gestion de Profil Contextuel (SGPC) qui contribue à l'adaptation de l'information délivrée à un utilisateur nomade sur trois aspects : i) une formalisation de la notion de préférence de l'utilisateur qui permet de modéliser les activités accomplies dans le système, les résultats attendus de ces activités et la manière dont ces résultats sont présentés ; ii) un algorithme de correspondance contextuelle qui génère le profil contextuel d'un utilisateur nomade à partir du contexte d'utilisation ; iii) un mécanisme qui gère les conflits pouvant survenir entre les préférences de l'utilisateur. Enfin, le SGPC a été intégré à PUMAS au sein du SMA dédié à l'adaptation de l'information.
48

Schémas numériques préservant la vorticité en aérodynamique compressible

Falissard, Fabrice 01 1900 (has links) (PDF)
La réduction de la diffusion numérique des structures tourbillonnaires est un point clé de la simulation de nombreux problèmes de Mécanique des fluides. S'appuyant d'une part sur la notion définie par Morton et Roe de schéma numérique préservant exactement la vorticité pour les équations de l'acoustique et d'autre part sur une forme de schémas basés sur le résidu introduits par Lerat et Corre, cette thèse présente un schéma RBV (Residual Based Vorticity preserving), d'ordre 2 implicite basé sur le résidu qui préserve la vorticité pour les équations de l'acoustique, de l'acoustique avec advection et les équations d'Euler. Le schéma RBV permet d'advecter un tourbillon sur de longues distances avec très peu de diffusion numérique. Il a été formulé en maillage curviligne dans l'approche des volumes finis et, par construction, conserve son ordre de précision et ses propriétés de préservation de la vorticité en maillage irrégulier sans nécessiter de termes correctifs. Le schéma RBV a été appliqué à des calculs d'écoulements stationnaires et instationnaires autour de profil pour les équations d'Euler, puis au cas de l'interaction frontale, subsonique instationnaire, entre un tourbillon de Scully et un profil NACA0012 à incidence nulle pour lequel existent des données expérimentales. Ce problème modèle est représentatif de l'interaction parallèle entre une pale de rotor d'hélicoptère et le tourbillon émis en extrémité d'une pale précédente, qui est à l'origine du bruit BVI ("Blade Vortex Interaction noise") dominant dans le cas du vol de descente basse vitesse de l'hélicoptère. Les résultats obtenus avec le schéma RBV sur ce cas d'interaction pale tourbillon 2D démontrent la capacité de la méthode à simuler des écoulements aérodynamiques réalistes. Des comparaisons avec les solutions de schémas classiques d'ordre 2 montrent l'apport de la méthode proposée.
49

Vision Asynchrone Événementielle: Algorithmes et Applications à la Microrobotique

Ni, Zhenjiang 26 November 2013 (has links) (PDF)
Le Dynamic Vision Sensor (DVS) est un prototype de la rétine silicium qui n'enregistre que des changements de contraste de la scène sous la forme de flux d'événements, excluant donc naturellement les niveaux de gris absolus redondants. Dans ce contexte, de nombreux algorithmes de vision asynchrones à grande vitesse basées sur l'événement ont été développés et leurs avantages par rapport aux méthodes de traitement traditionnel basé sur l'image ont été comparés. En retour haptique pour la micromanipulation, la vision est un candidat qualifié pour l'estimation de la force si le modèle position-force est bien établi. La fréquence d'échantillonnage doit toutefois atteindre 1 kHz pour permettre une sensation tactile transparente et fiable et assurer la stabilité du système. La vision basée sur l'événement a donc été appliquée pour fournir le retour d'effort nécessaire sur deux applications de micromanipulation: Le retour haptique sur la pince optique; Assistance virtuelle haptique sur micro-outil mécanique. Les résultats montrent que l'exigence de fréquence haptique de 1 kHz a été réalisée avec succès. Pour la première application, les algorithmes de détection de la position d'une microsphère à haute vitesse ont été développés. Un système de retour haptique tridimensionnel capable de manipuler plusieurs pièges optiques a été réalisé. Dans la deuxième application, un nouvel algorithme d'enregistrement de forme basé sur l'événement capable de suivre objet de forme arbitraire a été développé pour suivre une micropince piézoélectrique. La stabilité du système a été considérablement renforcée pour aider les opérateurs à effectuer des tâches de micromanipulation complexes.
50

Contrôle d’Accès Sécurisé dans l’Info-Nuage Mobile (Secure Access Control in Mobile Cloud)

Baseri, Yaser 11 1900 (has links)
No description available.

Page generated in 0.0449 seconds