• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 91
  • 32
  • 1
  • 1
  • Tagged with
  • 125
  • 125
  • 125
  • 125
  • 16
  • 13
  • 11
  • 11
  • 10
  • 10
  • 10
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Contribution aux méthodes d'argumentation pour la prise de décision. Application à l'arbitrage au sein de la filière céréalière.

Bourguet, Jean-Rémi 16 December 2010 (has links) (PDF)
L'objectif de notre travail est la conception d'un cadre théorique et méthodologique permettant l'aide à la décision au sein d'un modèle de représentation des connaissances, illustré par un cas d'étude issu de la filière céréalière. Le domaine d'application plus particulièrement considéré est la définition de la qualité alimentaire, pour laquelle entrent en jeu différents points de vue (intérêt nutritionnel, qualités gustatives, sécurité sanitaire des produits) et différents acteurs (industriels, chercheurs, citoyens) dont les intentions divergent. La base de notre approche est l'utilisation de systèmes d'argumentation issus de la littérature en IA. Les systèmes d'argumentation sont des cadres formels visant à représenter des arguments, les interactions entre ces arguments, et à déterminer quels énoncés sont inférables par un ensemble d'arguments jugé cohérent, ces énoncés pouvant par exemple correspondre à des croyances ou à des décisions à prendre. L'un des cadres formels les plus abstraits, qui fait référence dans le domaine, est celui proposé par Dung en 1995. Dans ce cadre, un système d'argumentation est défini par un ensemble fini d'arguments et une relation binaire sur cet ensemble, appelée relation d'attaque. On peut également voir un tel système comme un graphe étiqueté dont les sommets sont les arguments et les arcs représentent la relation d'attaque directe. Un argument en "attaque'' un autre s'il existe un chemin de longueur impaire du premier au second, et il le ''défend'' s'il en existe un de longueur paire. Un argument est inférable s'il appartient à un ensemble d'arguments ayant certaines propriétés relatives aux notions d'attaque et de défense. C'est en ce sens que l'acceptabilité des arguments est dite collective. Le système d'argumentation de Dung a été étendu notamment par l'ajout de préférences entre arguments. Celles-ci, agrégées aux attaques, donnent une relation de ''défaite'', changeant le calcul de l'acceptabilité collective des arguments. Ainsi, sur la base de l'acceptabilité collective, nous proposerons une méthode pour déterminer l'équivalence entre deux systèmes d'argumentation afin d'unifier ces systèmes abstraits d'argumentation à base de préférences. Un système contextuel à base de préférences est ainsi proposé (les préférences et les attaques entre arguments ont une validité contextuelle), des méthodes d'agrégations entre attaques et préférences et de fusions entre contextes sont investiguées au regard de la consistance entre arguments collectivement acceptés. La consistance est obtenue lorsque de tels ensembles ne contiennent pas de conflits en termes d'informations véhiculées et de conclusions et/ou de décisions supportées au niveau de leurs arguments. Notre démarche s'appuie sur trois courants bien connus de l'argumentation : nous proposons une vue emboîtée de l'argument répondant aux attentes du courant ''micro'', qui s'attache à définir les structures internes de l'argument; nous proposons de générer des attaques entre arguments basées sur les actions qu'ils soutiennent ou qu'ils rejettent. Ceci nous permet de nous intéresser également aux préoccupations du courant ''macro'' pour le traitement des relations entre arguments en vue du calcul d'une acceptabilité collective. Enfin, nous nous intéressons à certains aspects du courant ''rhétorique'', à savoir la définition d'audiences donnant une force contextuelle à l'argument et générant des préférences. Ce dernier aspect nous permet notamment d'établir des recommandations contextuelles. L'ensemble de la démarche, illustrée au travers d'exemples situationnels et d'un cas d'application, est inclus dans un modèle d'arbitrage argumenté, lui même en partie implémenté dans un formalisme de représentation des connaissances et de raisonnement (les graphes conceptuels).
12

Evaluation quantitative de la sécurité informatique : approche par les vulnérabilités

Vache Marconato, Geraldine 08 December 2009 (has links) (PDF)
Cette thèse présente une nouvelle approche pour l'évaluation quantitative de la sécurité des systèmes informatiques. L'objectif de ces travaux est de définir et d'évaluer plusieurs mesures quantitatives. Ces mesures sont des mesures probabilistes visant à quantifier les influences de l'environnement sur un système informatique en présence de vulnérabilités. Dans un premier temps, nous avons identifié les trois facteurs ayant une influence importante sur l'état du système : 1) le cycle de vie de la vulnérabilité, 2) le comportement de la population des attaquants et 3) le comportement de l'administrateur du système. Nous avons étudié ces trois facteurs et leurs interdépendances et distingué ainsi deux scénarios principaux, basés sur la nature de la découverte de la vulnérabilité, malveillante ou non. Cette étape nous a permis d'identifier les états possibles du système en considérant le processus d'exploitation de la vulnérabilité et de définir quatre mesures relatives à l'état du système qui peut être vulnérable, exposé, compromis, corrigé ou sûr. Afin d'évaluer ces mesures, nous avons modélisé ce processus de compromission. Par la suite, nous avons caractérisé de manière quantitative les événements du cycle de vie de la vulnérabilité à partir de données réelles issues d'une base de données de vulnérabilités pour paramétrer nos modèles de manière réaliste. La simulation de ces modèles a permis d'obtenir les valeurs des mesures définies. Enfin, nous avons étudié la manière d'étendre le modèle à plusieurs vulnérabilités. Ainsi, cette approche a permis l'évaluation de mesures quantifiant les influences de différents facteurs sur la sécurité du système.
13

Croquis et annotation pour la modélisation procédural de phenomènes complexe

Wither, Jamie 24 November 2008 (has links) (PDF)
Cette thèse explore l'utilisation de croquis et d'annotation pour contrôler la modélisation 3D d'objets complexes (comme des chevelures, des arbres, des vêtements, etc). Nous introduisons une méthodologie basée sur trois idées princpales: Premièrement, le fait que l'expression de connaissances à priori sur l'objet modélisé peut être déterminante pour l'interprétation d'un croquis. Deuxièmement, l'idée que la chaîne de traitements doit se rapprocher au maximum de celle utilisée par un artiste, avec en particulier une esquisse de la forme globale avant que les détails ne soient précisés. Troisièmement, le fait que la structure 3D sous jacente peut soit servir de base au croquis (ils s'agit alors d'une technique d'annotation), soit être inférée à partir des silhouettes tracées par l'utilisateur, ce qui réduit grandement la quantité d'information à donner. Nous illustrons cette méthodologie en détaillant quatre exemples d'application: la modélisation par croquis de vêtements (pour laquelle sont comparées différents niveaux de connaissances a priori), de chevelures, de nuages et d'arbres.
14

Contrast enhancement in digital imaging using histogram equalization

Gomes, David Menotti 18 June 2008 (has links) (PDF)
Nowadays devices are able to capture and process images from complex surveillance monitoring systems or from simple mobile phones. In certain applications, the time necessary to process the image is not as important as the quality of the processed images (e.g., medical imaging), but in other cases the quality can be sacrificed in favour of time. This thesis focuses on the latter case, and proposes two methodologies for fast image contrast enhancement methods. The proposed methods are based on histogram equalization (HE), and some for handling gray-level images and others for handling color images As far as HE methods for gray-level images are concerned, current methods tend to change the mean brightness of the image to the middle level of the gray-level range. This is not desirable in the case of image contrast enhancement for consumer electronics products, where preserving the input brightness of the image is required to avoid the generation of non-existing artifacts in the output image. To overcome this drawback, Bi-histogram equalization methods for both preserving the brightness and contrast enhancement have been proposed. Although these methods preserve the input brightness on the output image with a significant contrast enhancement, they may produce images which do not look as natural as the ones which have been input. In order to overcome this drawback, we propose a technique called Multi-HE, which consists of decomposing the input image into several sub-images, and then applying the classical HE process to each one of them. This methodology performs a less intensive image contrast enhancement, in a way that the output image presented looks more natural. We propose two discrepancy functions for image decomposition which lead to two new Multi-HE methods. A cost function is also used for automatically deciding in how many sub-images the input image will be decomposed on. Experimental results show that our methods are better in preserving the brightness and producing more natural looking images than the other HE methods. In order to deal with contrast enhancement in color images, we introduce a generic fast hue-preserving histogram equalization method based on the RGB color space, and two instances of the proposed generic method. The first instance uses R-red, G-green, and Bblue 1D histograms to estimate a RGB 3D histogram to be equalized, whereas the second instance uses RG, RB, and GB 2D histograms. Histogram equalization is performed using 7 Abstract 8 shift hue-preserving transformations, avoiding the appearance of unrealistic colors. Our methods have linear time and space complexities with respect to the image dimension, and do not require conversions between color spaces in order to perform image contrast enhancement. Objective assessments comparing our methods and others are performed using a contrast measure and color image quality measures, where the quality is established as a weighed function of the naturalness and colorfulness indexes. This is the first work to evaluate histogram equalization methods with a well-known database of 300 images (one dataset from the University of Berkeley) by using measures such as naturalness and colorfulness. Experimental results show that the value of the image contrast produced by our methods is in average 50% greater than the original image value, and still keeping the quality of the output images close to the original
15

La présence en réalité virtuelle, une approche centrée utilisateur

Bouvier, Patrice 04 December 2009 (has links) (PDF)
Nous présentons une refondation théorique de la réalité virtuelle. Celle-ci est marquée par la conviction profonde de définir la réalité virtuelle comme une expérience médiatisée capable de susciter un sentiment de présence. Ce dernier est défini comme le sentiment authentique d'exister dans un monde autre que le monde physique où le corps se trouve. Nous proposons un éclairage nouveau et global sur le sentiment de présence. Cet éclairage consiste en une approche unifiée de la présence prenant en compte des considérations technologiques, psychologiques et écologiques. Nous avons élaboré un modèle qui identifie les processus menant au sentiment de présence. Selon notre modèle, deux phases inconscientes de jugement conditionnent l'émergence de la présence. Le premier jugement concerne la crédibilité de l'environnement, celle-ci dépend de la satisfaction des attentes intellectuelles et perceptives de l'utilisateur. Le deuxième jugement vise la crédibilité de l'expérience. Nous considérons que ce jugement est positif si un maximum des affordances perçues dans l'environnement est assumé, c'est-à-dire réalisable par l'intermédiaire des schémas d'interaction proposés à l'utilisateur. Nous avons mené une phase d'expérimentations pour valider la pertinence et la cohérence de notre modèle. Notre modèle a de multiples implications. Nous considérons par exemple qu'il peut constituer une grille d'analyse intéressante pour les jeux vidéo. De plus, il incite les concepteurs d'applications en réalité virtuelle à penser en terme d'affordances. Ce dernier point implique donc de faire entrer l'utilisateur très tôt dans la boucle de conception de l'application. Notre vision globale de la réalité virtuelle et de la présence a été mise en pratique notamment lors de la conception de dispositifs de réalité virtuelle transportables et à bas coûts. Sur la base de ce cadre théorique nous présentons un framework de conception d'applications en réalité virtuelle. Puisque l'objectif est la crédibilité et non le réalisme, nous nous intéressons à la réalité perçue de l'environnement et non pas à sa réalité physique. C'est pourquoi, le point de départ de notre framework consiste en un socle de connaissances sur la cognition humaine. Cette base de connaissances sert de vivier d'idées pour les quatre piliers sur lesquels peut s'appuyer le concepteur d'applications en réalité virtuelle. Ces piliers sont l'immersion, l'interaction, les émotions et un quatrième regroupant la boucle sensori-motrice et la multimodalité. Concernant le pilier immersion nous proposons un nouvel algorithme pour le calcul de la réverbération sonore dans un environnement complexe et dynamique. Notre méthode repose sur l'algorithme existant du lancer de frustum mais propose deux optimisations. La première exploite le socle de connaissances sur la cognition humaine pour déterminer une sphère d'acuité sonore. Celle-ci nous sert de cadre pour lancer les frusta depuis l'auditeur et non depuis les sources sonores. Cette deuxième optimisation réduit le nombre de calculs
16

Approches visuelles pour l'amélioration de la présence en réalité virtuelle

Sorbier De Pougnadoresse, François De 27 November 2008 (has links) (PDF)
Le sentiment de présence, but ultime de la réalité virtuelle, peut être atteint en stimulant ces quatre "piliers" que sont l'immersion, l'interaction, le maintien de la boucle action-perception et les émotions. Notre objectif est de proposer des méthodes visant à améliorer ce sentiment en s'intéressant plus particulièrement à la perception visuelle. Dans cette optique, nous proposons tout d'abord une solution appliquant le rendu stéréoscopique sur carte graphique. Traditionnellement effectué en deux passes, ce rendu se fait maintenant en une passe, grâce aux shaders et au regroupement de certaines phases de calculs. Nous étendons ce processus de rendu aux tout récents écrans auto-stéréoscopiques nécessitant plus de deux vues, améliorant d'autant plus les temps de calcul. Pour assurer l'immersion et l'interaction, voire l'émotion, nous avons aussi cherché à diminuer la fatigue oculaire induite par les images stéréoscopiques, en ajoutant un flou de profondeur de champ. Ce flou, obtenu en temps réel grâce aux shaders, permet également d'inviter l'observateur à focaliser son attention sur des objets précis au lieu de laisser son regard errer. Enfin, un objectif pour obtenir le sentiment de présence est de faire croire à l'utilisateur qu'il existe dans la scène virtuelle. Notre contribution à ce but, est d'intégrer de manière naturelle une représentation virtuelle de l'utilisateur. Pour cela, nous créons par visual hulls un avatar à l'aide de caméras. Finalement, cet avatar est employé pour illustrer la présence de l'utilisateur au travers de surfaces réfléchissantes virtuelles ou de la projection de son ombre
17

Apport des données radar polarimétriques pour la cartographie en milieu tropical

Lardeux, Cédric 09 December 2008 (has links) (PDF)
Les capteurs RSO (Radar à Synthèse d'Ouverture) fournissent des observations des surfaces terrestres de manière continue depuis 1991 avec la mise en orbite du satellite ERS-1. Les données acquises jusqu'à peu, principalement basées sur l'exploitation de l'intensité du signal acquis selon une configuration de polarisation particulière, ont été l'objet de nombreuses études, notamment sur le suivi de la déforestation. Depuis 2007, de nouveaux capteurs RSO polarimétriques (PALSAR, RADARSAT-2, TerraSAR-X...) permettent la caractérisation polarimétrique des surfaces observées. Ces données nécessitent des traitements adpatés afin d'en extraire l'information la plus pertinente pour la thématique considérée. L'objet de ces travaux a été d'évaluer leur potentiel pour la cartographie de surfaces naturelles en milieu tropical. L'apport des multiples indices polarimétriques a été évalué à partir de l'algorithme de classification SVM (Machines à Vecteurs de Support). Cet algorithme est spécialement adapté pour prendre en compte un grand nombre d'indices non forcément homogènes. Les données utilisées ont été acquises par le capteur aéroporté AIRSAR sur une île en Polynésie Française. De nombreux relevés in situ ont permis la validation des résultats obtenus. Les résultats montrent que la sensibilité de ces données à la structure géométrique des surfaces observées permet une bonne discrimination entre les différents couvert végétaux étudiés, en particulier des types de forêts. De plus, la classification obtenue à partir de la méthode SVM est particulièrement plus performante que la classification usuelle basée sur la distribution de Wishart vérifiée a priori par les données radar. Ces résultats laissent présager de l'apport significatif des données radar polarimétriques futures pour le suivi des surfaces naturelles
18

Un système de question-réponse dans le domaine médical : le système Esculape

Embarek, Mehdi 04 July 2008 (has links) (PDF)
Le domaine médical dispose aujourd'hui d'un très grand volume de documents électroniques permettant ainsi la recherche d'une information médicale quelconque. Cependant, l'exploitation de cette grande quantité de données rend la recherche d'une information précise complexe et coûteuse en termes de temps. Cette difficulté a motivé le développement de nouveaux outils de recherche adaptés, comme les systèmes de question-réponse. En effet, ce type de système permet à un utilisateur de poser une question en langage naturel et de retourner une réponse précise à sa requête au lieu d'un ensemble de documents jugés pertinents, comme c'est le cas des moteurs de recherche. Les questions soumises à un système de question-réponse portent généralement sur un type d'objet ou sur une relation entre objets. Dans le cas d'une question telle que " Qui a découvert l'Amérique ? " par exemple, l'objet de la question est une personne. Dans des domaines plus spécifiques, tel que le domaine médical, les types rencontrés sont eux-mêmes plus spécifiques. La question " Comment rechercher l'hématurie ? " appelle ainsi une réponse de type examen médical. L'objectif de ce travail est de mettre en place un système de question-réponse pour des médecins généralistes portant sur les bonnes pratiques médicales. Ce système permettra au médecin de consulter une base de connaissances lorsqu'il se trouve en consultation avec un patient. Ainsi, dans ce travail, nous présentons une stratégie de recherche adaptée au domaine médical. Plus précisément, nous exposerons une méthode pour l'analyse des questions médicales et l'approche adoptée pour trouver une réponse à une question posée. Cette approche consiste à rechercher en premier lieu une réponse dans une ontologie médicale construite à partir de essources sémantiques disponibles pour la spécialité. Si la réponse n'est pas trouvée, le système applique des patrons linguistiques appris automatiquement pour repérer la réponse recherchée dans une collection de documents candidats. L'intérêt de notre approche a été illustré au travers du système de question-réponse " Esculape " qui a fait l'objet d'une évaluation montrant que la prise en compte explicite de connaissances médicales permet d'améliorer les résultats des différents modules du processus de traitement
19

Méthodes Spectrales pour la Modélisation d'Objets Articulés à Partir de Vidéos Multiples

Mateus, Diana 21 September 2009 (has links) (PDF)
La capture du mouvement est un défi majeur dans le cadre de la modélisation d'objets articulés. Ce problème implique la recherche de correspondances entre objets vus dans des images différentes. On propose trois approches pour résoudre ce problème basé sur des techniques de vision par ordinateur et la théorie spectrale des graphes. La première consiste à modéliser une scène 3D à l'aide d'une collection de points. On propose deux extensions de l'algorithme de Lucas-Kanade pour tracker des caractéristiques de manière efficace et pour estimer le "scene-flow". La deuxième approche basée sur la théorie spectrale des graphes cherche à établir des correspondances entre des objets représentés par des graphes. Finalement on s'intéresse au problème de segmentation qui soit cohérente dans le temps et notre approche est basée sur une méthode de clustering spectral appliquée à une séquence temporelle.
20

Un modèle multi-agent distribué et hybride pour la planification du transport à la demande temps réel

Xu, Jin 29 October 2008 (has links) (PDF)
Durant ces dernières années, la congestion du trafic urbain et la pollution de l'air sont devenus d'énormes problèmes dans de nombreuses villes dans le monde. Afin de réduire cette congestion, nous pouvons investir dans l'amélioration des infrastructures de la ville. Toutefois, cette solution reste très coûteuse à entreprendre et de ne permet pas de réduire la pollution de l'air. C'est pourquoi nous travaillons sur la mobilité intelligente afin de disposer d'une meilleure utilisation de la voiture. L'application de nouvelles technologies de l'information, tels que les systèmes multi-agents appliqués au contrôle de l'information de la circulation urbaine, a permis de créer et de déployer une gestion plus intelligente du trafic comme le système DRT (transport à la demande). L'objectif des systèmes multi-agents basés sur le DRT est de gérer les taxis de manière intelligente, afin d'accroître le nombre de passagers dans chaque véhicule, et en même temps à réduire le nombre de véhicules dans les rues. Cela permettra de réduire les émissions de CO2 et la pollution de l'air causée par les véhicules, ainsi que la congestion du trafic et les coûts financiers associés. La simulation multi-agents est considérée comme un outil efficace pour les services dynamiques urbains de la circulation. Toutefois, le principal problème est de savoir comment construire un agent à base de modèle pour cette problématique. Ces travaux de recherche présente une solution basée sur les systèmes multi-agents réactifs pour la problématique du transport à la demande (DRT), qui adopte une approche multi-agent de planification urbaine en utilisant des services de contrôle qui satisfont aux principales contraintes : réduction de la période totale creuse, demandes spéciales du client, augmentation du nombre de places utilisées dans un même taxi, utilisation du nombre minimal de véhicules, etc. Dans cette thèse, nous proposons un modèle multi-agents multicouche hybride distribué pour des problématiques en temps réel. Dans la méthode proposée, un agent pour chaque véhicule trouve un ensemble de routes pour sa recherche locale, et choisit un itinéraire en coopérant avec d'autres agents se trouvant dans son domaine de planification. Nous avons examiné expérimentalement, l'efficacité de la méthode proposée.

Page generated in 0.0745 seconds