• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 463
  • 169
  • 91
  • 1
  • 1
  • Tagged with
  • 739
  • 739
  • 739
  • 152
  • 89
  • 78
  • 67
  • 66
  • 56
  • 53
  • 52
  • 48
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

A dynamic trust-based context-aware secure authentication framework for pervasive computing environments

Abi-Char, Pierre 30 March 2010 (has links) (PDF)
To provide personalized services to users in pervasive environments, we should consider both user's privacy, trust and security requirements. Traditional authentication and access control mechanisms are not able to adapt their security policies to a changing context while insuring privacy and trust issues. This thesis introduces a new global vision for the protection of pervasive environments, based on context-aware principle. The aim of this thesis is to get a flexible and scalable framework including user authentication, user privacy preserving and trust management in order to optimize the access control strategy to personalized services. The first contribution include the proposal of a mutual authentication protocol supported by both robust key establishment schemes based on elliptic curves (MaptoPoint/Curve algorithm, Weil Pairing) and a dynamic model based on attributes issued from contextual data. The second contribution include the design of a new architecture built on an attribute based model and organized over 3 layers: the privacy control layer which insure the protection of the user private life by controlling their personal data, the access layer which associate authentication and access control processes while providing mechanisms dedicated to trust parameters management , and finally the service layer for service access management according to the user profile and his environment. The third contribution the implementation and the deployment of a prototype within the service delivery platform in Handicom lab of Telecom & Management SudParis.
162

Arithmexotiques

Imbert, Laurent 11 April 2008 (has links) (PDF)
Un tour d'horizon de plusieurs systèmes de numération "exotiques" et leurs applications en cryptographie est proposé.
163

Conception d'un système pour l'acquisition sélective de signaux neurophysiologiques. Électrode multipolaire, prétraitement analogique et circuit d'amplification

Gouyet, Lionel 17 December 2008 (has links) (PDF)
Les recherches menées dans le domaine des implants médicaux visent à améliorer la qualité de vie de patients atteints de pathologies diverses. Dans ce cadre la Stimulation Electrique Fonctionnelle (SEF) consistant à produire des contractions artificielles de groupements musculaires par stimulation électrique sur les voies nerveuses ou sur les muscles, est une solution utilisée pour contourner certains dysfonctionnements du système neural. Le Projet DEMAR (DEambulation et Mouvement ARtificiel), dont les axes ont pour objectifs la compréhension et la quantification objective des désordres moteurs d'une part, et la recherche de solutions palliatives des déficiences motrices d'autre part, a développé en 2005 par le travail de thèse de Jean-Denis TECHER, un stimulateur électrique implantable. Afin de pourvoir contrôler ce système de stimulation en boucle fermée, nous avons développé les deux premiers étages d'une chaîne d'acquisition de signaux neurophysiologiques sensoriels. Ces étages sont l'électrode cuff multipolaire à distribution hexagonale et l'amplificateur faible-bruit à calcul de moyenne pondérée.
164

Contribution aux méthodes d'argumentation pour la prise de décision. Application à l'arbitrage au sein de la filière céréalière.

Bourguet, Jean-Rémi 16 December 2010 (has links) (PDF)
L'objectif de notre travail est la conception d'un cadre théorique et méthodologique permettant l'aide à la décision au sein d'un modèle de représentation des connaissances, illustré par un cas d'étude issu de la filière céréalière. Le domaine d'application plus particulièrement considéré est la définition de la qualité alimentaire, pour laquelle entrent en jeu différents points de vue (intérêt nutritionnel, qualités gustatives, sécurité sanitaire des produits) et différents acteurs (industriels, chercheurs, citoyens) dont les intentions divergent. La base de notre approche est l'utilisation de systèmes d'argumentation issus de la littérature en IA. Les systèmes d'argumentation sont des cadres formels visant à représenter des arguments, les interactions entre ces arguments, et à déterminer quels énoncés sont inférables par un ensemble d'arguments jugé cohérent, ces énoncés pouvant par exemple correspondre à des croyances ou à des décisions à prendre. L'un des cadres formels les plus abstraits, qui fait référence dans le domaine, est celui proposé par Dung en 1995. Dans ce cadre, un système d'argumentation est défini par un ensemble fini d'arguments et une relation binaire sur cet ensemble, appelée relation d'attaque. On peut également voir un tel système comme un graphe étiqueté dont les sommets sont les arguments et les arcs représentent la relation d'attaque directe. Un argument en "attaque'' un autre s'il existe un chemin de longueur impaire du premier au second, et il le ''défend'' s'il en existe un de longueur paire. Un argument est inférable s'il appartient à un ensemble d'arguments ayant certaines propriétés relatives aux notions d'attaque et de défense. C'est en ce sens que l'acceptabilité des arguments est dite collective. Le système d'argumentation de Dung a été étendu notamment par l'ajout de préférences entre arguments. Celles-ci, agrégées aux attaques, donnent une relation de ''défaite'', changeant le calcul de l'acceptabilité collective des arguments. Ainsi, sur la base de l'acceptabilité collective, nous proposerons une méthode pour déterminer l'équivalence entre deux systèmes d'argumentation afin d'unifier ces systèmes abstraits d'argumentation à base de préférences. Un système contextuel à base de préférences est ainsi proposé (les préférences et les attaques entre arguments ont une validité contextuelle), des méthodes d'agrégations entre attaques et préférences et de fusions entre contextes sont investiguées au regard de la consistance entre arguments collectivement acceptés. La consistance est obtenue lorsque de tels ensembles ne contiennent pas de conflits en termes d'informations véhiculées et de conclusions et/ou de décisions supportées au niveau de leurs arguments. Notre démarche s'appuie sur trois courants bien connus de l'argumentation : nous proposons une vue emboîtée de l'argument répondant aux attentes du courant ''micro'', qui s'attache à définir les structures internes de l'argument; nous proposons de générer des attaques entre arguments basées sur les actions qu'ils soutiennent ou qu'ils rejettent. Ceci nous permet de nous intéresser également aux préoccupations du courant ''macro'' pour le traitement des relations entre arguments en vue du calcul d'une acceptabilité collective. Enfin, nous nous intéressons à certains aspects du courant ''rhétorique'', à savoir la définition d'audiences donnant une force contextuelle à l'argument et générant des préférences. Ce dernier aspect nous permet notamment d'établir des recommandations contextuelles. L'ensemble de la démarche, illustrée au travers d'exemples situationnels et d'un cas d'application, est inclus dans un modèle d'arbitrage argumenté, lui même en partie implémenté dans un formalisme de représentation des connaissances et de raisonnement (les graphes conceptuels).
165

Evaluation quantitative de la sécurité informatique : approche par les vulnérabilités

Vache Marconato, Geraldine 08 December 2009 (has links) (PDF)
Cette thèse présente une nouvelle approche pour l'évaluation quantitative de la sécurité des systèmes informatiques. L'objectif de ces travaux est de définir et d'évaluer plusieurs mesures quantitatives. Ces mesures sont des mesures probabilistes visant à quantifier les influences de l'environnement sur un système informatique en présence de vulnérabilités. Dans un premier temps, nous avons identifié les trois facteurs ayant une influence importante sur l'état du système : 1) le cycle de vie de la vulnérabilité, 2) le comportement de la population des attaquants et 3) le comportement de l'administrateur du système. Nous avons étudié ces trois facteurs et leurs interdépendances et distingué ainsi deux scénarios principaux, basés sur la nature de la découverte de la vulnérabilité, malveillante ou non. Cette étape nous a permis d'identifier les états possibles du système en considérant le processus d'exploitation de la vulnérabilité et de définir quatre mesures relatives à l'état du système qui peut être vulnérable, exposé, compromis, corrigé ou sûr. Afin d'évaluer ces mesures, nous avons modélisé ce processus de compromission. Par la suite, nous avons caractérisé de manière quantitative les événements du cycle de vie de la vulnérabilité à partir de données réelles issues d'une base de données de vulnérabilités pour paramétrer nos modèles de manière réaliste. La simulation de ces modèles a permis d'obtenir les valeurs des mesures définies. Enfin, nous avons étudié la manière d'étendre le modèle à plusieurs vulnérabilités. Ainsi, cette approche a permis l'évaluation de mesures quantifiant les influences de différents facteurs sur la sécurité du système.
166

Croquis et annotation pour la modélisation procédural de phenomènes complexe

Wither, Jamie 24 November 2008 (has links) (PDF)
Cette thèse explore l'utilisation de croquis et d'annotation pour contrôler la modélisation 3D d'objets complexes (comme des chevelures, des arbres, des vêtements, etc). Nous introduisons une méthodologie basée sur trois idées princpales: Premièrement, le fait que l'expression de connaissances à priori sur l'objet modélisé peut être déterminante pour l'interprétation d'un croquis. Deuxièmement, l'idée que la chaîne de traitements doit se rapprocher au maximum de celle utilisée par un artiste, avec en particulier une esquisse de la forme globale avant que les détails ne soient précisés. Troisièmement, le fait que la structure 3D sous jacente peut soit servir de base au croquis (ils s'agit alors d'une technique d'annotation), soit être inférée à partir des silhouettes tracées par l'utilisateur, ce qui réduit grandement la quantité d'information à donner. Nous illustrons cette méthodologie en détaillant quatre exemples d'application: la modélisation par croquis de vêtements (pour laquelle sont comparées différents niveaux de connaissances a priori), de chevelures, de nuages et d'arbres.
167

Exploration randomisée de larges espaces d'états pour la vérification

Abed, Nazha 16 June 2009 (has links) (PDF)
De nos jours, les systèmes automatisés sont omniprésent : processus industriels, avionique, énergie atomique... La présence de tels systèmes dans des applications critiques, couplée à leur complexité rend indispensable leur vérification de façon automatique afin de garantir la sûreté de leur fonctionnement. En plus, les contraintes économiques imposent un temps de développement court, ce qui rend accru le besoin de méthodes de vérification efficaces et à coût réduit. Les algorithmes de Model-Checking sont conçus pour la vérification totale des systèmes en parcourant leurs graphes d'états. Cependant, les graphes d'états des systèmes logiciels réels ont de très grandes tailles (explosion combinatoire de la taille de l'espace d'états). Ce phénomène constitue l'obstacle principal de la vérification automatique par model checking. Alternativement, on a recours à l'exploration partiel via des algorithmes randomises. Au lieu d'abandonner l'exploration par manque de ressources et ne retourner aucune réponse quant à la validité du système, le résultat de la vérification est donné approximativement avec une probabilité d'erreur que l'on peut contrôler. La majorité des méthodes randomisées de vérification utilisent la marche aléatoire comme schéma d'exploration. Les méthodes que nous proposons opèrent sur le schéma de l'exploration même ainsi que sur le remplacement en mémoire pour apporter des performances importantes. Ces algorithmes présentent un jeu assez complet de stratégies d'exploration: en profondeur, en largeur, ou alternativement selon un paramètre de mixage prédéfini. Le choix de ce paramètre est guidé par un facteur de densité DF caractéristique du graphe considéré.
168

Mots interdits minimaux et applications

Fici, Gabriele 13 February 2006 (has links) (PDF)
Dans cette thèse nous traitons des mots interdits minimaux, qui sont les plus petits mots qui n'apparaissent pas comme facteur d'un mot donné, et de leurs applications. Dans la première partie de la thèse nous exposons les propriétés des mots interdits minimaux, et nous considérons quelques cas particuliers, comme celui d'un mot fini, d'un ensemble fini de mots finis, et d'un langage factoriel régulier. Nous présentons aussi les procédures pour le calcul des objets considérés. Ensuite, nous généralisons les mots interdits minimaux au cas de l'existence d'une période, qui détermine les positions des occurrences des facteurs modulo un entier fixé. Ceux-ci sont appelés mots interdits minimaux périodiques. Nous étudions leurs propriétés principales et avec des algorithmes de test de ces propriétés. Dans la deuxième partie de la thèse nous montrons deux applications des mots interdits minimaux. La première est reliée aux systèmes contraints. Nous donnons une construction en temps polynomial de l'ensemble des séquences qui satisfont la contrainte définie par une liste finie de blocs interdits, avec un ensemble spécifié de positions de bit sans contrainte. Nous donnons aussi une construction en temps linéaire d'une présentation à états finis d'un système contraint défini par une liste périodique de blocs interdits. La deuxième application est relative à un problème de biologie : la reconstruction d'une séquence génomique à partir d'un ensemble de ses fragments. Nous donnons une formalisation théorique de ce problème qui le rend résoluble en temps linéaire en utilisant les mots interdits minimaux. Nous prouvons aussi que notre algorithme résout un cas particulier du "problème de la plus petite sur-séquence" (Shortest Superstring Problem).
169

Modèles de cartes cognitives étendues aux notions de contexte et d'échelle

Chauvin, Lionel 17 September 2010 (has links) (PDF)
Une carte cognitive est un modèle graphique qui permet de représenter des systèmes complexes contenant un grand nombre de facteurs qui interagissent. Une carte cognitive est un graphe orienté étiqueté dont les sommets représentent des concepts et dont les arcs représentent les influences entre ces concepts. Le modèle des cartes cognitives inclut un mécanisme de raisonnement nommé propagation, qui calcule l'influence entre toute paire de concepts. Notre thèse a pour objectif d'étendre le modèle des cartes cognitives et le mécanisme de raisonnement qui y est associé. Une première contribution consiste à associer à une carte une ontologie qui organise de façon hiérarchique les concepts : l'utilisation de cette ontologie comme un dictionnaire des données hiérarchiques permet à l'utilisateur de trouver les concepts qui l'intéressent dans une carte. Notre deuxième contribution consiste à fournir des mécanismes à l'utilisateur pour lui permettre de visualiser, à la demande, des vues simplifiées de la carte initiale. Notre troisième contribution fournit une notion d'échelle qui permet de sélectionner le niveau de détail de la carte que l'on veut voir. Notre quatrième contribution consiste en des mécanismes qui donnent à l'utilisateur une carte adaptée à ses savoirs : ceci s'effectue par l'utilisation de profils des utilisateurs ou de contextes exprimés par des graphes conceptuels. Les systèmes SCCO et SCCC montrent la faisabilité de l'approche.
170

Formules booléennes quantifiées : transformations formelles et calculs parallèles

Da Mota, Benoit 03 December 2010 (has links) (PDF)
De nombreux problèmes d'intelligence artificielle et de vérification formelle se ramènent à un test de validité d'une formule booléenne quantifiée (QBF). Mais, pour effectuer ce test les solveurs QBF actuels ont besoin d'une formule sous une forme syntaxique restrictive, comme la forme normale conjonctive ou la forme normale de négation. L'objectif de notre travail est donc de s'affranchir de ces contraintes syntaxiques fortes de manière à utiliser le langage des QBF dans toute son expressivité et nous traitons ce sujet de manière formelle et calculatoire. Notre première contribution est un ensemble d'équivalences et d'algorithmes qui permettent de traiter un motif particulier, les résultats intermédiaires. Ce motif apporte une alternative efficace en espace et en temps de résolution, à la suppression naïve des biimplications et des ou-exclusifs lors de la mise sous forme prénexe. Il offre également de nouvelles possibilités de transformations dans différents fragments du langage QBF. Notre deuxième contribution est d'ordre calculatoire et a pour but d'exploiter la puissance des architectures de calcul parallèles afin de traiter des QBF sans restriction syntaxique. Nous élaborons donc une architecture innovante pour la parallélisation du problème de validité des QBF. Son originalité réside dans son architecture dite de « parallélisation syntaxique » par opposition aux architectures de parallélisation basée sur la sémantique des quantificateurs.

Page generated in 0.0429 seconds