• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 463
  • 169
  • 91
  • 1
  • 1
  • Tagged with
  • 739
  • 739
  • 739
  • 152
  • 89
  • 78
  • 67
  • 66
  • 56
  • 53
  • 52
  • 48
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Combinaison de Méthodes de Vérification

Zucchelli, Daniele 22 January 2008 (has links) (PDF)
La thèse étudie des problèmes de vérification de modèles infini, en appliquant des techniques de combinaisons de solveurs de contraintes.
32

Génération et adaptation automatiques de mappings pour des sources de données XML

Xue, Xiaohui 11 December 2006 (has links) (PDF)
L'intégration de l'information fournie par de multiples sources de données hétérogènes est un besoin croissant des systèmes d'information actuels. Dans ce contexte, les besoins des applications sont décrits au moyen d'un schéma cible et la façon dont les instances du schéma cible sont dérivées à partir des sources de données est exprimée par des mappings. Dans cette thèse, nous nous intéressons à la génération automatique de mappings pour des sources de données XML ainsi qu'à l'adaptation de ces mappings en cas de changements survenant dans le schéma cible ou dans les sources de données. <br />Nous proposons une approche de génération de mappings en trois phases : (i) la décomposition du schéma cible en sous-arbres, (ii) la recherche de mappings partiels pour chacun de ces sous-arbres et enfin (iii) la génération de mappings pour l'ensemble du schéma cible à partir de ces mappings partiels. Le résultat de notre approche est un ensemble de mappings, chacun ayant une sémantique propre. Dans le cas où l'information requise par le schéma cible n'est pas présente dans les sources, aucun mapping ne sera produit. Dans ce cas, nous proposons de relaxer certaines contraintes définies sur le schéma cible pour permettre de générer des mappings. Nous avons développé un outil pour supporter notre approche. Nous avons également proposé une approche d'adaptation des mappings existants en cas de changement survenant dans les sources ou dans le schéma cible.
33

Traitement et analyse de grands ensembles d'images médicales

Montagnat, Johan 20 December 2006 (has links) (PDF)
Non disponible
34

Modelling and analyzing security protocols in cryptographic process calculi

Kremer, Steve 17 March 2011 (has links) (PDF)
In his habilitation theses Steve Kremer presents some selected research results in the area of formal analysis of security protocols. His contributions include application of formal methods to electronic voting protocols and security APIs, automated methods for verifying equivalence properties, compositional reasoning for security protocols and computational soundness results.
35

Contributions to the performance study of interplanetary networks

Prathaban, Mahendiran 05 February 2010 (has links) (PDF)
L'acquisition de connaissances sur l'espace fascine les humains depuis l'antiquité. Depuis quelques décennies, il y a augmentation significative des programmes spatiaux concernant Mars, des missions d'exploration lunaire et des projets d'exploration spatiale de plus en plus complexes, impliquant plusieurs nœuds de communication: satellites, robots (Rovers, Landers) ou "aerorobots" (ie capteurs atmosphériques). Dans ce cadre, des efforts ont été faits par les organismes de normalisation pour l'espace comme le Comité consultatif pour les systèmes de données spatiales (CCSDS) et le Delay Tolérant Networking groupe de travail au sein del' Internet Research Task Force (IRTF) pour élaborer une architecture de protocoles efficace pour des missions spatiales. Dans cette thèse, nous avons analysé quelques unes de ces propositions : (les piles de protocole CCSDS, et DTN) pour leurs performances sur la surface de Mars (une sous-section de Interplanetary Network) et obtenu les paramètres qui affectent les performances du système, comme la mémoire tampon, les limitations de puissance. Également exploré divers problèmes de réseau de routage, Transport & couches de l'application de la pile de protocole, qui doit être abordée. Pour qui s'étendent, dans cette thèse nous avons proposé un nouvel algorithme de routage prenant en compte les ressources disponibles, qui prend en considération les limitations des ressources du réseau pour le routage et transmet les décisions permettant une politique efficace de gestion des tampons. Comme il existe différentes piles de protocoles d'interopérabilité proposées par l'agence spatiale, dans nos travaux, nous avons développé un framework de QoS qui est joint à chaque application, et peut sélectionner la pile de protocoles sous-jacents adéquate, selon les exigences de qualité de service des applications, qui sont les mieux adaptés pour améliorer les performances globales de ce réseau. Comme l'analyse révèle que les performances du protocole de remise de fichiers CCSDS lequel est le plus couramment utilisé le protocole d'application dans la mission spatiale. Pour améliorer les performances du protocole, nous avons proposé un algorithme dynamique du timer qui fixe la valeur du time-out en fonction de l'état du réseau pour tous les timers du protocole, afin de réduire les retransmissions inutiles de données d'UFC, accroissant ainsi les performances de débit.
36

Analyse des causes d'échec des projets d'affaires à partir d'études de cas en entreprises, et proposition d'un modèle de domaine en langage UML

Wong, Siaw Ming 24 September 2010 (has links) (PDF)
En dépit des efforts destinés à accroitre la maturité de la profession dans le domaine de la gestion de projet, le taux d'échec des projets d'affaires (par opposition aux projets techniques) reste élevé. On s'est aperçu que les standards actuels en matière de gestion de projet ne prenaient pas en compte les contraintes liées au contexte d'exécution des projets, et que de ce fait, la gestion de projets d'affaires n'avait pas été étudiée en profondeur. L'objectif de ce travail de recherche transdisciplinaire est donc d'abord d'obtenir une meilleure compréhension du sujet en essayant de comprendre pourquoi l'échec d'un projet d'affaires est considéré comme un échec du point de vue de l'organisation, puis de formaliser la connaissance acquise dans un format qui permette par la suite de l'enrichir et de l'appliquer. En nous appuyant sur le modèle des systèmes ouverts, trois études de cas ont été conduites, avec pour objectif d'étudier l'effet modérateur des différents types de structures des organisations et des systèmes d'information pour la gestion de projet sur la relation causale entre la compétence en gestion de projet et le succès des projets d'affaires. Il résulte de ce travail que le succès des projets d'affaires devrait être mesuré en termes de réalisation des objectifs du projet mais aussi de l'organisation. Ce travail a également permis d'identifier les composants essentiels de la gestion de projets d'affaires : (1) "Compétences de base pour la gestion de projet "; (2) "Gestion intégrée de programme" et (3) "Système d'information intégré pour la gestion de projet". Dans les trois études de cas, il apparait également de manière déterminante que les facteurs d'ordre organisationnel ont un impact significatif sur la réussite du projet. Une théorie est proposée, qui postule qu'un projet d'affaires a de grandes chances d'échouer s'il n'est pas géré comme une partie intégrante de l'entreprise, en le traitant comme une opération courante au sein de l'entreprise. Cela signifie que la manière dont les projets d'affaires sont gérés aujourd'hui devrait être revue. Le rôle de l'informatique dans l'assistance à la gestion de ces projets devrait également être revu. Et il faudrait sans doute aussi faire une plus grande différence entre les projets d'affaires et les projets " traditionnels " plus techniques. D'autre part, la formalisation de la connaissance acquise au cours de ces études de cas a été effectuée en développant un modèle de domaine à l'aide du langage de modélisation UML. Et l'approche de modélisation du domaine a été élaborée en modifiant l'étape de conceptualisation dans le processus traditionnel d'ingénierie d'ontologie. En prenant comme point de départ le cadre théorique qui prend en compte l'essentiel des composants de la gestion de projets d'affaires, le modèle a été construit en quatre étapes : (1) définition de la portée du travail en développant chaque composant à partir des normes en vigueur ; (2) intégration de ces développements en réutilisant les travaux réalisés et proposés par d'autres chercheurs ; (3) développement et (4) évaluation des spécifications UML décrivant aussi bien les aspects structurels que dynamiques du sujet traité. Le fait d'avoir réussi à développer un modèle du domaine et à montrer de quelle manière il pouvait être mis en œuvre directement pour développer un système d'information pour la gestion de projet ainsi que des ontologies portant sur les connaissances liées à la gestion de projet a montré que l'approche consistant à construire une base sémantique commune permettant de travailler à la modélisation de systèmes applicatifs et d'ontologies est à la fois réalisable et valide. De plus, le modèle de domaine proposé peut servir de socle permettant d'accumuler progressivement la connaissance du domaine, dans la mesure où l'approche de modélisation a pris en compte la possibilité d'intégrer des travaux et propositions antérieurs. Ce résultat ouvre de nouvelles perspectives de développement de logiciels s'appuyant sur un modèle de domaine qui est directement issu de travaux de recherch
37

Modélisation, Évaluation et Génération de Techniques d'Interaction

Appert, Caroline 21 May 2007 (has links) (PDF)
La recherche en Interaction Homme-Machine a produit de nombreuses techniques d'interaction pour améliorer l'utilisabilité des applications graphiques alors que les produits industriels n'en tirent que très rarement profit. Ce constat est dû à un manque d'outils pour faire des choix informés et mettre en oeuvre ces choix. Cette thèse propose trois outils utilisables en synergie pour favoriser l'adoption de techniques d'interaction avancées, depuis l'imagination d'une technique jusqu'à son implémentation. Le premier outil, Complexity of Interaction Sequences (CIS), est un modèle pour décrire une technique d'interaction et prédire son efficacité dans un contexte d'utilisation donné. Le niveau d'abstraction élevé de CIS en fait un outil utilisable en amont de la conception et de l'évaluation afin de pouvoir envisager plusieurs techniques et apprécier leur efficacité à moindre coût. Le second outil, Touchstone, est une plateforme pour aider à la conception d'expérimentations contrôlées. Son aspect exploratoire et son architecture modulaire permettent la réutilisation et facilitent la réalisation d'expérimentations contrôlées. Touchstone est non seulement destinée aux évaluateurs, mais également aux concepteurs grâce à sa fonction d'entrepôt de résultats empiriques. Enfin, SwingStates est une boîte à outils qui introduit un modèle de dessin et des structures de contrôle adaptées à la programmation de techniques d'interaction avancées. SwingStates est une extension de Java Swing, une boîte à outils largement utilisée pour le développement d'interfaces graphiques, et offre ainsi de nouvelles possibilités au développeur tout en restant dans leur cadre de travail habituel.
38

Intergiciel pour la composition des tâches utilisateurs dans les environnements pervasifs étant donné les préférences utilisateurs

Mukhtar, Hamid 16 November 2009 (has links) (PDF)
En raison du grand succès des réseaux sans _l et des appareils portatifs, le paradigme de l'informatique pervasive est devenu une réalité. L'un des plus di_ciles objectifs à atteindre dans de tels environnements est de permettre à l'utilisateur d'exécuter une tâche en composant à la volée, les services et les ressources de l'environnement. Cela implique la correspondance et la sélection automatique de services à travers divers dispositifs de l'environnement pervasif. Les approches existantes considèrent souvent seulement les aspects fonctionnels des services et ne prennent pas en compte diff érents aspects non-fonctionnels tels que les préférences utilisateur, les capacités des dispositifs en termes matériels et logiciels, et l'hétérogénéité du réseau de ces dispositifs. Nous présentons une approche pour la sélection dynamique des composants et des dispositifs dans un environnement pervasif en considérant simultanément tous les aspects précédemment mentionnés. Premièrement, nous proposons une modélisation abstraite et concrète de l'application, des capacités des terminaux et des ressources, des préférences des utilisateurs, ainsi que la modélisation de la plate-forme réseau sous-jacente. Les capacit és des dispositifs sont représentées par notre extension du modèle CC/PP et les préférences des utilisateurs en utilisant notre extension du modèle CP-Net. Nous mod- élisons sous forme d'un graphe la tâche de l'utilisateur et des services réseau sous-jacent, ainsi que les exigences des services, des préférences utilisateur et les capacités des dispositifs. L'hétérogénéité des protocoles de communication est également considérée dans les graphes. Les aspects algorithmiques ont été traités en fournissant des algorithmes pour la correspondance entre les services et les composants, pour la projection des applications sur la plate-forme de composants existants et pour l'évaluation des préférences utilisateurs. Pour la description de la composition de l'application nous proposons un modèle SCA étendu. Partant d'une composition abstraite de services, nous arrivons à réaliser une composition concrète de l'application distribuée à travers les dispositifs existants. Si pendant l'exécution un nouveau meilleur dispositif apparaît, l'application est recomposée en tenant compte des nouveaux composants. Cela permet de réaliser la continuité de la session d'un dispositif vers un autre. Une mise en oeuvre d'un prototype et son évaluation sont également fournis.
39

Spécification et vérification des protocoles de sécurité probabilistes

Chatzikokolakis, Konstantinos 26 October 2007 (has links) (PDF)
Le concept de l'anonymat entre en jeu dans les cas où nous voulons garder le secret sur l'identité des agents qui participent à un certain événement. Il existe un large éventail de situations dans lesquelles cette propriété peut être nécessaire ou souhaitable, par exemple: web de vote surf, les dons anonymes, et l'affichage sur les babillards. L'anonymat est souvent formulées de manière plus générale comme une propriété de dissimulation d'informations, à savoir la propriété qu'une partie des informations relatives à un certain événement est tenu secret. Il faut être prudent, cependant, de ne pas confondre anonymat avec d'autres propriétés que la même description, notamment la confidentialité (secret aka). Laissez-nous insister sur la différence entre les deux concepts en ce qui concerne l'envoi de messages: la confidentialité se réfère aux situations dans lesquelles le contenu du message doit être gardée secrète, dans le cas de l'anonymat, d'autre part, c'est l'identité de l'expéditeur ou du destinataire, qui doit être gardée secrète. De la même façon, en votant, l'anonymat signifie que l'identité de l'électeur associés à chaque vote doit être caché, et non pas le vote lui-même ou le candidat a voté pour. D'autres propriétés remarquables de cette catégorie sont la vie privée et la non-ingérence. Protection des renseignements personnels, il se réfère à la protection de certaines données, telles que le numéro de carte de crédit d'un utilisateur. Non-ingérence signifie qu'un utilisateur bas ne seront pas en mesure d'obtenir des informations sur les activités d'un utilisateur élevés. Une discussion sur la différence entre l'anonymat et d'autres propriétés de dissimulation d'informations peuvent être trouvées dans HO03 [, HO05]. Une caractéristique importante de l'anonymat, c'est qu'il est généralement relative à la capacité de l'observateur. En général, l'activité d'un protocole peut être observé par divers observateurs, di? Vrant dans les informations qu'ils ont accès. La propriété anonymat dépend essentiellement de ce que nous considérons comme observables. À titre d'exemple, dans le cas d'un babillard anonyme, une annonce par un membre du groupe est maintenue anonymes aux autres membres, mais il peut être possible que l'administrateur du conseil d'administration a accès à une information privilégiée qui peut lui permettre de déduire l'identité du membre qui l'a publié. Dans l'anonymat peut être exigée pour un sous-ensemble des agents uniquement. Afin de définir complètement l'anonymat d'un protocole, il est donc nécessaire de préciser ce qui se (s) des membres ont de garder l'anonymat. Une généralisation est le concept de l'anonymat à l'égard d'un groupe: les membres sont divisés en un certain nombre de séries, et nous sommes autorisés à révéler à quel groupe l'utilisateur responsable de l'action appartient, mais pas l'identité de l'utilisateur lui-même. Plusieurs définitions formelles et les cadres d'analyse anonymat ont été développés dans la littérature. Elles peuvent être classifiées en ed approches fondées sur les processus de calculs ([SS96, RS01]), la logique épistémique ([SS99], HO03), et des vues de fonction ([HS04]). La plupart de ces approches sont fondées sur le principe dit de confusion: un système est anonyme si l'ensemble des résultats possibles observable est saturé pour les utilisateurs prévus anonymes. Plus précisément, si dans un calcul le coupable (l'utilisateur qui exécute l'action) est i et le résultat observable est o, alors pour tout autre agent j il doit y avoir un calcul où j est le coupable et l'observable est encore o. Cette approche est aussi appelée possibiliste, et s'appuie sur non-déterminisme. En particulier, les choix probabilistes sont interprétés comme non déterministe. Nous nous référons à RS01] pour plus de détails sur la relation de cette approche à la notion d'anonymat.
40

Efficace de diffusion de l'information sans fil multi-hop Réseaux.

Cho, Song Yean 22 September 2008 (has links) (PDF)
Many protocols and applications in wireless multi-hop networks indispensably use broad- casting to delivery messages to all nodes in a network. Wireless routing protocols such as DSR, AODV and ODRMP broadcast route discovery messages, and many application protocols exchange query and response messages by broadcasting. Hence, the efficiency of broadcasting is critical to efficiency of these wireless protocols. Efficient wireless broadcast- ing is a topic that this thesis studies where efficiency is measured by the total transmission number to broadcast one unit data to the whole network. The study is done in two ways: extending classical methods and utilizing a novel method, network coding. Classical broadcasting protocols are based on store-and-forward routing that views pack- ets as atomic objects and lets a node store incoming packets in its local queue for some delay, before forwarding one or several copies of the packets to its neighbors. Among the classical broadcast protocols, the simplest and most widely used broadcast protocol is pure flood- ing. Pure flooding reliably provides total coverage of a network, but causes redundancy of packets, resulting in unnecessary collisions, and enormous inefficiency. To combat this inef- ficiency, many efficient broadcast protocols have been studied using probabilistic algorithms such as a gossip protocol, or algorithms based on topology control such as a Multi-Point Relay (MPR) based protocol. These broadcast protocols have been successfully used in many wireless protocols standardized in IEEE 802.11 and IETF. One possible application of the broadcast protocols is wireless mesh networks standard- ized in 802.11Working Group S. The 802.11 mesh networks face challenges such as inefficient broadcasting of so-called associated station information that is partially updated; there ex- ists redundancy between newly updated data and already broadcasted data. This thesis addresses these challenges by introducing an Association Discovery Protocol (ADP) that is combined with MPR-based broadcasting and integrated with an extension of an Optimized Link State Routing (OLSR) protocol for the 802.11 mesh networks. The results of analysis with modeling and simulation show that the protocol effectively decreases control overhead. However, for continuous data traffic, there exists another possible broadcast solution, which could theoretically outperform the broadcast protocols with classical store-and-forward routing and would not require precise topology information. This solution is network coding. Theoretically, network coding enables an optimized solution for wireless broadcasting in a polynomial time, while it is NP-complete with classical store-and-forward routing and only approximation algorithms exist. Hence, broadcasting with network coding is, theoretically, at least as efficient as any other broadcasting. This thesis focuses on utilizing network coding specifically as a practical solution for efficient wireless broadcasting. For the practical solution, this thesis proposes simple al- gorithms based on intuitive rationale about optimal efficiency of wireless network coding. The efficiency of the proposed simple algorithms is theoretically analyzed, and proven to be asymptotically optimal. The efficiency also is experimentally analyzed and shown, in some examples, to outperform other broadcasting with classical store-and-forward routing. Finally, from these simple algorithms we derive a practical broadcasting protocol executing with a simple and efficient coding method (that is, random linear coding). In addition, we propose a simple novel method for real-time decoding that could be combined with the practical network coding broadcasting protocol.

Page generated in 0.0829 seconds