• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 463
  • 169
  • 91
  • 1
  • 1
  • Tagged with
  • 739
  • 739
  • 739
  • 152
  • 89
  • 78
  • 67
  • 66
  • 56
  • 53
  • 52
  • 48
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Etude du décodage des codes de Reed-Muller et application à la cryptographie.

Sakkour, Bassem 06 April 2007 (has links) (PDF)
Dans cette thèse, nous étudions les codes de Reed-Muller qui constituent une des familles de codes correcteurs les plus étudiées, et les plus utilisées dans la transmission des communications numériques. Grâce à leur rapidité d'encodage et de décodage, ils furent notamment utilisés pour les transmissions satellitaires. Ils ont également un lien très fort avec les notions de fonctions booléennes. L'étude de ces dernières constitue le coeur de la réalisation et de la sécurité des systèmes de chiffrement à clé secrète, tant par blocs que par flot. Depuis l'introduction de ces codes, de très nombreux algorithmes de décodage virent le jour, et aujourd'hui encore étudier leur structure afin de construire des algorithmes de décodage constitue un fructueux domaine de recherche. Ces algorithmes de décodage peuvent être utilisés dans l'étude de la structure de systèmes de chiffrement à clé secrète. Nous exposons un point de vue unificateur à l'ensemble des algorithmes de décodage des codes de Reed-Muller, ce point de vue étant celui de la dérivée discrète. Nous exposons un algorithme performant pour le décodage des codes d'ordre deux, que nous analysons ensuite. Nous discutons les résultats de simulations des algorithmes étudiés pour les petites et moyennes longueurs de code. Ces résultats montrent que l'algorithme proposé décode beaucoup plus loin en pratique que les autres algorithmes.
362

Modèles analytiques et évaluation de performances dans les grands réseaux mobiles ad hoc.

Rodolakis, Georgios 07 December 2006 (has links) (PDF)
Dans cette thèse, nous étudions les différents aspects des protocoles de communication pour les réseaux mobiles ad hoc. Notre but est d'établir des modèles analytiques pour chacun de ces aspects et de combiner les modèles pour évaluer la performance du système en entier. Nous considérons les protocoles de toutes les couches, à partir de la couche de contrôle d'accès au canal. Nous commençons notre étude avec le protocole IEEE 802.11 et nous démontrons que les délais d'accès au canal suivent une distribution polynomiale. Basés sur ce résultat, nous présentons un protocole inter-couche an d'offrir des garanties de qualité de service de délai dans les réseaux sans l multi-sauts. Le prochain sujet abordé est la scalabilité des protocoles de routage d'état de liens dans les réseaux ad hoc massifs. Nous comparons les résultats théoriques connus sur la capacité des réseaux sans l avec les bornes atteignables quand on tient compte du trac de contrôle des protocoles utilisées. Nous adaptons les bornes théoriques à la communication multicast et nous proposons MOST, un protocole multicast qui atteint des performances asymptotiquement optimales dans les grands réseaux mobiles ad hoc. Ensuite, nous étudions le comportement du protocole TCP et l'impact des délais polynomiaux observés précédemment par rapport aux auto corrélations du trac TCP, toujours dans le contexte de grands réseaux. Finalement, nous nous intéressons à l'organisation et la gestion du réseau, an d'offrir des services de qualité garantie. Notre approche peut être appliquée dans un contexte général et consiste à placer des serveurs répliqués dans le réseau, selon les informations de qualité de service fournies par les couches inferieures.
363

Combinatoire analytique et algorithmique des ensembles de données.

Durand, Marianne 30 April 2004 (has links) (PDF)
Cette thèse traite d'algorithmique des ensembles de données en adoptant le point de vue de la combinatoire analytique. On traite ici de trois problèmes qui illustrent cette approche: les listes à sauts associées à de l'analyse asymptotique bivariée, le hachage à essai aléatoire avec pagination et le comptage probabiliste. Les listes à sauts sont une structure de données intermédiaire entre les skiplists et les arbres binaires de recherche. L'étude de cette structure a donné lieu à un problème d'asymptotique bivariée avec coalescence de singularités. Le hachage avec essai aléatoire est un algorithme qui gère les collisions d'une table de hachage. Dans le contexte étudié qui est celui de la pagination, on obtient la moyenne, ainsi que tous les moments successifs du coût de construction. Les algorithmes de comptage probabilistes originaux Loglog et Super Loglog permettent d'estimer le cardinal d'un ensemble en utilisant un kilooctet de mémoire avec une précision d'environ 3%.
364

Analyses de Pointeurs et Logique de Séparation.

Sims, Elodie-Jane 01 December 2007 (has links) (PDF)
Le cadre de cette thèse est l'analyse statique modulaire par interprétation abstraite de logiciels en vue de leur vérification automatique. Nous nous intéressons en particulier aux programmes comportant des objets alloués dynamiquement sur un tas et repérés par des pointeurs. Le but final étant de trouver des erreurs dans un programme (problèmes de déréférencements et d'alias) ou de prouver qu'un programme est correct (relativement à ces problèmes) de façon automatique. Isthiaq, Pym, O'Hearn et Reynolds ont développé récemment des logiques de fragmentation (separation logics) qui sont des logiques de Hoare avec un langage d'assertions/de prédicats permettant de démontrer qu'un programme manipulant des pointeurs sur un tas est correct. La sémantique des triplets de la logique ({P}C{P
365

Analyse statique par interprétation abstraite de systèmes hybrides.

Bouissou, Olivier 23 September 2008 (has links) (PDF)
Si l'interet et l'efficacite des methodes d'analyse statique par interpretation abstraite pour la verification des programmes critiques embarques ne sont plus a demontrer, il est maintenant necessaire d'obtenir des methodes les plus precises possibles. Si l'utilisation de domaines abstraits relationnels de plus en plus elabores permet de diminuer la surapproximation dont souffre les domaines les plus simples, les analyses actuelles souffrent toujours d'une mauvais prise en compte des entrees du programme. Ces entrees sont fournies par un capteur qui mesure une grandeur physique, et sont generalement surapproximees par un intervalle. Une piste d'etude recente pour mieux gerer ces entrees continues consiste a etudier, outre le programme lui-meme, l'environnement physique dans lequel il est execute. On obtient ainsi un systeme plus complexe comprenant une dynamique discrete (le programme) et une dynamique continue (l'environnement). L'etude de tels systemes hybrides repose actuellement essentiellement sur des extensions des automates a etats finis et des algebres de processus introduisant une dynamique continue. L'analyse de ces systemes par des techniques de model-checking souffre encore d'une explosion combinatoire excluant leur utilisation pour les logiciels embarques critiques les plus gros. La premiere contribution de cette these est une extension des langages de programmation imperatifs permettant de d´ecrire a la fois le programme, l'environnement exterieur et les interactions entre le programme et l'environnement. L'environnement physique est d´ecrit par un ensemble d'equations differentielles representant chacune un mode continu, et les interactions entre le programme et l'exterieur sont modelises par deux mots cles representant les capteurs et actionneurs. Nous donnons a l'ensemble (programme plus environnement physique) une semantique denotationnelle qui reste tres proche de celle definie pour les langages imperatifs classiques. La difficulte majeure dans la construction de cette semantique a ete de definir une semantique pour la partie continue : les solutions des equations diff´erentielles sont exprimees comme le plus petit point fixe d'un operateur monotone dans un CPO, et nous montrons que les iterees de Kleene convergent vers ce point fixe. La seconde contribution est une methode d'analyse statique par interpretation abstraite de ces systemes hybrides. Cette methode fonctionne en deux temps. Tout d'abord, sous certaines restrictions portant sur le programme a analyser, on construit un recouvrement de l'espace des variables d'entree via une analyse par intervalle couplee a une analyse d'atteignabilite en avant. On obtient ainsi une abstraction de l'impact qu'a le programme sur l'evolution continue : l'espace d'entree du programme est d´coupe en zones dans lesquelles on est sur qu'un actionneur sera active. Dans un deuxieme temps, nous utilisons ce recouvrement et une methode d'integration garantie des equations differentielles pour obtenir une surapproximation de l'evolution continue. Un analyseur prototype implementant ces techniques a ete developpe et les tests sur les exemples classiques de systemes hybrides montrent de bons resultats. Enfin, la troisieme contribution de cette these est une nouvelle methode d'integration garantie nommee GRKLib. Contrairement aux methodes existantes, GRKLib se fonde sur un schema d'integration numerique non garantie (nous avons choisi un schema de Runge-Kutta d'ordre 4, mais n'importe quelle autre convient) et nous calculons, en utilisant l'arithmetique d'intervalles, l'erreur globale commise lors de l'integration numerique. Cette erreur s'exprime comme la somme de trois termes : l'erreur sur un pas, la propagation de l'erreur et l'erreur due aux nombres flottants. Chaque terme est calcule separement et des techniques avancees permettent de les reduire et de controler au mieux le pas d'integration pour limiter l'accroissement de l'erreur globale. Une librairie C++ implementant ces concepts a ete developpee, et les resultats presentes dans cette these sont prometteurs.
366

Généralisations et méthodes correctes pour l'induction mathématique

Urso, Pascal 29 March 2002 (has links) (PDF)
Il existe de nombreux systèmes de preuves par induction visant à automatiser la preuve de théorèmes mathématiques. Cependant, un système de preuve ne peut pas être réellement automatique si plusieurs interactions humaines -- telles que l'apport de lemmes, de généralisations, ou de schémas d'induction -- sont nécessaires pour prouver des théorèmes qui semblent triviaux pour un être humain. Par exemple, la preuve de la commutativité de la multiplication (y * x = x * y) doit notamment recourir à des lemmes exprimant la distributivité de la multiplication ainsi que la distributivité et la commutativité de l'addition. Dans cette thèse, nous proposons des apports aux méthodes de preuve par induction dans le sens d'une plus grande automatisation. Ces apports sont constitués de deux heuristiques efficaces et surtout de deux algorithmes corrects. Le premier algorithme calcule des généralisations correctes pour des théories non-conditionnelles. Le second est une méthode d'induction originale -- la "partition de termes"-- permettant la preuve automatique de théorèmes inductifs.
367

Mécanismes cryptographiques pour la génération de clefs et l'authentification.

Zimmer, Sébastien 22 September 2008 (has links) (PDF)
Etablir un canal garantissant l'authentification de façon efficace requiert l'utilisation de nombreux outils cryptographiques. Dans ce mémoire, nous nous intéressons à la sécurité de plusieurs d'entre eux, présents à différentes étapes dans le protocole de mise en place du canal. Dans un premier temps, nous abordons l'analyse de deux protocoles qui, mis bout à bout, assurent la mise en place d'un canal authentifié, confidentiel et intègre : un algorithme d'échange de clefs authentifié et un algorithme de chiffrement authentifié. Le premier algorithme permet de générer des clefs en alliant plusieurs moyens d'authentification (biométrie, mot de passe, carte à puce). Le second est un algorithme normalisé appelé CCM. Dans un second temps, nous nous intéressons plus particulièrement à la phase d'extraction de clefs, étape charnière entre l'échange de clefs et son utilisation pour établir un canal sécurisé. Nous présentons une méthode simple pour extraire une clef symétrique d'un élément Diffie-Hellman, puis nous analysons l'utilisation d'HMAC comme fonction d'extraction de clefs. Dans un troisième temps, nous concentrons notre attention sur les fonctions de hachage, très utilisées à plusieurs niveaux du protocole. Plus précisément, nous analysons la sécurité d'un mode opératoire basé sur un algorithme de chiffrement par bloc dont on fixe la clef, puis, nous examinons des modes opératoires qui cherchent à garantir une sécurité en seconde préimage optimale.
368

Analyse statique modulaire des langages à objet.

Logozzo, Francesco 15 June 2004 (has links) (PDF)
Dans la thèse nous présentons un cadre pour l'analyse statique de langages orientés objets qui tient compte des propriétés de modularité de ces langages. Il y a plusieurs défis à relever pour obtenir une analyse statique efficace de langages orientés objet. Tout d'abord, elle doit gérer les particularités de ces langages telles que l'héritage, le polymorphisme et la résolution de méthodes virtuelles. Deuxièmement, elle doit être modulaire. En fait, les programmes orientés objet typiques sont fait de plusieurs milliers de classes et une analyse monolithique du programmes complet peut être trop coûteuse pour être pratiquée. Troisièmement, la technologie orientée objet favorise la programmation par composants, en cela qu'un composant (une classe) est développée une fois pour toute et utilisée dans de nombreux contextes différents. Aussi, une analyse statique efficace doit pouvoir inférée des propriétés des composants valides pour toutes les instantiations possibles de contextes. Dans cette thèse, nous présentons une analyse qui relève les défis esquissés ci-dessus. En particulier, nous nous concentrons sur une analyse qui peut inférer des invariants de classe. Un invariant de classe est une propriété d'une classe valide pour chaque instanciation, avant et après l'exécution de n'importe quelle méthode de la classe. Notre analyse a plusieurs avantages. Elle est indépendante du langage, elle exploite la structure modulaire des langages orientés objet et elle gère les principales fonctionnalités de ces langages, à savoir l'héritage, le polymorphisme et l'encapsulation. Le cadre présenté dans cette thèse est très flexible. En particulier, il permet de régler finement l'analyse selon les trois axes orthogonaux suivants: - Domaine abstrait sous-jacent: une classe peut être analysée en utilisant soit un domaine abstrait générique soit un domaine abstrait symbolique de façon à obtenir une analyse plus efficace mais moins précise. - Gestion de l'héritage: une sous-classe peut être analysée soit directement, en expansant syntaxiquement la relation de sous-classe, soit indirectement, en utilisant l'invariant du parent afin d'éviter une explosion quadratique de la complexité. -Traitement des contextes d'instantiation: une classe peut être utilisée soit indépendamment du contexte, afin d'obtenir un résultat valable dans tous les contextes, soit en utilisant une approximation du contexte afin d'obtenir un résultat plus précis mais moins général.
369

Analyse de canaux de communication dans un contexte non coopératif.

Barbier, Johann 28 November 2007 (has links) (PDF)
Dans cette thèse, nous étudions les canaux de communication dans un contexte non coopératif sous l'angle des codes correcteurs d'erreurs, d'une part, et de la stéganographie, d'autre part. Nous prenons la place d'un observateur non légitime qui veut avoir accès à l'information échangée entre deux protagonistes. Nos travaux sur les algorithmes de reconstruction de codes correcteurs, nous ont amenés à proposer un formalisme commun pour l'étude des codes linéaires, des codes convolutifs et des turbo-codes. Nous analysons tout d'abord finement l'algorithme de Sicot-Houcke, puis l'employons ensuite comme brique de base pour concevoir une technique de reconstruction des codes convolutifs totalement automatique et de complexité meilleure que les techniques existantes. Enfin, nous utilisons ces résultats pour retrouver les paramètres des turbo-codeurs. Dans le cadre de l'analyse stéganographique, nous proposons tout d'abord deux nouveaux modèles de sécurité qui mettent en oeuvre des jeux avec des attaquants réels. Nous adaptons ensuite l'analyse RS en un schéma de détection pour l'algorithme Multi Bit Plane Image steganography pour le domaine spatial, proposé par Nguyen et al. à IWDW'06. Enfin, nous développons une approche nouvelle pour analyser les images JPEG. En étudiant les statistiques des coefficients DCT compressés, nous mettons en évidence des détecteurs possédant des performances élevées et indépendantes en pratique de la quantité d'information dissimulée. Nous illustrons ces résultats par un schéma de stéganalyse universelle d'une part, et un schéma de stéganalyse spécifique pour Outguess, F5 et JPHide and JPSeek, d'autre part.
370

Complexité des représentations des systèmes de polynômes : triangulation, méthodes modulaires, évaluation dynamique.

Dahan, Xavier 24 November 2006 (has links) (PDF)
Les systèmes polynomiaux sous forme triangulaire, notamment les chaînes régulières et en particulier les ensembles triangulaires (de Lazard), sont des structures de données simples, permettant d'envisager des calculs modulaires (par spécialisation des coefficients, puis remontée via un opérateur de Newton-Hensel), de "résoudre'' les systèmes de polynômes (méthodes de "triangulations'') et de représenter des tours d'extensions de corps pour calculer avec les nombres algébriques. Dans ces trois domaines, les méthodes et résultats nouveaux apportés, notamment sur le plan de la complexité, étendent le champs d'application des ensembles triangulaires, et leur impact face à d'autres méthodes de manipulation des équations polynomiales, surtout les bases de Gröbner. Tout d'abord la complexité en espace des coefficients n'est qu'en croissance quadratique en fonction de données géometriques naturelles. Conséquence directe en est un opérateur de Newton (triangulaire) requérant moins d'étapes de remontée, et donc des méthodes modulaires plus encourageantes. Il en est ainsi pour la décomposition équiprojetable, premier algorithme de triangulation des systèmes basé sur une méthode modulaire, et pour le problème du changement d'ordres monomiaux en dimension positive, dans des cas assez particuliers toutefois pour une première approche. Par ailleurs, calculer modulo un ensemble triangulaire en suivant le modèle de l'évaluation dynamique, se voit doté, 20 ans après sa création, d'un premier résultat de complexité satisfaisant.

Page generated in 0.0424 seconds