• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 778
  • 433
  • 286
  • 2
  • Tagged with
  • 1499
  • 1499
  • 1499
  • 1499
  • 662
  • 623
  • 245
  • 155
  • 152
  • 110
  • 104
  • 101
  • 99
  • 99
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Synthesis of correct-by-design schedulers for hybrid systems

Soulat, Romain 18 February 2014 (has links) (PDF)
In this thesis, we are interested in designing schedulers for hybrid systems. We consider two specific subclasses of hybrid systems, real-time systems where tasks are competing for the access to common resources, and sampled switched systems where a choice has to be made on dynamics of the system to reach goals. Scheduling consists in defining the order in which the tasks will be run on the processors in order to complete all the tasks before a given deadline. In the first part of this thesis, we are interested in the scheduling of periodic tasks on multiprocessor architectures. We are especially interested in the robustness of schedulers, i.e., to prove that some values of the system parameters can be modified, and until what value they can be extended while preserving the scheduling order and meeting the deadlines. The Inverse Method can be used to prove the robustness of parametric timed systems. In this thesis, we introduce a state space reduction technique which allows us to treat challenging case studies such as one provided by Astrium EADS for the launcher Ariane 6. We also present how an extension of the Inverse Method, the Behavioral Cartography, can solve the problem of schedulability, i.e., finding the area in the parametric space in which there exists a scheduler that satisfies all the deadlines. We compare this approach to an analytic method to illustrate the interest of our approach In the second part of this thesis, we are interested in the control of affine switched systems. These systems are governed by a finite family of affine differential equations. At each time step, a controller can choose which dynamics will govern the system for the next time step. Controlling in this sense can be seen as a scheduling on the order of dynamics the system will have to use. The objective for the controller can be to make the system stay in a given area of the state space (stability) or to reach a given region of the state space (reachability). In this thesis, we propose a novel approach that computes a scheduler where the strategy is uniform for dense subsets of the state space. Moreover, our approach only uses forward computation, which is better suited than backward computation for contractive systems. We show that our designed controllers, systems evolve to a limit cyclic behavior. We apply our method to several case studies from the literature and on a real-life prototype of a multilevel voltage converter. Moreover, we show that our approach can be extended to systems with perturbations and non-linear dynamics.
112

Extraction d'informations à partir de documents<br />juridiques : application à la contrefaçon de marques

Renaux, Pierre 11 July 2006 (has links) (PDF)
Le cadre de nos recherches repose sur l'extraction et l'analyse de<br />connaissances à partir d'une source de données documentaire de type<br />juridique caractérisant les contrefaçons de marques nominatives. Cette<br />discipline reflète parfaitement toutes les contraintes appartenant aux<br />différents domaines intervenant dans le cadre de l'extraction de<br />connaissances à partir de documents : document électronique, bases de<br />données, statistiques, intelligence artificielle et interaction<br />homme/machine. Cependant, les performances de ces méthodes sont<br />étroitement liées à la qualité des données utilisées. Dans notre<br />contexte de recherche, chaque décision est supervisée par un rédacteur<br />(le magistrat) et dépend étroitement du contexte rédactionnel, limitant<br />les procédés d'extraction d'information. Nous nous intéressons donc aux<br />décisions susceptibles de biaiser l'apprentissage des documents. Nous<br />observons les fondements de celles-ci, déterminons leur importance<br />stratégique et le cas échéant nous proposons des solutions adaptées afin<br />de réorienter le biais observé vers une meilleure représentation des<br />documents. Nous proposons une approche exploratoire supervisée pour<br />évaluer la qualité des données impliquées, en déterminant les propriétés<br />biaisant la qualité de la connaissance établie ainsi qu'une plate-forme<br />interactive et collaborative de modélisation des processus conduisant à<br />l'extraction de connaissances afin d'intégrer efficacement le<br />savoir-faire de l'expert.
113

Cryptanalyses statistiques des algorithmes de chiffrement à clef secrète.

Gérard, Benoît 09 December 2010 (has links) (PDF)
Les travaux exposés dans ce document portent essentiellement sur l'étude des cryptanalyses statistiques des chiffrements par blocs. Certains des résultats présentés sont cependant suffisamment généraux pour pouvoir être utilisés dans d'autres contextes comme les chiffrements à flot, les attaques par canaux cachés, ... Après avoir donné quelques notions de base nécessaires à la compréhension du document, l'on s'intéresse aux deux grandes familles de cryptanalyses statistiques : les cryptanalyses linéaires et cryptanalyses différentielles. Un état de l'art est effectué afin de pouvoir appréhender les différentes problématiques liées à ces cryptanalyses. Dans un second temps, le document présente les travaux effectués durant ces trois années de thèse. Ceux-ci portent en majorité sur l'analyse de la complexité en données et de la probabilité de succès des cryptanalyses statistiques. Est aussi présenté un algorithme de décodage des codes linéaires qui peut être utilisé pour retrouver la clef lors d'une cryptanalyse linéaire. Notons que deux attaques sont proposées sur des schémas de chiffrement reconnus. Une cryptanalyse linéaire multiple sur la totalité du DES et une cryptanalyse différentielle multiple sur 18 tours du chiffrement PRESENT. Ces deux attaques sont, à ce jour, les meilleures attaques connues de leur catégorie sur ces chiffrements. Enfin, un appendice contient tous les détails techniques et preuves calculatoires permettant d'obtenir les résultats importants de ce document.
114

SemTAG : une plate-forme pour le calcul sémantique à partir de Grammaires d'Arbres Adjoints

Parmentier, Yannick 06 April 2007 (has links) (PDF)
Dans cette thèse, nous proposons une architecture logicielle (SemTAG) permettant de réaliser un calcul sémantique pour grammaires d'Arbres Adjoints. Plus précisément, cette architecture fournit un environnement permettant de construire une représentation sémantique sous-spécifiée (Predicate Logic Unplugged (Bos, 1995)) à partir d'une grammaire et d'un énoncé.<br /><br />Afin de faciliter la gestion de grammaires de taille réelle, la plate-forme SemTAG intègre un compilateur de métagrammaires. Le rôle de ce compilateur est de produire semi-automatiquement une grammaire à partir d'une description factorisée. Cette description correspond à (a)~une hiérarchie de fragments d'arbres et (b)~des combinaisons de ces fragments au moyen d'un langage de contrôle. De plus, chaque arbre ainsi produit peut être équipé d'une interface syntaxe / sémantique à la (Gardent et Kallmeyer, 2003).<br /><br />La construction sémantique est réalisée à partir du résultat de l'analyse syntaxique. Cette analyse est fournie par un analyseur syntaxique tabulaire généré automatiquement à partir de la grammaire d'entrée au moyen du système DyALog (De La Clergerie, 2005). Cet analyseur produit une forêt de dérivation, qui encode toutes les dérivations, et à partir desquelles les unifications des indexes sémantiques sont extraites.<br /><br />Cette plate-forme a été évaluée en termes de couverture sémantique sur la test-suite TSNLP.
115

Lagrangian Relaxation - Solving NP-hard Problems in Computational Biology via Combinatorial Optimization

Canzar, Stefan 14 November 2008 (has links) (PDF)
This thesis is devoted to two $\mathcal{NP}$-complete combinatorial optimization problems arising in computational biology, the well-studied \emph{multiple sequence alignment} problem and the new formulated \emph{interval constraint coloring} problem. It shows that advanced mathematical programming techniques are capable of solving large scale real-world instances from biology to optimality. Furthermore, it reveals alternative methods that provide approximate solutions. In the first part of the thesis, we present a \emph{Lagrangian relaxation} approach for the multiple sequence alignment (MSA) problem. The multiple alignment is one common mathematical abstraction of the comparison of multiple biological sequences, like DNA, RNA, or protein sequences. If the weight of a multiple alignment is measured by the sum of the projected pairwise weights of all pairs of sequences in the alignment, then finding a multiple alignment of maximum weight is $\mathcal{NP}$-complete if the number of sequences is not fixed. The majority of the available tools for aligning multiple sequences implement heuristic algorithms; no current exact method is able to solve moderately large instances or instances involving sequences exhibiting a lower degree of similarity. We present a branch-and-bound (B\&B) algorithm for the MSA problem.\ignore{the multiple sequence alignment problem.} We approximate the optimal integer solution in the nodes of the B\&B tree by a Lagrangian relaxation of an ILP formulation for MSA relative to an exponential large class of inequalities, that ensure that all pairwise alignments can be incorporated to a multiple alignment. By lifting these constraints prior to dualization the Lagrangian subproblem becomes an \emph{extended pairwise alignment} (EPA) problem: Compute the longest path in an acyclic graph, that is penalized a charge for entering ``obstacles''. We describe an efficient algorithm that solves the EPA problem repetitively to determine near-optimal \emph{Lagrangian multipliers} via subgradient optimization. The reformulation of the dualized constraints with respect to additionally introduced variables improves the convergence rate dramatically. We account for the exponential number of dualized constraints by starting with an empty \emph{constraint pool} in the first iteration to which we add cuts in each iteration, that are most violated by the convex combination of a small number of preceding Lagrangian solutions (including the current solution). In this \emph{relax-and-cut} scheme, only inequalities from the constraint pool are dualized. The interval constraint coloring problem appears in the interpretation of experimental data in biochemistry. Monitoring hydrogen-deuterium exchange rates via mass spectroscopy is a method used to obtain information about protein tertiary structure. The output of these experiments provides aggregate data about the exchange rate of residues in overlapping fragments of the protein backbone. These fragments must be re-assembled in order to obtain a global picture of the protein structure. The interval constraint coloring problem is the mathematical abstraction of this re-assembly process. The objective of the interval constraint coloring problem is to assign a color (exchange rate) to a set of integers (protein residues) such that a set of constraints is satisfied. Each constraint is made up of a closed interval (protein fragment) and requirements on the number of elements in the interval that belong to each color class (exchange rates observed in the experiments). We introduce a polyhedral description of the interval constraint coloring problem, which serves as a basis to attack the problem by integer linear programming (ILP) methods and tools, which perform well in practice. Since the goal is to provide biochemists with all possible candidate solutions, we combine related solutions to equivalence classes in an improved ILP formulation in order to reduce the running time of our enumeration algorithm. Moreover, we establish the polynomial-time solvability of the two-color case by the integrality of the linear programming relaxation polytope $\mathcal{P}$, and also present a combinatorial polynomial-time algorithm for this case. We apply this algorithm as a subroutine to approximate solutions to instances with arbitrary but fixed number of colors and achieve an order of magnitude improvement in running time over the (exact) ILP approach. We show that the problem is $\mathcal{NP}$-complete for arbitrary number of colors, and we provide algorithms that, given an instance with $\mathcal{P}\neq\emptyset$, find a coloring that satisfies all the coloring requirements within $\pm 1$ of the prescribed value. In light of our $\mathcal{NP}$-completeness result, this is essentially the best one can hope for. Our approach is based on polyhedral theory and randomized rounding techniques. In practice, data emanating from the experiments are noisy, which normally causes the instance to be infeasible, and, in some cases, even forces $\mathcal{P}$ to be empty. To deal with this problem, the objective of the ILP is to minimize the total sum of absolute deviations from the coloring requirements over all intervals. The combinatorial approach for the two-color case optimizes the same objective function. Furthermore, we use this combinatorial method to compute, in a Lagrangian way, a bound on the minimum total error, which is exploited in a branch-and-bound manner to determine all optimal colorings. Alternatively, we study a variant of the problem in which we want to maximize the number of requirements that are satisfied. We prove that this variant is $\mathcal{APX}$-hard even in the two-color case and thus does not admit a polynomial time approximation scheme (PTAS) unless $\mathcal{P}=\mathcal{NP}$. Therefore, we slightly (by a factor of $(1+\epsilon)$) relax the condition on when a requirement is satisfied and propose a \emph{quasi-polynomial time approximation scheme} (QPTAS) which finds a coloring that ``satisfies'' the requirements of as many intervals as possible.
116

Génération et tracé de structures décomposables

Bertault, Francois 24 September 1997 (has links) (PDF)
L'objet de cette thèse est la réalisation d'algorithmes et d'outils d'aide à l'étude des propriétés de structures combinatoires particulières, les structures décomposables. Nous nous intéressons pour cela à la génération aléatoire et systématique de structures décomposables, puis à leur représentation graphique automatique. Ce travail se situe à la frontière entre calcul mathématique et visualisation. Les structures décomposables sont les structures combinatoires qu'il est possible de former récursivement en utilisant des constructeurs aux propriétés particulières. Le point de vue est similaire à celui adopté dans la théorie des espèces de structures, où l'on privilégie la description d'ensembles de structures à partir de transformations d'ensembles existants. Il est alors possible, grâce à des spécifications, de décrire une infinité d'ensembles de structures combinatoires parmi lesquels les permutations, les graphes fonctionnels, les arbres enracinés ou encore les hiérarchies. L'intérêt de cette démarche tient au fait que l'on sait résoudre des problèmes de dénombrement et de comportement asymptotique sur ces ensembles et générer aléatoirement de façon uniforme des structures de ces ensembles. Les applications concernent le calcul de complexité en moyenne d'algorithmes, et la génération de jeux de tests pour la validation expérimentale ou l'étalonnage d'algorithmes. Nous présentons dans cette thèse deux types de résultats. Les premiers concernent la génération de structures décomposables, les seconds leur représentation graphique. Nous présentons une implantation d'un algorithme classique de génération aléatoire de structures décomposables, et nous proposons des techniques permettant de générer tous les éléments d'un ensemble à partir de sa spécification. Nous proposons également un algorithme de tracé de graphes particuliers, pour lesquels il existe à la fois des relations d'adjacence et d'inclusion entre les nœœœœœoeuds. Ces graphes, que nous appelons les graphes composés, sont en effet bien adaptés à la représentation de la nature générique des structures décomposables. Ce travail est concrétisé par la réalisation de deux logiciels de tracé de structures combinatoires. Leur utilisation n'est cependant pas limitée à ce seule domaine et les apsects liés à leur application à la visualisation de graphes en général sont abordés.
117

Conception, réalisation et évaluation d'un jeu sérieux de stratégie temps réel pour l'apprentissage des fondamentaux de la programmation

Muratet, Mathieu 02 December 2010 (has links) (PDF)
Les jeux vidéo font aujourd'hui partie de la culture de nombreux étudiants au même titre que la télévision, les films ou les livres. Or depuis quelques années, les étudiants se détournent des sciences. La recherche dans le domaine de l'enseignement de l'informatique aborde les problèmes du recrutement et du maintien des étudiants dans les formations informatiques. Une approche prometteuse consiste à utiliser la culture vidéoludique des étudiants pour les motiver à investir du temps dans la pratique de la programmation. Dans ce cadre, les travaux présentés portent sur la conception, la réalisation et l'évaluation d'un jeu sérieux pour l'apprentissage des fondamentaux de la programmation. Ce jeu est basé sur un jeu de stratégie temps réel où la programmation est un moyen d'interaction. Grâce au système Prog&Play, le jeu sérieux a pu être déployé et évalué dans différents contextes d'enseignements.
118

Jeux et automates sur les ordres

Cristau, Julien 13 December 2010 (has links) (PDF)
Cette thèse aborde des sujets liés à la théorie des automates, à la logique et à la théorie des jeux. Ces thèmes sont au cœur de l'informatique théorique depuis de nombreuses décennies. Les travaux de recherche dans ces domaines sont motivés entre autres par des questions de modélisation et de vérification de systèmes. La première partie de la thèse considère les automates finis et la logique temporelle sur des ordres linéaires arbitraires. On y donne une procédure (doublement exponentielle en espace) pour décider la satisfaisabilité d'une formule LTL, utilisant une étape de transformation d'une formule logique en un transducteur synchrone. La seconde partie s'intéresse à des jeux de longueur ordinale. On propose un modèle de jeux à deux joueurs sur des graphes finis, et on montre que la question du vainqueur pour ces jeux peut être résolue en espace polynomial. De plus, on montre qu'il existe des stratégies gagnantes à mémoire finie.
119

Formalisation de la description d'un environnement naturel. Application à la géo-localisation d'un individu

Le Yaouanc, Jean-Marie 08 October 2010 (has links) (PDF)
Les récents outils dédiés aux Sciences de l'Information Géographique s'attachent principalement à visualiser, analyser voire interpréter une information dite quantitative, c'est-à-dire issue de données cartographiques. Malgré une utilisation exponentielle voire quotidienne de ces systèmes, ces derniers ne correspondent pas à la manière dont un individu perçoit l'espace. Le mécanisme de perception spatiale est en effet dépendant de nos propres connaissances, du contexte ou de la tâche à réaliser. Il entraîne une représentation cognitive de l'environnement qui est caractérisée par une absence de formalisation des concepts manipulés. Cette représentation n'est pas une reproduction fidèle de la réalité, mais un assemblage d'objets aux formes et aux échelles exagérées qui est structuré par des relations spatiales approximatives. Ce travail est né du paradoxe suivant : comment peut-on utiliser des systèmes informatiques dont les fondements reposent sur des données quantitatives, alors que la perception de l'espace et son expression par le langage naturel sont par définition absentes de toute formalisation, et ainsi très éloignées de la précision métrique recherchée par les outils géo-informatiques actuels ? L'objectif de cette thèse consiste à associer une représentation cognitive issue de la perception d'un environnement naturel, aux données quantitatives provenant d'une base de données géographiques. Le scénario associé à cette approche s'attache à identifier les positions géographiques d'un individu à partir de la description de ses environs : un randonneur ou un pêcheur perdu ne disposant pas d'outil de géo-positionnement, décrit de manière spontanée son environnement à un interlocuteur qui s'appuie sur les propositions d'un système informatique pour le localiser. Une modélisation de la description linguistique puis de la scène environnementale perçue est proposée. Cette "carte conceptuelle" est contrainte par quatre espaces de proximité et deux à quatre cônes directionnels qui ordonnent et orientent les objets perçus par rapport à la position fixe de l'individu. Une telle représentation ne permet cependant pas de distinguer les entités saillantes, des entités ne favorisant pas le géo-positionnement de l'observateur. Nous avons donc proposé deux critères de saillance linguistique et spatiale fondés sur un algorithme de renforcement mutuel. Les positions géographiques possibles de l'individu sont alors calculées à partir de l'interprétation de la configuration spatiale fournie par la carte conceptuelle. Les zones de visibilité des objets perçus sont calculées puis les relations spatiales sont interprétées sous la forme de contraintes spatiales. Chaque nouvelle contrainte réduit au fur et à mesure l'espace solution, et le résultat exploitable pour lancer les opérations de recherche de l'individu est fourni par l'intersection des différentes régions.
120

Coloration d'arêtes ℓ-distance et clustering : études et algorithmes auto-stabilisants

Drira, Kaouther 14 December 2010 (has links) (PDF)
La coloration de graphes est un problème central de l'optimisation combinatoire. C'est un domaine très attractif par ses nombreuses applications. Différentes variantes et généralisations du problème de la coloration de graphes ont été proposées et étudiées. La coloration d'arêtes d'un graphe consiste à attribuer une couleur à chaque arête du graphe de sorte que deux arêtes ayant un sommet commun n'ont jamais la même couleur, le tout en utilisant le moins de couleurs possibles. Dans la première partie de cette thèse, nous étudions le problème de la coloration d'arêtes ℓ-distance, qui est une généralisation de la coloration d'arêtes classique. Nous menons une étude combinatoire et algorithmique du paramètre. L'étude porte sur les classes de graphes suivantes : les chaines, les grilles, les hypercubes, les arbres et des graphes puissances. Le paramètre de la coloration d'arêtes ℓ-distance permet de modéliser des problèmes dans des réseaux assez grands. Cependant, avec la multiplication du nombre de nœuds, les réseaux sont de plus en plus vulnérables aux défaillances (ou pannes). Dans la deuxième partie, nous nous intéressons aux algorithmes tolérants aux pannes et en particulier les algorithmes auto-stabilisants. Nous proposons un algorithme auto-stabilisant pour la coloration propre d'arêtes. Notre solution se base sur le résultat de vizing pour utiliser un minimum de couleurs possibles. Par la suite, nous proposons un algorithme auto-stabilisant de clustering destine a des applications dans le domaine de la sécurité dans les réseaux mobiles Ad hoc. La solution que nous proposons est un partitionnement en clusters base sur les relations de confiance qui existent entre nœuds. Nous proposons aussi un algorithme de gestion de clés de groupe dans les réseaux mobiles ad hoc qui s'appuie sur la topologie de clusters préalablement construite. La sécurité de notre protocole est renforcée par son critère de clustering qui surveille en permanence les relations de confiance et expulse les nœuds malveillants de la session de diffusion.

Page generated in 0.0612 seconds