• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 6
  • Tagged with
  • 24
  • 15
  • 8
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Complexité dans les Jeux Infinis sur les Graphes et les Réseaux de Contraintes Temporelles / Complexity in Infinite Games on Graphs and Temporal Constraint Networks

Comin, Carlo 20 March 2017 (has links)
Cette thèse porte sur un certain nombre de problèmes algorithmiques motivés par la planification temporelle automatisée et la vérification formelle des systèmes réactifs et finis. Nous nous sommes concentrés sur les méthodes théoriques des jeux pour obtenir de nouvelles connaissances, des limites de complexité améliorées et des algorithmes plus rapides pour les modèles suivants: réseaux temporels hyper, réseaux conditionnels Simples / Hyper temporels, jeux de mise à jour, jeux Muller McNaughton et jeux Mean Payoff / This dissertation deals with a number of algorithmic problems motivated by automated temporal planning and formal verification of reactive and finite state systems. We focused on game theoretical methods to obtain novel insights, improved complexity bounds, and faster algorithms for the following models: Hyper Temporal Networks, Conditional Simple/Hyper Temporal Networks, Update Games, Muller McNaughton Games, and Mean Payoff Games
2

Analyses bioinformatiques et classements consensus pour les données biologiques à haut débit / Bioinformatics analysis and consensus ranking for biological high throughput data

Yang, Bo 30 September 2014 (has links)
Cette thèse aborde deux problèmes relatifs à l’analyse et au traitement des données biologiques à haut débit: le premier touche l’analyse bioinformatique des génomes à grande échelle, le deuxième est consacré au développement d’algorithmes pour le problème de la recherche d’un classement consensus de plusieurs classements.L’épissage des ARN est un processus cellulaire qui modifie un ARN pré-messager en en supprimant les introns et en raboutant les exons. L’hétérodimère U2AF a été très étudié pour son rôle dans processus d’épissage lorsqu’il se fixe sur des sites d’épissage fonctionnels. Cependant beaucoup de problèmes critiques restent en suspens, notamment l’impact fonctionnel des mutations de ces sites associées à des cancers. Par une analyse des interactions U2AF-ARN à l’échelle génomique, nous avons déterminé qu’U2AF a la capacité de reconnaître environ 88% des sites d’épissage fonctionnels dans le génome humain. Cependant on trouve de très nombreux autres sites de fixation d’U2AF dans le génome. Nos analyses suggèrent que certains de ces sites sont impliqués dans un processus de régulation de l’épissage alternatif. En utilisant une approche d’apprentissage automatique, nous avons développé une méthode de prédiction des sites de fixation d’UA2F, dont les résultats sont en accord avec notre modèle de régulation. Ces résultats permettent de mieux comprendre la fonction d’U2AF et les mécanismes de régulation dans lesquels elle intervient.Le classement des données biologiques est une nécessité cruciale. Nous nous sommes intéressés au problème du calcul d’un classement consensus de plusieurs classements de données, dans lesquels des égalités (ex-aequo) peuvent être présentes. Plus précisément, il s’agit de trouver un classement dont la somme des distances aux classements donnés en entrée est minimale. La mesure de distance utilisée le plus fréquemment pour ce problème est la distance de Kendall-tau généralisée. Or, il a été montré que, pour cette distance, le problème du consensus est NP-difficile dès lors qu’il y a plus de quatre classements en entrée. Nous proposons pour le résoudre une heuristique qui est une nouvelle variante d’algorithme à pivot. Cette heuristique, appelée Consistent-pivot, s’avère à la fois plus précise et plus rapide que les algorithmes à pivot qui avaient été proposés auparavant. / It is thought to be more and more important to solve biological questions using Bioinformatics approaches in the post-genomic era. This thesis focuses on two problems related to high troughput data: bioinformatics analysis at a large scale, and development of algorithms of consensus ranking. In molecular biology and genetics, RNA splicing is a modification of the nascent pre-messenger RNA (pre-mRNA) transcript in which introns are removed and exons are joined. The U2AF heterodimer has been well studied for its role in defining functional 3’ splice sites in pre-mRNA splicing, but multiple critical problems are still outstanding, including the functional impact of their cancer-associated mutations. Through genome-wide analysis of U2AF-RNA interactions, we report that U2AF has the capacity to define ~88% of functional 3’ splice sites in the human genome. Numerous U2AF binding events also occur in other genomic locations, and metagene and minigene analysis suggests that upstream intronic binding events interfere with the immediate downstream 3’ splice site associated with either the alternative exon to cause exon skipping or competing constitutive exon to induce inclusion of the alternative exon. We further build up a U2AF65 scoring scheme for predicting its target sites based on the high throughput sequencing data using a Maximum Entropy machine learning method, and the scores on the up and down regulated cases are consistent with our regulation model. These findings reveal the genomic function and regulatory mechanism of U2AF, which facilitates us understanding those associated diseases.Ranking biological data is a crucial need. Instead of developing new ranking methods, Cohen-Boulakia and her colleagues proposed to generate a consensus ranking to highlight the common points of a set of rankings while minimizing their disagreements to combat the noise and error for biological data. However, it is a NP-hard questioneven for only four rankings based on the Kendall-tau distance. In this thesis, we propose a new variant of pivot algorithms named as Consistent-Pivot. It uses a new strategy of pivot selection and other elements assignment, which performs better both on computation time and accuracy than previous pivot algorithms.
3

Algorithmes combinatoires et Optimisation / Combinatorial Algorithms and Optimization

Manoussakis, Georgios Oreste 15 November 2017 (has links)
Nous introduisons d'abord la classe des graphes $k$-dégénérés qui est souvent utilisée pour modéliser des grands graphes épars issus du monde réel. Nous proposons de nouveaux algorithmes d'énumération pour ces graphes. En particulier, nous construisons un algorithme énumérant tous les cycles simples de tailles fixés dans ces graphes, en temps optimal.Nous proposons aussi un algorithme dont la complexité dépend de la taille de la solution pour le problème d'énumération des cliques maximales de ces graphes. Dans un second temps nous considérons les graphes en tant que systèmes distribués et nous nous intéressons à des questions liées à la notion de couplage lorsqu’aucune supposition n’est faite sur l'état initial du système, qui peut donc être correct ou incorrect. Dans ce cadre nous proposons un algorithme retournant une deux tiers approximation du couplage maximum.Nous proposons aussi un algorithme retournant un couplage maximal quand les communications sont restreintes de telle manière à simuler le paradigme du passage de message. Le troisième objet d'étude n'est pas directement lié à l'algorithmique de graphe, bien que quelques techniques classiques de ce domaine soient utilisées pour obtenir certains de nos résultats.Nous introduisons et étudions certaines familles de polytopes, appelées Zonotopes Primitifs, qui peuvent être décrits comme la somme de Minkowski de vecteurs primitifs. Nous prouvons certaines propriétés combinatoires de ces polytopes et illustrons la connexion avec le plus grand diamètre possible de l'enveloppe convexe de points à coordonnées entières à valeurs dans$[k]$, en dimension $d$. Dans un second temps,nous étudions des paramètres de petites instances de Zonotopes Primitifs, tels que leur nombre de sommets, entre autres. / We start by studying the class of $k$-degenerate graphs which are often used to model sparse real-world graphs. We focus one numeration questions for these graphs. That is,we try and provide algorithms which must output, without duplication, all the occurrences of some input subgraph. We investigate the questions of finding all cycles of some givensize and all maximal cliques in the graph. Ourtwo contributions are a worst-case output sizeoptimal algorithm for fixed-size cycleenumeration and an output sensitive algorithmfor maximal clique enumeration for this restricted class of graphs. In a second part weconsider graphs in a distributed manner. Weinvestigate questions related to finding matchings of the network, when no assumptionis made on the initial state of the system. Thesealgorithms are often referred to as selfstabilizing.Our two main contributions are analgorithm returning an approximation of themaximum matching and a new algorithm formaximal matching when communication simulates message passing. Finally, weintroduce and investigate some special families of polytopes, namely primitive zonotopes,which can be described as the Minkowski sumof short primitive vectors. We highlight connections with the largest possible diameter ofthe convex hull of a set of points in dimension d whose coordinates are integers between 0 and k.Our main contributions are new lower bounds for this diameter question as well as descriptions of small instances of these objects.
4

Constructing minimal acyclic deterministic finite automata

Watson, Bruce William 30 March 2011 (has links)
This thesis is submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy (Ph.D) in the FASTAR group of the Department of Computer Science, University of Pretoria, South Africa. I present a number of algorithms for constructing minimal acyclic deterministic finite automata (MADFAs), most of which I originally derived/designed or co-discovered. Being acyclic, such automata represent finite languages and have proven useful in applications such as spellchecking, virus-searching and text indexing. In many of those applications, the automata grow to billions of states, making them difficult to store without using various compression techniques — the most important of which is minimization. Results from the late 1950’s show that minimization yields a unique automaton (for a given language), and later results show that minimization of acyclic automata is possible in time linear in the number of states. These two results make for a rich area of algorithmics research; automata and algorithmics research are relatively old fields of computing science and the discovery/invention of new algorithms in the field is an exciting result. I present both incremental and nonincremental algorithms. With nonincremental techniques, the unminimized acyclic deterministic finite automaton (ADFA) is first constructed and then minimized. As mentioned above, the unminimized ADFA can be very large indeed — often even too large to fit within the virtual memory space of the computer. As a result, incremental techniques for minimization (i.e. the ADFA is minimized during its construction) become interesting. Incremental algorithms frequently have some overhead: if the unminimized ADFA fits easily within physical memory, it may still be faster to use nonincremental techniques. The presentation used in this thesis has a few unusual characteristics: <ul><li> Few other presentations follow a correctness-by-construction style for presenting and deriving algorithms. The presentations given here include correctness arguments or sketches thereof. </li><li> The presentation is taxonomic — emphasizing the similarities and differences between the algorithms at a fundamental level. </li><li> While it is possible to present these algorithms in a formal-language-theoretic setting, this thesis remains somewhat closer to the actual implementation issues. </li><li> In several chapters, new algorithms and interesting new variants of existing algorithms are presented. </li><li> It gives new presentations of many existing algorithms — all in a common format with common examples. </li><li> There are extensive links to the existing literature. </li></ul> / Thesis (PhD)--University of Pretoria, 2010. / Computer Science / unrestricted
5

L'algorithmique au lycée entre développement de savoirs spécifiques et usage dans différents domaines mathématiques / Algorithmics in high school between development of specific knowledge and use in various mathematical domains

Laval, Dominique 08 March 2018 (has links)
Les nouveaux programmes des lycées français, mis en place depuis la rentrée 2010, ont fixé des objectifs précis en matière d’algorithmique. A la lecture de ces programmes, l’enseignement de l’algorithmique apparaît comme outil (au sens de Douady, 1986) pour donner sens à un certain nombre de notions étudiées. Comment dépasser ce stade pour que l’algorithmique devienne objet d’apprentissage (au sens de Douady, 1986) ? Le travail de recherche se situe dans le cadre d’apprentissages de connaissances sur les algorithmes en mathématiques dans l’enseignement au niveau des classes de Seconde et du Cycle Terminal Scientifique du lycée. L’étude et la construction d’algorithmes par les élèves sont situées dans un cadre plus général de raisonnement et de preuve, mais aussi de démarches de modélisation en mathématiques. Il s’agit d’étudier l’effectivité de tels enseignements dans le cadre institutionnel français du point de vue des apprentissages effectivement réalisés par les élèves et des pratiques des enseignants, et d’en inférer des résultats plus généraux sur le raisonnement mathématique dans certains domaines spécifiques, pour les classes du lycée. Le travail de recherche entrepris privilégie la place occupée par les algorithmes dans l’enseignement des mathématiques et propose un cadre théorique tenant compte des cadres généraux de la didactique des mathématiques, en particulier les Espaces de Travail Mathématique (ETM) (Kuzniak, Richard, 2014) associés à des domaines mathématiques spécifiques. Plus particulièrement, poursuivant la spécification d’un modèle Espaces de Travail Algorithmique (ETA) (Laval, 2014, 2016), nous précisons ce que peuvent être les plans épistémologique et cognitif dans ces espaces en mettant l’accent sur leurs interactions liées aux genèses sémiotique, instrumentale et discursive auxquelles ces plans donnent lieu. Nous étudions aussi quels espaces personnels peuvent se construire chez les élèves des différents niveaux scolaires du lycée, et comment ils articulent des connaissances sur les algorithmes et les domaines mathématiques scolaires. Les modèles des ETM/ETA sont consacrés à l’analyse du travail mathématique dans des domaines mathématiques spécifiques avec, en particulier, des paradigmes guidant et orientant le travail des élèves. De plus, partant du fait que peu d’études sur des tâches de modélisation ont été basées sur les modèles ETM/ETA, nous affinons certaines de nos analyses dans le cadre des ETM/ETA sur la base du cycle de modélisation proposé par Blum et Leiss (2005) en relation avec certains domaines spécifiques des mathématiques. Pour cela, nous construisons plusieurs ingénieries didactiques mettant en place des expérimentations dans trois domaines mathématiques : (1) la théorie élémentaire des nombres ; (2) l’analyse ; (3) les probabilités et les simulations aléatoires. Ces ingénieries sont expérimentées et analysées dans les trois niveaux du lycée français : seconde et cycle terminal scientifique. Notre travail de recherche comporte des outils d’analyse de tâches et d’activités dans différents domaines mathématiques. La méthodologie employée permet d’obtenir des données globales et d’observer finement les activités des élèves en classe et les pratiques des enseignants / The new programs of French High schools, since 2010, precise objectives in terms of algorithmics. According to High schools curricula, algorithmics teaching appears as a tool (in the sense of Douady, 1986) to give meaning to some studied notions. How to go beyond this level so that algorithmic becomes an object of learning (in the sense of Douady, 1986)? This research work is in the framework of learning of mathematical knowledge in algorithmics at the level of Grade 10 and Scientific Terminal Cycle (Grades 11 and 12) of the French high school. The study and construction of algorithms by students are located in a more general framework of reasoning and proof, but also mathematical modelling. We build three didactic engineerings in High school to study the work of student and to watch teacher’s practices. Our aim is to infer more general results on mathematical reasoning in some specific mathematical domains.The research work favours algorithms’ place in mathematics teaching. We propose a theoretical framework taking into account the general frameworks of mathematics didactics, in particular the Mathematical Working Spaces (MWS) (Kuzniak, Richard, 2014) associated with specific mathematical domains.Following the specification of an Algorithmics Working Spaces (AWS) (Laval, 2014, 2016) we specify the possibilities of the epistemological and cognitive plans inside of these spaces increasing their interactions with their semiotician, instrumental and discursive geneses. We also study which personal spaces can be built for students at different levels of High school system, and how they articulate knowledge about algorithms and school mathematical domains. The models of MWS/AWS aim at analysing of mathematical work in specific mathematical domains, with in particular, paradigms guiding and directing the work of the student.Moreover, since few studies of modelling tasks have been built on MWS/AWS models, we refined some our analyses in the framework MWS/AWS basing on the modelling cycle proposed by Blum & Leiss (2005) in relation to some specific mathematical domains.We build several didactic engineerings that we experimented in various mathematical domains: (1) elementary number theory; (2) mathematical analysis; (3) probabilities and random simulations. These didactic engineerings are experimented and analysed in various French High school's grade: Grade 10 and Scientific Terminal Cycle (Grades 11 and 12). Our research work includes tools for analysing tasks and activities in different mathematical domains. The methodology obtains aggregated global data and finely observes students' activities in classroom and teacher’s practices
6

An Experimental Study of Distance Sensitivity Oracles

Williams, Vincent Troy 26 October 2010 (has links)
The paper \A Nearly Optimal Oracle for Avoiding Failed Vertices and Edges" by Aaron Bernstein and David Karger lays out a nearly optimal algorithm for nding the shortest distances and paths between vertices with any given single failure in constant time without reconstructing the oracle. Using their paper as a guideline, we have implemented their algorithm in C++ and recorded each step in this thesis. Each step has its own pseudo-code and its own analysis to prove that the entire oracle construction stays within the stated running time and total space bounds, from the authors. The effciency of the algorithm is compared against that of the brute-force methods total running time and total space needed. Using multiple test cases with an increasing number of vertices and edges, we have experimentally validated that their algorithm holds true to their statements of space, running time, and query time.
7

Path Centrality: A New Centrality Measure in Networks

Alahakoon, Tharaka 28 May 2010 (has links)
In network analysis, it is useful to identify important vertices in a network. Based on the varying notions of importance of vertices, a number of centrality measures are defined and studied in the literature. Some popular centrality measures, such as betweenness centrality, are computationally prohibitive for large-scale networks. In this thesis, we propose a new centrality measure called k-path centrality and experimentally compare this measure with betweenness centrality. We present a polynomial-time randomized algorithm for distinguishing high k-path centrality vertices from low k-path centrality vertices in any given (unweighted or weighted) graph. Specifically, for any graph G = (V, E) with n vertices and for every choice of parameters α ∈ (0, 1), ε ∈ (0, 1/2), and integer k ∈ [1, n], with probability at least 1 − 1/n2 our randomized algorithm distinguishes all vertices v ∈ V that have k-path centrality Ck(v) more than nα(1 + 2ε) from all vertices v ∈ V that have k-path centrality Ck(v) less than nα(1 − 2ε). The running time of the algorithm is O(k2ε −2n1−α ln n). Theoretically and experimentally, our algorithms are (for suitable choices of parameters) significantly faster than the best known deterministic algorithm for computing exact betweenness centrality values (Brandes’ algorithm). Through experimentations on both real and randomly generated networks, we demonstrate that vertices that have high betweenness centrality values also have high k-path centrality values.
8

Computing Lyndon Arrays

Liut, Michael Adam January 2019 (has links)
There are at least two reasons to have an efficient algorithm for identifying all maximal Lyndon substrings in a string: first, in 2015, Bannai et al. introduced a linear algorithm to compute all runs in a string that relies on knowing all maximal Lyndon substrings of the input string, and second, in 2017, Franek et al. showed a linear co-equivalence of sorting suffixes and sorting maximal Lyndon substrings of a string (inspired by a novel suffix sorting algorithm of Baier). In 2016, Franek et al. presented a brief overview of algorithms for com- puting the Lyndon array that encodes the knowledge of maximal Lyndon substrings of the input string. It discussed four different algorithms. Two known algorithms for computing the Lyndon array: a quadratic in-place algorithm based on iterated Duval’s algorithm for Lyndon factorization and a linear algorithmic scheme based on linear suffix sorting, computing the inverse suffix array, and applying the NSV (Next Smaller Value) algorithm. The overview also discusses a recursive version of Duval’s algorithm with a quadratic complexity and an algorithm emulating the NSV approach with a possible O(n log(n)) complexity. The authors at that time did not know of Baier’s algorithm. In 2017, Paracha proposed in her Ph.D. thesis an algorithm for the Lyndon array. The proposed algorithm was interesting as it emulated Farach’s recursive approach for computing suffix trees in linear time and introduced τ-reduction; which might be of independent interest. This was the starting point of this Ph.D. thesis. The primary aim is: (a) developing, analyzing, proving correct, and implementing in C++ a linear algorithm for computing the Lyndon array based on Baier’s suffix sorting; (b) analyzing, proving correct, and implementing in C++ the algorithm proposed by Paracha; and (c) empirically comparing the performance of these two algorithms with the iterative version of Duval’s algorithm. / Dissertation / Doctor of Philosophy (PhD)
9

Grammaires de graphes et langages formels / Graph grammars and formal languages

Dinh, Trong Hiêu 11 July 2011 (has links)
Cette thèse apporte plusieurs contributions dans le domaine des langages formels. Notre premier travail a été de montrer la pertinence des grammaires de graphes comme outil de démonstration de résultats fondamentaux sur les langages algébriques. Nous avons ainsi reformulé avec un point de vue géométrique les démonstrations du lemme des paires itérantes et du lemme de Parikh. Nous avons ensuite étendu aux graphes réguliers des algorithmes de base sur les graphes finis, notamment pour calculer des problèmes de plus court chemin. Ces extensions ont été faites par calcul de plus petits points fixes sur les grammaires de graphes. Enfin, nous avons caractérisé des familles générales de systèmes de récriture de mots dont la dérivation préserve la régularité ou l’algébricité. Ces familles ont été obtenues par décomposition de la dérivation en une substitution régulière suivie de la dérivation du système de Dyck / Pas de résumé en anglais
10

Aspects algorithmiques de la comparaison d'éléments biologiques / Algorithmics aspects of biological entities comparison

Sikora, Florian 30 September 2011 (has links)
Pour mieux saisir les liens complexes entre génotype et phénotype, une méthode utilisée consiste à étudier les relations entre différents éléments biologiques (entre les protéines, entre les métabolites...). Celles-ci forment ce qui est appelé un réseau biologique, que l'on représente algorithmiquement par un graphe. Nous nous intéressons principalement dans cette thèse au problème de la recherche d'un motif (multi-ensemble de couleurs) dans un graphe coloré, représentant un réseau biologique. De tels motifs correspondent généralement à un ensemble d'éléments conservés au cours de l'évolution et participant à une même fonction biologique. Nous continuons l'étude algorithmique de ce problème et de ses variantes (qui admettent plus de souplesse biologique), en distinguant les instances difficiles algorithmiquement et en étudiant différentes possibilités pour contourner cette difficulté (complexité paramétrée, réduction d'instance, approximation...). Nous proposons également un greffon intégré au logiciel Cytoscape pour résoudre efficacement ce problème, que nous testons sur des données réelles.Nous nous intéressons également à différents problèmes de génomique comparative. La démarche scientifique adoptée reste la même: depuis une formalisation d'un problème biologique, déterminer ses instances difficiles algorithmiquement et proposer des solutions pour contourner cette difficulté (ou prouver que de telles solutions sont impossibles à trouver sous des hypothèses fortes) / To investigate the complex links between genotype and phenotype, one can study the relations between different biological entities. It forms a biological network, represented by a graph. In this thesis, we are interested in the occurrence of a motif (a multi-set of colors) in a vertex-colored graph, representing a biological network. Such motifs usually correspond to a set of elements realizing a same function, and which may have been evolutionarily preserved. We follow the algorithmic study of this problem, by establishing hard instances and studying possibilities to cope with the hardness (parameterized complexity, preprocessing, approximation...). We also develop a plugin for Cytoscape, in order to solve efficiently this problem and to test it on real data.We are also interested in different problems related to comparative genomics. The scientific method is the same: studying problems arising from biology, specifying the hard instances and giving solutions to cope with the hardness (or proving such solutions are unlikely)

Page generated in 0.0399 seconds