1 |
Constructions par greffe, combinatoire analytique et génération analytique / Graft reconstruction, analytic combinatorics and analytical generationJacquot, Alice 01 April 2014 (has links)
La combinatoire analytique est un domaine qui consiste à appliquer des méthodes issues de l’analyse complexe à des classes combinatoires afin d’obtenir des résultats sur leurs propriétés asymptotiques. On utilise pour cela des spécifications, qui sont une manière de formaliser la structure (souvent récursive) des objets. Dans cette thèse, nous nous attachons principalement à trouver des nouvelles spécifications pour certaines classes combinatoires, afin de pouvoir ensuite y appliquer des méthodes efficaces d’énumération ou de génération aléatoire. En effet, pour une même classe combinatoire il peut exister différentes spécifications, basées sur des décompositions différentes, rendant les méthodes classiques d’énumération asymptotique et de génération aléatoire plus ou moins adaptées. Le premier volet de résultats présentés concerne l’algorithme de Rémy et la spécification holonome qui y est sous-jacente, basée sur un opérateur de greffe. On y développe un nouvel algorithme, plus efficace, de génération aléatoire d’arbres binaires et un générateur aléatoire d’arbres de Motzkin basé sur le même principe. Nous abordons ensuite des questions relatives à l’étude de sous-classes de λ-termes. Enfin, nous présentons deux autres ensembles de résultats, sur la spécification automatique d’arbres où les occurrences d’un motif donné sont marquées et sur le comportement asymptotique et la génération aléatoire de polyominos digitalement convexes. Dans tous les cas, les nouvelles spécifications obtenues donnent accès à des méthodes qui ne pouvaient pas être utilisées jusque là et nous permettent d’obtenir de nombreux nouveaux résultats. / Analytic combinatorics is a field which consist in applying methods from complex ana- lysis to combinatorial classes in order to obtain results on their asymptotic properties. We use for that specifications, which are a way to formalise the (often recursive) structure of the objects. In this thesis, we mainly devote ourselves to find new specifications for some combinatorial classes, in order to then apply more effective enumerative or random sampling methods. Indeed, for one combinatorial class several different specifications, based on different decompositions, may exist, making the classical methods - of asymptotic enu- meration or random sampling - more or less adapted. The first set of presented results focuses on Rémy’s algorithm and its underlying holonomic specification, based on a grafting operator. We develop a new and more efficient random sampler of binary trees and a random sampler of Motzkin trees based on the same principle. We then address some question relative to the study of subclasses of λ-terms. Finally, we present two other sets of results, on automatic specification of trees where occurrences of a given pattern are marked and on the asymptotic behaviour and the random sampling of digitally convex polyominoes. In every case, the new specifications give access to methods which could not be applied previously and lead to numerous new results.
|
2 |
Génération aléatoire d'automates et analyse d'algorithmes de minimisation / Random generation of automata and analysis of their state minimization algorithmsDavid, Julien 28 September 2010 (has links)
Cette thèse porte sur la génération aléatoire uniforme des automates finis et l'analyse des algorithmes de minimisation qui s'y appliquent. La génération aléatoire permet de conduire une étude expérimentale sur les propriétésde l'objet engendré et sur les méthodes algorithmiques qui s'y appliquent. Il s'agit également d'un outil de recherche, qui permet de faciliter l'étude théorique du comportement moyen des algorithmes. L'analyse en moyenne des algorithmes s'inscrit dans la suite des travaux précurseurs de Donald Knuth. Le schéma classique en analyse d'algorithmes consiste à étudier le pire des cas, qui n'est souvent pas représentatif du comportement de l'algorithme en pratique. D'un point de vue théorique, on définit ce qui se produit "souvent'' en fixant une loi de probabilitésur les entrées de l'algorithme. L'analyse en moyenne consiste alors à estimer des ressources utiliséespour cette distribution de probabilité. Dans ce cadre, j'ai travaillé sur des algorithmes de génération aléatoire d'automatesdéterministes accessibles (complets ou non). Ces algorithmes sont basés sur de la combinatoirebijective, qui permet d'utiliser un procédé générique : les générateurs de Boltzmann. J'ai ensuite implanté ces méthodes dans deux logiciels : REGAL et PREGA. Je me suis intéressé à l'analyse en moyenne des algorithmes de minimisation d'automateset j'ai obtenu des résultats qui montrent le cas moyen des algorithmes de Moore et Hopcroft est bien meilleur que le pire des cas / This thesis is about the uniform random generation of finite automata and the analysisof their state minimization algorithms. Random generators allow to conduct an experimental study on the properties of the generated objectand on the algorithms that apply to this object. It is also a useful tool for research that facilitates the theoretical study of the average behavior of algorithms. Usually, the analysis of an algorithm focuses on the worst case scenario, which is often not representative of thepractical behavior of the algorithm. From a theoretical point of view, one can define what happens "often" by fixing a probability law on the algorithm's inputs. The average analysis consists in the estimation ofthe requested resources, according to this probability distribution.In this context, I worked on several algorithms for the random generation of deterministic accessibleautomata (complete or not).Those algorithms are based on bijective combinatorics, that allows to use generic tools called the Boltzmann generators. I implemented those methods in two softwares : REGAL and PREGA. I studied the average complexity of state minimization algorithms and obtained results showing that theaverage case of the two algorithms due to Moore and Hopcroft is way better than the worst case
|
3 |
Machines de Mealy, (semi-)groupes d'automate, problèmes de décision et génération aléatoire / Mealy machines, (semi-)automaton groups, decision problems and random generationGodin, Thibault 13 July 2017 (has links)
Dans cette thèse, on se propose d'étudier les automates de Mealy, c'est-à-dire des transducteurs complets déterministes lettre à lettre ayant même alphabet d'entrée et de sortie. Ces automates sont utilisés depuis les années 60 pour engendrer des (semi-)groupes qui ont parfois des propriétés remarquables, permettant ainsi de résoudre plusieurs problèmes ouverts en théorie des (semi-)groupes. Dans ce travail, on s’intéresse plus particulièrement aux apports possibles de l'informatique théorique à l'étude de ces (semi-)groupes engendrés par automate. La thèse présentée s'articule autours de deux grands axes. Le premier, qui correspond aux chapitres II et III, traite des problèmes de décision et plus spécifiquement du problème de Burnside dans le chapitre II et des points singuliers dans le chapitre III. Dans ces deux chapitres on met en lien des propriétés structurelles de l'automate avec des propriétés du groupe engendré ou de son action. Le second axe, représenté par le chapitre IV, se rapporte à la génération aléatoire de groupes finis. On cherche, en tirant des automates de Mealy aléatoirement dans des classes spécifiques, à engendrer des groupes finis, et on aboutit à un résultat de convergence pour la distribution ainsi obtenue. Ce résultat fait écho au théorème de Dixon pour les groupes de permutations aléatoires / In this thesis, we study Mealy automata, i.e. complete, deterministic, letter-to-letter transducers which have same input and output alphabet. These automata have been used since the 60s to generate (semi)groups that sometimes have remarkable properties, that were used to solve several open problems in (semi)group theory. In this work, we focus more specifically on the possible contributions that theoretical computer science can bring to the study of these automaton (semi)groups.The thesis consists of two main axis. The first one, which corresponds to the Chapters II and III, deals with decision problems and more precisely with the Burnside problem in Chapter II and with singular points in Chapter III. In these two chapters, we link structural properties of the automaton with properties of the generated group or of its action. The second axis, which comprises the Chapter IV, is related with random generation of finite groups. We seek, by drawing random Mealy automata in specific classes, to generate finite groups, and obtain a convergence result for the obtained distribution. This result echoes Dixon's theorem on random permutation groups
|
4 |
Computational technology for damage and failure analysis of quasi-brittle materialsWang, Xiaofeng January 2015 (has links)
The thesis presents the development and validation of novel computational technology for modelling and analysis of damage and failure in quasi-brittle materials. The technology is demonstrated mostly on concrete, which is the most widely used quasi-brittle material exhibiting non-linear behaviour. Original algorithms and procedures for generating two-dimensional (2D) and three-dimensional (3D) heterogeneous material samples are developed, in which the mesoscale features of concrete, such as shape, size, volume fraction and spatial distribution of inclusions and pores/voids are randomised. Firstly, zero-thickness cohesive interface elements with softening traction-separation relations are pre-inserted within solid element meshes to simulate complex crack initiation and propagation. Monte Carlo simulations (MCS) of 2D and 3D uniaxial tension tests are carried out to investigate the effects of key mesoscale features on the fracture patterns and load-carrying capacities. Size effect in 2D concrete is then investigated by finite element analyses of meso-structural models of specimens with increasing sizes. Secondly, a 3D meso-structural damage-plasticity model for damage and failure analysis of concrete is developed and applied in tension and compression. A new scheme for identifying interfacial transition zones (ITZs) in concrete is presented, whereby ITZs are modelled by very thin layers of solid finite elements with damage-plasticity constitutive relations. Finally, a new coupled method named non-matching scaled boundary finite element-finite element coupled method is proposed to simulate crack propagation problems based on the linear elastic fracture mechanics. It combines the advantage of the scaled boundary finite element method in modelling crack propagation and also preserves the flexibility of the finite element method in re-meshing. The efficiency and effectiveness of the developed computational technology is demonstrated by simulations of crack initiation and propagation problems.
|
5 |
Automates codéterministes et automates acycliques : analyse d'algorithmes et génération aléatoire / codeterministic automata and acyclic automata : analysis of algorithmes and random generationDe Félice, Sven 01 July 2014 (has links)
Le cadre générale de cette thèse est l'analyse quantitative des objets issus de la théorie des langages rationnels. On adapte des techniques d'analyse d'algorithmes (complexité en moyenne, complexité générique, génération aléatoire, ...) à des objets et à des algorithmes qui font intervenir des classes particulières d'automates. Dans une première partie nous étudions la complexité de l'algorithme de minimisation de Brzozowski. Bien qu'ayant une mauvaise complexité dans le pire des cas, cet algorithme a la réputation d'être efficace en pratique. En utilisant les propriétés typiques des applications et des permutations aléatoires, nous montrons que la complexité générique de l'algorithme de Brzozowski appliqué à un automate déterministe croît plus vite que tout polynôme en n, où n est le nombre d'états de l'automate. Dans une seconde partie nous nous intéressons à la génération aléatoire d'automates acycliques. Ces automates sont ceux qui reconnaissent les ensembles finis de mots et sont de ce fait utilisés dans de nombreuses applications, notamment en traitement automatique des langues. Nous proposons deux générateurs aléatoires. Le premier utilise le modèle des chaînes de Markov, et le second utilise la "méthode récursive", qui tire partie des décompositions combinatoires des objets pour faire de la génération. La première méthode est souple mais difficile à calibrer, la seconde s'avère plutôt efficace. Une fois implantée, cette dernière nous a notamment permis d'observer les propriétés typiques des grands automates acycliques aléatoires / The general context of this thesis is the quantitative analysis of objects coming from rational language theory. We adapt techniques from the field of analysis of algorithms (average-case complexity, generic complexity, random generation...) to objects and algorithms that involve particular classes of automata. In a first part we study the complexity of Brzozowski's minimisation algorithm. Although the worst-case complexity of this algorithm is bad, it is known to be efficient in practice. Using typical properties of random mappings and random permutations, we show that the generic complexityof Brzozowski's algorithm grows faster than any polynomial in n, where n is the number of states of the automaton. In a second part, we study the random generation of acyclic automata. These automata recognize the finite sets of words, and for this reason they are widely use in applications, especially in natural language processing. We present two random generators, one using a model of Markov chain, the other a ``recursive method", based on a cominatorics decomposition of structures. The first method can be applied in many situations cases but is very difficult to calibrate, the second method is more efficient. Once implemented, this second method allows to observe typical properties of acyclic automata of large size
|
6 |
Modélisation des matériaux composites multiphasiques à microstructures complexes : Etude des propriétés effectives par des méthodes d'homogénéisation / Modelisation of composite materials with complex microstructures : Study of effective properties with homogenization methodsLemaitre, Sophie 07 July 2017 (has links)
Ce mémoire aborde les questions relatives à la mise en place de procédures de conception rapide, fiable et automatisée des volumes élémentaires représentatifs (VER) d’un matériau composite à microstructure complexe (matrice/inclusions), et de la détermination de leurs propriétés homogénéisées ou effectives. Nous avons conçu et développé des algorithmes conduisant à des outils efficaces permettant la génération aléatoire de tels matériaux à inclusions sphériques, cylindriques, elliptiques ou toute combinaison de celles-ci. Ces outils sont également capables d’altérer les inclusions : inflation, déflation, arrachements aléatoires, ondulation et de les pelliculer permettant ainsi de générer des VER s’approchant des matériaux composites fabriqués. Un soin particulier a été porté sur la génération de VER périodiques. Les caractéristiques homogénéisées ou propriétés effectives de matériaux constitués de tels VER périodiques peuvent alors être déterminées selon le principe d’homogénéisation périodique, soit par une méthode basée sur un schéma itératif utilisant la FFT (Transformation de Fourier Rapide) via l’équation de Lippmann-Schwinger, soit par une méthode d’éléments finis. Le caractère aléatoire de la génération nous amène à réaliser des études en moyenne à partir d’un ensemble de paramètres morphologiques déterminé : nombre d’inclusions, type et forme, fraction volumique, orientation des inclusions, prise en compte d’une éventuelle altération. Deux études particulières sur la conductivité thermique apparente ont été menées, la première sur les composites à inclusions sphériques pelliculées de façon à déterminer l’influence de l’épaisseur de la pellicule et la seconde sur les composites de type stratifié en polymère et fibre de carbone, cousu par un fil de cuivre pour évaluer l'apport de la couture en cuivre selon la fibre de carbone utilisée. / This thesis focuses on setting up of fast, reliable and automated approaches to design representative volume elements (RVE) of composite materials with complex microstructures (matrix/inclusions) and the evaluation of their effective properties via a homogenization process. We developed algorithms and efficient tools for the random generation of such materials. Inclusions shapes may be spherical, cylindrical, elliptical or any combinations of them. Inflation, deflation, dislocation, undulation and coating are also available to generate RVE. The aim is to approach realistic materials subjected to be damaged during production. Particular attention has been focused on the periodic RVE generation.The homogenized characteristics or effective properties of materials formed from such periodic RVE may then be determined according to the principle of periodic homogenization, by an iterative scheme using FFT (Fast Fourier Transform) via the integral Lippmann-Schwinger or by a finite elements method.The stochastic generation of RVE and the set of morphological parameters studied: number of inclusions, type and shape, volume fraction, orientation of the inclusions lead to achieve an average process. Moreover, a special study has been led to take into account the behavior of altered inclusions. Furthermore, we studied two particular cases on the apparent thermal conductivity of the composite, the first for coated spherical inclusions in order to determine the influence of the layer thickness and the second for laminated polymer and carbon fiber composite sewn by a copper wire, in order to determine the influence of the sewing contribution according to the carbon fiber used.
|
7 |
Processus concurrents et combinatoire des structures croissantes : analyse quantitative et algorithmes de génération aléatoire / Concurrent process and combinatorics of increasingly labeled structures : quantitative analysis and random generation algorithmsDien, Matthieu 22 September 2017 (has links)
Un programme concurrent est composé de plusieurs unités logiques : les processus. Chaque processus a un comportement qui lui est propre : il exécute ses actions de façon séquentielle. Un objectif important est de s'assurer que de tels systèmes concurrents complexes soient cependant exempts de défaut. Cette problématique est étudiée dans le cadre de la théorie de la concurrence. Quand plusieurs processus s’exécutent en parallèle, l’ordre d’exécution des actions du programme global n’est plus déterminé. On assiste au fameux phénomène "d’explosion combinatoire" faisant référence au très grand nombre d’exécutions globales possibles. Les diverses techniques et méthodes d'analyse existantes (model checking, analyse statique, tests automatisés, etc) se heurtent irrémédiablement à cette "explosion". Cette thèse s'inscrit dans un projet à long terme d'étude quantitative de ce phénomène et de développement des techniques d’analyse statistique basées sur la génération aléatoire uniforme. Notre objectif dans cette thèse est de traiter une composante fondamentale de la concurrence : la synchronisation. Ce mécanisme permet aux processus de communiquer entre eux. Dans cette thèse nous proposons un modèle combinatoire de structures croissantes pour modéliser les exécutions de programmes concurrents synchronisés. Avec des outils de combinatoire analytique nous obtenons plusieurs résultats exacts et asymptotiques sur le nombre moyen d'exécutions dans des sous-classes de programmes concurrents. Nous présentons aussi plusieurs algorithmes de génération aléatoire uniforme de structures croissantes et de leurs étiquetages. / A concurrent program is a composition of several logical blocks: the processes. Each process has its own behavior, independent from the others: it sequentially runs its actions. An important goal is to ensure that such concurrent complex systems are faultless. This problem is studied in the field of concurrency theory. When several process are running in parallel, the running order of the actions of the total program is no more decided. This is the well-known "combinatorial explosion" phenomena, meaning that the number of possible runs of the global program is huge. The analysis techniques and methods existing (model checking, static analysis, automated testing, etc) are irremediably limited by this "explosion". This thesis is a part of a long-term project about the quantitative study of this phenomena and the development of statistic analysis methods based on the uniform random generation. Our specific goal is to study a fundamental principle of the concurrency theory: the synchronization. This mechanism allows communications between the processes. In this thesis we propose a combinatorial model of increasingly labeled structures to deal with runs of synchronized concurrent programs. Using the tools of analytic combinatorics we obtain close formulas and asymptotic equivalents for the average number of runs in several subclasses of concurrent programs. We also present algorithms of uniform random generation of increasingly labeled structures and for their increasing labelings.
|
8 |
Infeasible Path Detection : a Formal Model and an Algorithm / Détection de chemins infaisables : un modèle formel et un algorithmeAïssat, Romain 30 January 2017 (has links)
Le test boîte blanche basé sur les chemins est largement utilisé pour la validation de programmes. A partir du graphe de flot de contrôle (CFG) du programme sous test, les cas de test sont générés en sélectionnant des chemins d'intérêt, puis en essayant de fournir, pour chaque chemin, des valeurs d'entrées concrètes qui déclencheront l'exécution du programme le long de ce chemin.Il existe de nombreuses manières de définir les chemins d'intérêt: les méthodes de test structurel sélectionnent des chemins remplissant un critère de couverture concernant les éléments du graphe; dans l'approche aléatoire, les chemins sont tirés selon une distribution de probabilité sur ces éléments. Ces méthodes aléatoires ont l'avantage de fournir un moyen d'évaluer la qualité d'un jeu de test à travers la probabilité minimale de couvrir un élément du critère.Fournir des valeurs concrètes d'entrées nécessite de construire le prédicat de cheminement chaque chemin, i.e. la conjonction des contraintes sur les entrées devant être vérifiée pour que le système s'exécute le long de ce chemin. Cette construction se fait par exécution symbolique. Les données de test sont ensuite déterminées par résolution de contraintes. Si le prédicat d'un chemin est insatisfiable, le chemin est dit infaisable. Il est très courant qu'un programme présente de tels chemins, leur nombre surpassent généralement de loin celui des faisables. Les chemins infaisables sélectionnés lors la première étape ne contribuent pas au jeu de test final, et doivent être tirés à nouveau. La présence de ces chemins pose un sérieux problème aux méthodes structurelles et à toutes les méthodes d'analyse statique, la qualité des approximations qu'elles fournissent étant réduite par les données calculées le long de chemins infaisables.De nombreuses méthodes ont été proposées pour résoudre ce problème, telles que le test concolique ou le test aléatoire basé sur les domaines d'entrée. Nous présentons un algorithme qui construit de meilleures approximations du comportement d'un programme que son CFG, produisant un nouveau CFG qui sur-approxime l'ensemble des chemins faisables mais présentant moins de chemins infaisables. C'est dans ce nouveau graphe que sont tirés les chemins.Nous avons modélisé notre approche et prouvé formellement, à l'aide de l'assistant de preuve interactif Isabelle/HOL, les propriétés principales établissant sa correction.Notre algorithme se base sur l'exécution symbolique et la résolution de contraintes, permettant de détecter si certains chemins sont infaisables ou non. Nos programmes peuvent contenir des boucles, et leurs graphes des cycles. Afin d'éviter de suivre infiniment les chemins cycliques, nous étendons l'exécution symbolique avec la détection de subsomptions. Une subsomption peut être vue comme le fait qu'un certain point atteint durant l'analyse est un cas particulier d'un autre atteint précédemment: il n'est pas nécessaire d'explorer les successeurs d'un point subsumé, ils sont subsumés par les successeurs du subsumeur. Notre algorithme a été implémenté par un prototype, dont la conception suit fidèlement la formalisation, offrant un haut niveau de confiance dans sa correction.Dans cette thèse, nous présentons les concepts théoriques sur lesquels notre approche se base, sa formalisation à l'aide d'Isabelle/HOL, les algorithmes implémentés par notre prototype et les diverses expériences menées et résultats obtenus à l'aide de ce prototype. / White-box, path-based, testing is largely used for the validation of programs. Given the control-flow graph (CFG) of the program under test, a test suit is generated by selecting a collection of paths of interest, then trying to provide, for each path, some concrete input values that will make the program follow that path during a run.For the first step, there are various ways to define paths of interest: structural testing methods select some set of paths that fulfills coverage criteria related to elements of the graph; in random-based techniques, paths are selected according to a given distribution of probability over these elements (for instance, uniform probability over all paths of length less than a given bound). Both approaches can be combined as in structural statistical testing. The random-based methods above have the advantage of providing a way to assess the quality of a test set as the minimal probability of covering an element of a criterion.The second step requires to produce for each path its path predicate, i.e. the conjunction of the constraints over the input parameters that must hold for the system to run along that path. This is done using symbolic execution. Then, constraint-solving is used to compute test data. If there is no input values such that the path predicate evaluates to true, the path is infeasible. It is very common for a program to have infeasible paths and such paths can largely outnumber feasible paths. Infeasible paths selected during the first step will not contribute to the final test suite, and there is no better choice than to select another path, hoping for its feasibility. Handling infeasible paths is the serious limitation of structural methods since most of the time is spent selecting useless paths. It is also a major challenge for all techniques in static analysis of programs, since the quality of the approximations they provide is lowered by data computed for paths that do not correspond to actual program runs.To overcome this problem, different methods have been proposed, like concolic testing or random testing based on the input domain. In path-biased random testing, paths are drawn according to a given distribution and their feasibility is checked in a second step. We present an algorithm that builds better approximations of the behavior of a program than its CFG, providing a transformed CFG, which still over-approximates the set of feasible paths but with fewer infeasible paths. This transformed graph is used for drawing paths at random.We modeled our graph transformations and formally proved, using the interactive theorem proving environment Isabelle/HOL, the key properties that establish the correctness of our approach.Our algorithm uses symbolic execution and constraint solving, which allows to detect whether some paths are infeasible. Since programs can contain loops, their graphs can contain cycles. In order to avoid to follow infinitely a cyclic path, we enrich symbolic execution with the detection of subsumptions. A subsumption can be interpreted as the fact that some node met during the analysis is a particular case of another node met previously: there is no need to explore the successors of the subsumed node: they are subsumed by the successors of the subsumer. Our algorithm has been implemented by a prototype, whose design closely follows said formalization, giving a good level of confidence in its correctness.In this thesis, we introduce the theoretical concepts on which our approach relies, its formalization in Isabelle/HOL, the algorithms our prototype implements and the various experiments done and results obtained using it.
|
9 |
Autour des automates : génération aléatoire et contribution à quelques extensions / On the subject of automata : random generation and contribution to some extensionsCarnino, Vincent 05 December 2014 (has links)
Le sujet de cette thèse se divise en trois parties: les deux premières traitent chacune d'une extension du modèle utilisé en théorie des automates, tandis que la dernière aborde une partie plus concrète qui consiste à générer des automates avec des propriétés particulières. Tout d'abord, nous donnons une extension du concept d'automate universel, défini sur les mots finis, aux omega-langages. Pour cela, nous avons défini une forme normale pour tenir compte de la spécificité du mode d'acceptation des automates de Büchi qui nous permettent de reconnaître les omega-langages. Ensuite nous avons défini deux types d'omega-factorisations, "classiques" et "pures", qui sont des extensions du concept de factorisation d'un langage, ce qui nous a permis de définir l'automate universel d'un omega-langage. Nous avons prouvé que ce dernier dispose bien des différentes propriétés attendues: il est le plus petit automate de Büchi reconnaissant l'omega-langage et qui possède la propriété d'universalité (moyennant la forme normale). Nous présentons également une méthode pour calculer efficacement les omega-factorisations maximales d'un langage à partir d'un automate prophétique reconnaissant le dit langage. Dans la seconde partie, nous traitons le cas des automates bidirectionnels à multiplicité dans un semi-anneau. Dans un premier temps, nous donnons une version légérement différente de la construction permettant de passer d'un automate bidirectionnel à multiplicité à un automate unidirectionnel à multiplicité et nous prouvons qu'elle préserve la non-ambiguïté mais pas le déterminisme. Nous montrons, également à l'aide d'une construction, que les automates bidirectionnels à multiplicité non-ambigus sont équivalents aux automates unidirectionnels à multiplicité déterministes. Dans un second temps, nous nous concentrons sur les semi-anneaux tropicaux (ou min-+). Nous montrons que sur N-min-+, les automates bidirectionnels sont équivalents aux automates unidirectionnels. Nous montrons également que sur Z-min-+, les automates bidirectionnels n'ont pas toujours un comportement défini et que cette propriété est décidable tandis qu'il n'est pas décidable s'il existe un mot pour lequel le comportement est défini. Dans la dernière partie, nous proposons un algorithme de génération aléatoire d'automate acycliques, accessibles et déterministes ainsi que d'automates acycliques minimaux avec une distribution qui est quasiment uniforme, tout cela à l'aide de chaîne de Markov. Nous prouvons l'exactitude de chacun de ces deux algorithmes et nous expliquons comment adapter en tenant compte de contraintes sur l'ensemble des états finals / The subject of this thesis is decided into three parts: two of them are about extensions of the classical model in automata theory, whereas the third one is about a more concrete aspect which consists in randomly generate automata with specific properties. We first give an extension of the universal automaton on finite words to infinite words. To achieve this, we define a normal form in order to take account of the specific acceptance mode of Büchi automata which recognize omega-langages. Then we define two kinds of omega-factorizations, a "regular" one and the "pure" kind, which are both extensions of the classical concept of factorization of a language. This let us define the universal automaton of an omega-language. We prove that it has all the required properties: it is the smallest Buchi automaton, in normal form, that recognizes the omega-language and which has the universal property. We also give an effective way to compute the "regular" omega-factorizations of a language using a prophetic automaton recognizing the language. In the second part, we deal with two-way automata weighted over a semi ring. First, we give a slightly different version of the computation of a weighted one-way automaton from a weighted two-way automaton and we prove that it preserves the non-ambiguity but not the determinism. We prove that non-ambiguous weighted two-way automata are equivalent to deterministic weighted one-way automata. In a later part, we focus on tropical semi rings (or min-+). We prove that two-way automata on N-min-+ are equivalent to one-way automata on N-min-+. We also prove that the behavior of two-way automata on Z-min-+ are not always defined and that this property is decidable whereas it is undecidable whether or not there exists a word on which the behavior is defined. In the last section, we propose an algorithm in order to randomly generate acyclic, accessible and determinist automata and minimal acyclic automata with an almost uniform distribution using Morkov chains. We prove the reliability of both algorithms and we explain how to adapt them in order to fit with constraints on the set of final states
|
10 |
Random generation and chief length of finite groupsMenezes, Nina E. January 2013 (has links)
Part I of this thesis studies P[subscript(G)](d), the probability of generating a nonabelian simple group G with d randomly chosen elements, and extends this idea to consider the conditional probability P[subscript(G,Soc(G))](d), the probability of generating an almost simple group G by d randomly chosen elements, given that they project onto a generating set of G/Soc(G). In particular we show that for a 2-generated almost simple group, P[subscript(G,Soc(G))](2) 53≥90, with equality if and only if G = A₆ or S₆. Furthermore P[subscript(G,Soc(G))](2) 9≥10 except for 30 almost simple groups G, and we specify this list and provide exact values for P[subscript(G,Soc(G))](2) in these cases. We conclude Part I by showing that for all almost simple groups P[subscript(G,Soc(G))](3)≥139/150. In Part II we consider a related notion. Given a probability ε, we wish to determine d[superscript(ε)] (G), the number of random elements needed to generate a finite group G with failure probabilty at most ε. A generalisation of a result of Lubotzky bounds d[superscript(ε)](G) in terms of l(G), the chief length of G, and d(G), the minimal number of generators needed to generate G. We obtain bounds on the chief length of permutation groups in terms of the degree n, and bounds on the chief length of completely reducible matrix groups in terms of the dimension and field size. Combining these with existing bounds on d(G), we obtain bounds on d[superscript(ε)] (G) for permutation groups and completely reducible matrix groups.
|
Page generated in 0.1336 seconds