Spelling suggestions: "subject:"88séries génératrice"" "subject:"88séries génération""
1 |
De l'usage des opérateurs en combinatoire : construction, analyse et génération aléatoire / On usage of operators in combinatorics : construction, analysis and random generationRolin, Nicolas 06 October 2016 (has links)
On étudie en combinatoire les objets munis d’une taille (la taille dans le cadre informatique peut se traduire par exemple par la mémoire occupée par l’objet). On appelle classe combinatoire un ensemble d’objets qui pour toute taille possède un nombre fini d’éléments. On peut par exemple considérer les textes régis par une certaine grammaire, dans ce cas la taille est le nombre de caractères, ou des arbres avec comme taille le nombre de noeuds. Une méthode naturelle pour décrire les classes, la méthode symbolique, consiste à décomposer les objets en sous-objets plus élémentaires à l’aide d’opérateurs (tels que l’union disjointe, le produit cartésien,...). On peut ensuite traduire ces décompositions sur des séries formelles. Le premier volet de résultats présentés dans cette thèse traite de la méthode symbolique et de son utilisation. On y présente des résultats asymptotiques sur des modèles d’arbres croissants issus de la théorie de la concurrence, puis une discussion sur comment décomposer certains opérateurs en réplications élémentaires. Le deuxième volet de résultats s’intéresse au sujet de la génération aléatoire uniforme d’objets dans une classe donnée. On montre tout d’abord comment générer des structures croissantes en adaptant les méthodes de génération récursive classiques aux opérateurs de produit croissant. On présente ensuite des résultats sur la génération de Boltzmann, avec une comparaison quantitative de deux méthodes, puis une extension permettant de conserver les propriétés d’uniformité de la génération en utilisant des approximations. / We study in combinatorics objects with a size (size in informatics setting can be the memory space used to represent an object). We call a combinatorial class a set of objects who for a given size have only a finite number of elements. We can for example look at text generated by a given grammar, with the number of characters as size, or trees with the number of nodes as size. A natural way of describing classes, the symbolic method, consists in decomposing objects in more elementary sub-objects with operators (disjoint union, cartesian product,...). Then we can translate theses decompositions to formal power series.The first batch of results in this thesis deals with the symbolic method and its usage. We present asymptotic results on models of increasing trees coming from concurrency theory, then we discuss on how to decompose some operators in elementary replications. The second batch of results deals with uniform random generation of objects in a given class. We first show how to generate increasing structures by adapting the recursive generation techniques to increasing product operators. Then we present two results on Boltzmann generation, with a quantitative comparison of two methods and with an extension allowing us to use approximatives values while retaining the uniformity of the generation.
|
2 |
Chemins confinés dans un quadrantRaschel, Kilian 24 November 2010 (has links) (PDF)
Les thèmes abordés dans le cadre de la thèse "Chemins confinés dans un quadrant" se concentrent autour des marches à petits sauts (c'est-à-dire aux huit plus proches voisins) confinées dans un quart de plan. Tout d'abord, nous considérons le problème combinatoire consistant à compter les chemins du plan qui, se déplaçant selon un ensemble fixé de sauts, restent dans un quadrant. Nous nous focalisons sur les questions suivantes : - expliciter la série génératrice des nombres de chemins partant de l'origine et se terminant en un certain point en un temps fixé ; - analyser la façon dont cette fonction dépend de l'ensemble de sauts, et en particulier étudier sa nature (rationnelle, algébrique, (non) holonome). Ensuite, nous examinons le problème probabiliste des marches aléatoires à valeurs dans un quadrant, homogènes à l'intérieur et tuées au bord. Nous nous intéressons alors aux questions suivantes : - expliciter les probabilités d'absorption en un certain point du bord en un temps fixé, et en particulier les probabilités d'absorption en un certain site du bord ; - trouver l'asymptotique de ces probabilités ; - expliciter les probabilités que le processus se trouve en un certain point intérieur au quadrant en un temps fixé, et les fonctions de Green ; - calculer l'asymptotique précise de ces fonctions de Green le long de toutes les trajectoires ; - obtenir toutes les fonctions harmoniques positives ou nulles ainsi que la compactification de Martin ; - analyser le temps d'absorption sur les axes, et notamment l'asymptotique de sa queue de distribution. Les méthodes que nous utilisons pour répondre aux questions ci-dessus font appel à l'analyse complexe.
|
3 |
Algorithmes, mots et textes aléatoiresClément, Julien 12 December 2011 (has links) (PDF)
Dans ce mémoire, j'examine différents aspects d'un objet simple mais omniprésent en informatique: la séquence de symboles (appelée selon le contexte mot ou chaîne de caractères). La notion de mot est au carrefour de domaines comme la théorie de l'information et la théorie des langages. S'il est simple, il reste fondamental: nous n'avons, au plus bas niveau, que cela à disposition puisqu'il arrive toujours un moment où une donnée doit être encodée en symboles stockables en mémoire. La quantité d'information croissante de données mise à disposition et qu'on peut stocker, par exemple des génomes d'individus ou des documents numérisés, justifie que les algorithmes et les structures de données qui les manipulent soient optimisés. En conséquence, les besoins d'analyse se font sentir pour guider le choix et la conception des programmes qui manipulent ces données. L'analyse en moyenne est ici particulièrement adaptée puisque les données atteignent une variété et des volumes tellement importants que c'est le cas typique qui traduit le mieux la complexité et non pas le cas le pire. Cela évidemment pose le problème de la modélisation de données qui reste encore très épineux. En effet on souhaite deux choses contradictoires: un modèle au plus près des données, qui traduise vraiment leurs spécificités, mais aussi un modèle permettant de donner des résultats, c'est-à-dire de prédire les performances (et on comprend vite que le modèle doit donc rester relativement simple pour qu'il subsiste un espoir de le traiter!). Les méthodes sont le plus souvent celles de la combinatoire analytique et font appel à un objet mathématique, les séries génératrices, pour mener les analyses à bien.
|
4 |
Distribution de valuations sur les arbres.Nguyên-Thê, Michel 09 February 2004 (has links) (PDF)
Cette thèse étudie la distribution limite de paramètres définis récursivement sur des arbres (graphes enracinés). Un premier paramètre étudié est le résultat d'expressions arithmétiques tirées aléatoirement. Une application est l'amélioration heuristique d'un algorithme de recherche de structures secondaires d'ARN. Un autre paramètre étudié est la taille d'expressions logiques ou arithmétiques réduites selon des lois idempotentes, nilpotentes ou d'absorption. J'étudie des fonctionnelles polynomiales du mouvement brownien standard, du pont, du méandre, et de l'excursion browniens en utilisant la méthode des moments à base de séries génératrices et d'analyse de singularité. J'obtiens la limite gaussienne de la loi jointe de la taille et de la longueur de cheminement interne des tries avec source de Bernoulli en utilisant des méthodes de point fixe.
|
5 |
Au delà de l'évaluation en pire cas : comparaison et évaluation en moyenne de processus d'optimisation pour le problème du vertex cover et des arbres de connexion de groupes dynamiques.Delbot, François 17 November 2009 (has links) (PDF)
La théorie de la complexité distingue les problèmes que l'on sait résoudre en un temps polynomial en la taille des données (que l'on peut qualifier de raisonnable), des problèmes NP-complets, qui nécessitent (en l'état actuel des connaissances) un temps de résolution exponentiel en la taille des données (que l'on peut qualifier de déraisonnable). C'est pour cette raison que la communauté scientifique s'est tournée vers les algorithmes (polynomiaux) d'approximation dont la mesure de qualité se fait le plus souvent grâce au rapport d'approximation en pire cas (pour un problème de minimisation de taille, un algorithme a un rapport d'approximation de k si la taille de toute solution pouvant être retournée par l'algorithme est inférieure ou égale à k fois la taille de la solution optimale). Dans la littérature, on en vient à considérer qu'un algorithme est plus performant qu'un autre lorsqu'il possède un plus petit rapport d'approximation en pire cas. Cependant, il faut être conscient que cette mesure, désormais "classique", ne prend pas en compte la réalité de toutes les exécutions possibles d'un algorithme (elle ne considère que les exécutions menant à la plus mauvaise solution). Mes travaux de thèse ont pour objet de mieux "capturer" le comportement des algorithmes d'approximation en allant plus loin que le simple rapport d'approximation en pire cas, et ce sur deux problèmes distincts : I. Le problème du Vertex Cover En montrant que les performances moyennes d'un algorithme peuvent être décorélées des performances en pire cas. Par exemple, nous avons montré que dans la classe des graphes spécialement conçus pour le piéger en pire cas, l'algorithme glouton "Maximum Degree Greedy" retourne, en moyenne, des solutions dont la taille tend vers l'optimum lorsque n tend vers l'infini. En évaluant les performances moyennes d'un algorithme. Nous avons prouvé que l'algorithme online présenté par Demange et Paschos en 2005 (dont le rapport d'approximation en pire cas est égal au degré maximum du graphe) est au plus 2-approché en moyenne dans n'importe quel graphe. Ce résultat, combiné à d'autres, montre que cet algorithme est "en pratique" meilleur que la plupart des algorithmes 2-approchés connus, malgré un mauvais rapport d'approximation en pire cas . En comparant les performances de différents algorithmes (analytiquement et expérimentalement). Nous avons proposé un algorithme de liste et nous avons prouvé analytiquement qu'il retourne toujours une meilleure solution que celle construite par un autre algorithme de liste récent [ORL 2006] quand ils traitent la même liste de sommets (dans certains graphes particuliers, la différence de taille peut être arbitrairement grande). Nous avons également comparé analytiquement (en utilisant des outils comme les séries génératrices) les performances moyennes de six algorithmes sur les chemins. Nous les avons ensuite expérimentées sur un grand nombre de graphes de diverses familles bien choisies. On constate dans ces études que les algorithmes 2-approchés étudiés sont ceux qui obtiennent les plus mauvaises performances en moyenne et que ceux qui ont les meilleurs comportements moyens ont de mauvais rapports d'approximation (fonction du degré max. du graphe). Tous ces résultats montrent que le rapport d'approximation en pire cas n'est pas toujours suffisant pour caractériser l'intégralité de la qualité d'un algorithme et que d'autres analyses (en moyenne notamment) doivent être effectuées pour en faire le tour. II. Le problème de la connexion de groupes dynamiques dans les réseaux Nous avons analysé un processus de mise-à-jour d'un arbre connectant dans un réseau un groupe que les membres peuvent rejoindre ou quitter à tout moment. Notre processus possède de bonnes propriétés : il est simple à implémenter et il garantit, après chaque opération d'ajout ou de retrait, que le diamètre de l'arbre est au plus 2 fois l'optimal. Cependant, pour obtenir cette garantie, nous devons autoriser la reconstruction totale de l'arbre lorsque le membre identifié comme sa racine quitte le groupe. Ces étapes de reconstruction sont très coûteuses et nous cherchons donc à en évaluer le nombre. Des travaux précédents montraient que dans le pire cas, il faut reconstruire (quasiment) à chaque étape pour conserver la garantie sur le diamètre. Nous montrons dans cette thèse (en utilisant les marches aléatoires, etc.) que, en fonction de certains paramètres du problèmes (comme les probabilités associées aux opérations d'ajout et de retrait), l'espérance du nombre de reconstructions est soit logarithmique en le nombre d'évènements (ajout ou retrait), soit constant. Ce résultat montre que le comportement moyen est très bon (malgré un pire cas très défavorable) et que notre processus de mise-à-jour peut être une solution viable en pratique.
|
6 |
Chemins et animaux : applications de la théorie des empilements de piècesBacher, Axel 28 October 2011 (has links) (PDF)
Le but de cette thèse est d'établir des résultats énumératifs sur certaines classes de chemins et d'animaux. Ces résultats sont obtenus en appliquant la théorie des empilements de pièces développée par Viennot. Nous étudions les excursions discrètes (ou chemins de Dyck généralisés) de hauteur bornée; nous obtenons des interprétations combinatoires et des extensions de résultats de Banderier, Flajolet et Bousquet-Mélou. Nous décrivons et énumérons plusieurs classes de chemins auto-évitants, dits chemins faiblement dirigés. Ces chemins sont plus nombreux que les chemins prudents qui forment la classe naturelle la plus grande jusqu'alors. Nous calculons le périmètre de site moyen des animaux dirigés, prouvant des conjectures de Conway et Le Borgne. Enfin, nous obtenons des résultats nouveaux sur l'énumération des animaux de Klarner et les animaux multi-dirigés de Bousquet-Mélou et Rechnitzer.
|
Page generated in 0.075 seconds