• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 13
  • 1
  • Tagged with
  • 33
  • 33
  • 16
  • 12
  • 11
  • 7
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation algébrique des arbres de défaillance dynamiques, contribution aux analyses qualitative et quantitative

Merle, Guillaume 07 July 2010 (has links) (PDF)
Dans le contexte de la sûreté de fonctionnement des systèmes critiques, nous nous intéressons aux analyses par arbres de défaillance dynamiques (AdDD). Notre contribution est la définition d'un cadre algébrique permettant de déterminer la fonction de structure des AdDD et d'étendre les méthodes analytiques communément utilisées pour analyser les arbres statiques aux arbres dynamiques. Dans un premier temps, nous passons en revue les principales approches utilisées pour analyser les arbres de défaillance dynamiques, ainsi que leurs limites respectives. Le cadre algébrique permettant la modélisation des AdDD est ensuite présenté. Ce cadre algébrique est fondé sur un modèle temporel des événements et sur la définition de trois opérateurs temporels permettant de traduire la séquentialité d'apparition des événements. Ces opérateurs temporels permettent de définir algébriquement le comportement des portes dynamiques, et donc la fonction de structure des AdDD. Un modèle probabiliste de ces portes dynamiques est ensuite donné afin de pouvoir déterminer la probabilité de défaillance de l'événement sommet des arbres à partir de cette fonction de structure. Nous montrons enfin comment la fonction de structure des AdDD peut être ramenée à une forme canonique grâce à des théorèmes de réécriture, puis à une forme minimale grâce à la définition d'un critère de minimisation, et comment les AdDD peuvent être analysés de manière analytique et directe à partir de cette forme canonique minimale de la fonction de structure. Nous illustrons cette approche avec deux exemples d'AdDD issus de la littérature.
22

Analyse de dépendance des programmes à objet en utilisant les modèles probabilistes des entrées

Bouchoucha, Arbi 09 1900 (has links)
La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas. / The task of maintenance and understanding of object-oriented programs is becoming increasingly costly. Dependency analysis can be a solution to facilitate this engineering task. However, dependency analysis is a task both important and difficult. We propose a framework for studying program internal dependencies in a probabilistic setting, where the program inputs are modeled either as a random vector, or as a Markov chain. In that setting, coupling metrics become random variables whose probability distributions can be studied via Monte-Carlo simulation. The obtained distributions provide an entry point for understanding the internal dependencies of program elements, as well as their general behaviour. This framework is appropriate for the (common) situation where the value taken by the metric does depend on the program inputs and where those inputs are not fixed a priori. We provide a concrete illustration with two case studies.
23

Approche probabiliste pour l’analyse de l’impact des changements dans les programmes orientés objet

Zoghlami, Aymen 06 1900 (has links)
Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes. / We study the possibility of predicting the impact of changes in object-oriented code using bayesian networks. For each change type, we produce a bayesian network that determines the probability that a class is impacted given that another class is changed. Each network takes as input a set of possible relationships between classes. We train our networks using historical data. The proposed impact-prediction approach is evaluated with two different scenarios, various types of changes, and five systems. In the first scenario, we use as training data, the changes performed in the previous versions of the same system. In the second scenario training data is borrowed from systems that are different from the changed one. Our evaluation showed that, in both cases, we obtain very good predictions, even though they are better in the first scenario.
24

Modèles probabilistes et possibilistes pour la prise en compte de l'incertain dans la sécurité des structures

Gao, Yingzhong 02 May 1996 (has links) (PDF)
Cette thèse a pour cadre général l'étude de la sécurité des structures, sous un double aspect - probabiliste et possibiliste - de la modélisation des variabilités et incertitudes des variables de calcul introduites dans les états limites. Après avoir rappelé les expressions classiques de la sécurité des structures (approches semi-probabiliste et probabiliste), l'attention est portée sur la définition de pré-mesures de confiance pour l'évaluation du risque de dépassement d'états limites. Divers concepts relatifs à l'expression et à la modélisation des incertitudes sont rappelés, en accentuant les particularités des mesures de possibilité et leur positionnement vis-à-vis des mesures de probabilité. Les notions essentielles de la théorie probabiliste de la fiabilité sont également rappelées. Une démarche analogue à la théorie probabiliste de la fiabilité est choisie pour développer une nouvelle théorie de la fiabilité. Nommée théorie possibiliste de la fiabilité, elle adopte une démarche possibiliste de la modélisation des variabilités et incertitudes liées aux variables de calcul ; deux définitions importantes sont d'ailleurs données dans cette étude - celle de la possibilité de défaillance et celle de l'indice possibiliste de la fiabilité. Les similitudes théoriques entre les deux théories de la fiabilité sont nombreuses et une comparaison entre les approches est présentée, en illustrant d'exemples numériques. Les formulations théoriques sont données pour des états limites linéaires et non linéaires, n'introduisant que des variables distinctes et non liées modélisées par des intervalles flous. Les développements théoriques mettent en évidence des simplifications de calcul remarquables, puisque la détermination de l'indice possibiliste de fiabilité et de la possibilité de défaillance se limite à la recherche d'un minimum scalaire. Ceci est réalisé grâce à la règle des signes, dont le principe est détaillé et illustré. Un exemple concret concernant le calcul de la durée de vie en fatigue d'assemblages soudés, est enfin proposé pour illustrer la démarche possibiliste de la fiabilité. Un soin particulier a été apporté à la modélisation des incertitudes, en utilisant le concept de la régression floue.
25

Développement d’un modèle de classification probabiliste pour la cartographie du couvert nival dans les bassins versants d’Hydro-Québec à l’aide de données de micro-ondes passives

Teasdale, Mylène 09 1900 (has links)
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée. / Every day, decisions must be made about the amount of hydroelectricity produced in Quebec. These decisions are based on the prediction of water inflow in watersheds based on hydrological models. These models take into account several factors, including the presence or absence of snow. This information is critical during the spring melt to anticipate future flows, since between 30 and 40 % of the flood volume may come from the melting of the snow cover. It is therefore necessary for forecasters to be able to monitor on a daily basis the snow cover to adjust their expectations about the melting phenomenon. Some methods to map snow on the ground are currently used at the Institut de recherche d'Hydro-Québec (IREQ), but they have some shortcomings. This master thesis's main goal is to use remote sensing passive microwave data (the vertically polarized brightness temperature gradient ratio (GTV)) with a statistical approach to produce snow maps and to quantify the classification uncertainty. In order to do this, the GTV has been used to calculate a daily probability of snow via a Gaussian mixture model using Bayesian statistics. Subsequently, these probabilities were modeled using linear regression models on logits and snow cover maps were produced. The models results were validated qualitatively and quantitatively, and their integration at Hydro-Québec was discussed.
26

Application au désaccordage des roues aubagées.Dynamique des structures tournantes à symétrie cyclique en présence d'incertitudes aléatoires

Capiez-Lernout, Evangéline 14 October 2004 (has links) (PDF)
L'objet de ce travail de recherche est de proposer de nouvelles méthodologies probabilistes pour l'analyse<br />dynamique basses fréquences du désaccordage des structures tournantes à symétrie cyclique. La classe de structure étudiée est<br />la roue aubagée. Tout d'abord, un modèle probabiliste non paramétrique récent est utilisé pour construire une approche<br />probabiliste directe, permettant d'analyser l'amplification dynamique de la réponse forcée des aubes, induite par le<br />désaccordage. En particulier, une telle approche permet de modéliser de manière cohérente le désaccordage en fréquences des<br />aubes et le désaccordage en modes des aubes. Ensuite, une approche probabiliste inverse, reposant sur une méthode<br />d'identification des paramètres de dispersion du modèle probabiliste non paramétrique, est construite afin de déterminer les<br />tolérances des aubes, conduisant à une probabilité donnée du facteur d'amplification dynamique de la réponse forcée. Enfin, ces<br />méthodologies sont mises en oeuvre numériquement sur un exemple numérique simple et sur un modèle complexe de roue aubagée.<br />Les réponses forcées désaccordées obtenues par le modèle probabiliste non paramétrique et par le modèle probabiliste<br />paramétrique classiquement utilisé pour la problématique du désaccordage sont comparées. Par ailleurs, la méthodologie du<br />problème inverse permet d'optimiser les tolérances de l'aube pour réduire l'amplification de la réponse forcée. L'analyse des<br />résultats valide la pertinence des méthodologies proposées.
27

Développement de modèles graphiques probabilistes pour analyser et remailler les maillages triangulaires 2-variétés

Vidal, Vincent 09 December 2011 (has links) (PDF)
Ce travail de thèse concerne l'analyse structurelle des maillages triangulaires surfaciques, ainsi que leur traitement en vue de l'amélioration de leur qualité (remaillage) ou de leur simplification. Dans la littérature, le repositionnement des sommets d'un maillage est soit traité de manière locale, soit de manière globale mais sans un contrôle local de l'erreur géométrique introduite, i.e. les solutions actuelles ne sont pas globales ou introduisent de l'erreur géométrique non-contrôlée. Les techniques d'approximation de maillage les plus prometteuses se basent sur une décomposition en primitives géométriques simples (plans, cylindres, sphères etc.), mais elles n'arrivent généralement pas à trouver la décomposition optimale, celle qui optimise à la fois l'erreur géométrique de l'approximation par les primitives choisies, et le nombre et le type de ces primitives simples. Pour traiter les défauts des approches de remaillage existantes, nous proposons une méthode basée sur un modèle global, à savoir une modélisation graphique probabiliste, intégrant des contraintes souples basées sur la géométrie (l'erreur de l'approximation), la qualité du maillage et le nombre de sommets du maillage. De même, pour améliorer la décomposition en primitives simples, une modélisation graphique probabiliste a été choisie. Les modèles graphiques de cette thèse sont des champs aléatoires de Markov, ces derniers permettant de trouver une configuration optimale à l'aide de la minimisation globale d'une fonction objectif. Nous avons proposé trois contributions dans cette thèse autour des maillages triangulaires 2-variétés : (i) une méthode d'extraction statistiquement robuste des arêtes caractéristiques applicable aux objets mécaniques, (ii) un algorithme de segmentation en régions approximables par des primitives géométriques simples qui est robuste à la présence de données aberrantes et au bruit dans la position des sommets, (iii) et finalement un algorithme d'optimisation de maillages qui cherche le meilleur compromis entre l'amélioration de la qualité des triangles, la qualité de la valence des sommets, le nombre de sommets et la fidélité géométrique à la surface initiale.
28

Méthodes probabilistes d'extraction de signaux cachés appliquées à des problèmes de sciences de l'atmosphère

Gazeaux, Julien 07 February 2011 (has links) (PDF)
Ce travail de thèse est consacré à la problématique de l'extraction de signaux dans le domaine des sciences de l'atmosphère. Le point commun des problèmes considérés est la notion de détection et d'estimation de signaux cachés. L'approche par la modélisation probabiliste s'est avérée y être bien adaptée. Nous nous sommes attachés à répondre à différentes questions telles que : quel type d'information s'attend-on à trouver dans un jeu de données ? Le signal supposé caché se trouve-t-il réellement dans les données d'étude ? Comment détecter l'instant d'occurrence d'un phénomène, comment le caractériser (timing, amplitude ...) ? Si un tel signal est détecté, quelle (in)certitude est associée à cette détection ? Nous répondons à ces différentes questions au travers du développement de différents modèles probabilistes de détection d'évènements cachés. Nous nous sommes intéressés à différents modèles non stationnaires, dont deux sont notamment présentés dans un cadre multivarié. Au travers de trois modèles probabilistes décrivant des signaux cachés divers (rupture de variance, signaux éruptifs et changement de moyenne), nous avons aussi développé des méthodes associées de détection. Le premier modèle est appliqué à la détection de nuages stratosphériques polaires dans des profils lidar, le deuxième à des éruptions volcaniques dans des séries chronologiques de sulfate et enfin le troisième est appliqué à la détection de la date de l'onset de la mousson Africaine dans des données géophysiques liées à la dynamique atmosphérique et aux précipitations. Les différentes méthodes mises en place font appel à une variété de techniques de modélisation probabiliste allant de la maximisation de rapport de vraisemblance associée à des tests d'hypothèses à la résolution de filtres de Kalman dans un cadre non stationnaire et non linéaire pour la décomposition de séries multivariées couplée à la détection des signaux cachés. Les difficultés techniques liées à l'extraction de signaux cachés sont analysées et les performances des différents algorithmes sont évaluées. Les résultats obtenus confirment l'intérêt des méthodes probabilistes appliquées à ces problématiques de signaux cachés en sciences de l'atmosphère.
29

Caractérisation et modélisation des propriétés à la fatigue à grand nombre de cycles des aciers cémentés à partir d'essais d'auto-échauffement sous sollicitations cycliques / Characterization and model of high cycle fatigue of carburizing steel with self-heating measurement under cyclic load

Graux, Nicolas 24 November 2017 (has links)
Le dimensionnement en fatigue à grand nombre de cycles d'un contact roulant entre des éléments ayant subi un traitement thermochimique de cémentation s'avère rapidement complexe.D'une part le traitement de cémentation apporte une hétérogénéité de propriété dans les couches supérieures de la pièce qui dépend du protocole utilisé. D'autre part le chargement de contact roulant est un chargement complexe dont le mode de défaillance en fatigue s'initie en sous-couche.Afin de limiter le temps de la caractérisation des champs de propriétés en fatigue, l'utilisation des mesures d'auto-échauffement sous sollicitation cyclique ainsi que leur interprétation par un modèle probabiliste à deux échelles est proposé. Néanmoins de par l'hétérogénéité du matériau et de par la particularité du chargement il peut s'avérer délicat d'appliquer une telle méthode d'évaluation. ll est alors proposé d'explorer ces deux difficultés de manière séparé.Pour prendre en compte l'hétérogénéité matériaux, un protocole d'analyse de courbe d'auto-échauffement basé sur une variante d'un modèle probabiliste à deux échelles et sur les mesures de taux de carbone a été proposé. Les paramètres du modèle ont été identifiés sur une classe d'acier via des mesures d'auto-échauffement réalisées sur des éprouvettes représentatives de l'hétérogénéité du au traitement de cémentation. Enfin le modèle a été validé par comparaison avec des points de fatigue expérimentaux.En ce qui concerne le chargement de contact roulant, les difficultés pour réaliser une mesure d'auto-échauffement ont mené à effectuer une première campagne de mesure sur le cas intermédiaire du contact répété. A l'aide d'un modèle analytique simple, l'évolution du champ de température a pu être reliée à un terme source de chaleur moyen dont le lien avec les mécanismes de fatigue reste à démontrer. Finalement, des prototypes de machine de contact roulant dédiés aux mesures d'auto-échauffement ont été proposés. Les mesures réalisées sur ces dernières et leur interprétation laissent à penser qu'il sera possible d'identifier des propriétés de fatigue à partir de mesure d'auto-échauffement. / The rolling contact fatigue prediction between two carburizing part quickly becomes complex.On one hand, the carburizing treatment give heterogeneous properties in surface layer depending on the treatment protocol. On the other hand, the rolling contact load is a complex load with a fatigue initiation in the sub-layer. To limit the duration of the field fatigue properties characterization, self-heating measurements under cycle load are used and their interpretation by a probabilistic two scales model is proposed. Nevertheless applying this fatigue evaluation method on heterogeneous material and for rolling contact load can be difficult. ln first approach those difficulties are split.To take into account the material heterogeneity, an analysis based on a variation of one probabilistic two scales model and on carbon rate measurement is proposed. Model parameters are identified on one steel class with self-heating measurement made on specimens representative of carburizing material heterogeneity. Finally the model is validated by comparison with experimental fatigue point.Making self-heating measurement for rolling contact load is complex. Consequently a first self-heating measurement campaign is made on the intermediary case of repeated contact. With a simple analytic model, the temperature field evolution can be linked to a mean heat source whose link with fatigue mechanism must be proven. Finally, rolling contact machine prototypes are proposed. Self-heating measurement made on those prototypes and their interpretation suggest that it will be possible to identify fatigue properties with self-heating measurement.
30

Probabilistic studies in number theory and word combinatorics : instances of dynamical analysis / Études probabilistes en théorie des nombres et combinatoire des mots : exemples d’analyse dynamique

Rotondo, Pablo 27 September 2018 (has links)
L'analyse dynamique intègre des outils propres aux systèmes dynamiques (comme l'opérateur de transfert) au cadre de la combinatoire analytique, et permet ainsi l'analyse d'un grand nombre d'algorithmes et objets qu'on peut associer naturellement à un système dynamique. Dans ce manuscrit de thèse, nous présentons, dans la perspective de l'analyse dynamique, l'étude probabiliste de plusieurs problèmes qui semblent à priori bien différents : l'analyse probabiliste de la fonction de récurrence des mots de Sturm, et l'étude probabiliste de l'algorithme du “logarithme continu”. Les mots de Sturm constituent une famille omniprésente en combinatoire des mots. Ce sont, dans un sens précis, les mots les plus simples qui ne sont pas ultimement périodiques. Les mots de Sturm ont déjà été beaucoup étudiés, notamment par Morse et Hedlund (1940) qui en ont exhibé une caractérisation fondamentale comme des codages discrets de droites à pente irrationnelle. Ce résultat relie ainsi les mots de Sturm au système dynamique d'Euclide. Les mots de Sturm n'avaient jamais été étudiés d'un point de vue probabiliste. Ici nous introduisons deux modèles probabilistes naturels (et bien complémentaires) et y analysons le comportement probabiliste (et asymptotique) de la “fonction de récurrence” ; nous quantifions sa valeur moyenne et décrivons sa distribution sous chacun de ces deux modèles : l'un est naturel du point de vue algorithmique (mais original du point de vue de l'analyse dynamique), et l'autre permet naturellement de quantifier des classes de plus mauvais cas. Nous discutons la relation entre ces deux modèles et leurs méthodes respectives, en exhibant un lien potentiel qui utilise la transformée de Mellin. Nous avons aussi considéré (et c'est un travail en cours qui vise à unifier les approches) les mots associés à deux familles particulières de pentes : les pentes irrationnelles quadratiques, et les pentes rationnelles (qui donnent lieu aux mots de Christoffel). L'algorithme du logarithme continu est introduit par Gosper dans Hakmem (1978) comme une mutation de l'algorithme classique des fractions continues. Il calcule le plus grand commun diviseur de deux nombres naturels en utilisant uniquement des shifts binaires et des soustractions. Le pire des cas a été étudié récemment par Shallit (2016), qui a donné des bornes précises pour le nombre d'étapes et a exhibé une famille d'entrées sur laquelle l'algorithme atteint cette borne. Dans cette thèse, nous étudions le nombre moyen d'étapes, tout comme d'autres paramètres importants de l'algorithme. Grâce à des méthodes d'analyse dynamique, nous exhibons des constantes mathématiques précises. Le système dynamique ressemble à première vue à celui d'Euclide, et a été étudié d'abord par Chan (2005) avec des méthodes ergodiques. Cependant, la présence des puissances de 2 dans les quotients change la nature de l'algorithme et donne une nature dyadique aux principaux paramètres de l'algorithme, qui ne peuvent donc pas être simplement caractérisés dans le monde réel.C'est pourquoi nous introduisons un nouveau système dynamique, avec une nouvelle composante dyadique, et travaillons dans ce système à deux composantes, l'une réelle, et l'autre dyadique. Grâce à ce nouveau système mixte, nous obtenons l'analyse en moyenne de l'algorithme. / Dynamical Analysis incorporates tools from dynamical systems, namely theTransfer Operator, into the framework of Analytic Combinatorics, permitting the analysis of numerous algorithms and objects naturally associated with an underlying dynamical system.This dissertation presents, in the integrated framework of Dynamical Analysis, the probabilistic analysis of seemingly distinct problems in a unified way: the probabilistic study of the recurrence function of Sturmian words, and the probabilistic study of the Continued Logarithm algorithm.Sturmian words are a fundamental family of words in Word Combinatorics. They are in a precise sense the simplest infinite words that are not eventually periodic. Sturmian words have been well studied over the years, notably by Morse and Hedlund (1940) who demonstrated that they present a notable number theoretical characterization as discrete codings of lines with irrationalslope, relating them naturally to dynamical systems, in particular the Euclidean dynamical system. These words have never been studied from a probabilistic perspective. Here, we quantify the recurrence properties of a ``random'' Sturmian word, which are dictated by the so-called ``recurrence function''; we perform a complete asymptotic probabilistic study of this function, quantifying its mean and describing its distribution under two different probabilistic models, which present different virtues: one is a naturaly choice from an algorithmic point of view (but is innovative from the point of view of dynamical analysis), while the other allows a natural quantification of the worst-case growth of the recurrence function. We discuss the relation between these two distinct models and their respective techniques, explaining also how the two seemingly different techniques employed could be linked through the use of the Mellin transform. In this dissertation we also discuss our ongoing work regarding two special families of Sturmian words: those associated with a quadratic irrational slope, and those with a rational slope (not properly Sturmian). Our work seems to show the possibility of a unified study.The Continued Logarithm Algorithm, introduced by Gosper in Hakmem (1978) as a mutation of classical continued fractions, computes the greatest common divisor of two natural numbers by performing division-like steps involving only binary shifts and substractions. Its worst-case performance was studied recently by Shallit (2016), who showed a precise upper-bound for the number of steps and gave a family of inputs attaining this bound. In this dissertation we employ dynamical analysis to study the average running time of the algorithm, giving precise mathematical constants for the asymptotics, as well as other parameters of interest. The underlying dynamical system is akin to the Euclidean one, and was first studied by Chan (around 2005) from an ergodic, but the presence of powers of 2 in the quotients ingrains into the central parameters a dyadic flavour that cannot be grasped solely by studying this system. We thus introduce a dyadic component and deal with a two-component system. With this new mixed system at hand, we then provide a complete average-case analysis of the algorithm by Dynamical Analysis.

Page generated in 0.0873 seconds