• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 89
  • 36
  • 3
  • 1
  • 1
  • Tagged with
  • 283
  • 283
  • 152
  • 135
  • 90
  • 57
  • 53
  • 51
  • 46
  • 46
  • 38
  • 37
  • 35
  • 35
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Inertial Gradient-Descent algorithms for convex minimization / Algorithmes de descente de gradient inertiels pour la minimisation convexe.

Apidopoulos, Vasileios 11 October 2019 (has links)
Cette thèse porte sur l’étude des méthodes inertielles pour résoudre les problèmes de minimisation convexe structurés. Depuis les premiers travaux de Polyak et Nesterov, ces méthodes sont devenues très populaires, grâce à leurs effets d’accélération. Dans ce travail, on étudie une famille d’algorithmes de gradient proximal inertiel de type Nesterov avec un choix spécifique de suites de sur-relaxation. Les différentes propriétés de convergence de cette famille d’algorithmes sont présentées d’une manière unifiée, en fonction du paramètre de sur-relaxation. En outre, on étudie ces propriétés, dans le cas des fonctions lisses vérifiant des hypothèses géométriques supplémentaires, comme la condition de croissance (ou condition de Łojasiewicz). On montre qu’en combinant cette condition de croissance avec une condition de planéité (flatness) sur la géométrie de la fonction minimisante, on obtient de nouveaux taux de convergence. La stratégie adoptée ici, utilise des analogies du continu vers le discret, en passant des systèmes dynamiques continus en temps à des schémas discrets. En particulier, la famille d’algorithmes inertiels qui nous intéresse, peut être identifiée comme un schéma aux différences finies d’une équation/inclusion différentielle. Cette approche donne les grandes lignes d’une façon de transposer les différents résultats et leurs démonstrations du continu au discret. Cela ouvre la voie à de nouveaux schémas inertiels possibles, issus du même système dynamique. / This Thesis focuses on the study of inertial methods for solving composite convex minimization problems. Since the early works of Polyak and Nesterov, inertial methods become very popular, thanks to their acceleration effects. Here, we study a family of Nesterov-type inertial proximalgradient algorithms with a particular over-relaxation sequence. We give a unified presentation about the different convergence properties of this family of algorithms, depending on the over-relaxation parameter. In addition we addressing this issue, in the case of a smooth function with additional geometrical structure, such as the growth (or Łojasiewicz) condition. We show that by combining growth condition and a flatness-type condition on the geometry of the minimizing function, we are able to obtain some new convergence rates. Our analysis follows a continuous-to-discrete trail, passing from continuous-on time-dynamical systems to discrete schemes. In particular the family of inertial algorithms that interest us, can be identified as a finite difference scheme of a differential equation/inclusion. This approach provides a useful guideline, which permits to transpose the different results and their proofs from the continuous system to the discrete one. This opens the way for new possible inertial schemes, derived by the same dynamical system.
112

Analyse de ressources pour les systèmes concurrents dynamiques / Resource analysis for concurrent and dynamic systems

Deharbe, Aurélien 21 September 2016 (has links)
Durant leur exécution, les systèmes concurrents manipulent diverses ressources dynamiques en nombre : fichiers, liens de communication, mémoire, etc. Les propriétés comportementales de ces systèmes sont alors étroitement liées aux manipulations de ces ressources qu'ils allouent, utilisent, puis détruisent. Nous proposons dans cette thèse une analyse quantitative, effectuée de manière statique, de ce type de ressources pour les systèmes concurrents et dynamiques. Les systèmes que l'on considère peuvent être des programmes concurrents et parallèles (le langage Piccolo développé dans le cadre de ce travail en est un exemple), ou encore la modélisation de systèmes plus généraux. Pour atteindre cette généricité, notre travail repose fortement sur les algèbres de processus, et plus particulièrement sur le pi-calcul pour lequel nous proposons une variante sémantique ainsi que plusieurs abstractions adaptées à l'observation des ressources en particulier. Le socle théorique de notre analyse est présenté sous la forme d'un nouveau type d'automates nominaux : les nu-automates. Ils permettent de raisonner spécifiquement sur les ressources dynamiques, tant pour caractériser les notions quantitatives de consommation en ressources que pour de futures analyses qualitatives. À partir de ce formalisme nous réalisons ensuite un ensemble d'algorithmes ayant pour but de mettre en oeuvre les résultats introduits sur les nu-automates. Enfin, nous proposons plusieurs expérimentations, sur la base d'exemples classiques du pi-calcul, de notre prototype d'analyse de ressources. / Concurrent activities involve undoubtedly many dynamic resources manupulations: files, communication links, memory, etc. Then, the behavioral properties of such systems are closely linked to their usage of those resources that they allocate, use, and finally destroy. In this work, we develop a quantitative static analysis of concurrent and parallel systems for this kind of resources. Systems that we consider can be concurrent and parallel programs (written for example in the Piccolo programming language which was developped during this thesis), or models descriptions of more general systems. To be generic, our work lies on process algebra, specifically pi-calculs for which we propose a variant semantics in addition to several resources abstractions strategies. The underlying theory is developped as a nominal automata framework (namely the nu-automata). They allow one to reason about dynamic resources usage to charaterize both quantitative and qualitative properties. From this formalism we establish an algorithmic framework that enforce the qualitative results defined on nu-automata. Finally, our resources abstractions and resources analysis are tested experimentally on classical pi-calculus examples using our prototype analysis tool.
113

Dynamics of learning and generalization in neural networks

Pezeshki, Mohammad 08 1900 (has links)
Les réseaux neuronaux sont remarquablement performants pour une grande variété de tâches d'apprentissage automatique et ont eu un impact profond sur la définition même de l'intelligence artificielle (IA). Cependant, malgré leur rôle important dans l'état actuel de l'IA, il est important de réaliser que nous sommes encore loin d'atteindre une intelligence de niveau humain. Une étape cruciale à l'amélioration de la performance des réseaux neuronaux consiste à faire progresser notre compréhension théorique, qui est en retard par rapport aux développements pratiques. Les dynamiques d'optimisation complexes des réseaux neuronaux, qui résultent d’interactions en haute dimension entre les nombreux paramètres du réseau, constituent un défi majeur pour l'élaboration des fondements théoriques de l'apprentissage profond. Ces dynamiques non triviales donnent lieu à des comportements empiriques déroutants qui, dans certains cas, contrastent fortement avec les prédictions théoriques. L'absence de surapprentissage dans les réseaux sur-paramétrés, leur recours à des corrélations fallacieuses et les courbes de généralisation non monotones font partie des comportements de généralisation des réseaux neuronaux qui laissent perplexe. Dans cette thèse, notre objectif est d'étudier certains de ces phénomènes perplexes en tant que pièces différentes d'un même casse-tête; un casse-tête dans lequel chaque phénomène sert de signal d'orientation pour développer une meilleure compréhension des réseaux neuronaux. Nous présentons trois articles en vue d’atteindre cet objectif; Le premier article sur multi-scale feature learning dynamics étudie les raisons qui sous-tendent la courbe de généralisation à double descente observée dans les réseaux neuronaux modernes. L'une des principales conclusions est que la double descente à travers les époques peut être attribuée à l'apprentissage de traits caractéristiques distincts à différentes échelles : Alors que les représentations faciles/rapides à apprendre sont en sur-apprentissage, les représentations plus complexes/lentes commencent à bien apprendre, ce qui entraîne une deuxième descente de l'erreur sur l’ensemble de test. Le deuxième article sur la famine de gradient identifie un phénomène fondamental qui peut entraîner une inclination à l'apprentissage dans les réseaux neuronaux. La famine de gradient se produit lorsqu'un réseau neuronal apprend à minimiser la perte en ne capturant qu'un sous-ensemble des traits caractéristiques pertinents à la classification, malgré la présence d'autres traits caractéristiques informatifs qui ne sont pas découverts. La famine de gradient a des conséquences bénéfiques et néfastes dont nous discutons. Le troisième article sur les méthodes simples de ré-équilibrage des données présente une étude empirique sur le problème de la généralisation à des groupes sous-représentés lorsque les données d'entraînement souffrent de déséquilibres importants. Ce travail porte sur les modèles qui généralisent bien en moyenne mais ne parviennent pas à généraliser à des groupes minoritaires. Notre principale conclusion est que des méthodes simples de ré-équilibrage de données permettent d'atteindre l’état de l’art pour la précision sur les groupes minoritaires, ce qui appelle à une examination plus approfondie des valeurs de référence et des méthodes de recherche sur la généralisation en-dehors du support de la distribution. Nos résultats permettent de mieux comprendre la mécanique interne des réseaux neuronaux et d'identifier les obstacles à la construction de modèles plus fiables, et ont des implications pratiques quant à l'entraînement des réseaux neuronaux. / Neural networks perform remarkably well in a wide variety of machine learning tasks and have had a profound impact on the very definition of artificial intelligence (AI). However, despite their significant role in the current state of AI, it is important to realize that we are still far from achieving human-level intelligence. A critical step in further improving neural networks is to advance our theoretical understanding which is in fact lagging behind our practical developments. A key challenge in building theoretical foundations for deep learning is the complex optimization dynamics of neural networks, resulting from the high-dimensional interactions between a large number of network parameters. Such non-trivial dynamics lead to puzzling empirical behaviors that, in some cases, appear in stark contrast with existing theoretical predictions. Lack of overfitting in over-parameterized networks, their reliance on spurious correlations, and double-descent generalization curves are among the perplexing generalization behaviors of neural networks. In this dissertation, our goal is to study some of these perplexing phenomena as different pieces of the same puzzle. A puzzle in which every phenomenon serves as a guiding signal towards developing a better understanding of neural networks. We present three articles towards this goal; The first article on multi-scale feature learning dynamics investigates the reasons underlying the double-descent generalization curve observed in modern neural networks. A central finding is that epoch-wise double descent can be attributed to distinct features being learned at different scales: as fast-learning features overfit, slower-learning features start to fit, resulting in a second descent in test error. The second article on gradient starvation identifies a fundamental phenomenon that can result in a learning proclivity in neural networks. Gradient starvation arises when a neural network learns to minimize the loss by capturing only a subset of features relevant for classification, despite the presence of other informative features which fail to be discovered. We discuss how gradient starvation can have both beneficial and adverse consequences on generalization performance. The third article on simple data balancing methods conducts an empirical study on the problem of generalization to underrepresented groups when the training data suffers from substantial imbalances. This work looks into models that generalize well on average but fail to generalize to minority groups of examples. Our key finding is that simple data balancing methods already achieve state-of-the-art accuracy on minority groups which calls for closer examination of benchmarks and methods for research in out-of-distribution generalization. These three articles take steps towards bringing insights into the inner mechanics of neural networks, identifying the obstacles in the way of building reliable models, and providing practical suggestions for training neural networks.
114

Viscosity and Microscopic Chaos: The Helfand-moment Approach (Viscosité et Chaos Microscopique: Approche par le Moment de Helfand)

Viscardy, Sébastien 21 September 2005 (has links)
<p align="justify"> Depuis les premiers développements de la physique statistique réalisés au 19ème siècle, nombreux ont été les travaux dédiés à la relation entre les processus macroscopiques em>irréversibles</em>(tels que les phénomènes de transport) et les propriétés de la dynamique <em>réversible</em> des atomes et des molécules. Depuis deux décennies, l'<em>hypothèse du chaos microscopique</em> nous en apporte une plus grande compréhension. Dans cette thèse, nous nous intéressons plus particulièrement aux propriétés de <em>viscosité</em>. <br /><br /> Dans ce travail, nous considérons des systèmes périodiques de particules en interaction. Nous proposons une nouvelle méthode de calcul de la viscosité valable pour tous systèmes périodiques, quel que soit le potentiel d'interaction considéré. Cette méthode est basée sur la formule dérivée par Helfand exprimant la viscosité en fonction de la variance du <em>moment de Helfand</em> croissant linéairement dans le temps.<br /><br /> Dans les années nonante, il a été démontré qu'un système composé de seulement deux particules présente déjà de la viscosité. Les deux disques <em>durs</em> interagissent en collisions élastiques dans un domaine carré ou hexagonal avec des conditions aux bords périodiques. Nous appliquons notre méthode de calcul des propriétés de viscosité dans les deux réseaux. Nous donnons également une explication qualitative des résultats obtenus. <br /><br /> L'étude de la relation entre les propriétés de viscosité et les grandeurs du chaos microscopique représente l'une des principales tâches de cette thèse. Dans ce contexte, le <em>formalisme du taux d'échappement</em> joue un rôle majeur. Ce formalisme établit une relation directe entre cette grandeur et la viscosité. Nous étudions numériquement cette relation et la comparaison avec les résultats obtenus par notre méthode sont excellents. <br /><br /> D'autre part, le formalisme du taux d'échappement suppose l'existence d'un <em>répulseur fractal</em>. Après avoir mis en évidence son existence, nous appliquons le formalisme proposant une formule exprimant la viscosité en termes de l'exposant de Lyapunov du système (mesurant le caractère chaotique de la dynamique)et de la dimension fractale du répulseur. L'étude numérique de cette relation dans le modèle à deux disques durs est réalisée avec succès et sont en excellent accord avec les relations obtenus précédemment. <br /><br /> Enfin, nous nous penchons sur les systèmes composés de <em>N</em> disques durs ou sphères dures. Après une étude de l'équation d'état et des propriétés chaotiques, nous avons exploré les propriétés de viscosité dans ces systèmes. Les données numériques obtenues sont en très bon accord avec les prévisions théoriques d'Enskog. D'autre part, nous avons utilisé notre méthode de calcul de la viscosité dans des systèmes de Lennard-Jones. De plus, nous avons proposé une méthode analogue pour le calcul numérique de la <em>conduction thermique</em>. Nos résultats sont en très bon accord avec ceux obtenus par la méthode de Green-Kubo. </p> <br /><br /> <p align="justify"> In this thesis, we first devote a section on the history of the concept of irreversibility; of the hydrodynamics, branch of physics in which the viscosity appears; of the kinetic theory of gases establishing relationships between the microscopic dynamics and macroscopic processes like viscosity; and, finally, the interest brought in statistical mechanics of irreversible processes by the theory of chaos, more precisely, the microscopic chaos. We propose a method based on the Helfand moment in order to calculate the viscosity properties in systems of particles with periodic boundary conditions. We apply this method to the simplest system in which viscosity already exists: the two-hard-disk model. The escape-rate formalism, establishing a direct relation between chaotic quantities of the microscopic dynamics (e.g. Lyapunov exponents, fractal dimensions, etc.), is applied in this system. The results are in excellent agreement with those obtained by our Helfand-moment method. We extend the calculation of the viscosity properties to systems with more than two hard balls. Finally, we compute viscosity as well as thermal conductivity thanks to our own method also based on the Helfand moment. </p>
115

Modélisation, analyse de performance et commande des systèmes à événements discrets

Guezzi, Abdelhak 24 September 2010 (has links) (PDF)
Ce mémoire porte sur la modélisation et l'analyse de réseaux de Petri de type Graphes d' Événements (GE) temporises et temporels, au moyen d'outils algébriques utilisée dans l'algèbre conventionnelle. La modélisation mathématique de ces systèmes dynamiques a événements discrets (SDED) conduit a une écriture polyédrale de la forme A:x b, o u x est un vecteur de dates. Nous donnons une technique algébrique permettant d'exprimer les trajectoires au plus tôt et réalisons une synthèse de la commande sous le critère classique de juste- a-temps d'un GE temporise. On utilise les concepts d'ordre composante par composante, de demi-treillis et d'inégalités monotones. Nous analysons la performance d'un graphe d'événements p-temporels, cette analyse se réduit a un problème de la programmation linéaire dont l'objectif est de calculer la valeur maximale et minimale du temps de cycle d'un graphe d'événements P-temporels. Dans une autre partie, nous constituons un modèle entrées/sorties dont le fonctionnement est proche de celui de l'équation d'état de l'automatique classique. Ensuite, en appliquant une formulation de la programmation linéaire, on calcule la trajectoire au plus tôt et au plus tard en utilisant une fonction objectif. Enfin, nous considérons le problème de la poursuite de trajectoire sur un horizon glissant.
116

Sources de la connaissance parentale des activités de temps libre de l'adolescent et ajustement psychosocial de l'adolescent : approches nomothétique et idiographique de dynamiques complexes

Perchec, Cyrille 13 July 2012 (has links) (PDF)
La connaissance parentale des activités de temps libre de l'adolescent est amplement reconnue comme un prédicteur important de l'ajustement psychosocial du jeune. Néanmoins, la question de ses sources demeure au coeur des débats. Selon certains auteurs, elle résulte des efforts parentaux de contrôle et de supervision ; pour d'autres, elle est le seul fruit de la bonne volonté de l'adolescent en matière de partage d'informations. Cette thèse se donne pour objectif d'identifier lessources de la connaissance parentale et les déterminants de l'ajustement psychosocial de l'adolescent, ainsi que d'examiner les influences bidirectionnelles qui s'exercent au sein du système dynamique mèreadolescent. Vingt-et-un participants (âgés en moyenne de 16.6 ans au début du suivi longitudinal) ont répondu, chaque semaine pendant 30semaines, à un court questionnaire en ligne qui évaluait leur perception du changement concernant la connaissance maternelle, le monitoring maternel (sollicitation d'informations, contrôle, liberté), leur gestion de l'information (libre divulgation et secret), la qualité de la relation mère-adolescent et leur ajustement psychosocial (internalisé et externalisé). Les données issues de ce protocole de mesures intensives ont été analysées à la fois à un niveau nomothétique(modélisations linéaires mixtes à l'échelle du groupe de sujets) et à un niveau idiographique (modélisationsautorégressives vectorielles à l'échelle de chaque système), dans les deux cas en se focalisant sur l'étude des effets dynamiques (influence de l'état du système au temps t-1 sur l'état du système au temps t ).Nos résultats montrent que la connaissance parentale dépend à la fois de la libre divulgation par le jeune et de la sollicitation maternelle. La qualité de la relation joue également un rôle essentiel, notamment en tant que variable modératrice des sources de la connaissance parentale. Sur le plan de l'ajustement psychosocial de l'adolescent, nos résultats indiquent que les pratiques parentales de monitoring ne peuvent pas être considérées comme étant favorables ou délétères en soi. Au contraire, les pratiques parentales et la gestion de l'information par l'adolescent ont des effetsdifférenciés selon le contexte dans lequel elles prennent place. Enfin, dans une approche idiographique, nous mettons en évidence que les influences réciproques au sein du système dynamique mère-adolescent s'opèrent sous la forme de processus de feedback positif.
117

Test à partir de spécifications axiomatiques

Longuet, Delphine 12 October 2007 (has links) (PDF)
Le test est l'une des méthodes les plus utilisées pour la validation du logiciel. L'activité de test consiste à exécuter le logiciel sur un sous-ensemble de ses entrées possibles de manière à déceler d'éventuelles erreurs. La présence d'erreurs est établie par confrontation du comportement du logiciel avec un objet de référence. Le processus de test est généralement décomposé en trois phases : la sélection du sous-ensemble des entrées sur lequel le logiciel sera exécuté, la soumission de ces entrées au logiciel en collectant les sorties (les réponses du logiciel) et la décision de l'adéquation de ces sorties avec les sorties attendues.<br /><br />La sélection des données à soumettre au logiciel peut être effectuée selon différentes approches. Lorsque la phase de sélection d'un jeu de tests est opérée à partir d'un objet de référence décrivant plus ou moins formellement le comportement du logiciel, sans connaissance de l'implantation elle-même, on parle de test « boîte noire ». Une des approches de test boîte noire pour laquelle un cadre formel a été proposé est celle qui utilise comme objet de référence une spécification logique du système sous test.<br /><br />Le cadre général de test à partir de spécifications logiques (ou axiomatiques) pose les conditions et les hypothèses sous lesquelles il est possible de tester un système. La première hypothèse consiste à considérer le système sous test comme un modèle formel implantant les opérations dont le comportement est décrit par la spécification. La seconde hypothèse a trait à l'observabilité du système sous test. Il faut fixer la forme des formules qui peuvent être interprétées par le système, c'est-à-dire qui peuvent être des tests. On se restreint généralement au moins aux formules qui ne contiennent pas de variables. Une fois ces hypothèses de test posées, on dispose d'un jeu de tests initial, celui de toutes les formules observables qui sont des conséquences logiques de la spécification. <br /><br />Le premier résultat à établir est l'exhaustivité de cet ensemble, c'est-à-dire sa capacité à prouver la correction du système s'il pouvait être soumis dans son intégralité. Le jeu de tests exhaustif étant le plus souvent infini, une phase de sélection intervient afin de choisir un jeu de tests de taille finie et raisonnable à soumettre au système. Plusieurs approches sont possibles. L'approche suivie dans ma thèse, dite par partition, consiste a diviser le jeu de tests exhaustif initial en sous-jeux de tests, selon un certain critère de sélection relatif à une fonctionnalité ou à une caractéristique du système que l'on veut tester. Une fois cette partition suffisamment fine, il suffit de choisir un cas de test dans chaque sous-jeu de test obtenu en appliquant l'hypothèse d'uniformité (tous les cas de test d'un jeu de test sont équivalents pour faire échouer le système). Le deuxième résultat à établir est que la division du jeu de tests initial n'ajoute pas (correction de la procédure) et ne fait pas perdre (complétude) de cas de test.<br /><br />Dans le cadre des spécifications algébriques, une des méthodes de partition du jeu de tests exhaustif qui a été très étudiée, appelée dépliage des axiomes, consiste à procéder à une analyse par cas de la spécification. Jusqu'à présent, cette méthode s'appuyait sur des spécifications équationnelles dont les axiomes avaient la caractéristique d'être conditionnels positifs (une conjonction d'équations implique une équation).<br /><br />Le travail de ma thèse a eu pour but d'étendre et d'adapter ce cadre de sélection de tests à des systèmes dynamiques spécifiés dans un formalisme axiomatique, la logique modale du premier ordre. La première étape a consisté à généraliser la méthode de sélection définie pour des spécifications équationnelles conditionnelles positives aux spécifications du premier ordre. Ce cadre de test a ensuite été d'adapté à des spécifications modales du premier ordre. Le premier formalisme de spécification considéré est une extension modale de la logique conditionnelle positive pour laquelle le cadre de test a été initialement défini. Une fois le cadre de test adapté aux spécifications modales conditionnelles positives, la généralisation aux spécifications modales du premier ordre a pu être effectuée. <br /><br />Dans chacun de ces formalismes nous avons effectué deux tâches. Nous avons d'une part étudié les conditions nécessaires à imposer à la spécification et au système sous test pour obtenir l'exhaustivité du jeu de tests initial. Nous avons d'autre part adapté et étendu la procédure de sélection par dépliage des axiomes à ces formalismes et montré sa correction et sa complétude. Dans les deux cadres généraux des spécifications du premier ordre et des spécifications modales du premier ordre, nous avons montré que les conditions nécessaires à l'exhausitivité du jeu de test visé étaient mineures car faciles à assurer dans la pratique, ce qui assure une généralisation satisfaisante de la sélection dans ce cadre.
118

Auto-organisation, écho et trafic microfluidique

Jeanneret, Raphael 15 January 2014 (has links) (PDF)
Ce travail de thèse expérimental porte principalement sur deux études concernant la dynamique collective de particules dans des écoulements à très faible nombre de Reynolds et dans des environnements confinés. Dans ces systèmes les particules interagissent via des couplages hydrodynamiques à longue portée d'origine géométrique ou topologique. Le thème général faisant le pont entre ces deux études est la notion de réversibilité hydrodynamique. De part les méthodes mises en oeuvre pour aborder ces problèmes, cette thèse se place à l'interface de trois grands domaines de la physique: l'hydrodynamique, la matière molle et les systèmes dynamiques. Le premier système est un ensemble de gouttes micrométriques confinées dans une cellule de Hele-Shaw et soumis à un écoulement sinusoïdal afin de sonder la nature réversible de la dynamique. Cette expérience d'écho caractérisée par une dynamique microscopique complètement réversible met en évidence une transition de phase du premier ordre entre un état macroscopique réversible en dessous d'une certaine amplitude d'oscillation et un état macroscopique irréversible au dessus de cette amplitude. De plus, il est montré que cette transition n'est pas seulement dynamique mais également structurale. La seconde étude correspond quant à elle à une expérience de trafic dans un réseau de boucles microfluidiques où la dynamique asymptotique du système à 3 corps est étudiée de manière extensive. En combinant des études numériques, analytiques et expérimentales, il est montré que cette dynamique de trafic est Hamiltonienne et réversible.
119

Influence des conditions de bord dans les réseaux d'automates booléens à seuil et application à la biologie

Sené, Sylvain 15 October 2008 (has links) (PDF)
Dans cette thèse, nous nous intéressons à l'influence des conditions de bords dans les réseaux d'automates booléens à seuil, qui sont des objets mathématiques discrets classiquement utilisés pour modéliser les systèmes de régulation biologiques. L'objectif est de mettre en évidence que les éléments déterminant les bords de ces réseaux, que l'on peut rapprocher dans le contexte biologique de potentiels électriques, d'hormones ou encore de micro-ARN, sont des composants d'un système dont l'effet peut être primordial sur le comportement de ce dernier. Cet objectif est atteint en suivant deux axes distincts. Le premier consiste à montrer les liens entre l'influence des conditions de bord et les transitions de phase émergeant du comportement asymptotique de réseaux théoriques, à savoir des réseaux d'automates cellulaires. Le deuxième axe se focalise sur les systèmes biologiques réels et développe l'idée selon laquelle les conditions de bord dans ces systèmes ont une influence particulière sur les bassins d'attraction des systèmes dynamiques par lesquels ces systèmes sont modélisés.
120

Langues de Arnold de la famille standard double Explosion de cycle dans la famille quadratique

Dezotti, Alexandre 07 June 2011 (has links) (PDF)
La connexité des langues de Arnold de la famille standard double est démontrée par déformation quasiconforme. Je donne un équivalent pour les coefficients du développement en série de Laurent de l'inverse des coordonnées de Böttcher pour les polynômes quadratiques dont le point critique s'échappe. Une généralisation d'une inégalité qui sert à déterminer un domaine á l'intérieur duquel il n'y a pas de valeur critique de la fonction multiplicateur est obtenue en utilisant les différentielles quadratiques. Les travaux de Lévine sur une condition de non locale connexité de Julia infiniment satellite renormalisables sont repris, suivis de l'étude d'un modèle géométrique des renormalisations satellites générant un modèle topologique hypothétique d'un compact invariant dans l'ensemble de Julia de ces polynômes.

Page generated in 0.0934 seconds