• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 41
  • 9
  • Tagged with
  • 118
  • 52
  • 46
  • 34
  • 29
  • 29
  • 25
  • 21
  • 19
  • 19
  • 18
  • 17
  • 17
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Algorithmes distribués sur des anneaux paramétrés - Preuves de convergence probabiliste et déterministe

Duflot, Marie 15 September 2003 (has links) (PDF)
Cette thèse se situe dans le cadre de la vérification de systèmes distribués. Plus précisément, nous nous intéressons aux méthodes de preuve de convergence d'algorithmes distribués s'exécutant sur des réseaux en anneau de taille paramétrée. Cette étude distingue de plus le cas des algorithmes probabilistes de celui des algorithmes déterministes.
22

Evaluation fiabiliste de l'impact des facteurs climatiques sur la corrosion des poutres en béton armé : application au cas libanais

Kabbara, Jinane 05 November 2010 (has links) (PDF)
Les structures en béton armé exposées à des environnements agressifs subissent des dégradations qui affectent leur intégrité. La corrosion des armatures est l'un des mécanismes de dégradation les plus répandus et les coûteux en terme de maintenance et de réparation. Ce processus est dû à la pénétration des agents agressifs dans le béton, notamment les ions chlorures et le gaz carbonique. Les chlorures induisent une corrosion localisée ou par piqûre, alors que le gaz carbonique engendre une corrosion généralisée ou uniforme. Le déclenchement et la propagation de la corrosion dépendent de plusieurs facteurs liés aux matériaux, aux chargements, à la géométrie et à l'environnement. Ces facteurs présentent de grandes incertitudes qui doivent être prise en comptes à travers une approche probabiliste. Dans ce travail de recherche, nous nous intéressons au mécanisme de corrosion en général. Un intérêt particulier est porté à la prise en compte de l'impact des facteurs climatiques sur ce processus, notamment dans le contexte libanais. Ainsi, nous proposons une modélisation physique de la corrosion des aciers dans les poutres en béton armé qui se déroule en deux phases : - une phase d'initiation durant laquelle les agents agressifs (chlorures et gaz carbonique) pénètrent dans le béton et atteignent des concentrations critiques provoquant la dépassivation de l'acier ; - une phase de propagation durant laquelle il y a corrosion active des aciers et diminution de la résistance de la poutre jusqu'à la défaillance. Les facteurs présentant des incertitudes sont traités comme des variables aléatoires. Pour les modéliser, nous avons étudié, pour les différentes variables aléatoires, de nombreux modèles probabilistes proposés dans la littérature. Nous avons vérifié leur compatibilité vis-à-vis de notre problématique et la possibilité d'assurer les données nécessaires à leur bonne utilisation (notamment la cohérence entre les hypothèses). Ensuite, nous avons retenu les modèles probabilistes les plus adaptés à notre cas. Par ailleurs, l'application des principes fiabilistes nous permet d'évaluer la fiabilité des poutres sujettes à la corrosion vis-à-vis des deux états-limites (ELU et ELS). En effet, la perte de la section d'acier due à la corrosion induit d'une part, une diminution de la capacité portante de la poutre, et d'autre part une augmentation de la contrainte au niveau du béton tendu (provoquant un accroissement des ouvertures des fissures). Ainsi, pour l'état limite de service, la marge de sûreté s'annule lorsque l'ouverture des fissures dépasse la valeur limite préconisée par l'Eurocode 2. Quant à l'état limite ultime, la fonction d'état limite est la résistance en flexion : la défaillance a lieu lorsque le moment résistant équivaut au moment sollicitant. Le calcul fiabiliste est effectué au moyen de simulations de Monte-Carlo. Finalement, nous avons réalisé plusieurs applications aux modèles de corrosions proposées dans ce travail. La première application porte sur l'analyse des sensibilités des modèles de corrosion aux différents paramètres. L'effet des moyennes des paramètres aléatoires ainsi que leurs variabilités sur la réponse du modèle est examiné. Une attention particulière est accordée à l'impact des facteurs climatiques. Ainsi une application du modèle de corrosion induite par les chlorures avec des données réelles de température et d'humidité relatives à trois villes côtières ayant des caractéristiques climatiques différentes est présentée. Ensuite une étude comparative de l'effet du choix des diamètres des armatures et des épaisseurs des enrobages sur la fiabilité à l'état limite ultime et à l'état limite de service est effectuée. Les résultats obtenus ont permis de mettre en évidence l'aspect agressif des facteurs climatiques : un climat chaud et humide est très agressif vis-à-vis de la corrosion induite par les chlorures alors qu'un climat à humidité relative variable favorise la corrosion par carbonatation. Ainsi, la chaleur et l'humidité relative se révèlent être des facteurs qui agressent la structure dans un environnement corrosif avec un effet déterminant de l'humidité relative sur la phase d'initiation et un impact important de la température sur la phase de propagation. Cette constatation nous a poussé à recommander, entre autres, l'intégration des facteurs climatiques dans les codes de conception comme sources d'agression dans la définition des classes d'exposition des ouvrages. Les résultats obtenus ont montré aussi l'effet contradictoire du diamètre des armatures et de l'épaisseur de l'enrobage sur la fiabilité des poutres vis-à-vis de l'ELS et de l'ELU. Cette combinaison diamètre des armatures/épaisseur de l'enrobage doit être optimisée en sorte d'assurer les recommandations de l'Eurocode 2 à l'ELS et à l'ELU. L'évaluation de l'effet du climat libanais sur la corrosion des aciers dans le béton est réalisée. Les applications sont effectuées avec des données climatiques réelles de trois villes du Liban permettant de représenter les différents aspects du climat libanais. Les résultats ont montré : - l'agressivité du climat de la zone côtière libanaise vis-à-vis de la corrosion induite par les chlorures ; - l'agressivité du climat de la zone interne du Liban vis-à-vis de la corrosion par carbonatation.
23

Recalage d'images médicales par inférence statistique

Roche, Alexis 02 February 2001 (has links) (PDF)
Le recalage est un problème classique en vision par ordinateur qui intervient notamment dans de nombreuses tâches d'analyse des images médicales. Le principe général d'un algorithme de recalage est d'optimiser un critère mesurant la correspondance entre deux images sur un espace prédéterminé de transformations spatiales. Le choix du critère, appelé mesure de similarité, conditionne de façon déterminante la précision et la robustesse de l'algorithme. Il existe aujourd'hui un dictionnaire de mesures de similarité dans lequel le concepteur d'un programme choisit, en se fiant le plus souvent à son intuition et à son expérience, celle qui est la mieux adaptée à son problème particulier. Afin de rendre plus objectif un tel choix, cette thèse propose une méthodologie pour construire des mesures de similarité en fonction de modèles probabilistes de formation d'images. En considérant d'abord un modèle simple de liaison fonctionnelle entre les intensités des images, nous définissons une nouvelle classe de mesures de similarité liée à la notion de rapport de corrélation. Nous montrons expérimentalement que cette classe est adaptée au recalage rigide multimodal d'images acquises par résonance magnétique (IRM), scanner et scintigraphie. La méthode du rapport de corrélation est ensuite étendue au cas du recalage multimodal non-rigide au prix de quelques adaptations pratiques. Enfin, nous formulons le recalage d'images comme un problème général d'estimation par maximum de vraisemblance, ce qui nous permet de prendre en compte des modèles de dépendance inter-images plus complexes que des modèles fonctionnels. Cette approche est appliquée au recalage rigide d'images ultrasonores 3D et IRM.
24

XML probabiliste: Un modèle de données pour le Web

Senellart, Pierre 13 June 2012 (has links) (PDF)
Les données extraites du Web sont chargées d'incertitude: elles peuvent contenir des contradictions ou résulter de processus par nature incertains comme l'intégration de données ou l'extraction automatique d'informations. Dans cette thèse d'habilitation, je présente les modèles de données XML probabilistes, la manière dont ils peuvent être utilisés pour représenter les données du Web, et la complexité de différentes opérations de gestion de données sur ces modèles. Je donne un état de l'art exhaustif du domaine, en insistant sur mes propres contributions. Je termine par un résumé de mes futurs projets de recherche.
25

Modèles probabilistes indexés par les arbres : application à la détection de la peau dans les images couleur

El Fkihi, Sanaa 20 December 2008 (has links) (PDF)
La détection de la peau constitue une phase primordiale de prétraitement dans plusieurs applications telles que la vidéo surveillance et le filtrage d'Internet. Toutefois, c'est une tâche difficile à accomplir étant donné la diversité des couleurs de la peau et la variété des conditions de prise de vue. Dans l'objectif de surmonter ces dernières contraintes, nos travaux de thèse consistent à définir un modèle robuste de la distribution de la peau capable de différencier les pixels de peau de ceux de non-peau dans des images variées. Notre modélisation est fondée sur le concept des modèles graphiques probabilistes connus par leur intuitivité et efficacité pour la représentation d'une distribution jointe de probabilités sur un ensemble de variables aléatoires, plus particulièrement les arbres indexant des probabilités. En vue de définir le modèle de l'arbre idéal indexant la distribution de la peau, nous avons proposé trois approches différentes : le modèle d'arbre de dépendances à b probabilité peau et non peau, le modèle de mélange des arbres et celui de leur combinaison. Le modèle d'arbre de dépendances à bi-probabilité peau et non peau proposé, exploite les propriétés d'interclasse et d'intra classe entre les deux classes peau et non peau ainsi que les interactions entre un pixel et ses voisins que nous traduisons par un arbre de dépendance optimal. L'arbre élaboré est un arbre idéal unique indexant conjointement les distributions de probabilités peau et non peau. Le modèle de mélange des arbres est proposé pour remédier à la multiplicité des arbres de dépendances optimaux possibles sur un graphe. L'entité du mélange proposée concerne aussi bien les structures des arbres considérés que les probabilités portées par ces dernières. Ainsi, l'arbre idéal indexant probabilité peau est l'arbre résultant du mélange portant la probabilité du mélange. Quant au modèle de combinaison des arbres élaboré, il constitue une approche alternative au mélange proposé visant l'exploitation des différent informations emmagasinées dans les différents arbres de dépendances optimaux possibles. Un fondement théorique est présenté dans cette thèse pour déterminer la meilleure approche à adopter, le mélange des arbres ou la combinaison des arbres, et ce en fonction des arbres de dépendances optimaL considérés. Les expérimentations réalisées sur la base Compaq montrent l'efficacité et la faisabilité de nos approches. En outre, des études comparatives entre n< modèles de peau et l'existant prouvent qu'en termes de qualité et de quantité des résultats obtenus, les modèles proposés permettent de discriminer les pixels de peau et ceux de non peau dans des images couleurs variées.
26

Formation, propagation et coalescence dans un réseau de fissures en fatigue thermique

Seyedi, Seyed Mohammad 16 February 2004 (has links) (PDF)
Des réseaux de fissures dues à de la fatigue thermique à grand nombre de cycles (faïençage thermique) ont été mis en évidence dans certains composants de centrales nucléaires. L'estimation de durée de vie des composants est d'une importance vitale pour définir des programmes de maintenance. Une solution analytique de calcul du facteur d'intensité des contraintes a été développée pour étudier l'effet du chargement thermomécanique. Vu la complexité du chargement thermique et le phénomène de propagation dans un réseau de fissures, un outil de simulation numérique a été mis au point. Il s'agit d'un outil de remaillage automatique et une stratégie de propagation dans un réseau basée sur l'incrément de longueur de fissures. Un modèle probabiliste qui prend en compte l'hétérogénéité du matériau lors de la formation, propagation et coalescence dans un réseau est ensuite présenté. Ce modèle peut être implanté dans un code de calcul par éléments finis comme un modèle d'endommagement.
27

Modèles probabilistes pour les fréquences de mots et la recherche d'information

Clinchant, Stephane 05 October 2011 (has links) (PDF)
Nous nous intéressons à la fois à la modélisation des fréquences des mots dans les collections textuelles et aux modèles probabilistes de recherche d'information (RI). Concernant les modèles statistiques de fréquences de mots, nous portons notre attention sur l'étude du phénomène de rafale (burstiness). Nous établissons une propriété sur les distributions de probabilité caractérisant leur capacité à modéliser ce phénomène et nous étudions ensuite les distributions Beta Negative Binomial et Log-Logistique pour la modélisation des fréquences de mots. Nous portons ensuite notre attention sur les modèles probabilistes de RI et leur propriétés fondamentales. Nous pouvons montrer que les modèles classiques ne reposent pas sur des lois de probabilité en rafale, même si des propriétés fondamentales comme la concavité des modèles permettent implicitement de le prendre en compte. Nous introduisons ensuite une nouvelle famille de modèles probabiliste pour la recherche d'information, fondé sur la notion d'information de Shannon et qui permet d'établir un lien conséquent entre les propriétés importantes des modèles de RI et le phénomène de rafale. Enfin, nous étudions empiriquement et théoriquement les modèles de rétro-pertinence. Nous proposons un cadre théorique qui permet ainsi d'expliquer leurs caractéristiques empiriques et leur performances. Ceci permet entre autres de mettre en avant les propriétés importantes des modèles de retro-pertinence et de montrer que certains modèles de référence sont déficients.
28

Modèles probabilistes pour les fréquences de mots et la recherche d'information / Probabilistic Models of Document Collections

Clinchant, Stéphane 05 October 2011 (has links)
Nous nous intéressons à la fois à la modélisation des fréquences des mots dans les collections textuelles et aux modèles probabilistes de recherche d'information (RI). Concernant les modèles statistiques de fréquences de mots, nous portons notre attention sur l'étude du phénomène de rafale (burstiness). Nous établissons une propriété sur les distributions de probabilité caractérisant leur capacité à modéliser ce phénomène et nous étudions ensuite les distributions Beta Negative Binomial et Log-Logistique pour la modélisation des fréquences de mots. Nous portons ensuite notre attention sur les modèles probabilistes de RI et leur propriétés fondamentales. Nous pouvons montrer que les modèles classiques ne reposent pas sur des lois de probabilité en rafale, même si des propriétés fondamentales comme la concavité des modèles permettent implicitement de le prendre en compte. Nous introduisons ensuite une nouvelle famille de modèles probabiliste pour la recherche d'information, fondé sur la notion d'information de Shannon et qui permet d'établir un lien conséquent entre les propriétés importantes des modèles de RI et le phénomène de rafale. Enfin, nous étudions empiriquement et théoriquement les modèles de rétro-pertinence. Nous proposons un cadre théorique qui permet ainsi d'expliquer leurs caractéristiques empiriques et leur performances. Ceci permet entre autres de mettre en avant les propriétés importantes des modèles de retro-pertinence et de montrer que certains modèles de référence sont déficients. / The present study deals with word frequencies distributions and their relation to probabilistic Information Retrieval (IR) models. We examine the burstiness phenomenon of word frequencies in textual collections. We propose to model this phenomenon as a property of probability distributions and we study the Beta Negative Binomial and Log-Logistic distributions to model word frequencies. We then focus on probabilistic IR models and their fundamental properties. Our analysis reveals that probability distributions underlying most state-of-the-art models do not take this phenomenon into account , even if fundamental properties of IR models such as concavity enable implicitly to take it into account. We then introduce a novel family of probabilistic IR model, based on Shannon information. These new models bridge the gap between significant properties of IR models and the burstiness phenomenon of word frequencies. Lastly, we study empirically and theoretically pseudo relevance feedback models. We propose a theoretical framework which explain well the empirical behaviour and performance of pseudo relevance feedback models. Overall, this highlights interesting properties for pseudo relevance feedback and shows that some state-of-the-art model are inadequate.
29

Prévisibilité des ressources en eau à l'échelle saisonnière en France / Predictability of water resources at seasonal time scale over France

Singla, Stéphanie 13 November 2012 (has links)
Bien que la prévision saisonnière soit opérationnelle depuis quelques années, son application à l’hydrologie reste encore aujourd’hui moins développée. La prévision saisonnière hydrologique peut pourtant se révéler être un outil potentiellement utile pour prévoir quelques mois à l’avance les caractéristiques hydrologiques, comme les conditions d’humidité des sols ou les débits des rivières. L’objectif de cette thèse est d’évaluer le potentiel de la chaîne hydrométéorologique Hydro-SF pour prévoir les débits et l’humidité des sols à l’échelle de la saison en France métropolitaine pour la gestion des ressources en eau, et plus particulièrement l’anticipation de sécheresses et des basses eaux. Pour cela, dans un premier temps, les différentes sources de prévisibilité du système hydrologique, ainsi que l’apport de la prévision saisonnière par rapport à une prévision climatologique, sont évaluées sur la période de 1960 à 2005 au printemps (trimestre Mars-Avril-Mai). Ces résultats, qui font l’objet d’un article publié, montrent alors qu’une part importante de la prévisibilité du système hydrologique provient : de la neige pour les bassins de montagne, de la nappe souterraine modélisée dans le bassin de la Seine, et du forçage atmosphérique pour les plaines en France. De plus, plusieurs forçages du modèle de climat ARPEGE sont comparés, et l’apport de la prévision saisonnière par rapport à la climatologie est constaté sur le Nord-Est de la France. Ensuite, compte-tenu de l’importance des forçages atmosphériques dans les résultats obtenus précédemment en zone de plaine, un travail spécifique sur la descente d’échelle des prévisions saisonnières météorologiques est réalisé. Les températures et les précipitations issues des prévisions saisonnières sont désagrégées grâce à une méthode statistique complexe : la classification par type de temps et analogues avec DSCLIM. Cette désagrégation est ainsi comparée à la méthode implémentée jusqu’à présente, basée sur une simple interpolation spatiale et des calculs d’anomalies standardisées. Ce travail sur la descente d’échelle s’effectue toujours sur la période du printemps, et permet ainsi de constater que son apport par rapport à la descente d’échelle simple auparavant utilisée reste mitigé autant pour les paramètres de surface du forçage atmosphérique que pour les variables hydrologiques. Quelques pistes d’études plus poussées sur la descente d’échelle des prévisions saisonnières sont ainsi proposées pour l’avenir. Enfin, des prévisions saisonnières hydrologiques sont réalisées pour la saison de l’été (Juin-Juillet-Août), période où ont lieu les plus fortes tensions sur les différents usages de l’eau du fait des faibles débits et des sécheresses. Ce thème est alors documenté à l’aide de quatre expériences de prévisions avec des dates d’initialisations différentes (de Février à Mai) pour évaluer la chaîne Hydro-SF sur la période de débits estivaux en France, mais aussi pour connaître la date optimale d’initialisation des prévisions et permettre la meilleure anticipation d’éventuelles sécheresses. Les résultats sont intéressants puisqu’ils montrent des scores significatifs à partir des prévisions initialisées au mois d’Avril, surtout pour les bassins en aval des montagnes dont la prévisibilité dépend de la couverture neigeuse, et le bassin de la Seine où l’influence de la nappe modélisée sur les débits des rivières augmente par rapport au printemps. Comme pour le printemps, l’apport de la prévision saisonnière pour le système hydrologique est évalué et montre une valeur ajoutée sur le Sud de la France. / Although seasonal meteorological forecasts are operational for several years, their application to hydrology remain less developed. However, seasonal hydrological forecasts can be a useful tool to forecast a few months in advance hydrological characteristics like soil moisture or river flow. The aim of this thesis is thus to evaluate the potential of the Hydro-SF hydrometeorological forecasting suite to forecast river flow and soil moisture at seasonal time scale over France, for the water resources management, especially for the anticipation of droughts and low flows. To address this goal, the different sources of predictability of the hydrologic system, and the added value of seasonal forecasts compared with climatologic forecasts, are evaluated for the spring season (March-April-May) from 1960 to 2005. The results, already published, show that an important part of the predictability comes from : the snow cover over high mountains, the large and complex aquifer simulated for the Seine catchment, and the atmospheric forcing over most plains. Moreover, differents atmospheric forcings from the climate model ARPEGE are confronted, and the added value of seasonal forecasts compared with climatologic forecasts is observed over the North-East of France. Secondly, as the importance of atmospheric forcing over most plains is seen with the precedent results, a specific work is done on downscaling. The meteorological surface parameters from seasonal forecasts are disaggregated using a complex statistic method : weather types classification and analogs with DSCLIM. This disaggregation is compared with the method implemented before with a simple spatial interpolation and calculation of standardized anomalies. This work is always realized for the spring season, and bring out that the contribution of DSCLIM compared with the simple method used before, is ambivalent for atmospheric forcing and hydrological variables. Several others investigations about downscaling of seasonal forecast are thus needed, and suggestions are done for future work. Finally, in the context of water resources management, seasonal hydrological forecasts are done for summer (June-July-August), when water uses conflicts are at a maximum because of low flows and droughts. This topic is addressed using four forecasting experiments with differents initializations (from February to May), in order to assess the potential of the Hydro-SF suite over the period of summer low flow over France, but also in order to determine the optimal initialization forecast for the best anticipation of possible droughts. Results are interesting as they show significant scores with an initialization of seasonal forecasts from April, especially for : catchment located downstream from mountains where the hydrological predictability depends on snow cover, and the Seine catchment where the importance of the contribution of the groundwater for river flow increase in summer compared with spring. In the same way that for spring, the added value of seasonal forecasting for the hydrological system is evaluated and located, for summer, in the South of France.
30

Qualitative analysis of synchronizing probabilistic systems / Analyse qualitative des systèmes probabilistes synchronisants

Shirmohammadi, Mahsa 10 December 2014 (has links)
Les Markov Decision Process (MDP) sont des systèmes finis probabilistes avec à la fois des choix aléatoires et des stratégies, et sont ainsi reconnus comme de puissants outils pour modéliser les interactions entre un contrôleur et les réponses aléatoires de l'environment. Mathématiquement, un MDP peut être vu comme un jeu stochastique à un joueur et demi où le contrôleur choisit à chaque tour une action et l'environment répond en choisissant un successeur selon une distribution de probabilités fixée.Il existe deux incomparables représentations du comportement d'un MDP une fois les choix de la stratégie fixés.Dans la représentation classique, un MDP est un générateur de séquences d'états, appelées state-outcome; les conditions gagnantes du joueur sont ainsi exprimées comme des ensembles de séquences désirables d'états qui sont visités pendant le jeu, e.g. les conditions de Borel telles que l'accessibilité. La complexité des problèmes de décision ainsi que la capacité mémoire requise des stratégies gagnantes pour les conditions dites state-outcome ont été déjà fortement étudiées.Depuis peu, les MDPs sont également considérés comme des générateurs de séquences de distributions de probabilités sur les états, appelées distribution-outcome. Nous introduisons des conditions de synchronisation sur les distributions-outcome, qui intuitivement demandent à ce que la masse de probabilité s'accumule dans un (ensemble d') état, potentiellement de façon asymptotique.Une distribution de probabilités est p-synchrone si la masse de probabilité est d'au moins p dans un état; et la séquence de distributions de probabilités est toujours, éventuellement, faiblement, ou fortement p-synchrone si, respectivement toutes, certaines, infiniment plusieurs ou toutes sauf un nombre fini de distributions dans la séquence sont p-synchrones.Pour chaque type de synchronisation, un MDP peut être(i) assurément gagnant si il existe une stratégie qui génère une séquence 1-synchrone;(ii) presque-assurément gagnant si il existe une stratégie qui génère une séquence (1-epsilon)-synchrone et cela pour tout epsilon strictement positif;(iii) asymptotiquement gagnant si pour tout epsilon strictement positif, il existe une stratégie produisant une séquence (1-epsilon)-synchrone.Nous considérons le problème consistant à décider si un MDP est gagnant, pour chaque type de synchronisation et chaque mode gagnant: nous établissons les limites supérieures et inférieures de la complexité de ces problèmes ainsi que la capacité mémoire requise pour une stratégie gagnante optimale.En outre, nous étudions les problèmes de synchronisation pour les automates probabilistes (PAs) qui sont en fait des instances de MDP où les contrôleurs sont restreint à utiliser uniquement des stratégies-mots; c'est à dire qu'ils n'ont pas la possibilité d'observer l'historique de l'exécution du système et ne peuvent connaitre que le nombre de choix effectués jusque là. Les langages synchrones d'un PA sont donc l'ensemble des stratégies-mots synchrones: nous établissons la complexité des problèmes des langages synchrones vides et universels pour chaque mode gagnant.Nous répercutons nos résultats obtenus pour les problèmes de synchronisation sur les MDPs et PAs aux jeux tour à tour à deux joueurs ainsi qu'aux automates finis non-déterministes. En plus de nos résultats principaux, nous établissons de nouveaux résultats de complexité sur les automates finis alternants avec des alphabets à une lettre. Enfin, nous étudions plusieurs variations de synchronisation sur deux instances de systèmes infinis que sont les automates temporisés et pondérés. / Markov decision processes (MDPs) are finite-state probabilistic systems with bothstrategic and random choices, hence well-established to model the interactions between a controller and its randomly responding environment.An MDP can be mathematically viewed as a one and half player stochastic game played in rounds when the controller chooses an action,and the environment chooses a successor according to a fixedprobability distribution.There are two incomparable views on the behavior of an MDP, when thestrategic choices are fixed. In the traditional view, an MDP is a generator of sequence of states, called the state-outcome; the winning condition of the player is thus expressed as a set of desired sequences of states that are visited during the game, e.g. Borel condition such as reachability.The computational complexity of related decision problems and memory requirement of winning strategies for the state-outcome conditions are well-studied.Recently, MDPs have been viewed as generators of sequences of probability distributions over states, calledthe distribution-outcome. We introduce synchronizing conditions defined on distribution-outcomes,which intuitively requires that the probability mass accumulates insome (group of) state(s), possibly in limit.A probability distribution is p-synchronizing if the probabilitymass is at least p in some state, anda sequence of probability distributions is always, eventually,weakly, or strongly p-synchronizing if respectively all, some, infinitely many, or all but finitely many distributions in the sequence are p-synchronizing.For each synchronizing mode, an MDP can be (i) sure winning if there is a strategy that produces a 1-synchronizing sequence; (ii) almost-sure winning if there is a strategy that produces a sequence that is, for all epsilon > 0, a (1-epsilon)-synchronizing sequence; (iii) limit-sure winning if for all epsilon > 0, there is a strategy that produces a (1-epsilon)-synchronizing sequence.We consider the problem of deciding whether an MDP is winning, for each synchronizing and winning mode: we establish matching upper and lower complexity bounds of the problems, as well as the memory requirementfor optimal winning strategies.As a further contribution, we study synchronization in probabilistic automata (PAs), that are kind of MDPs where controllers are restricted to use only word-strategies; i.e. no ability to observe the history of the system execution, but the number of choices made so far.The synchronizing languages of a PA is then the set of all synchronizing word-strategies: we establish the computational complexity of theemptiness and universality problems for all synchronizing languages in all winning modes.We carry over results for synchronizing problems from MDPs and PAs to two-player turn-based games and non-deterministic finite state automata. Along with the main results, we establish new complexity results foralternating finite automata over a one-letter alphabet.In addition, we study different variants of synchronization for timed andweighted automata, as two instances of infinite-state systems.

Page generated in 0.0994 seconds