Spelling suggestions: "subject:"probabilités."" "subject:"probabilitées.""
111 |
Contributions to nonparametric and semiparametric inference based on statistical depth / Contributions à l'inférence nonparamétrique et semiparamétrique fondée sur la profondeur statistiqueVan Bever, Germain 06 September 2013 (has links)
L'objectif général de cette thèse est d'introduire de nouveaux concepts ou d'étendre certaines procédures statistiques déjà existantes touchant à la notion de profondeur statistique. <p><p>Celle-ci, originellement introduite afin de généraliser la notion de médiane et de fournir naturellement un ordre (depuis un centre, vers l'extérieur) dans un contexte multivarié, a, depuis son développement, démontré ses nombreuses qualités, tant en termes de robustesse, que d'utilité dans de nombreuses procédures inférentielles.<p>Les résultats proposés dans ce travail se développent le long de trois axes.<p><p>Pour commencer, la thèse s'intéresse à la classification supervisée. La profondeur a, en effet, déjà été utilisée avec succès dans ce contexte. Cependant, jusqu'ici, les outils développés restaient limités aux distributions elliptiques, constituant ainsi une sévère restriction des méthodes utilisant les fonctions de profondeur, qui, pour la plupart, sont par essence nonparamétrique. La première partie de cette thèse propose donc une nouvelle méthode de classification, fondée sur la profondeur, dont on montrera qu'elle est essentiellement universellement convergente. En particulier, la règle de discrimination proposée se fonde sur les idées utilisées dans la classification par plus proches voisins, en introduisant cependant des voisinages fondés sur la profondeur, mieux à même de cerner le comportement des populations sous-jacentes.<p><p>Ces voisinages d'un point quelconque, et surtout l'information sur le comportement local de la distribution en ce point qu'ils apportent, ont été réutilisés dans la seconde partie de ce travail. Plusieurs auteurs ont en effet reconnu certaines limitations aux fonctions de profondeur, de par leur caractère global et la difficulté d'étudier par leur biais des distributions multimodales ou à support convexe. Une nouvelle définition de profondeur locale est donc développée et étudiée. Son utilité dans différents problèmes d'inférence est également explorée.<p><p>Enfin, la thèse s'intéresse au paramètre de forme pour les distributions elliptiques. Ce paramètre d'importance est utilisé dans de nombreuses procédures statistiques (analyse en composantes principales, analyse en corrélations canoniques, entre autres) et aucune fonction de profondeur pour celui-ci n'existait à ce jour. La profondeur de forme est donc définie et ses propriétés sont étudiées. En particulier, on montrera que le cadre général de la profondeur paramétrique n'est pas suffisant en raison de la présence du paramètre de nuisance (d'influence non nulle) qu'est l'échelle. Une application inférentielle est présentée dans le cadre des tests d'hypothèses. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
112 |
Automates codéterministes et automates acycliques : analyse d'algorithmes et génération aléatoire / codeterministic automata and acyclic automata : analysis of algorithmes and random generationDe Félice, Sven 01 July 2014 (has links)
Le cadre générale de cette thèse est l'analyse quantitative des objets issus de la théorie des langages rationnels. On adapte des techniques d'analyse d'algorithmes (complexité en moyenne, complexité générique, génération aléatoire, ...) à des objets et à des algorithmes qui font intervenir des classes particulières d'automates. Dans une première partie nous étudions la complexité de l'algorithme de minimisation de Brzozowski. Bien qu'ayant une mauvaise complexité dans le pire des cas, cet algorithme a la réputation d'être efficace en pratique. En utilisant les propriétés typiques des applications et des permutations aléatoires, nous montrons que la complexité générique de l'algorithme de Brzozowski appliqué à un automate déterministe croît plus vite que tout polynôme en n, où n est le nombre d'états de l'automate. Dans une seconde partie nous nous intéressons à la génération aléatoire d'automates acycliques. Ces automates sont ceux qui reconnaissent les ensembles finis de mots et sont de ce fait utilisés dans de nombreuses applications, notamment en traitement automatique des langues. Nous proposons deux générateurs aléatoires. Le premier utilise le modèle des chaînes de Markov, et le second utilise la "méthode récursive", qui tire partie des décompositions combinatoires des objets pour faire de la génération. La première méthode est souple mais difficile à calibrer, la seconde s'avère plutôt efficace. Une fois implantée, cette dernière nous a notamment permis d'observer les propriétés typiques des grands automates acycliques aléatoires / The general context of this thesis is the quantitative analysis of objects coming from rational language theory. We adapt techniques from the field of analysis of algorithms (average-case complexity, generic complexity, random generation...) to objects and algorithms that involve particular classes of automata. In a first part we study the complexity of Brzozowski's minimisation algorithm. Although the worst-case complexity of this algorithm is bad, it is known to be efficient in practice. Using typical properties of random mappings and random permutations, we show that the generic complexityof Brzozowski's algorithm grows faster than any polynomial in n, where n is the number of states of the automaton. In a second part, we study the random generation of acyclic automata. These automata recognize the finite sets of words, and for this reason they are widely use in applications, especially in natural language processing. We present two random generators, one using a model of Markov chain, the other a ``recursive method", based on a cominatorics decomposition of structures. The first method can be applied in many situations cases but is very difficult to calibrate, the second method is more efficient. Once implemented, this second method allows to observe typical properties of acyclic automata of large size
|
113 |
Fluctuations dans des modèles de boules aléatoires / Fluctuations in random balls modelsGobard, Renan 02 June 2015 (has links)
Dans ce travail de thèse, nous étudions les fluctuations macroscopiques dans un modèle de boules aléatoires. Un modèle de boules aléatoires est une agrégation de boules dans Rd dont les centres et les rayons sont aléatoires. On marque également chaque boule par un poids aléatoire. On considère la masse M induite par le système de boules pondérées sur une configuration μ de Rd. Pour réaliser l’étude macroscopique des fluctuations de M, on réalise un "dézoom" sur la configuration de boules. Mathématiquement cela revient à diminuer le rayon moyen tout en augmentant le nombre moyen de centres par unité de volume. La question a déjà été étudiée lorsque les composantes des triplets (centre, rayon, poids) sont indépen- dantes et que ces triplets sont engendrés selon un processus ponctuel de Poisson sur Rd × R+ × R. On observe alors trois comportements distincts selon le rapport de force entre la vitesse de diminution des rayons et la vitesse d’augmentation de la densité des boules. Nous proposons de généraliser ces résultats dans trois directions distinctes. La première partie de ce travail de thèse consiste à introduire de la dépendance entre les centres et les rayons et de l’inhomogénéité dans la répartition des centres. Dans le modèle que nous proposons, le comportement stochastique des rayons dépend de l’emplacement de la boule. Dans les travaux précédents, les convergences obtenues pour les fluctuations de M sont au mieux des convergences fonctionnelles en dimension finie. Nous obtenons, dans la deuxième partie de ce travail, de la convergence fonctionnelle sur un ensemble de configurations μ de dimension infinie. Dans une troisième et dernière partie, nous étudions un modèle de boules aléatoires (non pondérées) sur C dont les couples (centre, rayon) sont engendrés par un processus ponctuel déterminantal. Contrairement au processus ponctuel de Poisson, le processus ponctuel déterminantal présente des phénomènes de répulsion entre ses points ce qui permet de modéliser davantage de problèmes physiques. / In this thesis, we study the macroscopic fluctuations in random balls models. A random balls model is an aggregation of balls in Rd whose centers and radii are random. We also mark each balls with a random weight. We consider the mass M induced by the system of weighted balls on a configuration μ of Rd. In order to investigate the macroscopic fluctuations of M, we realize a zoom-out on the configuration of balls. Mathematically, we reduce the mean radius while increasing the mean number of centers by volume unit. The question has already been studied when the centers, the radii and the weights are independent and the triplets (center, radius, weight) are generated according to a Poisson point process on Rd ×R+ ×R. Then, we observe three different behaviors depending on the comparison between the speed of the decreasing of the radii and the speed of the increasing of the density of centers. We propose to generalize these results in three different directions. The first part of this thesis consists in introducing dependence between the radii and the centers and inhomogeneity in the distribution of the centers. In the model we propose, the stochastic behavior of the radii depends on the location of the ball. In the previous works, the convergences obtained for the fluctuations of M are at best functional convergences in finite dimension. In the second part of this work, we obtain functional convergence on an infinite dimensional set of configurations μ. In the third and last part, we study a random balls model (non-weighted) on C where the couples (center, radius) are generated according to determinantal point process. Unlike to the Poisson point process, the determinantal point process exhibits repulsion phenomena between its points which allows us to model more physical problems.
|
114 |
Processus sur le groupe unitaire et probabilités libres / Processes on the unitary group and free probabilityCébron, Guillaume 13 November 2014 (has links)
Cette thèse est consacrée à l'étude asymptotique d'objets liés au mouvement brownien sur le groupe unitaire en grande dimension, ainsi qu'à l'étude, dans le cadre des probabilités libres, des versions non-commutatives de ces objets. Elle se subdivise essentiellement en trois parties.Dans le chapitre 2, nous résolvons le problème initial de cette thèse, à savoir la convergence de la transformation de Hall sur le groupe unitaire vers la transformation de Hall libre, lorsque la dimension tend vers l'infini. Pour résoudre ce problème, nous établissons des théorèmes d'existence de noyaux de transition pour la convolution libre. Enfin, nous utilisons ces résultats pour prouver que, pareillement au mouvement brownien sur le groupe unitaire, le mouvement brownien sur le groupe linéaire converge en distribution non-commutative vers sa version libre. Nous étudions les fluctuations autour de cette convergence dans le chapitre 3. Le chapitre 4 présente un morphisme entre les mesures infiniment divisibles pour la convolution libre additive d'une part et multiplicative de l'autre. Nous montrons que ce morphisme possède une version matricielle qui s'appuie sur un nouveau modèle de matrices aléatoires pour les processus de Lévy libres multiplicatifs. / This thesis focuses on the asymptotic of objects related to the Brownian motion on the unitary group in large dimension, and on the study, in free probability, of the non-commutative versions of those objects. It subdivides into essentially three parts.In Chapter 2, we solve the original problem of this thesis: the convergence of the Hall transform on the unitary group to the free Hall transform, as the dimension tends to infinity. To solve this problem, we establish theorems of existence of transition kernel for the free convolution. Finally, we use these results to prove that, exactly as the Brownian motion on the unitary group, the Brownian motion on the linear group converges in noncommutative distribution to its free version. Then we study the fluctuations around this convergence in Chapter 3. Chapter 4 presents a homomorphism between infinitely divisible measures for the free convolution, in respectively the additive case and the multiplicative case. We show that this homomorphism has a matricialversion which is based on a new model of random matrices for the free multiplicative Lévy processes.
|
115 |
Etude du travail de l'enseignant autour de la simulation en classe de troisième et seconde : métamorphoses d'un problème au fil d'une formation en probabilité / Study of the Teacher's Work around Simulation in the Third and Second Grade : Metamorphoses of a Problem during a Probability TrainingMasselin, Blandine 12 June 2019 (has links)
La thèse porte sur le travail des enseignants autour de la simulation en probabilité en classe de troisième et seconde. Nous avons exploré la manière dont les enseignants de mathématiques, s'emparent d'une tâche qui leur a été présentée lors d'une formation. Notre recherche prend appui sur cette tâche (le problème du lièvre et de la tortue) pour répondre à nos questions sur les liens entre expériences aléatoires et modèles, sur la place des artefacts et sur la nature des preuves utilisant une simulation. Pour mener notre étude, nous avons adopté la théorie des Espaces de Travail Mathématique (Kuzniak, 2011), ainsi que des éléments complémentaires tels que le cycle de modélisation de Blum & Leiss (2009). Nous avons introduit la notion d'avatar pour rendre compte des transformations de la tâche afin de suivre la trajectoire d'avatars successifs. Notre méthodologie de recherche spécifique est composée de trois boucles dont l'une inclut une formation continue courte. La première boucle est concernée par la préparation de la formation avec notamment une première implémentation du problème par des formateurs dans leur classe. La deuxième boucle, constituée de trois étapes, est celle de la formation proprement dite. Un premier scénario est élaboré par un collectif de stagiaires à la suite d'un travail d'analyse a priori du problème. Il est suivi de la mise en œuvre de la tâche par l'un des stagiaires dans une classe prêtée par les formateurs et observée par les autres participants du stage. Enfin le collectif élabore, a posteriori, un nouvel avatar repensé au regard de l'analyse de l'avatar précédent et de sa mise en œuvre. La troisième boucle comporte les avatars testés par les stagiaires dans leur propre classe après la formation. En se référant à un ETM idoine attendu défini pour la recherche, il s'agit de repérer les transformations opérées pendant et après la formation et portant sur les itinéraires cognitifs autour du problème du lièvre et de la tortue. L'étude de ces trois boucles successives a permis de révéler l'existence de ruptures entre expérience aléatoire et modèles mathématiques lors de la résolution de ce problème. Ces ruptures sont dues à la fois à l'artefact numérique choisi pour la simulation (le tableur ou le logiciel Scratch) et au travail de l'enseignant. Grâce à un rapprochement des plans de l'ETM privilégiés par l'enseignant et les élèves dans la circulation du travail, nous avons pu repérer une tendance des enseignants à uniformiser le choix du modèle ou le type de preuve pour ce problème. De plus, certaines phases de l'ETM idoine attendu défini pour la recherche (comme l'explicitation autour des expériences aléatoires en jeu, la justification de l'introduction de la simulation ou la preuve par les calculs de probabilités) sont peu représentées ou absentes dans les itinéraires cognitifs prévus et empruntés dans ces trois boucles. Ceci traduit une difficulté d'articulation entre probabilités et statistique autour de la simulation chez l'enseignant. Dans un cas, la deuxième boucle a montré un épaississement de la dimension instrumentale relatif au travail de l'enseignant et aux artefacts numériques choisis. Elle a aussi mis en évidence différents modes de gestion des groupes d'élèves, transformant l'avatar initial et la circulation du travail dans l'ETM idoine. Les divers itinéraires cognitifs que nous avons pu observer à l'issue de la formation nous ont permis d'identifier des effets de la formation et notamment des dénaturations simplificatrices (Kuzniak, 1995) opérées par l'enseignant sur l'avatar ou l'ETM idoine associé. / The thesis focuses on teacher's work around probability simulation in grades 9 and 10 in France. We explored how mathematics teachers take on a task crossed during a training session. Our research builds on this task (the hare and turtle problem) to answer our questions about the links between random experiments and models, the place of artefacts and the proofs' nature using simulation. To make our study, we adopted the theory of Mathematical Work Spaces (MWS, Kuzniak, 2011), as well as complementary elements such as the modeling cycle of Blum & Leiss (2009). We introduced the notion of avatar to account for transformations of the task in order to follow the trajectory of successive avatars. Our specific research methodology is based on three loops, and the second one includes short continuing training course. The first loop contains the elaboration of the training with a first implementation of the problem by trainers in their class. The second loop, consisting of three stages, is the training proper. A first scenario is developed by a group of trainees following a analysis a priori of the problem. It is followed by the implementation of the task by one of the trainees in a class lent by the trainers and observed by the other participants of the course. Finally, the collective develops, a posteriori, a new avatar redesigned with regard to the analysis of the previous avatar and its implementation. The third loop includes the avatars tested by the trainees in their own class after the training.Referring to a well-defined MWS expected for the research, it lets us identify the transformations made during and after the training and relates to the cognitive routes around the problem of the hare and the turtle. The study of these three successive loops reveals the existence of breaks between random experience and mathematical models during the resolution of this problem. These breaks are due to both the numerical artefact chosen for the simulation (the spreadsheet or the Scratch software) and to the teacher's work. Through a comparison of teacher and student-led MWS plans in the model of MWS, we were able to identify a tendency for teachers to standardize the choice of model for this problem. In addition, some phases of the MWS expected defined for the research (such as the explicitness around the random experiments in play, the justification of the introduction of the simulation or the proof by the calculations of probabilities) are little represented or absent in the cognitive routes planned and borrowed in these three loops. This reflects a difficulty of articulation between probabilities and statistics around simulation in the teacher. In one case, the second loop showed a thickening of the instrumental dimension relative to the teacher's work and to the chosen digital artefacts. She also highlighted different ways of managing groups of students, transforming the initial avatar and the flow of work in the appropriate MWS. The various cognitive routes that we observed at the end of the training allowed us to identify the effects of the training and in particular the simplifying denaturations (Kuzniak, 1995) made by the teacher on the avatar or the suitable MWS.
|
116 |
Personnalisation robuste de modèles 3D électromécaniques du cœur. Application à des bases de données cliniques hétérogènes et longitudinales / Robust personalisation of 3D electromechanical cardiac models. Application to heterogeneous and longitudinal clinical databasesMolléro, Roch 19 December 2017 (has links)
La modélisation cardiaque personnalisée consiste à créer des simulations 3D virtuelles de cas cliniques réels pour aider les cliniciens à prédire le comportement du cœur ou à mieux comprendre certaines pathologies. Dans cette thèse nous illustrons d'abord la nécessité d'une approche robuste d'estimation des paramètres, dans un cas ou l'incertitude dans l'orientation des fibres myocardiques entraîne une incertitude dans les paramètres estimés qui est très large par rapport à leur variabilité physiologique. Nous présentons ensuite une approche originale multi-échelle 0D/3D pour réduire le temps de calcul, basée sur un couplage multi-échelle entre les simulations du modèle 3D et d'une version "0D" réduite de ce modèle. Ensuite, nous dérivons un algorithme rapide de personnalisation multi-échelle pour le modèle 3D. Dans un deuxième temps, nous construisons plus de 140 simulations 3D personnalisées, dans le cadre de deux études impliquant l'analyse longitudinale de la fonction cardiaque : d'une part, l'analyse de l'évolution de cardiomyopathies à long terme, d'autre part la modélisation des changements cardiovasculaires pendant la digestion. Enfin, nous présentons un algorithme pour sélectionner automatiquement des directions observables dans l'espace des paramètres à partir d'un ensemble de mesures, et calculer des probabilités "a priori" cohérentes dans ces directions à partir des valeurs de paramètres dans la population. Cela permet en particulier de contraindre l'estimation de paramètres dans les cas où des mesures sont manquantes. Au final nous présentons des estimations cohérentes de paramètres dans une base de données de 811 cas avec le modèle 0D et 137 cas du modèle 3D. / Personalised cardiac modeling consists in creating virtual 3D simulations of real clinical cases to help clinicians predict the behaviour of the heart, or better understand some pathologies from the estimated values of biophysical parameters. In this work we first motivate the need for a consistent parameter estimation framework, from a case study were uncertainty in myocardial fibre orientation leads to an uncertainty in estimated parameters which is extremely large compared to their physiological variability. To build a consistent approach to parameter estimation, we then tackle the computational complexity of 3D models. We introduce an original multiscale 0D/3D approach for cardiac models, based on a multiscale coupling to approximate outputs of a 3D model with a reduced "0D" version of the same model. Then we derive from this coupling an efficient multifidelity optimisation algorithm for the 3D model. In a second step, we build more than 140 personalised 3D simulations, in the context of two studies involving the longitudinal analysis of the cardiac function: on one hand the analysis of long-term evolution of cardiomyopathies under therapy, on the other hand the modeling of short-term cardiovascular changes during digestion. Finally we present an algorithm to automatically detect and select observable directions in the parameter space from a set of measurements, and compute consistent population-based priors probabilities in these directions, which can be used to constrain parameter estimation for cases where measurements are missing. This enables consistent parameter estimations in a large databases of 811 cases with the 0D model, and 137 cases of the 3D model.
|
117 |
Étude probabiliste des contraintes de bout en bout dans les systèmes temps réel / Probabilistic study of end-to-end constraints in real-time systemsMaxim, Cristian 11 December 2017 (has links)
L'interaction sociale, l'éducation et la santé ne sont que quelques exemples de domaines dans lesquels l'évolution rapide de la technologie a eu un grand impact sur la qualité de vie. Les entreprises s’appuient de plus en plus sur les systèmes embarqués pour augmenter leur productivité, leur efficacité et leurs valeurs. Dans les usines, la précision des robots tend à remplacer la polyvalence humaine. Bien que les appareils connectés comme les drônes, les montres intelligentes ou les maisons intelligentes soient de plus en plus populaires ces dernières années, ce type de technologie a été utilisé depuis longtemps dans les industries concernées par la sécurité des utilisateurs. L’industrie avionique utilise des ordinateurs pour ses produits depuis 1972 avec la production du premier avion A300; elle a atteint des progrès étonnants avec le développement du premier avion Concorde en 1976 en dépassant de nombreuses années les avions de son époque, et ça a été considéré comme un miracle de la technologie. Certaines innovations et connaissances acquises pour le Concorde sont toujours utilisées dans les modèles récents comme A380 ou A350. Un système embarqué est un système à microprocesseur qui est construit pour contrôler une fonction ou une gamme de fonctions et qui n’est pas conçu pour être programmé par l'utilisateur final de la même manière qu'un ordinateur personnel. Un système temps-réel est un système de traitement de l’information qui doit répondre aux stimuli d’entrées générées de manière externe dans une période finie et spécifiée. Le comportement de ces systèmes prend en compte non seulement l'exactitude dépend non seulement du résultat logique mais aussi du temps dans lequel il a été livré. Les systèmes temps-réel peuvent être trouvés dans des industries comme l'aéronautique, l'aérospatiale, l'automobile ou l’industrie ferroviaire mais aussi dans les réseaux de capteurs, les traitements d'image, les applications multimédias, les technologies médicales, les robotiques, les communications, les jeux informatiques ou les systèmes ménagers. Dans cette thèse, nous nous concentrons sur les systèmes temps-réel embarqués et pour la facilité des notations, nous leur nommons simplement des systèmes temps réel. Nous pourrions nous référer aux systèmes cyber-physiques si tel est le cas. Le pire temps d’exécution (WCET) d'une tâche représente le temps maximum possible pour qu’elle soit exécutée. Le WCET est obtenu après une analyse de temps et souvent il ne peut pas être déterminé avec précision en déterminant toutes les exécutions possibles. C'est pourquoi, dans l'industrie, les mesures sont faites uniquement sur un sous-ensemble de scénarios possibles, celui qui générerait les temps d'exécution les plus élevés, et une limite supérieure de temps d’exécution est estimé en ajoutant une marge de sécurité au plus grand temps observé. L’analyses de temps est un concept clé qui a été utilisé dans les systèmes temps-réel pour affecter une limite supérieure aux WCET des tâches ou des fragments de programme. Cette affectation peut être obtenue soit par analyse statique, soit par analyse des mesures. Les méthodes statiques et par mesure, dans leurs approches déterministes, ont tendance à être extrêmement pessimistes. Malheureusement, ce niveau de pessimisme et le sur-provisionnement conséquent ne peut pas être accepté par tous les systèmes temps-réels, et pour ces cas, d'autres approches devraient être prises en considération. / In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2. Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements.
|
118 |
Estimation non paramétrique adaptative dans la théorie des valeurs extrêmes : application en environnement / Nonparametric adaptive estimation in the extreme value theory : application in ecologyPham, Quang Khoai 09 January 2015 (has links)
L'objectif de cette thèse est de développer des méthodes statistiques basées sur la théorie des valeurs extrêmes pour estimer des probabilités d'évènements rares et des quantiles extrêmes conditionnelles. Nous considérons une suite de variables aléatoires indépendantes X_{t_1}$, $X_{t_2}$,...$,$X_{t_n}$ associées aux temps $0≤t_{1}< … <t_{n}≤T_{\max}$ où $X_{t_i}$ a la fonction de répartition $F_{t_i}$ et $F_t$ est la loi conditionnelle de $X$ sachant $T=t \in [0,T_{\max}]$. Pour chaque $t \in [0,T_{\max}]$, nous proposons un estimateur non paramétrique de quantiles extrêmes de $F_t$. L'idée de notre approche consiste à ajuster pour chaque $t \in [0,T_{\max}]$ la queue de la distribution $F_{t}$, par une distribution de Pareto de paramètre $\theta_{t,\tau}$ à partir d'un seuil $\tau.$ Le paramètre $\theta_{t,\tau}$ est estimé en utilisant un estimateur non paramétrique à noyau de taille de fenêtre $h$ basé sur les observations plus grandes que $\tau$. Sous certaines hypothèses de régularité, nous montrons que l'estimateur adaptatif proposé de $\theta_{t,\tau} $ est consistant et nous donnons sa vitesse de convergence. Nous proposons une procédure de tests séquentiels pour déterminer le seuil $\tau$ et nous obtenons le paramètre $h$ suivant deux méthodes : la validation croisée et une approche adaptative. Nous proposons également une méthode pour choisir simultanément le seuil $\tau$ et la taille de la fenêtre $h$. Finalement, les procédures proposées sont étudiées sur des données simulées et sur des données réelles dans le but d'aider à la surveillance de systèmes aquatiques. / The objective of this PhD thesis is to develop statistical methods based on the theory of extreme values to estimate the probabilities of rare events and conditional extreme quantiles. We consider independent random variables $X_{t_1},…,X_{t_n}$ associated to a sequence of times $0 ≤t_1 <… < t_n ≤ T_{\max}$ where $X_{t_i}$ has distribution function $F_{t_i}$ and $F_t$ is the conditional distribution of $X$ given $T = t \in [0,T_{\max}]$. For each $ t \in [0, T {\max}]$, we propose a nonparametric adaptive estimator for extreme quantiles of $F_t$. The idea of our approach is to adjust the tail of the distribution function $F_t$ with a Pareto distribution of parameter $\theta {t,\tau}$ starting from a threshold $\tau$. The parameter $\theta {t,\tau}$ is estimated using a nonparametric kernel estimator of bandwidth $h$ based on the observations larger than $\tau$. We propose a sequence testing based procedure for the choice of the threshold $\tau$ and we determine the bandwidth $h$ by two methods: cross validation and an adaptive procedure. Under some regularity assumptions, we prove that the adaptive estimator of $\theta {t, \tau}$ is consistent and we determine its rate of convergence. We also propose a method to choose simultaneously the threshold $\tau$ and the bandwidth $h$. Finally, we study the proposed procedures by simulation and on real data set to contribute to the survey of aquatic systems.
|
119 |
Les algorithmes d’apprentissage pour l’aide au stationnement urbain / Learning algorithms to aid urban parkingHouissa, Asma 15 March 2018 (has links)
L’objectif de cette thèse est de développer, d’intégrer et de tester une nouvelle approche algorithmique d’aide au stationnement dans les centres urbains. Considérons différents types d’infrastructures déployées allant de la détection des entrées/sorties des véhicules jusqu'à la variation dans le temps du nombre de places de stationnement disponibles dans chaque portion de rue, nous montrons qu’il est possible de proposer une méthode efficace qui détermine un itinéraire qui minimise l’espérance de temps pour trouver une place de stationnement disponible et de prédire la disponibilité des placesde stationnement.Pour cela, la zone urbaine choisie sera donc considérée comme un ensemble de ressources de stationnement (segments de rues).Nous modélisons d’abord cette zone urbaine par un graphe où les sommets désignent les carrefours et les arcs représentent les portions de rues. Les paramètres essentiels pour notre modèle de réseau urbain sont la capacité de stationnement et le temps de parcours des portions de rue.L’originalité et l’aspect innovant de notre approche s’appuient sur deux principes.Le premier principe concerne le guidage comme une ressource : il ne s’agit pas de guider vers une place libre mais de proposer un parcours qui optimise l’espérance de temps de trouver une telle place. Pour cela nous déterminons dans une zone centrée sur une destination donnée, le parcours à effectuer par un véhicule pour minimiser son espérance de temps de trouver une place destationnement le plus rapidement possible.Ainsi nous avons mis en œuvre un algorithme d’apprentissage par renforcement basée sur la méthode LRI (Linear Reward Inaction) et la méthode Monte Carlo pour minimiser l’espérance de temps de trouver une place de stationnement en zone urbaine.Nous avons comparé cet algorithme avec une approche globale basée sur l’évaluation arborescente à profondeur bornée.Le second principe repose sur la prédiction des places de stationnement disponibles par périodes de temps homogènes où on ne s’intéresse pas à une place de stationnement en temps réel mais aux places de stationnement par zones. Il s’agit alors pour le système de pouvoir prédire le potentiel de places libres dans chacune des ressources pour les prochaines périodes. On ne vise donc pas ici la prédiction de la disponibilité de chaque place ; chaque ressource sera considérée comme une zone de stockage dont la disponibilité sera établie en grande partie en fonction des flux d’entrée et de sortie de la portion. Pour ce principe, nous avons donc déterminé par algorithmes de calculs et d’apprentissages la probabilité qu’il y ait au moins une place libre pour stationner dans un tronçon de rue pour un créneau de temps donné. Les principales données nécessaires pour effectuer ces calculs sont les séries temporelles d’entrée sortie de chaque véhicule aux intersections des rues et les variations des places de stationnement au cours du temps.Nous avons évalué les performances de notre approche par simulations sur des données générées aléatoirement et des données réelles obtenues sur un quartier de Versailles. / The objective of this thesis is to develop, to integrate and to test a new algorithmic approach to help parking in urban centers.Given the different types of deployed infrastructure : from input-output detection of vehicles to time variation of the number of available places within each street segment, we propose an efficient method to determine an itinerary that minimize the time expectation to find an available place and also to predict the availability of the parking places.We have chosen an urban area and we have considered it as a set of parking resources called street segments. More exactly, this urban area is considered as a graph where the vertexes represent the crossroads and the arcs represent the street segments. The essential parameters of our urban area model are the parking capacity and the time crossing of each street segment. The originality and the innovation of our approach are based on two principles.The first one is the guidance as a resource, i.e., it means that the proposed itinerary is not the one that lead to an available parking place but rather the one that minimized the time expectation to find an available parking place. In order to achieve that we determine, in a an area centered on a given destination, the itinerary to follow by the vehicle in order minimize its time expectation to find an available parking place as quickly aspossible.We have designed and realized a reinforcement learning algorithm based on the LRI method (Linear Reward Inaction) and a Monte Carlo method to minimize the time expectation to find an available parking place in the urban area. We have compared this algorithm to a global approach based on tree evaluation with bounded depth. The second principle is based on the prediction of the parking places by homogeneous time period where we are not interestedon a parking place in real time but rather on the parking places byarea. In other terms, the system predict the potential available parkingplaces by resource for the next time periods. Thus, we don’t aim to predict the availability of each parking place, i.e., each resource is considered as stock area and its availability is assessed in major part in function of the street segment input-output flow. For this principle, we have determined by a learning algorithm the probability that there is at least one available parking place in a street segment within a given time. The major data needed to compute this probability are the time series of input-output of each vehicle in street intersections, and the variation of the available parking places through the time.We have evaluated the performance of this approach by simulation based on random generated data and on real data of a district in Versailles.
|
120 |
Point predictions for objectively known distributionsPierrot, Thibaud 19 April 2018 (has links)
L’objectif de ce mémoire est de mieux comprendre comment les agents résument une distribution de probabilité en un point. Nous proposons une approche expérimentale permettant d’observer la relation entre les prédictions des agents pour la réalisation future d’une variable aléatoire et la distribution de probabilité objective de cette variable. Pour ce faire, nous avons créé et conduit une experience durant laquelle nous montrons à nos sujets différentes distributions de probabilités pour des variables aléatoires. Leur tâche est de résumer ces distributions en une prédiction pour la réalisation suivante de la variable aléatoire considérée. Nous analysons les données receuillies lors de cette experience afin de verifier la pertinence de celles-ci. Nous montrons que la base de données produite contient des informations pertinentes concernant le lien entre prediction et distribution de probabilité. Par la suite, nous tentons d’établir une relation dirècte entre les prédictions rapportées et les percentiles des distributions de probabilité. Nous trouvons que 32% de nos sujets rapportent une prédiction contenue dans l’intervalle de percentile [40 ; 68] pour au moins 50% des distributions. Toutefois, cette relation semble avoir un pouvoir explicatif relativement faible. Mots clefs : Prédiction - Distribution de Probabilité - Croyances - Prise de Décision Face au Risque - Règles de Score Propres - Methode Expérimentale / The objective of this thesis is to better understand how people summarize their subjective distributions when asked for point predictions. We propose an experimental approach to investigate the relationship between point predictions reported by agents for the realization of a random variable and its objectively known probability distribution. We designed and conducted an experiment in which we were showing to our subjects the distributions for a random variable and asked them to report a point summarizing their beliefs for the next realization. We conduct a descriptive analysis to verify whether the data we collected in our experiment are pertinent. We then investigate whether percentiles of the distribution could be an explanation for our subjects’ point predictions. We find that the distributions have an influence on the predictions and that 32% of the subjects report predictions corresponding to a percentile included in the range [40; 68] for more than 50% of the distributions. Consequently, we can see that the database must contain relevant information as to how the subjects summarize distributions into point predictions but percentiles only seem to be a weak explanatory factor for the relationship between distributions and point predictions. Keywords: Point predictions - Probability distribution - Beliefs - Decision making under risk - Proper Scoring Rules - Experimental method
|
Page generated in 0.0349 seconds