• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Quantification du biais de sélection en sécurité routière : apport de l’inférence causale / Causal inference to quantify selection bias in road traffic safety

Dufournet, Marine 01 December 2017 (has links)
Les principaux facteurs de l'insécurité routière sont connus, et l'enjeu réside aujourd'hui dans la mesure de l'effet d'un facteur, et la hiérarchisation de l'ensemble des causes intervenant dans la survenue de l'accident. Toutefois, les données disponibles concernent généralement que des accidentés. En l'absence de non-accidentés, l'épidémiologiste du risque routier se heurte à une sélection extrême. Une des solutions classiques est d'utiliser des analyses en responsabilité, et de mesurer l'effet causal d'un facteur sur le risque d'être responsable d'un accident. Néanmoins, la validité des analyses en responsabilité repose sur l'hypothèse, discutable, que les non-responsables sont représentatifs des circulants. L'objectif de cette thèse est donc de déterminer si les données disponibles d'accidentés permettent de fournir, via les analyses en responsabilité, des estimations des effets causaux sans biais, et notamment sans un biais de sélection résiduel. Nous montrons dans cette thèse que, dès lors que l'inclusion dépend de la gravité de l'accident, et que le facteur étudié a un impact sur la vitesse, il est impossible d'estimer l'effet causal du facteur sur le risque d'être responsable de l'accident grave sans un biais de sélection résiduel. Ce résultat est tout d'abord démontré de manière formelle, grâce à l'utilisation des modèles causaux structuraux. Ces modèles sont fondés sur une structure graphique, le DAG, qui représente les différentes relations entre les variables. Ce DAG permet la description des variables réellement observées, mais également des variables contrefactuelles, variables observables dans un monde contrefactuel où l'on aurait fixé l'exposition à une certaine valeur. L'effet causal étant défini à partir de ces variables contrefactuelles partiellement observées, c'est la structure du DAG qui permet de déterminer si l'effet causal peut être estimé en fonction des variables observées. Or, la structure du DAG conduisant à la survenue d'un accident grave ne permet pas d'exprimer l'effet causal du facteur étudié sur la responsabilité de l'accident grave en fonction des distributions observées sur les accidentés graves. Conditionner les estimations sur les accidentés graves correspond à ajuster sur une variable du DAG appelée « collider », et ainsi à introduire un biais dit de collision. En générant un modèle relativement simple, nous donnons à nos résultats théoriques une illustration numérique. En effet, lorsque les données ne dépendent pas de la gravité de l'accident, ou que le facteur étudié n'a pas d'effet sur la vitesse, la mesure estimable à partir des analyses en responsabilité est une mesure sans biais de l'effet causal, sous certaines hypothèses de prévalences faibles. Lorsque l'inclusion dépend de la gravité de l'accident, il existe un biais et ce biais induit par les analyses en responsabilité est d'autant plus grand que l'intensité de la relation entre le facteur et la vitesse, et celle entre la vitesse et l'accident est grand. Les schémas d'étude présentés permettent d'approcher des situations où le facteur étudié serait l'alcool ou le cannabis. Dans le cas de l'alcool, il apparait que sous le modèle simple considéré, la mesure d'association estimable serait une sous-estimation de l'effet causal. En revanche, dans le cas du cannabis, la mesure d'association correspondrait à une sur-estimation de l'effet causal. D'autre part, les outils de l'inférence causale nous ont permis de fournir une description formelle de la validité externe et interne, ainsi qu'une description formelle de la mesure d'association estimable via les analyses en responsabilité. Cette question de la validité interne d'une mesure se pose dans d'autres champs d'application que la sécurité routière. Elle se pose notamment dans le cas du paradoxe de l'obésité [etc...] / Many factors associated with the risk and severity of road accidents are now widely considered as causal : alcohol, speed, usage of a mobile phone... Therefore, questions asked by decision-makers now mostly concern the magnitude of their causal effects, as well as the burden of deaths or victims attributable to these various causes of accident. One particularity of road safety epidemiology is that available data generally describe drivers and vehicles involved in road accidents only, or even severe road accidents only. This extreme selection precludes the estimation of causal effects. To circumvent this absence of « control » population of non-crash involved drivers, it is common to use responsibility analysis and to assess the causal effect of a given factor on the risk of being responsible for an accident among involved drivers. The underlying assumption is that non-responsible drivers represent a random sample of the general driving population that was « selected » to crash by circumstances beyond their control and therefore have the same risk factor profile as other drivers on the road at the same time. However, this randomness assumption is questionable. The objective of this thesis is to determine whether available data in road safety allow us to assess causal effects on responsibility without a residual selection bias. We show that a good approximation of causal effect of a given factor on the risk of being responsible is possible only if the inclusion into the dataset does not depend on the severity of the accident, or if the given factor has no effect on speed. This result is shown by using the Structural Causal Model (SCM) framework. The SCM framework is based on a causal graph : the DAG (directed acyclic graph), which represents the relationships among variables. The DAG allows the description of what we observe in the actual world, but also what we would have observed in counterfactual worlds, if we could have intervened and forced the exposure to be set to a given level. Causal effects are then defined by using counterfactual variables, and it is the DAG’s structure which determines whether causal effects are identifiable, or recoverable, and estimable from the distribution of observed variables. However, the assumptions embedded in the DAG which describes the occurence of a severe accident does not ensure that a causal odds ratios is expressible in terms of the observable distribution. Conditioning the estimations on involved drivers in a severe crash correspond to conditioning on a variable in the DAG called « collider », and to create a « collider bias ». We present numerical results to illustrate our theoretical arguments and the magnitude of the bias between the estimable association measure and some causal effects. Under the simple generative model considered, we show that, when the inclusion depends on the severity of the accident, the bias between the estimable association measure and causal effect is larger than the relation between the exposure and speed, or speed and the occurrence of a severe accident is strong. Moreover, the presented designs allow us to describe some situations where the exposure could be alcohol or cannabis intoxication. In the case of alcohol, where alcohol and speed are positively correlated, the estimable associational effect underestimates the causal effect. In the case of cannabis, where cannabis and speed are negatively correlated, the estimable associational effect overestimates the causal effect. On the other hand, we provide a formal definition of internal and external validity, and a counterfactual interpretation of the estimable quantity in the presence of selection bias, when causal effects are not recoverable. This formal interpretation of the estimable quantity in the presence of selection bias is not only useful in the context of responsibility analyses. It is for instance useful to explain the obesity paradox
122

Recherche de planètes extra-solaires et de naines brunes par l’effet de microlentille gravitationnelle. Étude d’observations interférométriques / Exoplanets and brown dwarfs detections through gravitational microlensing. Study of interferometric observations

Ranc, Clément 22 September 2015 (has links)
L'effet de microlentille gravitationnelle est devenu un outil unique pour détecter des exoplanètes. Il se produit lorsqu'une étoile de premier plan (la microlentille) et une étoile d'arrière plan (la source) sont alignées avec la Terre. La lumière provenant de l'étoile la plus lointaine, souvent dans le bulbe galactique, est alors déviée par la microlentille située dans le disque. Au cours de ce phénomène, des images multiples de la source sont créées par la microlentille, plus grandes que la source, qui apparaît alors amplifiée. Si l'une de ces images multiples se forme au voisinage d'une planète, un pic d'amplification de la source survient, révélant sa présence. Après un tour d'horizon de l'état des connaissances dans le domaine des exoplanètes, nous décrivons les spécificités de la méthode des microlentilles dans ce domaine. Ensuite, nous présentons en détail la modélisation des microlentilles, de ses racines théoriques à la modélisation pratique des courbes de lumières expérimentales. Dans une troisième partie, nous présentons la détection de la première naine brune en orbite autour d'une étoile de type solaire par la méthode des microlentilles, et nous montrons en quoi cette technique ouvre des perspectives nouvelles et originales pour mieux connaître les mécanismes de formation de ces objets dont l'origine reste à identifier. Nous étudions enfin le potentiel de l'observation de microlentilles par interférométrie, en introduisant un nouveau formalisme adapté à l'étude conjointe des événements en photométrie et en interférométrie. Le manuscrit se termine par l'évaluation du nombre moyen d'événements de microlentille observables par interférométrie chaque année. / Gravitational microlensing effect has become a unique tool to detect and characterise exoplanets. A microlensing effect occurs when a foreground star (the microlens) and a background star (the source) are aligned with the Earth on the same line of sight. The light from the furthest star, usually in the Galactic bulge, is deflected by the microlens located on the disk. During this phenomenon, multiple images of the source are created by the lens, bigger than the source that consequently seems amplified. When one of these images are located in the vicinity of an exoplanet, a short amplification jump occurs revealing its presence. After a quick overview of the exoplanets field of research, I highlight the specificities of microlensing comparing to the other planets detection techniques. Then, I describe in details the modelling of microlensing effects, from a theoretical to a numerical point of view. In a third part, I describe the detection of the first brown dwarf orbiting a solar-type star using microlensing, strengthening the recent idea that microlensing will lead to a better understanding of the mechanisms involved in the brown dwarfs formation, still not fully understood. Finally, I investigate the potential of interferometric observations of microlensing events that will give, in the future, new original constrains on the microlens physical properties. First we introduce a new formalism that closely combines interferometric and microlensing observable quantities. Secondly, we determine an average number of events that are at reach of long baseline interferometers every year.
123

Inflation cosmologique : aspects théoriques et contraintes observationnelles / Cosmological inflation : theoretical aspects and observational constraints

Vennin, Vincent 05 September 2014 (has links)
Dans cette thèse sur articles nous nous intéressons aux contraintes observationnelles sur les modèles d'inflation cosmologique et nous étudions certains aspects fondamentaux liés à la nature quantique de la physique inflationnaire. Nous commençons par analyser de façon systématique les modèles à un champ scalaire et avec terme cinétique standard. Dans l'approximation du roulement lent, et en intégrant les contraintes venant du réchauffement, nous dérivons les prédictions associées à environ 75 potentiels. Nous utilisons ensuite les techniques d'inférence Bayésienne pour classer près de 200 modèles inflationnaires et contraindre leurs paramètres. Cela permet d'identifier les modèles favorisés par les observations et de quantifier les niveaux de tensions entre les différents jeux de données. L'intérêt d'une telle approche est renforcé par l'étude de méthodes indépendantes du modèle telle que le ``flot de Hubble'', qui se révèle biaisé. Nous calculons également le spectre de puissance au deuxième ordre pour les modèles d'inflation-k.Ensuite, nous décrivons certains aspects quantiques de la physique inflationnaire. Le formalisme de l'inflation stochastique est notamment utilisé dans le cadre du modèle à deux champs d'inflation hybride. Nous discutons les corrections quantiques sur les prédictions de ce modèle, et à l'aide d'un formalisme récursif, nous nous intéressons à la façon dont elles modifient l'amplitude des perturbations. Finalement, la transition quantique-classique et le problème de la mesure quantique sont étudiés dans un contexte cosmologique. Un modèle de réduction dynamique du paquet d'onde est appliqué à la description des perturbations inflationnaires. / This thesis by publication is devoted to the study of the observational constraints on cosmological inflationary models, and to the investigation of fundamental aspects related to the quantum nature of the inflationary physics.We first present a systematic analysis of all single-scalar-field inflationary models with canonical kinetic terms. Reheating consistent slow-roll predictions are derived for ~ 75 potentials, and Bayesian inference and model comparison techniques are developed to arrange a landscape of ~ 200 inflationary models and associated priors. In this way, we discuss what are the best models of inflation, and we properly quantify tension between data sets. Related to this massive sampling, we highlight the shortcomings of model independent approaches such as the one of ``horizon-flow''. We also pave the way for extending our computational pipeline to k-inflation models by calculating the power spectrum at next-to-next-to leading order for this class of models.In a second part, we describe some aspects related to the quantum nature of the inflationary setup. In particular, we make use of the stochastic inflation formalism, which incorporates the quantum corrections to the inflationary dynamics, in the two-field model of hybrid inflation. We discuss how the quantum diffusion can affect the observable predictions in such models, and we design a recursive strategy that incorporates its effects on the perturbations amplitude. Finally, we investigate the quantum-to-classical transition and the quantum measurement problem in a cosmological context. We apply a dynamical wavefunction collapse model to the description of inflationary perturbations.
124

Modélisation des dynamiques de maladies foliaires de cultures pérennes tropicales à différentes échelles spatiales : cas de la cercosporiose noire du bananier / Modeling of the dynamics of foliar diseases in perennial tropical crops at different scales : case of Black Leaf Streak Disease of banana

Landry, Clara 18 May 2015 (has links)
Cette thèse concerne la modélisation des dynamiques de maladies foliaires de cultures pérennes tropicales à différentes échelles spatiales. Cette approche de modélisation est appliquée à la cercosporiose noire du bananier. Il s’agit d’explorer et de déterminer les paramètres environnementaux et de résistance de l’hôte ayant une influence significative sur la dynamique spatiotemporelle de la maladie et d’apporter des éléments associés au contrôle de la cercosporiose noire.Deux modèles ont été développés dans le cadre de cette thèse. La dynamique épidémiologique au niveau de la plante est décrite par un modèle mécaniste décomposé en un modèle de croissance de la plante et un module épidémiologique décrivant le cycle épidémique du pathogène. L’architecture du bananier est prise en compte par le biais de compartiments foliaires positionnés dans l’espace. Le modèle a été validé par un jeu de données indépendant. Les expérimentations numériques et l’analyse de sensibilité du modèle réalisées par les méthodes de Morris et de e-FAST ont permis de mieux comprendre le fonctionnement épidémique de cette maladie et d’identifier les paramètres influant le plus la dynamique épidémique en particulier la vitesse d’extension des lésions, la durée d’incubation et l’efficacité d’infection .L’approche bayésienne a permis de prendre en compte l’information a priori disponible pour ces trois paramètres sur lesquels a porté l’inférence statistique. L’analyse de sensibilité du modèle a également permis d’identifier l’influence de deux paramètres liés à la croissance de la plante : le nombre de feuilles sur une plante et le rythme d’émission foliaire Un modèle de dynamique spatio-temporelle de la cercosporiose noire a été développé à l’échelle d’un territoire à partir d’enquêtes effectuées enMartinique pendant la période d’invasion de cette maladie de septembre 2010 à mai 2012. Les données récoltées étant censurées, l’inférence des paramètres du modèle a été réalisée dans un cadre bayésien en utilisant un algorithme d’augmentation de données. Le modèle et l’inférence développés permettent de reconstruire la dynamique spatio-temporelle de l’invasion et de prédire la fin d’invasion sur le territoire.Les deux modèles de dynamiques spatio-temporelles développés à deux échelles spatiales différentes ont permis d’acquérir des informations importantes pour construire des outils de conception de méthode de contrôle de la cercosporiose noire des bananiers. / This thesis concerns the modeling of the dynamics of foliar diseases of tropical tree crops at different spatial scales. This modeling approach is applied to black Sigatoka of banana. It is to explore and determine the environmental parameters and host resistance has a significant influence on the spatiotemporal dynamics of the disease and to provide elements associated with the control of Sigatoka noire.Deux models were developed as part of this thesis. The epidemiological dynamics at the plant is described by a mechanistic model decomposed into a growth model of the plant and an epidemiological unit describing the pathogen epidemic cycle. The architecture of the banana is taken into account through foliar compartments positioned in space. The model was validated by an independent data set. Numerical experiments and model sensitivity analysis performed by the methods of Morris and e-FAST enabled to better understand the functioning of this epidemic disease and identify the parameters affecting the most dynamic epidemic especially speed extension of the lesions, the incubation period and efficiency of Bayesian .L'approche infection allowed to take into account prior information available for these three parameters that were the statistical inference. The model sensitivity analysis also identified the influence of two parameters related to plant growth: the number of leaves on a plant and rate of leaf emission A dynamic model of space-time Black Sigatoka has been developed at the scale of a territory from surveys enMartinique during the period of invasion of the disease from September 2010 to May 2012. The data collected being censored, inference of model parameters has was performed in a Bayesian framework, using a data augmentation algorithm. The model developed and inference possible to reconstruct the spatiotemporal dynamics of the invasion and predict the end of the invasion territoire.Les two spatio-temporal dynamics models developed at two different spatial scales has been gained important information for build tools design method of control of black Sigatoka of banana.
125

Écologie des communautés neutralistes : inférence des paramètres des modèles à l'aide de la composition spécifique en forêt tropicale / Neutral Community Ecology : inferring model parameters from species composition data with reference to tropical forests

Beeravolu Reddy, Champak 09 December 2010 (has links)
La compréhension de la dynamique des forêts tropicales hyperdiverses a toujours été un défi en écologie. Historiquement les modèles se basant sur le concept de la niche ou la courbe logistique ont montré leurs limites lorsqu'il s'agissait d'expliquer la diversité d'espèces en forêt tropicale. L'arrivée des modèles neutres en écologie a permis d'exprimer dans un cadre mathématique l'échantillonnage des forêts tropicales, ouvrant de nouvelles perspectives. Ces modèles, très réduits en nombre de paramètres, ont été développés depuis la génétique des populations. Encore peu explorés, ces modèles considèrent les espèces comme étant fonctionnellement équivalentes entre elles. Pour commencer, nous réexaminerons les avancées récentes dans ce domaine extrêmement actif, pour discuter ensuite du développement futur de ces modèles. Dans un second temps, nous analyserons l'inférence des paramètres neutres, afin d'établir ce lien important entre modèles théoriques et données du terrain. De plus, nous introduirons un nouvel estimateur du paramètre décrivant la richesse d'espèces rencontrées dans ces forêts. Ces résultats seront mis en perspective par l'utilisation des données de terrain provenant des forêts sempervirentes des Ghâts Occidentaux d'Inde ainsi que des forêts humides autour du Canal du Panama. Nous testerons également ces approches sur des simulations variées. Finalement, nous essayerons d'évaluer la pertinence des estimations du paramètre de migration en les comparant avec les distances de dispersion des graines observées en forêt tropicale. / Understanding the dynamics of highly diverse communities such as tropical forests has always been a challenging task in ecology. Historically, simplified logistic models and complex niche theories have had a limited success in explaining the species diversity and composition in a tropical context. With the advent of neutral models, we have an original quantitative framework in terms of a sampling theory which opens new perspectives in the field of tropical community ecology. These parsimonious models originally developed from existing theories in population genetics, have a highly selective interpretation of niche theory defined as the functional equivalence of species which has been insufficiently explored. To begin with, we review recent advances of this extremely active field and provide insights into future developments of this theory. Further on, we provide a detailed account of parameter inference which is the crucial link between theoret ical models and field data. In addition, we improve on existing approaches by introducing a novel estimator for the parameter explaining the species richness found in these forests. These results are put into perspective by using field data from the wet evergreen forests of the Western Ghats region of India and the tropical rain forests around the Panama Canal Watershed. Our results are also rigorously tested using simulations of neutral community composition. Lastly, we provide insights into whether parameter inferences dealing with immigration correspond to the seed dispersal distances typically found in tropical forests.
126

Modélisation de structures curvilignes et ses applications en vision par ordinateur / Curvilinear structure modeling and its applications in computer vision

Jeong, Seong-Gyun 23 November 2015 (has links)
Dans cette thèse, nous proposons des modèles de reconstruction de la structure curviligne fondée sur la modélisation stochastique et sur un système d’apprentissage structuré. Nous supposons que le réseau de lignes, dans sa totalité, peut être décomposé en un ensemble de segments de ligne avec des longueurs et orientations variables. Cette hypothèse nous permet de reconstituer des formes arbitraires de la structure curviligne pour différents types de jeux de données. Nous calculons les descripteurs des caractéristiques curvilignes fondés sur les profils des gradients d’image et les profils morphologiques. Pour le modèle stochastique, nous proposons des contraintes préalables qui définissent l'interaction spatiale des segments de ligne. Pour obtenir une configuration optimale correspondant à la structure curviligne latente, nous combinons plusieurs hypothèses de ligne qui sont calculées par échantillonnage MCMC avec différents jeux de paramètres. De plus, nous apprenons une fonction de classement qui prédit la correspondance du segment de ligne donné avec les structures curvilignes latentes. Une nouvelle méthode fondée sur les graphes est proposée afin d’inférer la structure sous-jacente curviligne en utilisant les classements de sortie des segments de ligne. Nous utilisons nos modèles pour analyser la structure curviligne sur des images statiques. Les résultats expérimentaux sur de nombreux types de jeux de données démontrent que les modèles de structure curviligne proposés surpassent les techniques de l'état de l'art. / In this dissertation, we propose curvilinear structure reconstruction models based on stochastic modeling and ranking learning system. We assume that the entire line network can be decomposed into a set of line segments with variable lengths and orientations. This assumption enables us to reconstruct arbitrary shapes of curvilinear structure for different types of datasets. We compute curvilinear feature descriptors based on the image gradient profiles and the morphological profiles. For the stochastic model, we propose prior constraints that define the spatial interaction of line segments. To obtain an optimal configuration corresponding to the latent curvilinear structure, we combine multiple line hypotheses which are computed by MCMC sampling with different parameter sets. Moreover, we learn a ranking function which predicts the correspondence of the given line segment and the latent curvilinear structures. A novel graph-based method is proposed to infer the underlying curvilinear structure using the output rankings of the line segments. We apply our models to analyze curvilinear structure on static images. Experimental results on wide types of datasets demonstrate that the proposed curvilinear structure modeling outperforms the state-of-the-art techniques.
127

Automated test generation for production systems with a model-based testing approach / Génération de tests automatisés pour des systèmes de production avec une approche basée modèle

Durand, William 04 May 2016 (has links)
Ce manuscrit de thèse porte sur le problème du test basé modèle de systèmes de production existants, tels ceux de notre partenaire industriel Michelin, l’un des trois plus grands fabricants de pneumatiques au monde. Un système de production est composé d’un ensemble de machines de production contrôlées par un ou plusieurs logiciels au sein d’un atelier dans une usine. Malgré les nombreux travaux dans le domaine du test basé modèle, l’écriture de modèles permettant de décrire un système sous test ou sa spécification reste un problème récurrent, en partie à cause de la complexité d’une telle tâche. De plus, un modèle est utile lorsqu’il est à jour par rapport à ce qu’il décrit, ce qui implique de le maintenir dans le temps. Pour autant, conserver une documentation à jour reste compliqué puisqu’il faut souvent le faire manuellement. Dans notre contexte, il est important de souligner le fait qu’un système de production fonctionne en continu et ne doit être ni arrêté ni perturbé, ce qui limite l’usage des techniques de test classiques. Pour pallier le problème de l’écriture de modèles, nous proposons une approche pour construire automatiquement des modèles depuis des séquences d’événements observés (traces) dans un environnement de production. Pour se faire, nous utilisons les informations fournies par les données échangées entre les éléments qui composent un système de production. Nous adoptons une approche boîte noire et combinons les notions de système expert, inférence de modèles et machine learning, afin de créer des modèles comportementaux. Ces modèles inférés décrivent des comportements complets, enregistrés sur un système analysé. Ces modèles sont partiels, mais également très grands (en terme de taille), ce qui les rend difficilement utilisable par la suite. Nous proposons une technique de réduction spécifique à notre contexte qui conserve l’équivalence de traces entre les modèles de base et les modèles fortement réduits. Grâce à cela, ces modèles inférés deviennent intéressant pour la génération de documentation, la fouille de données, mais également le test. Nous proposons une méthode passive de test basé modèle pour répondre au problème du test de systèmes de production sans interférer sur leur bon fonctionnement. Cette technique permet d’identifier des différences entre deux systèmes de production et réutilise l’inférence de modèles décrite précédemment. Nous introduisons deux relations d’implantation : une relation basée sur l’inclusion de traces, et une seconde relation plus faible proposée, pour remédier au fait que les modèles inférés soient partiels. Enfin, ce manuscrit de thèse présente Autofunk, un framework modulaire pour l’inférence de modèles et le test de systèmes de production qui aggrège les notions mentionnées précédemment. Son implémentation en Java a été appliquée sur différentes applications et systèmes de production chez Michelin dont les résultats sont donnés dans ce manuscrit. Le prototype développé lors de la thèse a pour vocation de devenir un outil standard chez Michelin. / This thesis tackles the problem of testing (legacy) production systems such as those of our industrial partner Michelin, one of the three largest tire manufacturers in the world, by means of Model-based Testing. A production system is defined as a set of production machines controlled by a software, in a factory. Despite the large body of work within the field of Model-based Testing, a common issue remains the writing of models describing either the system under test or its specification. It is a tedious task that should be performed regularly in order to keep the models up to date (which is often also true for any documentation in the Industry). A second point to take into account is that production systems often run continuously and should not be disrupted, which limits the use of most of the existing classical testing techniques. We present an approach to infer exact models from traces, i.e. sequences of events observed in a production environment, to address the first issue. We leverage the data exchanged among the devices and software in a black-box perspective to construct behavioral models using different techniques such as expert systems, model inference, and machine learning. It results in large, yet partial, models gathering the behaviors recorded from a system under analysis. We introduce a context-specific algorithm to reduce such models in order to make them more usable while preserving trace equivalence between the original inferred models and the reduced ones. These models can serve different purposes, e.g., generating documentation, data mining, but also testing. To address the problem of testing production systems without disturbing them, this thesis introduces an offline passive Model-based Testing technique, allowing to detect differences between two production systems. This technique leverages the inferred models, and relies on two implementation relations: a slightly modified version of the existing trace preorder relation, and a weaker implementation proposed to overcome the partialness of the inferred models.Overall, the thesis presents Autofunk, a modular framework for model inference and testing of production systems, gathering the previous notions. Its Java implementation has been applied to different applications and production systems at Michelin, and this thesis gives results from different case studies. The prototype developed during this thesis should become a standard tool at Michelin.
128

Exploiting Semantic for the Automatic Reverse Engineering of Communication Protocols. / Exploitation de la sémantique pour la rétro-conception automatisée de protocoles de communication.

Bossert, Georges 17 December 2014 (has links)
Cette thèse propose une approche pratique pour la rétro-conception automatisée de protocoles de communication non-documentés. Les travaux existants dans ce domaine ne permettent qu'un apprentissage incomplet des spécifications ou exigent trop de stimulation de l'implémentation du protocol cible avec le risque d'être vaincu par des techniques de contre-inférence. Cette thèse adresse ces problématiques en s'appuyant sur la sémantique du protocole cible pour améliorer la qualité, la rapidité et la furtivité du processus d'inférence. Nous appliquons cette approche à la rétro-conception des deux principaux aspects de la définition d'un protocole à savoir l'inférence de sa syntaxe et de sa grammaire. Nous proposons un outil open-source, appelé Netzob, qui implémente nos contributions pour aider les experts en sécurité dans leur lutte contre les dernières menaces informatiques. Selons nos recherches, Netzob apparait comme l'outil publié le plus avancé pour la rétro-conception et la simulation de protocoles de communications non-documentés. / This thesis exposes a practical approach for the automatic reverse engineering of undocumented communication protocols. Current work in the field of automated protocol reverse engineering either infer incomplete protocol specifications or require too many stimulation of the targeted implementation with the risk of being defeated by counter-inference techniques. We propose to tackle these issues by leveraging the semantic of the protocol to improve the quality, the speed and the stealthiness of the inference process. This work covers the two main aspects of the protocol reverse engineering, the inference of its syntactical definition and of its grammatical definition. We propose an open-source tool, called Netzob, that implements our work to help security experts in their work against latest cyber-threats. We claim Netzob is the most advanced published tool that tackles issues related to the reverse engineering and the simulation of undocumented protocols.
129

Tests multiples et bornes post hoc pour des données hétérogènes / Multiple testing and post hoc bounds for heterogeneous data

Durand, Guillermo 26 November 2018 (has links)
Ce manuscrit présente mes contributions dans trois domaines des tests multiples où l'hétérogénéité des données peut être exploitée pour mieux détecter le signal tout en contrôlant les faux positifs : pondération des p-valeurs, tests discrets, et inférence post hoc. Premièrement, une nouvelle classe de procédures avec pondération données-dépendante, avec une structure de groupe et des estimateurs de la proportion de vraies nulles, est définie, et contrôle le False Discovery Rate (FDR) asymptotiquement. Cette procédure atteint aussi l'optimalité en puissance sous certaines conditions sur les estimateurs. Deuxièmement, de nouvelles procédures step-up et step-down, adaptées aux tests discrets sous indépendance, sont conçues pour contrôler le FDR pour une distribution arbitraire des marginales des p-valeurs sous l'hypothèse nulle. Finalement, de nouvelles familles de référence pour l'inférence post hoc, adaptées pour le cas où le signal est localisé, sont étudiées, et on calcule les bornes post hoc associées avec un algorithme simple. / This manuscript presents my contributions in three areas of multiple testing where data heterogeneity can be exploited to better detect false null hypotheses or improve signal detection while controlling false positives: p-value weighting, discrete tests, and post hoc inference. First, a new class of data-driven weighting procedures, incorporating group structure and true null proportion estimators, is defined, and its False Discovery Rate (FDR) control is proven asymptotically. This procedure also achieves power optimality under some conditions on the proportion estimators. Secondly, new step-up and step-down procedures, tailored for discrete tests under independence, are designed to control the FDR for arbitrary p-value null marginals. Finally, new confidence bounds for post hoc inference (called post hoc bounds), tailored for the case where the signal is localized, are studied, and the associated optimal post hoc bounds are derived with a simple algorithm.
130

Probabilistic approaches to the adaptive immune repertoire : a data-driven approach / Approches probabilistes du répertoire immunitaire adaptatif : une approche guidée par les données

Marcou, Quentin 28 September 2017 (has links)
Le système immunitaire de chaque individu doit faire face à des agressions répétées d'un environnement en constante évolution, constituant ainsi un nombre de menaces virtuellement infini. Afin de mener ce rôle à bien, le système immunitaire adaptatif s'appuie sur une énorme diversité de lymphocytes T et B. Chacune de ces cellules exhibe à sa surface un récepteur unique, créé aléatoirement via le processus de recombinaison V(D)J, et spécifique à un petit nombre de pathogènes seulement. La diversité initiale générée lors de ce processus de recombinaison est ensuite réduite par une étape de sélection fonctionnelle basée sur les propriétés de repliement du récepteur ainsi que ses capacités à interagir avec des protéines du soi. Pour les cellules B, cette diversité peut être à nouveau étendue après rencontre d'un pathogène lors du processus de maturation d'affinité durant lequel le récepteur subit des cycles successifs d'hypermutation et sélection. Ces travaux présentent des approches probabilistes visant à inférer les distributions de probabilités sous-tendant les processus de recombinaison et d'hypermutation à partir de données de séquençage haut débit. Ces approches ont donné naissance à IGoR, un logiciel polyvalent dont les performances dépassent celles des outils existants. En utilisant les modèles obtenus comme base, je présenterai comment ces derniers peuvent être utilisés afin d'étudier le vieillissement et évolution du répertoire immunitaire, la présence d'emprunte parentale lors de la recombinaison V(D)J ou encore pour démontrer que les jumeaux échangent des lymphocytes au cours de la vie fœtale. / An individual’s adaptive immune system needs to face repeated challenges of a constantly evolving environment with a virtually infinite number of threats. To achieve this task, the adaptive immune system relies on large diversity of B-cells and T-cells, each carrying a unique receptor specific to a small number of pathogens. These receptors are initially randomly built through the process of V(D)J recombination. This initial generated diversity is then narrowed down by a step of functional selection based on the receptors' folding properties and their ability to recognize self antigens. Upon recognition of a pathogen the B-cell will divide and its offsprings will undergo several rounds of successive somatic hypermutations and selection in an evolutionary process called affinity maturation. This work presents principled probabilistic approaches to infer the probability distribution underlying the recombination and somatic hypermutation processes from high throughput sequencing data using IGoR - a flexible software developed throughout the course of this PhD. IGoR has been developed as a versatile research tool and can encode a variety of models of different biological complexity to allow researchers in the field to characterize evermore precisely immune receptor repertoires. To motivate this data-driven approach we demonstrate that IGoR outperforms existing tools in accuracy and estimate the sample sizes needed for reliable repertoire characterization. Finally, using obtained model predictions, we show potential applications of these methods by demonstrating that homozygous twins share T-cells through cord blood, that the public core of the T cell repertoire is formed in the pre-natal period and finally estimate naive T cell clone lifetimes in human.

Page generated in 0.0846 seconds