• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Stress testing and financial risks / Stress Tests et Risques financiers

Koliai, Lyes 27 October 2014 (has links)
Cette thèse établit un cadre d’évaluation des stress tests financiers, en identifiant leurs principales limites. Trois approches ont été proposées pour améliorer les pratiques actuelles à chaque étape du processus. Elles incluent : (i) un modèle semi-paramétrique TVE–copules-paires pour les facteurs de risque financiers, avec un accent particulier sur les valeurs extrêmes, (ii) un modèle d'évaluation pour estimer l'impact de ces facteurs sur un système financier, via des effets directs, indirects et de contagion, en considérant les réactions endogènes publiques et privées, et (iii) une approche bayésienne pour mener une sélection systématique des scénarios de stress pour des portefeuilles non linéaires. Le modèle de risque a montré de meilleures performances par rapport à la plupart des spécifications courantes ; ce qui augmente la crédibilité du test. Le modèle d'évaluation est estimé pour le système bancaire français, révélant ses principales sources de vulnérabilité et le rôle clé des réactions publiques. Enfin, l'approche bayésienne a permis de remplacer les scénarios subjectifs traditionnels et d’inclure les résultats de stress tests dans la gestion quantitative des risques aux côtés des autres outils conventionnels / This thesis has set a comprehensive framework to assess the relevance of financial stress tests, identifying their main drawbacks. Three robust and flexible model frameworks have been proposed to improve current practices in each of the tests’ stages. This is achieved through: (i) a semi-parametric EVT–Pair-copulas model for financial risk factors, with a specific focus on extreme values, (ii) a valuation model to assess the impact of risk factors on a financial system, through direct and indirect effects, contagion channels, and considering private and public response functions, and (iii) a Bayesian-based approach to run a systematic selection of stress scenarios for nonlinear portfolios. The presented risk model has proven to outperform commonly used specifications, hence increasing the test’s credibility. Estimated for the French banking system, the valuation model revealed the related risk profile and the main vulnerabilities. Public responses turned to be of vital interest. Finally, the Bayesian approach allows replacing the traditional subjective scenarios and including the tests’ results in quantitative risk management alongside with other conventional tools
202

Estimation statistique des paramètres pour les processus de Cox-Ingersoll-Ross et de Heston / Statistical inference for the parameters of the Cox-Ingersoll-Ross process and the Heston process

Du Roy de Chaumaray, Marie 02 December 2016 (has links)
Les processus de Cox-Ingersoll-Ross et de Heston jouent un rôle prépondérant dans la modélisation mathématique des cours d’actifs financiers ou des taux d’intérêts. Dans cette thèse, on s’intéresse à l’estimation de leurs paramètres à partir de l’observation en temps continu d’une de leurs trajectoires. Dans un premier temps, on se place dans le cas où le processus CIR est géométriquement ergodique et ne s’annule pas. On établit alors un principe de grandes déviationspour l’estimateur du maximum de vraisemblance du couple des paramètres de dimension et de dérive d’un processus CIR. On établit ensuite un principe de déviations modérées pour l’estimateur du maximum de vraisemblance des quatre paramètres d’un processus de Heston, ainsi que pour l’estimateur du maximum de vraisemblance du couple des paramètres d’un processus CIR. Contrairement à ce qui a été fait jusqu’ici dans la littérature,les paramètres sont estimés simultanément. Dans un second temps, on ne se restreint plus au cas où le processus CIR n’atteint jamais zéro et on propose un nouvel estimateur des moindres carrés pondérés pour le quadruplet des paramètres d’un processus de Heston.On établit sa consistance forte et sa normalité asymptotique, et on illustre numériquement ses bonnes performances. / The Cox-Ingersoll-Ross process and the Heston process are widely used in financial mathematics for pricing and hedging or to model interest rates. In this thesis, we focus on estimating their parameters using continuous-time observations. Firstly, we restrict ourselves to the most tractable situation where the CIR processis geometrically ergodic and does not vanish. We establish a large deviations principle for the maximum likelihood estimator of the couple of dimensionnal and drift parameters of a CIR process. Then we establish a moderate deviations principle for the maximum likelihood estimator of the four parameters of an Heston process, as well as for the maximum likelihood estimator of the couple of parameters of a CIR process. In contrast to the previous literature, parameters are estimated simultaneously. Secondly, we do not restrict ourselves anymore to the case where the CIR process never reaches zero and we introduce a new weighted least squares estimator for the quadruplet of parameters of an Heston process. We establish its strong consitency and asymptotic normality, and we illustrate numerically its good performances.
203

Méthodes pour l'inférence en grande dimension avec des données corrélées : application à des données génomiques / Methods for staistical inference on correlated data : application to genomic data

Leonardis, Eleonora De 26 October 2015 (has links)
La disponibilité de quantités énormes de données a changé le rôle de la physique par rapport aux autres disciplines. Dans cette thèse, je vais explorer les innovations introduites dans la biologie moléculaire grâce à des approches de physique statistique. Au cours des 20 dernières années, la taille des bases de données sur le génome a augmenté de façon exponentielle : l'exploitation des données brutes, dans le champ d'application de l'extraction d'informations, est donc devenu un sujet majeur dans la physique statistique. Après le succès dans la prédiction de la structure des protéines, des résultats étonnamment bons ont été finalement obtenus aussi pour l'ARN. Cependant, des études récentes ont révélé que, même si les bases de données sont de plus en plus grandes, l'inférence est souvent effectuée dans le régime de sous-échantillonnage et de nouveaux systèmes informatiques sont nécessaires afin de surmonter cette limitation intrinsèque des données réelles. Cette thèse va discuter des méthodes d'inférence et leur application à des prédictions de la structure de l'ARN. Nous allons comprendre certaines approches heuristiques qui ont été appliquées avec succès dans les dernières années, même si théoriquement mal comprises. La dernière partie du travail se concentrera sur le développement d'un outil pour l'inférence de modèles génératifs, en espérant qu'il ouvrira la voie à de nouvelles applications. / The availability of huge amounts of data has changed the role of physics with respect to other disciplines. Within this dissertation I will explore the innovations introduced in molecular biology thanks to statistical physics approaches. In the last 20 years the size of genome databases has exponentially increased, therefore the exploitation of raw data, in the scope of extracting information, has become a major topic in statistical physics. After the success in protein structure prediction, surprising results have been finally achieved also in the related field of RNA structure characterisation. However, recent studies have revealed that, even if databases are growing, inference is often performed in the under sampling regime and new computational schemes are needed in order to overcome this intrinsic limitation of real data. This dissertation will discuss inference methods and their application to RNA structure prediction. We will discuss some heuristic approaches that have been successfully applied in the past years, even if poorly theoretically understood. The last part of the work will focus on the development of a tool for the inference of generative models, hoping it will pave the way towards novel applications.
204

Extending convolutional neural networks to irregular domains through graph inference / Extension des réseaux de neurones convolutifs à des domaines irréguliers par l’inférence de graphe

Pasdeloup, Bastien 12 December 2017 (has links)
Tout d'abord, nous présentons des méthodes permettant d'inférer un graphe à partir de signaux, afin de modéliser le support des données à classifier. Ensuite, des translations préservant les voisinages des sommets sont identifiées sur le graphe inféré. Enfin, ces translations sont utilisées pour déplacer un noyau convolutif sur le graphe, afin dedéfinir un réseau de neurones convolutif adapté aux données d'entrée.Nous avons illustré notre méthodologie sur une base de données d'images. Sans utiliser de connaissances sur les signaux, nous avons pu inférer un graphe proche d'une grille. Les translations sur ce graphe sont proches des translations Euclidiennes, ce qui nous a permis de définir un réseau de neurones convolutif très similaire à ce que l'on aurait pu obtenir en utilisant l'information que les signaux sont des images. Ce réseau, entraîné sur les données initiales, a dépassé lesperformances des méthodes de l'état de l'art de plus de 13 points, tout en étant simple et facilement améliorable.La méthode que nous avons introduite est une généralisation des réseaux de neurones convolutifs, car ceux-ci sont des cas particuliers de notre approche quand le graphe est une grille. Nos travaux ouvrent donc de nombreuses perspectives, car ils fournissent une méthode efficace pour construire des réseaux adaptés aux données. / This manuscript sums up our work on extending convolutional neuralnetworks to irregular domains through graph inference. It consists of three main chapters, each giving the details of a part of a methodology allowing the definition of such networks to process signals evolving on graphs with unknown structures.First, graph inference from data is explored, in order to provide a graph modeling the support of the signals to classify. Second, translation operators that preserve neighborhood properties of the vertices are identified on the inferred graph. Third, these translations are used to shift a convolutional kernel on the graph in order to define a convolutional neural network that is adapted to the input data.We have illustrated our methodology on a dataset of images. While not using any particular knowledge on the signals, we have been able to infer a graph that is close to a grid. Translations on this graph resemble Euclidean translations. Therefore, this has allowed us to define an adapted convolutional neural network that is very close what one would obtain when using the information that signals are images. This network, trained on the initial data, has out performed state of the art methods by more than 13 points, while using a very simple and easily improvable architecture.The method we have introduced is a generalization of convolutional neural networks. As a matter of fact, they can be seen as aparticularization of our approach in the case where the graph is a grid. Our work thus opens the way to numerous perspectives, as it provides an efficient way to build networks that are adapted to the data.
205

Computational inference of conceptual trajectory model : considering domain temporal and spatial dimensions / Raisonnement sur la modélisation des trajectoires : prise en compte des aspects thématiques, temporels et spatiaux

Wannous, Rouaa 20 October 2014 (has links)
Le développement de technologies comme les systèmes de positionnement par satellites (GNSS), les communications sans fil, les systèmes de radio-identification (RFID) et des capteurs a augmenté la disponibilité de données spatio-temporelles décrivant des trajectoires d’objets mobiles. Des bases de données relationnelles peuvent être utilisées pour stocker et questionner les données capturées. Des applications récentes montrent l’intérêt d’une approche intégrant des trajectoires « sémantiques » pour intégrer des connaissances sur les comportements d’objets mobiles. Dans cette thèse, nous proposons une approche basée sur des ontologies. Nous présentons une ontologie pour les trajectoires. Nous appliquons notre approche à l’étude des trajectoires de mammifères marins. Pour permettre l’exploitation de nos connaissances sur les trajectoires, nous considérons l’objet mobile, des relations temporelles et spatiales dans notre ontologie. Nous avons évalué la complexité du mécanisme d’inférence et nous proposons des optimisations, comme l’utilisation d’un voisinage temporel et spatial. Nous proposons également une optimisation liée à notre application. Finalement, nous évaluons notre contribution et les résultats montrent l’impact positif de la réduction de la complexité du mécanisme d’inférence. Ces améliorations réduisent de moitié le temps de calcul et permettent de manipuler des données de plus grande dimension. / Spatio-temporal data describing trajectories of moving objects has increased as a consequence of the larger availability of such data due to current sensors techniques. These devices use different technologies like global navigation satellite system (GNSS), wireless communication, radio-frequency identification (RFID), and sensors techniques. Although capturing technologies differ, the captured data has common spatial and temporal features. Thus, relational database management systems (RDBMS) can be used to store and query the captured data. RDBMS define spatial data types and spatial operations. Recent applications show that the solutions based on traditional data models are not sufficient to consider complex use cases that require advanced data models. A complex use case refers not only to data, but also to the domain expert knowledge and others. An inference mechanism enriches semantic trajectories with this knowledge. Temporal and spatial reasoning are fundamental for the inference mechanism on semantic trajectories. Several research fields are currently focusing on semantic trajectories to discover more information about mobile object behavior. In this thesis, we propose a modeling approach based on ontologies. We introduce a high-level trajectory ontology. The temporal and spatial parts form an implicit background of the trajectory model. So, we choose temporal and spatial models to be integrated with our trajectory model. We apply our modeling approach to a particular domain application : marine mammal trajectories. Therefore, we model this application and integrate it with our ontology. We implement our approach using RDF. Technically, we use Oracle Semantic Data Technologies. To accomplish reasoning over trajectories, we consider mobile objects, temporal and spatial knowledge in our ontology. Our approach demonstrates how temporal and spatial relationships that are common in natural language expressions (i.e., relations between time intervals like ”before”, ”after”, etc.) are represented in the ontology as user-defined rules. To annotate data with this kind of rules, we need an inference mechanism over trajectory ontology. Experiments over our model using the temporal and spatial reasoning address an inference computation complexity. This complexity is indicated in term of time computations and space storage. In order to reduce the inference complexity, we propose optimizations, such as domain constraints, temporal and spatial neighbor refinements. Moreover, controlling the repetition of the inference computation is also proposed. Even more, we define a refinement specifically for the application domain. Finally, we evaluate our contribution. Results show their positive impact on reducing the complexity of the inference mechanism. These refinements reduce half of the time computation and allow considering bigger size of the data.
206

Prédire le passé et le futur : rôle des représentations motrices dans l'inférence du mouvement / Forecasting the past and the future : role of the motor representations in the motion inference

Carlini, Alessandro 12 October 2012 (has links)
L’efficacité du système visuel est permise par un complexe réseau d’élaboration, qui s’appuie sur des structures corticales, sous-corticales et périphériques. Le but de la présente recherche est de mieux comprendre le processus de perception visuelle du mouvement, et réaliser un modèle computationnel capable de reproduire les fonctionnalités humaines du tracking (suivi) d'un objet en mouvement. Ce travail de thèse comprend une ample recherche bibliographique, ainsi qu’une série d’expérimentations ; la thèse se compose de deux parties :La première partie a pour objet la détermination des performances dans l’inférence « vers le passé », d’un mouvement partiellement visible. Il s’agit de définir l’implication des informations exogènes (les signaux rétiniens) et endogènes (les modèles internes de l’action observée) dans la reconstruction de la cinématique d’une cible en mouvement et partiellement occultée. Nos résultats supportent l’hypothèse que le Système Nerveux Central adopte un mécanisme basé sur le recours aux modèles internes dans la reconstruction du passé de cinématiques biologiques. La deuxième partie complémente la première, et vise à identifier la structure et les caractéristiques fonctionnelles du système de poursuite, ainsi que à comprendre l’origine des erreurs systématiques présentes dans la localisation d’une cible chez l’homme. Nous avons développé un modèle computationnel en langage Matlab, basé sur le mécanisme d’extrapolation du mouvement, qui est capable de reproduire les données expérimentales dans la tâche de localisation / The effectiveness of the visual system is permitted by a complex processing network, which relies on cortical, sub-cortical and peripheral structures. The purpose of this research is to improve the knowledge of the process sustaining the visual perception of motion, and to produce a computational model able to reproduce the features of human visual tracking of a moving object.This work includes an extensive bibliographic research, and a series of experiments. The thesis consists of two parts:The first part pertains to the determination of performance in the "backward" inference of a partially visible movement. It consist of defining the involvement of exogenous information (retinal signals) and endogenous information (internal models of observed action) in the kinematic reconstruction of a partially hidden trajectory of a moving target. Our results support the hypothesis that the CNS adopts a mechanism based on the use of internal models in the reconstruction of past biological kinematics.The second part complements the first one, and aims to identify the structure and the functional characteristics of the tracking system; it also aims to understand the origin of systematic errors present in the location of a target, in humans.We developed a computational model in Matlab, based on the extrapolation mechanism of movement, which is capable of reproducing the experimental data for the localization task
207

Apport et utilisation des méthodes d’inférence bayésienne dans le domaine des études cliniques diagnostiques / Contribution and use of Bayesian inference methods in the field of clinical diagnostic studies

Bastide, Sophie 16 December 2016 (has links)
Les études diagnostiques correspondent à l’ensemble des études cliniques qui ont pour objectif l’évaluation d’un nouveau test diagnostique. Dans la démarche d’évaluation, l’étape centrale est l’évaluation de la performance du nouveau test par estimation de sa sensibilité et de sa spécificité. De manière classique, la performance du nouveau test est évaluée par comparaison à un test de référence supposé parfait, appelé un « gold standard » qui permet la connaissance du statut réel de chaque sujet vis-à-vis de la pathologie étudiée. Cependant, dans de très nombreuses situations cliniques, différentes difficultés existent : l’absence de gold standard parfait, l’impossibilité de réalisation du gold standard à tous les sujets, la dépendance des résultats des tests réalisés, la variabilité de la sensibilité et/ou de la spécificité du test en fonction de certaines conditions de réalisation, la multiple réalisation du test dans le temps ou sa multiple interprétation.Une revue méthodologique systématique a été effectuée pour faire l’état des lieux des méthodes d’inférence bayésienne disponibles dans les études diagnostiques et de leur utilisation en pratique. Le focus sur les méthodes bayésiennes a été retenu du fait de leurs avantages théoriques contrastant avec leur relative sous-utilisation dans le domaine médicale. Actuellement, de nombreuses méthodes ont été proposées pour répondre à ces différentes difficultés, avec des développements très complexes en cas de combinaison de plusieurs difficultés dans une même situation. Nous avons ainsi pu établir une cartographie des combinaisons de méthodes disponibles. Cependant leur utilisation en clinique reste encore limitée, même si elle est en augmentation ces dernières années.En pratique, nous avons été confrontés à la problématique du diagnostic de pneumopathie à Pneumocystis jirovecii (PJ) (champignon ubiquitaire opportuniste responsable de mycose profonde chez les patients immunodéprimés). Dans ce projet, nous disposions des résultats de quatre techniques de PCR (Polymerase chain reaction) différentes mais sans gold standard, avec la difficulté supplémentaire de dépendance conditionnelle entre les tests du fait du principe commun à l’origine de ces quatre tests. Deux développements ont été réalisés en parallèle pour répondre à cette problématique : d’une part, un travail sur les méthodes d’élicitation des informations a priori adaptées spécifiquement aux études diagnostiques, et d’autre part, un travail de mise en œuvre d’un modèle statistique adapté à la problématique de quatre tests dépendants en l’absence de gold standard. En l’absence de données informatives dans la littérature, l’élicitation des a priori, étape obligatoire pour l’utilisation des méthodes d’inférence bayésienne, est réalisée par l’interrogation d’experts du domaine. Notre travail a consisté en une adaptation des méthodes existantes, disponibles dans le domaine des essais cliniques, spécifiquement aux études diagnostiques pour obtenir des a priori informatifs. Cette méthode a été appliquée à notre cas des PCR diagnostiques pour PJ. L’estimation des performances diagnostiques des tests en l’absence de gold standard repose de manière efficiente sur les modèles à classes latentes. Trois modèles ont été développés pour le cas de deux tests diagnostiques : un modèle à indépendance conditionnelle, un modèle à dépendance conditionnelle à effets fixes et un modèle à dépendance conditionnelle à effets aléatoires. Nous proposons dans cette thèse une adaptation de ces trois modèles à la situation de quatre tests diagnostiques avec une formulation des paramètres permettant une interprétation clinique des covariances entre les tests dans un souci de transmission des méthodes de la théorie à la pratique. Une application et une comparaison de ces modèles ont été faites pour l’estimation des sensibilités et spécificités des quatre techniques de PCR à PJ en utilisant les a priori informatifs obtenus auprès des experts. / Diagnostic studies include all clinical studies the aim of which is the evaluation of a new diagnostic test. In the evaluation process, the main step is the evaluation of the performance of the new test i.e. its sensitivity and specificity. Usually, the performance of a new test is assessed by comparison to a test of reference which is supposed to be perfect, i.e. a "gold standard", and specifies the actual patient’s status for the disease of interest (“Diseased” or “Not-Diseased” status). However, in many clinical situations, different pitfalls exist such as (i) a gold standard is not available, (ii) the gold standard is not applicable to all patients, (iii) a conditional dependence exists between test results, (iv) the performance of a test is not constant and depends on the conditions of achievement of the test, (v) the tests are repeated in time or by several machines or read by several readers, together with multiple interpretation of the results. A systematic methodological review has been performed to inventory all Bayesian inference methods available in the field of diagnostic studies and their use in practice. The focus on Bayesian methods was based on the theoretical advantages of these methods contrasting with their relative underutilization in the medical field. Finally, several interesting methods have been proposed to address methodological issues of diagnostic studies, with very complex developments when several issues were combined in the same clinical situation. We propose to map the development methods and combinations that have already been done or not. However, their clinical use is still limited, although it has increased in recent years.In practice, we met the problem of the diagnosis of pneumonia due to Pneumocystis jirovecii (PJ). PJ is an ubiquitous opportunistic fungus leading to deep mycosis in immunocompromised patients. In this study, the results of four PCR (polymerase chain reaction) assays were available, but without any gold standard, and the supplementary difficulty of conditional dependence between tests because the four tests were based on the same principle. Two works were performed in parallel to address this issue: on one hand, an adaptation of methods to elicit prior information specifically in diagnostic studies, and on the other hand, the implementation of specific Bayesian statistical models adapted to the context of four-dependent tests in the absence of gold standard. When informative information is not available in the literature, the elicitation of priors, the mandatory first step of a Bayesian inference, is carried out by registering experts’ beliefs in the field. Our work consisted in an adaptation of existing methods, available in clinical trials, specifically for diagnostic studies to obtain informative priors. We then applied this method to our four PJ PCR assays. Estimation of the diagnostic test performance in absence of gold standard is efficiently based on latent class models (LCM). Three LCM were developed for the case of two diagnostic tests: a simple LCM assuming conditional independence between tests, a fixed effects LCM and a random effects LCM providing an adjustment for conditional dependence between tests. We extended these three models to a situation where four diagnostic tests are involved and proposed a formulation that enables an interpretation of between tests covariances in a clinical perspective in order to bind theory to practice. These models were then applied and compared in an estimation study of the sensitivities and specificities of the four PJ PCR assays, by using informative priors obtained from experts.
208

Data fusion and collaborative state estimation in wireless sensor networks / Fusion de données et estimation collaborative d'état dans les réseaux de capteurs sans fil

Haj Chhadé, Hiba 01 June 2015 (has links)
L'objectif de la thèse est de développer des algorithmes de fusion de données recueillies à l’aide d'un réseau de capteurs sans fil afin de localiser plusieurs sources émettant un agent chimique ou biologique dans l'air. Ces capteurs détectent la concentration de la substance émise, transportée par advection et diffusion, au niveau de leurs positions et de communiquer cette information à un centre de traitement. L’information recueillie de façon collaborative est d'abord utilisée pour localiser les capteurs déployés au hasard et ensuite pour localiser les sources. Les applications comprennent, entre autres, la surveillance environnementale et la surveillance de sites sensibles ainsi que des applications de sécurité dans le cas d'une libération accidentelle ou intentionnelle d'un agent toxique. Toutefois, l'application considérée dans la thèse est celle de la détection et la localisation de mines terrestres. Dans cette approche, les mines sont considérées comme des sources émettrices de produits chimiques explosifs.La thèse comprend une contribution théorique où nous étendons l'algorithme de propagation de la croyance, un algorithme de fusion de données bien connu et largement utilisé pour l'estimation collaborative d'état dans les réseaux de capteurs, au cadre des méthodes à erreurs bornées. Le nouvel algorithme est testé sur le problème de l'auto-localisation dans les réseaux de capteurs statiques ainsi que l'application de suivi d'un objet mobile en utilisant un réseau de capteurs de distance. Autres contributions comprennent l'utilisation d'une approche probabiliste bayésienne avec des techniques d'analyse de données pour localiser un nombre inconnu de sources émettrices de vapeur. / The aim of the thesis is to develop fusion algorithms for data collected from a wireless sensor network in order to locate multiple sources emitting some chemical or biological agent in the air. These sensors detect the concentration of the emitted substance, transported by advection and diffusion, at their positions and communicate this information to a treatment center. The information collected in a collaborative manner is used first to locate the randomly deployed sensors and second to locate the sources. Applications include, amongst others, environmental monitoring and surveillance of sensitive sites as well as security applications in the case of an accidental or intentional release of a toxic agent. However, the application we consider in the thesis is that of landmine detection and localization. In this approach, the land mines are considered as sources emitting explosive chemicals. The thesis includes a theoretical contribution where we extend the Belief Propagation algorithm, a well-known data fusion algorithm that is widely used for collaborative state estimation in sensor networks, to the bounded error framework. The novel algorithm is tested on the self-localization problem in static sensor networks as well as the application of tracking a mobile object using a network of range sensors. Other contributions include the use of a Bayesian probabilistic approach along with data analysis techniques to locate an unknown number of vapor emitting sources.
209

Towards whole-cell mapping of single-molecule dynamics / Vers une cartographie cellule entière de molécule unique dynamique

El Beheiry, Mohamed Hossam 17 December 2015 (has links)
La compréhension fondamentale de fonctions biologiques est accordée par l’imagerie de molécules uniques dans les cellules vivantes. Cet environnement nanoscopique est compliqué et largement mal compris. La microscopie de localisation permet cet environnement d’être sondé avec le suivi de molécules uniques. Depuis longtemps, l’obstacle principal qui empêcher la compréhension de processus physiques à cette échelle était la pénurie d’information accessible; de fortes hypothèses ne peuvent pas être établies à partir de quelques dizaines de trajectoires de molécules uniques. L’introduction des techniques de suivi de molécules à haute densité a recadré les possibilités. Dans cette thèse, les outils d’inférence Bayesienne ont été développé pour élucider le comportement de molécules uniques à partir la cartographie de leurs paramètres physiques de mouvement. Ces cartes décrivent, entre autre, les hétérogénéités aux échelles locales mais aussi à l’échelle de la cellule entière. Notamment elles dévoilent les détails quantitatifs sur les processus cellulaires de base. En utilisant cette approche cartographique, les interactions entre récepteurs et protéines d’échafaudage chez les neurones et les cellules non-neuronales sont étudiés. Une étude sur les interactions imprimées dans la cellule est également effectuée grace à un système prometteur d’impression de protéine. Les différents types d’interactions entre constructions chimériques du récepteur de glycine et de protéines d’échafaudage de géphyrine sont décrits et distingué in situ. Enfin, les perspectives vis-à-vis l’obtention de cartes tridimensionnelles de dynamiques de molécules uniques sont également commentées. / Imaging of single molecules inside living cells confers insight to biological function at its most granular level. Single molecules experience a nanoscopic environment that is complicated, and in general, poorly understood. The modality of choice for probing this environment is live-cell localisation microscopy, where trajectories of single molecules can be captured. For many years, the great stumbling block in comprehension of physical processes at this scale was the lack of information accessible; statistical significance and robust assertions are hardly possible from a few dozen trajectories. It is the onset of high-density single-particle tracking that has dramatically reframed the possibilities of such studies. Importantly, the consequential amounts of data it provides invites the use of powerful statistical tools that assign probabilistic descriptions to experimental observations. In this thesis, Bayesian inference tools have been developed to elucidate the behaviour of single molecules via the mapping of motion parameters. As a readout, maps describe heterogeneities at local and whole-cell scales. Importantly, they grant quantitative details into basic cellular processes. This thesis uses the mapping approach to study receptor-scaffold interactions inside neurons and non-neuronal cells. A promising system in which interactions are patterned is also examined. It is shown that interactions of different types of chimeric glycine receptors to the gephyrin scaffold protein may be described and distinguished in situ. Finally, the prospects of whole-cell mapping in three-dimensions are evaluated based on a discussion of state-of-the-art volumetric microscopy techniques.
210

Une approche physique-statistique à différents problèmes dans la théorie des réseaux / A statistical physics approach to different problems in network theory

Guggiola, Alberto 26 October 2015 (has links)
La physique statistique, développée à l'origine pour décrire les systèmes thermodynamiques, a joué pendant les dernières décennies un rôle central dans la modélisation d'un ensemble incroyablement vaste et hétérogène de différents phénomènes qui ont lieu par exemple dans des systèmes sociaux, économiques ou biologiques. Un champ d'applications possibles aussi vaste a été trouvé aussi pour les réseaux, comme une grande variété de systèmes peut être décrite en termes d'éléments interconnectés. Après une partie introductive sur les thèmes abordés ainsi que sur le rôle de la modélisation abstraite dans la science, dans ce manuscrit seront décrites les nouvelles perspectives auxquelles on peut arriver en approchant d'une façon physico-statistique trois problèmes d'intérêt dans la théorie des réseaux: comment une certaine quantité peut se répandre de façon optimale sur un graphique, comment explorer un réseau et comment le reconstruire à partir d'un jeu d'informations partielles. Quelques remarques finales sur l'importance que ces thèmes préserveront dans les années à venir conclut le travail. / Statistical physics, originally developed to describe thermodynamic systems, has been playing for the last decades a central role in modelling an incredibly large and heterogeneous set of different phenomena taking for instance place on social, economical or biological systems. Such a vast field of possible applications has been found also for networks, as a huge variety of systems can be described in terms of interconnected elements. After an introductory part introducing these themes as well as the role of abstract modelling in science, in this dissertation it will be discussed how a statistical physics approach can lead to new insights as regards three problems of interest in network theory: how some quantity can be optimally spread on a graph, how to explore it and how to reconstruct it from partial information. Some final remarks on the importance such themes will likely preserve in the coming years conclude the work.

Page generated in 0.0507 seconds