• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Recherche de paramètres morphologiques influents pour la prévision des caractéristiques mécaniques d'un acier austénoferritique

Messiaen, Laure 17 June 1997 (has links) (PDF)
Les aciers inoxydables austénoferritiques sont couramment utilisés dans l'industrie (nucléaire en particulier) pour leurs bonnes propriétés, notamment mécaniques. Cependant ces aciers sont susceptibles de "vieillir" en cours d'utilisation à des températures élevées. Comme ces propriétés (résilience, ténacité) sont souvent très dispersées et se dégradent lors du vieillissement, on cherche à les prévoir avec la plus grande précision possible. Pour ce faire on propose d'expliquer une partie de la dispersion observée sur la résilience par des paramètres mesurables, liés à la morphologie biphasée et bipercolée particulièrement complexe de ces aciers. Cette morphologie est d'abord caractérisée à partir de l'observation d'images en 2D et de la reconstitution d'une image en 3D. Parallèlement on précise la genèse de cette microstructure. Au vu des observations et analyses précédentes, les outils classiques de la morphologie mathématique peuvent être utilisés pour quantifier par analyse d'image cette structure et proposer des variables pertinentes. En utilisant un modèle paramétrique pour décrire le comportement de la résilience , on montre l'influence d'un paramètre morphologique -la finesse de la microstructure- sur cette dernière. Dans le cas des produits très vieillis -le plus important en pratique-, le manque de données disponibles ne permet pas de proposer un modèle de résilience qui tienne compte de cette variable morphologique. Un modèle mathématique de la structure 3D du matériau est enfin proposé: une chaîne de Markov homogène de processus spatiaux 3D dont l'évolution dans le temps mime la solidification. La morphologie de la microstructure est ainsi résumée à 8 paramètres. Ce modèle est susceptible d'être couplé avec un modèle de résilience pour élargir ses possibilités de prévision. Il pourrait également être utilisé pour servir de base à des modélisations ultérieures de l'endommagement et de la rupture de matériaux biphasés.
112

Dépendance faible: estimation et théorèmes limite.<br />Application à l'étude statistique de certains systèmes dynamiques.

Prieur, Clémentine 09 December 2006 (has links) (PDF)
Le thème central des travaux présentés est l'étude des suites faiblement dépendantes<br />non -mélangeantes au sens de Rosenblatt (1956). La notion de mélange classique est affaiblie<br />afin d'établir des inégalités ainsi que des théorèmes limite pour différentes classes de processus<br />comme par exemple certains systèmes dynamiques, des chaînes de Markov non irréductibles,<br />ou encore des fonctions de processus linéaires non mélangeants. Les résultats obtenus sont<br />ensuite appliqués au domaine de la statistique non paramétrique.<br />Deux autres thématiques sont abordées dans ce manuscrit : d'une part l'étude de principes<br />de grandes déviations (notamment pour le processus de records généralisés), et d'autre part<br />l'estimation adaptative de fonctionnelles linéaires.
113

Analyse et optimisation d'algorithmes pour l'inférence de modèles de composants logiciels

Irfan, Muhammad Naeem 19 September 2012 (has links) (PDF)
Les Components-Off-The-Shelf (COTS) sont utilisés pour le développement rapide et efficace de logiciels tout en limitant le coût. Il est important de tester le fonctionnement des composants dans le nouvel environnement. Pour les logiciels tiers,le code source des composants, les spécifications et les modèles complets ne sont pas disponibles. Dans la littérature de tels systèmes sont appelés composants "boîte noire". Nous pouvons vérifier leur fonctionnement avec des tests en boîte noire tels que le test de non-régression, le test aléatoire ou le test à partir de modèles. Pour ce dernier, un modèle qui représente le comportement attendu du système sous test(SUT) est nécessaire. Ce modèle contient un ensemble d'entrées, le comportement du SUT après stimulation par ces entrées et l'état dans lequel le système se trouve.Pour les systèmes en boîte noire, les modèles peuvent être extraits à partir des traces d'exécutions, des caractéristiques disponibles ou encore des connaissances des experts. Ces modèles permettent ensuite d'orienter le test de ces systèmes.Les techniques d'inférence de modèles permettent d'extraire une information structurelle et comportementale d'une application et de la présenter sous forme d'un modèle formel. Le modèle abstrait appris est donc cohérent avec le comportement du logiciel. Cependant, les modèles appris sont rarement complets et il est difficile de calculer le nombre de tests nécessaires pour apprendre de façon complète et précise un modèle.Cette thèse propose une analyse et des améliorations de la version Mealy de l'algorithme d'inférence L* [Angluin 87]. Elle vise à réduire le nombre de tests nécessaires pour apprendre des modèles. La version Mealy de L* nécessite d'utiliser deux types de test. Le premier type consiste à construire les modèles à partir des sorties du système, tandis que le second est utilisé pour tester l'exactitude des modèles obtenus. L'algorithme utilise ce que l'on appelle une table d'observation pour enregistrer les réponses du système.Le traitement d'un contre-exemple peut exiger d'envoyer un nombre conséquent de requêtes au système. Cette thèse aborde ce problème et propose une technique qui traite les contre-exemples de façon efficace. Nous observons aussi que l'apprentissage d'un modèle ne nécessite pas de devoir remplir complètement ces tables. Nous proposons donc un algorithme d'apprentissage qui évite de demander ces requêtes superflues.Dans certains cas, pour apprendre un modèle, la recherche de contre-exemples peut coûter cher. Nous proposons une méthode qui apprend des modèles sans demander et traiter des contre-exemples. Cela peut ajouter de nombreuses colonnes à la table d'observation mais au final, nous n'avons pas besoin d'envoyer toutes les requêtes. Cette technique ne demande que les requêtes nécessaires.Ces contributions réduisent le nombre de tests nécessaires pour apprendre des modèles de logiciels, améliorant ainsi la complexité dans le pire cas. Nous présentons les extensions que nous avons apportées à l'outil RALT pour mettre en oeuvre ces algorithmes. Elles sont ensuite validées avec des exemples tels que les tampons, les distributeurs automatiques, les protocoles d'exclusion mutuelle et les planificateurs.
114

Modélisation de la susceptibilité génétique non observée d'un individu à partir de son histoire familiale de cancer : application aux études d'identification pangénomiques et à l'estimation du risque de cancer dans le syndrome de Lynch

Drouet, Youenn 09 October 2012 (has links) (PDF)
Le syndrome de Lynch est responsable d'environ 5% des cas decancer colorectaux (CCR). Il correspond à la transmission d'une mutation,variation génétique rare, qui confère un haut risque de CCR. Une telle mutationn'est cependant identifiée que dans une famille sur deux. Dans lesfamilles sans mutation identifiée, dites négatives, le risque de CCR est malconnu en particulier les estimations individuelles du risque. Cette thèse comportedeux objectifs principaux. Obj. 1- étudier les stratégies capables de réduireles tailles d'échantillon dans les études visant à identifier de nouveauxgènes de susceptibilité ; et Obj. 2- définir un cadre théorique permettantd'estimer des risques individualisés de CCR dans les familles négatives, enutilisant l'histoire familiale et personnelle de CCR de l'individu. Notre travails'appuie sur la théorie des modèles mendéliens et la simulation de donnéesfamiliales, à partir desquelles il est possible d'étudier la puissance d'étudesd'identification, et d'évaluer in silico les qualités prédictives de méthodesd'estimation du risque. Les résultats obtenus apportent des connaissancesnouvelles pour la planification d'études futures. D'autre part, la cadre méthodologiqueque nous proposons permet une estimation plus précise durisque individuel, permettant d'envisager une surveillance plus individualisée.
115

Contribution à l’évaluation des incertitudes sur les sections efficaces neutroniques, pour les réacteurs à neutrons rapides / Contribution to uncertainties evaluation for fast reactors neutronic cross sections

Privas, Edwin 28 September 2015 (has links)
La thèse a essentiellement été motivée par la volonté croissante de maîtriser les incertitudes des données nucléaires, pour des raisons de sûreté nucléaire. Elle vise en particulier les sections efficaces indispensables aux calculs neutroniques des réacteurs rapides au sodium de Génération IV (RNR-Na), et les moyens permettant de les évaluer.Le principal objectif de la thèse est de fournir et montrer l’intérêt de nouveaux outils permettant de réaliser des évaluations cohérentes, avec des incertitudes maîtrisées et fiables. Pour répondre aux attentes, différentes méthodes ont été implémentées dans le cadre du code CONRAD, développé au CEA de Cadarache, au Département d’Étude des Réacteurs.Après l’état des lieux et la présentation des différents éléments nécessaires pour effectuer une évaluation, il est présenté des résolutions stochastiques de l’inférence Bayésienne. Elles permettent de fournir d’une part, des informations supplémentaires à l’évaluateur par rapport à la résolution analytique et d’autre part, de valider cette dernière. Les algorithmes ont été testés avec succès à travers plusieurs cas, malgré des temps de calcul plus longs faute aux méthodes de type Monte Carlo.Ensuite, ce travail a rendu possible, dans CONRAD, de prendre en compte des contraintes dites microscopiques. Elles sont définies par l’ajout ou le traitement d’informations additionnelles par rapport à l’évaluation traditionnelle. Il a été développé un algorithme basé sur le formalisme des multiplicateurs de Lagrange pour résoudre les problèmes de continuité entre deux domaines en énergies traitées par deux théories différentes. De plus, d’autres approches sont présentées, avec notamment l’utilisation de la marginalisation, permettant soit de compléter une évaluation existante en ajoutant des matrices de covariance, soit de considérer une incertitude systématique pour une expérience décrite par deux théories. Le bon fonctionnement des différentes méthodes implémentées est illustré par des exemples, dont celui de la section efficace totale de l’238U.Enfin, les dernières parties de la thèse se focalisent sur le retour des expériences intégrales, par méthodes d’assimilation de données intégrales. Cela permet de réduire les incertitudes sur les sections efficaces d’intérêt pour les réacteurs rapides. Ce document se clôt par la présentation de quelques résultats clefs sur les sections efficaces de l’238U et du 239Pu, avec la considération d’expériences comme PROFIL et PROFIL-2 dans Phénix ou encore Jezebel. / The thesis has been motivated by a wish to increase the uncertainty knowledge on nuclear data, for safety criteria. It aims the cross sections required by core calculation for sodium fast reactors (SFR), and new tools to evaluate its.The main objective of this work is to provide new tools in order to create coherent evaluated files, with reliable and mastered uncertainties. To answer those problematic, several methods have been implemented within the CONRAD code, which is developed at CEA of Cadarache.After a summary of all the elements required to understand the evaluation world, stochastic methods are presented in order to solve the Bayesian inference. They give the evaluator more information about probability density and they also can be used as validation tools. The algorithms have been successfully tested, despite long calculation time.Then, microscopic constraints have been implemented in CONRAD. They are defined as new information that should be taken into account during the evaluation process. An algorithm has been developed in order to solve, for example, continuity issues between two energy domains, with the Lagrange multiplier formalism. Another method is given by using a marginalization procedure, in order to either complete an existing evaluation with new covariance or add systematic uncertainty on an experiment described by two theories. The algorithms are well performed along examples, such the 238U total cross section.The last parts focus on the integral data feedback, using methods of integral data assimilation to reduce the uncertainties on cross sections. This work ends with uncertainty reduction on key nuclear reactions, such the capture and fission cross sections of 238U and 239Pu, thanks to PROFIL and PROFIL-2 experiments in Phénix and the Jezebel benchmark.
116

Inférence automatique de modèles de voies de signalisation à partir de données expérimentales / Automatical inference of signalling pathway's models from experimental

Gloaguen, Pauline 14 December 2012 (has links)
Les réseaux biologiques, notamment les réseaux de signalisation déclenchés par les hormones, sont extrêmement complexes. Les méthodes expérimentales à haut débit permettent d’aborder cette complexité, mais la prise en compte de l’ensemble des données générées requiert la mise au point de méthodes automatiques pour la construction des réseaux. Nous avons développé une nouvelle méthode d’inférence reposant sur la formalisation, sous forme de règles logiques, du raisonnement de l’expert sur les données expérimentales. Cela nécessite la constitution d’une base de connaissances, ensuite exploitée par un moteur d’inférence afin de déduire les conclusions permettant de construire les réseaux. Notre méthode a été élaborée grâce au réseau de signalisation induit par l’hormone folliculo-stimulante dont le récepteur fait partie de la grande famille des récepteurs couplés aux protéines G. Ce réseau a également été construit manuellement pour évaluer notre méthode. Un contrôle a ensuite été réalisé sur réseau induit par le facteur de croissance épidermique, se liant à un récepteur tyrosine kinase, de façon à montrer que notre méthode est capable de déduire différents types de réseaux de signalisation. / Biological networks, including signalling networks induced by hormones, are very complex. High-throughput experimental methods permit to approach this complexity, but to be able to use all generated data, it is necessary to create automatical inference methods to build networks. We have developped a new inference method based on the formalization of the expert’s reasoning on experimental data. This reasoning is converted into logical rules. This work requires the creation of a knowledge base which is used by an inference engine to deduce conclusions to build networks. Our method has been elaborated by the construction of the signalling network induced by the follicle stimulating hormone whose receptor belongs to the G protein-coupled receptors family. This network has also been built manually to assess our method. Then, a test has been done on the network induced by the epidermal growth factor, which binds to a tyrosine kinase receptor, to demonstrate the ability of our method to deduce differents types of signaling networks.
117

Detection of web vulnerabilities via model inference assisted evolutionary fuzzing / Détection de vulnérabilités Web par frelatage (fuzzing) évolutionniste et inférence de modèle

Duchene, Fabien 02 June 2014 (has links)
Le test est une approche efficace pour détecter des bogues d'implémentation ayant un impact sur la sécurité, c.a.d. des vulnérabilités. Lorsque le code source n'est pas disponible, il est nécessaire d'utiliser des techniques de test en boîte noire. Nous nous intéressons au problème de détection automatique d'une classe de vulnérabilités (Cross Site Scripting alias XSS) dans les applications web dans un contexte de test en boîte noire. Nous proposons une approche pour inférer des modèles de telles applications et frelatons des séquences d'entrées générées à partir de ces modèles et d'une grammaire d'attaque. Nous inférons des automates de contrôle et de teinte, dont nous extrayons des sous-modèles afin de réduire l'espace de recherche de l'étape de frelatage. Nous utilisons des algorithmes génétiques pour guider la production d'entrées malicieuses envoyées à l'application. Nous produisons un verdict de test grâce à une double inférence de teinte sur l'arbre d'analyse grammaticale d'un navigateur et à l'utilisation de motifs de vulnérabilités comportant des annotations de teinte. Nos implémentations LigRE et KameleonFuzz obtiennent de meilleurs résultats que les scanneurs boîte noire open-source. Nous avons découvert des XSS ``0-day'' (c.a.d. des vulnérabilités jusque lors inconnues publiquement) dans des applications web utilisées par des millions d'utilisateurs. / Testing is a viable approach for detecting implementation bugs which have a security impact, a.k.a. vulnerabilities. When the source code is not available, it is necessary to use black-box testing techniques. We address the problem of automatically detecting a certain class of vulnerabilities (Cross Site Scripting a.k.a. XSS) in web applications in a black-box test context. We propose an approach for inferring models of web applications and fuzzing from such models and an attack grammar. We infer control plus taint flow automata, from which we produce slices, which narrow the fuzzing search space. Genetic algorithms are then used to schedule the malicious inputs which are sent to the application. We incorporate a test verdict by performing a double taint inference on the browser parse tree and combining this with taint aware vulnerability patterns. Our implementations LigRE and KameleonFuzz outperform current open-source black-box scanners. We discovered 0-day XSS (i.e., previously unknown vulnerabilities) in web applications used by millions of users.
118

Inférence géométrique discrète / discrete geometric inference

Cuel, Louis 18 December 2014 (has links)
Ces travaux s'inscrivent dans la thématique de l'inférence géométrique dont le but est de répondre au problème suivant : étant donné un objet géométrique dont on ne connaît qu'une approximation, peut-on estimer de manière robuste ses propriétés? On se place dans cette thèse dans le cas où l'approximation est un nuage de points ou un ensemble digital dans un espace euclidien de dimension finie. On montre tout d'abord un résultat de stabilité d'un estimateur de normale basé sur l'analyse en composante principale, ainsi qu'un résultat de convergence multigrille d'un estimateur du Voronoi Covariance Measure qui utilise des matrices de covariance de cellules de Voronoi. Ces deux résultats, comme la plupart des résultats en inférence géométrique, utilisent la stabilité de la fonction distance à un compact. Cependant, la présence d'un seul point aberrant suffit pour que les hypothèses des résultats de stabilité ne soient pas satisfaites. La distance à une mesure est une fonction distance généralisée introduite récemment qui est robuste aux points aberrants. Dans ce travail, on généralise le Voronoi Covariance Measure à des fonctions distances généralisées et on montre que cet estimateur appliqué à la distance à une mesure est robuste aux points aberrants. On en déduit en particulier un estimateur de normale très robuste. On présente également des résultats expérimentaux qui montrent une forte robustesse des estimations de normales, courbures, directions de courbure et arêtes vives. Ces résultats sont comparés favorablement à l'état de l'art. / The purpose of geometric inference is to answer the following problem : Given a geometric object that is only known through an approximation, can we get a robust estimation of its properties? We consider in this thesis the case where the approximation is a point cloud or a digital set in a finite dimensional Euclidean space. We first show a stability result for a normal estimator based on the principal component analysis, as well as a result of multigrid convergence of an estimator of the Voronoi covariance measure, which uses covariance matrices of Voronoi cells. As most of geometric inference results, these two last results use the robustness of the distance function to a compact set. However, the presence of a single outlier is sufficient to make the assumptions of these results not satisfied. The distance to a measure is a generalized distance function introduced recently, that is robust to outliers. In this work, we generalize the Voronoi Covariance Measure to generalized distance functions and we show that this estimator applied to the distance to a measure is robust to outliers. We deduce a very robust normal estimator. We present experiments showing the robustness of our approach for normals, curvatures, curvature directions and sharp features estimation. These results are favorably compared to the state of the art.
119

Sécurisation des entrepôts de données : de la conception à l’exploitation / Securing data warehouses : from design to exploitation

Triki, Salah 24 December 2013 (has links)
Les entrepôts des données centralisent des données critiques et sensibles qui sont nécessaires pour l'analyse et la prise de décisions. La centralisation permet une gestion efficace et une administration aisée, par contre de point de vu sécurité, centraliser les données critiques dans un seul endroit ; l'entrepôt de données, attire la convoitise des pirates. En 2011 par exemple, les entreprises SONY et RSA, ont été victime d'attaques qui ont engendré des pertes considérables. En plus, les entreprises sont de plus en plus dépendantes des entrepôts des données du faite qu'ils génèrent de plus en plus de données. Le cabinet d'analyse IDC indique que les quantités des données générées par les entreprise sont en train d'exploser et que en 2015, la quantité des données atteindra 8 billion TB. La sécurisation des entrepôts de données est donc primordiale. Dans ce contexte, nos travaux de thèse consiste a proposer une architecture pour la sécurisation des entrepôts de données de la conception à l'exploitation. Au niveau conceptuel, nous proposons un profil UML pour la définition des autorisations et les niveaux de sensibilités des données, une méthode pour la prévention des inférences, et des règles pour analyser la cohérence des autorisations. Au niveau exploitation, une méthode pour renforcer les autorisations définis au niveau conception, une méthode pour la prévention des inférences, une méthode pour respecter les contraintes d'additivités.Afin de valider l'architecture que nous proposons et montrer son applicabilité, nous l'avons tester le benchmark Star Schema Benchmark. / Companies have to make strategic decisions that involve competitive advantages. In the context of decision making, the data warehouse concept has emerged in the nineties. A data warehouse is a special kind of database that consolidates and historizes data from the operational information system of a company. Moreover, a company's data are proprietary and sensitive and should not be sold without controls. Indeed, some data are personal and may harm their owners when they are disclosed, for example, medical data, religious or ideological beliefs. Thus, many governments have enacted laws to protect the private lives of their citizens. Faced with these laws, organizations are, therefore, forced to implement strict security measures to comply with these laws. Our work takes place in the context of secure data warehouses that can be addressed at two levels: (i) design that aims to develop a secure data storage level, and (ii) operating level, which aims to strengthen the rights access / user entitlements, and any malicious data to infer prohibited from data it has access to user banned. For securing the design level, we have made three contributions. The first contribution is a specification language for secure storage. This language is a UML profile called SECDW+, which is an extended version of SECDW for consideration of conflicts of interest in design level. SECDW is a UML profile for specifying some concepts of security in a data warehouse by adopting the standard models of RBAC security and MAC. Although SECDW allows the designer to specify what role has access to any part of the data warehouse, it does not take into account conflicts of interest. Thus, through stereotypes and tagged values , we extended SECDW to allow the definition of conflict of interest for the various elements of a multidimensional model. Our second contribution, at this level, is an approach to detect potential inferences from conception. Our approach is based on the class diagram of the power sources to detect inferences conceptual level. Note that prevention inferences at this level reduces the cost of administering the OLAP server used to manage access to a data warehouse. Finally, our third contribution to the design of a secure warehouse consists of rules for analyzing the consistency of authorizations modeled. As for safety operating level, we proposed: an architecture for enhancing the permissions for configuration, a method for the prevention of inferences, and a method to meet the constraints of additive measures. The proposed architecture adds to system access control, typically present in any secure DBMS, a module to prevent inferences. This takes our security methods against inferences and respect for additivity constraints. Our method of preventing inferences operates for both types of inferences: precise and partial. For accurate inferences, our method is based on Bayesian networks. It builds Bayesian networks corresponding to user queries using the MAX and MIN functions, and prohibits those that are likely to generate inferences. We proposed a set of definitions to translate the result of a query in Bayesian networks. Based on these definitions, we have developed algorithms for constructing Bayesian networks to prohibit those that are likely to generate inferences. In addition, to provide a reasonable response time needed to deal with the prevention treatment, we proposed a technique for predicting potential applications to prohibit. The technique is based on the frequency of inheritance queries to determine the most common query that could follow a request being processed. In addition to specific inferences (performed through queries using the MIN and MAX functions), our method is also facing partial inferences made through queries using the SUM function. Inspired by statistical techniques, our method relies on the distribution of data in the warehouse to decide to prohibit or allow the execution of queries ....
120

Self-assembly of enveloped virus : theoretical dynamics and methods for fluorescence measurements analysis / Autoassemblage des virus enveloppés : dynamique théorique et méthodes d'analyse des mesures par fluorescence

Verdier, Timothée 13 November 2015 (has links)
Cette thèse porte sur la description de l'assemblage des virus dans le cadre de la physique statistique ainsi que sur les méthodes de mesure de cet assemblage utilisant les marqueurs fluorescents. Nous nous y attachons à décrire la dynamique de l'agrégation des protéines aux échelles de la population et du virus unique. Nous proposons deux méthodes pour mesurer les grandeurs physiques associées : taille et forme de la structure finale d'une part, taux d'agrégation au cours de la croissance d'autre part. Dans ce travail, nous nous sommes intéressés à la description physique de l'auto-assemblage des protéines virales. La physique de l'auto-assemblage in-vitro des virus sphériques, dont la structure est déterminée par l'agencement régulier de leurs constituants protéiques, a été théoriquement et expérimentalement caractérisée auparavant par des modèles d'agrégation. Les modèles existants décrivaient l'assemblage à quantité de composants viraux fixée dans un système ferme à partir des constituants élémentaires du virus. In-vivo, la situation est bien entendu différente. Abstraction faite de la grande complexité du milieu cellulaire, les virus s'échappent de la cellule une fois formés pour aller infecter de nouvelles cellules. De plus, la quantité de constituants est sans cesse modifiée par la fabrication ou la dégradation des protéines virales. Enfin les méthodes de mesures utilisées in-vitro ne sont généralement plus envisageables in-vivo. Nous avons donc étudié les effets d'un flux de matière dans système ouvert via le calcul de l'état stationnaire, et via la résolution numérique des équations d'évolution des populations d'agrégats qui décrivent la cinétique d'agrégation des protéines virales. Dans ce cadre, nous avons mis en valeur le lien entre la description de l'état général du système en termes de populations et le devenir individuel d'un virus en formation pour le suivi duquel des méthodes expérimentales existent. Nous nous sommes alors attachés à proposer un traitement approprié de telles données expérimentales pour déterminer les valeurs des paramètres physiques du modèle / In this thesis work, we study the self-assembly of viral particles and focus on the analysis of measurements based on fluorescence labeling of viral proteins. We propose a theoretical model of the dynamic of viral proteins self-assembly at the cell membrane based on previous models developed to describe the in-vitro assembly of spherical viruses. We study the evolution of the populations in the successive stages of viral budding as well as the evolution of single particle within this framework. We also provide various data analysis to measure the physical values involved in the process: rate of aggregation during the bud growth, size and shape of the eventual structure. Viruses are biological objects unable to replicate without infecting an host cell since they lack part of the molecular machinery mandatory for genetic code replication and proteins production. Originally aimed at controlling the diseases they cause, the study of viruses is now rich of applications in medical and technological field (gene therapy, phage therapy, targeted therapy, bio-templating, cargo specific encapsulation, etc.). The existent models describing the self-assembly of viral proteins have successfully captured many features observed in the in-vitro experiments. We study the expected evolution when an open system is considered with an input flux of proteins and an output flux of released virion, characteristic of the in-vivo situation. We derive the population distribution at steady state and numerically study their dynamic under constant viral protein input flux. We also study the case of a single bud evolution which can be followed by its fluorescence emission. We study the possibility to estimate shape parameters at the single viral particle level such as radius and completion for the human immunodeficiency virus (HIV) from single molecule localization superresolution microscopy. These techniques known as (f)PALM or (d)STORM, record labeled proteins position with a precision of few to tens of nanometers. We propose an approach base on the maximum likelihood statistical method which is tested on both real and simulated images of fully formed particles. Our results suggest that it can offer a precision on the determination of the global structure finner than the positioning precision of the single proteins. This efficiency is however tempered when the parameter of interest does not affect the figures of merit to which the method is sensitive such as the apparent area and the image contours

Page generated in 0.0463 seconds