• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 22
  • 5
  • Tagged with
  • 52
  • 52
  • 27
  • 22
  • 13
  • 13
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Identification multi-échelle du champ d'élasticité apparent stochastique de microstructures hétérogènes : application à un tissu biologique

Nguyen, Manh Tu, Nguyen, Manh Tu 08 October 2013 (has links) (PDF)
Dans le cadre de l'élasticité linéaire 3D des microstructures complexes qui ne peuvent pas être simplement décrites en terme de constituants telles que des tissus biologiques, nous proposons, dans ce travail de recherche, une méthodologie d'identification expérimentale multi-échelle du champ stochastique d'élasticité apparent de la microstructure à l'échelle mésoscopique en utilisant des mesures de champ de déplacements aux échelles macroscopique et mésoscopique. On peut alors utiliser cette méthodologie dans le cadre de changement d'échelle pour obtenir des propriétés mécaniques à l'échelle macroscopique. Dans ce contexte, la question majeure est celle de l'identification expérimentale par résolution d'un problème statistique inverse de la modélisation stochastique introduite pour le champ d'élasticité apparent à l'échelle mésoscopique. Cette identification expérimentale permet non seulement de valider la modélisation mais encore de la rendre utile pour des matériaux existants ayant une microstructure complexe. Le présent travail de recherche est une contribution proposée dans ce cadre pour lequel l'expérimentation et validation expérimentale basée sur des mesures simultanées d'imagerie de champ aux échelles macroscopique et mésoscopique sont faites sur de l'os cortical
2

Transferts complexes en milieu poreux :<br />Quelques approches physiques et numériques

Maugis, Pascal 30 June 2006 (has links) (PDF)
La modélisation hydrogéologique est un outil puissant de compréhension de nombreux<br />processus mettant en jeu le transport d'eau et de matière en milieu poreux souterrain. La<br />problématique du devenir du combustible nucléaire en fin de cycle, à forte activité<br />radiologique et à longue durée de vie, a donné de l'élan à la recherche sur cette<br />thématique. L'objectif de la recherche est de montrer, grâce à la modélisation, la<br />faisabilité et la sûreté de différents scenarios comme le stockage quasi-définitif de<br />milliers de conteneurs dans de vastes réseaux de galeries souterraines, creusées dans des<br />couches géologiques profondes et peu perméables, ou leur entreposage sur quelques siècles<br />dans des sites plus proches de la surface en attendant de leur trouver un usage ou une fin<br />plus définitive.<br /><br />Dans ce contexte, ce rapport de thèse retrace quelques unes des approches complexes mises<br />en oeuvre dans la modélisation de processus élémentaires concourant au transport d'eau<br />et de polluant en milieu poreux. La complexité est envisagée dans les processus mis en<br />jeu, dans la structure du milieu et dans les méthodes numériques déployées. <br /><br />Thermo-hydraulique<br /> <br />La physique complexe de l'écoulement diphasique eau/air, couplé à la thermique, est<br />exposée théoriquement en partie I, à l'aide d'un modèle thermodynamique après avoir<br />précisé et critiqué quelques concepts comme le potentiel de l'eau, la charge hydraulique<br />d'une phase gazeuse, la pression capillaire, la loi de Fick, l'osmose, etc. Un modèle<br />numérique simplifié à trois équations de conservation (eau, air, et enthalpie) est exposé,<br />y compris dans sa dégénérescence à un seul constituant ou une seule phase. Il est mis en<br />oeuvre pour simuler le fonctionnement d'un dispositif expérimental, appelé MASCILIA,<br />reproduisant dans son principe l'entreposage géologique d'un container de déchets<br />radioactifs de haute activité. Il consiste en un chauffage localisé d'un bac de sable<br />rempli d'eau, et le suivi du développement d'une "bulle" de vapeur. On montre comment<br />s'entretient un échange de chaleur par effet caloduc à l'interface de cette bulle et du<br />milieu poreux encore saturé d'eau.<br /><br />Milieux hétérogènes<br /> <br />La complexité peut aussi découler de l'hétérogénéité du milieu poreux. La Méthode de<br />Monte-Carlo permet de générer des réalisations de milieux aléatoires connaissant leur<br />structure statistique. On applique cette méthode, en partie II, à des milieux<br />sédimentaires (non fracturés) afin, par l'intermédiaire de modèles stochastiques, de<br />comprendre l'impact des hétérogénéités sur la réponse d'un milieu naturel à diverses<br />sollicitations. L'influence de la proximité, en 2D, de frontières déterministes (comme des<br />conditions aux limites) sur la structure statistique des grandeurs associées à<br />l'écoulement et au transport a été caractérisée (chapitre 2). Elle peut être très<br />importante, tant sur la charge hydraulique et la vitesse de Darcy que sur l'étalement<br />longitudinal ou transversal d'un panache de traceur. Ces effets sont sensibles également à<br />la nature (charge ou flux) de la condition imposée aux limites. On met en évidence<br />numériquement ces particularités et on en démontre une partie théoriquement. Cette analyse<br />est importante pour l'interrogation numérique du concept de dispersivité.<br /><br />La dispersivité est une mesure de l'étalement de type diffusif d'un panache au fil du<br />temps. Son intérêt est mis à l'épreuve au chapitre 3, avec la même méthodologie que<br />précédemment, d'écoulements moyens non uniformes (tournant, radial convergeant vers un<br />puits, dipolaire entre deux puits). Elle s'avère dépendre étroitement du type d'écoulement<br />et n'est donc pas une caractéristique intrinsèque au milieu poreux. De plus, elle ne rend<br />compte que de la partie gaussienne de l'étalement spatial des panaches, quand précisément<br />cet étalement est en réalité fortement dissymétrique en présence de puits. L'existence<br />d'une telle singularité de l'écoulement a pour conséquence que la dispersivité n'atteint<br />pas de valeur asymptotique. Ainsi, tout calage d'une dispersivité sur la base d'essais de<br />traçage entre puits est sans rapport avec la réalité des processus<br />dispersifs. Paradoxalement, et dans le cas précis d'un seul puits de pompage, il se trouve<br />toutefois que la dispersivité calée rend bien compte de la dispersivité que le milieu<br />exhiberait si l'écoulement était uniforme.<br /><br />Transport particulaire<br /><br />Ces études numériques s'appuient sur le développement de méthodes sophistiquées de<br />résolution d'équations d'écoulement et de transport. On détaille ainsi, chapitre 4, un<br />algorithme de transport particulaire avec convection, diffusion et dispersion. Aux sauts<br />élémentaires de convection s'ajoutent des sauts aléatoires (bruit blanc) engendrant de la<br />diffusion. C'est le principe de la marche aléatoire. L'originalité de l'algorithme réside<br />dans la localité des sauts, que l'on limite à chaque maille par calage du pas de temps en<br />résolvant une équation du second degré en racine de Delta t. On évite ainsi un léger<br />biais positif sur les sauts diffusifs entre mailles.<br /><br />Géochimie simplifiée<br /><br />On aborde enfin au chapitre 5, en l'illustrant sur un cas-test, la modélisation du<br />transport d'espèces disparaissant par décroissance radioactive, pouvant aussi être<br />dissoutes, adsorbées ou précipitées. Cette situation, mathématiquement fort générale, se<br />rencontre notamment lors de la lixiviation de la matrice d'oxyde d'uranium constituant les<br />barres de combustible nucléaire, lorsque l'eau souterraine a achevé de corroder les<br />conteneurs. On compare plusieurs algorithmes calculant, par point fixe, l'équilibre de<br />dissolution dont la cinétique peut être au choix instantanée, linéaire ou imposée. Les<br />critères de stabilité et de précision sont exposés, ainsi que les manières de les<br />satisfaire ou de les contourner. Des effets indésirables de sur-précipitation amont ou de<br />concentration négative en aval des fronts de précipitation surviennent lorsque les<br />contrastes de solubilité sont importants.
3

Modélisation et évaluation de l'efficacité de la maintenance des systèmes réparables

Doyen, Laurent 22 November 2004 (has links) (PDF)
Ce travail porte sur la modélisation stochastique et l'estimation paramétrique de l'efficacité des opérations de maintenance corrective et préventive des systèmes réparables complexes. Dans une première partie, les modèles de réparation imparfaite sont classés à l'aide de l'intensité de défaillance d'un processus ponctuel. Cette revue regroupe les modèles existants et en propose de nouveaux. L'étude se focalise ensuite sur les modèles dits a réduction arithmétique de l'âge et de l'intensité, et sur le modèle de Brown-Proschan. Des résultats probabilistes originaux permettent de comprendre le comportement du processus des défaillances de ces modèles et de développer des méthodes statistiques d'estimation de leurs paramètres. Dans une deuxième partie, deux cadres de modélisation sont proposés et étudiés, afin de généraliser ces modèles au cas des différents types de maintenances préventives existants dans la réalité industrielle : maintenances préventives systématiques, planifiées ou conditionnelles. Les modèles généraux proposés permettent d'intégrer la possibilité d'une dépendance entre les instants de maintenance préventive et corrective. Enfin une méthode d'évaluation de l'efficacité globale des différentes opérations de maintenance est développée et illustrée sur un exemple réel issu de l'industrie.
4

Une approche intégrée du risque avalanche : quantification de la vulnérabilité physique et humaine et optimisation des structures de protection / An avalanche integrated risk approach : quantification of structural and human vulnerability and otpimisation of protection countermeasures

Favier, Philomène 13 October 2014 (has links)
La quantification du risque avalanche à long terme dans un but de zonage et d'optimisation des moyens de protection est fait dans la plupart des pays sur la base de la connaissance des événements de forte intensité. Ces approches fondées sur les périodes de retours, centrées uniquement sur l'aléa, ne considèrent pas explicitement les éléments à risque étudiés (bâtiments, personnes à l'intérieur, etc.) et négligent les possibles contraintes budgétaires. Afin de palier à ces limitations, les méthodes de zonage basés sur le risque et les analyses coût-bénéfice ont récemment émergées. Elles combinent la distribution de l'aléa avec les relations de vulnérabilité des éléments étudiés. Ainsi, l'évaluation systématisée de la vulnérabilité des bâtiments permet de mieux quantifier le risque dans un couloir d'avalanche donné. Cependant, en pratique, les relations de vulnérabilité disponibles restent principalement limitées à de rares estimations empiriques déduites de l'analyse de quelques catastrophes survenues. De plus, les méthodes existantes basées sur le risque font face à des calculs encore lourds, et les hypothèses sur la modélisation de l'aléa sont discutables (choix de quelques scénarios, faible considération des valeurs extrêmes, etc.). Dans cette thèse, ces problèmes sont abordés en construisant grâce à une approche fiabiliste des relations de fragilité de différents configurations de bâtiments en béton armé (BA) sollicités par des avalanches de neige et également des relations de fragilité pour les personnes potentiellement à l'intérieur de ces bâtiments. Ces relations sont ensuite utilisées dans un cadre de quantification du risque et de recherche de structure de défense optimale. L'apport de cette thèse est donc l'enrichissement de la caractérisation de la vulnérabilité et du risque face aux avalanches par des approches de complexités variables utilisables en fonction de la spécificité du cas et du temps imparti pour conduire l'étude. La thèse est composée de quatre volets. D'abord, les courbes de fragilité associées à différents états limites de murs en BA soumis au chargement uniforme d'une avalanche sont obtenues à partir d'approches classiques de dimensionnement du BA. Ensuite, l'approche est étendue à des modèles numériques de bâtis plus riches (modèle masse-ressort) permettant de décrire en particulier l'évolution temporelle de la réponse du système. A partir de ces relations de fragilité, de nouvelles relations pour les personnes à l'intérieur de ces bâtiments sont proposées. Ces relations pour les bâtiments et les personnes sont utilisées dans une analyse complète de sensibilité du risque. Enfin, une formule analytique du risque basée sur la statistique des valeurs extrêmes est proposée pour efficacement quantifier le risque et obtenir une caractéristique optimale de digue paravalanche. / Long term avalanche risk quantification for mapping and the design of defense structures is done in mostcountries on the basis of high magnitude events. Such return period/level approaches, purely hazardoriented,do not consider elements at risk (buildings, people inside, etc.) explicitly, and neglect possiblebudgetary constraints. To overcome these limitations, risk based zoning methods and cost-benefit analyseshave emerged recently. They combine the hazard distribution and vulnerability relations for the elementsat risk. Hence, the systematic vulnerability assessment of buildings can lead to better quantify the riskin avalanche paths. However, in practice, available vulnerability relations remain mostly limited to scarceempirical estimates derived from the analysis of a few catastrophic events. Besides, existing risk-basedmethods remain computationally intensive, and based on discussable assumptions regarding hazard modelling(choice of few scenarios, little consideration of extreme values, etc.). In this thesis, we tackle theseproblems by building reliability-based fragility relations to snow avalanches for several building types andpeople inside them, and incorporating these relations in a risk quantification and defense structure optimaldesign framework. So, we enrich the avalanche vulnerability and risk toolboxes with approaches of variouscomplexity, usable in practice in different conditions, depending on the case study and on the time availableto conduct the study. The developments made are detailed in four papers/chapters.In paper one, we derive fragility curves associated to different limit states for various reinforced concrete(RC) buildings loaded by an avalanche-like uniform pressure. Numerical methods to describe the RCbehaviour consist in civil engineering abacus and a yield line theory model, to make the computations asfast as possible. Different uncertainty propagation techniques enable to quantify fragility relations linkingpressure to failure probabilities, study the weight of the different parameters and the different assumptionsregarding the probabilistic modelling of the joint input distribution. In paper two, the approach is extendedto more complex numerical building models, namely a mass-spring and a finite elements one. Hence, muchmore realistic descriptions of RC walls are obtained, which are useful for complex case studies for whichdetailed investigations are required. However, the idea is still to derive fragility curves with the simpler,faster to run, but well validated mass-spring model, in a “physically-based meta-modelling” spirit. Inpaper three, we have various fragility relations for RC buildings at hand, thus we propose new relationsrelating death probability of people inside them to avalanche load. Second, these two sets of fragilitycurves for buildings and human are exploited in a comprehensive risk sensitivity analysis. By this way,we highlight the gap that can exist between return period based zoning methods and acceptable riskthresholds. We also show the higher robustness to vulnerability relations of optimal design approaches ona typical dam design case. In paper four, we propose simplified analytical risk formulas based on extremevalue statistics to quantify risk and perform the optimal design of an avalanche dam in an efficient way. Asensitivity study is conducted to assess the influence of the chosen statistical distributions and flow-obstacleinteraction law, highlighting the need for precise risk evaluations to well characterise the tail behaviour ofextreme runouts and the predominant patterns in avalanche - structure interactions.
5

Stochastic modelling in molecular biology : a probabilistic analysis of protein polymerisation and telomere shortening / Modélisation stochastique en biologie moléculaire : une analyse probabiliste de la polymérisation des protéines et du raccourcissement des télomères

Eugène, Sarah 30 September 2016 (has links)
Dans cette thèse, nous proposons une analyse probabiliste de deux problèmes de biologie moléculaire dans lesquels la stochasticité joue un rôle essentiel : la polymérisation des protéines dans les maladies neurodégénératives ainsi que le raccourcissement des télomères. L’agrégation des protéines en fibrilles amyloïdes est un important phénomène biologique associé à plusieurs maladies humaines telles que les maladies d’Alzheimer, de Huntington ou de Parkinson, ou encore l’amylose ou bien le diabète de type 2. Comme observé au cours des expériences reproduisant les petits volumes des cellules, les courbes d’évolution cinétique de l’agrégation des protéines présentent une phase de croissance exponentielle précédée d’une phase de latence extrêmement fluctuante, liée au temps de nucléation. Après une introduction au problème de polymérisation des protéines dans le chapitre I, nous étudions dans le chapitre II les origines et les propriétés de la variabilité de ladite phase de latence ; pour ce faire, nous proposons un modèle stochastique minimal qui permet de décrire les caractéristiques principales des courbes expérimentales d’agrégation de protéines. On considère alors deux composants chimiques : les monomères et les monomères polymérisés. Au départ, seuls sont présents les monomères ; par suite, ils peuvent polymériser de deux manières différentes : soit deux monomères se rencontrent et for- ment deux monomères polymérisés, soit un monomère se polymérise à la suite d’une collision avec un autre monomère déjà polymérisé. Malgré son efficacité, la simplicité des hypothèses de ce modèle ne lui permet pas de rendre compte de la variabilité observée au cours des expériences. C’est pourquoi dans un second temps, au cours du chapitre III, nous complexifions ce modèle afin de prendre en compte d’autres mécanismes impliqués dans la polymérisation et qui sont susceptibles d’augmenter la variabilité du temps de nucléation. Lors de ces deux chapitres, des résultats asymptotiques incluant diverses échelles de temps sont obtenus pour les processus de Markov correspondants. Une approximation au premier et au second ordre du temps de nucléation sont obtenus à partir de ces théorèmes limites. Ces résultats re- posent sur une renormalisation en temps et en espace du modèle de population, ainsi que sur un principe d’homogénéisation stochastique lié à une version modifiée d’urne d’Ehrenfest. Dans une seconde partie, un modèle stochastique décrivant le raccourcissement des télomères est pro- posé. Les chromosomes des cellules eucaryotes sont raccourcis à chaque mitose à cause des mécanismes de réplication de l’ADN incapables de répliquer les extrémités du chromosome parental. Afin d’éviter une perte de l’information génétique, ces chromosomes possèdent à chaque extrémité des télomères qui n’encodent pas d’information génétique. Au fil des cycles de réplication, ces télomères sont raccourcis jusqu’à rendre la division cellulaire impossible : la cellule entre alors en sénescence réplicative. L’objectif de ce modèle est de remonter aux caractéristiques de la distribution initiale de la taille des télomères à partir de mesures de temps de sénescence. / This PhD dissertation proposes a stochastic analysis of two questions of molecular biology in which randomness is a key feature of the processes involved: protein polymerisation in neurodegenerative diseases on the one hand, and telomere shortening on the other hand. Self-assembly of proteins into amyloid aggregates is an important biological phenomenon associated with human diseases such as prion diseases, Alzheimer’s, Huntington’s and Parkinson’s disease, amyloidosis and type-2 diabetes. The kinetics of amyloid assembly show an exponential growth phase preceded by a lag phase, variable in duration, as seen in bulk experiments and experiments that mimic the small volume of the concerned cells. After an introduction to protein polymerisation in chapter I, we investigate in chapter II the origins and the properties of the observed variability in the lag phase of amyloid assembly. This variability is currently not accounted for by deterministic nucleation-dependent mechanisms. In order to tackle this issue, a stochastic minimal model is proposed, simple, but capable of describing the characteristics of amyloid growth curves. Two populations of chemical components are considered in this model: monomers and polymerised monomers. Initially, there are only monomers and from then, two possible ways of polymerising a monomer: either two monomers collide to combine into two polymerised monomers, or a monomer is polymerised by the encounter of an already polymerised monomer. However efficient, this simple model does not fully explain the variability observed in the experiments, and in chapter III, we extend it in order to take into account other relevant mechanisms of the polymerisation process that may have an impact on fluctuations. In both chapters, asymptotic results involving different time scales are obtained for the corresponding Markov processes. First and second order results for the starting instant of nucleation are derived from these limit theorems. These results rely on a scaling analysis of a population model and the proof of a stochastic averaging principle for a model related to an Ehrenfest urn model. In the second part, a stochastic model for telomere shortening is proposed. In eukaryotic cells, chromosomes are shortened with each occurring mitosis, because the DNA polymerases are unable to replicate the chromosome down to the very end. To prevent potentially catastrophic loss of genetic information, these chromosomes are equipped with telomeres at both ends (repeated sequences that contain no genetic information). After many rounds of replication however, the telomeres are progressively nibbled to the point where the cell cannot divide anymore, a blocked state called replicative senescence. The aim of this model is to trace back to the initial distribution of telomeres from measurements of the time of senescence.
6

Conditionnement de la modélisation stochastique 3D des réseaux de failles / Conditioning of the 3D stochastic modeling of fault networks

Julio, Charline 23 June 2015 (has links)
Les failles sont des zones de rupture de la roche qui affectent le comportement mécanique et fluide des réservoirs. De nombreuses incertitudes existent sur la géométrie et la topologie des réseaux de failles dues à la résolution et la qualité des données, mais aussi aux lacunes d'informations. Des approches stochastiques ont été utilisées dans la littérature pour gérer les incertitudes structurales. Ces méthodes génèrent un ensemble de modèles possibles de failles conditionné par les données disponibles. Dans cette thèse, nous explorons deux principales stratégies de conditionnement de la modélisation stochastique de réseaux de failles. La première stratégie élaborée permet de prendre en compte des observations d'absences de failles sur des données, par exemple, des zones où les réflecteurs sismiques sont continus. Dans ce but, le réservoir est divisé en deux sous-volumes délimités par une enveloppe surfacique 3D : un volume non-faillé et un volume potentiellement-faillé. Les surfaces de failles sont ensuite simulées et optimisées de manière à être entièrement positionnées dans la zone identifiée comme potentiellement faillée. La seconde stratégie de conditionnement présentée dans cette thèse gère les incertitudes relatives à l'interprétation de la segmentation des failles. La méthode génère un ensemble de modèles de segments de failles en-échelon à partir d'une interprétation continue à plus grande échelle d'une faille segmentée. La méthode utilise les variations d'orientations de la faille segmentée pour identifier la position des différents segments la composant. L'impact des différentes configurations de segmentation sur les simulations d'écoulements est étudié / Faults are discontinuities in rock volumes that affect mechanical properties and flow paths of hydrocarbon reservoirs. However, subsurface modeling remains limited by the incompleteness and resolution of available data, so that uncertainties remain on the geometry and the connectivity of fault networks. To assess fault network uncertainties, several stochastic approaches have been introduced in the literature. These methods generate a set of possible fault models conditioned by reservoir data. In this thesis, we investigate two main conditioning strategies of stochastic fault modeling methods. The first one takes into account the observations of the fault absence, for instance, as indicated by seismic reflector continuity. To do this, the reservoir volume is divided into two sub-volumes delimited by a 3D envelope surface: (1) a volume where no faults occur, and (2) a potentially-faulted volume. Then, faults are simulated and optimized in such a way as to be entirely confined to the potentially-faulted volume. The second presented strategy deals with the uncertainties related to the seismic interpretation of fault segmentation. It generates a set of fine-scale segmented faults from a larger-scale and continuous interpretation of the fault. The method uses the orientation variations of the continuous fault to subdivide it into several possible fault segments. The effects of the different segmentation configurations on flow simulations are studied
7

Identification multi-échelle du champ d'élasticité apparent stochastique de microstructures hétérogènes : application à un tissu biologique / Multiscale identification of stochastic apparent elasticity field of heterogeneous microstructures : application to a biological tissue

Nguyen, Manh Tu 08 October 2013 (has links)
Dans le cadre de l'élasticité linéaire 3D des microstructures complexes qui ne peuvent pas être simplement décrites en terme de constituants telles que des tissus biologiques, nous proposons, dans ce travail de recherche, une méthodologie d'identification expérimentale multi-échelle du champ stochastique d'élasticité apparent de la microstructure à l'échelle mésoscopique en utilisant des mesures de champ de déplacements aux échelles macroscopique et mésoscopique. On peut alors utiliser cette méthodologie dans le cadre de changement d'échelle pour obtenir des propriétés mécaniques à l'échelle macroscopique. Dans ce contexte, la question majeure est celle de l'identification expérimentale par résolution d'un problème statistique inverse de la modélisation stochastique introduite pour le champ d'élasticité apparent à l'échelle mésoscopique. Cette identification expérimentale permet non seulement de valider la modélisation mais encore de la rendre utile pour des matériaux existants ayant une microstructure complexe. Le présent travail de recherche est une contribution proposée dans ce cadre pour lequel l'expérimentation et validation expérimentale basée sur des mesures simultanées d'imagerie de champ aux échelles macroscopique et mésoscopique sont faites sur de l'os cortical / In the framework of linear elasticity 3D for complex microstructures that cannot be simply described in terms of components such as biological tissues, we propose, in this research work, a methodology for multiscale experimental identification of the apparent elasticity random field of the microstructure at mesoscopic scale using displacement field measurements at macroscopic scale and mesoscopic scale. We can then use this methodology in the case of changing scale to obtain the mechanical properties at macroscale. In this context, the major issue is the experimental identification by solving a statistical inverse problem of the stochastic modeling introduced for the apparent elasticity random field at mesoscale. This experimental identification allows to validate the modeling and makes it useful for existing materials with complex microstructures. This research work is proposed in this context in which experimentation and experimental validation based on simultaneous measurements of field imaging at macroscale and mesoscale are made on the cortical bonemakes it useful for existing materials with complex microstructures. This research work is proposed in this context in which experimentation and experimental validation based on simultaneous measurements of field imaging at macroscale and mesoscale are made on the cortical bone.
8

Modélisation stochastique pour le raisonnement médical et ses applications à la télémédecine

Rose, Cédric 27 May 2011 (has links) (PDF)
La télémédecine est une approche nouvelle de la pratique médicale qui est particulièrement porteuse d'espoir face à l'enjeu sociétal posé par l'incidence croissante des maladies chroniques et l'évolution de la démographie médicale. Le développement de la télésurveillance médicale réalisée grâce au recueil de données physiologiques ou biologiques au domicile du patient implique de développer nos capacités à analyser un volume important de données. Le problème auquel s'intéresse cette thèse est d'établir ou d'apprendre automatiquement la fonction qui lie les données fournies par les capteurs à l'état de santé du patient. La difficulté principale tient à ce qu'il est difficile et souvent impossible d'établir de manière sûre l'état de santé d'un patient, la seule référence disponible étant alors celle que peut donner le médecin traitant. Nous montrons dans cette thèse que la modélisation stochastique et plus particulièrement le formalisme graphique bayésien permet d'aborder cette question sous trois angles complémentaires. Le premier est celui de la représentation explicite de l'expertise médicale. Cette approche est adaptée aux situations dans lesquelles les données ne sont pas accessibles et où il est donc nécessaire de modéliser directement la démarche du médecin. La seconde approche envisagée est celle de l'apprentissage automatique des paramètres du modèles lorsque suffisamment de données sur les sorties attendues sont disponibles. Nous nous intéressons enfin à la possibilité d'apprendre les actions pertinentes par renforcement sous les contraintes de la problématique médicale à savoir d'après l'observation de l'expert dans sa pratique normale. Nous étudions plus spécifiquement l'utilisation de la vraisemblance du modèle pour apprendre une représentation pertinente de l'espace d'états.
9

Stochastic modeling of intracellular processes : bidirectional transport and microtubule dynamics / Modélisation stochastique de processus intracellulaires : transport bidirectionnel et dynamique de microtubules

Ebbinghaus, Maximilian 21 April 2011 (has links)
Dans cette thèse, des méthodes de la physique statistique hors équilibre sont utilisées pour décrire deux processus intracellulaires. Le transport bidirectionnel sur les microtubules est décrit à l'aide d'un gaz sur réseau stochastique quasi-unidimensionnel. Deux espèces de particules sautent dans des directions opposées en interagissant par exclusion. La présence habituelle d'accumulations de particules peut être supprimée en rajoutant la dynamique du réseau, c'est-à-dire de la microtubule. Un modèle simplifié pour la dynamique du réseau produit une transition de phase vers un état homogène avec un transport très efficace dans les deux directions. Dans la limite thermodynamique, une propriété de l'état stationnaire limite la longueur maximale des accumulations. La formation de voies peut être causée par des interactions entre particules. Néanmoins, ces mécanismes s'avèrent peu robustes face à une variation des paramètres du modèle. Dans presque tous les cas, la dynamique du réseau a un effet positif et bien plus important sur le transport que la formation de voies. Par conséquent, la dynamique du réseau semble un point-clé pour comprendre la régulation du transport intracellulaire. La dernière partie introduit un modèle pour la dynamique d'une microtubule sous l'action d'une protéine qui favorise les sauvetages. Des phénomènes intéressants de vieillissement apparaissent alors, et devraient être observables dans des expériences. / This thesis uses methods and models from non-equilibrium statistical physics to describe intracellular processes. Bidirectional microtubule-based transport within axons is modeled as a quasi-one-dimensional stochastic lattice gas with two particle species moving in opposite directions under mutual exclusion interaction. Generically occurring clusters of particles in current models for intracellular transport can be dissolved by additionally considering the dynamics of the transport lattice, i.e., the microtubule. An idealized model for the lattice dynamics is used to create a phase transition toward a homogenous state with efficient transport in both directions. In the thermodynamic limit, a steady state property of the dynamic lattice limits the maximal size of clusters. Lane formation mechanisms which are due to specific particle-particle interactions turn out to be very sensitive to the model assumptions. Furthermore, even if some particle-particle interaction is considered, taking the lattice dynamics into account almost always improves transport. Thus the lattice dynamics seems to be the key aspect in understanding how nature regulates intracellular traffic. The last part introduces a model for the dynamics of a microtubule which is limited in its growth by the cell boundary. The action of a rescue-enhancing protein which is added to the growing tip of a microtubule and then slowly dissociates leads to interesting aging effects which should be experimentally observable.
10

Étude théorique et expérimentale des phénomènes de congestion sur un réseau ferroviaire urbain / Theoretical and experimental study of congestion phenomena on an urban railway network

Cuniasse, Pierre-Antoine 06 November 2015 (has links)
Depuis une vingtaine d'années, les problématiques de transport public en région parisienne sont devenues une préoccupation majeure. Pour les usagers qui consacrent en moyenne environ deux heures quotidiennement à leurs déplacements domicile-travail, la qualité de l'offre de transport est un enjeu majeur.La société nationale des chemins de fer français qui exploitent la majeure partie du réseau ferré dans cette région joue un rôle central dans l'organisation des transports. Mais à l'opposé des attentes qui pèsent sur ce secteur, le trafic ferroviaire rencontrent un certain nombre de dysfonctionnements. En s'inscrivant dans une démarche globale de remise en question des principes d'exploitation ferroviaire en zone dense, cette thèse apporte un regard nouveau sur l'origine des retards qui affectent les trains.Un modèle simple qui permet d'étudier la congestion du trafic ferroviaire sous l'influence de perturbations aléatoires est proposé. En s'inspirant des outils du trafic routier et tout particulièrement du diagramme fondamental de réseau,on définit pour le ferroviaire, le diagramme fondamental de ligne ferroviaire qui permet de représenter le débit en fonction de la concentration sur une portion de ligne ferroviaire. Cet outil est ensuite utilisé pour comparer les résultats issus de notre modèle à un jeu de données mesuré sur deux lignes de chemin de fer de la région parisienne.Cette comparaison montre que notre modèle permet de reproduire qualitativement les phénomènes de congestion du trafic observés sur les cas réels. / Over the last twenty years, public transport issues in the Paris region have become a major concern. The French national railway company, which operates most of the rail network in this region, plays a central role in the organisation of transport. However, in contrast to expectations in this sector, rail traffic is experiencing a number of malfunctions. As part of an overall approach to questioning the principles of rail operation in dense areas, this thesis provides a new look at the origin of delays affecting trains. Drawing on road traffic tools and in particular the basic network diagram, the basic railway line diagram is defined for railways, which makes it possible to represent the flow as a function of concentration on a portion of a railway line. This tool is then used to compare the results from our model with a set of data measured on two railway lines in the Paris region, which shows that our model can qualitatively reproduce the traffic congestion phenomena observed on real cases.(Translated with www.DeepL.com/Translator)

Page generated in 0.5305 seconds