• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 234
  • 115
  • 45
  • 40
  • 8
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 571
  • 169
  • 118
  • 96
  • 80
  • 79
  • 78
  • 72
  • 70
  • 65
  • 64
  • 61
  • 59
  • 57
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Décompositions spatio-temporelles pour l'étude des textures dynamiques : contribution à l'indexation vidéo / Spatio-temporal decompositions for the study of Dynamic Textures : contribution to video indexing

Dubois, Sloven 19 November 2010 (has links)
Nous nous intéresserons dans cette thèse à l'étude et la caractérisation des Textures Dynamiques (TDs), avec comme application visée l'indexation dans de grandes bases de vidéos. Ce thème de recherche étant émergent, nous proposons une définition des TDs, une taxonomie de celles-ci, ainsi qu'un état de l'art. La classe de TD la plus représentative est décrite par un modèle formel qui considère les TDs comme la superposition d'ondes porteuses et de phénomènes locaux. La construction d'outils d'analyse spatio-temporelle adaptés aux TDs est notre principale contribution. D'une part, nous montrons que la transformée en curvelets 2D+T est pertinente pour la représentation de l'onde porteuse. D'autre part, dans un objectif de décomposition des séquences vidéos, nous proposons d'utiliser l'approche par Analyse en Composantes Morphologiques. Notre contribution consiste en l'apport et l'étude de nouvelles stratégies de seuillage. Ces méthodes sont testées sur plusieurs applications: segmentation spatio-temporelle, décomposition de TDs, estimation du mouvement global d'une TD, ... Nous avons de plus montré que l'Analyse en Composantes Morphologiques et les approches multi-échelles donnent des résultats significatifs pour la recherche par le contenu et l'indexation de Textures Dynamiques de la base de données DynTex. Cette thèse constitue ainsi un premier pas vers l'indexation automatique de textures dynamiques dans des séquences d'images, et ouvre la voie à de nombreux développements sur ce sujet nouveau. Enfin, le caractère générique des approches proposées permet d'envisager leurs applications dans un cadre plus large mettant en jeu par exemple des données 3D. / This report is focused on the study and the characterization of Dynamic Textures (DTs), with the aim of video indexing in large databases. This research topic being new and emerging, we propose a taxonomy, a definition of DTs and a state of the art. The most representative DT class is described by a model that considers DTs as the superposition of several wavefronts and local oscillating phenomena. The design of spatio-temporal analysis tools adapted to DT is our main contribution. We first show that the 2D+T curvelet transform is relevant for representing wavefronts. In order to analyse and better understand the DTs, we propose in a second step to adapt the Morphological Component Analysis approach using new thresholding strategies. These methods are tested on several applications: decomposition of DTs, spatio-temporal segmentation, global motion estimation of a DT, ... We have shown that Morphological Component Analysis and multi-scale approaches enable significant results for content-based retrieval applications and dynamic texture indexing on the DynTex database. This thesis constitutes a first step towards automatic indexing of DTs in image sequences and opens the way for many new developments in this topic. Moreover, the proposed approaches are generic and could be applied in a broader context, for instance the processing of 3D data.
362

Fabricating Superhydrophobic and Superoleophobic Surfaces with Multiscale Roughness Using Airbrush and Electrospray

Almilaji, Karam N 01 January 2016 (has links)
Examples of superhydrophobic surfaces found in nature such as self-cleaning property of lotus leaf and walking on water ability of water strider have led to an extensive investigation in this area over the past few decades. When a water droplet rests on a textured surface, it may either form a liquid-solid-vapor composite interface by which the liquid droplet partially sits on air pockets or it may wet the surface in which the water replaces the trapped air depending on the surface roughness and the surface chemistry. Super water repellent surfaces have numerous applications in our daily life such as drag reduction, anti-icing, anti-fogging, energy conservation, noise reduction, and self-cleaning. In fact, the same concept could be applied in designing and producing surfaces that repel organic contaminations (e.g. low surface tension liquids). However, superoleophobic surfaces are more challenging to fabricate than superhydrophobic surfaces since the combination of multiscale roughness with re-entrant or overhang structure and surface chemistry must be provided. In this study, simple, cost-effective and potentially scalable techniques, i.e., airbrush and electrospray, were employed for the sake of making superhydrophobic and superoleophobic coatings with random and patterned multiscale surface roughness. Different types of silicon dioxide were utilized in this work to in order to study and to characterize the effect of surface morphology and surface roughness on surface wettability. The experimental findings indicated that super liquid repellent surfaces with high apparent contact angles and extremely low sliding angles were successfully fabricated by combining re-entrant structure, multiscale surface roughness, and low surface energy obtained from chemically treating the fabricated surfaces. In addition to that, the experimental observations regarding producing textured surfaces in mask-assisted electrospray were further validated by simulating the actual working conditions and geometries using COMSOL Multiphysics.
363

Analyse de sensibilité globale pour les modèles de simulation imbriqués et multiéchelles / Global sensitivity analysis for nested and multiscale modelling

Caniou, Yann 29 November 2012 (has links)
Cette thèse est une contribution à la modélisation imbriquée de systèmes complexes. Elle propose une méthodologie globale pour quantifier les incertitudes et leurs origines dans une chaîne de calcul formée par plusieurs modèles pouvant être reliés les uns aux autres de façon complexe. Ce travail est organisé selon trois axes. D’abord, la structure dedépendance des paramètres du modèle, induite par la modélisation imbriquée, est modélisée de façon rigoureuse grâce à la théorie des copules. Puis, deux méthodes d’analyse de sensibilité adaptées aux modèles à paramètres d’entrée corrélés sont présentées : l’une est basée sur l’analyse de la distribution de la réponse du modèle, l’autre sur la décomposition de la covariance. Enfin, un cadre de travail inspiré de la théorie des graphes est proposé pour la description de l’imbrication des modèles. La méthodologie proposée est appliquée à des exemples industriels d’envergure : un modèle multiéchelles de calcul des propriétés mécaniques du béton par une méthode d’homogénéisation et un modèle multiphysique de calcul de dommage sur la culasse d’un moteur diesel. Les résultats obtenus fournissent des indications importantes pour une amélioration significative de la performance d’une structure. / This thesis is a contribution to the nested modelling of complex systems. A global methodology to quantify uncertainties and their origins in a workflow composed of several models that can be intricately linked is proposed. This work is organized along three axes. First, the dependence structure of the model parameters induced by the nested modelling is rigorously described thanks to the copula theory. Then, two sensitivity analysis methods for models with correlated inputs are presented : one is based on the analysis of the model response distribution and the other one is based on the decomposition of the covariance. Finally, a framework inspired by the graph theory is proposed for the description of the imbrication of the models. The proposed methodology is applied to different industrial applications : a multiscale modelling of the mechanical properties of concrete by homogenization method and a multiphysics approach of the damage on the cylinder head of a diesel engine. The obtained results provide the practitioner with essential informations for a significant improvement of the performance of the structure.
364

Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields / Assimilation de données multi-échelle et caractérisation des erreurs pour la modélisation inverse des sources de polluants atmosphériques

Koohkan, Mohammad Reza 20 December 2012 (has links)
Dans les études géophysiques, l'assimilation de données a pour but d'estimer l'état d'un système ou les paramètres d'un modèle physique de façon optimale. Pour ce faire, l'assimilation de données a besoin de trois types d'informations : des observations, un modèle physique/numérique et une description statistique de l'incertitude associée aux paramètres du système. Dans ma thèse, de nouvelles méthodes d'assimilation de données sont utilisées pour l'étude de la physico-chimie de l'atmosphère: (i) On y utilise de manière conjointe la méthode 4D-Var avec un modèle sous-maille statistique pour tenir compte des erreurs de représentativité. (ii) Des échelles multiples sont prises en compte dans la méthode d'estimation BLUE. (iii) Enfin, la méthode du maximum de vraisemblance est appliquée pour estimer des hyper-paramètres qui paramètrisent les erreurs à priori. Ces trois approches sont appliquées de manière spécifique à des problèmes de modélisation inverse des sources de polluant atmosphérique. Dans une première partie, la modélisation inverse est utilisée afin d'estimer les émissions de monoxyde de carbone sur un domaine représentant la France. Les stations du réseau d'observation considérées sont impactées par les erreurs de représentativité. Un modèle statistique sous-maille est introduit. Il est couplé au système 4D-Var afin de réduire les erreurs de représentativité. En particulier, les résultats de la modélisation inverse montrent que la méthode 4D-Var seule n'est pas adaptée pour gérer le problème de représentativité. Le système d'assimilation des données couplé conduit à une meilleure représentation de la variabilité de la concentration de CO avec une amélioration très significative des indicateurs statistiques. Dans une deuxième partie, on évalue le potentiel du réseau IMS (International Monitoring System) du CTBTO pour l'inversion d'une source accidentelle de radionucléides. Pour évaluer la performance du réseau, une grille multi-échelle adaptative pour l'espace de contrôle est optimisée selon un critère basé sur les degrés de liberté du signal (DFS). Les résultats montrent que plusieurs régions restent sous-observées par le réseau IMS. Dans la troisième et dernière partie, sont estimés les émissions de Composés Organiques Volatils (COVs) sur l'Europe de l'ouest. Cette étude d'inversion est faite sur la base des observations de 14 COVs extraites du réseau EMEP. L'évaluation des incertitudes des valeurs des inventaires d'émission et des erreurs d'observation sont faites selon le principe du maximum de vraisemblance. La distribution des inventaires d'émission a été supposée tantôt gaussienne et tantôt semi-normale. Ces deux hypothèses sont appliquées pour inverser le champs des inventaires d'émission. Les résultats de ces deux approches sont comparés. Bien que la correction apportée sur les inventaires est plus forte avec l'hypothèse Gaussienne que semi-normale, les indicateurs statistiques montrent que l'hypothèse de la distribution semi-normale donne de meilleurs résultats de concentrations que celle Gaussienne. / Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment.
365

Numerical analysis of highly oscillatory Stochastic PDEs / Analyse numérique d'EDPS hautement oscillantes

Bréhier, Charles-Edouard 27 November 2012 (has links)
Dans une première partie, on s'intéresse à un système d'EDP stochastiques variant selon deux échelles de temps, et plus particulièrement à l'approximation de la composante lente à l'aide d'un schéma numérique efficace. On commence par montrer un principe de moyennisation, à savoir la convergence de la composante lente du système vers la solution d'une équation dite moyennée. Ensuite on prouve qu'un schéma numérique de type Euler fournit une bonne approximation d'un coefficient inconnu apparaissant dans cette équation moyennée. Finalement, on construit et on analyse un schéma de discrétisation du système à partir des résultats précédents, selon la méthodologie dite HMM (Heterogeneous Multiscale Method). On met en évidence l'ordre de convergence par rapport au paramètre d'échelle temporelle et aux différents paramètres du schéma numérique- on étudie les convergences au sens fort (approximation des trajectoires) et au sens faible (approximation des lois). Dans une seconde partie, on étudie une méthode d'approximation de solutions d'EDP paraboliques, en combinant une approche semi-lagrangienne et une discrétisation de type Monte-Carlo. On montre d'abord dans un cas simplifié que la variance dépend des pas de discrétisation- enfin on fournit des simulations numériques de solutions, afin de mettre en avant les applications possibles d'une telle méthode. / In a first part, we are interested in the behavior of a system of Stochastic PDEs with two time-scales- more precisely, we focus on the approximation of the slow component thanks to an efficient numerical scheme. We first prove an averaging principle, which states that the slow component converges to the solution of the so-called averaged equation. We then show that a numerical scheme of Euler type provides a good approximation of an unknown coefficient appearing in the averaged equation. Finally, we build and we analyze a discretization scheme based on the previous results, according to the HMM methodology (Heterogeneous Multiscale Method). We precise the orders of convergence with respect to the time-scale parameter and to the parameters of the numerical discretization- we study the convergence in a strong sense - approximation of the trajectories - and in a weak sense - approximation of the laws. In a second part, we study a method for approximating solutions of parabolic PDEs, which combines a semi-lagrangian approach and a Monte-Carlo discretization. We first show in a simplified situation that the variance depends on the discretization steps. We then provide numerical simulations of solutions, in order to show some possible applications of such a method.
366

Couplage entre la dynamique moléculaire et la mécanique des milieux continus

Bugel, Mathilde 09 October 2009 (has links)
A l'échelle macroscopique, la mécanique des milieux continus (MMC) rencontre parfois des difficultés à représenter correctement le comportement d'un système physique, du fait d'une modélisation insuffisante des phénomènes. Ces faiblesses sont particulièrement marquées dans les systèmes où les interfaces, qui font apparaître des échelles d'espace très différentes, jouent un rôle prépondérant : microfluidique, écoulements polyphasiques etc.. Or, dans de nombreux domaines, et notamment dans le milieu pétrolier, les modèles macroscopiques existants semblent insuffisants pour pouvoir traiter correctement les cas proposés. Par ailleurs, la méconnaissance des paramètres d’entrée d'une simulation macroscopique tels que les propriétés de transport, introduit parfois une mauvaise représentation de l’ensemble des processus diffusifs. La simulation à l'échelle microscopique, en l'occurrence la dynamique moléculaire classique (DM), peut pallier certains problèmes rencontrés par les approches macroscopiques, en permettant de mieux appréhender les divers processus physiques, notamment aux interfaces. Elle permet également de suppléer l’expérimentation, en permettant de calculer pour un fluide modèle les propriétés physiques du mélange étudié. Ainsi, à partir des ces données générées, il est possible de construire des corrélations palliant aux différents manques. Néanmoins, de par son caractère microscopique, cette approche ne permet de simuler que des échelles sub-micrométriques qui sont bien éloignées de la taille indispensable à la plupart des cas réalistes, qu’ils soient académiques ou industriels. En couplant les deux démarches, macroscopique et microscopique, de manière directe ou indirecte, il est donc envisageable d’accéder à des informations que l’une ou l’autre des ces approches ne peut fournir seule. / Hybrid atomistic-continuum methods allow the simulation of complex flows, depending on the intimate connection of many spatiotemporal scales : from the nanoscale to the microscale and beyond. By limiting the molecular description within a small localized region, for example near fluid/fluid or fluid/solid interfaces (breakdown of the continuum), these methods are useful to study large systems for reasonable times. Besides, there is a wide variety of applications for such hybrid methods, ranging from the micro- or nano-scale devices, and other industrial processes such as wetting, droplet formation, and biomolecules near interfaces. In this work, we present one scheme for coupling the Navier-Stokes set of equations with Molecular Dynamics. Among the existing alternatives to couple these two approaches, we have chosen to implement a domain decomposition algorithm based on the alternating Schwarz method. In this method, the flow domain is decomposed into two overlapping regions : an atomistic region described by molecular dynamics and a continuum region described by a finite volume discretization of the incompressible Navier-Stokes equations. The fundamental assumption is that the atomistic and the continuum descriptions match in the overlapping region, where the exchange of information is performed. The information exchange, requires the imposition of velocity from one sub-domain in the form of boundary conditions (Dirichlet)/constraints on the solver of the other subdomain and vice versa. The spatial coupling as well as the temporal coupling of the two approaches has been investigated in this work. To show the feasibility of such a coupling, we have applied the multiscale method to a classical fluid mechanics problems.
367

Approche multi-échelle de la rupture des structures en béton : Influence des agrégats sur la longueur interne du matériau / Multiscale approach of concrete structure failure : Influence of aggregates on material internal length

Bui, Huu Phuoc 21 November 2013 (has links)
Pour l'analyse de durabilité et la conception économique (moins de matériel) de structures en matériaux ressemblant à du béton, la modélisation de la rupture est essentielle. Dans le cadre de la mécanique des milieux continus, une longueur interne est introduite dans les modèles non locaux pour remédier au problème lié à la sensibilité du maillage qui est une pathologie des modèles d'endommagement classiques , lorsqu'il s'agit de matériaux adoucissantes. Toutefois, l'évaluation de la longueur interne de hétérogénéités du matériau est toujours une question difficile, ce qui rend un problème obscur en utilisant des modèles non locaux. Nos travaux portent sur le développement d'un outil numérique basée sur la méthode des éléments en treillis (LEM) qui est un modèle discret pour la simulation et la prévision de la rupture des structures en béton. En utilisant le modèle de réseau à l'échelle mésoscopique, il n'est pas nécessaire d'introduire une longueur interne dans la loi de comportement, comme cela se fait dans les modèles non locaux, et nous pouvons affranchir ce paramètre en introduisant explicitement la mesotructure matérielle via une description géométrique. Basé sur l'outil numérique développé, nous avons étudié, en effectuant des tests numériques de traction uniaxiale, l'influence géométrique de la mesotructure du matériau ainsi que l'influence des conditions aux limites et de tailles d'échantillons (qui se traduisent par le gradient de sollicitation et le champ de rotation de matériel différents) sur le taille de la FPZ (fracture process zone) et sur la longueur caractéristique du matériau quasi-fragile homogénéisé. Ces études fournissent des recommandations/avertissements lors de l'extraction d'une longueur interne nécessaire pour les modèles nonlocaux à partir de la microstructure du matériau. Par ailleurs, les études contribuent un aperçu direct de l'origine mésoscopic de la taille FPZ et la longueur de la caractéristique du matériau, et par conséquent sur l'origine et la nature du comportement non linéaire du matériau. Ensuite, nous avons implanté le modèle du treillis dans la bibliothèque de SOFA développé par l'INRIA pour réaliser le couplage avec la méthode des éléments finis (MEF) afin de faire face avec des structures à grande échelle. Nous avons proposé un algorithme de couplage entre une approche macroscopique représentée par MEF et une approche mésoscopique infligés par LEM au sein d'une manière adaptative. Le modèle de couplage est d'abord utilisée pour valider l'approche multi-échelle proposée sur des simulations heuristiques. Et à long terme, il fournit un outil prometteur pour des simulations de grandes structures en matériaux quasi-fragiles de la vie réelle. / For durability analysis and economic design (less material) of structures made of concrete-like materials, modeling of cracking process and failure is essential. In the framework of continuum mechanics, an internal length is introduced in nonlocal models to remedy the problem related to mesh sensitivity which is a pathology of classical damage models, when dealing with softening materials. However, the assessment of the internal length from heterogeneities of the material is still a difficult question, which makes an obscure issue in using nonlocal models. Our work concerns developing of a numerical tool based on the Lattice Element Method (LEM) which is a discrete model for simulating and predicting fracture in concrete(-like) material. Using the lattice model at the mesoscopic scale, there is no need to introduce any internal length in the constitutive law, as done in nonlocal models, and we can enfranchise this parameter by explicitly introducing the material mesotructure via geometric description. Based on the developed numerical tool, we studied, by performing numerical uniaxial tensile tests, the geometric influence of the material mesotructure as well as the influence of the boundary conditions and specimen sizes (that result in different stress gradient and material rotation field) on the size of the FPZ (Fracture Process Zone) and on the characteristic length of the homogenized quasi-brittle material. These studies provide recommendations/warnings when extracting an internal length required for nonlocal damage models from the material microstructure. Moreover, the studies contribute a direct insight into the mesoscale origin of the FPZ size and the material characteristic length, and consequently into the origin and nature of the nonlinear behavior of the material. Then, we implemented the lattice model into SOFA library developed by INRIA for realizing the coupling with the Finite Element Method (FEM) in order to deal with large-scale structures. We proposed a strong coupling algorithm between a macroscopic approach represented by FEM and a mesoscopic approach dealt by LEM within an adaptive manner. The coupling model is first used to validate the multiscale approach proposed on heuristic simulations. And in the long term, it provides a promising tool for simulations of large-scale structures made of quasi-brittle materials of real life.
368

Mécanotransduction osseuse : écoulement interstitiel, microstructure et couplages biochimiques / Bone mechanotransduction : interstitial fluid flow, microstructure and biochemical coupling

Kaiser, Joanna 01 December 2011 (has links)
Dans ce travail de thèse nous nous sommes intéressés aux phénomènes de transport au sein du réseau lacuno-canaliculaire (RLC) et de l'ostéon dans le tissu osseux cortical. Pour étudier la mécanotransduction ostéocytaire amenant au remodelage osseux, nous avons développé un modèle à trois échelles où sont pris en : l'électrcompte ostatique (modélisée par l'équation de Poisson Boltzmann), l'écoulement du fluide (représenté textit{via} une équation de Stokes modifiée et la conservation de la masse fluide) et le transport ionique (régi par l'équation de Nernst-Planck). L'étude de la distribution du potentiel électrique, a mis en exergue l'importance des double-couches électriques au voisinage des parois chargées des pores. Ces double-couches électriques, ainsi que la composition chimique du fluide donnent lieu à des phénomènes d'osmose et d'électroosmose intervenant dans l'écoulement du fluide interstitiel, et influençant la diffusion efficace des ions dans les pores. L'étude a démarré à l'échelle du pore canaliculaire pour être propagée à l'échelle du canalicule puis de l'ostéon, en utilisant une procédure d'homogénéisation périodique asymptotique. Une étude paramétrique nous a permis de cibler les paramètres agissant sur les phénomènes de transport et pouvant faire réagir les ostéocytes. Il est ressorti de cette étude que les effets électro-chimiques jouent rôle important. Nous avons donc choisi de nous focaliser sur la chimie et plus particulièrement sur les effets des flux ioniques physiologiques sur les ostéocytes dans le RLC. Des expériences, mises en place pour étayer ces aspects ont souligné l'importance des échanges chimiques entre les cellules et le fluide qui les entoure. Finalement, nous avons montré que les phénomènes de transports ayant lieu dans le RLC et dans l'ostéon interagissent les uns les autres, parachevant ainsi la description à trois échelles du tissu cortical / Transport phenomena appearing within the cortical bone lacuno-canalicular network (LCN) and the osteon were the objective of this study. We developped a three-scale model to investigate the osteocyte mechanotranduction which is at the origin of the bone remodeling process. This model took into account three physical phenomena : the electrostatics (through the Poisson-Boltzman equation), the interstitial fluid flow (modeled by a modified Stokes equation) and the ionic transport (governed by a Nernst-Planck equation). Analysis of the electrical potential distribution highlighted the importance of the electrical double layers close to the pore charged surface. These electrical double layers, as well as the interstitial fluid chemical composition, induce osmotic and electroosmotic fluid flows and affect the ionic effective diffusion within the pores. Using a periodic asymptotic homogeneisation procedure, the model at the canalicular pore scale was upscaled at the canalicular scale and then at the osteonal scale. A parametric study pointed out the relevant parameters acting on the transport phenomena and possibly affecting osteocyte mecanosensitivity. Our results emphasized the importance of the electro-chemical effects. We thus focused on the chemistry and more especially on the effects of the physiological ionic fluxes on the osteocyte. In vitro experiments and numrical simulations were performed to elucidate these questions. Our results underlined the importance of the chemical exchanges between the osteocyte and the surrounding fluid. Finally, we showed that fluid flow and chemical transport occuring within the LCN and the osteon interact with each other, thus achieving a three-scale description of the transport phenomena in the osteon
369

Study and test of micro-channel plates used in the dual ion spectrometer of the MMS mission by NASA

Mrigakshi, Alankrita Isha January 2008 (has links)
The Magnetospheric Multiscale mission led by NASA has been designed to study the micro-physics of Magnetic Reconnection in Earth's magnetosphere by using four identical spacecrafts with instruments with high temporal and spatial resolutions. Among these instruments are the Dual Ion Spectrometers (DIS) engineered to measure the 3D distribution of ion flux in space. The detector assembly of the DIS consists of Micro-Channel Plates (MCP) mounted in Chevron configuration. Centre d'Etude Spatiale des Rayonnements (CESR), Toulouse is responsible for the provision and testing of all fifty MCP pairs for this mission. The goal of the work was to participate in the testing and characterization of the first prototype of the MCPs. It was achieved by understanding the working and characteristics of the MCPs in general and getting familiar with the detector assembly of the DIS i.e. the MCP pair and the detector circuit board in particular. To perform the testing, it was necessary to understand the testing system as well. These topics are described in this report along with the testing procedure and the data analysis. The testing procedure was developed eventually after facing several problems during the testing. MCP pair characteristics like pulse height distributions, gain, resistance and the MCP operating voltages for the mission were determined on analyzing the data. Crosstalk was found in the circuit board of the detector assembly and has also been discussed. / Validerat; 20101217 (root)
370

Etude de représentations parcimonieuses des statistiques d'erreur d'observation pour différentes métriques. Application à l'assimilation de données images / Study of sparse representations of statistical observation error for different metrics. Application to image data assimilation

Chabot, Vincent 11 July 2014 (has links)
Les dernières décennies ont vu croître en quantité et en qualité les données satellites. Au fil des ans, ces observations ont pris de plus en plus d'importance en prévision numérique du temps. Ces données sont aujourd'hui cruciales afin de déterminer de manière optimale l'état du système étudié, et ce, notamment car elles fournissent des informations denses et de qualité dansdes zones peu observées par les moyens conventionnels. Cependant, le potentiel de ces séquences d'images est encore largement sous–exploitée en assimilation de données : ces dernières sont sévèrement sous–échantillonnées, et ce, en partie afin de ne pas avoir à tenir compte des corrélations d'erreurs d'observation.Dans ce manuscrit nous abordons le problème d'extraction, à partir de séquences d'images satellites, d'information sur la dynamique du système durant le processus d'assimilation variationnelle de données. Cette étude est menée dans un cadre idéalisé afin de déterminer l'impact d'un bruit d'observations et/ou d'occultations sur l'analyse effectuée.Lorsque le bruit est corrélé en espace, tenir compte des corrélations en analysant les images au niveau du pixel n'est pas chose aisée : il est nécessaire d'inverser la matrice de covariance d'erreur d'observation (qui se révèle être une matrice de grande taille) ou de faire des approximationsaisément inversibles de cette dernière. En changeant d'espace d'analyse, la prise en compte d'une partie des corrélations peut être rendue plus aisée. Dans ces travaux, nous proposons d'effectuer cette analyse dans des bases d'ondelettes ou des trames de curvelettes. En effet, un bruit corréléen espace n'impacte pas de la même manière les différents éléments composants ces familles. En travaillant dans ces espaces, il est alors plus aisé de tenir compte d'une partie des corrélations présentes au sein du champ d'erreur. La pertinence de l'approche proposée est présentée sur différents cas tests.Lorsque les données sont partiellement occultées, il est cependant nécessaire de savoir comment adapter la représentation des corrélations. Ceci n'est pas chose aisée : travailler avec un espace d'observation changeant au cours du temps rend difficile l'utilisation d'approximations aisément inversibles de la matrice de covariance d'erreur d'observation. Dans ces travaux uneméthode permettant d'adapter, à moindre coût, la représentations des corrélations (dans des bases d'ondelettes) aux données présentes dans chaque image est proposée. L'intérêt de cette approche est présenté dans un cas idéalisé. / Recent decades have seen an increase in quantity and quality of satellite observations . Over the years , those observations has become increasingly important in numerical weather forecasting. Nowadays, these datas are crucial in order to determine optimally the state of the studied system. In particular, satellites can provide dense observations in areas poorly observed by conventionnal networks. However, the potential of such observations is clearly under--used in data assimilation : in order to avoid the management of observation errors, thinning methods are employed in association to variance inflation.In this thesis, we adress the problem of extracting information on the system dynamic from satellites images data during the variationnal assimilation process. This study is carried out in an academic context in order to quantify the influence of observation noise and of clouds on the performed analysis.When the noise is spatially correlated, it is hard to take into account such correlations by working in the pixel space. Indeed, it is necessary to invert the observation error covariance matrix (which turns out to be very huge) or make an approximation easily invertible of such a matrix. Analysing the information in an other space can make the job easier. In this manuscript, we propose to perform the analysis step in a wavelet basis or a curvelet frame. Indeed, in those structured spaces, a correlated noise does not affect in the same way the differents structures. It is then easier to take into account part of errors correlations : a suitable approximation of the covariance matrix is made by considering only how each kind of element is affected by a correlated noise. The benefit of this approach is demonstrated on different academic tests cases.However, when some data are missing one has to address the problem of adapting the way correlations are taken into account. This work is not an easy one : working in a different observation space for each image makes the use of easily invertible approximate covariance matrix very tricky. In this work a way to adapt the diagonal hypothesis of the covariance matrix in a wavelet basis, in order to take into account that images are partially hidden, is proposed. The interest of such an approach is presented in an idealised case.

Page generated in 0.074 seconds