121 |
Matière molle programmable par voie chimique ou optique : compaction de l'ADN, activité protéique et opérations microfluidiques / Chemically and optically programmable soft matter : DNA compaction, protein activity and microfluidic operationsVenancio Marques Serra, Anna 15 July 2014 (has links)
Cette thèse porte sur le développement de matière molle programmable, de nature synthétique ou biologique, afin d'obtenir des systèmes physico-chimiques (ADN, protéines, petits volumes de liquides...) permettant de nouvelles propriétés contrôlables par la lumière. Dans un premier temps, nous développons une nouvelle famille d'agents de compaction, les polyamines photosensibles. Ces dernières permettent de mettre en place un photocontrôle dynamique de l'état de compaction de l'ADN avec une efficacité 100 fois plus grande que celles décrites précédemment dans la littérature. Ensuite nous appliquons le photocontrôle de la compaction de l'ADN à la régulation de fonctions protéiques. L'enzyme cible, la beta-lactamase, est tout d'abord placée dans un édifice hybride protéine-ADN géant. La présence des ADN géants augmente l'activité enzymatique, qui peut être modulée par la modification de l'état de compaction de l'ADN. Une seconde stratégie repose sur le photocontrôle de la compaction d'un ADN codant pour la beta-lactamase, qui, utilisé avec un milieu d'expression reconstitué, permet de réguler par la lumière la production de protéines, et donc leurs fonctions, avec une bonne résolution spatiale et temporelle.Finalement, l'introduction d'un tensioactif photosensible dans des systèmes microfluidiques conduit au photocontrôle par un éclairement simple (une diode) d'une gamme très vaste d'opérations microfluidiques impliquant aussi bien des gouttes individuelles (optofluidique digitale pour la synthèse organique) que des écoulements au sein de canaux microfluidiques (mélange photo-induit). / The aim of the thesis is to develop optically programmable soft matter systems (DNA, proteins, small volumes of fluids) in order to achieve new and drastic property changes upon illumination. We first focus on photosensitive polyamines, a new class of compaction agents, and on their exceptional performances including photoreversible control of DNA compaction at a high efficiency (up to 100 times more efficient than agents reported in literature).The photocontrol of DNA compaction is then exploited as a light-based trigger for protein functions. The activity of an enzyme of interest, beta-lactamase, is first enhanced by creating a hybrid protein-DNA conjugate. We go on to show how the regulation of DNA compaction impacts the protein function. Another DNA compaction-based strategy uses the genetic information contained in the DNA and a commercially available, cell-free, reconstituted expression system to produce a functional enzyme under optical control. The conversion of non-photosensitive substrates is therefore photoregulated without any chemical modification of the target enzyme.The introduction a photosensitive surfactant in microfluidic systems allows a straightforward illumination (diode) to give rise to a wide array of operations, from the optical manipulation of individual floating droplets (digital optofluidics for organic synthesis) to the photoactivation of flowing liquids in microfluidic channels (photogenerated droplets, photoinduced mixing).
|
122 |
High-Tc Josephson mixers for Terahertz detection / Mélangeurs Josephson à haute température critique pour la détection térahertzMalnou, Maxime 07 July 2015 (has links)
Cette thèse porte sur la fabrication et la caractérisation d'un mélangeur hétérodyne, à partir d'YBa2Cu3O7, un matériau supraconducteur à haute température critique. Nous avons évalué son potentiel pour la détection d'ondes térahertz. La physique complexe des jonctions irradiées a été correctement décrite en modifiant légèrement les équations quasi-classiques d'Usadel, originellement développées pour les supraconducteurs inhomogènes à basse température critique. Les mesures de transport électronique ont montré que nos dispositifs respectent le modèle de la jonction résistivement shuntée. Nous avons expliqué leur fonctionnement à haute fréquence au moyen du modèle à trois ports, et démontré la détection d'ondes jusqu'à 400 GHz. Nous avons identifié l'efficacité de conversion du mélange hétérodyne comme le produit de trois termes : deux rendent compte des adaptations d'impédances en entrée et sortie du mélangeur, le troisième caractérise la conversion à basse fréquence des signaux térahertz. La puissance de l'oscillateur local nécessaire, l'étendue dynamique du mélangeur ainsi que son efficacité de conversion ont été mesurées, s'accordant bien avec les simulations numériques. Le recours à un réseau de jonctions Josephson synchronisées est incontournable pour parvenir à créer un oscillateur local puissant et spectralement fin à partir de l'oscillation propre des jonctions. Nous avons identifié le verrouillage par une boucle externe comme l'unique mécanisme efficace de synchronisation et simulé son effet. Enfin nous avons mesuré la première signature d'une synchronisation dans un réseau à deux dimensions de jonctions irradiées. / In this thesis, we used a high-Tc superconducting material, YBa2Cu3O7, to make a heterodyne mixer. We aimed at evaluating its ability for terahertz detection. We also worked towards the fabrication of an on-chip local oscillator, designed with an array of Josephson junctions. The originality of this study stems from a unique way of engineering Josephson junctions, based on ion irradiation. We described the complex physics of ion irradiated Josephson junctions through a modified version of quasi-classical Usadel equations, which have originally been derived for non-homogenous low-Tc superconductivity. The d-c electronic transport measurements showed that our irradiated Josephson junctions are well described by the resistively shunted junction model. Furthermore, we explained the high-frequency mixing operations with the three-port model, and proved the heterodyne detection of signals up to 400 GHz. We identified the heterodyne conversion efficiency as a product of three terms: two depending on impedance mismatches and the third one characterizing the intrinsic down-conversion ability of the Josephson junction. The dynamic range of the mixer, its conversion efficiency and its dependence on local oscillator power were measured and found to be in agreement with simulations. An array of synchronized junctions is necessary to create a powerful and spectrally pure local oscillator from Josephson oscillations. We identified the external locking as the only efficient mechanism to synchronize YBa2Cu3O7 irradiated junctions, showing its effect in simulated systems. We also reported a first evidence of synchronization in a two dimensional array of irradiated Josephson junctions.
|
123 |
Etude du sillage stratifié d'un cylindre / Experimental study of a stratified cylinder wakeBosco, Mickael 24 September 2015 (has links)
Une étude expérimentale a été menée sur le sillage d’un cylindre circulaire stratifié dans le but de décrire l’effet de l’inclinaison et de la stratification sur les instabilités tridimensionnelles d’un sillage. Principalement 4 modes instables ont été trouvés.Ces résultats mettent ainsi en évidence le fait que la stratification et l’angle d’in- clinaison modifient fortement la transition d’un écoulement 2D à 3D du sillage d’un cylindre avec la présence de nouveaux modes instables. / An experimental study has been delineated of a stratified wake of a circular cy- linder in order to describe the effect of the tilt and of the stratification on the 3D instabilities of the wake. Principally, four unstable modes have been figured out.These results highlight the fact that the stratification strongly modifies the transition from a 2D to a 3D flow in a cylinder wake, with the presence of new unstable modes. The tilt of the cylinder with respect to the vertical plays a major role, such that a study limited to a vertical or a horizontal cylinder misses a lot of the rich dynamics of the tilted wake.
|
124 |
ZDES simulations of propulsive jets : physical analysis and influence of upstream turbulence / Simulations ZDES de jets propulsifs : analyse physique et influence de la turbulence amontVerrière, Jonas 23 September 2016 (has links)
Ce travail porte sur l’évaluation de la méthode ZDES pour la simulation de jets propulsifs. L’analyse se concentre sur le positionnement des cellules de chocs et le développement des couches de mélange d’une tuyère double-flux avec plug externe, typique des moteurs d’avions modernes. Les champs statistiques sont comparés aux résultats expérimentaux et discutés en termes de grandeurs moyennes, fluctuantes et dans le domaine fréquentiel. L’intérêt d’utiliser un schéma spatial peu dissipatif ainsi qu’une échelle de longueur sous-maille basée sur la vorticité locale est mis en évidence, notamment pour le dévelopement de la couche de mélange interne, et le mode 2 ("automatique") de la ZDES a démontré un comportement similaire au mode 1 ("manuel") dans les couches de mélange. Par ailleurs, la technique Random Flow Generation (RFG) mise en oeuvre afin de reproduire la turbulence amont existant au coeur des jets primaire et secondaire a permis d’accélérer la transition RANS-LES dans les deux couches de mélanges, plus conformément à l’expérience. La transition est d’autant plus rapide que le taux de turbulence est élevé et l’échelle de la turbulence injectée est petite. Le positionnement des cellules de choc est également amélioré, soulignant l’importance de prendre en compte la turbulence amont dans les simulations de jets. / In this thesis, the ZDES method is assessed for the simulation of propulsive jets. This work focuses on the shock-cell positioning and the mixing layer development of a dual-stream nozzle configuration with an external plug, typical of modern aircraft engines. Reynolds averaged data are discussed in terms of mean and fluctuating quantities as well as in the frequency domain and compared with experimental data. First, the advantage of using a low dissipative spatial scheme as well as a subgrid length scale based on the local vorticity is demonstrated, especially for the development of the core mixing layer. Besides, the "automatic" mode of ZDES (mode 2) is found to provide similar mixing layers as the user defined mode.Then, the use of the Random Flow Generation (RFG) technique at the inlet boundaries of the core and fan channels in order to reproduce the turbulence rate at the center of the nozzle ducts is shown to accelerate the RANS-to-LES transition in both external and internal mixing layers, which is in better agreement with the experimental results. The transition length is further reduced when the injected turbulent ratio is higher, but also when the injected turbulent length scale is smaller. Of interest, the shock-cell positioning in the fan jet is also improved using RFG, which emphasizes the importance of accounting for upstream turbulence for this type of simulations.
|
125 |
Mélanges de GLMs et nombre de composantes : application au risque de rachat en Assurance Vie / GLM mixtures and number of components : an application to the surrender risk in life insuranceMilhaud, Xavier 06 July 2012 (has links)
La question du rachat préoccupe les assureurs depuis longtemps notamment dans le contexte des contrats d'épargne en Assurance-Vie, pour lesquels des sommes colossales sont en jeu. L'émergence de la directive européenne Solvabilité II, qui préconise le développement de modèles internes (dont un module entier est dédié à la gestion des risques de comportement de rachat), vient renforcer la nécessité d'approfondir la connaissance et la compréhension de ce risque. C'est à ce titre que nous abordons dans cette thèse les problématiques de segmentation et de modélisation des rachats, avec pour objectif de mieux connaître et prendre en compte l'ensemble des facteurs-clefs qui jouent sur les décisions des assurés. L'hétérogénéité des comportements et leur corrélation ainsi que l'environnement auquel sont soumis les assurés sont autant de difficultés à traiter de manière spécifique afin d'effectuer des prévisions. Nous développons ainsi une méthodologie qui aboutit à des résultats très encourageants ; et qui a l'avantage d'être réplicable en l'adaptant aux spécificités de différentes lignes de produits. A travers cette modélisation, la sélection de modèle apparaît comme un point central. Nous le traitons en établissant les propriétés de convergence forte d'un nouvel estimateur, ainsi que la consistance d'un nouveau critère de sélection dans le cadre de mélanges de modèles linéaires généralisés / Insurers have been concerned about surrenders for a long time especially in Saving business, where huge sums are at stake. The emergence of the European directive Solvency II, which promotes the development of internal risk models (among which a complete unit is dedicated to surrender risk management), strengthens the necessity to deeply study and understand this risk. In this thesis we investigate the topics of segmenting and modeling surrenders in order to better know and take into account the main risk factors impacting policyholders’ decisions. We find that several complex aspects must be specifically dealt with to predict surrenders, in particular the heterogeneity of behaviours and their correlations as well as the context faced by the insured. Combining them, we develop a methodology that seems to provide good results on given business lines, and that moreover can be adapted for other products with little effort. However the model selection step suffers from a lack of parsimoniousness: we suggest to use another criteria based on a new estimator, and prove its consistant properties in the framework of mixtures of generalized linear models
|
126 |
Étude de la structuration de mélanges d'élastomères chargés silice ; influence sur leurs propriétés dissipatives et de renfort / Study of rubber blends structuration in the presence of silica particles ; impact of this structuration on their viscoelastic and reinforcement propertiesGrau, Pauline 01 April 2014 (has links)
Les mélanges de polymères sont fréquemment formulés en vue d'atteindre un compromis de propriétés bien spécifique. C'est notamment le cas dans les bandes de roulement d'un pneumatique, dans lesquelles l'utilisation de plusieurs élastomères permet de régler le comportement dissipatif du matériau, propriété clé au regard des performances d'adhérence et de résistance au roulement. Pour améliorer la rigidité et la tenue mécanique de la gomme, des particules minérales sont également ajoutées aux formulations de la bande de roulement, telles que la silice hautement dispersible qui permet d'améliorer les propriétés de résistance au roulement sans compromettre les propriétés d'adhérence et d'usure. Dans ce contexte, la problématique de ce travail de thèse est d'identifier les leviers permettant de modifier la localisation des charges dans un mélange d'élastomères, puis d'en comprendre l'impact sur les propriétés viscoélastiques et de renfort. La première partie s'attache donc à comprendre quels sont les paramètres influant sur la localisation de la charge dans des mélanges d'élastomères immiscible. Pour cela, l'effet des interactions entre constituants est étudié en modifiant l'état de surface de la charge, la nature de la charge ou encore la nature des élastomères. Puis l'incidence des effets cinétiques est analysée en faisant varier le ratio de viscosité des élastomères, ainsi que la procédure de mise en œuvre des mélanges. Grâce au développement d'une technique innovante en microscopie électronique permettant une caractérisation précise des morphologies de mélanges fortement chargés, le rôle dominant des interactions charge/élastomère sur la localisation finale des particules est mis en évidence dans le cas où charges et élastomères sont introduits simultanément lors du mélange, indépendamment des niveaux de viscosité des phases. Les effets cinétiques ont quant à eux un rôle essentiel sur les morphologies lorsque la silice est spécifiquement prémélangée à l'une des phases. Puis dans la seconde partie de ce travail, nous nous sommes intéressés à l'impact des différentes morphologies obtenues sur les propriétés dissipatives et de renfort des matériaux. Les propriétés viscoélastiques dans le domaine linéaire des mélanges sont tout d'abord analysées. Une relation directe est établie entre la localisation de la charge entre les phases et les propriétés dissipatives et de renfort des matériaux proche de Tg. A plus hautes températures, l'état de dispersion des charges apparaît comme étant un paramètre clé sur les propriétés de renfort. Enfin, l'étude des propriétés mécaniques à plus hautes déformations (effet Payne et tests de traction) montrent une incidence de la localisation de la charge ainsi que de son état de dispersion lorsque des interactions fortes sont considérées. Ce travail a donc permis de mettre en évidence des critères de sélection des interactions et niveaux de viscosités dans des mélanges d'élastomères chargés pour contrôler la localisation des charges, et par extension modifier les propriétés dissipative et de renfort de ces mêmes matériaux / The tradeoff in tread properties is notably controlled by the dependence in frequency of rubber dissipation: a high dissipation of energy improves wet grip at high frequencies, while it may increase rolling resistance at low frequencies. Using silica instead of carbon black has enabled an improvement of this tradeoff, but the physical mechanisms responsible of these properties are still under discussion. Besides, using polymer blends is a well-known technique to obtain materials with tailored properties, allowing for example the tuning of dissipation range and mechanical properties. These unique properties depend not only on the miscibility state of rubbers, but also on rubber phase morphology and particles distribution between phases. In this context, the issue of this work is to understand which parameters enable the modification of filler location between phases, and then to identify the impact of the various morphologies on the viscoelastic and reinforcement properties. We first study the impact of fillers on blends structuration by first varying interactions parameters between the three components (polymer A, polymer B, silica) to obtain various morphologies. It also has been shown that final blends morphologies depend also on rheological parameters. Thus the impact of process and rubber viscosities is studied, in an attempt to decorrelate the influence of rheology and interactions on blend structuration. To study reinforced rubber blends morphologies, a new microscopy technique has been developed to obtain a very clear viewing of silica in the different rubber phases. Then, the blends viscoelastic properties in the linear regime are investigated. Close to Tg, a direct relationship between filler location and dissipative and reinforcement properties is established. At higher temperatures, the filler state of dispersion appears to be a key parameter on reinforcement properties. Finally, the investigation of blends mechanical properties at larger deformations shows and impact of filler location but also filler dispersion when strong interactions are involved. Thanks to the different tools developed, we define criteria to control filler location in immiscible rubber blends, which enables a modification of their dissipative and mechanical properties
|
127 |
Analyse statistique de données biologiques à haut débit / Statistical analysis of high-throughput biological dataAubert, Julie 07 February 2017 (has links)
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique. / The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects.
|
128 |
Traçage des sources de sédiments à l'amont des hydrosystèmes agricoles : apport de la géochimie élémentaire, du rapport ⁸⁷Sr/⁸⁶Sr et des radionucléides / Tracing sediment sources in upstream agricultural catchments : contribution of elemental geochemitry, ⁸⁷Sr/⁸⁶Sr ratio and radionuclides measurementsLe Gall, Marion 21 October 2016 (has links)
L’érosion des sols constitue une menace majeure pour la durabilité de la production agricole. Cette étude vise à développer une méthode originale de traçage des sédiments au sein de deux bassins versants agricoles aux caractéristiques contrastées. Différents marqueurs ont été utilisés pour tracer l’origine lithologique des particules (concentrations élémentaires, rapports ⁸⁷Sr/⁸⁶Sr), déterminer de quel compartiment des sols (surface ou profondeur) elles proviennent (¹³⁷Cs) et étudier leur dynamique temporelle (⁷Be, ²¹⁰Pb_xs). Sur le bassin du Louroux (24 km², France), caractéristique des plaines agricoles du Nord-Ouest de l’Europe, les résultats ont montré un transfert accru de particules très fines (<2µm) via le réseau de drainage. Lors de l’étude de trois crues successives, les sédiments accumulés dans le chenal ont d’abord été transportés, avant l’exportation de particules directement érodées de la surface des sols. L’utilisation de modèles de mélange a montré que les particules érodées à la surface des sols contribuent majoritairement aux sédiments de l’étang situé à l’exutoire. D’autre part, les deux zones lithologiques discriminées par le rapport ⁸⁷Sr/⁸⁶Sr contribuent équitablement aux particules qui se déposent dans l’étang. Les fortes variations observées depuis les années 1950 peuvent être interprétées comme le résultat de l’aménagement du bassin. Ces résultats ont montré le potentiel de l’isotopie du strontium (⁸⁷Sr/⁸⁶Sr) pour le traçage lithologique des sources de particules. La méthode a dès lors été transposée au site de Guaporé (2000 km², Brésil), un bassin agricole au climat plus érosif, à la topographie plus accentuée et aux lithologies plus contrastées. En combinant les rapports ⁸⁷Sr/⁸⁶Sr et les éléments les plus discriminants des cinq types de sols dans les modèles de mélange, les résultats montrent une contribution très majoritaire des types de sol localisés en aval du bassin. Celle-ci reflète une sensibilité croissante des sols à l’érosion selon un transect amont-aval, avec un système d’agriculture intensive appliquant des techniques de conservation des sols à l’amont et de plus petites exploitations familiales qui pratiquent un labour traditionnel en aval. Le couplage de ces traceurs améliore la compréhension de la dynamique des particules à l’échelle du bassin versant et fournit des données spatio-temporelles essentielles pour mettre en place des mesures de lutte contre l’érosion des sols. À terme, ces données pourraient être utilisées pour valider des modèles d’érosion et de transfert particulaire. / Soil erosion is recognized as one of the main processes of land degradation in agricultural environments. This study develops an original fingerprinting method to examine sediment source contributions in two contrasted agricultural catchments. Several properties were used to trace sediment lithological sources (⁸⁷Sr/⁸⁶Sr ratios, elemental concentrations), soil surface and subsurface sources (¹³⁷Cs) and to quantify their temporal dynamics (⁷Be, ²¹⁰Pb_xs).In the Louroux catchment (24 km², France), representative of drained areas of Northwestern Europe, results showed the dominant contribution of very fine particles (<2 µm) transiting through the tile drainage system to suspended sediment. Sediment accumulated in the river channel was mainly exported during the two first floods investigated in 2013 whereas the next event was characterized by the transport of sediment eroded from the cultivated soil surface. Mixing models were used, and results indicated that surface sources contributed the majority of sediment deposited in the pond, at the outlet of the catchment. The two lithological sources, discriminated using ⁸⁷Sr/⁸⁶Sr ratios, contributed in similar proportions to downstream pond sediment. In contrast, significant variations were observed since the 1950s. These changes may be related to the progressive implementation of land consolidation schemes within the catchment. Results obtained in the Louroux catchment revealed the potential of ⁸⁷Sr/⁸⁶Sr ratios to trace sediment lithological sources. The methodology was then applied to the larger and steeper Guaporé catchment (2000 km², Brazil), exposed to a more erosive climate and characterized by contrasted laterite soils. ⁸⁷Sr/⁸⁶Sr ratios and elements that discriminated the five soil types found in the catchment were incorporated in mixing models. Results showed that the major part of sediment was supplied by soils located in lower catchment parts. This result suggests the higher sensitivity of land cultivated with conventional farming practices (downstream contribution), compared to areas cultivated under conservation agriculture (upstream contribution). Coupling several tracers (⁸⁷Sr/⁸⁶Sr ratios, elemental concentrations and radionuclides) was shown to improve the understanding of sediment sources and dynamics at the catchment scale and to provide crucial information to guide the implementation of management measures to limit soil erosion. This fingerprinting approach produced an original dataset that may be used to calibrate and validate models simulating erosion and sediment transfers.
|
129 |
Noise sources in robust uncompressed video watermarking / Les sources de bruit dans le tatouage robuste de vidéo non-compresséeDumitru, Corneliu Octavian 11 January 2010 (has links)
Cette thèse traite de ce verrou théorique pour des vidéos naturelles. Les contributions scientifiques développées ont permis : 1. De réfuter mathématiquement le modèle gaussien en général adopté dans la littérature pour représenter le bruit de canal ; 2. D’établir pour la première fois, le caractère stationnaire des processus aléatoires représentant le bruit de canal, la méthode développée étant indépendante du type de données, de leur traitement et de la procédure d’estimation ; 3. De proposer une méthodologie de modélisation du bruit de canal à partir d’un mélange de gaussiennes pour une transformée aussi bien en cosinus discrète qu’en ondelette discrète et pour un large ensemble d’attaques (filtrage, rotation, compression, StirMark, …). L’intérêt de cette approche est entre autres de permettre le calcul exact de la capacité du canal alors que la littérature ne fournissait que des bornes supérieure et inférieure. 4. Les contributions technologique concernent l’intégration et l’implémentions de ces modèles dans la méthode du tatouage IProtect brevetée Institut Télécom/ARTEMIS et SFR avec un gain en temps d’exécution d’un facteur 100 par rapport à l’état de l’art. / The thesis is focus on natural video and attack modelling for uncompressed video watermarking purposes. By reconsidering a statistical investigation combining four types of statistical tests, the thesis starts by identifying with accuracy the drawbacks and limitations of the popular Gaussian model in watermarking applications. Further on, an advanced statistical approach is developed in order to establish with mathematical rigour: 1. That a mathematical model for the original video content and/or attacks exists; 2. The model parameters. From the theoretical point of view, this means to prove for the first time the stationarity of the random processes representing the natural video and/or the watermarking attacks. These general results have been already validated under applicative and theoretical frameworks. On the one hand, when integrating the attack models into the IProtect watermarking method patented by Institut Télécom/ARTEMIS and SFR, a speed-up by a factor of 100 of the insertion procedure has been obtained. On the other hand, accurate models for natural video and attacks allowed the increasing of the precision in the computation of some basic information theory entities (entropies and capacity).
|
130 |
Modélisation d'une population d'aérosols multi-sources et recherche des contributions de chaque source à l'échelle urbaine avec le modèle de dispersion CHIMERE / Modelling of a population of aerosol multi-sources and research for contributions of every source in the urban scale with the model of dispersion CHIMEREDergaoui, Hilel 14 December 2012 (has links)
L'objectif de cette thèse est le développement et la validation d'un modèle numérique de la dynamique des particules en mélange externe et résolu en taille. Afin de suivre plusieurs compositions chimiques par classe de tailles, une nouvelle approche est présentée dans laquelle la composition chimique des particules est elle-même discrétisée suivant la fraction d'un ou plusieurs des constituants chimiques (e.g. suie, sulfate). Cette approche a pour but de mieux simuler l'évolution d'une population de particules à l'échelle locale et de particulariser des compositions chimiques typiques de certaines sources. Dans l'atmosphère, les particules interagissent essentiellement entre elles et avec les polluants gazeux par coagulation et condensation/évaporation. La première partie de la thèse a été consacrée à l'élaboration du modèle pour la coagulation, processus physique qui s'avère le plus complexe à modéliser selon notre approche du mélange externe. Dans un premier temps, les équations de la coagulation en mélange externe sont présentées et discrétisées suivant un nombre arbitraire de classe de tailles et de compositions chimiques. Plusieurs simulations numériques ont ensuite été effectuées avec ce modèle sur un même cas d'étude, en utilisant deux, trois et quatre composants chimiques. On vérifie à chaque fois que les résultats de la simulation numérique en mélange externe sont cohérents avec ceux du mélange interne du cas d'étude. Les résultats de ces simulations permettent d'apprécier l'effet de mélange de la coagulation qui produit, à partir de particules monocomposées, des particules bicomposées et tricomposées. Étant donné la complexité croissante d'un tel modèle, une attention toute particulière a été portée à l'implémentation numérique et à l'optimisation des algorithmes choisis. L'extension de cette approche à la condensation/évaporation constitue le prochain développement de ce modèle, nous en posons les bases théoriques en annexe. S'il existe aujourd'hui des données de mesure résolues en taille (SMPS), il n'y en a pas encore qui puissent être réellement validantes pour ce modèle de mélange externe, c'est-à-dire qui distinguent quantitativement plusieurs compositions chimiques par classe de taille. Aussi, dans la seconde partie de la thèse, nous avons envisagé le protocole d'une expérience en chambre permettant de mettre en évidence le mélange par coagulation de deux populations de particules de compositions différentes et d'apporter des données validantes pour le modèle développé. Deux séries d'expériences ont été menées, la première dans la chambre de grand volume CESAM et la seconde, dans le réacteur de petit volume de l'INERIS. La première série a mis en évidence l'homococagulation de chaque distribution polydispersée prise séparément et dans une moindre mesure, l'hétérocoagulation des deux distributions de nature différentes (NaBr et KBr) entre elles. La seconde série a montré la possibilité d'observer simultanément deux distributions monodispersées de particules de compositions différentes (CaSO4 et KBr), prérequis pour ce cas. Au final, les résultats de mesure se sont avérés insuffisants pour produire des données validantes pour le modèle, à cause du trop grand écart-type des distributions polydispersées dans la chambre de grand volume et à cause du dépôt au paroi qui domine dans le réacteur de petit volume. Des analyses au microscope électronique ont cependant attesté de la présence de particules issues de la coagulation entre les deux natures. A la suite des différentes expériences menées, nous revenons sur le protocole envisagé et proposons quelques pistes d'améliorations / The objective of this thesis is the development and validation of a numerical size resolved and externally mixed model of the particle dynamics. In order to trace several chemical compositions for each size class, a new approach is presented in which the particle chemical composition is itself discretized according to the mass fraction of one or several of its components (e.g. soot, sulfate). This approach aims to improve the simulation of the particle population evolution at local scale and to emphasize chemical compositions which are specific to some sources. In atmosphere, particles interacts essentially between themselves and gaseous pollutants through coagulation and condensation/evaporation. The first part of this thesis is dedicated to the model development for the coagulation process, which happens to be the most complex to model with our external mixing approach. First, coagulation equations in external mixing were set up and discretized with an arbitrary number of size and chemical composition classes. Several numerical simulations were then performed with this model according to the same case 6 study, using two, three and four chemical components. We checked each time that the simulation results in external mixing agreed well with those of the case study internal mixing. The results of these simulations are useful to understand how coagulation mix particles and produces, from monocomposed ones, bicomposed and tricomposed particles. Given the growing complexity of such a model, the numerical implementation has been carried out with carefullness and algorithms have been optimized. The extension of this approach to condensation/evaporation is the next development step of this model, the theoretical basis are adressed in appendix. Size resolved particle measurements (SMPS) do exist nowadays, but truely suitable data to validate the external mixing model still lack, that is to say measurements which would quantitatively distinguish several chemical compositions per size class. That is why, in the second part of this thesis, we considered the protocol of a chamber experiment allowing to highlight the mixing by coagulation of two particle populations with distinct compositions and to bring validating data for the model developed. Two series of experiments were conducted, the first one with the CESAM large volume chamber and the second, with the small reactor of INERIS. The first serie underlined the homocoagulation of each polydispersed distribution taken separately and to a lower extent, the heterocoagulation of the two distributions of different kinds (NaBr et KBr) between themselves. The second serie showed the possibility to observe simultaneously two monodispersed distributions of particles with different compositions (CaSO4 et KBr), which was required in this case. Finally, measurement results happened to be insufficiant to produce validating data for the model, because of the great deviation of polydispersed distributions in the large volume chamber and because of the dominating wall losses in the small reactor. However, some microscope electronic analysis showed evidences of particles produced from coagulation between both kind of particles. Further to these experiments, we come back to the planed protocol and propose some improvements
|
Page generated in 0.0358 seconds