• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 66
  • 18
  • 11
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 279
  • 82
  • 61
  • 35
  • 34
  • 30
  • 24
  • 23
  • 22
  • 22
  • 22
  • 20
  • 20
  • 18
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Structure des assemblages de diatomées benthiques en rivière : l'environnement explique-t-il tout ? : processus écologiques et développement méthodologiques / Structure of benthic diatom assemblages in rivers : is environment the only explanation ?

Bottin, Marius 28 June 2012 (has links)
Les diatomées sont des algues microscopiques qui sont largement utilisées pour évaluer la qualité écologique des cours d'eau.Les méthodes utilisées se basent sur des modèles simplifiés de biologie des communautés, dans lesquels seules les réponses individuelles des espèces à l'environnement sont prises en compte.Le test de l'importance de processus complémentaires a montré un impact fort des dynamiques de colonisation des espèces, mais un impact négligeable des phénomènes de compétition ou de facilitation.Ces processus impliquent une structure des assemblages bien plus complexe que celle habituellement assumée par les méthodologies de bioindication.L'adaptation et la mise en oeuvre de méthodes de réseaux de neurones et de logique floue nous ont permis de redéfinir des éco-régions françaises et de décrire des relations générales entre les traits biologiques des espèces et l'environnement, tout en prenant mieux en compte cette complexité. / Diatoms are microscopic algae which are widely used to monitor the ecological quality of strems and rivers. The regular methodologies are based on simpllified community models. In these models, only the invidual species responses to environment are accounted for.Testing the importance of complementary processes showed a significant effect of colonization dynamics, but only a slight effect of biotic relationships. These processes led us to considerate a more complex assemblage structure than the one usually assumed by the biomonitoring methodologies.Therefore we implemented both neural networks models and fuzzy logic methodologies, in order to refine French ecoregions and to describe relationships between species traits and environment.
182

Approches macro-écologique et phylogéographique pour démêler facteurs et processus responsables des patrons de biodiversité aquatique souterraine en Europe / Methods in macroecology and phylogeography for disentangling factors and processes shaping groundwater biodiversity patterns in Europe

Eme, David 16 July 2014 (has links)
Un ensemble de disciplines tente de comprendre les causes de la distribution de la biodiversité à la surface de la terre. Cette thèse, à l'interface entre macro-écologie et phylogéographie, démêle le rôle relatif des différents facteurs environnementaux et des processus contrôlant la diversité des crustacés aquatiques souterrains en Europe. L'utilisation d'un modèle biologique souterrain permet d'écarter l'effet de la saisonnalité thermique, omniprésente dans les milieux de surface. L'action de multiples facteurs – plus particulièrement la disponibilité des ressources trophiques et l'hétérogénéité environnementale – et les variations régionales de leur importance relative fournissent l'explication la plus parcimonieuse des patrons de richesse. Ce résultat s'oppose au paradigme du rôle prépondérant du processus d'extinction causé par les fortes oscillations climatiques du Pléistocène en Europe du nord. Toutefois, ces oscillations ont très probablement sélectionné des organismes mobiles qui participent à l'augmentation de la taille moyenne des aires de répartition des espèces avec la latitude. La reconstruction de la dynamique des aires de distribution montre que la dispersion est un processus très hétérogène entre et au sein des espèces. Elle interviendrait lors de courtes fenêtres temporelles entre lesquelles l'adaptation locale tendrait au contraire, à contrecarrer les capacités de dispersion. Enfin, ce travail propose des pistes de réflexion afin d'expliquer plus précisément, à partir de données moléculaires supplémentaires et d'outils génomiques, les variations géographiques des taux de diversification et de substitution à l'échelle continentale / A set of disciplines attempt to understand causes of biodiversity patterns on the earth. This thesis, at the frontier between macroecology and phylogeography, disentangles the relative influence of environmental factors and processes shaping groundwater crustacean diversity in Europe. Groundwater habitats offer useful case studies for avoiding the effect of thermal seasonality, which is pervasive in surface ecosystems. The influence of multiple factors – especially productive energy and spatial heterogeneity – and regional variation in their relative importance provide the most parsimonious explanation of species richness patterns. This result undermines the prominent role attributed to the disproportionate extinction of species in northern European regions with high historical climate oscillations. However, these oscillations have probably selected vagile species which contribute to the increase in median range size of species with latitude. Reconstructing range dynamics shows that dispersal is a heterogeneous process within and among species. It may occur during short time windows between which local adaptation favors specialization. Finally, I suggest several research avenues using molecular data and genomic tools for understanding geographical variation in diversification and substitution rates at continental scale
183

L'expertise et la lutte contre la fraude monétique / Solid forensic assessment and the fight against payment card fraud

Souvignet, Thomas 18 December 2014 (has links)
Le montant annuel de la fraude européenne à la carte de paiement se monte à plus d’1,5 milliard d’euros. Cette manne aiguise l’appétit des groupes criminels qui exploitent la moindre faille de la monétique (écosystème de la carte de paiement). Les cinq principaux acteurs de la monétique (porteurs, émetteurs, accepteurs, acquéreurs et systèmes de paiement) s’appuient pourtant sur des systèmes et réseaux normalisés dont la sécurité est encadrée par des standards internationaux contraignants. Néanmoins, la fraude monétique ne cesse de progresser alors que les moyens de lutte (étatiques, collaboratifs ou individuels) restent limités.Après étude de la fraude monétique, cette thèse propose différentes actions (passives,réactives et proactives) visant à améliorer la lutte contre la fraude monétique. D’abord,il convient de mieux connaître la fraude en étudiant la provenance des données volées et plus seulement leur usage. Ensuite l’expertise de ces fraudes doit être améliorée, en développant par exemple une captation du progrès scientifique. Une expertise qui doit être en partie transmise aux enquêteurs afin qu’ils puissent conduire leurs enquêtes. Enquêtes qui peuvent être dynamisées par des opérations réactives associant investigateurs et sachants techniques. Enfin, de manière proactive, les enquêtes et analyses de demain doivent être facilitées par les technologies monétiques conçues aujourd’hui. / Every year, payment card fraud exceeds 1.5 billion euros in Europe. Organised crime groups are exploiting any vulnerability possible to take a piece of this lucrative activity. Even though the five principal entities in the payment card industry (cardholders, issuers,acceptors, acquirers and payment system providers) are implementing binding security measures through out standardized systems and networks, fraud continues to increase. Efforts by the state, industry collaboration, and individuals have been unsuccessful in decreasing criminal advances. Having analysed the elements of payment card fraud, this thesis proposes several actions (passive, reactive and proactive) to help improve the fight against this fraud. First, itis relevant to gain knowledge of the source of the card details and not to focus only on its reuse. Next, forensic assessment has to be improved, for example by developing an increased scientific understanding of the technology. Such an expertise should then be passed on to investigators through effective training and knowledge transfer. Investigations should also be made more dynamic with reactive operations conducted in concert by investigators and technicians. Finally, in an ideal proactive spirit, future investigations and assessments should be oriented and facilitated by studying and influencing current payment card technology developments.
184

Contribution à la sécurite physique des cryptosystèmes embarqués / On the physical security of embedded cryptosystems

Venelli, Alexandre 31 January 2011 (has links)
Ces travaux de thèse se concentrent sur l'étude des attaques par canaux cachés et les implications sur les mesures à prendre pour un concepteur de circuits sécurisés. Nous nous intéressons d'abord aux différentes attaques par canaux cachés en proposant une amélioration pour un type d'attaque générique particulièrement intéressante : l'attaque par analyse d'information mutuelle. Nous étudions l'effet des différentes techniques d'estimation d'entropie sur les résultats de l'attaque. Nous proposons l'utilisation de fonctions B-splines comme estimateurs étant donné qu'elles sont bien adaptées à notre scénario d'attaques par canaux cachés. Nous étudions aussi l'impact que peut avoir ce type d'attaques sur un cryptosystème symétrique connu, l'Advanced Encryption Standard (AES), en proposant une contre-mesure basée sur la structure algébrique de l'AES. L'opération principale de la majorité des systèmes ECC est la multiplication scalaire qui consiste à additionner un certain nombre de fois un point de courbe elliptique avec lui-même. Dans une deuxième partie, nous nous intéressons à la sécurisation de cette opération. Nous proposons un algorithme de multiplication scalaire à la fois efficace et résistant face aux principales attaques par canaux cachés. Nous étudions enfin les couplages, une construction mathématique basée sur les courbes elliptiques, qui possède des propriétés intéressantes pour la création de nouveaux protocoles cryptographiques. Nous évaluons finalement la résistance aux attaques par canaux cachés de ces constructions. / This thesis focuses on the study of side-channel attacks as well as their consequences on the secure implementation of cryptographic algorithms. We first analyze different side-channel attacks and we propose an improvement of a particularly interesting generic attack: the mutual information analysis. We study the effect of state of the art entropy estimation techniques on the results of the attack. We propose the use of B-spline funtions as estimators as they are well suited to the side-channel attack scenario. We also investigate the consequences of this kind of attack on a well known symmetric cryptosystem, the Advanced Encryption Standard (AES), and we propose a countermeasure based on the algebraic structure of AES. The main operation of ECC is the scalar multiplication that consists of adding an elliptic curve point to itself a certain number of times. In the second part, we investigate how to secure this operation. We propose a scalar multiplication algorithm that is both efficient and secure against main side-channel attacks. We then study pairings, a mathematical construction based on elliptic curves. Pairings have many interesting properties that allow the creation of new cryptographic protocols. We finally evaluate the side-channel resistance of pairings.
185

Une évaluation des performances analytiques de la spectroscopie sur plasma induit par laser (LIBS) / An evaluation of analytical performances of Laser-Induced Breakdown Spectroscopy (LIBS)

Ismaël, Amina 21 November 2011 (has links)
La spectroscopie sur plasma induit par laser (LIBS) est une technique d'analyse élémentaire couplant l'ablation laser dans le cas des échantillons solides, à la spectroscopie d'émission atomique. Malgré de nombreux avantages qui en font une technique de plus en plus attractive, la spectroscopie LIBS n'est pas encore reconnue comme méthode d'analyse quantitative. En effet, les problèmes d'hétérogénéité des échantillons, d'effets matrice, d'auto-absorption des raies d'émission et surtout de manque de répétabilité participent à la dégradation des performances analytiques de la spectroscopie LIBS. Dans le but de faire évoluer la technique, ces travaux de thèse consistent à réaliser un cas particulier de démonstration de l'évaluation des performances analytiques d'un système LIBS de laboratoire en intégrant des notions de qualité. L'exemple porte ici sur l'analyse d'échantillons d'aciers certifiés. Une première étude concerne le déroulement de l'optimisation du système pour l'analyse quantitative. L'effet des différents paramètres expérimentaux sur le signal LIBS étant complexe, un protocole méthodique est indispensable. Une étude paramétrique est donc ici proposée en vue de déterminer les conditions expérimentales les plus propices à l'analyse quantitative. Une fois optimisée, la méthode LIBS est ensuite caractérisée grâce aux principes classiques de la validation de méthode. La justesse ainsi que la fidélité de la méthode sont évaluées dans des conditions de répétabilité et de précision intermédiaire. Cette dernière étude montre des résultats prometteurs pour la technique. L'application d'une carte de contrôle montre néanmoins un manque de stabilité du système de laboratoire et permet d'enclencher des actions correctives en vue d'améliorer ses performances analytiques. / Laser-Induced Breakdown Spectroscopy (LIBS) is an elemental analytical technique which combines laser ablation with atomic emission spectroscopy. LIBS spectroscopy has many advantages but is not recognized as a fully quantitative method. Indeed, the problem of samples' heterogeneity, matrix effects, self-absorption of emission lines and the lack of repeatability deteriorate the analytical performances of LIBS. In order to improve this technique, the work presented in this thesis includes an example of analytical performances evaluation with the use of quality notions of a laboratory LIBS system. The method is here specially applied to the analysis of certified steel samples. A first study deals with the optimization of the LIBS system for the quantitative analysis. As the effect of the different experimental parameters on LIBS signal is complex, a methodical protocol is necessary. Here, a parametric study is proposed to determine the experimental conditions suitable for quantitative analysis. Once optimized, the LIBS method is then characterized with basics of method validation. The trueness and the precision of the method are evaluated in conditions of repeatability and intermediate precision. This study shows promising results for LIBS technique. The application of a control chart reveals however an instability of the laboratory system and enables to introduce corrective actions to improve its analytical performances.
186

Impact de la structure du génome sur l'organisation, la régulation et la fonction des gènes sur le chromosome 3B du blé hexaploïde (Triticum aestivum L.)

Rustenholz, Camille 15 December 2010 (has links)
Du fait de sa taille (17 Gb), de sa nature allohexaploïde et de son fort taux de séquences répétées (>80%), le génome du blé tendre a toujours été considéré comme trop complexe pour des analyses moléculaires efficaces. En conséquence, la connaissance de la structure de son génome reste limitée. Utilisant une approche chromosome-spécifique, la carte physique du chromosome 3B du blé a récemment été établie et a permis le développement de ressources génomiques uniques. Pendant ma thèse, la mise en oeuvre d‟approches transcriptomiques utilisant ces ressources m‟a permis d‟analyser les relations entre la structure du génome, l‟évolution, la fonction et la régulation des gènes le long du chromosome 3B de blé. Tout d‟abord, des filtres portant les BAC du « Minimal Tiling Path » (MTP) du chromosome 3B ont été hybridés avec 15 échantillons d‟ARNm pour identifier les BAC portant des gènes. Ensuite, des puces Agilent 15K d‟expression d‟orge ont été hybridées avec les pools tridimensionnels (3D) du MTP du chromosome 3B pour localiser les gènes plus précisément sur la carte physique. Afin de construire la première carte transcriptionnelle d‟un chromosome de blé, ces mêmes pools 3D ainsi que les 15 échantillons d‟ARNm ont été hybridés sur des puces NimbleGen 40K d‟expression de blé. Les résultats obtenus à partir de ces expériences ont permis de tirer des conclusions quant à l‟organisation de l‟espace génique sur le chromosome 3B. Ainsi les gènes sont répartis tout le long du chromosome 3B selon un gradient de densité de gènes du centromère vers les télomères avec une plus forte proportion de gènes regroupés en îlots au niveau des télomères. Une analyse évolutive a montré que les îlots seraient essentiellement constitués de gènes ayant subi des réarrangements dans le génome du blé. De plus, la carte transcriptionnelle a également mis en évidence qu'une part significative des gènes organisés en îlot présentent des profils d‟expression similaires et / ou ont la même fonction et / ou interviennent dans le même processus biologique. De plus, à l‟échelle du chromosome 3B entier, des mécanismes de régulation à longue distance entre îlots de gènes ont été suspectés. En conclusion, cette étude a permis pour la première fois de mettre en évidence des relations entre la structure du génome, l‟évolution, la fonction et la régulation des gènes à l‟échelle d‟un chromosome de blé. Le séquençage et l‟annotation du chromosome 3B ainsi que l'utilisation de technologies telles que le RNAseq permettront d‟analyser ces relations de façon encore plus précise et exhaustive. / Because of its size (17 Gb), allohexaploid nature and high repeat content (>80%), the bread wheat genome has always been perceived as too complex for efficient molecular studies. As a consequence, our knowledge of the wheat genome structure is still limited. Following a chromosome-specific approach, the physical map of wheat chromosome 3B has recently been constructed and allowed the development of unique genomic resources. During my PhD the use of transcriptomic approaches based on these resources allowed me analysing the relationships between the structure of the genome, the evolution, the function and the regulation of the genes along wheat chromosome 3B. First macroarrays carrying the BACs of the chromosome 3B “Minimal Tiling Path” (MTP) were hybridised with 15 mRNA samples to identify the BACs carrying genes. Then barley Agilent 15K expression microarrays were hybridised with the MTP of chromosome 3B pooled in three-dimension (3D) to precisely locate the genes on the physical map. To build the first transcription map of a wheat chromosome, the 3D pools as well as the 15 mRNA samples were hybridised onto wheat NimbleGen 40K expression microarrays. The results from these experiments allowed drawing some conclusions about gene space organisation on chromosome 3B. Thus the genes are spread all along chromosome 3B with a gradient of the gene density from the centromere to the telomeres with a higher proportion of genes organised in islands at the telomeres. An evolutionary analysis demonstrated that the islands would essentially be composed of genes that have undergone rearrangements in the wheat genome. Furthermore the transcription map also showed that a significant fraction of the genes organised in islands display similar expression profiles and / or share the same function and / or play a role in the same biological process. Moreover, at the scale of the whole chromosome 3B, mechanisms of long distance regulation between gene islands were suspected. In conclusion this study allowed for the first time to find relationships between the genome structure, the evolution, the function and the regulation of the genes at a wheat chromosome scale. The sequencing and the annotation of chromosome 3B as well as the use of technologies like RNAseq will enable to analyse these relationships in an even more precise and exhaustive way.
187

Towards more secure contact and NFC payment transactions : new security mechanisms and extension for small merchants / Vers des transactions de paiement avec contact et sans contact (NFC) plus sécurisées : de nouveaux mécanismes de sécurité et une extension pour les petits commerçants

El Madhoun, Nour 09 July 2018 (has links)
EMV est la norme implémentée pour sécuriser une transaction d'achat avec contact ou sans contact (NFC) entre un appareil de paiement d'un client et un PoS. Elle représente un ensemble de messages de sécurité échangés entre les acteurs de la transaction, garantissant plusieurs propriétés de sécurité importantes. En effet, plusieurs chercheurs ont analysé le fonctionnement de la norme EMV afin de vérifier sa fiabilité: ils ont identifié plusieurs vulnérabilités de sécurité qui représentent aujourd'hui des risques majeurs pour notre sécurité au quotidien. Par conséquent, nous sommes intéressés à proposer de nouvelles solutions qui visent à améliorer la fiabilité d’EMV. Dans un premier temps, nous présentons un aperçu du système de sécurité EMV et nous étudions ses vulnérabilités identifiées dans la littérature. En particulier, il existe deux vulnérabilités de sécurité EMV, qui mènent à des risques dangereux menaçant à la fois les clients et les commerçants. Par conséquent, nous sommes intéressés dans la deuxième étape à répondre à ces deux faiblesses. Nous examinons d'abord une sélection des travaux qui ont été conçus pour résoudre ces vulnérabilités. Ensuite, afin d'obtenir de meilleurs résultats par rapport à ces travaux, nous proposons un nouveau système pour le paiement avec contact et NFC qui intègre 4 mécanismes de sécurité innovants. Enfin, dans la troisième étape, nous adaptons notre premier mécanisme de sécurité dans le contexte d'une nouvelle architecture de paiement NFC. Cette architecture est particulièrement destinée aux petits commerçants, leur permettant de profiter de leurs smartphones NFC pour une utilisation directe en tant que des lecteurs NFC. / EMV is the standard implemented to secure the communication, between a client’s payment device and a PoS, during a contact or NFC purchase transaction. It represents a set of security messages, exchanged between the transaction actors, guaranteeing several important security properties. Indeed, researchers in various studies, have analyzed the operation of this standard in order to verify its reliability: unfortunately, they have identified several security vulnerabilities that, today, represent major risks for our day to day safety. Consequently, in this thesis, we are interested in proposing new solutions that improve the reliability of this standard. In the first stage, we introduce an overview of the EMV security payment system and we survey its vulnerabilities identified in literature. In particular, there are two EMV security vulnerabilities that lead to dangerous risks threatening both clients and merchants: (1) the confidentiality of banking data is not guaranteed, (2) the authentication of the PoS is not ensured to the client’s device. Therefore, our interests move in the second stage to address these two weaknesses. We first review a selection of the related works that have been implemented to solve these vulnerabilities, and then, in order to obtain better results than the related works, we propose a new secure contact and NFC payment system that includes four innovative security mechanisms. Finally, in the third stage, we adapt our first security mechanism in the context of a new NFC payment architecture. This architecture is especially destined for small merchants, allowing them to take advantage of their NFC smartphones for use directly as NFC readers.
188

Enrichissement de cartes de disparités pour la production d'images S3D / Disparity map enhancement for S3D images production

Yver, Pierre 26 March 2015 (has links)
La stéréovision est depuis longtemps étudiée dans le domaine de la vision par ordinateur et a connu dernièrement un regain d'intérêt. Dans le domaine du divertissement un nombre important de films sont maintenant disponibles en version relief. Ma thèse prend place dans ce contexte, dans le cadre d'une convention CIFRE entre le LITIS et l'entreprise StereoLabs dont le cœur de métier est le développement de logiciels d'aides à la production de films stéréoscopiques. Je présente ainsi mes travaux sur le filtrage de cartes de disparités, l'estimation en temps réel ne permet pas d'utiliser les approches les plus performantes, cela conduisant à des résultats bruités et/ou erronés. Je propose alors une méthode de filtrage adaptée à cette contrainte de temps. Mes travaux ont également mis en évidence la problématique du paramétrage de l'algorithme de calcul de carte de disparités. Le nombre élevé de paramètres et la diversité des images nous ont conduit à chercher une méthode automatique pour la détermination des valeurs de ces paramètres. Je propose ainsi une méthode d'optimisation des paramètres de l'algorithme, l'objectif étant de trouver les valeurs qui conduisent aux cartes de disparités les plus fiables. Mes travaux concernent également la partie production de contenus S3D, j'ai développé différentes applications liées à l'utilisation de l'information de disparité. Je propose ainsi une méthode de gestion automatique du relief afin de garantir le confort visuel du spectateur. De plus l'information de disparité est utilisée pour une application de correction chromatique des images pour assurer une concordance des couleurs entre les deux images. / Stereo Vision has been studied for a long time in the field of computer vision and became trendy in the past few years. In the field of entertainment a large amount of movies are now released in relief version. My thesis take place in this context, as a part of an agreement between the LITIS and the StereoLabs company, which develop 3D productions' assistant software. So, here I present my work on disparity map filtering, real time computing constraint don't allow to use strong algorithms which lead to noisy or/and erroneous results. In this case I propose a filtering method dedicated to this computational time constraint. My works also pointed out the problematic of assigning the value for the parameters of our disparity map estimation algorithm. The numerous parameters and images diversity lead to look for an automated approach to assign the parameters values. I propose an approach based on an optimization algorithm, the goal is to find the parameters values which lead to reliable disparity map. My work also deal with the stereoscopic contents production, I have developed different applications based on the usage of the disparity information. I proposed an automated method to handle the stereoscopic volume to warrant the visual comfort of the viewer. I also use the disparity information in a color correction application designed to ensure the color constancy across the two stereoscopics images.
189

Accelerating Monte Carlo particle transport with adaptively generated importance maps / Accélération de simulations Monte Carlo de transport de particules par génération adaptative de cartes d’importance

Nowak, Michel 12 October 2018 (has links)
Les simulations Monte Carlo de transport de particules sont un outil incontournable pour l'étude de problèmes de radioprotection. Leur utilisation implique l'échantillonnage d'événements rares grâce à des méthode de réduction de variance qui reposent sur l'estimation de la contribution d'une particule au détecteur. On construit cette estimation sous forme d'une carte d'importance.L’objet de cette étude est de proposer une stratégie qui permette de générer de manière adaptative des cartes d'importance durant la simulation Monte Carlo elle-même. Le travail a été réalisé dans le code de transport des particules TRIPOLI-4®, développé à la Direction de l’énergie nucléaire du CEA (Salay, France).Le cœur du travail a consisté à estimer le flux adjoint à partir des trajectoires simulées avec l'Adaptive Multilevel Splitting, une méthode de réduction de variance robuste. Ce développement a été validé à l'aide de l'intégration d'un module déterministe dans TRIPOLI-4®.Trois stratégies sont proposés pour la réutilisation de ce score en tant que carte d'importance dans la simulation Monte Carlo. Deux d'entre elles proposent d'estimer la convergence du score adjoint lors de phases d'exploitation.Ce travail conclut sur le lissage du score adjoint avec des méthodes d'apprentissage automatique, en se concentrant plus particulièrement sur les estimateurs de densité à noyaux. / Monte Carlo methods are a reference asset for the study of radiation transport in shielding problems. Their use naturally implies the sampling of rare events and needs to be tackled with variance reduction methods. These methods require the definition of an importance function/map. The aim of this study is to propose an adaptivestrategy for the generation of such importance maps during the Montne Carlo simulation. The work was performed within TRIPOLI-4®, a Monte Carlo transport code developped at the nuclear energy division of CEA in Saclay, France. The core of this PhD thesis is the implementation of a forward-weighted adjoint score that relies on the trajectories sampled with Adaptive Multilevel Splitting, a robust variance reduction method. It was validated with the integration of a deterministic module in TRIPOLI-4®. Three strategies were proposed for the reintegrationof this score as an importance map and accelerations were observed. Two of these strategies assess the convergence of the adjoint score during exploitation phases by evalutating the figure of merit yielded by the use of the current adjoint score. Finally, the smoothing of the importance map with machine learning algorithms concludes this work with a special focus on Kernel Density Estimators.
190

Écoulement d'un fluide à seuil dans un milieu poreux / Flow of a yield stress fluid in a porous medium

Paiola, Johan 25 January 2017 (has links)
Solides élastiques au repos, les fluides à seuil s’écoulent comme un liquide au-delà d’une certaine contrainte. Plusieurs applications industrielles concernent l’écoulement de ces fluides dans des milieux poreux. On peut citer par exemple les émulsions dans le processus de récupération du pétrole, les opérations de cimentation dans le sol, ou le nettoyage d’un sol contaminé par une boue. Pour ces applications, il est nécessaire de connaitre la pression nécessaire pour un débit voulu à la sortie du milieu poreux. Dans de tels cas, l’écoulement est perturbé par la complexité de la géométrie. Les modèles développés pour décrire la loi de Darcy supposent une loi rhéologique appliquée localement, mais ces modèles décrivent mal ce type d’écoulement. De plus, des effets complexes peuvent s’ajouter comme le glissement à la paroi ou la thixotropie. Dans cette thèse, nous étudions l’écoulement de carbopol (ETD 2050) à travers différentes géométries. Tout d’abord au rhéomètre, nous montrons que le fluide, sous certaines conditions, correspond bien à un fluide à seuil modèle. Nous démontrons que le protocole expérimental utilisé est très important et qu’un comportement thixotropique peut apparaitre s’il n’est pas respecté. Ce comportement apparait notamment lorsque le fluide reste sous le seuil, l’impact augmentant avec le temps d’attente. Ensuite, nous comparons la loi d’écoulement obtenue au rhéomètre à l’écoulement dans un canal droit obtenu par microfabrication. Nous montrons alors l’importance du glissement proche du seuil et ses conséquences sur la loi d’écoulement. Enfin nous étudions l’écoulement du carbopol dans un milieu poreux. Le milieu poreux de 5x5cm est obtenu par microfabrication. La largeur moyenne des canaux est égale à celle du canal droit. Nous avons développé une nouvelle méthode de mesure des champs de vitesse. Nous montrons l’apparition d’une chenalisation de l’écoulement à travers quelques canaux du milieu poreux. Nous comparons ensuite la loi d’écoulement du milieu poreux à celle obtenue dans le canal droit. On remarque que la vitesse d’écoulement est plus faible dans le milieu poreux que dans le canal droit. / Elastic solids at rest, yield stress fluids flow like a liquid beyond a certain stress. Many industrial applications required the flow of these fluids in porous media, for example: the emulsion flow in oil recovery processes, the cementing operations in the ground, or the cleaning of sludge in a contaminated soil. For many applications, it could be interesting to know the pressure required for a desired flow rate. In such cases, the flow behavior of the fluid is complicated by the complexity of the geometry. The models developed to describe Darcy's law assume a rheological law applied locally, but these models poorly describe this type of flow. Furthermore, complex effects can be added like the wall slip or the thixotropy. In this thesis, we study the flow of carbopol (ETD 2050) through different geometries. First we show that the fluid, for some conditions, corresponds to model yield stress fluids. The experimental protocol used is very important and a thixotropic behavior can appear if it is not respected. This behavior appears especially when the fluid remains below the yield stress, the impact increases with the waiting time. We then compare the flow law obtained by rheometer in a straight channel obtained by microfabrication. We show the importance of the wall slip near the yield stress and the impact on the flow law. Finally, using a new method to measure the velocity fields developed during this thesis, we study the flow of carbopol in a porous medium. This porous medium of 5x5cm is obtained by microfabrication. The mean width of the channels is equivalent to the one of the straight channel. We show the emergence of a channeling flow through some channels of the porous medium. We then compare the flow law of the porous medium to the one obtained in the straight channel. It can be observed that the flow rate is lower in the porous medium than in the straight channel.

Page generated in 0.1512 seconds