• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 377
  • 63
  • 32
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 472
  • 230
  • 114
  • 82
  • 58
  • 58
  • 57
  • 47
  • 45
  • 40
  • 39
  • 39
  • 31
  • 29
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Apport des analyses chimiques multi technique à la compréhension du comportement des éléments traces dans les filières sidérurgiques anciennes. Application aux études de provenance et à la distinction des procédés. Le cas du Pays de Bray normand.

Desaulty, Anne-Marie 24 September 2008 (has links) (PDF)
Afin de déterminer la provenance et le procédé d'élaboration (procédé direct, indirect) d'objet en fer archéologiques, cette étude a cherché à préciser le comportement des éléments traces dans les filières sidérurgiques anciennes. Pour caractériser ce comportement il est nécessaire d'étudier les déchets et produits issus de l'ensemble des deux filières. Rappelons qu'à l'issue de ces procédés anciens, l'objet a la particularité de contenir une partie de scorie, le déchet de la réduction (procédé direct) ou de l'affinage (procédé indirect) sous forme d'inclusion. La taille de ces inclusions et d'une manière générale l'hétérogénéité des échantillons archéologiques ont nécessité pour déterminer leur composition en éléments majeurs et traces d'employer une approche multi échelle (analyses macroscopique, microscopique) requérant l'utilisation d'un grand nombre de techniques d'analyse (EDS, ICP-MS, INAA, LA-ICP-MS). Le corpus étudié est composé d'échantillons provenant de sites archéologiques du Pays de Bray et de réductions expérimentales effectuées à partir de minerai brayon. Celui-ci a également été complété par des spécimens provenant d'autres régions et des données de la base Palsid ont également été utilisées. L'étude de ces échantillons a montré que les scories et donc les inclusions des objets issues de la réduction directe contiennent la plupart des éléments traces présents initialement dans le minerai, alors que les inclusions et scories indirectes sont issues de l'affinage d'une fonte considérablement épurée. Ce sont donc les ordres de grandeur des teneurs de ces éléments (La, Ce, Sm, U...) dans les inclusions des objets, qui permettent de distinguer les deux procédés. Une méthodologie afin de caractériser la signature chimique d'une région géologique a également été établie. La « signature métal » permet de pister le minerai utilisé dans le métal de l'objet (Co/Ni, As/Sb). La «signature déchet » valable uniquement pour des échantillons issus du procédé direct permet de relier les scories, et les inclusions de l'objet fini aux minerais employés (teneurs absolues en éléments majeurs et traces, Si/Al, K/Ca, Mg/Al, K/Al, Sm/Th, Th/U, La/Yb, Y/Yb, Hf/Nb, Eu/Sm, Cs/Rb, Th/Sc). Les « signatures déchet et métal » du Pays de Bray ont été comparées à celles d'autres régions afin de tester leur pouvoir de discrimination. Il apparaît que l'utilisation de ces signatures permet de nettement séparer des échantillons d'origines différentes. Il est ainsi possible d'appliquer cette méthodologie à une problématique historique précise : la détermination des échanges commerciaux entre Rouen et le Pays de Bray au Moyen Âge. Dans ce but des fers de construction des églises rouennaises ont été étudiés. Les « signatures déchets » de ces objets sont très variables d'un échantillon à l'autre et différentes de celle du Pays de Bray. Ces résultats permettent de réfuter l'hypothèse d'une arrivée massive de fer brayon à Rouen au Moyen Âge et plaident pour un approvisionnement des chantiers de la ville fortement lié aux opportunités économiques et politiques, expliquant ainsi la très grande diversité des signatures.
22

Elaboration et étude du comportement de micro / nanoparticules antiferromagnétiques synthétiques pour applications biotechnologiques / Development and study of the behavior of synthetic antiferromagnetic micro/nanoparticles for biotechnological applications

Balint, Paul 24 May 2011 (has links)
Dans les biotechnologies, les particules magnétiques sont de plus en plus utilisées dans diverses applications, de thérapies ou de diagnostics : « Drug delivery », traitements de cancers, IRM, etc. Inscrit dans le démarrage d'un nouvel axe de recherche du laboratoire SPINTEC, le travail de thèse a mis en œuvre des particules élaborées par une approche de type «top-down». Les matériaux utilisés sont antiferromagnétiques synthétiques (SAF). L'intérêt des nanoparticules magnétiques dans les domaines biomédicaux a été présenté en introduction. L'étude réalisée à SPINTEC a tout d'abord consisté à caractériser et modéliser différents matériaux SAF, et développer les procédés technologiques permettant la fabrication des particules. Ensuite le travail a été consacré à l'observation et la modélisation du comportement des particules en suspension dans un champ magnétique appliqué. Un modèle des phénomènes d'autopolarisation et d'agglomération des particules SAF a permis de déterminer une susceptibilité seuil en dessous de laquelle les particules restent dispersées en solution, évitant les phénomènes d'agglomération. / In the biotechnologies, the magnetic particles are more and more used in different applications, therapy or diagnostics such as: drug-delivery, cancer treatments, MRI …This thesis, which marks the beginnings of a new research area at SPINTEC laboratory, implemented particles made by an approach top-down. The used materials are synthetic antiferromagnetic (SAF). The interest for the magnetic nanoparticles was shown in the introduction. The study made at SPINTEC was first of all the characterization and modeling of different SAF materials, and the development of the technological processes for making the particles. Then the work was devoted to observation and modeling of the behavior of the particles in suspension in the applied magnetic field. A model of self-bias and agglomeration of SAF particles allowed to determine a susceptibility threshold below which the particles remain dispersed in solution, avoiding the agglomeration phenomena.
23

Étude numérique du procédé de Peaceman-Rachford pour la résolution de problèmes elliptiques

Joubran, Chaker 06 April 1965 (has links) (PDF)
.
24

Influence des procédés industriels sur l'allergénicité des aliments / Effect of industrial process on food allergy

Franck, Patricia 12 November 2008 (has links)
La prévalence de l’allergie alimentaire est en constante augmentation. Parallèlement les consommations alimentaires et les aliments eux même évoluent. L’aliment, de plus en plus soumis aux traitements industriels, peut présenter une allergénicité modifiée. L’objet de cette thèse sera d’évaluer l’influence des différents procédés industriels sur l’immunoréactivité des protéines alimentaires modifiées. Les différentes études présentées dans l’ouvrage aborderont l’effet de la texturation sur les protéines de soja ou de l’extrusion sur les protéines de lin (traitement thermique), l’effet de l’incorporation de nouveaux ingrédients dans l’alimentation moderne (inuline, lin). L’allergénicité des protéines recombinantes (process biotechnologique) sera abordée au travers de deux études : l’une proposera les protéines recombinantes de l’arachide comme outil diagnostique, en particulier pour le test d’activation des basophiles ; L’autre cherchera à démontrer l’innocuité allergénique d’un lysozymes recombinant humain, qui sera utilisé en alimentation humaine. L’étude de ces propriétés allergéniques sera réalisée par les tests in vitro (prick tests et test de provocation orale) et par les tests in vitro (IgEs). Des études par immuno-empreinte (immunoblot et dot blot) et par spectrométrie infrarouge permettront d’identifier les protéines modifiées. Enfin des tests cellulaires (test d’activation des basophiles) seront également réalisés. / The prevalence of the food allergy is in constant increase. At the same time food consumptions and food they even evolve. The food, more and more subjected to the industrial treatments, can present a modified allergenicity. The aim of this thesis will be to estimate the influence of the various industrial processes on the immunoreactivity of modified food proteins. The various studies presented in the work will approach the effect of the texturisation on proteins of soy or the extrusion on flaxseed proteins (heat treatment), the effect of the incorporation of new ingredients in the modern food (inuline, flaxseed). The allergenicity of recombinant proteins (biotechnological process) will be approached through two studies: the one will propose peanut recombinant proteins as a diagnostic tool, in particular for the basophil activation test (BAT); other one will try to demonstrate the allergenic harmlessness of a recombinant human lysozyme, which will be used in human food. The study of these allergenic properties will be realized by the in vivo tests (prick tests) and by the in vitro tests (IgEs). Studies by immunoblot and by infrared spectrometry will allow identifying modified proteins. Finally cellular tests (BAT) will be also performed.
25

Stratégie d'intensification des procédés / Strategy for process intensification

Mathieu, Florent 05 December 2013 (has links)
Depuis quelques années, les réacteurs intensifiés et les réacteurs microstructurés sont une alternative aux réacteurs en cuve agitée. Grâce à leurs performances élevées en termes de transfert de matière et transfert de chaleur, il est possible de mieux maîtriser les conditions opératoires et donc d'atteindre des meilleures qualités de produit. Cependant, il est difficile de prédire quantitativement l'intérêt réel des réacteurs intensifiés ou du passage batch/continu, pour un système chimique donné, sans un effort expérimental important. Ainsi, réduire cette phase expérimentale coûteuse en temps et en moyen est une priorité. Pour cela, une stratégie itérative basée sur la planification d'expérience et la modélisation a été développée. elle permet de profiter pleinement de l'élargissement des fenêtres opératoires liées aux nouvelles technologies, tout en minimisant le nombre d'expériences. Cette stratégie utilise un modèle phénoménologique qui décrit les réactions et les transferts de masse et de chaleur dans chacun des réacteurs proposés. À chaque itération, la stratégie planifie l'expérience qui permet d'acquérir le plus d'information en s'aidant de critères statistique tel que le critère d-optimal. Puis, si la précision des paramètres est jugée suffisante, elle prédit quel réacteur atteint la meilleur performance et propose de valider expérimentalement la prédiction. L'estimation de la performance passe par une fonction de coût basée sur plusieurs critères qui peuvent être le rendement, le temps d'opération, la consommation énergétique,... Si la validation expérimentale échoue, la stratégie propose de continuer la phase d'acquisition après que l'utilisateur ait apporté des modifications au modèle. Le bienfondé de la stratégie et l'intérêt de prendre en compte plusieurs technologies pour les performances, mais aussi et surtout pour l'acquisition de données, a d'abord été démontré en utilisant des systèmes chimiques virtuels. Puis dans un second temps, une réaction classique de type parallèle/consécutive a été utilisée. Pour cela, un banc expérimental spécifique a été mise en oeuvre permettant l'utilisation de trois types de réacteurs : batch, semi-batch et piston. Enfin, Solvay, notre partenaire industriel, nous a fourni un cas d'étude réel portant sur la synthèse de surfactant ayant des applications cosmétiques. Ces travaux ont permis de mettre en évidence l'intérêt d'utiliser plusieurs réacteurs pour l'acquisition de données, de démontrer l'importance des phases d'acquisition de données pour l'optimisation du procédé et de souligner la supériorité des modèles phénoménologiques par rapport aux modèles de tendances, qui sont utilisés dans les plans d'expériences « classique » / Since a few years, intensified and microstructured reactors are an alternative to stirred tank reactors. Thanks to their high heat and mass-transfer rates, a better control of operating conditions is possible leading to a better product quality. However, it is difficult to predict quantitatively the real interest of intensified reactors and also to transpose a priori a batch process to a continuous process, without an extensive experimental work aiming at selecting the best reactor technology and optimal operating conditions. The acceleration of this exploratory step, costly in time and money, is therefore a challenging task. Hence, an iterative strategy based on the combination of experimental design and modeling has been developed to take advantage of new extended experimental windows offered by intensified reactors and minimize the number of experiments. This method considers a predictive phenomenological model which describes reactions, heat and mass-transfer processes in various reactors. The iterative method alternates experimental steps and prediction steps. During the prediction step, used for data acquisition, the model proposes, using the D-optimal criterion, the optimal experiments which give the maximal information on the model parameters. After each experiment, the strategy decides whether a new iteration is required. If the parameters accuracy is judged sufficient, then the strategy looks for optimal operating conditions in the available reactors, which maximize several process performance criteria (e.g. yield, cost, operation time, etc.), and proposes optimal operating conditions. If the new experimental results are not validated, a new global iterative step is performed to improve the accuracy of the model and propose better operating conditions. To demonstrate its performance, the strategy has been applied to a classical parallel-consecutive reaction scheme. A specific experimental set-up based on three different reactors (batch, semi-batch and plug-flow reactors) has been developed. This work highlights the interest of using several reactors for data acquisition, demonstrates the importance of data acquisition for process performance optimization and emphasizes the superiority of mechanistic models on black-box models for the choice of reactor technologies while minimizing experimentation step.Keywords: Intensification, Modelisation, Experimental strategy, Process performance
26

Contribution à la définition du processus de conception et de réalisation de pièces produitsà hautes caractéristiques spécifiques / Contribution to the definition of the fabrication process used to produced parts with high specific properties

Mayer, Philippe 10 February 2017 (has links)
L’objectif de ces travaux de thèse est de contribuer à la compréhension d’un procédé de mise en forme composite appelé EPITHER. Il s’agit d’un procédé visant la réalisation de pièces composites massives à utilisations structurelles pour les marchés de l’automobile et de l’aéronautique. Il a été breveté en 2011 et en 2015/2016.Les trois étapes de réalisation des pièces EPITHER sont les suivantes : enroulement d’une préforme en optimisant l’anisotropie du composite en fonction des chemins d’efforts de la pièce réelle, mise en forme de la préforme par thermoformage, apport de propriétés morphologiques supplémentairesLes travaux de thèse s’orientent autour de trois axes majeurs : la mise en place d’une phase expérimentale, la compréhension des étapes de consolidation des pièces et l’influence des paramètres de mise en forme. / The objective of this work is to contribute to the comprehension of a new composite forming process which name is EPITHER. This forming process was created to produce massive composites parts used for structural applications in automotive and aeronautics industries. Two patents have been deposed in 2011 and in 2015/2016.There are three steps in the forming process EPITHER: winding a preform in order to maximize and optimize the anisotropy of the composite considering the mechanical specifications of the final part, forming the preform by a thermoforming step, add morphological properties in a last step.The Phd deals with three major research axis: setting up an experimental study, the comprehension of the consolidation steps and a study of the consolidation parameters.
27

Etude de couches minces piézoélectriques flexibles pour la récupération d’énergie vibratoire / Study of flexible piezoelectric thin films for vibration energy harvesting

Dufay, Thibault 12 October 2017 (has links)
Le développement des capteurs autonomes et leurs applications dans les « smart-cities », nécessitent de nouvelles méthodes de production d’énergie, basées sur la récupération de l’énergie ambiante. Dans ce contexte, le projet N-air-J a pour objectif de réaliser des microgénérateurs,basés sur des films piézoélectriques flexibles, capables de récupérer l’énergie des courants d’airs. Les travaux réalisés dans cette thèse concernent la réalisation des couches minces piézoélectriques de zircono-titanate de plomb (PZT) déposées sur une feuille d’aluminium, ainsi que les caractérisations structurales, diélectriques, ferroélectriques, et piézoélectriques associées. L’optimisation du générateur est basée sur un procédé de transfert original du PZT depuis l’aluminium vers un substrat polymère. L’intérêt du transfert vers un substrat souple et isolant est de pouvoir réaliser une configuration d’électrodes interdigitées (IDE). Les propriétés de récupération d’énergie des deux configurations PZT/Al et PZT/polymère ont été testées, et la densité d’énergie produite est similaire à l’état de l’art pour des structures plus rigides. L’utilisation d’électrodes IDE a prouvé son intérêt par la génération d’une tension de sortie de plusieurs dizaines de volt. Un modèle analytique a été développé afin d’étudier le comportement de la poutre piézoélectrique utilisée dans ces travaux. Les études expérimentales ont permis de quantifier l’influence des frottements de l’air sur le comportement vibratoire de la poutre. La simulation de l’interaction fluide structure a montré la possibilité d’augmenter les déformations de plusieurs brins au sein d’un réseau de générateurs. / New methods for energy generation based on the ambient energy harvesting are required for autonomous sensors development and their applications in the “smartcities”. In this context, N-air-J project aims to realize micro-generators based on flexible piezoelectric films, able to harvest energy from the breeze. The work presented in this thesis is about the deposition of lead zirconate titanate (PZT) thin layer on aluminium thin foil. Structural, dielectric, ferroelectric and piezoelectric characterizations were realized. The generator optimization is focused on the PZT transfer from aluminium to polymer substrate. The technological process has been developed for the transfer. The use of an insulating and elastic substrate is very interesting for the realization of an interdigitated (IDE) electrode configuration. Energy harvesting properties of the two configurations, PZT/Al and PZT/polymer, were tested. Energy densities were found similar to those of more rigid structures presented in the literature. The use of the IDE confirms its great interest by delivering a voltage of several tens of volts.An analytical model was developed to study the behaviour of the piezoelectric beam used in this work. Experimental studies quantify the influence of air friction on the beam vibratory behaviour. Fluid-structure interaction simulation has demonstrated the possibility for improving the deformations of several beams in a generators network.
28

Flow-shop à deux machines avec des temps de latence : approche exacte et heuristique

El Bahloul, Sana January 2008 (has links) (PDF)
Un ordonnancement est défini comme étant une allocation, dans le temps, des ressources (machines) disponibles aux différents travaux (tâches, jobs) à réaliser, dans le but d'optimiser un ou plusieurs objectifs. La richesse de la problématique de l'ordonnancement est due aux différentes interprétations que peuvent prendre les ressources et tâches. Ainsi, les ressources peuvent être des machines dans un atelier, des pistes de décollage et d'atterrissage dans un aéroport, des équipes dans un terrain de construction, des processeurs dans les ordinateurs, etc. Les tâches, quant à elles, peuvent être des opérations dans un processus de production, le décollage et l'atterrissage dans un aéroport, les étapes d'un projet de construction, l'exécution d'un programme informatique, etc. Les différentes tâches sont caractérisées par un degré de priorité et un temps d'exécution. Les ressources, quant à elles, sont caractérisées entre autres par une capacité, des temps de réglage, etc. Les problèmes d'ordonnancement sont généralement classés en deux modèles dépendamment du nombre d'opérations que requièrent les jobs: les modèles à une opération (modèle à machine unique et modèle à machines parallèles) et les modèles à plusieurs opérations dits modèles en ateliers (flow-shop, open-shop et job-shop). Bien entendu, il est également possible de trouver d'autres modèles, hybrides, qui sont des mélanges de ces deux modèles. Cette classification a permis, un tant soit peu, de mieux comprendre et cerner les problèmes d'ordonnancement réels. Toutefois, l'expérience a montré qu'il existe toujours un gouffre entre la théorie et ce qui se passe réellement dans les centres de production ou les prestations de services. Parmi les contraintes que la théorie d'ordonnancement n'a pas considérées jusqu'à un passé récent, nous pouvons citer les temps de latence des travaux, correspondant aux différents temps nécessaires devant s'écouler entre la fin d'une opération et le début de la prochaine opération d'un même job. Les temps de latence peuvent correspondre par exemple aux temps de transport des jobs à travers les ressources ou encore aux temps de refroidissement des jobs, avant leurs prochaines manipulations. Ces temps peuvent dans certains cas prendre des proportions importantes qu'une entreprise ne doit en aucun cas ignorer. Elle devrait même revoir sa politique d'ordonnancement pour pouvoir améliorer sa productivité. Dans ce mémoire, nous étudions le modèle de flow-shop à deux machines avec des temps de latence dans le but de minimiser le temps total d'accomplissement des jobs, appelé makespan. Pour ce faire, nous avons, tout d'abord, introduit la théorie de l'ordonnancement et survolé quelques concepts de la théorie de la NP-complétude ainsi que les différentes méthodes de résolution d'un problème d'ordonnancement en général, et du flow-shop à deux machines en particulier. Pour résoudre ce problème de flow-shop à deux machines, nous avons utilisé, dans un premier temps la méthode de branch and bound. Nous avons commencé par appliquer cet algorithme sur le cas particulier des temps d'exécution unitaires. Outre les bornes inférieures et supérieures, nous y avons également présenté des règles de dominance. Limité à 900 secondes, pour l'exécution d'une instance, cet algorithme a pu résoudre efficacement des instances n'excédant pas 30 jobs. Ensuite, nous sommes passés au cas où les temps d'exécution des jobs sont quelconques. Nous y avons présentés plusieurs bornes inférieures. Pour les bornes supérieures, nous avons conçu des heuristiques basées sur NEH, la règle de Johnson, la règle de Palmer et CDS. Au-delà de 10 jobs, l'algorithme de branch and bound, que nous avons implémenté, n'a pu résoudre efficacement les instances générées, même en posant 1h d'exécution pour chaque instance. Notons que les temps d'exécution des algorithmes, implémentant ces bornes inférieures et supérieures ainsi que ceux des règles de dominance, pour le cas unitaire, sont tous majorés par une complexité enO(n log n); n étant le nombre de jobs à ordonnancer. Dans un second temps, nous sommes passés à l'autre approche de résolution qu'est la méthode métaheuristique. Nous avons commencé notre étude par le développement d'un algorithme de recherche avec tabous. Des ajouts itératifs tels des procédures d'intensification et de diversification ont nettement amélioré les résultats générés par cet algorithme. Ensuite, nous avons conçu un algorithme génétique. Nous y avons incorporé une recherche locale pour améliorer les résultats. Cependant, l'algorithme de recherche avec tabous a produit de meilleurs résultats sur l'ensemble des instances testées. En guise de conclusion, nous avons discuté de nouvelles pistes de recherche à explorer.
29

Une séparation colloïdale améliorée avec l'ajout de surfactant pour la caractérisation et la décontamination de sédiments multiphasés

Salkhi, Ramin January 2007 (has links) (PDF)
Cette étude cible les questions relatives aux systèmes aqueux de fines particules près ou sous le micron qui sont importantes et nombreuses en environnement avec les résidus anthropiques et en particulier avec les matériaux anthropogéniques des sédiments de rivières et des lacs. Le but principal visé était de démontrer l'importance d'utiliser un surfactant comme agent pour améliorer la séparation colloïdale en milieu aqueux. Dans cette technique les surfactants altèrent la charge de surface des particules qui vont dicter le comportement et la destination des phases respectives du système par les floculations ou suspensions. À cause de leur masse extrêmement petite, l'effet de gravité est atténué et joue un rôle plus voilé avec le temps. Pour des études de caractérisation de tels systèmes, en environnement, où les difficultés tiennent à la présence des fines sous microniques et aux mélanges polyphasés, ces systèmes répondent mal à l'application des méthodes conventionnelles habituellement utilisées de séparation comme la séparation magnétique en milieu sec ou humide, la séparation électroacoustique et la séparation par liqueurs denses. Les paramètres fondamentaux du potentiel zêta déterminent l'état et les conditions pour une suspension ou pour une floculation. La mobilité des particules solides peut être mesurée par une technique acoustique ESA qui permet de calculer les valeurs du potentiel zêta. Cette détermination implique l'intégration des mesures de la distribution granulométrique, du poids spécifique et les considérations des paramètres chimiques du système soit le pH, la température et la conductivité. Nos résultats indiquent, comme l'hypothèse originale le supposait, que les minéraux naturels ont la même polarité de surface et des intensités de charges comparables aux composés anthropiques pour une composition chimique et structure atomique similaire. Les résultats confirment également que pour un système polyphasé, le signe de polarité et l'intensité du zêta initial sont la résultante de la sommation des valeurs de zêta des phases constituantes. L'équation suivante se vérifie: ζ (zeta) mV pour la system = Σζа X Cа + ζb X Cb +....... Plusieurs systèmes artificiels ont été étudiés et les données initiales du système mesuré servent de guides pour trouver les conditions qui permettront d'induire la floculation et le fractionnement en systèmes moins polyphasés et plus simples facilitant ainsi une caractérisation. Les essais et la détermination des paramètres influençant la séparation colloïdale par un surfactant ont été mises au point initialement sur un sédiment de lac comprenant des particules de sulfures de 2 à 3 µm. La présence de grains de sulfures dans le sédiment original n'avait pas été détectée par diffraction de rayons X mais suite au fractionnement et a une concentration résultant plus élevée dans les couches fractionnées, des sulfures pouvaient être identifier. Cette technique a d'ailleurs été utilisée pour caractériser le fractionnement en couches dans lesquelles on retrouve une forte variation dans la concentration des phases constituantes incluant les sulfures. Le fractionnement résultant est de qualité suffisante pour que cette technique soit considérée dans une remédiation environnementale, en particulier pour les résidus miniers où le potentiel de d'acidité excède la capacité de neutralisation engendrant une problématique de drainage minier acide (DMA). Initialement le projet a étudié et caractérisé des mélanges simples de suspension de minéraux suivis d'un ajout progressif des phases du système. pour éventuellement simuler un système naturel contaminé. Une comparaison des similitudes et des différences des systèmes artificiels et naturels sert de base aux conclusions. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Potentiel zêta, Minéraux naturels, Surfactant, Sulfures, Décontamination, Double couche électrique, Séparation colloïdale.
30

Clogging dynamics of particles and bacteria in microfluidic systems mimicking microfiltration processes / Dynamique de colmatage par des particules et des bactéries dans des systèmes microfluidique imitant des procédés de microfiltration

Sendekie, Zenamarkos Bantie 31 March 2016 (has links)
L'objectif de cette thèse est de progresser dans la compréhension du colmatage lors de la filtration de la matière molle (particules colloïdales et bactéries) et d'étudier l'efficacité et la faisabilité de séparateurs microfluidiques. Ces recherches sont réalisées avec des puces microfluidiques constituées de canaux dont la taille est du même ordre de grandeur que les objets filtrés. Ces puces, conçues pour représenter les processus ayant lieu en microfiltration frontale et tangentielles, permettent d'observer in-situ sous microscope les mécanismes de colmatage. Le système est instrumenté avec des capteurs de débit et de pression et permet ainsi une analyse croisée entre les observations et les variations de perméabilité. Les expériences ont été réalisées pour différentes conditions hydrodynamiques (débit, mode de filtration) et conditions d'interactions colloïdales (en changeant la force ionique). Les résultats mettent en évidence l'importance de la dynamique du blocage de pore par des agrégats de particules et du réentrainement de ces agrégats lorsqu'ils sont fragilisés par l'écoulement. La dynamique de ces évènements provoque des fluctuations de perméabilité. Les interactions particule-particule ou particule-paroi jouent également un rôle important sur la dynamique du colmatage. Trois scenarios sont discutés par analogie anthropomorphique : un scenario panique (0.01 mM) où les répulsions entre les particules induit un phénomène de poussée entre particules qui engendre la formation d'arches à l'entrée des canaux ; un scenario instinct de troupeau (10 mM) où l'attraction entre particules (dans un minimum DLVO secondaire) facilite le transport dans le canal et retarde le colmatage ; un scenario sacrificiel (100 mM) où l'efficacité de capture des particules par les parois est élevée mais les agrégats formés sont très fragiles et fréquemment réentraînés par l'écoulement. Cette analyse illustre l'importance des phénomènes collectifs lors du colmatage par des particules inter-agissantes. Le mécanisme de colmatage par des particules biologiques (bactéries) et notamment la création de panaches bactériens en aval des canaux sont ensuite analysés. Ces phénomènes sont étudiés pour différentes conditions de culture (ratio carbone-azote dans le substrat) afin d'examiner l'effet de la production de substances polymériques extracellulaires (EPS) sur le colmatage. Les résultats montrent que les EPS (et donc les conditions de cultures) jouent un rôle crucial sur le développement de panaches bactériens lors d'écoulement dans des constrictions. Il est montré également que la filtration d'un mélange entre des bactéries produisant peu d'EPS et des bactéries produisant d'EPS favorise la formation des panaches bactériens. Des filtrations de mélange de bactéries et de particules montrent que la présence de bactérie modifie la dynamique du blocage des canaux ; de façon surprenante l'ajout de bactérie permet de retarder le colmatage et de former des dépôts de particules plus fragiles. Des systèmes microfluidiques avec un design spécifique ont également été développés pour réaliser un fractionnement par taille de dispersions sous un écoulement tangentiel. Des résultats préliminaires ont permis d'optimiser leur fonctionnement en trouvant des conditions permettant de filtrer en évitant le blocage des canaux ; leur utilisation pour réaliser des fractionnements continus dans des puces microfluidiques peut être envisagée. / The aim of the PhD is to progress in the understanding of the fouling phenomena during filtration of soft matter (colloidal particles and bacteria) and to examine the efficiency and feasibility of microfluidic separators. These studies are realized with microfluidic devices constituted of micrometric channels having the same size range as the materials being filtered. These devices, which mimic membrane dead-end and cross-flow microfiltration processes, allow in-situ and direct microscopic observations of the fouling mechanisms. The microfluidic system is equipped with flow rate and pressure measurement devices allowing a dynamic cross analysis of the observations with the variations of permeability. Experiments have been realized for different hydrodynamic conditions (flow rate, filtration mode) and for different colloidal interactions (by varying the ionic strength) in order to analyse their interplay in the clogging mechanism by soft matter (interacting particles). The results evidenced the importance of clogs formation, fragility and sweeping out dynamics during the fouling process. These dynamic events at bottlenecks induce important permeability fluctuations. The particle-particle and particle-wall interactions also play important roles on the clogging dynamics. Three different scenarios are discussed by analogy to crowd swarming: panic scenario (0.01 mM) where repulsion between particles induce pushing effects leading to the creation of robust arches at pore entrances; herding instinct scenario (10 mM) where the attraction (in secondary minima) between particles enhances the transport in pores and delays clogging; sacrifice scenario (100 mM) where the capture efficiency is high but the aggregates formed at the wall are fragile. These analyses illustrate the importance of collective behaviour exhibited by interacting particles during fouling. The fouling phenomena by biological particles (bacteria) are analysed in terms of the streamer formation conditions and mechanisms. The streamer formation phenomena are in turn analysed by playing with the cultivation conditions (the carbon to nitrogen ratio in the substrate) in order to study the effect of extracellular polymeric substances (EPS) on the process. The results show that EPS (and hence the bacterial cultivation conditions) play crucial role in streamer formation by microorganisms under flow in constrictions. Furthermore, the presence of non-EPS producing bacterial species along with EPS producing species in a mixed culture enhances the streamer formation. On the other hand, filtration of mixed particles and bacteria suspensions show that the presence of bacteria substantially modifies the clogging dynamics. Microfluidic devices with specific configurations have also been developed for fractionation in order to maximize performances of these processes. The preliminary results with these chips in cross-flow conditions show that it is possible to limit the clogging impact by working below a critical flux; their use for continuous microparticles fractionation could be then considered.

Page generated in 0.0534 seconds