971 |
Caractérisation de la Matière Organique Dissoute (DOM) et de ses interactions avec une séparation par membrane pour l'amélioration du contrôle des BioRéacteurs à Membranes (BàM) / Dissolved Organic Matter characterization and interactions during membrane separation for the optimization of Membrane BioRectors (MBR) membrane fouling controlJacquin, Céline 06 October 2017 (has links)
Les BioRéacteurs à Membranes (BàM) sont une technologie adaptée à l’un des challenges du 21ème siècle : la réutilisation des eaux usées.En combinant un traitement biologique et une filtration membranaire, ce procédé permet d’atteindre une qualité d’eau adaptée à la réutilisation en permettant une désinfection physique totale. Néanmoins, son essor économique est fortement limité par le colmatage membranaire qui, quand le système est optimisé, est dû principalement à la Matière Organique Dissoute (DOM). Afin de comprendre et de maitriser ce colmatage, des outils ont été développés pour identifier les composés de la DOM responsables du colmatage. Ainsi, au cours de cette thèse, la DOM de deux BàM, alimentés par des effluents réels, a été étudiée ; un BàM traitant des eaux usées urbaines(station d’épuration de La Grande Motte) et un BàM échelle pilote traitant des urines réelles. La matière organique dissoute issue du premier BàMa ainsi été fractionnée par taille et par hydrophobicité pour identifier les mécanismes de colmatage associés à chaque fraction.Des tests de filtration, réalisés sur les différentes fractions, ont permis d’identifier les colloïdes (protéines) comme responsables majeurs du colmatage externe (gâteau) et les substances humiques comme responsables du colmatage interne. En combinant ces tests de filtration avec des mesures de fluorescence3D (3DEEM), étant une méthode rapide dont le signal facilement exploitable, il a été possible de définir des indicateurs qualitatifs pour ces deux familles de colmatants. Par la suite, en combinant la 3DEEM avec une méthode de séparation et quantification par taille (LC-OCD), le signal de 3DEEM qualitatif a été calibré pour donner une information quantitative et de taille au travers d'une analyse rapide.Ces nouveaux indicateurs ont ensuite été mesurés sur site et ont permis d’établir des liens entre les paramètres opératoires ou la qualité de l’intrant pour le suivi global de la DOM et son impact sur le colmatage. Ces outils soulignent toute la potentialité de la fluorescence 3D comme indicateur en temps réel du suivi, du contrôle et de l’optimisation de l‘étape de séparation membranaire. / Membrane BioReactors (MBR) are suitable technology to face one of the major 21th century challenges : wastewater reuse.Combining biological treatment with membrane separation step, MBR produce reusable water through total physical disinfection. Nevertheless, it democratization is limited by membrane fouling that is mainly caused by Dissolved Organic Matter (DOM) compounds when the system is optimized.In order to understand and control membrane fouling, tools were developed to identify DOM compounds responsible for this phenomenon.Thus, this PhD work, focused on studying the DOM taken from two MBR fed with real wastewater: a full-scale MBR treating urban wastewater (La Grande-Motte wastewaster treatment plant) and a lab-scale MBR treating urine from source-separated toilets.Dissolved organic matter collected in the first MBR was fractionated by size and hydrophobicity to identify fractions’ fouling mechanisms. Then, filtration tests performed on the different fractions highlighted the role of colloids (proteins) in external fouling (cake) and humic substances in internal fouling. Filtration tests were combined with fluorescence3D (3DEEM) measurements, which is a quick identification method with an easy extracted signal, allowing to define qualitative indicators for both foulants classes.After, coupling 3DEEM with a size separation and quantification method (LC-OCD), qualitative signals from foulants indicators were calibrated. Thus, using 3DEEM it was possible to obtain a quantitative and size information about DOM foulants. These new indicators were used on-site and allowed establishing links between DOM and operating parameters or influent quality, which is necessary for DOM global control and its impact on membrane fouling. These tools highlight the potentiality for 3DEEM on-line application for separation step monitoring, control and optimization.
|
972 |
Décontamination de radionucléides dans des effluents liquides par une micro-algue : étude de faisabilité à l'échelle laboratoire et à l'échelle pilote / Decontamination of radionuclides in liquid effluents with a micro-alga : feasibility study at laboratory scale and at pilot scaleGouvion Saint-Cyr, Diane de 06 June 2014 (has links)
Les installations nucléaires sont génératrices de déchets liquides radioactifs qui doivent être traités avant leur rejet dans l'environnement. Le cobalt et l'argent radioactifs sont, après le tritium et le carbone 14, les principaux radionucléides rejetés par des réacteurs à eau pressurisée. Les traitements de décontamination d'effluents liquides actuellement mis en œuvre dans les installations nucléaires reposent sur des procédés physico-chimiques d'évaporation, de coagulation/floculation, de séparation de phase, de sorption et d'échange d'ions. Ces procédés conventionnels sont très efficaces mais présentent diverses limitations : ils ne retiennent pas ou peu le carbone 14 et, en situation accidentelle, ils ne sont pas faciles à mettre en œuvre pour traiter de grands volumes. Le développement de procédés innovants palliant à ces inconvénients est donc nécessaire. Les technologies de bio-remédiation pourraient être une alternative intéressante dans le secteur nucléaire mais très peu de procédés ont été proposés. Ce travail vise ainsi à développer une filière de traitement d'effluents nucléaires originale basée sur l'action d'une micro-algue photosynthétique, Coccomyxa actinabiotis, résistant aux rayonnements ionisants et accumulant les radionucléides et métaux toxiques. Les réflexions menées en collaboration avec les différents acteurs du projet ont permis d'établir un cahier des charges pour concevoir la filière de traitement et réaliser un pilote en tenant compte des contraintes associées au milieu nucléaire et à l'utilisation d'une matrice biologique. La filière est organisée en plusieurs opérations incluant d'une part la production et la récolte des micro-algues et d'autre part la décontamination de l'effluent. La faisabilité de chacune de ces opérations est tout d'abord étudiée à l'échelle laboratoire. Ainsi, les conditions opératoires et les outils de suivi, de contrôle, et d'optimisation relatifs aux étapes de (i) production de biomasse algale, (ii) séparation et/ou concentration de la biomasse par microfiltration et (iii) décontamination de l'effluent, en particulier l'élimination de l'argent 110m, du cobalt 60 et du carbone 14, sont recherchés. Le montage de la filière complète est ensuite proposé ; basée sur les résultats obtenus à l'échelle de laboratoire, la faisabilité de la bio-décontamination de radionucléides par la micro-algue à l'échelle pilote est également étudiée et démontrée. Ce travail de recherche permet donc d'envisager le développement d'une filière innovante de traitement des effluents liquides d'industries nucléaires et confirme la potentialité de certaines micro-algues à assurer l'élimination de polluants ciblés. / Nuclear plants produce radioactive liquid wastes which are decontaminated before they are released. Radioactive cobalt and silver are the main radionuclides released by water pressurized reactor, after tritium and carbon 14. Liquid effluents are decontaminated by physic-chemical processes, such as evaporation, coagulation, sorption and ion exchange. These technologies are very efficient but cannot neutralize entirely the carbon-14 and, in the case of emergency situation, they are difficult to implement in order to decontaminate high amount of radioactive liquids. It is necessary to look for alternative decontamination methods. Bio-remediation technologies may constitute interesting alternatives in the nuclear field as well, but only a few bio-based technologies have been proposed. This work aims to develop a treatment unit based on the use of a photosynthetic micro-alga, extremely radio-tolerant and owning high capacity to concentrate radionuclides and toxic metals. The technical specification was draft to design the process and construct the pilot unit taking into account the constraints linked to the use of a biological matrix in a nuclear environment. The pilot-scale treatment unit, based on this micro-alga, includes different tasks to ensure the objectives of the process: algae have first to be produced in a growth medium and harvested before ensuring the treatment of the contaminated effluent. The feasibility of these operations is studied at laboratory scale. Operating conditions and monitoring and optimization tools for each step, (i) biomass production, (ii) biomass separation and concentration by microfiltration, (iii) effluent decontamination of silver-110m, cobalt-60, carbon-14, are sought. Based on the results obtained at laboratory scale, the feasibility of bio-decontamination of radionuclides by the micro-alga at pilot-scale is studied and demonstrated. Through this work, the development of an innovative process has to be considered for the decontamination of liquid effluents from the nuclear industry. This work confirms the high potential of algae to ensure the pollutants elimination.
|
973 |
Process Analytical Technology : suivi en temps réel d’une opération d’enrobage et de curing et nouvelles avancées dans la caractérisation du film polymère / Process Analytical Technology : real-time monitoring of coating and curing operation and new insight into polymer film characterisationGendre, Claire 12 December 2011 (has links)
La mise en place de la démarche PAT (Process Analytical Technology), initiée par la FDA (Food and Drug Administration) s’est développée au cours de ces dernières années, au sein de l’industrie pharmaceutique. Grâce à des contrôles en continu au coeur des procédés de fabrication, elle permet une meilleure compréhension et une maîtrise de la formulation et du procédé, afin d’assurer la qualité finale des médicaments.A travers ce travail, nous avons mis en place un suivi en temps réel, par spectroscopie proche infrarouge, d’une opération d’enrobage suite à l’intégration d’une sonde à l’intérieur d’une turbine d’enrobage. La quantité d’enrobage, déterminée par une simple et rapide pesée mais néanmoins soumise à la variabilité de la masse des comprimés nus, ainsi que l’épaisseur du film, obtenue avec précision par imagerie térahertz ont servi de valeurs de référence pour calibrer l’information spectrale. Dans les deux cas, ces deux attributs qualité critiques ont été prédits avec de faibles erreurs de prédiction, qui se sont révélées être similaires. Par ailleurs, la prédiction en temps réel des propriétés de dissolution de comprimés prêts à être libérés, à partir de spectres acquis in-line, a permis de déterminer l’arrêt optimal de l’opération d’enrobage.Suite à un enrobage réalisé à partir d’une dispersion aqueuse de polymère une étape supplémentaire de traitement thermique ou curing est généralement nécessaire afin de stabiliser le film d’enrobage. Un travail de caractérisation mené à partir de techniques innovantes a permis d’apporter un nouvel éclairage sur la compréhension des phénomènes impliqués dans la formation du film au cours du curing. La caractérisation approfondie de la structure d’enrobage de comprimés soumis à un curing en turbine (conditions dynamiques) a mis en évidence la diminution de la porosité, couplée à l’évaporation de l’eau et à une meilleure organisation des chaînes de polymère au cours du curing. L’étude de comprimés soumis à un curing de référence en étuve durant 24 h (conditions statiques) a confirmé l’obtention d’un film stable après 4 h de curing dynamique. De nouveaux phénomènes, indépendants du curing, liés à la cristallisation et à la migration de l’alcool cétylique, couplée à la migration du lauryl sulfate de sodium, au sein de la couche d’enrobage ont été détectés au cours de la conservation des comprimés enrobés. / Implementation of PAT (Process Analytical Technology) approach has recently been promoted by the FDA (Food and Drug Administration) within the pharmaceutical industry. A desired goal of the PAT framework is to enhance understanding and control of the manufacturing process through timely measurements, during processing, to ensure final product quality. Real-time monitoring of a coating operation was performed from in-line Near Infrared (NIR) measurements inside a pan coater. Mass of coating materials, determined by simple and fast weighing but depending on core tablet weight uniformity, and film coating thickness, obtained from accurate and non-destructive Terahertz Pulsed Imaging (TPI) measurements, were used as reference values to calibrate NIR spectral information. In both cases, these two critical quality attributes were predicted with low predictive errors, which were found to be similar. In addition, real-time predictions of drug release from cured tablets were carried out by in-line NIR measurements. The coating operation was successfully stopped when desired dissolution criteria were achieved. A post-coating thermal treatment, known as curing, is generally required to stabilize film coating from aqueous polymer dispersion. Innovative techniques were jointly used to elucidate the underlying mechanisms of film formation along the curing process. This study provided a new insight into the tablet coating structure, highlighting a reduced internal coating porosity, a decrease in water content and showing a better structural rearrangement of polymer chains, with dynamic curing. All investigated techniques confirmed that a stabilized state was reached after a 4 h dynamic curing in comparison with a reference curing carried out in an oven for 24 h. Interestingly even prior to curing, new findings were pointed out, during coated tablets storage, related to the crystallisation and the upward migration of cetyl alcohol, coupled to the downward migration of sodium lauryl sulfate within the coating layer.
|
974 |
Développement d'une stratégie de post-traitement pour l'analyse de la combustion prémélangée : application à une flamme turbulente swirlée. / Post-processing Strategy Development for Premixed Combustion Analysis : Application to Turbulent Swirled FlamesBossard, Pierre-Edouard 14 June 2017 (has links)
Une des pistes majeures pour obtenir des turbines à gaz moins polluantes est l'utilisation de chambres de combustion fonctionnant en régime prémélangé pauvre. Cependant, dans de tels régimes de fonctionnement, la flamme obtenue est cependant plus facilement sujette aux instabilités thermo-acoustiques.Dans cette thèse, un brûleur étagé swirlé fonctionnant au propane a été employé pour illustrer une méthode d'analyse de la combustion prémélangée. Cette installation a été étudiée à l'aide de diagnostics classiques (micros, PLIF, film à haute cadence de la flamme).La stratégie de post-traitement développée dans cette thèse utilise par contre des outils eux aussi classiques (PSD, moyenne de phase) mais aussi une méthode d'analyse avancée, la Décomposition en Modes Dynamiques. Celle-ci est notamment étudiée em détail afin d'en cerner les avantages et les limitations dans le cadre de l'analye des instabilités de combustion. / One of the major ways of reducing pollutant emissions in gas turbines is using combustion chambers with lean premixed mixtures. However, in such operating conditions the flame is more susceptible to thermo-acoustic instabilities. In the present work, a propane-fed swirled burner using two injection stages is used to illustrate a post-processing strategy for premixed combustion analysis. This model burner has been studied using classic diagnostics (microphones, PLIF, highspeed imaging).The strategy developed in the present work uses both classic postprocessing tools (PSD, phase averaging) and an advanced method, the Dynamic Mode Decomposition. In particular, this method is studied in detail and compared to more lassic ones in order to clearly point its advantages as well as its shortcomings when used to study combustion instabilities.
|
975 |
Propriétés diélectriques des composites à matrice PVDF comportant des renforts hybrides nano/micro-échelles (nanotubes de carbone et BaTiO₃) / Dielectric properties of carbon nanotube-BaTiO₃ hybrids reinforced PVDF compositesFan, Benhui 16 November 2015 (has links)
La dispersion des nanotubes de carbone (NTC) dans le polyfluorure de vinylidène (PVDF) est un grand défi pour avoir de meilleures propriétés diélectriques. Les hybrides, titanate de baryum (BT)-NTC, ayant une structure particulière sont révélés être efficaces pour l'amélioration de la dispersion de NTC dans la matrice de polymère et la réduction du seuil de percolation du matériau composite. Cette thèse vise à atteindre une haute performance diélectrique du composite via la conception de charges ayant une structure favorable ainsi que l'étude exhaustive de l'interaction entre les NTC et la matrice de polymère semi-cristallin.Dans le chapitre 1, un bref revu de l'état de l'art sur le contexte général des matériaux diélectrique est introduite ainsi les progrès récents dans ce domaine sont présentés pour mieux comprendre les composites et leurs application.Dans le chapitre 2, nous préparons deux types d'hybrides avec deux structures différentes. Les premiers hybrides sont préparés par un dépôt chimique en phase vapeur (CVD). Les BT forment le noyau de ces hybrides et les NTC croient dessus (H-NTC-BT). Les deuxième hybrides sont préparées par réaction hydrothermale où NTC sont revêtus par les BT (H-BT-NTC). Par la suite, nous préparons des composites avec une matrice de PVDF renforcés par les deux types d'hybrides déjà synthétisés cela en coulant la solution puis par extrusion-injection. En outre, les méthodes de caractérisation de la morphologie, des propriétés thermiques, diélectriques et la cristallisation sont également introduites dans ce chapitre.Dans le chapitre 3, les comportements diélectriques de H-NTC-BT/PVDF sont étudiés en détails. Une augmentation dramatique de la permittivité diélectrique est observée après le traitement thermique. Ce changement peut être dû à la réorganisation du réseau conducteur de NTC et la recristallisation de PVDF. Par la modélisation et la caractérisation expérimentale, Nous déduisons que cette augmentation significative de la permittivité diélectrique après le traitement thermique est dû au rétrécissement de la distance de NTC dans des couches amorphes voisine de PVDF d'un côte et au polymorphe β à l'interface NTC-PVDF d'un autre.Dans le chapitre 4, la dispersion des NTC dans la matrice du composite PVDF est étudiée par la conception de différentes structures. Tout d'abord, une comparaison du seuil de percolation de H-NTC-BT/PVDF calculé et celui déterminé expérimentalement est menée pour mieux comprendre la morphologie de H-NTC-BT. Ensuite, deux comparaisons sont menées:- La première compare les facteurs de transformation de la dispersion des NTC dans les composites H-NTC-BT/PVDF et NTC/PVDF cela en mesurant de la conductivité AC dans les différentes couches de ces composites.- La deuxième compare trois types de composites de PVDF renforcés par des hybrides ayant la même fraction volumique de NTC et BT mais des structures différentes. L'effet de ces différentes structures de ces hybrides est étudié en comparant leurs propriétés diélectriques.Pour finir une conclusion générale est présentée dans le chapitre 5 ainsi les perspectives prévues pour les travaux futurs. / The dispersibility of carbon nanotube (CNT) in polyvinylidene fluoride (PVDF) is always a big challenge for the high dielectric property. Barium titanate (BT)-CNT hybrids with the special structure are proved to be effective for improving the dispersion of CNT in the polymer matrix and reduce the percolation threshold of the composite. This thesis aims to achieve high dielectric performance of composites via designing fillers with the favorable structure as well as comprehensively study the interaction between CNT and semi-crystalline polymer matrix.In chapter 1, we provide a general introduction about dielectric material's background knowledge. Meanwhile the development including recent breakthroughs and their applications for the dielectric field are also provided in this chapter.In chapter 2, we prepare two hybrids with different structures. The first hybrids are prepared by chemical vapor deposition (CVD) method. It is with the structure of BT as a core and CNTs growing outsides (H-CNT-BT). The second hybrids are prepared by hydrothermal reaction where BT particles coats outside CNT (H-BT-CNT). Meanwhile, we fabricate hybrids reinforced PVDF matrix composites by solution casting plus extrusion-injection way. Additionally, methods for characterization involving morphology, thermal and dielectric properties as well as crystallization are also introduced in this chapter.In chapter 3, the dielectric behaviors of H-CNT-BT/PVDF are studied concretely. A dramatic increment on dielectric permittivity is observed after the thermal treatment. This change may result from the reformation of CNT's conductive network and the behavior of PVDF's re-crystallization. By modeling work and experimental characterization, the shrinkage of the neighboring CNT's distance in PVDF's amorphous layers and the induced β polymorph at the CNT-PVDF interface may cause the significant increment in dielectric permittivity after the thermal treatment.In chapter 4, the CNT's dispersibility in PVDF matrix composites is studied by designing different structures. Firstly, a comparison between calculated and experimental percolation threshold of H-CNT-BT/PVDF is conducted for studying the morphology parameters of H-CNT-BT. Afterwards, two comparisons are conducted: one is between H-CNT-BT/PVDF and CNT/PVDF. The processing factors for the CNT's dispersibility are discussed via measuring the different layer's AC conductivity. The other is among three hybrids reinforced PVDF composites. The hybrids structure's effect the CNT's dispersibility is discussed via comparing the dielectric property of the composites with the same volume fraction of CNT and BT but different structures.In chapter 5, a general conclusion is formed according to the works and the perspective is provided for the improvement of the future work.
|
976 |
Evaluation des requêtes hybrides basées sur la coordination des services / Evaluation of hybrid queries based on service coordinationCuevas Vicenttin, Victor 08 July 2011 (has links)
Les récents progrès réalisés en matière de communication (réseaux hauts débits, normalisation des protocoles et des architectures à objets répartis, explosion de l'internet) conduisent à l'apparition de systèmes de gestion de données et services largement répartis. Les données sont produites à la demande ou de manière continue au travers de divers dispositifs statiques ou mobiles. Cette thèse présente une approche pour l'évaluation de requêtes dites hybrides car intégrant différents aspects des données mobiles, continues, cachées rencontrées dans des environnements dynamiques. Notre approche consiste à représenter une telle requête comme une coordination de services comprenant des services de données et de calcul. Une telle coordination est définie par le flux de la requête et ceux d'opérateurs sur les données (e.g. join, select, union). Un flux de requête représente une expression construite avec les opérateurs de notre modèle de données. Ce flux est construit par un algorithme de ré-écriture à partir de la requête spécifiée dans notre langage de requête HSQL Les flux dit opérateurs composent des services de calcul afin de permettre l'évaluation d'un opérateur particulier. Le processeur de requêtes basées sur les services hybrides que nous avons développé met en mise en œuvre et valide nos propositions. / Recent trends in information technologies result in a massive proliferation of data which are carried over different kinds of networks, produced in either on-demand or streaming fashion, generated and accessible by a variety of devices, and that can involve mobility aspects. This thesis presents an approach for the evaluation of hybrid queries that integrate the various aspects involved in querying continuous, mobile and hidden data in dynamic environments. Our approach consists of representing such an hybrid query as a service coordination comprising data and computation services. A service coordination is specified by a query workflow and additional operator workflows. A query workflow represents an expression built with the operators of our data model. This workflow is constructed from a query specified in our proposed SQL-like query language, HSQL, by an algorithm we developed based on known results of database theory. Operator workflows enable to compose computation services to enable the evaluation of a particular operator. HYPATIA, a service-based hybrid query processor, implements and validates our approach.
|
977 |
Intégration du web social dans les systèmes de recommandation / Social web integration in recommendation systemsNana jipmo, Coriane 19 December 2017 (has links)
Le Web social croît de plus en plus et donne accès à une multitude de ressources très variées, qui proviennent de sites de partage tels que del.icio.us, d’échange de messages comme Twitter, des réseaux sociaux à finalité professionnelle, comme LinkedIn, ou plus généralement à finalité sociale, comme Facebook et LiveJournal. Un même individu peut être inscrit et actif sur différents réseaux sociaux ayant potentiellement des finalités différentes, où il publie des informations diverses et variées, telles que son nom, sa localité, ses communautés, et ses différentes activités. Ces informations (textuelles), au vu de la dimension internationale du Web, sont par nature, d’une part multilingue, et d’autre part, intrinsèquement ambiguë puisqu’elles sont éditées par les individus en langage naturel dans un vocabulaire libre. De même, elles sont une source de données précieuses, notamment pour les applications cherchant à connaître leurs utilisateurs afin de mieux comprendre leurs besoins et leurs intérêts. L’objectif de nos travaux de recherche est d’exploiter, en utilisant essentiellement l’encyclopédie Wikipédia, les ressources textuelles des utilisateurs extraites de leurs différents réseaux sociaux afin de construire un profil élargi les caractérisant et exploitable par des applications telles que les systèmes de recommandation. En particulier, nous avons réalisé une étude afin de caractériser les traits de personnalité des utilisateurs. De nombreuses expérimentations, analyses et évaluations ont été réalisées sur des données réelles collectées à partir de différents réseaux sociaux. / The social Web grows more and more and gives through the web, access to a wide variety of resources, like sharing sites such as del.icio.us, exchange messages as Twitter, or social networks with the professional purpose such as LinkedIn, or more generally for social purposes, such as Facebook and LiveJournal. The same individual can be registered and active on different social networks (potentially having different purposes), in which it publishes various information, which are constantly growing, such as its name, locality, communities, various activities. The information (textual), given the international dimension of the Web, is inherently multilingual and intrinsically ambiguous, since it is published in natural language in a free vocabulary by individuals from different origin. They are also important, specially for applications seeking to know their users in order to better understand their needs, activities and interests. The objective of our research is to exploit using essentially the Wikpédia encyclopedia, the textual resources extracted from the different social networks of the same individual in order to construct his characterizing profile, which can be exploited in particular by applications seeking to understand their users, such as recommendation systems. In particular, we conducted a study to characterize the personality traits of users. Many experiments, analyzes and evaluations were carried out on real data collected from different social networks.
|
978 |
De l'imagerie tissu entier à la modélisation in silico du réseau vasculaire du tissu adipeuxDichamp, Jules 02 July 2018 (has links) (PDF)
Le tissu adipeux est traditionnellement décrit comme étant constitué de lobules : des entités de formes ovoïdales composées de cellules et de vaisseaux et faiblement connectées entre elles.Récemment, il a été montré qu’un potentiel métabolique spécifique (le browning) co-localise avec cette organisation en lobules au sein d’un même tissu. Dans ce travail de thèse, nous nous intéressons à décrire plus précisément l’organisation structurelle et fonctionnelle du tissu adipeux selon plusieurs aspects. Dans un premier temps, on s’attache à segmenter les lobules du tissu adipeux en utilisant une méthode de traitement d’image originale. Nous mettons en évidence une organisation 3D complexe et suivant plusieurs échelles. En particulier, il semble que le potentiel de browning soit également lié à une organisation structurelle particulière en clusters de lobules. Dans un second temps, à partir d’imagerie 3D, nous reconstruisons le réseau vasculaire entier du tissu adipeux et réalisons une simulation d’écoulements sanguins micro-vasculaires. Plusieurs hétérogénéités structurelles et fonctionnelles sont alors mises en valeurs à l’aide d’une analyse en communautés qui composent le tissu adipeux (par algorithme de clustering). Ces résultats confirment l’existence d’une zone centrale fortement vascularisée et qui se démarque également comme étant le lieu d’une perfusion sanguine d’intensité différente. Dans une dernière partie, nous abordons la question de transferts thermiques entre vaisseaux sanguins suivant des géométries simples mais pertinentes. Nous réalisons une étude systématique des paramètres adimensionnels clés du problème et mettons en évidence un invariant des échanges de chaleur : un optimum à faible nombre de Péclet (convection de même ordre que la diffusion). Nous introduisons également une méthode de calibration de paramètres effectifs dans le contexte des modèles homogénéisés de température à travers des tissus vascularisés.
|
979 |
Assemblages composites-polymères après traitement par plasma atmosphérique du composite : caractérisation mécaniques et modélisation / Composite-polymer assemblies after amospheric plasma treatment on composite surface : mechanical characterization and modelingPhongphinittana, Ekkarin 16 December 2014 (has links)
A la suite des propositions de la commission européenne, visant à concrétiser les objectifs de réduction des émissions de dioxyde de carbone (CO2) des voitures. Pour atteindre cet objectif, les constructeurs automobiles doivent réduire le poids de la voiture. Ainsi l'équipementier FAURECIA, fabricant de sièges de voiture désire remplacer les structures métalliques par des structures hybrides plastique-métal (PMH). Et en plus, il désire également utiliser un matériau composite en remplacement du métal pour diminuer le poids et utiliser la technique du plasma atmosphérique pour améliore le force d'adhérence à l'interface de pièce structure hybride.C'est dans ce contexte que nous avons étudié des effets de plasma traitement sur l'adhérence dans la structure hybride pour proposer la meilleure condition de traitement. L'objectif de ce travail était de caractériser l'effet de plasma traitement par détermination des paramètres dans le processus de traitement telle que la vitesse de balayage, la distance entre le substrat et la torche plasma et le nombre de passages de la torche, puis de prédire l'initiation du délaminage sous chargement quasi-statiques dans l'éprouvette de simple recouvrement par l'utilisation le critère de la rupture. Un autre objectif était d'étudier les modèle micromécanique pour évaluer la fiabilité de leur. Et ils seront appliqués pour prévoir les comportements mécaniques de matériau thermoplastique renforcé par fibre de verre court. Afin d'atteindre les objectifs présenté, les plusieurs essais telles que l'essai de traction, l'essai simple recouvrement et l'essai de l'ARCAN-Mines sont été réalisé. En parallèle, les techniques de l'émission acoustique (EA), du rayonnement infrarouge (RI) et de la microscopie optique ont été utilisées pour suivre les mécanismes de la rupture de l'éprouvette étudiée. En enfin, la méthode des éléments finis a été utilisé pour simuler les essais et pour permettre de vérifier la fiabilité du critère de rupture. / Following the proposals of the European Commission, to achieve the goals of emission reduction of carbon dioxide (CO2) from cars. To achieve this objective, automakers must reduce the weight of the car. Thus the supplier Faurecia, manufacturer of car seats desires to replace metal structures by structure plastic-metal hybrid (PMH). And they desire also to use a composite material to replace metal in order to reduce weight. Moreover in order to improve the adhesion strength at the interface piece hybrid structure,Atmospheric plasma technique was used.In this context, we studied the effects of plasma treatment on term of adhesion in the hybrid structure in order to provide the best condition of treatment. The objective of this study was to characterize the effect of plasma treatment by determination at the parameters in the process such as the scanning speed, the distance between the substrate and the plasma torch and the number of passes of the torch, then to predict the initiation of delamination under quasi-static loading test in specimen of single lap shear by using the criterion of rupture. The other objective was to study the micromechanical model to assess the reliability of them. And they will be applied to predict the mechanical behavior of Short Glass Fiber reinforced thermoplastic. In order to achieve the objectives presented, the several tests such as tensile test, single lap shear test and ARCAN-Mines test have been executed. In parallel, techniques acoustic emission (AE), infrared radiation (IR) and optical microscopy were used in order to follow the failure mechanisms of the specimen studied. Finally, the finite element method was used to simulate the tests and allow to verify the reliability of the failure criterion.
|
980 |
Méthodes et algorithmes de segmentation et déconvolution d'images pour l'analyse quantitative de Tissue Microarrays / Methods and algorithms of image segmentation and decovolution for quantitative analysis of Tissue MicroarraysNguyễn, Hoài Nam 18 December 2017 (has links)
Ce travail de thèse a pour objectif de développer les méthodes originales pour l'analyse quantitative des images de Tissue Microarrays (TMAs) acquises en fluorescence par des scanners dédiés. Nous avons proposé des contributions en traitement d'images portant sur la segmentation des objets d'intérêts (i.e. des échantillons de tissus sur la lame de TMA scannée), la correction des artefacts d'acquisition liés aux scanners en question ainsi que l'amélioration de la résolution spatiale des images acquises en tenant compte des modalités d'acquisition (imagerie en fluorescence) et la conception des scanners. Les développements permettent d'envisager une nouvelle plateforme d'analyse de TMAs automatisée, qui représente aujourd'hui une forte demande dans la recherche contre les cancers. Les TMAs (ou “puces à tissus”) sont les lames histologiques sur lesquelles de nombreux échantillons tissulaires venant de différents donneurs sont déposés selon une structure de grille afin de faciliter leur identification. Pour pouvoir établir le lien entre chaque échantillon et ses données cliniques correspondantes, on s'intéresse non seulement à segmenter ces échantillons mais encore à retrouver leur position théorique (les indices de ligne et de colonne) sur la grille TMA car cette dernière est souvent très déformée pendant la fabrication des lames. Au lieu de calculer directement les indices de ligne et de colonne (des échantillons), nous avons reformulé ce problème comme un problème d'estimation de la déformation de la grille de TMA théorique à partir du résultat de segmentation en utilisant l'interpolation par splines ''plaques minces''. Nous avons combiné les ondelettes et un modèle d'ellipses paramétriques pour éliminer les fausses alarmes, donc améliorer les résultats de segmentation. Selon la conception des scanners, les images sont acquises pixel par pixel le long de chaque ligne, avec un change de direction lors du balayage entre les deux lignes. Un problème fréquent est le mauvais positionnement des pixels dû à la mauvaise synchronisation des modules mécaniques et électroniques. Nous avons donc proposé une méthode variationnelle pour la correction de ces artefacts en estimant le décalage entre les pixels sur les lignes consécutives. Cette méthode, inspirée du calcul du flot optique, consiste à estimer un champ de vecteurs en minimisant une fonction d'énergie composée d'un terme d'attache aux données non convexe et d'un terme de régularisation convexe. La relaxation quadratique est ainsi utilisée pour découpler le problème original en deux sous-problèmes plus simples à résoudre. Enfin, pour améliorer la résolution spatiale des images acquises qui dépend de la PSF (point spread function) elle-même variant selon le faisceau laser d'excitation, nous avons introduit une méthode de déconvolution d'images en considérant une famille de régulariseurs convexes. Les régulariseurs considérés sont généralisés du concept de la variation parcimonieuses (Sparse Variation) combinant la norme L1 de l'image et la variation totale (Total Variation) pour rehausser les pixels dont l'intensité et le gradient sont non-nuls. Les expériences montrent que l'utilisation de cette régularisation produit des résultats déconvolution d'images très satisfaisants en comparaison avec d'autres approches telles que la variation totale ou la norme de Schatten de la matrice Hessienne. / This thesis aims at developing dedicated methods for quantitative analysis of Tissue Microarray (TMA) images acquired by fluorescence scanners. We addressed there issues in biomedical image processing, including segmentation of objects of interest (i.e. tissue samples), correction of acquisition artifacts during scanning process and improvement of acquired image resolution while taking into account imaging modality and scanner design. The developed algorithms allow to envisage a novel automated platform for TMA analysis, which is highly required in cancer research nowadays. On a TMA slide, multiple tissue samples which are collected from different donors are assembled according to a grid structure to facilitate their identification. In order to establish the link between each sample and its corresponding clinical data, we are not only interested in the localization of these samples but also in the computation of their array (row and column) coordinates according to the design grid because the latter is often very deformed during the manufacturing of TMA slides. However, instead of directly computing array coordinates as existing approach, we proposed to reformulate this problem as the approximation of the deformation of the theoretical TMA grid using “thin plate splines” given the result of tissue sample localization. We combined a wavelet-based detection and a ellipse-based segmentation to eliminate false alarms and thus improving the localization result of tissue samples. According to the scanner design, images are acquired pixel by pixel along each line, with a change of scan direction between two subsequent lines. Such scanning system often suffers from pixel mis-positioning (jitter) due to imperfect synchronization of mechanical and electronic components. To correct these scanning artifacts, we proposed a variational method based on the estimation of pixel displacements on subsequent lines. This method, inspired from optical flow methods, consists in estimating a dense displacement field by minimizing an energy function composed of a nonconvex data fidelity term and a convex regularization term. We used half-quadratic splitting technique to decouple the original problem into two small sub-problems: one is convex and can be solved by standard optimization algorithm, the other is non-convex but can be solved by a complete search. To improve the resolution of acquired fluorescence images, we introduced a method of image deconvolution by considering a family of convex regularizers. The considered regularizers are generalized from the concept of Sparse Variation which combines the L1 norm and Total Variation (TV) to favors the co-localization of high-intensity pixels and high-magnitude gradient. The experiments showed that the proposed regularization approach produces competitive deconvolution results on fluorescence images, compared to those obtained with other approaches such as TV or the Schatten norm of Hessian matrix.
|
Page generated in 0.0889 seconds