• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 354
  • 111
  • 43
  • 1
  • 1
  • Tagged with
  • 500
  • 267
  • 205
  • 117
  • 104
  • 86
  • 74
  • 72
  • 62
  • 52
  • 51
  • 42
  • 37
  • 35
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Tolérance aux fautes dans les systèmes répartis à base d'intergiciels réflexifs standards

Bennani, Taha 20 June 2005 (has links) (PDF)
Conscient que la réflexivité permet d'améliorer la conception et la maintenance des applications, en séparant leurs aspects fonctionnels et non-fonctionnels, nous explorons dans cette thèse le potentiel réflexif de l'intergiciel CORBA. Afin d'effectuer une analyse en profondeur, nous avons développé une plate-forme à composants fournissant de manière transparente des mécanismes classiques de réplication. Cette plate-forme nous a permis de montrer les limites de la spécification actuelle des intercepteurs CORBA, PIs (Portable Interceptors). Nous avons identifié précisément certaines difficultés de mise en oeuvre, notamment à cause de la dépendance des intercepteurs vis-à-vis du serveur auquel ils sont attachés et la faible contrôlabilité des interactions réparties. À la lumière de ce travail, nous proposons une amélioration du potentiel réflexif de la norme CORBA actuelle afin de la rendre plus adaptée à la mise en oeuvre des mécanismes de tolérance aux fautes.
212

Tolérance aux fautes sur CORBA par protocole à métaobjets et langages réflexifs

Killijian, Marc-Olivier 19 January 2000 (has links) (PDF)
L'objectif de cette thèse est la conception et l'implémentation d'un protocole à métaobjets adapté à la tolérance aux fautes d'objets Corba. En effet, il n'existe pas, à ce jour, de protocole à métaobjets satisfaisant dans ce contexte. Le protocole que nous définissons permet, d'une part, le contrôle du comportement et de l'état interne des objets Corba, et d'autre part, le contrôle des liens entre clients et serveur ainsi qu'entre objets et métaobjets, le tout de façon dynamique. L' implémentation proposée est adaptée à l'utilisation d'une plateforme Corba standard grâce à l'utilisation de langages ouverts et de réflexivité à la compilation : ces outils permettent de personnaliser le processus de compilation afin d'exhiber à l'exécution les informations nécessaires aux mécanismes de tolérance aux fautes. Un autre avantage de la réflexivité à la compilation est de permettre, de façon simple, d'assurer le respect de conventions de programmation grâce au filtrage du code source des applications. Ce protocole, bien intégré à Corba, tire également profit, lorsque c'est possible, des éléments réflexifs fournis par le support d'exécution du langage. C'est le cas avec Java, par exemple, qui permet la sérialisation des objets, grâce à ses aspects réflexifs limités. Lorsque le support du langage n'est pas réflexif, comme pour C++ par exemple, la réflexivité à la compilation permet également de mettre en ¿uvre des techniques de sauvegarde et de restauration de l'état des objets ; état complet et état partiels peuvent être contrôlés par les métaobjets. Les différentes propriétés de ce protocole à métaobjets sont illustrées par une proposition d'architecture Corba permettant d'intégrer à l'application des mécansimes de tolérance aux fautes de manière très flexible. Les propriétés de cette approche sont une bonne séparation entre l'application et les mécanismes non-fonctionnels implémentés dans les métaobjets, l'aspect dynamique du lien entre objets et métaobjets, la composabilité et la réutilisation des mécanismes ainsi que la transparence pour l'utilisateur. Enfin, ce protocole à métaobjets est suffisamment générique pour tirer parti de l' ouverture, au sens de la réflexivité, des logiciels de base (système d'exploitation et middleware) de la plateforme.
213

Tolérance aux pannes dans des environnements de calcul parallèle et distribué : optimisation des stratégies de sauvegarde/reprise et ordonnancement

Bouguerra, Mohamed slim 02 April 2012 (has links) (PDF)
Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs.
214

Maîtrise du processus de modélisation géométrique et physique en conception mécanique

Charpentier, Frédéric 06 June 2014 (has links) (PDF)
La conception de produits a pour objectif de définir techniquement un produit en satisfaisant les besoins de l'ensemble des clients du cycle de vie du produit. Les enjeux industriels conduisent à développer des modèles et des outils d'aide à la conception afin de répondre aux besoins clients tout en optimisant le triptyque coût-qualité délais. L'objectif de cette thèse est de proposer une vision globale permettant d'appréhender les différents types de modélisation. Pour atteindre cet objectif, une analyse globale de ces notions est nécessaire afin d'obtenir une représentation commune du système pour les différentes activités de conception et de simulation. L'intérêt de cette approche est de pouvoir mettre en évidence les dépendances et les relations entre ces activités. Cette approche doit permettre d'appréhender les différents niveaux de détails (systémique) lors de la décomposition fonctionnelle et structurelle du produit. Elle doit également permettre de suivre l'élaboration des modèles physiques pour la simulation. Nous proposons une traçabilité du processus de conception et du processus de modélisation permettant de remettre en cause, le cas échéant, les choix de conception et les hypothèses de modélisation. Ce travail est fondé sur des concepts de GeoSpelling comme le " skin modèle ", les opérations et les propriétés. Ils sont enrichis d'autres concepts comme les modèles finis et infinis et les modèles primitif et de simulation.
215

Collusions and Privacy in Rational-Resilient Gossip / Coalitions et respect de la vie privée dans les protocoles de dissémination aléatoire de contenus tolérant les comportements égoïstes

Decouchant, Jérémie 09 November 2015 (has links)
Les protocoles de dissémination de contenus randomisés sont une alternative bon marché et pouvant monter en charge aux systèmes centralisés. Cependant, il est bien connu que ces protocoles souffrent en présence de comportements individualistes, i.e., de participants qui cherchent à recevoir un contenu sans contribuer en retour à sa propagation. Alors que le problème des participants égoïstes a été bien étudié dans la littérature, les coalitions de participants égoïstes ont été laissés de côté. De plus, les manières actuelles permettant de limiter ou tolérer ces comportements exigent des noeuds qu'ils enregistrent leurs interactions, et rendent public leur contenu, ce qui peut dévoiler des informations gênantes. De nos jours, il y a consensus autour du besoin de renforcer les possibilités de contrôle des usagers de systèmes informatiques sur leurs données personnelles. Cependant, en l'état de nos connaissances, il n'existe pas de protocole qui évite de divulguer des informations personnelles sur les utilisateurs tout en limitant l'impact des comportements individualistes.Cette thèse apporte deux contributions.Tout d'abord, nous présentons AcTinG, un protocole qui empêche les coalitions de noeuds individualistes dans les systèmes pair-à-pair de dissémination de contenus, tout en garantissant une absence de faux-positifs dans le processus de détection de fautes. Les utilisateurs de AcTinG enregistrent leurs interactions dans des enregistrements sécurisés, et se vérifient les uns les autres grâce à une procédure d'audit non prédictible, mais vérifiable a posteriori. Ce protocole est un équilibre de Nash par construction. Une évaluation de performance montre qu'AcTinG est capable de fournir les messages à tous les noeuds malgré la présence de coalitions, et présente des propriétés de passage à l'échelle similaires aux protocoles classiques de dissémination aléatoire.Ensuite, nous décrivons PAG, le premier protocole qui évite de dévoiler des informations sur les usagers tout en les contrôlant afin d'éviter les comportements égoïstes. PAG se base sur une architecture de surveillance formée par les participants, ainsi que sur des procédures de chiffrement homomorphiques. L'évaluation théorique de ce protocole montre qu'obtenir le détail des interactions des noeuds est difficile, même en cas d'attaques collectives. Nous évaluons ce protocole en terme de protection de l'intimité des interactions et en terme de performance en utilisant un déploiement effectué sur un cluster de machines, ainsi que des simulations qui impliquent jusqu'à un million de participants, et enfin en utilisant des preuves théoriques. Ce protocole a un surcoût en bande-passante inférieur aux protocoles de communications anonymes existants, et est raisonnable en terme de coût cryptographique. / Gossip-based content dissemination protocols are a scalable and cheap alternative to centralised content sharing systems. However, it is well known that these protocols suffer from rational nodes, i.e., nodes that aim at downloading the content without contributing their fair share to the system. While the problem of rational nodes that act individually has been well addressed in the literature, textit{colluding} rational nodes is still an open issue. In addition, previous rational-resilient gossip-based solutions require nodes to log their interactions with others, and disclose the content of their logs, which may disclose sensitive information. Nowadays, a consensus exists on the necessity of reinforcing the control of users on their personal information. Nonetheless, to the best of our knowledge no privacy-preserving rational-resilient gossip-based content dissemination system exists.The contributions of this thesis are twofold.First, we present AcTinG, a protocol that prevents rational collusions in gossip-based content dissemination protocols, while guaranteeing zero false positive accusations. AcTing makes nodes maintain secure logs and mutually check each others' correctness thanks to verifiable but non predictable audits. As a consequence of its design, it is shown to be a Nash-equilibrium. A performance evaluation shows that AcTinG is able to deliver all messages despite the presence of colluders, and exhibits similar scalability properties as standard gossip-based dissemination protocols.Second, we describe PAG, the first accountable and privacy-preserving gossip protocol. PAG builds on a monitoring infrastructure, and homomorphic cryptographic procedures to provide privacy to nodes while making sure that nodes forward the content they receive. The theoretical evaluation of PAG shows that breaking the privacy of interactions is difficult, even in presence of a global and active opponent. We assess this protocol both in terms of privacy and performance using a deployment performed on a cluster of machines, simulations involving up to a million of nodes, and theoretical proofs. The bandwidth overhead is much lower than existing anonymous communication protocols, while still being practical in terms of CPU usage.
216

Design, Optimization, and Formal Verification of Circuit Fault-Tolerance Techniques / Conception, optimisation, et vérification formelle de techniques de tolérance aux fautes pour circuits

Burlyaev, Dmitry 26 November 2015 (has links)
La miniaturisation de la gravure et l'ajustement dynamique du voltage augmentent le risque de fautes dans les circuits intégrés. Pour pallier cet inconvénient, les ingénieurs utilisent des techniques de tolérance aux fautes pour masquer ou, au moins, détecter les fautes. Ces techniques sont particulièrement utilisées dans les domaines critiques (aérospatial, médical, nucléaire, etc.) où les garanties de bon fonctionnement des circuits et leurs tolérance aux fautes sont cruciales. Cependant, la vérification de propriétés fonctionnelles et de tolérance aux fautes est un problème complexe qui ne peut être résolu par simulation en raison du grand nombre d'exécutions possibles et de scénarios d'occurrence des fautes. De même, l'optimisation des surcoûts matériels ou temporels imposés par ces techniques demande de garantir que le circuit conserve ses propriétés de tolérance aux fautes après optimisation.Dans cette thèse, nous décrivons une optimisation de techniques de tolérance aux fautes classiques basée sur des analyses statiques, ainsi que de nouvelles techniques basées sur la redondance temporelle. Nous présentons comment leur correction peut être vérifiée formellement à l'aide d'un assistant de preuves.Nous étudions d'abord comment certains voteurs majoritaires peuvent être supprimés des circuits basés sur la redondance matérielle triple (TMR) sans violer leurs propriétés de tolérance. La méthodologie développée prend en compte les particularités des circuits (par ex. masquage logique d'erreurs) et des entrées/sorties pour optimiser la technique TMR.Deuxièmement, nous proposons une famille de techniques utilisant la redondance temporelle comme des transformations automatiques de circuits. Elles demandent moins de ressources matérielles que TMR et peuvent être facilement intégrés dans les outils de CAO. Les transformations sont basées sur une nouvelle idée de redondance temporelle dynamique qui permet de modifier le niveau de redondance «à la volée» sans interrompre le calcul. Le niveau de redondance peut être augmenté uniquement dans les situations critiques (par exemple, au-dessus des pôles où le niveau de rayonnement est élevé), lors du traitement de données cruciales (par exemple, le cryptage de données sensibles), ou pendant des processus critiques (par exemple, le redémarrage de l'ordinateur d'un satellite).Troisièmement, en associant la redondance temporelle dynamique avec un mécanisme de micro-points de reprise, nous proposons une transformation avec redondance temporelle double capable de masquer les fautes transitoires. La procédure de recouvrement est transparente et le comportement entrée/sortie du circuit reste identique même lors d'occurrences de fautes. En raison de la complexité de cette méthode, la garantie totale de sa correction a nécessité une certification formelle en utilisant l'assistant de preuves Coq. La méthodologie développée peut être appliquée pour certifier d'autres techniques de tolérance aux fautes exprimées comme des transformations de circuits. / Technology shrinking and voltage scaling increase the risk of fault occurrences in digital circuits. To address this challenge, engineers use fault-tolerance techniques to mask or, at least, to detect faults. These techniques are especially needed in safety critical domains (e.g., aerospace, medical, nuclear, etc.), where ensuring the circuit functionality and fault-tolerance is crucial. However, the verification of functional and fault-tolerance properties is a complex problem that cannot be solved with simulation-based methodologies due to the need to check a huge number of executions and fault occurrence scenarios. The optimization of the overheads imposed by fault-tolerance techniques also requires the proof that the circuit keeps its fault-tolerance properties after the optimization.In this work, we propose a verification-based optimization of existing fault-tolerance techniques as well as the design of new techniques and their formal verification using theorem proving. We first investigate how some majority voters can be removed from Triple-Modular Redundant (TMR) circuits without violating their fault-tolerance properties. The developed methodology clarifies how to take into account circuit native error-masking capabilities that may exist due to the structure of the combinational part or due to the way the circuit is used and communicates with the surrounding device.Second, we propose a family of time-redundant fault-tolerance techniques as automatic circuit transformations. They require less hardware resources than TMR alternatives and could be easily integrated in EDA tools. The transformations are based on the novel idea of dynamic time redundancy that allows the redundancy level to be changed "on-the-fly" without interrupting the computation. Therefore, time-redundancy can be used only in critical situations (e.g., above Earth poles where the radiation level is increased), during the processing of crucial data (e.g., the encryption of selected data), or during critical processes (e.g., a satellite computer reboot).Third, merging dynamic time redundancy with a micro-checkpointing mechanism, we have created a double-time redundancy transformation capable of masking transient faults. Our technique makes the recovery procedure transparent and the circuit input/output behavior remains unchanged even under faults. Due to the complexity of that method and the need to provide full assurance of its fault-tolerance capabilities, we have formally certified the technique using the Coq proof assistant. The developed proof methodology can be applied to certify other fault-tolerance techniques implemented through circuit transformations at the netlist level.
217

Conception, simulation parallèle et implémentation de réseaux sur puce hautes performances tolérants aux fautes / Design, Parallel Simulation and Implementation of High-Performance Fault-Tolerant Network-on-Chip Architectures

Charif, Mohamed El Amir 17 November 2017 (has links)
Grâce à une réduction considérable dans les dimensions des transistors, les systèmes informatiques sont aujourd'hui capables d'intégrer un très grand nombre de cœurs de calcul en une seule puce (System-on-Chip, SoC). Faire communiquer les composants au sein d'une puce est aujourd'hui assuré par un réseau de commutation de paquet intégré, communément appelé Network-on-Chip (NoC). Cependant, le passage à des technologies de plus en plus réduites rend les circuits plus vulnérables aux fautes et aux défauts de fabrication. Le réseau sur puce peut donc se retrouver avec des routeurs ou des liens non-opérationnels, qui ne peuvent plus être utilisés pour le routage de paquets. Par conséquent, le niveau de flexibilité offert par l'algorithme de routage n'a jamais été aussi important. La première partie de cette thèse consiste à proposer une méthodologie généralisée, permettant de concevoir des algorithmes de routage hautement flexibles, combinant tolérance aux fautes et hautes performances, et ce pour n'importe quelle topologie réseau. Cette méthodologie est basée sur une nouvelle condition suffisante pour l'absence d'interblocages (deadlocks) qui, contrairement aux méthodes existantes qui imposent des restrictions importantes sur l'utilisation des buffers, s'évalue de manière dynamique en fonction de chaque paquet et ne requiert pas un partitionnement stricte des canaux virtuels (virtual channels). Il est montré que ce degré élevé de liberté dans l'utilisation des buffers a un impact positif à la fois sur les performances et sur la robustesse du NoC, sans pour autant augmenter la complexité en termes d'implémentation matérielle. La seconde partie de la thèse s'intéresse à une problématique plus spécifique, qui est celle du routage dans des topologies tri-dimensionnelles partiellement connectées, qui vont vraisemblablement être en vigueur à cause du coût important des connexions verticales, réalisées en utilisant la technologie TSV (Through-Silicon Via). Cette thèse introduit un nouvel algorithme de routage pour ce type d'architectures nommé "First-Last". Grâce à un placement original des canaux virtuels, cet algorithme est le seul capable de garantir la connectivité totale du réseau en présence d'un seul pilier de TSVs de coordonnées arbitraires, tout en ne requérant de canaux virtuels que sur deux des ports du routeur. Contrairement à d'autres algorithmes qui utilisent le même nombre total de canaux virtuels, First-Last n'impose aucune règle sur la position des piliers, ni sur les piliers à sélectionner durant l'exécution. De plus, l'algorithme proposé ayant été construit en utilisant la méthode décrite dans la première partie de la thèse, il offre une utilisation optimisée des canaux virtuels ajoutés. L'implémentation d'un nouvel algorithme de routage implique souvent des changements considérables au niveau de la microarchitecture des routeurs. L'évaluation de ces nouvelles solutions requiert donc une plateforme capable de simuler précisément l'architecture matérielle du réseau au cycle près. De plus, il est essentiel de tester les nouvelles architectures sur des tailles de réseau significativement grandes, pour s'assurer de leur scalabilité et leur applicabilité aux technologies émergentes (e.g. intégration 3D). Malheureusement, les simulateurs de réseaux sur puce existants ne sont pas capables d'effectuer des simulations sur de grands réseaux (milliers de cœurs) assez vite, et souvent, la précision des simulations doit être sacrifiée afin d'obtenir des temps de simulation raisonnables. En réponse à ce problème, la troisième et dernière partie de cette thèse est consacrée à la conception et au développement d'un modèle de simulation générique, extensible et parallélisable, exploitant la puissance des processeurs graphiques modernes (GPU). L'outil développé modélise l'architecture d'un routeur de manière très précise et peut simuler de très grands réseaux en des temps record. / Networks-on-Chip (NoCs) have proven to be a fast and scalable replacement for buses in current and emerging many-core systems. They are today an actively researched topic and various solutions are being explored to meet the needs of emerging applications in terms of performance, quality of service, power consumption, and fault-tolerance. This thesis presents contributions in two important areas of Network-on-Chip research:- The design of ultra-flexible high-performance deadlock-free routing algorithms for any topology.- The design and implementation of parallel cycle-accurate Network-on-Chip simulators for a fast evaluation of new NoC architectures.While aggressive technology scaling has its benefits in terms of delay, area and power, it is also known to increase the vulnerability of circuits, suggesting the need for fault-tolerant designs. Fault-tolerance in NoCs is directly tied to the degree of flexibility of the routing algorithm. High routing flexibility is also required in some irregular topologies, as is the case for TSV-based 3D Network-on-Chips, wherein only a subset of the routers are connected using vertical connections. Unfortunately, routing freedom is often limited by the deadlock-avoidance method, which statically restricts the set of virtual channels that can be acquired by each packet.The first part of this thesis tackles this issue at the source and introduces a new topology-agnostic methodology for designing ultra-flexible routing algorithms for Networks-on-Chips. The theory relies on a novel low-restrictive sufficient condition of deadlock-freedom that is expressed using the local information available at each router during runtime, making it possible to verify the condition dynamically in a distributed manner.A significant gain in both performance and fault-tolerance when using our methodology compared to the existing static channel partitioning methods is reported. Moreover, hardware synthesis results show that the newly introduced mechanisms have a negligible impact on the overall router area.In the second part, a novel routing algorithm for vertically-partially-connected 3D Networks-on-Chips called First-Last is constructed using the previously presented methodology.Thanks to a unique distribution of virtual channels, our algorithm is the only one capable of guaranteeing full connectivity in the presence of one TSV pillar in an arbitrary position, while requiring a low number of extra buffers (1 extra VC in the East and North directions). This makes First-Last a highly appealing cost-effective alternative to the state-of-the-art Elevator-First algorithm.Finally, the third and last part of this work presents the first detailed and modular parallel NoC simulator design targeting Graphics Processing Units (GPUs). First, a flexible task decomposition approach, specifically geared towards high parallelization is proposed. Our approach makes it easy to adapt the granularity of parallelism to match the capabilities of the host GPU. Second, all the GPU-specific implementation issues are addressed and several optimizations are proposed. Our design is evaluated through a reference implementation, which is tested on an NVidia GTX980Ti graphics card and shown to speed up 4K-node NoC simulations by almost 280x.
218

Mécanismes d'accumulation et impact biologique de l'argent et du cobalt chez la micro-algue Coccomyxa actinabiotis / Mechanisms of accumulation and the biological impact of silver and cobalt on the micro-alga Coccomyxa actinabiotis

Leonardo, Thomas 12 December 2014 (has links)
Une nouvelle espèce de micro-algue photosynthétique, Coccomyxa actinabiotis, a récemment été découverte au sein d'une installation nucléaire. Cette algue présente une forte résistance aux radiations ionisantes et accumule certains radionucléides. Le développement d'une biotechnologie de décontamination des effluents liquides des réacteurs nucléaires basée sur C. actinabiotis est étudié du fait de ces propriétés. Ce travail vise plus particulièrement à caractériser et comprendre les processus d'accumulation par l'algue de l'argent et du cobalt, qui sont les radionucléides émetteurs gamma majoritaires dans les effluents liquides des réacteurs du parc électronucléaire français. Cette étude a été menée par quatre approches complémentaires : (a) Les cinétiques et les équilibres d'accumulation de ces métaux ont été déterminés par analyses ICP-MS (b) La distribution intracellulaire des métaux a été cartographiée à l'échelle nanométrique par fluorescence X de rayonnement synchrotron et par microscopie électronique en transmission (c) La spéciation de l'argent et du cobalt accumulés par la micro-algue a été déterminée par spectroscopie d'absorption X et par diffraction de rayons X (d) L'impact biologique de ces métaux sur l'algue a été examiné, notamment par l'étude des perturbations physiologiques, métaboliques et protéomiques associées à leur présence.L'ensemble de ces résultats dévoile une partie des processus à l'œuvre lors de l'accumulation d'argent ou de cobalt par C. actinabiotis. / A new green micro-alga species, Coccomyxa actinabiotis, was recently discovered in a nuclear environment. This alga is highly resistant to ionizing radiation and accumulates some radionuclides. Thanks to its properties, the development of a biotechnology based on C. actinabiotis for the clean-up of nuclear liquid effluents is under consideration. Our work aims more specifically at describing and understanding the alga's silver and cobalt accumulation processes; these metals being the main gamma emitting radionuclides present in liquid effluents issuing from French nuclear facilities.This study was carried out using four complementary approaches: (a) Kinetics and equilibriums of silver and cobalt uptake were assessed by ICP-MS analysis; (b) The subcellular distribution of the metals was mapped at a nanometric scale using synchrotron X-ray fluorescence and transmission electron microscopy; (c) The speciation of silver and cobalt taken up by the alga was assessed by synchrotron X-ray absorption spectroscopy and X-ray diffraction; (d) The biological impact of these metals on the alga was investigated, in particular the physiological, metabolic and proteomic perturbations they induce.Altogether, these results unveiled some of the processes involved in silver and cobalt accumulation by C. actinabiotis.
219

Régulation du développement et de la fonction des cellules innées lymphoïdes NKp46+ / Regulation of NKp46+ lymphoid cells’ function and development

Viant, Charlotte 17 June 2016 (has links)
Il existe différents groupes de cellules lymphoïdes innées (ILC) qui ont été caractérisées en fonction des facteurs de transcriptions indispensables à leur différenciation et des cytokines qu’elles sécrètent. Les ILC1, dont font partie les cellules Natural Killer (NK), expriment T-bet et produisent de l’IFN-γ. Les ILC2 sont caractérisées par GATA-3 et sécrètent de l’IL-5 et de l’IL-13. Quant aux ILC3, elles ont été identifiées par leur sécrétion d’IL-17 et d’IL-22 ainsi que par l’expression de RORγt.Mon travail de thèse m’a amené à étudier différents aspects de la biologie des cellules NK et ILC3 : leur tolérance, leur homéostasie et leur plasticité.Les cellules NK jouent un rôle dans l’élimination de cellules cancéreuses et des cellules infectées par des bactéries et des virus. J’ai mis en évidence le rôle de la phosphatase SHP-1 (Src homology region 2 domain-containing phosphatase-1) dans les mécanismes de tolérance et d’activation des cellules NK. J’ai également montré que la protéine anti-apoptotique Bcl2 (B-cell lymphoma 2) est importante pour l’homéostasie des cellules NK. Seules les cellules en cycle cellulaire peuvent compenser l’absence de Bcl2, notamment du fait de l’augmentation de l’expression d’une autre protéine anti-apoptotique, Mcl1 (Myeloid Cell Leukemia 1). Les ILC3 sont des cellules principalement localisées dans l’intestin et qui peuvent être classées en différents groupes en fonction des marqueurs qu’elles expriment. J’ai montré qu’il existe une plasticité entre les différentes populations d’ILC3, et que cette plasticité est régulée par des facteurs environnementaux tel que le TGF-β et le ligand de Notch, DL1. / There are three groups of innate lymphoid cells (ILC), defined notably by the transcriptions factors essential to their differentiation and their cytokines secretion. ILC1, including natural killer (NK) cells, express T-bet and secrete IFN-γ. ILC2 are characterized by GATA3 expression and the production of IL-5 and IL-13. ILC3 secrete IL-17 and IL-22 and express RORγt.My PhD work dealt with different aspects of NK cells and ILC3: their tolerance, homeostasis and plasticity.NK cell are involved in killing tumor cells and bacteria- or virus-infected cells. I found that the phosphatase SHP-1 (Src homology region 2 domain-containing phosphatase-1) has a role in NK cell tolerance and activation.I also showed that the anti-apoptotic Bcl2 protein (B-cell lymphoma 2) is important for NK cell homeostasis. Only cycling NK cells could compensate the Bcl2 deficiency, due to the increase expression of another anti-apoptotic protein, Mcl1 (Myeloid Cell Leukemia 1).ILC3 are mainly located in the gut and are classified in different groups, depending on the markers that they expressed. I showed that there is plasticity between ILC3 populations and that this plasticity is regulated by environmental factors, including TGF-β and the Notch ligand, DL1.
220

De l’acclimatation à l’adaptation : mécanismes évolutifs, conséquences populationnelles et implication en biosurveillance / From acclimation to adaptation : evolutionary mechanisms, populational consequences, and implications for biomonitoring

Potet, Marine 21 December 2017 (has links)
Le cadre réglementaire défini par la Directive Cadre sur l’Eau impose le développement de méthodologies fiables d’évaluation et/ou de caractérisation de l’état de santé des écosystèmes aquatiques. L’objectif de ce travail de thèse était d’identifier les rôles relatifs des paramètres des milieux aquatiques (température, cycle saisonnier, minéralisation), des caractéristiques des populations et des pressions anthropiques sur les réponses des biomarqueurs chez un organisme aquatique modèle, la moule zébrée (Dreissena polymorpha). Une espèce sœur, Dreissena rostriformis bugensis, arrivée plus récemment dans nos cours d’eau, a été suivie en parallèle et son potentiel en tant que biomoniteur a également été évalué. Pour cela, une batterie d’une douzaine de biomarqueurs sub-cellulaires a été mesurée dans différentes populations des deux espèces vivant dans des milieux contrastés, à différentes périodes de l’année, mais aussi lors de stress standardisés en laboratoire. Les biomarqueurs choisis correspondaient à différentes fonctions physiologiques et/ou antitoxiques, et des réponses à fortes pertinence écologiques, telles que la consommation d’oxygène ou l’activité de filtration, ont ponctuellement été suivies. Ces différents paramètres ont permis d’interroger les notions de sensibilité et de vulnérabilité des populations et de mieux comprendre les facteurs déterminant les réponses des biomarqueurs. Les différences inter-populationnelles montrent que l’accumulation des contaminants par les organismes et leurs réponses biologiques sont bien dépendantes de la qualité du biotope propre à chaque population, mais aussi de la saison, un facteur confondant qui doit donc être pris en compte lors de campagnes de biosurveillance. De fortes différences de réponse des biomarqueurs entre les deux espèces ont aussi été observées, aussi bien in situ que lors des expositions en laboratoire, soulignant la nécessité de bien différencier ces deux espèces, pourtant très proches. La nouvelle arrivée, D. r. bugensis, présente des réponses plus plastiques in situ, mais semble moins capable de gérer des stress aigus lors d’expositions en laboratoire. A l’inverse, D. polymorpha, arrivée il a 200 ans en France, semble mieux adaptée, avec une variabilité de réponse moins marquée et une meilleure tolérance aux contaminants. Ces travaux de thèse s’inscrivent dans le cadre de la convention BIOMICS, réalisée en collaboration avec l’ONEMA. Ils montrent que ces deux espèces sont aptes à nous renseigner sur l’état de contamination du milieu dans lequel elles vivent, même si les grilles d’interprétation peuvent être différentes de l’une à l’autre. Les variations des réponses des biomarqueurs au niveau sub-cellulaire témoignent de façon précoce de modifications de la qualité du milieu. Certains biomarqueurs semblent toutefois plus informatifs que d’autres, la batterie mesurée pourrait donc être réduite. A l’avenir, ces travaux permettront une meilleure lecture et interprétation des biomarqueurs mesurés dans des populations autochtones ou transplantées, et attestent de l’intérêt des biomarqueurs en tant qu’outils d’évaluation de la qualité des milieux aquatiques / The regulatory framework defined by the Water Framework Directive requires the development of reliable methodologies for assessing and / or characterizing the health status of aquatic ecosystems. The objective of this thesis was to identify the relative roles of environmental parameters (temperature, seasonal cycle, mineralization), population characteristics and anthropic pressures on biomarker responses in a model aquatic organism, the zebra mussel (Dreissena polymorpha). A sister species, Dreissena rostriformis bugensis, which invaded more recently our waterways, has been used in parallel and its potential as a biomonitor has also been evaluated. For this purpose, a battery of a dozen sub-cellular biomarkers was measured in different populations of the two species living in contrasting environments, at different times of the year, but also under laboratory stresses. The selected biomarkers corresponded to different physiological and / or antitoxic functions, and responses with high ecological relevance, such as oxygen consumption or filtration activity, were occasionally followed. These various parameters allowed to question the concepts of sensitivity and vulnerability of the populations and to understand the factors determining biomarker responses. Inter-population differences showed that the accumulation of contaminants by organisms and their biomarker responses depend on environmental quality at the originating site of each population, but also on the season, a confounding factor which must therefore be taken into account during biomonitoring programs. Strong differences in biomarker responses between the two species were also observed, both in situ and during laboratory experiments, emphasizing the need to differentiate the two species, so close they are. The recent invader, D. r. bugensis, presents more plastic responses in situ, but appears less able to manage acute stress in laboratory. Conversely, D. polymorpha, which is about 200 years old in France, appears to be better adapted, with less response variability and a better tolerance to contaminants. This thesis work is part of the BIOMICS convention, carried out in collaboration with ONEMA. It shows that these two species are able to inform about the contamination status of their environment. Variations in biomarker responses at the sub-cellular level indicate early changes in environmental quality. Some biomarkers, however, seem more informative than others do, so the measured battery could be reduced. In the future, this work will allow a better reading and interpretation of biomarkers measured in autochthonous or transplanted populations, and attest the value of biomarkers as tools for assessing aquatic environment quality

Page generated in 0.0412 seconds