• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 354
  • 110
  • 40
  • 1
  • 1
  • Tagged with
  • 496
  • 266
  • 204
  • 117
  • 103
  • 86
  • 74
  • 72
  • 61
  • 51
  • 51
  • 42
  • 37
  • 35
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Extension of the behavior composition framework in presence of failures using recovery techniques and AKKA

Hosnidokht, Mohammad January 2018 (has links)
Abstract: Fault tolerance is an essential property to be satis ed in the composition of services, but reaching a high level of fault tolerance remains a challenge. In the area of ubiquitous computing, the composition of services is inevitable when a request cannot be carried out by a single service, but by a combination of several services. This thesis studies fault tolerance in the context of a general behavior composition framework. This approach raises, rst, the problem of the synthesis of controllers (or compositions) in order to coordinate a set of available services to achieve a new service, the target service and, second, the exploitation of all compositions to make the new service fault tolerant. Although a solution has been proposed by the authors of the behavior composition framework, it is incomplete and has not been evaluated experimentally or in situ. This thesis brings two contributions to this problem. On one hand, it considers the case in which the service selected by the controller is temporarily or permanently unavailable by exploiting recovery techniques to identify a consistent state of the system from which it may progress using other services or leave it in a coherent state when none of the available services no longer allows progression. On the other hand, it evaluates several recovery solutions, each useful in services malfunction situations, using a case study implemented with the aid of Akka, a tool that facilitates the development of reactive, concurrent and distributed systems. / La tolérance aux fautes est une propriété indispensable à satisfaire dans la composition de services, mais atteindre un haut de niveau de tolérance aux fautes représente un défi majeur. Dans l'ère de l'informatique ubiquitaire, la composition de services est inévitable lorsqu'une requête ne peut être réalisée par un seul service, mais par la combinaison de plusieurs services. Ce mémoire étudie la tolérance aux fautes dans le contexte d'un cadre général de composition de comportements (behavior composition framework en anglais). Cette approche soulève, tout d'abord, le problème de la synthèse de contrôleurs (ou compositions) de façon à coordonner un ensemble de services disponibles afin de réaliser un nouveau service, le service cible et, ensuite, celui de l'exploitation de l'ensemble des compositions afin de rendre le nouveau service tolérant aux fautes. Bien qu'une solution ait été proposée par les auteurs de ce cadre de composition, elle est incomplète et elle n'a pas été évaluée expérimentalement ou in situ. Ce mémoire apporte deux contributions à ce problème. D'une part, il considère le cas dans lequel le service visé par le contrôleur est temporairement ou définitivement non disponible en exploitant des techniques de reprise afin d'identifier un état cohérent du système à partir duquel il peut progresser en utilisant d'autres services ou de le laisser dans un état cohérent lorsqu'aucun service, parmi ceux disponibles, ne permet plus de progression. D'autre part, il évalue plusieurs solutions de reprise, chacune utile dans des situations particulières de pannes, à l'aide d'une étude de cas implémentée en Akka, un outil qui permet aisément de mettre en oeuvre des systèmes réactifs, concurrents et répartis.
122

Role of prefrontal cortex dopamine in associative learning / Rôle de la dopamine du cortex préfrontal dans l'apprentissage associatif

Aly Mahmoud, Mayada 19 June 2017 (has links)
La dopamine du cortex préfrontal (PFC) est impliquée dans l’apprentissage et dans la prise de décision liée à l’effort. Comme l’apprentissage ne peut se faire sans effort, il n’est pas clair aujourd’hui si la dopamine est nécessaire pour l’apprentissage, ou pour l’engagement de l’effort pour apprendre. Dans ce travail, les rats apprenaient à pousser un levier pour obtenir de la nourriture, soit avec (apprentissage par observation, LeO) ou sans (essai-et-erreur, TE) observation préalable d’un congénère exécutant la tâche. TE et la phase d’exécution de LeO nécessitent l’effort physique (overt learning), l’observation dans LeO ne requiert pas d’effort physique (covert learning). Avant chaque session, les rats recevaient des injections de SCH23390 ou de la saline dans le cingulaire antérieur (ACC) ou l’orbitofrontal (OFC). Si la dopamine est nécessaire à l’apprentissage, le blocage des récepteurs D1 affecterait aussi bien l’apprentissage overt que covert. Si la dopamine n’est pas requise pour l’apprentissage mais pour l’engagement de l’effort, le blocage affecterait l’apprentissage overt, et non covert. Les résultats montrent que le blocage de la dopamine dans ACC ou OFC supprime l’apprentissage overt, laissant intact l’apprentissage covert. Une fois les injections arrêtées, les rats récupèrent la capacité d’apprendre, mais dans le cas de ACC, pas la tolérance à l’effort. Ces résultats suggèrent que la dopamine dans ACC et OFC n’est pas nécessaire pour l’apprentissage, et que les déficits d’apprentissage pourraient reflèter une réduction de la tolérance effort à l’effort liée au blocage de la dopamine. / Because prefrontal cortex (PFC) dopamine plays a pivotal role in associative learning and in effort-related decision making, it is not clear as of today whether PFC dopamine activity is required for learning per se, or rather for engaging the effort necessary to learn. In this work, we used observational learning (LeO) and trial-and-error (TE) learning to dissociate learning from physical effort. Both TE and the execution phase of LeO require physical effort (overt learning). Observation does not require physical effort (covert learning). Rats learned to push a lever for food rewards either with or without prior observation of an expert conspecific performing the same task. Before daily testing sessions, the rats received bilateral ACC or OFC microinfusions of SCH23390, or saline-control infusions. If dopamine activity is required for task acquisition, its blockade should impair both overt and covert learning. If dopamine is not required for task acquisition, but solely for regulating effort tolerance, blockade should impair overt learning but spare covert learning. We found that dopamine blockade in ACC or OFC suppressed overt learning selectively, leaving covert learning intact. In subsequent testing sessions without dopamine blockade, rats recovered their overt-learning capacity but, in ACC experiments, the animals did not recover their normal level of effort tolerance. These results suggest that ACC and OFC dopamine is not required for the acquisition of conditioned behaviours and that apparent learning impairments could instead reflect a reduced level of effort tolerance due to cortical dopamine blockade.
123

Interaction fontionnelle entre le système de tolérance des lésions et le checkpoint des dommages à l'ADN : conséquences sur la stabilité du génome et l'oncogenèse / Functional interaction between the DNA damage tolerance pathway and the DNA damage checkpoint : implications for genome stability and oncogenesis

Kermi, Chames 14 December 2016 (has links)
Notre génome subit constamment les effets néfastes des agents endommageant de l'ADN. Afin de se protéger de ces effets délétères, les cellules disposent d’un système de détection des dommages à l’ADN (point de contrôle ou « checkpoint »). Certaines lésions peuvent persister quand les cellules entrent en phase S et inhiber ainsi la synthèse de l’ADN en interférant avec les ADN polymérases réplicatives. Ceci peut provoquer des arrêts prolongés des fourches de réplication ce qui fragilise l’ADN. Pour préserver l’intégrité de l’information génétique, les cellules ont développé une voie de tolérance qui implique des ADN polymérases spécialisées dans la réplication des lésions, appelées ADN Polymérases translésionnelles (Pols TLS). Dans ce processus, PCNA joue le rôle de facteur d’échafaudage pour de nombreuses protéines impliquées dans le métabolisme de l'ADN. Les mécanismes de régulation des échanges entre les différents partenaires de PCNA ne sont pas très bien compris. Parmi les protéines qui interagissent avec PCNA, CDT1, p21 ou encore PR-Set7/Set8 sont caractérisées par une forte affinité pour cette protéine. Ces dernières possèdent un motif d’interaction particulier avec PCNA, nommé « PIP degron », qui favorise leur protéolyse d'une manière dépendante de l’E3 ubiquitine ligase CRL4Cdt2. Après irradiation aux UV-C, le facteur d’initiation de la réplication CDT1 est rapidement détruit d’une manière dépendante de son PIP degron, Dans la première partie de mon travail, j’ai contribué à comprendre le rôle fonctionnel de cette dégradation. Les résultats obtenus ont fourni des évidences expérimentales qui montrent que l’inhibition de la dégradation de CDT1 par CRL4Cdt2 dans les cellules de mammifères compromet la relocalisation des TLS Pol eta et Pol kappaen foyers nucléaires induits par les irradiations UV-C. On a constaté que seules les protéines qui contiennent un PIP degron interfèrent avec la formation de foyers de Pol eta. La mutagenèse du PIP degron de CDT1 a révélé qu'un résidu de thréonine conservé parmi les PIP degrons est essentiel pour l'inhibition de la formation des foyers des TLS Polymérases. Les résultats obtenus suggèrent que l’élimination de protéines contenant des PIP degrons par la voie CRL4Cdt2 régule le recrutement de TLS Polymérases au niveau des sites des dommages induits par les UV-C.Dans un second temps, on s’est intéressé à l’étude du checkpoint des dommages à l’ADN au cours de l’embryogénèse. En effet, dans les embryons précoces, le checkpoint est silencieux jusqu'à la transition de mid-blastula (MBT), en raison de facteurs maternels limitants. Dans ce travail, nous avons montré, aussi bien in vitro qu’in vivo, que l’ubiquitine ligase de type E3 RAD18, un régulateur majeur de la translésion, est un facteur limitant pour l’activation du checkpoint dans les embryons de xénope. Nous avons montré que l'inactivation de la fonction de l’ubiquitine ligase RAD18 conduit à l'activation du checkpoint par un mécanisme qui implique l’arrêt des fourches de réplication en face des lésions produites par les UV-C. De plus, nous avons montré que l'abondance de RAD18 et de PCNA monoubiquitiné (PCNAmUb) est régulée au cours de l’embryogénèse. À l’approche de la MBT, l’abondance de l'ADN limite la disponibilité de RAD18, réduisant ainsi la quantité de PCNAmUb et induisant la dé-répression du checkpoint. En outre, nous avons montré que cette régulation embryonnaire peut être réactivée dans les cellules somatiques de mammifères par l'expression ectopique de RAD18, conférant une résistance aux agents qui causent des dommages à l'ADN. Enfin, nous avons trouvé que l'expression de RAD18 est élevée dans les cellules souches cancéreuses de glioblastome hautement résistantes aux dommages de l'ADN. En somme, ces données proposent RAD18 comme un facteur embryonnaire critique qui inhibe le point de contrôle des dommages de l’ADN et suggèrent que le dérèglement de l’expression de RAD18 peut avoir un potentiel oncogénique inattendu / Our genome is continuously exposed to DNA damaging agents. In order to preserve the integrity of their genome, cells have evolved a DNA damage signalling pathway known as checkpoint. Some lesions may persist when cells enter the S-phase and halt the progression of replicative DNA polymerases. This can cause prolonged replication forks stalling which threaten the stability of the genome. To preserve the integrity of genetic information, cells have developed a tolerance pathway which involves specialized DNA polymerases, called translesion DNA polymerases (TLS Pols). These polymerases have the unique ability to accommodate the damaged bases thanks to their catalytic site. In this process, PCNA acts as a scaffold for many proteins involved in DNA metabolism. The mechanisms governing the exchanges between different PCNA partners are not well understood. Among the proteins that interact with PCNA, CDT1, p21 and PR-Set7/set8 are characterized by a high binding affinity. These proteins have a particular interaction domain with PCNA, called "PIP degron", which promotes their proteasomal degradation via the E3 ubiquitin ligase CRL4Cdt2. After UV-C irradiation, the replication initiation factor CDT1 is rapidly degraded in a PIP degron-dependent manner. During the first part of my work, we wanted to understand the functional role of this degradation. Our results have shown that inhibition of CDT1 degradation by CRL4Cdt2 in mammalian cells, compromises the relocalisation of TLS Pol eta and Pol kappato nuclear foci after UV-C irradiation. We also found that only the proteins which contain a PIP degron interfere with the formation of Pol eta foci. Mutagenesis experiments on CDT1 PIP degron revealed that a threonine residue conserved among PIP degrons is essential for inhibiting foci formation of at least two TLS polymerases. This results suggest that CRL4Cdt2-dependent degradation of proteins containing PIP degrons regulates the recruitment of TLS polymerases at sites of UV-induced DNA damage.During the second part of my thesis, we studied DNA damage checkpoint regulation during embryogenesis. Indeed, in early embryos, the DNA damage checkpoint is silent until the mid-blastula transition (MBT) due to maternal inhibiting factors. In this work, we have shown, both in vitro and in vivo, that the E3 ubiquitin ligase RAD18, a major regulator of translesion DNA synthesis, is a limiting factor for the checkpoint activation in Xenopus embryos. We have also shown that RAD18 depletion leads to the activation of DNA damage checkpoints by inducing replication fork uncoupling in front of the lesions. Furthermore, we showed that the abundance of RAD18 and PCNA monoubiquitination (PCNAmUb) is regulated during embryonic development. Near the MBT, the increased abundance of DNA limits the availability of RAD18, thereby reducing the amount of PCNAmUb and inducing the de-repression of the checkpoint. Moreover, we have shown that this embryonic-like regulation can be reactivated in somatic mammalian cells by ectopic expression of RAD18, conferring resistance to DNA damaging. Finally, we found high RAD18 levels in glioblastoma cancer stem cells highly resistant to DNA damage. All together, these data propose RAD18 as a critical factor that inhibits DNA damage checkpoint in early embryos and suggests that dysregulation of RAD18 expression may have an unexpected oncogenic potential
124

Génétique de la résistance à la fièvre de la vallée du Rift : Rvfs2 confére une tolérance à l'hépatite / Genetics of the resistance to Rift valley fever : Rvfs2 confers tolerance to hepatitis

De Araujo Paredes Batista, Ruben Leandro 25 September 2015 (has links)
La fièvre de la Vallée du Rift (FVR) est une zoonose émergente provoquée par un virus. La FVR affecte principalement le bétail. Chez l'Homme, la maladie peut évoluer sous deux formes mortelles: une fièvre hémorragique et une encéphalite. Malgré l'importance du fonds génétique dans l'issue de la FVR, l'identité des gènes responsables reste inconnue. Nous avons étudié les facteurs génétiques qui déterminent la sensibilité de la lignée de souris MBT/Pas et la résistance de la lignée BALB/c à la FVR. Nous avons identifié trois QTLs sur les chromosomes 2, 5 et 11, nommés, respectivement, Rvfs1, Rvfs3 et Rvfs2. Une infection des lignées congéniques correspondantes, C.MBT Rvfs1, -2 et -3, a confirmé le rôle de la région Rvfs2 dans la sensibilité à la FVR. Une analyse pathophysiologique a montré que les souris C.MBT Rvfs2 et BALB/c développent précocement une hépatite. Les souris C.MBT Rvfs2 meurent de cette hépatite aiguë. En revanche, les souris BALB/c régénèrent leur foie, ce qui leur permet de mieux tolérer l'atteinte du foie. La majorité des souris BALB/c sont décédées plus tard d'une encéphalite. Ces observations montrent que les modèles étudiés reproduisent chacune des deux formes de la maladie observées chez l'Homme. Nous avons produit des lignées sous-congéniques pour la région Rvfs2 et avons testé leur sensibilité à la FVR. Les résultats ont été croisés avec une analyse des variants de structure et de régulation présents dans l'intervalle. Cette stratégie a permis d'identifier 3 gènes candidats : Rnf213, Cd7 et Fasn. La fonction du gène Fasn suggère qu'il puisse jouer un rôle lors de la régénération du foie et ainsi être le facteur génétique que nous recherchons. / Rift Valley fever (RVF) is an emerging zoonosis caused by an arbovirus. The disease affects mainly livestock, but it can have a severe impact on human health. In humans, RVF may progress into fatal outcomes due to acute hepatitis or encephalitis. Despite the influence of the host genetic background on the outcome of the disease, the identity of causative genes remains unknown. We studied the genetic factors determining the susceptibility of MBT/Pas and the resistance of BALB/c mouse strains to RVF. We identified 3 QTLs linked to survival on chromosomes 2, 5 and 11 and named them, respectively, Rvfs1, Rvfs3 and Rvfs2. The infection of the corresponding congenic strains, C.MBT Rvfs1, 2 and 3, confirmed the role of Rvfs2 on the susceptibility to RVF. A pathophysiological investigation showed that both C.MBT Rvfs2 and BALB/c mice exhibit early onset severe hepatitis. However, while C.MBT Rvfs2 died rapidly from liver failure, BALB/c mice tolerated the liver disease and regenerated the hepatic tissue. These mice eventually died at a later stage from encephalitis. These observations indicate that each of the studied mouse models recapitulates one form of the human disease. We generated subcongenic strains harboring the Rvfs2 region and tested their susceptibility to RVF. The results were combined with high-throughput analyses of the structural and regulatory variants found in the region. Our combined approach allowed the identification of three candidate genes: Rnf213, Cd7 and Fasn. The function of the Fasn gene suggests that it could play a role in the mechanism of liver regeneration and, thus, Fasn is our best candidate gene to account for the susceptibility phenotype.
125

Error handling and energy estimation for error resilient near-threshold computing / Gestion des erreurs et estimations énergétiques pour les architectures tolérantes aux fautes et proches du seuil

Ragavan, Rengarajan 22 September 2017 (has links)
Les techniques de gestion dynamique de la tension (DVS) sont principalement utilisés dans la conception de circuits numériques pour en améliorer l'efficacité énergétique. Cependant, la réduction de la tension d'alimentation augmente l'impact de la variabilité et des erreurs temporelles dans les technologies nano-métriques. L'objectif principal de cette thèse est de gérer les erreurs temporelles et de formuler un cadre pour estimer la consommation d'énergie d'applications résistantes aux erreurs dans le contexte du régime proche du seuil (NTR) des transistors. Dans cette thèse, la détection et la correction d'erreurs basées sur la spéculation dynamique sont explorées dans le contexte de l'adaptation de la tension et de la fréquence d‘horloge. Outre la détection et la correction des erreurs, certaines erreurs peuvent être également tolérées et les circuits peuvent calculer au-delà de leurs limites avec une précision réduite pour obtenir une plus grande efficacité énergétique. La méthode de détection et de correction d'erreur proposée atteint 71% d'overclocking avec seulement 2% de surcoût matériel. Ce travail implique une étude approfondie au niveau des portes logiques pour comprendre le comportement des portes sous l'effet de modification de la tension d'alimentation, de la tension de polarisation et de la fréquence d'horloge. Une approche ascendante est prise en étudiant les tendances de l'énergie par rapport a l'erreur des opérateurs arithmétiques au niveau du transistor. En se basant sur le profilage des opérateurs, un flot d'outils est formulé pour estimer les paramètres d'énergie et d'erreur pour différentes configurations. Nous atteignons une efficacité énergétique maximale de 89% pour les opérateurs arithmétiques comme les additionneurs 8 bits et 16 bits au prix de 20% de bits défectueux en opérant en NTR. Un modèle statistique est développé pour que les opérateurs arithmétiques représentent le comportement des opérateurs pour différents impacts de variabilité. Ce modèle est utilisé pour le calcul approximatif dans les applications qui peuvent tolérer une marge d'erreur acceptable. Cette méthode est ensuite explorée pour unité d'exécution d'un processeur VLIW. L'environnement proposé fournit une estimation rapide des indicateurs d'énergie et d'erreurs d'un programme de référence par compilation simple d'un programme C. Dans cette méthode d'estimation de l'énergie, la caractérisation des opérateurs se fait au niveau du transistor, et l'estimation de l'énergie se fait au niveau fonctionnel. Cette approche hybride rend l'estimation de l'énergie plus rapide et plus précise pour différentes configurations. Les résultats d'estimation pour différents programmes de référence montrent une précision de 98% par rapport à la simulation SPICE. / Dynamic voltage scaling (DVS) technique is primarily used in digital design to enhance the energy efficiency by reducing the supply voltage of the design. However reduction in Vdd augments the impact of variability and timing errors in sub-nanometer designs. The main objective of this work is to handle timing errors, and to formulate a framework to estimate energy consumption of error resilient applications in the context of near-threshold regime (NTR). In this thesis, Dynamic Speculation based error detection and correction is explored in the context of adaptive voltage and clock overscaling. Apart from error detection and correction, some errors can also be tolerated or, in other words, circuits can be pushed beyond their limits to compute incorrectly to achieve higher energy efficiency. The proposed error detection and correction method achieves 71% overclocking with 2% additional hardware cost. This work involves extensive study of design at gate level to understand the behaviour of gates under overscaling of supply voltage, bias voltage and clock frequency (collectively called as operating triads). A bottom-up approach is taken: by studying trends of energy vs. error of basic arithmetic operators at transistor level. Based on the profiling of arithmetic operators, a tool flow is formulated to estimate energy and error metrics for different operating triads. We achieve maximum energy efficiency of 89% for arithmetic operators like 8-bit and 16-bit adders at the cost of 20% faulty bits by operating in NTR. A statistical model is developed for the arithmetic operators to represent the behaviour of the operators for different variability impacts. This model is used for approximate computing of error resilient applications that can tolerate acceptable margin of errors. This method is further explored for execution unit of a VLIW processor. The proposed framework provides quick estimation of energy and error metrics of a benchmark programs by simple compilation in a C compiler. In the proposed energy estimation framework, characterization of arithmetic operators is done at transistor level, and the energy estimation is done at functional level. This hybrid approach makes energy estimation faster and accurate for different operating triads. The proposed framework estimates energy for different benchmark programs with 98% accuracy compared to SPICE simulation.
126

Réponses physiologiques, antioxydantes et métabolomiques de Thellungiella salsuginea et Arabidopsis thaliana à l'interaction salinité modérée-phénanthrène : application à la phytoremédiation des HAPs par les halophytes / Physiological, antioxidant and metabolomic responses of Thellungiella salsuginea and Arabidopsis thaliana to moderate salinity-phenanthrene interaction : application to phytoremediation of PAHs by halophytes

Moez, Shiri 04 July 2014 (has links)
La pollution environnementale constitue un problème majeur pour les écosystèmes naturels et la santé publique. Récemment, la phytoremédiation a émergé comme une stratégie innovante, écologique et à faible coût. Elle consiste à utiliser les capacités des plantes à stocker ou/et à dégrader les polluants. Dans cette étude, des analyses physiologiques, biochimiques et métabolomiques, ont permis de montrer que les halophytes, une catégorie des plantes extrêmophiles, présentent une grande capacité à remédier la pollution engendrée par les Hydrocarbures Aromatiques Polycycliques (HAPs). D'autre part, la salinité modérée améliore leur capacité phytoremédiatrice. Ces résultats apportent de nouvelles données pouvant contribuer à l'amélioration de cette stratégie. / Halopytes, plants naturally adapted to high salt concentrations, have no clear definition, yet. Their cross-tolerance to abiotic stresses was reviewed in this work at the physiological, biochemical, and molecular levels, with a special emphasis on the mechanisms involved in their cross-tolerance to salinity and organic pollutants that could allow them a higher potential of xenobiotic phytoremediation as compared to glycophytes. In our experimental part, we compared in a first step some physiological and antioxidant responses to phenanthrene as well as its accumulation in the two related model plants Arabidopsis thaliana (glycophyte) and Thellungiella salsuginea (halophyte).In a second step, we investigated the effects of moderate salinity on the responses of the two species to phenanthrene considered as model Polycyclic Aromatic Hydrocarbon (PAH) molecule. Obtained results showed an improvement of phenanthrene-induced responses in the two plants, the effect being more marked in the halophyte. This observation was particularly related to higher antioxidant activities and the induction of more adapted metabolism as several accumulated metabolites are known to be involved in signaling and osmotic adjustment processes. In a final step, we studied the potential of the halophyte Cakile maritima to remediate an inert sand (to avoid the degradation of the pollutant by microorganisms or their interaction with the plant) highly contaminated with phenanthrene.
127

Approche immunologie des systèmes pour l'étude du microenvironnement tumoral et de l'interface foeto-maternelle / Systems immunology to the study of the tumour microenvironment and the fetomaternal interface

Nehar-Belaid, Djamel-Eddine 22 September 2014 (has links)
Il existe de nombreuses similarités entre le développement du foetus et celui des cellules tumorales. En effet, dans les deux cas ils requièrent une division cellulaire intense, une invasion des tissues de l’hôte ainsi qu’une vascularisation soutenue. De plus, malgré le fait que le foetus et les cellules tumorales expriment à la fois des antigènes étrangers (les antigènes paternels pour le foetus et les antigènes du soi modifiés au niveau des cellules tumorales) ils ne sont pas rejetés par le système immunitaire. Parmi plusieurs populations cellulaires impliquées dans ce phénomène de non rejet ou de tolérance, les cellules T régulatrices (Tregs) jouent un rôle primordial dans les deux processus. En effet, notre laboratoire a démontré que l’émergence des cellules tumorales ainsi que l’implantation fœtale s’accompagnent d’une activation forte et rapide des Tregs. Cette observation prend tout son sens quand l’élimination de ces Tregs a conduit à un rejet immunitaire de la tumeur ou du foetus. Afin de valider ces observations, nous avons mis au point une étude transcriptomique comparative entre le microenvironnement tumoral et l’interface foeto-maternelle. Cela a révélé une forte similarité et une importante diminution des voies de signalisation immunologiques associées à la présentation antigénique et à l’activation des cellules T. De plus, des analyses non supervisées ont mis en évidence une coévolution des signatures immunitaires inhibées et cela dés les premiers jours suivant l’implantation des tumeurs ou du foetus. Par ailleurs, l’élimination des Tregs (qui a conduit un rejet de la tumeur ou du foetus) a permis de faire basculer les mêmes signatures immunitaires d’un état d’inhibition à un état d’activation. En définitive, nous pensons que les mécanismes déployés au cours de l’évolution pour protéger les foetus du rejet immunitaire sont détournés afin de favoriser le développement des cellules tumorales. / There are striking similarities between fetus and tumor development. They both require intense cell division, invasion of host tissues and sustained vascularization. Moreover, despite that fetus and tumor express foreign antigens - paternal allo-antigens for fetuses and modified auto-antigens for tumors, they are not rejected by the immune system. Among others, regulatory T cells (Tregs), which are key players in tolerance, appear to play a significant role in both processes. We showed that tumor emergence as well as embryo implantation elicit a strikingly similar brisk Treg response, which functional relevance is supported by the fact that and Treg depletion leads to fetus or tumor immune rejection. Comparison of fetal and tumor microenvironments through transcriptomics revealed strikingly similar and dramatic decrease in expression of multiple immune-related pathways, including antigen presentation and T cell response. Unsupervised analyses highlighted the co-evolution in time of downregulated immune signatures, from the very first days after tumor or embryo implantation. Treg depletion, which leads to fetus or tumor rejection, converted the very same down-modulated immune signatures to up-regulated ones. We propose that means selected during evolution to protect mammalian fetuses are hijacked to license tumor development.
128

Machines à commutation de flux à grand nombre de phases : modèles comportementaux en mode dégradé et élaboration d’une stratégie de commande en vue de l’amélioration de la tolérance aux pannes / Flux switching machines with high phases number : behavioral models in degraded mode and development of a control strategy to improve fault tolerance

Ben Sedrine, Emna 28 November 2014 (has links)
Dans cette thèse, nous nous sommes intéressés à l'étude des modèles comportementaux en mode dégradé des machines pentaphasées à commutation de flux (MCF pentaphasée). Tout d'abord, une comparaison des performances électromagnétiques de cette machine à une machine triphasée équivalente est tout d'abord effectuée. Ces performances sont calculées par la méthode des Eléments Finis (EF 2D) et validées expérimentalement. Les résultats ont montré l'apport de la machine pentaphasée avec un couple massique plus élevé, une ondulation de couple plus faible, un courant de court-circuit plus faible et sa capacité à tolérer des défauts de phases. L'étude de la tolérance aux ouvertures de phases est alors élaborée pour cette MCF pentaphasée. Le comportement de la machine en cas d'ouvertures de phases (du point de vue du couple moyen, de l'ondulation de couple, des pertes Joule et du courant dans le neutre) est présenté. Ensuite, des méthodes de reconfiguration en vue d'améliorer le fonctionnement sont proposées dont une reconfiguration minimale permettant de se retrouver avec une alimentation équivalente à celle d'une machine tétraphasée ou triphasée, un calcul analytique des courants optimaux permettant d'annuler à la fois le courant du neutre et l'ondulation du couple tout en assurant le couple moyen, et finalement une reconfiguration assurée par un algorithme génétique d'optimisation qui est un algorithme non-déterministe multi-objectifs et multi-contraintes. Diverses combinaisons des différents objectifs et contraintes sont, dans ce cadre, effectuées et les courants optimaux sont injectés dans le modèle EF 2D de la machine pour vérifier si les performances ont été améliorées. Le modèle analytique du couple pris en compte dans l'algorithme d'optimisation est alors révisé pour prendre en compte l'influence du mode dégradé. Les différentes solutions du front de Pareto sont analysées et les performances électromagnétiques sont bien améliorées. Cela est vérifié par les calculs EF 2D et suivi d'une validation expérimentale. L'influence des défauts sur les forces magnétiques radiales est également analysée. Dans une seconde partie, l'étude de la tolérance de la machine pentaphasée à commutation de flux aux défauts de courts-circuits est effectuée. Les premières étapes d'isolation des défauts de courts-circuits sont proposées. Par la suite, les courants de courts-circuits, prenant en compte l'effet reluctant de la machine, sont calculés analytiquement et leurs effets sur les performances de la machine sont analysés. Les reconfigurations sont aussi calculées par l'algorithme génétique d'optimisation et les nouvelles références des courants permettent d'améliorer le fonctionnement en mode dégradé. Tous les résultats sont validés par la méthode des EF 2D et expérimentalement. En conclusion, des comparaisons entre la tolérance aux défauts d'ouvertures et de courts-circuits de la machine pentaphasée à commutation de flux sont effectuées et ont permis de conclure quant au fonctionnement de cette machine en modes sain et dégradé avec et sans correction. Les résultats analytiques, numériques et expérimentaux ont montré la bonne efficacité de la commande proposée pour l'amélioration de la tolérance aux défauts d'ouvertures et courts-circuits de phases. / In this thesis, we are interested in the study of a five-phase flux switching permanent magnet machine (five-phase FSPM machine) behavior in healthy and faulty mode. First, a comparison of electromagnetic performances between this machine and an equivalent three-phase machine is carried out. These performances are calculated by a Finite Element (FE 2D) model and validated by experiments. Results showed the five-phase machine contribution with a higher torque density, lower torque ripples, lower short-circuit current and ability to tolerate phases faults. The study of open-circuit tolerance is then developed for this five-phase FSPM. The behavior of the machine (the average torque, torque ripples, copper losses and the current in the neutral) in the case of open-circuit on a single and two adjacent and non-adjacent phases is presented. Then reconfiguration methods to improve the operation are proposed including a minimum reconfiguration allowing to end up with a feeding equivalent to that of a three-phase or a four-phase machine, an analytical calculation of optimal currents to cancel both the neutral current and torque ripples while ensuring the average torque, and finally a reconfiguration performed by a genetic optimization algorithm which is a non-deterministic algorithm multi-objective functions and multi-constraints. In this context, various combinations of different objectives and constraints are proposed and optimal currents are injected into the 2D FE model of the machine to see if performances have been improved. The analytical model of the torque used in the optimization algorithm is then revised to take into account the influence of the degraded mode. Different solutions of Pareto front are analyzed and electromagnetic performances are improved. This is verified by FE 2D calculations and followed by experimental validation. Faults impact on the radial magnetic forces is also analyzed. In the second part of this work, the study of the five-phase FSPM machine tolerance to short-circuit faults is performed. First steps of the faults isolation are proposed. Thereafter, short-circuit currents, taking into account the reluctance machine impact, are calculated analytically and their effects on machine performances are analyzed. Reconfigurations are also calculated by the genetic algorithm optimization and new references currents improved the degraded mode operation. All results are validated by the FE 2D calculation and experimentally. In conclusion, comparisons between fault-tolerance to phases openings and short-circuits of the five-phase FSPM machine are performed. Results led to conclude regarding the operation of this machine in healthy and degraded modes with and without correction. Analytical, numerical and experimental results showed good efficiency of the proposed control to improve fault-tolerance to phases openings and short-circuits.
129

Adaptive NoC for reconfigurable SoC / NoC adaptatif pour SoC reconfigurable

Pratomo, Istas 08 November 2013 (has links)
Les systèmes embarqués sur puce modernes intègrent des milliards de transistors et des composants intégrés hétérogènes pour fournir toutes les fonctionnalités requises par les applications courantes. La solution support de la communication dans ce cadre s'appuie sur la notion de réseau sur puce (NoC pour network on chip). Les principaux objectifs de la conception d'un NoC sont d'obtenir des performances élevées, pour un coût d'implémentation (notamment en surface et en consommation électrique) le plus faible possible. Ainsi, le concepteur de NoC doit tenir compte de l'impact des paramètres du NoC sur le compromis entre les performances du réseau et la taille de silicium requis pour son implémentation. L'utilisation de la technologie submicronique profonde amène des phénomènes de variabilité et de vieillissement qui causes des événements singuliers uniques (SEU pour Single Event Upset). Un SEU provoque le changement d'état d'un bit qui provoque l'échec de la transmission d'une donnée dans un NoC. La mise en œuvre de routage supportant la tolérance aux fautes est donc nécessaire. Dans cette thèse, nous proposons dans un premier temps, une évaluation de l'impact des paramètres de conception des NoC sur ses performances. Le résultat permet de guider le concepteur dans ses choix et le réglage des paramètres du réseau permettant d'éviter la dégradation de ses performances. Deuxièmement, nous avons proposé de nouveaux algorithmes de routage adaptatifs tolérants aux pannes pour un réseaux maillé 2D appelé Gradient et pour un réseaux maillé 3D appelé Diagonal. Ces algorithmes s'adaptent et proposent des séquences de chemins alternatifs pour les paquets lorsque le chemin principal est fautif. Nous avons ainsi évalué le coût d'implémentation de Gradient sur un FPGA actuel. Tous ces travaux ont été validés et caractérisée par simulation et mis en œuvre en FPGA. Les résultats fournissent la comparaison des performances de nos algorithmes avec les algorithmes de l'état de l'art. / Chips will be designed with billions of transistors and heterogeneous components integrated to provide full functionality of a current application for embedded system. These applications also require highly parallel and flexible communicating architecture through a regular interconnection network. The emerging solution that can fulfill this requirement is Network-on-Chips (NoCs). Designing an ideal NoC with high throughput, low latency, minimum using resources, minimum power consumption and small area size are very time consuming. Each application required different levels of QoS such as minimum level throughput delay and jitter. In this thesis, firstly, we proposed an evaluation of the impact of design parameters on performance of NoC. We evaluate the impact of NoC design parameters on the performances of an adaptive NoCs. The objective is to evaluate how big the impact of upgrading the value on performances. The result shows the accuracy of choosing and adjusting the network parameters can avoid performance degradation. It can be considered as the control mechanism in an adaptive NoC to avoid the degradation of QoS NoC. The use of deep sub-micron technology in embedded system and its variability process cause Single Event Upsets (SEU) and ''aging'' the circuit. SEU and aging of circuit is the major problem that cause the failure on transmitting the packet in a NoC. Implementing fault-tolerant routing techniques in NoC switching instead of adding virtual channel is the best solution to avoid the fault in NoC. Communication performance of a NoC is depends heavily on the routing algorithm. An adaptive routing algorithm such as fault-tolerant has been proposed for deadlock avoidance and load balancing. This thesis proposed a novel adaptive fault-tolerant routing algorithm for 2D mesh called Gradient and for 3D mesh called Diagonal. Both algorithms consider sequences of alternative paths for packets when the main path fails. The proposed algorithm tolerates faults in worst condition traffic in NoCs. The number of hops, the number of alternative paths, latency and throughput in faulty network are determined and compared with other 2D mesh routing algorithms. Finally, we implemented Gradient routing algorithm into FPGA. All these work were validated and characterized through simulation and implemented into FPGA. The results provide the comparison performance between proposed method with existing related method using some scenarios.
130

Codage d’algorithmes distribués d’agents mobiles à l’aide de calculs locaux

Haddar, Mohamed Amine 20 December 2011 (has links)
De nos jours, les systèmes distribués doivent répondre de plus en plus à de nouvelles exigences de qualité de service et à l’émergence de nouvelles applications comme le calcul sur la grille ; ce qui généralement se traduit par des impératifs de dynamicité et de mobilité. Si des solutions satisfaisantes existent pour des environnements distribués statiques, elles sont inadaptées dans le cas où le système devient dynamique (mobilité, évolution, modification de composants). En effet, la conception d’algorithmes distribués est traditionnellement fondée sur l’hypothèse d’un réseau dont la topologie est statique. Notre objectif dans cette thèse est de définir et d’étudier un modèle à base d’agents mobiles pour l’implémentation et l’exécution d’algorithmes distribués codés par des calculs locaux.Ce modèle doit tenir en compte des pannes qui peuvent altérer le fonctionnement du système distribué. Il doit aussi améliorer les performances vis-à-vis des modèles classiques (à envoi de messages) / Today, distributed systems must satisfy increasinglynew requirements for quality of service and the emergence ofnew applications such as Grid Computing, whichgenerally results in requirements of dynamicity andmobility. If satisfactory solutions exist forstatic distributed environments, they are inadequate in the casewhere the system becomes dynamic (mobility, evolution,components change). Indeed, the design of distributed algorithms istraditionally based on the assumption of a network whosetopology is static. Our goal, in this thesis, is to defineand study a model based on mobile agents to implementand execute distributed algorithms encoded by local computations.This model must take into account failures that can alter thethe distributed system operation. It should also improveperformance vis-à-vis the classical models (message passing systems)

Page generated in 0.0463 seconds