• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 95
  • 29
  • 1
  • 1
  • Tagged with
  • 298
  • 131
  • 65
  • 53
  • 48
  • 48
  • 37
  • 37
  • 36
  • 31
  • 31
  • 29
  • 29
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Identification du profil des utilisateurs d’un hypermédia encyclopédique à l’aide de classifieurs basés sur des dissimilarités : création d’un composant d’un système expert pour Hypergéo / Identification of hypermedia encyclopedic user's profile using classifiers based on dissimilarities : creating a component of an expert system for Hypergeo

Abou Latif, Firas 08 July 2011 (has links)
L’objectif de cette thèse est d’identifier le profil d’utilisateur d’un hypermédia afin de l’adapter. Ceprofil est déterminé en utilisant des algorithmes d’apprentissage supervisé comme le SVM.Le modèle d’utilisateur est l’un des composants essentiels des hypermédias adaptatifs. Une des façons de caractériser ce modèle est d’associer l’utilisateur à un profil. Le Web Usage Mining (WUM)identifie ce profil à l’aide des traces de navigation. Toutefois, ces techniques ne fonctionnent généralement que sur de gros volumes de données. Dans le cadre de volumes de données réduits, nous proposons d’utiliser la structure et le contenu de l’hypermédia. Pour cela, nous avons utilisé des algorithmes d’apprentissage à noyau pour lesquels nous avons défini l’élément clé qu’est la mesure de similarité entre traces basée sur une « distance » entre documents du site. Notre approche a été validée à l’aide de données synthétiques puis à l’aide de données issues des traces des utilisateurs du site Hypergéo (site webencyclopédique spécialisé dans la géographie). Nos résultats ont été comparés à ceux obtenus à l’aide d’une des techniques du WUM (l’algorithme des motifs caractéristiques). Finalement, nos propositions pour identifier les profils a posteriori ont permis de mettre en évidence cinq profils. En appliquant une« distance sémantique » entre documents, les utilisateurs d’Hypergéo ont été classés correctement selon leurs centres d’intérêt. / This thesis is devoted to identify the profile of hypermedia user, then to adapt it according to user’s profile. This profile is found by using supervised learning algorithm like SVM. The user model is one of the essential components of adaptive hypermedia. One way to characterize this model is to associate a user to a profile. Web Usage Mining (WUM) identifies this profile from traces. However, these techniques usually operate on large mass of data. In the case when not enough data are available, we propose to use the structure and the content of the hypermedia. Hence, we used supervised kernel learning algorithms for which we have defined the measure of similarity between traces based on a “distance” between documents of the site. Our approach was validated using synthetic data and then using real data from the traces of Hypergéo users, Hypergéo is an encyclopedic website specialized in geography. Our results were compared with those obtained using a techniques of WUM(the algorithm of characteristic patterns). Finally, our proposals to identify the profiles a posteriori led usto highlight five profiles. Hypergéo users are classified according to their interests when the “semantic distance” between documents is applied.
182

Commande des systèmes électriques : machines synchrones et convertisseurs multi-niveaux / Electrical systems control : synchronous machines and multi-level converters

Laamiri, Saber 27 September 2019 (has links)
Ce travail de thèse a pour objectifs l'observation et la commande des convertisseurs multi-niveaux et la commande des machines synchrones. Pour satisfaire le besoin des clients de l’entreprise GS Maintenance et pour des raisons de maintenance, une commande en courant de la machine synchrone est implémentée expérimentalement. L'accent est mis sur le démarrage de ce type de machines car durant ces phases de fonctionnement (basses vitesses), les forces électromotrices sont faibles pour assurer la commutation des thyristors de l'onduleur. Ensuite, l'entreprise a proposé à ses clients un convertisseur statique en moyenne tension afin de garder sa place dans la variation de vitesse. Dans ce cadre, une commande en tension moderne de la machine synchrone alimentée par un onduleur de tension est proposée et validée par des résultats de simulation. Compte tenu du fonctionnement en moyenne tension, les convertisseurs multi-niveaux ont été retenus par l’entreprise. Dans ce cadre, le convertisseur multicellulaire série est proposé dans ce travail et une commande directe basée sur la théorie des modes glissants et le principe de priorité est conçue pour assurer l'équilibrage des tensions flottantes du convertisseur. Cette commande a été généralisée pour un nombre quelconque de cellules du convertisseur et validée par des résultats de simulation pour un nombre de cellules égal à 7. Pour réduire le coût et l'encombrement du convertisseur, un observateur adaptatif des tensions flottantes est proposé en prenant en compte les états de commutation du convertisseur. Cet observateur est ensuite associé à la commande directe en boucle fermée. Un banc d'essai du convertisseur à 3 cellules est réalisé au sein de l’entreprise et l’ensemble « observateur + commande directe » est testé expérimentalement sur ce banc. / This PhD thesis aims to the observation and control of multilevel converters and the synchronous machines control. To satisfy the needs of GS Maintenance's customers and for maintenance reasons, a control strategy for a current fed self controlled synchronous machine is validated by experiments tests. The proposed strategy focus on a very low speed because the machine counter electromotive force is insufficient for inverter thyristors switching. Recently, the company proposed for its customers a power converter with medium voltage to keep its place in the speed variation. So, a modern voltage control of the synchronous machine fed by a voltage inverter is proposed and validated by simulation results. Medium voltage operation encouraged the company to choose the multi-level converter. Then, the flying capacitor converter is proposed in this work and a direct control based on the sliding mode theory and the priority principle is designed to guarantee the voltage balance. This control strategy has been generalized for any number of cells of the converter and validated by simulation results for a 7 cells converter. To reduce the cost and complexity of the converter, an adaptive observer floating voltages is proposed by taking into account the switching states of the converter. This observer is then associated with the direct control in closed loop. A test bench of a 3 cells converter is set up in the company. Experimental tests of « observer based direct control » are then conducted on this test bench.
183

Oubli, sommeil et plasticité synaptique : une approche électrophysiologique in vivo chez le rat / Forgetting, Sleep and Synaptic Plasticity : an in vivo electrophysiological study in the rat

Missaire, Mégane 11 October 2019 (has links)
L'oubli est une perte temporaire ou permanente de mémoire, que l'on perçoit souvent de manière déplaisante lorsqu'elle nous empêche d'accéder à un savoir que l'on a acquis. Cependant, des découvertes récentes suggèrent que l'oubli peut aussi être un processus adaptatif permettant d'optimiser notre mémoire, en effaçant des informations non pertinentes susceptibles d'interférer avec le stockage ou le rappel de nouvelles informations. Ainsi, l'oubli adaptatif est particulièrement essentiel au fonctionnement de notre mémoire à court terme ou mémoire de travail (MT), car les informations qui y sont stockées doivent être oubliées une fois utilisées. A l'inverse, des informations peuvent être stockées pendant toute une vie dans la mémoire à long terme ou mémoire de référence (MR) chez l'animal. Les mécanismes cellulaires et moléculaires sous-tendant le stockage des informations en mémoire mais également leur oubli adaptatif restent mal connus. Au cours de cette thèse, nous avons adopté une approche comparative et utilisé trois tâches comportementales chez le rat au sein d’un même labyrinthe radial : une tâche de MR et deux tâches de MT impliquant un oubli adaptatif plus ou moins efficace. Nous avons étudié la transmission synaptique à la synapse entre le cortex entorhinal et le gyrus denté (voie d’entrée de l’hippocampe, structure clé de la mémoire) entre les deux jours d’apprentissage de ces trois tâches. Nous avons montré que la consolidation mnésique (en MR) induit un phénomène de potentialisation synaptique à long terme (proche d'une LTP), comme attendu d’après la littérature. A l'inverse, nous avons montré pour la première fois que l’oubli adaptatif en MT induirait une dépression synaptique à long terme. De plus, de nombreuses études suggèrent l’implication du sommeil dans la mémoire, mais le rôle des différentes phases de sommeil dans la consolidation mnésique ainsi que leur rôle dans l’oubli adaptatif reste ambigu. Nous avons donc également réalisé des enregistrements polysomnographiques (entre les deux jours des tâches), afin de quantifier la durée des états sommeil et la puissance des oscillations cérébrales. Nous avons ainsi confirmé le rôle du sommeil paradoxal, et plus particulièrement de ses oscillations gamma, pour la consolidation mnésique en MR. A l’inverse, l’oubli adaptatif en MT serait favorisé par les oscillations lentes du sommeil lent. Ces résultats représentent une contribution significative non seulement aux mécanismes neuronaux sous-tendant la mémoire et l’oubli adaptatif, mais également aux modulations de ces mécanismes par le sommeil. Nous avons donc montré que la consolidation mnésique induit un phénomène physiologique de potentialisation synaptique proche d'une LTP. Or l’induction artificielle de LTP par stimulation tétanique est considérée comme un modèle cellulaire de la mémoire. Notre second objectif a été d'évaluer l'impact de la modulation des états de sommeil sur une LTP, cette-fois-ci induite artificiellement (dans les mêmes conditions à la même synapse chez le rat vigile). Nous voulions ainsi comparer l'effet de la modulation du sommeil sur une potentialisation physiologique (après apprentissage) ou sur une LTP artificielle. Nous avons montré de nombreuses similitudes entre ces deux situations de potentialisation synaptique, notamment en ce qui concerne le rôle favorable du sommeil paradoxal, ce qui confirme l’intérêt de la LTP artificielle pour l’étude de la mémoire. Enfin, notre étude montre que non seulement le sommeil, mais également les oscillations de l'éveil contribuent à la mémoire et l’oubli. Nous avons analysé les oscillations locales dans le gyrus denté au cours des trois tâches comportementales déjà décrites. L'importante résolution spatiale et temporelle de cette analyse nous a permis d'identifier l'implication de certaines oscillations locales à des moments cruciaux de prise de décision dans le labyrinthe, au cours de l'encodage et du rappel d'informations stockées en MR ou en MT / Forgetting is a temporary or permanent loss of memory, often perceived as deleterious to our cognitive abilities, especially when it prevents us from accessing information we previously acquired. However, recent studies in Neurosciences suggest that forgetting could also be an adaptive phenomenon that would optimize memory function by erasing non relevant information, that could otherwise interfere with the storage or recall of new information. Therefore, adaptive forgetting would particularly be necessary for daily activities relying on short-term or working memory (WM), as information temporarily stored in WM need to be forgotten once used, so that this temporary information does not interfere in the future with the storage and recall of newer information. On the contrary, information can be stored for a lifetime in long-term or reference memory (RM) in animals. The molecular and cellular mechanisms underlying memory storage of information, but also adaptive forgetting, are still unclear. During this thesis, we used a comparative approach by training rats in three different behavioral tasks in the same radial maze: one RM task and two WM tasks involving a more or less effective adaptive forgetting process of previously stored information. We studied synaptic transmission at the synapse between the entorhinal cortex and the dentate gyrus (gating hippocampus, a key structure for memory) between two days of training in these three tasks. Our results show that memory consolidation (in RM) induces a form of long-term potentiation (LTP-like), confirming previous published work from the literature. However, we showed for the first time that adaptive forgetting in WM could trigger long-term synaptic depression. Moreover, numerous studies suggest that sleep is important for optimal memory processing, but the role of the different sleep phases in memory consolidation and in adaptive forgetting remains to be elucidated. We thus also performed polysomnographic recordings (between the two trainings days in the three behavioral tasks), in order to measure sleep state durations and sleep oscillations associated with these processes. Our results confirm the essential role of paradoxical sleep, and more specifically gamma oscillations during this state, for memory consolidation in RM. On the contrary, we also found that adaptive forgetting in WM would benefit from slow oscillations during slow wave sleep. We believe that these results contribute significantly to our understanding of neuronal mechanisms underlying memory and forgetting, especially concerning the modulation of these mechanisms by the different sleep states following training. On the one hand, we thus here showed that memory consolidation induces an LTP-like physiological phenomenon. On the other hand, the induction of an artificial form of LTP by tetanic stimulation is considered a cellular model of memory. Our second goal was to assess the modulation of an artificial LTP (at the same synapse, in the same conditions, on freely-moving rats) by sleep states. We also wanted to compare the impact of sleep states on a physiological LTP-like process (after learning) or on an artificial LTP. Our results showed many similarities between these two situations of synaptic potentiation, in particular concerning the positive role of paradoxical sleep, confirming the relevance of artificial LTP as a model to study memory processes. Finally, our study shows that not only sleep, but also oscillations during waking, could contribute to memory and forgetting. We therefore analyzed local spontaneous oscillations in the dentate gyrus while rats were performing the three behavioral tasks previously described. The high spatial and temporal resolution of this analysis allowed us to show the role of different local spontaneous oscillations at critical moments of training in the maze, in particular during decision making, and during encoding or retrieval of information stored in RM or WM
184

Application du codage réseau dans l'environnement sans fil : conditions de codage et contrôle de redondance adaptatif / Application of network coding in wireless networks : coding conditions and adaptive redundancy control

Vu, Thuong Van 14 April 2014 (has links)
Depuis 2001, le codage réseau a devenu une technique de communication qui permet des meilleures performances réseaux. Au lieu de relayer les paquets séparément, le codage réseau permet aux noeuds réseaux de combiner plusieurs paquets natifs en un seul paquet codé. Le réseau peut réduire le nombre de transmissions, réduire le temps de transfert et augmenter le débit de transmission. Le codage réseau ne suit pas l'hypothèse dans laquelle l'information reste séparée et invariable dans chaque paquet de la source à la destination. Dans le codage réseau, les informations transportées dans les paquets ne doivent pas être endommagées mais elles peuvent être mixées et transformées. Dans le contexte de cette thèse, nous contribuons dans deux directions: l'augmentation de la capacité du réseau et la fiabilité de la transmission contre les erreurs aléatoires. Pour augmenter la capacité du réseau, nous avons défini des nouvelles conditions de codage dans le codage réseau inter-flux. Pour fournir la fiabilité de la transmission, nous avons proposé de nouveaux protocoles de codage réseau. Les résultats de simulations via NS-2 ont montré les améliorations importantes des performances. / Since its first introduction in 2001, network coding has gained a significant attention from the research communities in the need of improving the way of communication in computer networks. In short, network coding is a technique which allows the nodes to combine several native packets into one coded packet for transmission (i.e, coding packets) instead of simply forwarding packets one by one. With network coding, a network can save the number of transmissions to reduce data transfer time and increase throughput. This breaks the great assumption about keeping information separate and whole. Information must not be tampered but it can be mixed, and transformed. In the scope of the thesis, we focus on two main benefits of network coding: throughput improvement and transmission reliability against random losses. For the throughput improvement, we use inter-flow network coding and extend the coding conditions. For transmission reliability, we use intra-flow network coding and suggest new coding schemes. The obtained results via NS-2 simulations are quite promising.
185

Décisions multicritères dans les réseaux de télécommunications autonomes / Multicriteria decision making in autonomous networks

Aissanou, Farouk 19 June 2012 (has links)
Les réseaux de données actuels sont des entités complexes qui opèrent dans des environnements dynamiques et hétérogènes. L'architecture et les protocoles de ces réseaux doivent faire face à plusieurs défis, notamment l'adaptation dynamique et la prise de décisions autonome en présence de plusieurs critères, souvent contradictoires, tels que le délai, le taux de perte, la gigue, l'énergie, etc. Cependant, les problèmes de décision multicritère ont généralement de multiples solutions. Ces problèmes sont résolus par des méthodes qui utilisent des paramètres dont les choix ont des conséquences difficiles à prévoir. De ce fait, la plupart des méthodes de décision multicritère proposées dans la littérature supposent la présence d'un décideur qui guide le processus de décision. Enfin, le choix des paramètres suppose souvent une interactivité avec le décideur, ce qui est difficile, voire impossible, à envisager dans un contexte autonome. Dans cette thèse, nous proposons une nouvelle méthode de décision multicritère adaptée aux systèmes autonomes en général et aux réseaux autonomes en particulier. La méthode de décision multicritère de type ``poupée russe'' que nous introduisons utilise un ensemble de boîtes de qualité englobantes, définies dans l'espace des critères, afin d'estimer une large gamme de fonctions d'utilité. D'une part, la méthode proposée s'adapte au caractère dynamique des réseaux autonomes, afin de maximiser la satisfaction des utilisateurs. D'autre part, elle utilise des paramètres qui sont soit directement déduits de faits objectifs, tels que des normes ou spécifications techniques, soit obtenus à l'aide d'une expérience de type MOS (Mean Opinion Score) au moyen d'une méthode de classification automatique. Nous avons testé les performances de la méthode de la poupée russe sur un cas pratique de routage dans les réseaux ad hoc sans fil. Les expérimentations ont montré que le routage réalisé avec la méthode de la poupée russe est toujours meilleur ou similaire à celui de la méthode de la somme pondérée qui est largement utilisée. Cela est dû à la capacité d'adaptation de la décision offerte par cette nouvelle méthode de décision multicritère / Today's data networks are complex entities that operate in dynamic and heterogeneous environments. The architecture and protocols of these networks have to face several challenges such as dynamic adaptation and autonomous decision-making in the presence of several, often conflicting, criteria such as delay, loss rate, jitter, energy, etc. However, multicriteria decision making problems usually have multiple solutions. These problems are solved by methods that use parameters whose choices have consequences difficult to predict. Thus, most multicriteria decision making methods proposed in the literature assume the presence of a decision maker who guides the decision process. Finally, the choice of parameter values often involves an interaction with the decision maker, which is difficult or impossible to do in an autonomous context. In this thesis, we propose a new multicriteria decision making method suitable for autonomous systems in general and autonomous networks in particular. The Russian doll like method we propose uses a set of nested quality boxes (like Russian dolls) defined in the criteria space, in order to approximate a wide range of utility functions. First, the proposed method adapts to the dynamic nature of autonomous networks in order to maximize user satisfaction. Second, it uses parameters that are directly deduced from objective facts such as technical standards or specifications, or obtained from a MOS (Mean Opinion Score) experiment using an automatic classification method. We tested the performance of the Russian doll like method in a case of routing in wireless ad hoc networks. Experiments have shown that routing done with the Russian doll like method is always better or similar to the one done by the weighted sum method which is widely used. This is due to the adaptation ability of the decision provided by this new multicriteria decision making method
186

On control and estimation problems in antilock braking systems / Quelques problèmes de commande et d'estimation liés aux systèmes d'antiblocage des roues

Aguado rojas, Missie María del Rocío 14 June 2019 (has links)
Cette thèse aborde trois problèmes liés à l’ABS dans le cadre de la dynamique de la roue : l’estimation de la rigidité de freinage étendue (XBS) des pneus lors du freinage d’urgence, la commande de l’ABS basée sur l’estimation de l’XBS, et l’estimation de la vitesse et de l’accélération angulaires de la roue à partir des mesures provenant d’un codeur avec des imperfections. L’objectif général de ce travail est de développer des outils visant à améliorer la performance des systèmes de freinage, en utilisant des techniques adaptées de l'automatique non linéaire. La première partie de la thèse est consacrée à la construction d’un observateur adaptatif commuté pour l’XBS, c’est-à-dire un observateur adaptatif dont les gains d’estimation commutent entre deux valeurs possibles en fonction du signe de la sortie mesurée du système. La stabilité de l’observateur est analysée en utilisant des outils pour des systèmes commutés et en cascade, ainsi que des concepts tels qu’excitation permanente et transformations singulières d’échelle de temps. La deuxième partie de la thèse est dédiée à la conception d’une loi de commande pour l’ABS. L’objectif de contrôle est formulé en termes de l’XBS et une loi de commande hybride est conçue afin de faire en sorte que les trajectoires du système satisfassent les conditions requises pour l’estimation de l’XBS. La stabilité du contrôleur est analysée en utilisant l'application de Poincaré. La troisième partie de la thèse aborde la construction d’un algorithme pour estimer la vitesse et l’accélération angulaires de la roue et éliminer des perturbations qui sont introduites par les imperfections du codeur, et dont l’amplitude et la fréquence sont une fonction de la position, la vitesse, et l’accélération angulaires (réelles) de la roue. L’algorithme est basé sur la méthode connue comme « time-stamping algorithm », ainsi que sur des techniques de filtrage est d’estimation de paramètres. Des essais expérimentaux et des simulations numériques illustrent la performance des algorithmes d’estimation et de contrôle présentés dans cette thèse. Dans tous les cas nos résultats sont comparés par rapport à l’état de l’art. / This thesis addresses three problems related to the antilock braking system (ABS) in the context of the wheel dynamics: the estimation of the tyre extended braking stiffness (XBS) during an emergency braking situation, the control of the ABS based on the estimation of the XBS, and the estimation of the angular velocity and acceleration of the wheel from the measurements of an incremental encoder with imperfections. The general objective of this work is to develop tools aimed at improving the performance of braking systems by using techniques adapted from nonlinear control theory. The first part of the manuscript is devoted to the construction of a switched adaptive observer for the XBS, that is, an adaptive observer whose estimation gains switch between two possible values based on the sign of the system’s measured output. The stability of the observer is analyzed using tools for switched and cascaded systems, as well as concepts such as persistency of excitation and singular time-scale transformations. The second part of the manuscript is dedicated to the design of a control algorithm for the ABS. The control objective is formulated in terms of the XBS and a hybrid controller is designed so that the trajectories of the system satisfy the conditions required for the estimation of the XBS. The stability of the controller is analyzed using the Poincaré map. The third part of the manuscript focuses on the construction of an algorithm to estimate angular velocity and acceleration of the wheel and remove perturbations which are introduced by the encoder imperfections and whose amplitude and frequency are a function of the wheel's (real) position, velocity, and acceleration. The algorithm is based on the method known as time-stamping algorithm, as well as filtering and parameter estimation techniques. Experimental tests and numerical simulations illustrate the performance of the estimation and control algorithms presented in this thesis. In all cases our results are compared with respect to the state of the art.
187

The Immune Modulation Role of Low Dosage of Cyclosporin-A (LdCsA) in the Antitumor Response of the Adaptive Immune System / Le rôle de modulation de la cyclosporine-A immunitaire à faible dosage dans la réponse antitumorale du système immunitaire adaptatif

Flores Torres, Camila 26 June 2019 (has links)
La reconnaissance des cellules tumorales par le système immunitaire, appelée immunosurveillance, permet le contrôle de lacroissance des tumeurs voir dans certains cas leur élimination. Cependant, de nombreuses études d’exploration du système immunitaire dans le contrôle de la réponse antitumorale ont mis en évidence des mécanismes complexes d’échappement à cette immunosurveillance,avec par exemple pour les lymphocytes TCD8+ (LT CD8+) principal acteur de cette réponse, un défaut de migration, de reconnaissance des cellules tumorales ou d’activation au sein de la tumeur. Cette inhibition de fonction des LTCD8+, peut être liée à un phénomène appelé exhaustion, lié à l’expression à leur surface de molécules de costimulation inhibitrices telles que PD1, TIM-3, Lag3, CTLA-4. L’interaction de ces récepteurs avec leurs ligands engendre une perte de contrôle de la réponse antitumorale, favorisant alors la progression tumorale. Afin de lever ce phénomène d’exhaustion induit sur les LT CD8+ et restaurer la réponse antitumorale, plusieurs stratégies de traitements, visant à inhiber ces « checkpoints inhibiteurs » ont étédéveloppées. L’effet clé de la ciclosporine-A(CsA) repose sur la modulation de l’activité des lymphocytes T, ce qui explique son rôle dans la prévention du rejet de greffe. Cependant, il reste à déterminer si la CsA exerce d'autres effets sur le système immunitaire.Les évidences scientifiques montrent un effet paradoxal de la faible dosage de cyclosporine-A (fd-CsA). Ces résultats nous ont permis d’émettre l’hypothèse d’un rôle de la fd-CsA dans la modulation de la réponse antitumorale des LT CD8+, Nous avons pu observer à l’inverse, qu’à faible dose de ciclosporine-A, soit une dose équivalente entre 10 et 30 ng/mL, l’expression de PD1 était significativement diminuée à la surface des LT CD8+ activé. En revanche, à cette faible dose, aucun effet significatif sur la diminution d’expression du marqueur d’activation CD69 n’a été observé. Des expériences effectuées in vivo dans le modèle murin de mélanome B16F10 et MCA nous ont par ailleurs permis de montrer une réduction de la croissance tumorale chez les souris traitées par fd-CsA par rapport aux souris non traitées. En utilisant un modèle murin de fibrosarcome MCA, nous avons montré que nous restaurions in vivo une réponse immunitaire antitumorale et qu’un traitement de ces souris par fd-CsA en combinaison avec l’anti PDL-1 permettait une guérison après traitement, alors que l’anti PDL-1 seul n’avait pas d’effet. Cet effet novateur de la fd-CsA permet donc de visualiser de nouvelles stratégies thérapeutiques dans la réponse antitumorale qui pourraient bénéficier aux futurs patientsdiagnostiqués d’un cancer. / The recognition of tumor cells by the immune system, called immunosurveillance, allows the control of tumor growth or in some cases their elimination. However, numerous studies of the immune system in the control of the antitumor response have revealed complex mechanisms by means of which this immunosurveillance can be evaded. Examples of this occurrence are CD8+ T lymphocytes, the main element of this response are defective migration, tumor cell non-recognition or non-activation within the tumor. This inhibition of CD8+ T cell function may be related to a phenomenon called exhaustion, which may be a result of the expression on their surface of inhibitory costimulatory molecules such as PD1, TIM-3, Lag3, CTLA-4. The interaction of these receptors with their ligands causes a loss ofcontrol of the antitumor response, thus promoting tumor progression. To overcome this phenomenon of exhaustion induced in CD8+ T cells and restore the antitumor response, several treatment strategies aimed at inhibiting these "inhibitory checkpoints" have been developed. The key effect of cyclosporin-A (CsA) is modulation of T-cell activity, which explains its role in the prevention of transplantrejection. However, it remains to be determined whether CsA has other effects on the immune system. Preliminary results have allowed us to demonstrate the paradoxical effect of cyclosporin-A (CsA) in the antitumor response. Thus, these unexpected results have allowed us to hypothesize a role for Ld-CsA in modulating the antitumor response of CD8+ Tcells. We observed that Ld-CsA at equivalent dose between 10 and 30 ng/mL, significantly decreased PD1 expression at the activated CD8+ T cell surface. Furthermore, at this lowdose, no significant effect was observed on the expression of the CD69 activation marker. We have also shown that Ld-CsA increases the vaccine response in vivo. In vivo experiments with the murine B16F10 melanoma model and MCA fibrosarcoma have also shown areduction in tumor growth in mice treated with d-CsA compared to untreated mice. More recently, using a mouse model of MCA-OVAfibrosarcoma, we have shown that we can restore the in-vivo antitumor immune response and that the treatment of these mice by Ld-CsAin combination with the anti PDL-1, allowed tumor regression, whereas anti PDL-1 alone had no effect. This novel effect of Ld-CsA allows us therefore to visualize new therapeutic strategies for the antitumor response which may benefit future patients diagnosed with cancer.
188

Randomized Clinical Trials in Oncology with Rare Diseases or Rare Biomarker-based Subtypes / Essais cliniques randomisés en oncologie dans les maladies rares ou en présence de sous-types rares identifiés par biomarqueurs

Bayar, Mohamed Amine 29 November 2019 (has links)
Le design standard des essais randomisés de phase III suppose le recrutement d'un grand nombre de patients pour assurer un risque α de 0.025 unilatéral et une puissance d'au moins 80%. Ceci s'avérer difficile dans les maladies rares, ou encore si le traitement cible une population spécifique définie par un sous-type moléculaire rare. Nous avons évalué par simulation la performance d'une série d'essais randomisés. Au terme de chaque essai, s'il est associé à une amélioration significative, le traitement expérimental devient le contrôle de l'essai suivant. Les designs ont été évalués pour différents taux de recrutement, différentes sévérités de la maladie, et différentes distributions hypothétiques des effets d'un futur traitement. Nous avons montré, que sous des hypothèses raisonnables, une série d'essais de plus petite taille et avec un risque α relâché est associée à un plus grand bénéfice à long terme que deux essais de design standard. Nous avons enrichi cette approche avec des designs plus flexibles incluant des analyses intermédiaires d'efficacité et/ou futilité, et des designs adaptatifs à trois bras avec sélection de traitement. Nous avons montré qu'une analyse intermédiaire avec une règle d'arrêt pour futilité était associé à un gain supplémentaire et à une meilleure maitrise du risque, contrairement aux règles d'arrêt pour efficacité qui ne permettent pas d'améliorer la performance. Les séries d'essais à trois bras sont systématiquement plus performants que les séries d'essais à deux bras. Dans la troisième de la thèse, nous avons étudié les essais randomisés évaluant un algorithme de traitement plutôt que l'efficacité d'un seul traitement. Le traitement expérimental est déterminé selon la mutation. Nous avons comparé deux méthodes basées sur le modèles de Cox à effets aléatoires pour l'estimation de l'effet traitement dans chaque mutation : Maximum Integrated Partial Likellihood (MIPL) en utilisant le package coxme et Maximum H-Likelihood (MHL) en utilisant le package frailtyHL. La performance de la méthode MIPL est légèrement meilleure. En présence d'un effet traitement hétérogène, les deux méthodes sousestime l'effet dans les mutations avec un large effet, et le surestime dans les mutations avec un modeste effet. / Large sample sizes are required in randomized trials designed to meet typical one-sided α-level of 0.025 and at least 80% power. This may be unachievable in a reasonable time frame even with international collaborations. It is either because the medical condition is rare, or because the trial focuses on an uncommon subset of patients with a rare molecular subtype where the treatment tested is deemed relevant. We simulated a series of two-arm superiority trials over a long research horizon (15 years). Within the series of trials, the treatment selected after each trial becomes the control treatment of the next one. Different disease severities, accrual rates, and hypotheses of how treatments improve over time were considered. We showed that compared with two larger trials with the typical one-sided α-level of 0.025, performing a series of small trials with relaxed α-levels leads on average to larger survival benefits over a long research horizon, but also to higher risk of selecting a worse treatment at the end of the research period. We then extended this framework with more 'flexible' designs including interim analyses for futility and/or efficacy, and three-arm adaptive designs with treatment selection at interim. We showed that including an interim analysis with a futility rule is associated with an additional survival gain and a better risk control as compared to series with no interim analysis. Including an interim analysis for efficacy yields almost no additional gain. Series based on three-arm trials are associated with a systematic improvement of the survival gain and the risk control as compared to series of two-arm trials. In the third part of the thesis, we examined the issue of randomized trials evaluating a treatment algorithm instead of a single drugs' efficacy. The treatment in the experimental group depends on the mutation, unlike the control group. We evaluated two methods based on the Cox frailty model to estimate the treatment effect in each mutation: Maximum Integrated Partial Likellihood (MIPL) using package coxme and Maximum H-Likelihood (MHL) using package frailtyHL. MIPL method performs slightly better. In presence of a heterogeneous treatment effect, the two methods underestimate the treatment effect in mutations where the treatment effect is large, and overestimates the treatment effect in mutations where the treatment effect is small.
189

Direct Numerical Simulation of bubbles with Adaptive Mesh Refinement with Distributed Algorithms / Simulation numérique directe de bulles sur maillage adaptatif avec algorithmes distribués

Talpaert, Arthur 24 February 2017 (has links)
Ce travail de thèse présente l'implémentation de la simulation d'écoulements diphasiques dans des conditions de réacteurs nucléaires à caloporteur eau, à l'échelle de bulles individuelles. Pour ce faire, nous étudions plusieurs modèles d'écoulements thermohydrauliques et nous focalisons sur une technique de capture d'interface mince entre phases liquide et vapeur. Nous passons ainsi en revue quelques techniques possibles de maillage adaptatif (AMR) et nous fournissons des outils algorithmiques et informatiques adaptés à l'AMR par patchs dont l'objectif localement la précision dans des régions d'intérêt. Plus précisément, nous introduisons un algorithme de génération de patchs conçu dans l'optique du calcul parallèle équilibré. Cette approche nous permet de capturer finement des changements situés à l'interface, comme nous le montrons pour des cas tests d'advection ainsi que pour des modèles avec couplage hyperbolique-elliptique. Les calculs que nous présentons incluent également la simulation du système de Navier-Stokes incompressible qui modélise la déformation de l'interface entre deux fluides non-miscibles. / This PhD work presents the implementation of the simulation of two-phase flows in conditions of water-cooled nuclear reactors, at the scale of individual bubbles. To achieve that, we study several models for Thermal-Hydraulic flows and we focus on a technique for the capture of the thin interface between liquid and vapour phases. We thus review some possible techniques for Adaptive Mesh Refinement (AMR) and provide algorithmic and computational tools adapted to patch-based AMR, which aim is to locally improve the precision in regions of interest. More precisely, we introduce a patch-covering algorithm designed with balanced parallel computing in mind. This approach lets us finely capture changes located at the interface, as we show for advection test cases as well as for models with hyperbolic-elliptic coupling. The computations we present also include the simulation of the incompressible Navier-Stokes system, which models the shape changes of the interface between two non-miscible fluids.
190

Impact detection and classification for safe physical Human-Robot Interaction under uncertainties / Détection et classification d'impact pour l'interaction physique Homme-Robot sûre en présence d'incertitudes

Briquet-Kerestedjian, Nolwenn 10 July 2019 (has links)
La problématique traitée dans cette thèse vise à développer une stratégie efficace de détection et de classification des impacts en présence d'incertitudes de modélisation du robot et de son environnement et en utilisant un nombre minimal de capteurs, notamment en l'absence de capteur d’effort.La première partie de la thèse porte sur la détection d'un impact pouvant avoir lieu à n'importe quel endroit du bras robotique et à n'importe quel moment de sa trajectoire. Les méthodes de détection d’impacts sont généralement basées sur un modèle dynamique du système, ce qui les rend sujettes au compromis entre sensibilité de détection et robustesse aux incertitudes de modélisation. A cet égard, une méthodologie quantitative a d'abord été mise au point pour rendre explicite la contribution des erreurs induites par les incertitudes de modèle. Cette méthodologie a été appliquée à différentes stratégies de détection, basées soit sur une estimation directe du couple extérieur, soit sur l'utilisation d'observateurs de perturbation, dans le cas d’une modélisation parfaitement rigide ou à articulations flexibles. Une comparaison du type et de la structure des erreurs qui en découlent et de leurs conséquences sur la détection d'impacts en a été déduite. Dans une deuxième étape, de nouvelles stratégies de détection d'impacts ont été conçues: les effets dynamiques des impacts sont isolés en déterminant la marge d'erreur maximale due aux incertitudes de modèle à l’aide d’une approche stochastique.Une fois l'impact détecté et afin de déclencher la réaction post-impact du robot la plus appropriée, la deuxième partie de la thèse aborde l'étape de classification. En particulier, la distinction entre un contact intentionnel (l'opérateur interagit intentionnellement avec le robot, par exemple pour reconfigurer la tâche) et un contact non-désiré (un sujet humain heurte accidentellement le robot), ainsi que la localisation du contact sur le robot, est étudiée en utilisant des techniques d'apprentissage supervisé et plus spécifiquement des réseaux de neurones feedforward. La généralisation à plusieurs sujet humains et à différentes trajectoires du robot a été étudiée. / The present thesis aims to develop an efficient strategy for impact detection and classification in the presence of modeling uncertainties of the robot and its environment and using a minimum number of sensors, in particular in the absence of force/torque sensor.The first part of the thesis deals with the detection of an impact that can occur at any location along the robot arm and at any moment during the robot trajectory. Impact detection methods are commonly based on a dynamic model of the system, making them subject to the trade-off between sensitivity of detection and robustness to modeling uncertainties. In this respect, a quantitative methodology has first been developed to make explicit the contribution of the errors induced by model uncertainties. This methodology has been applied to various detection strategies, based either on a direct estimate of the external torque or using disturbance observers, in the perfectly rigid case or in the elastic-joint case. A comparison of the type and structure of the errors involved and their consequences on the impact detection has been deduced. In a second step, novel impact detection strategies have been designed: the dynamic effects of the impacts are isolated by determining the maximal error range due to modeling uncertainties using a stochastic approach.Once the impact has been detected and in order to trigger the most appropriate post-impact robot reaction, the second part of the thesis focuses on the classification step. In particular, the distinction between an intentional contact (the human operator intentionally interacts with the robot, for example to reconfigure the task) and an undesired contact (a human subject accidentally runs into the robot), as well as the localization of the contact on the robot, is investigated using supervised learning techniques and more specifically feedforward neural networks. The challenge of generalizing to several human subjects and robot trajectories has been investigated.

Page generated in 0.079 seconds