• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2775
  • 907
  • 404
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4145
  • 1298
  • 979
  • 902
  • 735
  • 732
  • 700
  • 633
  • 598
  • 577
  • 504
  • 393
  • 385
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
991

Évaluation des effets d'un programme de traitement de groupe pour adolescents agresseurs sexuels

Lagueux, Fabienne January 2006 (has links)
No description available.
992

Les Topoï : de la logique à la sémantique ou des fondements sémantiques de la logique à la naissance de la sémantique / TOPICS

Daoud, Refka 10 December 2018 (has links)
Notre problématique porte sur les liens entre logique et topoï, sémantique et topoï et enfin entre logique et sémantique. Le travail consiste donc à mettre en relief la pérennité de la notion de topos, son évolution et son intégration dans la logique, dans la sémantique et même dans l’informatique. Dès lors, topoï, logique et sémantique sont les trois facettes de cette problématique.L’objet de cette thèse consiste donc à présenter l’histoire des topoï, à cerner leurs propriétés linguistiques. Il consiste aussi à montrer que cette notion est présente dans toutes les approches linguistiques et que la sémantique est l’axe fédérateur de toutes les recherches linguistiques.Nous n’avons pas l’intention de donner une définition nouvelle, mais nous avons essayé de faire la synthèse des caractéristiques principales des topoï et de dresser un tableau des recherches passées et actuelles élaborées sur cette notion.L’approche que nous avons adoptée est constructive et diachronique. Elle a mis en relief l’évolution des topoï, de leurs formes, de leurs sens et de leurs usages. La notion de topoï continue à exister de l’antiquité jusqu’à nos jours, puisqu’elle a des fondements sémantiques, qui sont inhérents à toutes les langues naturelles.Notre travail comporte trois grandes parties. La première expose la conception terminologique de la notion de topoï et son aspect évolutif. Elle met en évidence les différents emplois, les différentes définitions et l’aspect évolutif des topoï. Dans cette première partie, nous avons essayé de dresser à grands traits l’historique de la notion de topoï, l’emploi qui en a été fait par les logiciens, les rhéteurs, les linguistes, les pragmaticiens et les informaticiens.La deuxième est consacrée à la présentation des fondements sémantiques de la logique et des topoï et à la relation de complémentarité de ces trois notions, à savoir logique, sémantique et topoï. Nous avons précisé que la théorie des topoï est une théorie du sens. Et la troisième partie traite les fondements lexicaux des topoï et les exploitations modernes de cette notion, à savoir le traitement automatique, la théorie des cadres et l’ontologie, tout en présentant les différentes théories sémantiques argumentatives. Nous avons présenté/évoqué tout d’abord, « les lieux d’enthymèmes d’Aristote » qui relèvent des quatre lieux principaux déjà évoqués dans la première partie (à savoir la définition, le genre, le propre et l’accident). Ensuite nous avons mis en relief la présence des topoï dès le niveau lexical dans les théories sémantiques argumentatives (théorie des topoï, théories des blocs sémantiques et sémantique des possibles argumentatifs et théorie des prototypes). Nous avons présenté un petit exemple, un échantillon d’extraction de l’information à l’aide de la plateforme NooJ. / Our problematic concerns the links between logic and topoï, semantics and topoï and finally between logic and semantics. The work therefore consists in highlighting the durability of the notion of topos, its evolution and its integration in logic, in semantics and even in computer science. From then on, topoi, logic and semantics are the three facets of this problematic.           The purpose of this thesis is to present the history of topoi, to identify their linguistic properties. It also shows that this notion is present in all linguistic approaches and that semantics is the unifying axis of all linguistic research.It is not our intention to give a new definition, but we have tried to summarize the main characteristics of the topoi and to draw up a table of past and current research developed on this notion.The approach we have adopted is constructive and diachronic. She highlighted the evolution of topoi, their forms, their senses and their uses. The notion of topoi continues to exist from antiquity to the present day, since it has semantic foundations, which are inherent in all natural languages.          Our work has three main parts. The first presents the terminological conception of the concept of topoi and its evolutionary aspect. It highlights the different jobs, the different definitions and the evolutionary aspect of the topoï. In this first part, we tried to sketch out the history of the notion of topoi, the use that has been made by logicians, rhetoricians, linguists, pragmatists and computer scientists.The second is devoted to the presentation of the semantic foundations of logic and topoi and to the complementary relationship of these three notions, namely logic, semantics and topoi. We have specified that the theory of topoi is a theory of meaning. And the third part deals with the lexical foundations of the topoi and the modern exploitation of this notion, namely the automatic processing, the theory of the frames and the ontology, while presenting the different semantic argumentative theories. We have presented / evoked first of all, "the places of Aristotle's enthymemes" which belong to the four principal places already mentioned in the first part (namely the definition, the kind, the clean and the accident). Then we have highlighted the presence of topoi from the lexical level in argumentative semantic theories (theory of topoï, theories of semantic blocks and semantics of argumentative possibilities and theory of prototypes). We presented a small example, a sample extraction of information using the NooJ platform.
993

Exploration de l’interface langage-motricité : le traitement lexical dans la Maladie de Parkinson / Exploration of the motor-language interface : lexical processing in Parkinson's Disease

Letanneux, Alban 04 December 2014 (has links)
Bien que les symptômes moteurs soient prédominants chez les individus atteints de la maladie de Parkinson, les troubles cognitifs font aujourd'hui partie intégrante du spectre symptomatique de la maladie. Depuis peu, des troubles du langage ont été rapportés. Cette étude s'inscrit dans ce contexte et a pour objectif d'explorer l'influence de facteurs cognitivo-linguistiques sur la motricité des patients parkinsoniens. Pour cela, nous avons comparé trois tâches mettant en jeu trois types de motricités différentes chez quatre groupes de sujets : des sujets sains jeunes et âgés ; des patients parkinsoniens avec médication et d'autres patients parkinsoniens sans médication. Ces trois tâches avaient comme caractéristique principale de comparer des mots et des pseudo-mots. La 1ère tâche était une tâche de décision lexicale, la 2ème une tâche de réponse verbale et la 3ème une tâche d'écriture. Dans les 3 tâches, les stimuli étaient vus ou dictés. Nos résultats confirment que les patients parkinsoniens sans médication sont plus lents à réagir que les contrôles âgés. Néanmoins, ce ralentissement ne résulte pas de l'akinésie classiquement décrite. Ces patients parkinsoniens sans médication présentent en effet un trouble auditif majeur et un ralentissement cognitif dans les situations qui nécessitent un traitement lexical. Enfin, ces mêmes patients ont des difficultés à inhiber des processus automatiques qui viennent interférer et ralentir l'exécution de leur tâche motrice. Ces déficits semblent s'estomper sous traitement. Notre étude met ainsi en évidence l'existence de déficits cognitifs qui retardent l'initiation de la réponse motrice des patients parkinsoniens sans médication. / Even though the dominant symptom of Parkinson's disease (PD) is motor impairment, cognitive impairment is currently also considered an important symptom. Recently, language impairment has been reported in PD as well. The present study follows up on recent advances in PD research, and aims to explore the influence of cognitive-linguistic factors on motor control in PD. To this end, we compared three tasks, each of which relies on a different type of motor control. We tested four groups of participants: healthy young participants, healthy elderly participants, PD patients on medication, and PD patients off medication. In all three tasks, the primary comparison was between responses to words and pseudo-words, which were presented visually or auditorily. The first task was a lexical decision task, the second a verbal response task, and the third was a handwriting task. Our results show, in line with previous studies, that off-medication PD patients respond more slowly than healthy control participants. However, this slow-down does not result from akinesia, a well known symptom of PD. Instead, off-medication PD patients show auditory impairment and cognitive slowing in situations that require lexical processing. Moreover, these patients have an additional deficit in inhibiting automatic (lexical) processes, which interfere with the motor task. All of these deficits seem to be reduced by medication. Therefore, our study shows clear evidence for cognitive deficits in PD. These cognitive deficits slow the initiation of a motor response in off-medication PD patients.
994

Contributions au traitement des signaux ultrasonores pour des mesures instantanées en écoulements transitoires / Contribution of ultrasound signal processing for the instantaneous transitory flow measurements

Murgan, Irina 23 November 2017 (has links)
L’objectif de cette thèse est proposer des méthodes de traitement des signaux ultrasonores pour améliorer le calcul des vitesses d’écoulements transitoires à l’intérieur des conduites en mode non intrusive et en conditions complexes de mesure. Par conditions complexes nous entendons des fortes et, respectivement, des basses vitesses d’écoulement ainsi que des mesures en contexte d’un écoulement transitoire ou turbulent. Classiquement, la vitesse de l’écoulement d’un fluide peut être estimée, de manière non intrusive, avec des ultrasons par le biais des débitmètres à temps de transit. Les débitmètres à temps de transit conventionnels sont basés sur l’émission alternée des pulses acoustiques mono-fréquentielles (donc, à bande étroite) et le calcul de la différence absolue entre les temps de vol dans le sens de l’écoulement (direct) et le sens opposé (inverse). La vitesse du fluide (et le débit), ou plutôt la précision de ces grandeurs, reposent principalement sur l’estimation de cette différence. La partie sensible de cette technique est le choix du seuil (en admettant que le signal reçu n’est pas affecté par d’autres phénomènes comme des échos parasites, atténuation excessive ou des effets Doppler) déterminé principalement de façon empirique: au-dessus de 50% ou 80% de la valeur maximale attendue du signal. Des techniques pour automatiser et réduire l’erreur de mesure sont tout à fait envisageables et qui assurent une précision acceptable dans des conditions de mesure presque idéales. Néanmoins, hormis les cas des figures ayant des conditions de mesure idéalisées, il existe plusieurs scénarii où les techniques actuelles sont déficitaires: le désalignement des capteurs, une vitesse d’écoulement trop forte qui conduit à l’effet «flow blow», les écoulements bi-phasiques et/ou la présence de l’effet Doppler. Ces constats, présentés dans le deuxième chapitre du manuscrit, nous ont conduit à envisager, dans le cadre de cette thèse, des axes de recherche qui ont pour objectif commun de fournir les outils de traitement du signal capables de lever les verrous opérationnels. Ainsi, les principes de traitement du signal envisagés pour répondre à cet objectif sont: le principe des signaux à large bande qui confère au système de traitement du signal une résolution plus fine et une meilleure robustesse aux perturbations; le concept de compressive sensing afin de reconstruire les échantillons perdus suite aux interférences au point de réception; le principe de formation de voie et le principe des multi-cordes qui permet d’évaluer le profil de vitesse dans une section de la conduite. / The purpose of this thesis is to propose ultrasonic signal processing methods in order to improve the transitory flow velocity non-intrusive detection through pipes, in complex measurement conditions. By complex measurement conditions, we refer to high or very low flow rates and also to transitory or turbulent flows. Usually, the flow velocity can be non-intrusive estimated, using ultrasonic flow meters based on transit time estimation. Conventional transit time flowmeters are based on the alternating emission of single-frequency acoustic pulses (ie, narrow-band acoustic pulses) and the calculation of the absolute difference between flight times in the direction of flow (direct) and in the opposite direction (reverse). The fluid velocity (and the flow rate), or rather the precision of estimation of these quantities, rest mainly on the estimation of this difference. The sensitive part of this technique is the choice of the threshold (assuming that the received signal is not affected by other phenomena such as echoes, excessive attenuation or Doppler effects) determined mainly empirically: above 50% or 80% of the maximum expected value of the signal. Techniques for reducing measurement errors are quite conceivable and provide acceptable accuracy under almost ideal measurement conditions. However, apart from the case with idealized measurement conditions, there are several scenarios where current techniques are deficient: sensor misalignment, excessive flow velocity which leads to the “flow blow” effect, two-phase flow and / or the presence of the Doppler effect. These facts, presented in the second chapter of the manuscript, led us to consider, within the framework of this thesis, research axes whose common objective are to provide the signal processing tools capable of lifting the operational locks. Thus, the signal processing principles considered to meet this objective are: the principle of wide-band signals which gives the signal processing system a finer resolution and better robustness to disturbances; the concept of compressing sensing in order to reconstruct the missing samples due to interference at the reception point; the principle of beamforming and the principle of multi-paths which makes it possible to evaluate the velocity profile in a pipe section.
995

Optimisation et évaluation des performance en traitement d'image / Optimisation and Performance Evaluation in image registration technique

Mambo, Shadrack 19 October 2018 (has links)
Résumé : Thèse de DoctoratL’importance de l’imagerie médicale comme élément principal dans plusieurs application médicales et diagnostiques de soin de santé est indispensable. L’intégration des données utiles obtenues des diverses images est vitale pour une analyse appropriée de l’information contenues dans ces images sous observation. Pour que ce processus d’intégration réussisse, une procédure appelée recalage d’image est nécessaire.Le but du recalage d’image consiste à aligner deux images afin de trouver une transformation géométrique qui place une des deux images dans la meilleure correspondance spatiale possible avec l’autre image en optimisant un critère de recalage. Les deux images sont dites image cible et image source. Les méthodes de recalage d’image consistent à avoir référencées par des points de contrôle. Ceci est suivi d’une transformation de recalage qui associe les deux images et d’une fonction définie sur base de la mesure de similarité qui a pour but de mesurer la valeur qualitative de proximité ou encore de degré de concordance entre l’image cible et l’image source. Enfin, un optimisateur qui cherche à trouver la transformation optimale au sein du champ de solution de la recherche, est appliqué.Cette recherche présente un algorithme automatique de recalage d’image dont le but est de résoudre le problème du recalage d’image à multiple modes sur une paire des clichés de tomographie par ordinateur (CT) faite sur les poumons. Dans cette méthode, une étude comparative entre la méthode classique d’optimisation par algorithme du gradient à pas fixe et celle de l’algorithme évolutionniste est menée. L’objectif de cette recherche est d’effectuer l’optimisation par des techniques de recalage d’image ainsi qu’évaluer la performance de ces mêmes techniques afin de doter les spécialistes du domaine médical d’une estimation de combien précis et robuste le processus de recalage serait. Les paires des clichés obtenues de la tomographie par ordinateur faite sur les poumons sont recalées en utilisant l’information mutuelle comme mesure de similarité, la transformation affine ainsi que l’interpolation linéaire. Un optimisateur qui recherche la transformation optimale au sein de l’espace de recherche est appliqué afin de minimiser la fonction économique (fonction objectif).Les études de détermination d’un modèle de transformation qui dépend des paramètres de transformation et de l’identification des mesures de similarité basée sur l’intensité du voxel ont été menées. En alignant la transformation avec les points de control, trois modèles de transformation sont comparés. La transformation affine produit la meilleure reconstitution d’image en comparaison aux transformations non réfléchissantes et projectives. Les résultats de cette recherche sont assez comparables à celles rapportées dans le challenge de recherche EMPIRE 10 et sont conformes à la fois aux principes théoriques aussi bien qu’aux applications pratiques.La contribution de cette recherche réside dans son potentiel à améliorer la compréhension scientifique du recalage d’image des organes anatomiques du corps humain. Cette recherche établie ainsi une base pour une recherche avancée sur l’évaluation de la performance des techniques de recalage et la validation des procédures sur d’autres types d’algorithmes et domaines d’application du recalage d’images comme la détection, la communication par satellite, l’ingénierie biomédicale, la robotique, les systèmes d'information géographique (SIG) et de localisation parmi tant d’autres / D’Tech Thesis SummaryThe importance of medical imaging as a core component of several medical application and healthcare diagnosis cannot be over emphasised. Integration of useful data acquired from different images is vital for proper analysis of information contained in the images under observation. For the integration process to be successful, a procedure referred to as image registration is necessary.The purpose of image registration is to align two images in order to find a geometric transformation that brings one image into the best possible spatial correspondence with another image by optimising a registration criterion. The two images are known as the target image and the source image. Image registration methods consist of having the two images referenced with control points. This is followed by a registration transformation that relates the two images and a similarity metric function that aims to measure the qualitative value of closeness or degree of fitness between the target image and the source image. Finally, an optimiser which seeks an optimal transformation inside the defined solution search space is performed.This research presents an automated image registration algorithm for solving multimodal image registration on lung Computer Tomography (CT) scan pairs, where a comparison between regular step gradient descent optimisation technique and evolutionary optimisation was investigated. The aim of this research is to carry out optimisation and performance evaluation of image registration techniques in order to provide medical specialists with estimation on how accurate and robust the registration process is. Lung CT scan pairs are registered using mutual information as a similarity measure, affine transformation and linear interpolation. In order to minimise the cost function, an optimiser, which seeks the optimal transformation inside the defined search space is applied.Determination of a transformation model that depends on transformation parameters and identification of similarity metric based on voxel intensity were carried out. By fitting transformation to control points, three transformation models were compared. Affine transformation produced the best recovered image when compared to non-reflective similarity and projective transformations. The results of this research compares well with documented results from EMPIRE 10 Challenge research and conforms to both theoretical principles as well as practical applications.The contribution of this research is its potential to increase the scientific understanding of image registration of anatomical body organs. It lays a basis for further research in performance evaluation of registration techniques and validation of procedures to other types of algorithms and image registration application areas, such as remote sensing, satellite communication, biomedical engineering, robotics, geographical information systems and mapping, among others
996

Dosimétrie Monte Carlo personnalisée pour la planification et l’évaluation des traitements de radiothérapie interne : développement et application à la radiothérapie interne sélective (SIRT) / Personalized Monte Carlo dosimetry for planning and evaluation of treatments in internal radiation therapy : development and application to the selective internal radiation therapy (SIRT)

Petitguillaume, Alice 25 September 2014 (has links)
Techniques médicales en plein essor suscitant d’importants espoirs thérapeutiques, les radiothérapies internes vectorisées (RIV) consistent à administrer un radiopharmaceutique pour traiter sélectivement les tumeurs. A l’heure actuelle, l’activité injectée au patient est généralement standardisée. Cependant, afin d’établir des relations dose-effet robustes et d’optimiser le traitement en préservant au mieux les tissus sains, une dosimétrie personnalisée doit être réalisée, à l’image des pratiques cliniques existant en radiothérapie externe. Dans ce cadre, l’objectif de la thèse était de développer, à l’aide du logiciel OEDIPE, une méthode de dosimétrie personnalisée reposant sur des calculs Monte Carlo directs. La méthode mise au point permet de calculer la distribution tridimensionnelle des doses absorbées en fonction de l’anatomie du patient, définie à l’aide d’images TDM ou IRM, ainsi que de la biodistribution de l’activité spécifique au patient, définie à partir de données d’émission TEMP ou TEP. Des aspects radiobiologiques, tels que les différences de radiosensibilité et de vitesse de réparation entre les tissus sains et les lésions tumorales, ont également été intégrés par l’intermédiaire du modèle linéaire-quadratique. Cette méthode a été appliquée à la radiothérapie interne sélective (SIRT) qui consiste à injecter des 90Y-microsphères pour traiter sélectivement les cancers hépatiques inopérables. Les distributions des doses absorbées et doses biologiques efficaces (BED) ainsi que les doses biologiques efficaces équivalentes uniformes (EUD) aux lésions hépatiques ont été calculées à partir des distributions d’activité de l’étape d’évaluation aux 99mTc-MAA pour 18 patients traités à l’hôpital européen Georges Pompidou. Ces résultats ont été comparés aux méthodes classiques utilisées en clinique et l’intérêt d’une dosimétrie précise et personnalisée pour la planification de traitement a été étudié. D’une part, la possibilité d’augmenter l’activité de manière personnalisée a été mise en évidence par le calcul de l’activité maximale injectable au patient en fonction de critères de tolérance donnés aux organes à risque. D’autre part, l’utilisation des grandeurs radiobiologiques a également permis d’évaluer l’apport potentiel de protocoles fractionnés en SIRT. L’outil développé peut donc être utilisé comme aide à l’optimisation des plans de traitement. En outre, une étude a été initiée en vue d’améliorer la reconstruction des données post-traitement de la TEMP-90Y. L’évaluation à partir de ces données des doses délivrées lors du traitement pourra permettre, d’une part, de prédire le contrôle tumoral et d’anticiper le risque de toxicité aux tissus sains et, d’autre part, d’établir des relations dose-effet précises pour ces traitements. / Medical techniques in full expansion arousing high therapeutic expectations, targeted radionuclide therapies (TRT) consist of administering a radiopharmaceutical to selectively treat tumors. Nowadays, the activity injected to the patient is generally standardized. However, in order to establish robust dose-effect relationships and to optimize treatments while sparing healthy tissues at best, a personalized dosimetry must be performed, just like actual clinical practice in external beam radiotherapy. In that context, this PhD main objective was to develop, using the OEDIPE software, a methodology for personalized dosimetry based on direct Monte Carlo calculations. The developed method enables to calculate the tridimensional distribution of absorbed doses depending on the patient anatomy, defined from CT or MRI data, and on the patient-specific activity biodistribution, defined from SPECT or PET data. Radiobiological aspects, such as differences in radiosensitivities and repair time constants between tumoral and healthy tissues, have also been integrated through the linear-quadratic model. This methodology has been applied to the selective internal radiation therapy (SIRT) which consists in the injection of 90Y-microspheres to selectively treat unresectable hepatic cancers. Distributions of absorbed doses and biologically effective doses (BED) along with the equivalent uniform biologically effective doses (EUD) to hepatic lesions have been calculated from 99mTc-MAA activity distributions obtained during the evaluation step for 18 patients treated at hôpital européen Georges Pompidou. Those results have been compared to classical methods used in clinics and the interest of accurate and personalized dosimetry for treatment planning has been investigated. On the one hand, the possibility to increase the activity in a personalized way has been highlighted with the calculation of the maximal activity that could be injected to the patient while meeting tolerance criteria on organs at risk. On the other hand, the use of radiobiological quantities has also enabled to evaluate the potential added value of fractionated protocols in SIRT. The developed tool can thus be used as a help for the optimization of treatment plans. Moreover, a study has been initiated to improve the reconstruction of post-treatment data from 90Y-SPECT. The estimation from those data of doses delivered during treatment could allow to predict tumoral control and to anticipate healthy tissues toxicity as well as to establish precise dose-effect relationships for those treatments.
997

Estimation de paramètres physiques à partir de leur description par une base de mesure de très grande dimension / Estimation of physical parameters through their representation by a high dimensional database

Watson, Victor 12 July 2018 (has links)
Cette thèse contribue au développement de diverses méthodes permettant la détermination des paramètres stellaires fondamentaux (température effective, gravité de surface et "métallicité" i.e., la composition chimique globale), ainsi que de la vitesse de rotation projetée (vsini), à partir de l'analyse de spectres à haute résolution. Plusieurs méthodes seront présentées, et leurs performances respectives en terme d'extraction des paramètres fondamentaux seront discutées. Nous mettrons en particulier l'accent sur une mise en œuvre originale de la méthode dite Sliced Inverse Regression (SIR, Watson et al. 2017). / This thesis contributes to the development of various methods for the determination of the stellar fundamental parameters (effective temperature, surface gravity and "metallicity" ie, the overall chemical composition), as well as the projected rotation speed (vsini), from the analysis of high resolution spectra. Several methods will be presented, and their respective performances in terms of extraction of the fundamental parameters will be discussed. In particular, we will focus on an original implementation of the Sliced Inverse Regression method (SIR, Watson et al., 2017).
998

Roles of cellular innate immunity and inflammatory markers in the immune reconstitution syndrome observed during co-infection with tuberculosis in HIV infected patients in Cambodia / Rôles de l'immunité innée cellulaire et marqueurs inflammatoires dans le syndrome de reconstitution immunitaire observé au cours de la co-infection avec la tuberculose chez les patients infectés par le VIH au Cambodge

Nouhin, Janin 19 September 2016 (has links)
Les traitements simultanés des antituberculeux et de thérapie antirétrovirale (ARV) chez les patients co-infectés par le VIH et la tuberculose (TB) peut être compliqué en raison de la survenue du syndrome inflammatoire de reconstitution immunitaire associé à la TB (TB-IRIS) dont le diagnostic est basé sur les manifestations cliniques. La compréhension de l’immunopathologie de TB-IRIS est cruciale pour améliorer le diagnostic et la prise en charge des patients. L'immunité innée semble de plus en plus jouer un rôle dans le TB-IRIS. Dans la présente thèse de doctorat, j'ai étudié le rôle de l'immunité innée cellulaire, notamment des cellules NKT et γδ t, ainsi que l'implication des marqueurs soluble plasmatique : IL-1Ra, sCD14 et sCD163 liés à l’activation des monocytes/macrophages dans la survenue de l’iris chez les patients co-infectés par le VIH et TB au Cambodge.Les résultats ont montré que : 1/. Le TB-IRIS est associé a une forte activation des cellules γδ T et des sous populations γδ2+ avant l’initiation des ARV, 2/. Aucun des marqueurs IL-1Ra, sCD14 et sCD163 n’était prédictif de la survenue de l’iris. L'analyse longitudinale des taux plasmatiques d’ IL-1Ra pourrait être utile pour le diagnostic de l’iris et l’évaluation de la réponse au traitement antituberculeux. En conclusion, nos résultats révèlent l’association entre une activation importante de l’immunité innée et l’émergence de TB-IRIS dans la physiopathologie. De plus, nos données apportent des nouveaux éléments de l'iris et des marqueurs pour évaluer l'efficacité du traitement antituberculeux. / Simultaneous anti-tuberculosis and antiretroviral (ARY) therapy in HIV and tuberculosis (TB) co-infected patients can be complicated due to the occurrence of TB-associated immune reconstitution inflammatory syndrome (TB-IRIS). The diagnosis test of TB-IRIS is not yet available and mainly based on clinical data. A better understanding of TB-IRIS immunopathology is crucial to improve diagnostic test and patients’ clinical outcomes. Innate immunity seems increasingly play a role in TB-IRIS. In the present doctoral thesis, is studied the role of cellular innate immunity, including NKT and γδ t cells, and as well as the implication of IL-1Ra, sCD14 and sCD163 plasma soluble markers related to the activation of monocytes/macrophages in the development of iris in HIV and TB co-infected patients in Cambodia. The results have shown that 1/. TB-IRIS is associated with a strong activation of γδ t cells and γδ2+ subset before initiation of ARY, 2/. None of IL-1Ra, sCD14 and sCD163 markers was predictive of the onset of iris. Longitudinal analysis of IL-1Ra plasma level could be useful for the diagnosis of the iris occurrence and for the evaluation of response to TB-IRIS In conclusion, our results reveal the association between important activation of innate immunity and the emergence of TB-IRIS in the physiopathology. In addition, our data provides new element of TB-IRIS and markers for evaluation of TB treatment efficacy.
999

Caractérisation, destruction et recyclage des déchets amiantés / Characterization, destruction and recycling of asbestos waste

Talbi, Gaël 14 November 2018 (has links)
Afin de répondre aux problématiques écologique et économique du traitement des Matériaux Contenant de l’Amiante (MCA), un procédé complet permettant de traiter de manière optimale ces déchets a été proposé. Pour cela, trois types de déchets ont d’abord été analysés par plusieurs techniques de caractérisation complémentaires (diffraction des rayons X, microscopie électronique à balayage, infrarouge et RMN du solide). Ces analyses ont permis l’identification des différentes phases présentes au sein des déchets. Cette identification est nécessaire, car elle permet d’adapter de manière optimale le procédé de destruction au déchet. La première étape de ce procédé est le traitement en température des MCA dans une solution d’acide nitrique. Elle permet la dissolution de la matrice du déchet et la dénaturation des fibres de chrysotile qui sont présentes dans 95 % des déchets amiantés. Deux phases sont alors récupérées à l’issue de ce traitement : une phase solide composée de silice pure et une phase liquide contenant, notamment, du calcium, du magnésium et du fer. Si les déchets contiennent des fibres de type amphibole (5 % des MCA) ils sont ensuite traités par voie hydrothermale dans un autoclave contenant une solution de soude. Cette étape mène à la dissolution complète du déchet. Une solution basique contenant du silicium est ainsi récupérée. Différentes voies de valorisations ont été développées. Les ions présents dans la solution acide sont récupérés par précipitation sélective des hydroxydes. Une autre voie consiste à synthétiser une zéolithe à partir de la silice pure et de la solution basique. Les isothermes d’adsorption de cette dernière ont été tracés afin de déterminer sa capacité d’adsorption de certains cations métalliques polluants. Pour terminer, une étude fondamentale a été menée sur les nanotubes de silice obtenus avec le traitement de fibres d’amiante pures et différentes applications de ces nanotubes de silice ont été évoquées. / To answer the ecological and economic problems of the treatment of Materials Containing Asbestos (MCA), a complete process allowing to handle in an optimal way these waste was proposed. For that purpose, three types of waste were analyzed by several complementary techniques of characterization (X-rays diffraction, Scanning Electron Microscopy, infrared and NMR spectroscopy). These analyses allowed the identification of the present various phases within waste. This identification is necessary, because it allows to adapt in the optimal way for the destruction of the waste. The first stage of the process is a treatment in temperature of the MCA in a solution of nitric acid leading to the dissolution of the matrix of the waste and the denaturation of the fibers of chrysotile which are present in 95 % of MCA. Two phases are then got back at the end of this treatment: a solid phase of pure silica and a liquid phase containing, in particular, calcium, magnesium and iron ions. If previous waste contains fibers of amphibole type (5 % of the MCA) they are then treated through a hydrothermal process in an autoclave containing a solution of soda. This stage leads to the complete dissolution of the waste. The basic solution containing some silicon is so got back. Various ways of valuations were then developed. The present ions in the acid solution are chemically sorted out by a selective precipitation of hydroxides. Another way consists in synthesizing a zeolite from the pure silica coming from the acid treatment and from the basic solution after hydrothermal treatment. The isotherms of adsorption of this synthesized zeolite were established to determine its capacity of adsorption of certain polluting metallic cations. To finish, a fundamental study was led on the nanotubes of silica obtained after the acid treatment of pure asbestos fibers and diverse applications of these nanotubes of silica were evoked.
1000

Dendritic surface modification of photocatalytic nanoparticles for tumour therapy / Modification dendritique de surface des nanoparticules photocatalytiques pour le traitement des tumeurs

Koch, Susanne Julia 12 October 2017 (has links)
L'apparition d’un développement cancérigène est souvent caractéristique des tumeurs de la région de la tête et du cou. En raison des altérations prémalignes et malignes fréquentes, il n'est souvent pas possible de supprimer complètement la tumeur par chirurgie.Il en résulte un risque élevé de récidive tumorale. Par conséquent, cette recherche de doctorat vise à développer des nanoparticules photocatalytiques (NPs) qui seront utilisées localement en complément de la thérapie tumorale traditionnelle. Ces NPs, une fois absorbées par les cellules tumorales induiront la mort des cellules photocatalytiques par activation de lumière UV. Des NPs de TiO2 ayant des propriétés photocatalytiques et une taille moyenne inférieure à 20 nm étaient donc synthétisées. La biocompatibilité des NPs, leur absorption dans les cellules et un ciblage tumoral efficace devraient être garantis par une modification de surface des particules avec des molécules organiques dendritiques permettant un contrôle précis de la charge de surface des particules ainsi que la possibilité de couplage avec des anticorps. Un autre objectif était la combinaison de propriétés thérapeutiques et diagnostiques dans le système de NPs par exemple réalisé par incorporation d'agent luminescent. Cette recherche était menée à l'Université de Bordeaux (synthèse des molécules organiques pour la fonctionnalisation des particules) en coopération avec l'Institut Fraunhofer de recherche en silicate ISC à Würzburg, Allemagne (synthèse des nanoparticules). / The occurrence of field cancerization is characteristic for tumours of the head and neck region. Due to these widespread premalignant and malignant alterations, it is frequently not possible to entirely remove the tumour by surgery. This results in a high risk of tumour recurrence. Therefore, this PhD research aimed to develop photocatalytic nanoparticles (NPs) as completion of the traditional tumour therapy. These NPs are supposed to be incorporated by tumour cells and to induce photocatalytic cell death by UV light activation. TiO2 with convincing photocatalytic properties and an average size smaller than 20 nm should therefore be synthesized. NP biocompatibility, their uptake into cells and an efficient tumour targeting should be guaranteed by surface modification of the particles with dendritic organic molecules that allow a precise control of the surface charge of the particles as well as antibody coupling.A further objective was the combination of therapeutic and diagnostic properties within the NPsystem realized for example via introduction of a luminescent dye. This research was carried out at the University of Bordeaux (synthesis of organic molecules for particle functionalization) in cooperation with the Fraunhofer Institute for Silicate Research ISC in Würzburg, Germany (nanoparticle synthesis).

Page generated in 0.0589 seconds