• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 35
  • 7
  • Tagged with
  • 93
  • 53
  • 47
  • 29
  • 20
  • 13
  • 13
  • 11
  • 10
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Système embarqué de capture et analyse du mouvement humain durant la marche

Zong, Cong 20 December 2012 (has links) (PDF)
Ces travaux de thèse sont consacrés à la définition et la mise en œuvre de systèmes multi-capteurs et d'algorithmes, embarqués sur un déambulateur et dédiés à la capture et l'estimation de la posture et du mouvement de son utilisateur durant la locomotion. Plusieurs expérimentations ont été menées afin d'évaluer quantitativement la qualité de la posture reconstruite obtenue. Un détecteur d'anomalies durant la marche a de plus été proposé afin d'évaluer le système, en termes d'application. Dans ce mémoire, les paramètres du mouvement humain relatifs à la marche (pas, posture, équilibre) généralement utilisés pour l'analyse de la marche, sont d'abord introduits. Pour l'observation de tels paramètres, les médecins utilisent différents dispositifs. La plupart sont encombrants, ce qui limite leur usage au milieu hospitalier. Les systèmes multi-capteurs embarqués sur un déambulateur proposés permettraient d'obtenir des données quotidiennement, sur des distances de locomotion et des durées plus importantes. Deux architectures ont été développées successivement : la première est composée d'une caméra 3D et de deux capteurs infrarouges ; la seconde est composée de deux capteurs Kinect. Ces architectures sont utilisées pour estimer la posture du sujet et son activité locomotrice par recalage sur un modèle physique de mannequin virtuel 3D. La précision de la posture obtenue est améliorée en intégrant un module de prédiction du mouvement: il utilise une estimation de certains paramètres discrets de la marche (durée et longueur des pas) et un modèle de la marche assistée. Enfin, le développement d'un algorithme de détection de ruptures du rythme locomoteur nous permet de valider l'ensemble de l'approche par rapport à l'application finale : l'assistance au diagnostic. A partir d'un ensemble de mesures de distance, correspondant au rapport de vraisemblance généralisé calculé sur les positions relatives de chaque articulation et la vitesse du déambulateur déterminée par un odomètre, un modèle multi-dimensionnel d'une marche régulière est ensuite appris via un séparateur à vaste marge à une classe. Cet algorithme a été évalué sur la base d'un protocole de changement de rythme de marche. Dans l'avenir, ce système pourra être intégré au robot d'assistance à la déambulation conçu dans le cadre du projet ANR MIRAS (Multimodal Interactive Robot of Assistance in Strolling)
32

Méthode d'évaluation des performances annuelles d'un régulateur prédictif de PAC géothermiques sur banc d'essai semi-virtuel / A method for estimating the annual performance of a predictive controller for ground source heat pumps on a semi-virtual test bench

Salque, Tristan 15 October 2013 (has links)
Avec le développement récent de régulateurs innovants pour le bâtiment, il devient nécessaire de mettre au point une méthode de test qui soit à la fois rapide, reproductible et réaliste. La méthode développée dans cette thèse permet d'obtenir des performances annuelles de régulateurs de pompes à chaleurs (PAC) géothermiques en seulement quelques jours de test. Basé sur une technique d'émulation déjà utilisée pour des tests de PAC géothermiques et de systèmes solaires combinés, le test permet d'incorporer le régulateur et la PAC réels dans un environnement de simulation calibré par des mesures in-situ. Chaque jour de test correspond à un jour type de chaque mois. Le développement de la méthode consiste à déterminer la séquence de jours types optimale permettant une bonne estimation des performances. La méthode est ensuite testée expérimentalement sur le banc semi-virtuel pour comparer un régulateur prédictif à un régulateur conventionnel sur une saison de chauffage. Pour les besoins de la méthode, un régulateur prédictif de PAC géothermiques est développé. Ce régulateur utilise des réseaux de neurones pour la prévision des données météo et de la température ambiante. Un nouveau module pour la prévision des températures dans le plancher chauffant et les sondes géothermiques est proposé. Le régulateur prédictif est testé par simulation sur une saison de chauffage pour différents climats et types de maisons individuelles. En fonction de la référence, les économies d'énergie réalisées varient entre 6% et 15%. / With the recent development of innovative controllers for the building, there is a need to develop a testing method that is fast, reproducible and realistic. The method developed in this study aims to estimate the annual performance of ground source heat pump (GSHP) controllers in only a few days of test. Based on emulation techniques already used for GSHP and solar combined systems, the test immerses the controller and a real GSHP in a simulated environement that is calibrated with in-situ data. Each day of test represents a typical day of the month. The development of the method consists in determining the optimal typical days that ensure an accurate estimation of annual performance. The method is then experimentally tested on the semi-virtual test bench for the comparison of a predictive controller and a conventionnal controller over an entire heating season.To develop the method, a predictive controller for GSHP is elaborated. The controller is based on artificial neural networks used for the prediction of weather data and indoor temperature. A new module for the prediction of floor heating and boreholes fluid temperatures is also proposed. The predictive controller is tested by simulation over a heating season for various climates and types of single family house. According to the reference case, the energy savings vary between 6% and 15%.
33

Influence of predictive context on visual processing / Influence du contexte prédictif sur le traitement visuel

Pajani, Auréliane 29 September 2016 (has links)
D’après les théories inférentielles de la perception, notre cerveau tire parti des régularités statistiques présentes dans l’environnement pour générer des prédictions qui façonnent nos contenus perceptifs. Le travail réalisé pendant cette thèse inclut 3 études principales, dans le but de caractériser les déterminants neuronaux des fausses perceptions et la nature des prédictions neuronales.Les erreurs perceptives pourraient résulter d’une tentative de notre système visuel d’expliquer des entrées sensorielles imprécises par une hypothèse erronée. Dans une 1ère étude en Imagerie par Résonance Magnétique fonctionnelle (IRMf), nous montrons que les fausses détections sont associées à un état imprécis et biaisé des circuits sensoriels avant la perception.La répétition d’une image génère une activité neurale diminuée (‘Repetition Suppression’) et des temps de réponse plus courts (‘amorçage’). Ces phénomènes pourraient résulter de mécanismes prédictifs, sous une prédiction implicite de répétition. Dans une 2nde étude IRMf, nous montrons que cette prédiction ne peut pas être modulée par l’expérience, ce qui suggère une implémentation locale. Dans une série d’études comportementales, nous montrons que l’amorçage est modulé par les prédictions, suggérant un mécanisme prédictif. Notre 2nde étude IRMf montre aussi qu’une région de moyen niveau sensible aux visages code des prédictions liées à l’identité, ce qui nous informe sur la nature des prédictions visuelles.Nos résultats montrent que notre perception est façonnée par l’interaction de nos entrées sensorielles avec l’état des circuits neuronaux avant stimulation, qu’il s’agisse de l’activité spontanée ou des stimuli précédents. / According to theoretical frameworks casting perception as inference, our brain can learn the statistical regularities present in the sensory world, and use this prior information to generate predictions, which in turn shape our perceptual contents. The work conducted in this PhD includes three main studies aimed at characterizing the neural determinants of misperceptions, as well as the nature of neural predictions. Perceptual errors may arise from an attempt of our visual system to 'explain' impreciseinputs with an erroneous hypothesis. In a first functional Magnetic Resonance Imaging (fMRI) study, we show that during a detection task, hallucinations are associated with animprecise and biased state of sensory circuits preceding sensation. Stimulus repetition is associated with decreased neural responses, known as Repetition Suppression, and shorter response times, known as priming. These phenomena may reflectpredictive mechanisms under an implicit prior over repetition. In a second fMRI study, we show that this putative prior cannot be changed by experience, suggesting a local, possibly hard-wired neural implementation. In a series of behavioral experiments, we show thatpriming is modulated by predictions, supporting a predictive account of this phenomenon. Our second fMRI study also shows that a mid-level face-sensitive region codes for exemplarspecific predictions, which sheds light on the nature of the predictions encoded along thevisual hierarchy. Altogether, our results speak to the dependence of perception on prior brain states. Both spontaneous activity in sensory circuits and previous stimulation interact with sensory inputsto shape our perceptual contents.
34

Dynamical optimisation of renewable energy flux in buildings / Optimisation dynamique des flux d'énergie renouvelables dans les bâtiments

Hazyuk, Ion 08 December 2011 (has links)
Dans cette thèse nous proposons des algorithmes de contrôle commande optimaux ayant pour but d’aider au bon choix des systèmes multi sources et leur utilisation optimale dans les bâtiments. L'estimation des charges de chauffage est transformée en un problème de contrôle où le régulateur calcule la charge de chauffage optimale du bâtiment. Le régulateur proposé pour ce but est de type Model Predictive Programming (MPP), qui est obtenu en modifiant l’algorithme de type Model Predictive Control (MPC). Comme le MPP requiert un modèle du bâtiment d'ordre réduit, nous proposons une méthode de modélisation par projection des paramètres sur une structure fixe obtenue à partir des connaissances physiques. Pour le contrôle du système multi sources, nous proposons un système de gestion technique du bâtiment (GTB) qui est divisé en deux : un régulateur de la température du bâtiment et un contrôleur des sources. Pour la régulation thermique on utilise l’algorithme MPC, pour lequel nous proposons une nouvelle fonction de coût, car la fonction classique ne minimise pas la consommation d'énergie. La fonction de coût proposée permet de maintenir le confort thermique avec une consommation d'énergie minimale. Nous la formulons de telle façon qu’elle puisse être optimisée en utilisant la Programmation Linéaire (PL). Pour pouvoir utiliser la PL, nous proposons une linéarisation du modèle, basée sur des connaissances physiques, qui permet d'utiliser le modèle sur toute la plage de fonctionnement. Pour le contrôle des sources, nous proposons une solution qui prend en compte la commande MPC afin d'utiliser les ressources d'énergie plus efficacement. La GTB proposée est évaluée en émulation sur la maison Mozart et comparée avec deux GTB basées sur des régulateurs PID. Les résultats obtenus montrent que la GTB proposée a toujours maintenu le confort thermique dans le bâtiment, a réduit la consommation d'énergie et l'usure des pompes hydrauliques et de la pompe à chaleur. / This thesis proposes methods and solutions to improve the choice and the optimal use of renewable energies in buildings. The heating load assessment is transformed into a control problem where the regulator calculates the optimal heating load of the building. The proposed regulator for this aim is Model Predictive Programming (MPP), which is obtained by modifying Model Predictive Control (MPC). The required information by MPP is a low order building model and data records of the local weather. Therefore, we propose a modelling method in which the detailed model of the building is projected on a reduced order model having its structure obtained from physical knowledge. For the control of the multi source system, we proposed a Building Energy Management System (BEMS) which is divided in two parts: the first for the building temperature control and the second for the source control. For building thermal control we utilize MPC, for which we propose a new cost function because the classical one does not minimize the energy consumption. The proposed cost function permits to maintain the thermal comfort with minimal energy consumption. We formulate this function such that it can be optimized by using Linear Programming (LP) algorithm. To be able to use LP we give a solution to linearization of the building model based on the physical knowledge, which permits to use the model on the entire operating range. For the source control, we propose a solution which takes into account the command given by MPC in order to use the energy resources more effectively. The proposed control system is evaluated and compared with two PID based BEMS, against comfort and energetic criteria. The evaluation is performed in emulation on a reference detached house. The obtained results show that the proposed control system always maintains the thermal comfort in the building, reduces the energy consumption and the wear and tear of the hydraulic and heat pumps from the heating system.
35

Une approche pragmatique pour mesurer la qualité des applications à base de composants logiciels / A pragmatic approach to measure the quality of Component–Based Software Applications

Hamza, Salma 19 December 2014 (has links)
Ces dernières années, de nombreuses entreprises ont introduit la technologie orientée composant dans leurs développements logiciels. Le paradigme composant, qui prône l’assemblage de briques logiciels autonomes et réutilisables, est en effet une proposition intéressante pour diminuer les coûts de développement et de maintenance tout en augmentant la qualité des applications. Dans ce paradigme, comme dans tous les autres, les architectes et les développeurs doivent pouvoir évaluer au plus tôt la qualité de ce qu’ils produisent, en particulier tout au long du processus de conception et de codage. Les métriques sur le code sont des outils indispensables pour ce faire. Elles permettent, dans une certaine mesure, de prédire la qualité « externe » d’un composant ou d’une architecture en cours de codage. Diverses propositions de métriques ont été faites dans la littérature spécifiquement pour le monde composant. Malheureusement, aucune des métriques proposées n’a fait l’objet d’une étude sérieuse quant à leur complétude, leur cohésion et surtout quant à leur aptitude à prédire la qualité externe des artefacts développés. Pire encore, l’absence de prise en charge de ces métriques par les outils d’analyse de code du marché rend impossible leur usage industriel. En l’état, la prédiction de manière quantitative et « a priori » de la qualité de leurs développements est impossible. Le risque est donc important d’une augmentation des coûts consécutive à la découverte tardive de défauts. Dans le cadre de cette thèse, je propose une réponse pragmatique à ce problème. Partant du constat qu’une grande partie des frameworks industriels reposent sur la technologie orientée objet, j’ai étudié la possibilité d’utiliser certaines des métriques de codes "classiques", non propres au monde composant, pour évaluer les applications à base de composants. Parmi les métriques existantes, j’ai identifié un sous-ensemble d’entre elles qui, en s’interprétant et en s’appliquant à certains niveaux de granularité, peuvent potentiellement donner des indications sur le respect par les développeurs et les architectes des grands principes de l’ingénierie logicielle, en particulier sur le couplage et la cohésion. Ces deux principes sont en effet à l’origine même du paradigme composant. Ce sous-ensemble devait être également susceptible de représenter toutes les facettes d’une application orientée composant : vue interne d’un composant, son interface et vue compositionnelle au travers l’architecture. Cette suite de métrique, identifiée à la main, a été ensuite appliquée sur 10 applications OSGi open- source afin de s’assurer, par une étude de leur distribution, qu’elle véhiculait effectivement pour le monde composant une information pertinente. J’ai ensuite construit des modèles prédictifs de propriétés qualité externes partant de ces métriques internes : réutilisation, défaillance, etc. J’ai décidé de construire des modèles qui permettent de prédire l’existence et la fréquence des défauts et les bugs. Pour ce faire, je me suis basée sur des données externes provenant de l’historique des modifications et des bugs d’un panel de 6 gros projets OSGi matures (avec une période de maintenance de plusieurs années). Plusieurs outils statistiques ont été mis en œuvre pour la construction des modèles, notamment l’analyse en composantes principales et la régression logistique multivariée. Cette étude a montré qu’il est possible de prévoir avec ces modèles 80% à 92% de composants fréquemment buggés avec des rappels allant de 89% à 98%, selon le projet évalué. Les modèles destinés à prévoir l’existence d’un défaut sont moins fiables que le premier type de modèle. Ce travail de thèse confirme ainsi l’intérêt « pratique » d’user de métriques communes et bien outillées pour mesurer au plus tôt la qualité des applications dans le monde composant. / Over the past decade, many companies proceeded with the introduction of component-oriented software technology in their development environments. The component paradigm that promotes the assembly of autonomous and reusable software bricks is indeed an interesting proposal to reduce development costs and maintenance while improving application quality. In this paradigm, as in all others, architects and developers need to evaluate as soon as possible the quality of what they produce, especially along the process of designing and coding. The code metrics are indispensable tools to do this. They provide, to a certain extent, the prediction of the quality of « external » component or architecture being encoded. Several proposals for metrics have been made in the literature especially for the component world. Unfortunately, none of the proposed metrics have been a serious study regarding their completeness, cohesion and especially for their ability to predict the external quality of developed artifacts. Even worse, the lack of support for these metrics with the code analysis tools in the market makes it impossible to be used in the industry. In this state, the prediction in a quantitative way and « a priori » the quality of their developments is impossible. The risk is therefore high for obtaining higher costs as a consequence of the late discovery of defects. In the context of this thesis, I propose a pragmatic solution to the problem. Based on the premise that much of the industrial frameworks are based on object-oriented technology, I have studied the possibility of using some « conventional » code metrics unpopular to component world, to evaluate component-based applications. Indeed, these metrics have the advantage of being well defined, known, equipped and especially to have been the subject of numerous empirical validations analyzing the predictive power for imperatives or objects codes. Among the existing metrics, I identified a subset of them which, by interpreting and applying to specific levels of granularity, can potentially provide guidance on the compliance of developers and architects of large principles of software engineering, particularly on the coupling and cohesion. These two principles are in fact the very source of the component paradigm. This subset has the ability to represent all aspects of a component-oriented application : internal view of a component, its interface and compositional view through architecture. This suite of metrics, identified by hand, was then applied to 10 open-source OSGi applications, in order to ensure, by studying of their distribution, that it effectively conveyed relevant information to the component world. I then built predictive models of external quality properties based on these internal metrics : reusability, failure, etc. The development of such models and the analysis of their power are only able to empirically validate the interest of the proposed metrics. It is also possible to compare the « power » of these models with other models from the literature specific to imperative and/or object world. I decided to build models that predict the existence and frequency of defects and bugs. To do this, I relied on external data from the history of changes and fixes a panel of 6 large mature OSGi projects (with a maintenance period of several years). Several statistical tools were used to build models, including principal component analysis and multivariate logistic regression. This study showed that it is possible to predict with these models 80% to 92% of frequently buggy components with reminders ranging from 89% to 98%, according to the evaluated projects. Models for predicting the existence of a defect are less reliable than the first type of model. This thesis confirms thus the interesting « practice » of using common and well equipped metrics to measure at the earliest application quality in the component world.
36

Candidoses invasives en réanimation : données épidémiologiques, élaboration d’un score prédictif et mise au point de PCR pour le diagnostic / Invasive candidiasis in intensive care unit : epidemiology, development of a predictive score and PCR for the diagnosis

Sasso, Milène 10 July 2017 (has links)
Les patients de réanimation sont des patients à très haut risque de survenue de candidoses invasives associées à une importante mortalité. Les espèces du genre Candida sont retrouvées en troisième position des agents infectieux les plus fréquemment isolés au cours des septicémies. Le diagnostic reste difficile en raison d’une clinique aspécifique et d’une sensibilité médiocre des hémocultures. Des scores prédictifs, des biomarqueurs ou encore des PCR ont été développés de manière à améliorer le diagnostic et l’identification des patients à risque. Dans ce travail, la première partie présente les données de l’évolution de l’écologie fongique, des candidoses invasives, des prescriptions d’antifongiques et des sensibilités aux antifongiques sur une période de dix ans dans un service de réanimation. Au cours de cette période, les changements observés dans la prescription d’antifongiques n’ont pas entrainé de modifications significatives de l’écologie fongique ni d’apparition de résistances. Dans une deuxième partie, nous présentons les résultats d’une étude prospective observationnelle bicentrique réalisée chez 435 patients non neutropéniques de réanimation. L’analyse de plusieurs variables (facteurs de risque de candidose invasive, colonisation à Candida sp., dosages d’antigène mannane et d’anticorps anti-mannane) a permis l’élaboration d’un score prédictif de survenue de candidose invasive. Finalement, la dernière partie du travail présente la mise au point de PCR Candida en temps réel dans le sang ainsi qu’une évaluation de la technologie de digital PCR. / Patients in intensive care units (ICU) are at very high risk of invasive candidiasis associated with high mortality rate. Candida species are the third cause of septicemia. Clinical signs lack of specificity and blood cultures lack of sensitivity, and therefore the diagnosis remains a challenge. In order to improve the identification of patients with invasive candidiasis, predictive rules, biomarkers and PCR have been developed. The first part of this work describes the evolution over a ten years period in one ICU in Candida species distribution, susceptibility to antifungal drugs and consumption of antifungal agents. Changes in antifungal drug consumption were observed but they were not associated with significant changes in fungal ecology or with the emergence of resistant species. In a second part, we present a prospective, observational and bicentric study performed in 435 non-neutropenic patients in ICU. Several variables (risk factors of invasive candidiasis, Candida colonization, mannan antigen and anti-mannan antibodies) were analyzed and a predictive score of invasive candidiasis has been developed. Finally, the last part presents the development of Candida real-time PCR in blood, as well as the evaluation of a digital PCR.
37

Incertitude des données biomécaniques : modélisation et propagation dans les modèles de diagnostic des pathologies du système musculosquelettique / Uncertainty of biomechanical data : modeling and propagation in the diagnostics models of diseases of musculoskeletal system

Hoang, Tuan Nha 16 December 2014 (has links)
Les pathologies du système musculosquelettique concernant les déformations / anomalies osseuses et musculaires (e.g. paralysie cérébrale) ont un fort impact sur la qualité de vie des personnes concernées. Les objectifs de la thèse sont d’approfondir les études précédentes en intégrant la modélisation de l’incertitude des données biomécaniques et biomédicales dans les modèles de diagnostic prédictif des pathologies du système musculosquelettique. L’intervalle a été choisi pour représenter l’incertitude des données biomécaniques. Ce formalisme est simple et peu coûteux sur le plan du calcul. Les données (physiologiques, morphologiques, mécaniques et analyse du mouvement) ont été recueillies à partir de la littérature en utilisant les moteurs de recherche des articles scientifiques fiables pour établir un espace d’incertitude. La nouvelle méthode de classement (nommée US-ECM) proposée est une méthode de classement semi-supervisé qui utilise la partition crédale pour représenter les connaissances partielles sur les clusters. L’utilisation de la fonction de croyance pour représenter ces éléments de connaissance permet de les combiner d’une manière souple et robuste. De plus, l’extension de cette méthode avec un espace d’incertitude multidimensionnelle a montré la meilleure performance par rapport à la version originale. L’analyse des avis d’expert permettra d’inclure ou d’exclure les sources de données selon leurs niveaux de fiabilité. Ensuite, le modèle de regroupement (US-ECM) développé sera appliqué sur une nouvelle base de données pour évaluer l’impact de la fiabilité des données sur la performance de diagnostic. / The aim of the project is to investigate the modeling of the reliability/incertitude/imprecision of biomedical and biomechanics data (medical images, kinematics/kinetics/EMG data, etc.) and its propagation in the predictive diagnosls models of the disorders of musculoskeletal systems. These diagnosis models will be based on multimodal and multidimensional patient data (3D medical imaging, mechanical data,dinical data,etc.). The literature-based data have been collected to estabish an uncertainty space, which represents fused data from multiple sources, of morphological, mechanical, and movement analysis properties of the musculoskeletal system from multiple sources (i.e. research papers from Science Direct and Pubmed). After that,a new clustering method (US-ECM) is proposed for integrating fused data from multiple sources ln form of a multidimensional uncertainty space (US). Reliability of biomechanical data was evaluated by a fusion approach expert opinion. Reliability criteria of a data source (ie scientific paper published) focus on the technique used the acquisition protocol and measurement and the number of data. A system of questionnaires was developed to co!lect expert opinion. Then, the theory of beliet functions has been applied to merge these opinion to establish a confidence level each data source.
38

Amélioration de la tolérance de la radiothérapie par une approche individuelle radiobiologique et une démarche conceptuelle unifiée en hadronthérapie / Improved tolerance of radiotherapy by an individual radiobiological approach and a unified conceptual approach in heavy ion radiotherapy

Vogin, Guillaume 10 October 2014 (has links)
5 à 15% des 175 000 patients traités par radiothérapie (RT) chaque année sont exposés à une toxicité considérée comme « inhabituelle » pouvant entraîner des séquelles parfois graves. Les techniques innovantes de photonthérapie apportent une solution balistique pertinente mais inappropriée pour certaines tumeurs ou certains patients. Deux approches permettent d'entrevoir des solutions à ces situations. 1- Contribution au développement de l'hadronthérapie par ions carbone : Ces particules possèdent une masse et une charge qui leur confèrent un avantage balistique et biologique particulièrement intéressant. Le caractère rare des tumeurs éligibles et le très faible nombre de centres n'ont pas permis, ou justifié, à ce jour la réalisation d'études comparatives randomisées afin d'en évaluer le service rendu. Via le projet FP7 ULICE, nous avons intégré et animé plusieurs groupes à l'échelle nationale et internationale. Nous avons directement produit des procédures unifiées en terme d'immobilisation, de recueil des données élémentaires, de structuration protocolaire et de transformation des données en métadonnées échangeables. Nous avons proposé des concepts originaux permettant de décrire la dose prescrite et les volumes d'intérêt, au-delà du concept réducteur d'EBR. 2- Un nouveau biomarqueur de radiosensibilité individuelle (RSI). L'identification des patients les plus à risque de développer les réactions les plus sévères reste un enjeu majeur. Aucun test de RSI ne s'impose comme gold standard. A partir de primocultures fibroblastiques issues de patients ayant présenté un profil de toxicité inhabituel à la RT, le taux de cassures double brins résiduelles à 24h estimé par immunofluorescence indirecte (marqueur γH2AX) a permis de définir 3 groupes de RSI. Toutefois ce seul marqueur n'est pas assez robuste. Le délai de transit cyto-nucléaire de la protéine ATM semble affiner notre classification. Un nouveau modèle mécanistique a ainsi pu être développé / 5 to 15% of the 175,000 patients treated with radiation therapy (RT) annually are exposed to toxicity considered "unusual" that can lead to serious sequelae. Innovative photon RT techniques provide relevant but inappropriate ballistic solution for certain tumors or certain patients. Two approaches guide solutions to these situations.1- Contribution to the development of carbon ion RT. These particles possess a mass and a charge that give them particularly interesting ballistics and biological properties. The rarity of eligible tumors and the low care offer have failed conducting randomized controlled trials to evaluate its cost-effectiveness. Throughout the FP7-ULICE project, we directly produced standard operating procedures in terms of basic data collection, protocol structuring and processing of metadata. We proposed original concepts to describe and report the dose and volume of interest, beyond the restricted concept of RBE. 2- A novel biomarker of individual radiosensitivity (IRS). The identification of the patients the most at risk of developing the most severe reactions remains a major challenge. There is no gold standard in the field of IRS assays.From fibroblasts primocultures sampled from patients with an unusual toxicity, the number of residual DNA double-stand breaks 24h after radiation and estimated by indirect immunofluorescence (marker γH2AX) allows to identify three groups of IRS. However this single marker is not robust enough. The delay of ATM nucleoshuttling appears to refine our classification. A new mechanistic model has been developed
39

DEVELOPPEMENT DE MODELES PREDICTIFS DECRIVANT LE COUPLAGE CHIMIE-TRANSPORT DANS LES SEDIMENTS NATURELS

Lu, Jun 06 November 2013 (has links) (PDF)
La gestion de sols ou sédiments contaminés par des métaux nécessite de pouvoir prédire la migration de ces métaux, dont la mobilité dépend des propriétés de transport du milieu ainsi que de la réactivité chimique de celui-ci (principalement réactions adsorption/désorption). Pour étudier l'adsorption des cations métalliques (majeurs et traces) en condition dynamique, des expériences de transport en colonne ont été réalisées avec un sol pauvre en minéraux carbonatés et en matière organique. Considérant que la réactivité de ce sol était due essentiellement à la phase argileuse smectitique, un modèle d'adsorption basé sur les propriétés de rétention de la montmorillonite du Wyoming, utilisant la théorie des échangeurs d'ions multi-sites a été intégré à un code de transport 1D. Les prédictions calculées par ce modèle ont ensuite été comparées aux courbes de percées mesurées dans cette étude et reportées de la littérature. L'étude sur le transport réactif des cations majeurs a mis en évidence le rôle significatif des protons (et ce même à des pH proche de la neutralité), et a permis de valider le modèle pour le transport compétitif des cations majeurs (Na et Ca). Cependant, l'étude de la rétention de Zn(II) a mis en évidence une incohérence entre les résultats issus des expériences batch et ceux obtenus avec les expériences colonne, que l'on pourrait attribuer à la contribution d'une autre phase adsorbante (illite). Néanmoins, le modèle d'adsorption proposé a permis de reproduire avec une bonne satisfaction des données expérimentales de rétention de Zn(II) proposées dans la littérature et obtenues avec des expériences colonne.
40

Contrôle adaptatif et autoréglage : applications de l'approximation stochastique

Baltcheva, Irina January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0284 seconds