• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 493
  • 173
  • 56
  • Tagged with
  • 725
  • 211
  • 176
  • 129
  • 103
  • 99
  • 93
  • 76
  • 74
  • 60
  • 59
  • 58
  • 52
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Development of a CMOS pixel based inner tracker for the BES-III experiment at BEPC-II / Développement d'un détecteur interne basé sur CMOS pixel pour traquer les trajectoires des particules à l'expérience de BESIII au BEPC-II

Liu, Qingyuan 19 September 2017 (has links)
La thèse se place dans le contexte du programme de physique prévu auprès du collisionneur Beijing Electron Positron Collider II, pour lequel l'expérience BESIII (Beijing Electron Spectrometer III) doit subir une jouvence. Mon travail concerne l'amélioration des performances de la trajectométrie centrale de l'expérience, en explorant une nouvelle approche utilisant les capteurs à pixels CMOS (CPS) en remplacement partiel de la chambre à dérive actuelle. Il est validé, qu'un pixel de 39.0X50.8 µm2 permet d'atteindre une résolution spatiale ~10 µm. Cette confirmation ouvre la voie pour le développement d'échelle de grande longueur. Un logiciel générique proposant une stratégie d'optimisation pour un trajectomètre pixellisé a été mis au point et appliqué au cas particulier du BESIII. Il a permis de montrer qu'une configuration à trois couches optimise la résolution sur les trajectoire alors qu'une option incluant une couche double-face atteint une efficacité de reconstruction supérieure. / The thesis addresses the upcoming particle physics program foreseen at the Beijing Electron Positron Collider II, for which the Beijing Electron Spectrometer III (BESIII) is being upgraded. The work presented focused on the upgrade of the central tracker of the experiment by exploring the possibilities offered by a new approach using CMOS Pixel Sensors (CPS) instead of the present gas drift chamber. The performance of CPS with a larger pixel (39.0X50.8 µm2) and a lower power consumption has been validated, which will help to develop long ladders. A general strategy and software to optimise the design of a barrel pixelated tracker has also been developed, and its application on the BESIII silicon tracker indicates that the layout of three evenly placed single-sided layers is favoured by BESIII physics for the best momentum resolution, with an option using one double-sided ladder to achieve a higher tracking efficiency.
272

Outils multirésolutions pour la gestion des interactions en simulation temps réel / A multiresolution framework for real-time simulation interactions

Pitiot, Thomas 17 December 2015 (has links)
La plupart des simulations interactives ont besoin d'un modèle de détection de collisions. Cette détection nécessite d'une part d'effectuer des requêtes de proximité entre les entités concernées et d'autre part de calculer un comportement à appliquer. Afin d'effectuer ces requêtes, les entités présentes dans une scène sont soit hiérarchisées dans un arbre ou dans un graphe de proximité, soit plongées dans une grille d'enregistrement. Nous présentons un nouveau modèle de détection de collisions s'appuyant sur deux piliers : une représentation de l'environnement par des cartes combinatoires multirésolutions et un suivi en temps réel de particules plongées dans ces cartes. Ce modèle nous permet de représenter des environnements complexes tout en suivant en temps réel les entités évoluant dans cet environnement. Nous présentons des outils d'enregistrement et de maintien de l'enregistrement de particules, d'arêtes et de surfaces dans des cartes combinatoires volumiques multirésolutions. / Most interactive simulations need a collision detection system. First, this system requires the querying of the proximity between the objects and then the computing of the behaviour to be applied. In order to perform these queries, the objects present in a scene are either classified in a tree, in a proximity graph, or embedded inside a registration grid.Our work present a new collision detection model based on two main concepts: representing the environment with a combinatorial multiresolution map, and tracking in real-time particles embedded inside this map. This model allows us to simulate complex environments while following in real-time the entities that are evolving within it.We present our framework used to register and update the registration of particles, edges and surfaces in volumetric combinatorial multiresolution maps. Results have been validated first in 2D with a crowd simulation application and then in 3D, in the medical field, with a percutaneous surgery simulation.
273

La politisation des Droits de l'Homme et le défi de la coopération universelle / The politization of Human rights and the challenge of universal cooperation

Ognimba, Kellie-Shandra 28 November 2014 (has links)
La politisation reste un défi majeur pour la réalisation universelle des droits de l'homme. Ce processus est inévitable dans l'enceinte des Nations-Unies. La politisation trouve en effet ses fondements dans la Charte même de l'Organisation, ainsi que dans la configuration institutionnelle de l'ONU qui se veut antagonique, mettant en scène des acteurs étatiques et des entités non gouvernementales. Cependant si elle est incontournable, elle ne saurait être acceptée pour autant. L'instrumentalisation politique des droits de l'homme qui conduit à une interprétation et une mise en œuvre politicienne du droit international des droits de l'homme, au détriment de la promotion et protection des droits de l'homme, et de leur universalité, constitue un frein à leur avancement et un obstacle à la coopération internationale dans ce domaine. Elle doit par conséquent être rejetée, d'autant qu'elle peut aboutir comme on l'a démontré à une érosion profonde des droits de l'homme les plus fondamentaux et de la dignité humaine. Le processus de marginalisation universelle des droits de l'homme qui a eu lieu au nom de la sécurité nationale, en exécution du programme de détentions secrètes de la CIA, est caractéristique d'une politisation particulièrement dangereuse et sans précédent, qui confirme que l'universalité des droits de l'homme doit plus que jamais être consolidée. Il est donc important que l'ONU développe un véritable projet politique commun, qui aurait pour assise l'universalité des droits de l'homme et la participation renforcée de tous les acteurs, y compris les experts indépendants et les ONG qui sont des partenaires indispensables à une mise en œuvre effective et impartiale des droits de l'homme. / Politicization remains a major challenge to the universal implementation of human rights. Politicization originates from the tensions between article 1 and article 2 of the UN Charter. It also derives from the difference in nature between States actors and non-governmental entities acting within the UN, including NGOs, experts, and the OHCHR. Tensions between both category of actors are therefore inevitable and lead to politicization. While, politicization is unavoidable, it cannot be accepted. Indeed, the political instrumentalization of human rights leads to a hierarchy between the different rights, and to the marginalization of individuals, including groups. There is no doubt that politicization represents an obstacle to the international cooperation in the field of human rights within the UN. The UN should develop a proper human rights policy, truly enshrined in the principle of universality in order to tackle politicization, which effects become more and more prejudicial to human rights, as the deep erosion of the most basic human rights, including the prohibition of torture, in the name of national security while countering terrorism has demonstrated it.
274

Etude et modélisation du comportement des gouttelettes de produits phytosanitaires sur les feuilles de vignes par imagerie ultra-rapide et analyse de texture / Study and modeling of the behavior of droplets of plant protection products on vine leaves by ultra-fast imaging and texture analysis

Decourselle, Thomas 23 October 2013 (has links)
Dans le contexte actuel de diminution des pollutions d’origine agricole, laréduction des apports d’intrants devient un enjeu primordial. En France, laviticulture est l’activité qui possède le taux le plus important de traitementsphytosanitaires par unité de surface. Elle représente, à elle seule, 20% de laconsommation annuelle de pesticides. Par conséquent, il est nécessaire d’étudierle devenir des pesticides appliqués afin de réduire les quantités perduesdans l’environnement. Dans le cadre de la réduction d’apport de produitsphytosanitaires dans les vignes, de nombreux travaux ont été effectués sur lamodélisation du comportement d’un spray de gouttelettes et sa répartitionau niveau de la parcelle et de l’air environnant. Cependant, il est égalementimportant de s’intéresser au comportement de la gouttelette directement auniveau de la feuille. Les progrès dans le domaine de l’imagerie et la diminutiondu coût des systèmes ont rendus ces systèmes beaucoup plus attractifs.Le travail de cette thèse consiste en la mise en place d’un système d’imagerierapide qui permet l’observation du comportement à l’impact de gouttelettesrépondant aux conditions de pulvérisation. Les caractéristiques ainsi que lecomportement associé de chaque gouttelette sont extraits grâce à une méthodede suivi d’objets. Une analyse statistique basée sur un nombre représentatifde résultats permet ensuite d’évaluer de manière robuste le devenir d’unegoutte en fonction de ses caractéristiques. Parallèlement, un paramètre décrivantl’état de surface de la feuille est également étudié grâce à l’imagerie : larugosité qui joue un rôle prédominant dans la compréhension des mécanismesd’adhésion / In the domain of vineyard precision spraying research, one of the most importantobjectives is to minimize the volume of phytosanitary products ejected bya sprayer in order to be more environmentally respectful with more effectivevine leaf treatments. Unfortunaltely, even if lot of works have been carriedout at a parcel scale, mainly on losses caused by drift, less works have beencarried out at the leaf scale in order to understand which parameters influencethe spray quality. Since few years, recent improvements in image processing,sensitivity of imaging systems and cost reduction have increased the interestof high-speed imaging techniques. Analyzing the behavior of droplets afterimpact with the leaf thanks to high speed imaging technology is a relevantsolution. By this way, we propose a droplets behavior analyzing process invineyard spraying context based on high-speed acquision system combinedwith image processing techniques. This process allows us to extract dropletsparameters. Therefore, a statistical study is processed in order to determinethe effects of droplets parameters on leaf impact or to predict behavior of asingle droplet. Since this behavior is strongly related to leaf surface, we alsopropose to validate a natural leaf roughness characterization method basedon texture analysis
275

Image processing algorithms for the visualization of interventional devices in X-ray fluoroscopy / Algorithmes de traitement d'images pour la visualisation d'outils interventionnels dans des séquences de fluoroscopie par rayons X

Bismuth, Vincent 09 January 2012 (has links)
La pose de stent est l'option de traitement la plus courante de la maladie coronarienne, l'une des principales causes de mortalité dans le monde. Lors d'une procédure de pose de stent, le médecin insère des outils chirurgicaux dans le réseau vasculaire du patient. La progression de ces outils a l’intérieur du corps est suivie en temps réel sous uroscopie par rayons X. Trois outils, en particulier, jouent un rôle crucial dans la procédure : le guide, le ballon d'angioplastie et le stent. Le guide apparaît dans les images sous la forme d'une structure curviligne ne. Le ballon, monte sur le guide, est équipé de deux marqueurs radio-opaques à ses extrémités. Le stent est un maillage métallique qui se projette en une forme complexe dans les images uroscopiques. Le stent, dont le bon déploiement est essentiel au succès du geste médical, est souvent très difficilement visible dans les images. Les travaux présentés dans cette thèse poursuivent un double objectif. Il s'agit d'une part, de concevoir, d’étudier et de valider des techniques de traitement d'image visant à améliorer la visualisation des stents. D'autre part, nous étudions la traitement des structures curvilignes (comme les guides) pour lesquelles nous proposons un nouvel outil. Nous présentons des algorithmes de traitement d'image dédiés a la visualisation 2D et3D des stents. Nous sommes amenés, dans ce but, à détecter, suivre et recaler, de manière complètement automatique, les outils nécessaires a la pose de stent que sont le guide et le ballon. Le stent étant a peine visible dans les images, nous ne cherchons pas à le localiser directement à l'aide de techniques de traitement d'images. La position et le mouvement du stent sont déterminés par nos algorithmes […]. Nous avons évalué la performance des ces outils pour la visualisation des stents en 2D, sur une large base de près de 200 cas cliniques. Il en ressort que notre méthode surpasse les méthodes utilisées jusqu'ici sur le plan de la qualité image. La validation exhaustive que nous avons menée, confirme que nous avions atteint un niveau compatible avec son introduction commerciale. Le logiciel qui en résulte est désormais installé sur un grand nombre de sites cliniques, ou il est régulièrement utilisé. La méthode de visualisation 3D des stents que nous proposons utilise les marqueurs pour effectuer une reconstruction tomographique compensée en mouvement. Nous exposons des résultats préliminaires sur une base de 22 cas cliniques. Il semble que notre méthode surpasse les méthodes précédemment employées aussi bien du point de vue de la qualité d’image que de l'automatisation. Les méthodes de visualisation des stents que nous proposons s’appuient sur la segmentation de la portion du guide qui traverse le stent. Nous proposons un nouvel outil pour le traitement de telles structures curvilignes que nous appelons : l'Image de Chemins Polygonaux (acronyme PPI en anglais). Cet outil repose sur la notion de chemin localement optimal. L'un des principaux avantages du PPI est d’unir dans un même cadre différents concepts pré-existants. De plus, il permet de contrôler la régularité et la longueur des structures à traiter avec une paramétrisation simple et intuitive. Avant de tirer pleinement parti des performances du PPI nous proposons un schéma algorithmique efficace pour le calculer. Nous illustrons ces utilisation pour la segmentation automatique de guide où il surpasse les techniques existantes / Stent implantation is the most common treatment of coronary heart disease, one of the major causes of death worldwide. During a stenting procedure, the clinician inserts interventional devices inside the patient's vasculature. The navigation of the devices inside the patient's anatomy is monitored in real-time, under X-ray fluoroscopy. Three specific interventional devices play a key role in this procedure: the guide-wire, the angioplasty balloon and the stent. The guide-wire appears in the images as a thin curvilinear structure. The angioplasty balloon, that has two characteristic markerballs at its extremities, is mounted on the guide-wire. The stent is a 3D metallic mesh, whose appearance is complex in the fluoroscopic images. Stents are barely visible, but the proper assessment of their deployment is key to the procedure. The objective of the work presented in this thesis is twofold. On the first hand, we aim at designing, studying and validating image processing techniques that improve the visualization of stents. On the second hand, we study the processing of curvilinear structures (like guide-wires) for which we propose a new image processing technique. We present algorithms dedicated to the 2D and 3D visualization of stents. Since the stent is hardly visible, we do not intend to directly locate it by image processing means in the images. The position and motion of the stent are inferred from the location of two landmarks: the angioplasty balloon and of the guide-wire, which have characteristic shapes. To this aim, we perform automated detection, tracking and registration of these landmarks. The cornerstone of our 2D stent visualization enhancement technique is the use of the landmarks to perform motion compensated noise reduction. We evaluated the performance of this technique for 2D stent visualization over a large database of clinical data (nearly 200 cases). The results demonstrate that our method outperforms previous state of the art techniques in terms of image quality. A comprehensive validation confirmed that we reached the level of performance required for the commercial introduction of our algorithm. It is currently deployed in a large number of clinical sites worldwide. The 3D stent visualization that we propose, uses the landmarks to achieve motion compensated tomographic reconstruction. We show preliminary results over 22 clinical cases. Our method seems to outperform previous state of the art techniques both in terms of automation and image quality. The previous stent visualization methods involve the segmentation of the part of the guide-wire extending through the stent. We propose a generic tool to process such curvilinear structures that we call the Polygonal Path Image (PPI). The PPI relies on the concept of locally optimal paths. One of its main advantages is that it unifies the concepts of several previous state of the art techniques in a single formalism. Moreover the PPI enables to control the smoothness and the length of the structures to segment. Its parametrization is simple and intuitive. In order to fully benefit from the PPI, we propose an efficient scheme to compute it. We demonstrate its applicability for the task of automated guide-wire segmentation, for which it outperforms previous state of the art techniques
276

Microscopic crowd simulation : evaluation and development of algorithms / Simulation microscopique de foules : évaluation et développement d'algorithmes

Wolinski, David 22 January 2016 (has links)
Dû au grand intérêt porté à la simulation de foules, beaucoup d'algorithmes ont été et sont encore proposés. Toutefois, (1) il n'existe pas de méthode standard pour évaluer le réalisme et la flexibilité de ces algorithmes, et (2) même les algorithmes les plus récents produisent encore des artéfacts évidents. Abordant la première question, nous proposons une méthode visant à évaluer le réalisme des algorithmes de simulation de foules d'une manière objective et impartiale. ''Objective'' grâce à des métriques quantifiant la similitude entre les simulations et des données acquises en situation réelle. ''Impartiale'' grâce à l'estimation de paramètres permettant d'étalonner automatiquement les algorithmes en vue de décrire au mieux les données (par rapport aux métriques), permettant de comparer les algorithmes au mieux de leur capacité. Nous explorons aussi comment ce processus permet d'augmenter le niveau de contrôle d'un utilisateur sur la simulation tout en réduisant son implication. Abordant la deuxième question, nous proposons un nouvel algorithme d'évitement de collisions. Alors que les algorithmes existants prédisent les collisions en extrapolant linéairement les trajectoires des agents, nous allons au-delà grâce à une approche probabiliste et non-linéaire, prenant en compte entre autres la configuration de l'environnement, les trajectoires passées et les interactions avec les obstacles. Nous éliminons ainsi des simulations résultantes des artefacts tels que : les ralentissements et les agglomérats dérangeants d'agents, les mouvements oscillatoires non naturels, ou encore les manœuvres d'évitement exagérées/fausses/de dernière minute. Dans une troisième contribution, nous abordons aussi l'utilisation de notre travail sur l'évaluation et l'estimation de paramètres dans le cadre de systèmes plus larges. Dans un premier temps, nous l'appliquons à la simulation d'insectes, prenant en charge leur comportement local. Après avoir complété le système aux niveaux intermédiaire et global, cette approche basée-données est capable de simuler correctement des essaims d'insectes. Dans un second temps, nous appliquons notre travail au suivi de piétons, construisant un ''méta-algorithme'' servant à calculer la probabilité de transition d'un filtre particulaire, et surpassant les systèmes existants. / With the considerable attention crowd simulation has received, many algorithms have been and are being proposed. Yet, (1) there exists no standard scheme to evaluate the accuracy and flexibility of these algorithms, and (2) even the most recent algorithms produce noticeable simulation artifacts. Addressing the first issue, we propose a framework aiming to provide an objective and fair evaluation of the realism of crowd simulation algorithms. ''Objective'' here means the use of various metrics quantifying the similarity between simulations and ground-truth data acquired with real pedestrians. ''Fair'' here means the use of parameter estimation to automatically tune the tested algorithms to match the ground-truth data as closely as possible (with respect to the metrics), effectively allowing to compare algorithms at the best of their capability. We also explore how this process can increase a user's control on the simulation while reducing the amount of necessary intervention. Addressing the second issue, we propose a new collision-avoidance algorithm. Where current algorithms predict collisions by linearly extrapolating agents' trajectories, we better predict agents' future motions in a probabilistic, non-linear way, taking into account environment layout, agent's past trajectories and interactions with other obstacles among other cues. Resulting simulations do away with common artifacts such as: slowdowns and visually erroneous agent agglutinations, unnatural oscillation motions, or exaggerated/last-minute/false-positive avoidance manoeuvres. In a third contribution, we also explore how evaluation and parameter estimation can be used as part of wider systems. First, we apply it to insect simulation, taking care of local insect behavior. After completing it at the intermediate and global levels, the resulting data-driven system is able to correctly simulate insect swarms. Second, we apply our work to pedestrian tracking, constructing a ''meta-algorithm'', more accurately computing motion priors for a particle-filter-based tracker, outperforming existing systems.
277

Le Secrétariat général du Gouvernement / The French cabinet secretariat

Guiselin, Jean 15 September 2015 (has links)
Entablure entre les pouvoirs exécutif et législatif, et donc organe administratif essentiel au fonctionnement de tout État moderne, le Secrétariat général du Gouvernement est pourtant une des institutions administratives françaises les plus méconnues.Existant dans tous les pays, sous des formes très variées, depuis plus ou moins longtemps, le Secrétariat général du Gouvernement est apparu en France dès la Révolution de 1789, le Directoire entérinant sa création par le Comité de salut public. Il s’est maintenu de manière quasi ininterrompue jusqu’à aujourd’hui, jouant un rôle d’autant plus actif que l’instabilité politique était forte. Sous la IVème République, le Secrétariat général du Gouvernement et son secrétaire général ont assuré la permanence de l’État, en compensant l’instabilité chronique du politique.Le positionnement du Secrétariat général auprès du Premier ministre induit la question de sa nature, politique ou administrative. Car le choix n’a pas toujours été fait d’y nommer un haut fonctionnaire neutre et étranger au pouvoir politique, de l’Empire au Front populaire.Dans sa forme moderne, le Secrétariat général du Gouvernement, qui s’est progressivement structuré en une administration peu nombreuse, de très haut niveau et stable, est bien un organe administratif : la permanence exceptionnelle des secrétaires généraux le montre parfaitement.Sous la Vème République, la stabilité du pouvoir politique ne l’a pas affaibli. Son rôle d’organisateur du Conseil des ministres a été conforté. Au-delà de sa fonction de coordination du travail gouvernemental, le Secrétariat général du Gouvernement exerce aujourd’hui de nouvelles missions, comme la défense de la loi devant le Conseil constitutionnel, le suivi de l’application des lois. En outre, le Secrétariat général du Gouvernement a développé sa fonction d’intermédiaire entre le Parlement et le Gouvernement.Preuve de l’importance du Secrétariat général du Gouvernement, la tendance récente à le tenir en dehors du processus décisionnel altère fortement l’efficacité de l’État. / The French Cabinet secretariat, pivot of executive and legislative powers, and therefore being a necessary administrative organ to the operating of any modern State, is still one of the lesser known French administrative structure.Having existed in varied forms in all countries, the Cabinet secretariat appeared in France the same time as the French Revolution in 1789. It was created by the “Comité de Salut public” and its creation was insured by the Directoire. The Cabinet secretariat lasted until today almost without interruption, playing a role which’s importance increased as political instability increased. Under the 4th Republic, the Cabinet secretariat secured the continuity of the State, through the balancing of chronic political instability.Its ties to the Prime minister raises the question of its true nature, be it political or administrative. In fact, from the “1st Empire” to the “Front Populaire”, the choice was not always made to appoint an administrator who would have been fully neutral and uninvolved to the political power.In its current form, the Cabinet secretariat is well an administrative body, that became progressively supported by a small, stable, but high-leveled administration. The extraordinary permanence of the Cabinet secretariat illustrates it perfectly.Under the 5th Republic, the steadiness of political power did not weaken the Cabinet secretariat. Its function as an organiser of the Council of the ministers even strengthened its role. Beyond its responsibility of coordinating the governmental work, it has been charged with new duties, like the defense of a law before the “Conseil constitutionnel”, the inspection of the questions of constitutional validity,or the monitoring of the application of laws. Besides, the Cabinet secretariat developed its function of a go-between between the Parliament and the Government, without even infringing upon the role of the minister in charge with the relations with the Parliament.One rebuttal evidence of the importance of the Cabinet secretariat is the relatively new tendency to maintain the Cabinet secretariat out of the decision-taking process of the State, which has for consequence a violently diminished general efficiency of the State.
278

Quantification des mouvements de la mimique faciale par motion capture sur une population de volontaires sains / Quantification of facial movements by motion capture on healthy volunteers

Sarhan, François-Régis 14 June 2017 (has links)
La prise en charge des déficits moteurs de la mimique faciale est complexe et nécessite un suivi sur le long terme. Il existe de nombreuses techniques d’évaluation de la mimique faciale déficitaire avec des degrés variables de sensibilité. Cependant, la plupart de ces techniques sont manuelles et qualitatives (testing musculaire et scores cliniques). Elles conduisent donc à des mesures subjectives et peu reproductibles dans le temps. Ces techniques d’évaluation reposent en outre sur l’appréciation de l’évaluateur qui est une source importante de biais. Ainsi, l’apport d’un outil de mesure objectif pour quantifier un déficit et optimiser le suivi et la prise en charge médicale, chirurgicale et rééducative des patients apparait comme nécessaire. L’objectif de ce travail de thèse était donc de développer un outil quantitatif permettant d’évaluer les troubles de la mimique faciale. Dans cette perspective, nous avons mis en place un protocole d’analyse du mouvement par motion capture et avons réalisé des mesures sur une population de référence. Une étude descriptive utilisant un système de capture de mouvement en 3 dimensions a été réalisée sur des volontaires sains (n = 30) âgés de 20 à 30 ans. Le système de capture du mouvement était constitué de 17 caméras optoélectroniques T160 et de 2 caméras vidéo Bonita (Vicon™). Les mouvements étudiés étaient : la fermeture « simple » (non forcée) des paupières, la fermeture forcée des paupières, la protrusion labiale sur le son « o » [o], la protrusion labiale sur le son « pou » [pμ], et un sourire volontaire découvrant les dents. Lors de ces mouvements, nous avons enregistré et analysé le déplacement de 111 marqueurs réfléchissants de 1.5mm placés sur la face des sujets. Pour les cinq mouvements réalisés, nous avons obtenu des données quantitatives. Celles-ci nous ont permis d’identifier les zones d’action pour chacun des mouvements, de mesurer l’amplitude des déplacements et d’obtenir des données comparables dans le temps. Par ailleurs, le protocole mis en place a été évalué et sa réalisation est compatible avec une application clinique. L’analyse de la cinématique de la face est donc une technique appropriée à la clinique qui pourrait faciliter le diagnostic, le suivi et la rééducation des patients. Ce travail a permis de définir des mesures de référence qui constitueront la base d’un outil diagnostic, qu’il convient désormais de mettre en œuvre sur des patients. / The care of facial paralysis is often complex and therefore requires monitoring over the long term. There are many clinical severity scores with varying levels of sensitivity to assess the deficit of facial movement, but most of them are qualitative. The number of assessment methods is an obstacle to monitor patients and treatment evaluation. We need an objective measurement tool to provide reliable measures of resting asymmetry, symmetry of voluntary movement and synkinesis. The aim of this study is to determine if the 3D motion capture of the face is compatible with these clinical criteria. A descriptive study using a 3-dimensional (3D) motion capture system were performed on healthy volunteers (n=30) age from 20 to 30 years. The motion capture system consists of 17 optoelectronic cameras at a frequency of 100Hz. We captured the movements of the face on healthy volunteers. We obtained absolute values: 3D coordinates and relative displacements. These data were free of manual measurements, and the use of 3D motion capture does not impede the facial movement. The average time of capture was less than 10 minutes. The measurements are painless for subjects. Data are collected in a computer and can be easily exported. These results show the feasibility of 3D motion capture of facial movement. The protocol used here could be standardized to be routinely relevant. lt was used in an experimental study to follow up recovery of a facial transplantation. This technique could help to overcome the uncertainty caused by subjective assessment and optimize therapeutic choices.
279

Calcul de trajectoires pour la préconisation de manoeuvres automobiles sur la base d'une perception multi-capteur : application à l'évitement de collision / Trajectory computing based on multisensor perception for automotive driving maneuver recommendation : the collision avoidance case

Houenou, Adam 09 December 2013 (has links)
Les systèmes d’aide à la conduite, en général, et plus particulièrement les systèmes d’aide à l’évitement de collision sont de plus en plus en présents dans les véhicules car ils ont un très fort potentiel de réduction du nombre d’accidents de la circulation.En effet, ces systèmes ont pour rôle d’assister le conducteur, voire de se substituer à lui lorsque la situation de conduite indique un risque de collision important. Cette thèse traite du développement de ces systèmes en abordant quelques problématiques rencontrées.Afin de réagir convenablement, le système a d’abord besoin d’une représentation aussi fidèle que possible de l’environnement du véhicule. La perception est faite au moyen de capteurs extéroceptifs qui permettent de détecter les objets et d’en mesurer divers paramètres selon leur principe de mesure. La fusion des données individuelles des capteurs permet d’obtenir une information globale plus juste, plus certaine et plus variée. Ce travail traite en profondeur des méthodes de suivi d’objets par fusion de données multi-capteur, multimodale au niveau piste. Les approches proposées ont été évaluées puis approuvées grâce à des données de roulage réel et sur des données de conduite simulées.Il est ensuite nécessaire de faire une analyse de la scène perçue au cours du temps afin d’évaluer le risque de collision encouru par le véhicule porteur du système. Cette thèse propose des méthodes de prédiction de trajectoire et de calcul de probabilité de collision, à divers horizons temporels afin de quantifier le risque de collision et d’établir ainsi divers niveaux d’alerte au conducteur. Un simulateur de scénarios automobiles a été utilisé pour valider la cohérence des méthodes d’analyse de scène.Enfin, lorsque le risque de collision atteint un seuil jugé critique, le système doit calculer une trajectoire d’évitement de collision qui sera ensuite automatiquement exécutée. Les principales approches de planification de trajectoires ont été revues et un choix a été fait et motivé en accord avec le contexte de système d’aide à la conduite. / Driver assistant systems in general, and specially collision avoidance systems are more and more installed in recent vehicles because of their high potential in reducing the number road accidents. Indeed, those systems are designed to assist the driver or even to take its place when the risk of collision is very important. This thesis deals with the main challenges in the development of collision avoidance systems. In order to react in a convenient way, the system must, first, build a faithful representation of the environment of the ego-vehicle. Perception is made by means of exteroceptive sensors that detect objects and measure different parameters, depending on their measurement principle. The fusion of individual sensor data allows obtaining a global knowledge that is more accurate, more certain and more varied. This research work makes a deep exploration of high level multisensor, multimodal, multitarget tracking methods. The proposed approaches are evaluated and validated on real driving data and also on simulated scenarios. Then, the observed scene is continuously analyzed in order to evaluate the risk of collision on the ego-vehicle. The thesis proposes methods of vehicle trajectory prediction and methods to calculate the probability of collision at different prediction times. This allows defining different levels of alert to the driver. an automotive scenarion simulator is used to test and validate the proposed scene analysis approaches. Finally, when the risk of collision reaches a defined critical value, the system must compute a collision avoidance trajectory that will be automatically followed. The main approaches of trajectory planning have been revisited et one has chosen according to the context of driver assistant system.
280

Déterminants pharmacologiques de l’efficacité des inhibiteurs de tyrosine kinases / Pharmacological determinants of the effectiveness of tyrosine kinases inhibitors

Bouchet, Stéphane 16 December 2011 (has links)
Durant la dernière décennie, les inhibiteurs de tyrosine kinases (ITK) ont radicalement changé l’évolution de certains cancers comme la leucémie myéloïde chronique (LMC) ou les tumeurs stromales gastro-intestinales (GIST). Ils sont aujourd’hui largement utilisés dans le traitement de diverses pathologies malignes, permettant un allongement de la survie globale. Cependant, certains patients ne montrent pas d’amélioration au cours du traitement par ITK. Les mécanismes évoqués sont multifactoriels et possèdent une origine pharmacocinétique, pharmacodynamique ou pharmacogénétique. En effet, l’une des causes majeures de variabilité commune à tous ces ITK réside dans un métabolisme impliquant le cytochrome 3A4, dont l’expression est soumise à de nombreux facteurs. L’objectif de cette thèse a été d’approfondir ces mécanismes et d’évaluer certaines stratégies afin d’augmenter l’efficacité de ces médicaments. Ce travail a consisté en premier lieu à développer une méthode chromatographique sensible et rapide permettant le dosage de neufs ITK commercialisés ou en phase avancée de développement. Cet outil, à la base du suivi thérapeutique pharmacologique, a été utilisé dans le cadre de la LMC pour mesurer les concentrations plasmatiques d’imatinib de plus de 3000 patients. Les informations cliniques de ces patients ont été saisies dans une base de données servant de support à l’évaluation de la réponse en fonction de la concentration. Nous avons ainsi confirmé que les patients présentant des concentrations supérieures au seuil d’efficacité de 1000 ng/mL avaient une plus grande probabilité de réponse. Dans la continuité de ce projet, nous avons évalué la relation concentration-efficacité de l’imatinib dans les GIST et trouvé un seuil d’efficacité voisin de 800 ng/mL. Tous les facteurs de variabilités ne sont cependant pas maitrisables avec un dosage plasmatique. La littérature rapporte en effet que certains ITK sont des substrats de transporteurs cellulaires potentiellement impliqués dans la résistance au traitement. Nous avons donc entrepris de doser ces ITK à l’intérieur même des cellules, d’abord in vitro afin d’évaluer ces mécanismes de transport, puis in vivo dans les cellules de patients traités par ces ITK. Un lien a ainsi été montré entre la capacité d’incorporation des molécules et la réponse au traitement. Enfin, le versant pharmacogénétique de l’un de ces transporteurs (MDR1) a été étudié, indiquant une relation entre certains haplotypes ou polymorphismes et la concentration plasmatique d’une part et la réponse à l’imatinib d’autre part. En conclusion, ces différentes stratégies basées sur le dosage plasmatique ou intracellulaire et sur la pharmacogénétique semblent apporter des éléments permettant l’amélioration de la réponse au ITK ou la détection précoce de mauvaise réponse. / During the last decade, tyrosine kinases inhibitors (TKI) have dramatically changed the prognosis of several cancers such as chronic myeloid leukaemia (CML) or gastro-intestinal stromal tumours (GIST). They are widely used in the treatment of various malignant pathologies, leading to a prolonged overall survival. However, some patients do not show improvement when treated with TKI. The supposed mechanisms are multifactorial and could have an origin in pharmacokinetics, pharmacodynamics or pharmacogenomics. Indeed, one of the major reasons of common variability of these TKI involves their metabolism by cytochrome 3A4, whose expression is subjected to many factors. The aim of this thesis was to deepen these mechanisms and to assess some strategies to increase the efficacy of these drugs. This work consisted first in developing a rapid and sensitive chromatographic method allowing determination of nine commercialised (or in advanced clinical development) TKI. Serving as a basis for therapeutic drug monitoring, this was used as part of CML management to measure imatinib plasmatic concentration of more than 3000 patients. The clinical information of these patients was recorded in a database and used as support for the evaluation of the response according to concentration. Thus, we confirmed that patients having concentration higher than the effectiveness threshold of 1000 ng/mL got higher probability of response. In the same way, we assessed relationship between imatinib concentration and efficacy in GIST and found an effectiveness threshold closed to 800 ng/mL. However, several factors of variability remain unmanageable with only plasmatic determination. Indeed, literature reported that some TKI were substrates of cellular transporters, potentially involved in the resistance to treatment. We therefore decided to determine concentration of these TKI into the cells, first in vitro to assess these mechanisms of transport, and then in vivo into the cells of patients treated by these TKI. A link was shown between the incorporation ability of molecules and the response to the treatment. Finally, a pharmacogenetic approach showed a relationship between some haplotypes or polymorphisms of a transporter (MDR1) and plasmatic concentration on one hand, and response to the imatinib on the other hand. In conclusion, these different strategies based on plasmatic or intracellular determination of TKI and on pharmacogenomics contribute to improvement of the response to TKI or early detection of non-response.

Page generated in 0.053 seconds