• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 158
  • 46
  • 10
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 220
  • 96
  • 50
  • 31
  • 26
  • 26
  • 25
  • 24
  • 22
  • 21
  • 21
  • 20
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Prise en compte des erreurs de mesure dans l'analyse du risque associe a l'exposition aux rayonnements ionisants dans une cohorte professionnelle : application à la cohorte française des mineurs d'uranium

Allodji, Setcheou Rodrigue 09 December 2011 (has links) (PDF)
Dans les études épidémiologiques, les erreurs de mesure de l'exposition étudiée peuvent biaiser l'estimation des risques liés à cette exposition. Un grand nombre de méthodes de correction de l'effet de ces erreurs a été développé mais en pratique elles ont été rarement appliquées, probablement à cause du fait que leur capacité de correction et leur mise en œuvre sont peu maîtrisées. Une autre raison non moins importante est que, en l'absence de données répétées ou de données de validation, ces méthodes de correction exigent la connaissance détaillée des caractéristiques (taille, nature, structure et distribution) des erreurs de mesure. L'objectif principal de cette thèse est d'étudier l'impact de la prise en compte des erreurs de mesure dans les analyses du risque de décès par cancer du poumon associé à l'exposition au radon à partir de la cohorte française des mineurs d'uranium (qui ne dispose ni de données répétées, ni de données de validation). Les objectifs spécifiques étaient (1) de caractériser les erreurs de mesure associées aux expositions radiologiques (radon et ses descendants, poussières d'uranium et rayonnements gamma), (2) d'étudier l'impact des erreurs de mesure de l'exposition au radon et à ses descendants sur l'estimation de l'excès de risque relatif (ERR) de décès par cancer du poumon et (3) d'étudier et comparer la performance des méthodes de correction de l'effet de ces erreurs. La cohorte française des mineurs d'uranium comprend plus de 5000 individus exposés de manière chronique au radon et à ses descendants qui ont été suivis en moyenne pendant 30 ans. Les erreurs de mesure ont été caractérisées en prenant en compte l'évolution des méthodes d'extraction et de la surveillance radiologique des mineurs au fil du temps. Une étude de simulation basée sur la cohorte française des mineurs d'uranium a été mise en place pour étudier l'impact de ces erreurs sur l'ERR ainsi que pour comparer la performance des méthodes de correction. Les résultats montrent que les erreurs de mesure de l'exposition au radon et à ses descendants ont diminué au fil des années. Pour les premières années, avant 1970, elles dépassaient 45 % et après 1980 elles étaient de l'ordre de 10 %. La nature de ces erreurs a aussi changé au cours du temps ; les erreurs essentiellement de nature Berkson ont fait place à des erreurs de nature classique après la mise en place des dosimètres individuels à partir de 1983. Les résultats de l'étude de simulation ont montré que les erreurs de mesure conduisent à une atténuation de l'ERR vers la valeur nulle, avec un biais important de l'ordre de 60 %. Les trois méthodes de correction d'erreurs considérées ont permis une réduction notable mais partielle du biais d'atténuation. Un avantage semble exister pour la méthode de simulation extrapolation (SIMEX) dans notre contexte, cependant, les performances des trois méthodes de correction sont fortement tributaires de la détermination précise des caractéristiques des erreurs de mesure.Ce travail illustre l'importance de l'effet des erreurs de mesure sur les estimations de la relation entre l'exposition au radon et le risque de décès par cancer du poumon. L'obtention d'estimation de risque pour laquelle l'effet des erreurs de mesure est corrigé devrait s'avérer d'un intérêt majeur en support des politiques de protection contre le radon en radioprotection et en santé publique.
172

Exploitation des mesures "vapeur d'eau" du satellite Megha-Tropiques pour l'élaboration d'un algorithme de restitution de profils associés aux fonctions de densité de probabilité de l'erreur conditionnelle

Sivira, Ramses 16 December 2013 (has links) (PDF)
La place de la vapeur d'eau est centrale dans le système climatique : à l'échelle globale, elle participe à la redistribution de l'excédent d'énergie des régions tropicales vers les régions polaires via les grandes cellules de circulation, à méso-échelle elle participe au développement (maturation, dissipation) des systèmes nuageux, précipitants ou non, et à plus petite échelle, ce sont les lois de la thermodynamique humide qui régissent la microphysique de ces nuages. Finalement c'est le plus abondant des gaz à effet de serre qui est au centre d'une boucle de rétroaction fortement positive. La mission satellite Megha-Tropiques a été conçue pour améliorer la documentation du cycle de l'eau et de l'énergie des régions tropicales, via notamment trois instruments : deux radiomètres microondes MADRAS (un imageur) et SAPHIR (un sondeur) respectivement dédiés à l'observation des précipitations (liquides et glacées) et de l'humidité relative atmosphérique, et un radiomètre multi-spectral ScaRaB pour la mesure des flux radiatifs au sommet de l'atmosphère dans le bilan de l'eau et l'énergie de l'atmosphère tropicale et décrire l'évolution de ces systèmes. Les caractéristiques des instruments embarqués permettraient une résolution étendue autours de la raie à 183 GHz du spectre microonde, qui permet de sonder le contenu en vapeur d'eau même en présence des nuages convectifs. Afin de construire une base d'apprentissage où les valeurs d'entrée et sortie soient parfaitement colocalisées et qui, en même temps, soit représentative du problème à modéliser, une large base de radiosondages obtenus par ciel claire et couvrant la bande tropicale (±30° en latitude) sur la période 1990-2008 a été exploitée en parallèle à un modèle de transfert radiatif pour l'obtention des températures de brillance simulées des deux radiomètres. Nous avons mis au point une méthodologie qui nous a permis de développer un algorithme de restitution des profils de vapeur d'eau à partir des observations SAPHIR et MADRAS, et surtout de quantifier l'incertitude conditionnelle d'estimation. L'approche s'est orientée vers l'exploitation des méthodes purement statistiques de restitution des profils afin d'extraire le maximum d'information issues des observations, sans utiliser d'information complémentaire sur la structure thermodynamique de l'atmosphère ou des profils a priori, pour se concentrer sur les diverses restrictions du problème inverse. Trois modèles statistiques ont été optimisés sur ces données d'apprentissage pour l'estimation des profils sur 7 couches de la troposphère, un réseaux de neurones (modèle perceptron multicouches), le modèle additif généralisé et le modèle de machines à vecteur de support (Least Square-Support Vector Machines), et deux hypothèses de modélisation de la fonction de distribution de la probabilité (pdf) de l'erreur conditionnelle sur chacune des couches ont été testées, l'hypothèse Gaussienne (HG) et le mélange de deux distributions Gaussiennes (M2G). L'effort porté sur l'optimisation des modèles statistiques a permis de démontrer que les comportements des trois modèles d'estimation sont semblables, ce qui nous permet de dire que la restitution est indépendante de l'approche utilisée et qu'elle est directement reliée aux contraintes physiques du problème posé. Ainsi, le maximum de précision pour la restitution des profils verticaux d'humidité relative est obtenu aux couches situées dans la moyenne troposphère (biais maximum de 2,2% et coefficient de corrélation minimum de 0,87 pour l'erreur d'estimation) tandis que la précision se dégrade aux extrêmes de la troposphère (à la surface et proche de la tropopause, avec toutefois un biais maximale de 6,92% associé à une forte dispersion pour un coefficient de corrélation maximum de 0,58 pour l'erreur d'estimation), ce qui est expliqué par le contenu en information des mesures simulées utilisées. A partir de la densité de probabilité de l'erreur, connaissant les températures de brillance observées, des intervalles de confiance conditionnels de l'humidité de chacune de couches de l'atmosphère ont été estimés. Les algorithmes d'inversion développés ont été appliqués sur des données réelles issues de la campagne "vapeur d'eau" de validation Megha-Tropiques de l'été 2012 à Ouagadougou qui a permis d'obtenir des mesures par radiosondages coïncidentes avec les passages du satellite. Après prise en compte de l'angle de visée, des incertitudes liées à l'étalonnage de SAPHIR et des erreurs associées à la mesure in situ, l'exploitation de ces données a révélé un comportement semblable aux données de l'apprentissage, avec une bonne performance (biais de 4,55% et coefficient de corrélation de 0,874 sur l'erreur d'estimation) en moyenne troposphère et une dégradation aux extrêmes de la colonne atmosphérique (biais de -4,81% et coefficient de corrélation de 0,419). L'application systématique sur l'ensemble des mesures réalisées par SAPHIR permettra donc mener des études de la variabilité de la vapeur d'eau tropicale en tenant compte des intervalles de confiance associés à la restitution.
173

Modélisation et utilisation des erreurs de pseudodistances GNSS en environnement transport pour l’amélioration des performances de localisation / Modeling and use of GNSS pseudorange errors in transport environment to enhance the localization performances

Viandier, Nicolas 07 June 2011 (has links)
Les GNSS sont désormais largement présents dans le domaine des transports. Actuellement, la communauté scientifique désire développer des applications nécessitant une grande précision, disponibilité et intégrité.Ces systèmes offrent un service de position continu. Les performances sont définies par les paramètres du système mais également par l’environnement de propagation dans lequel se propagent les signaux. Les caractéristiques de propagation dans l’atmosphère sont connues. En revanche, il est plus difficile de prévoir l’impact de l’environnement proche de l’antenne, composé d’obstacles urbains. L’axe poursuivit par le LEOST et le LAGIS consiste à appréhender l’environnement et à utiliser cette information en complément de l’information GNSS. Cette approche vise à réduire le nombre de capteurs et ainsi la complexité du système et son coût. Les travaux de recherche menés dans le cadre de cette thèse permettent principalement de proposer des modélisations d'erreur de pseudodistances et des modélisations de l'état de réception encore plus réalistes. Après une étape de caractérisation de l’erreur, plusieurs modèles d’erreur de pseudodistance sont proposés. Ces modèles sont le mélange fini de gaussiennes et le mélange de processus de Dirichlet. Les paramètres du modèle sont estimés conjointement au vecteur d’état contenant la position grâce à une solution de filtrage adaptée comme le filtre particulaire Rao-Blackwellisé. L’évolution du modèle de bruit permet de s'adapter à l’environnement et donc de fournir une localisation plus précise. Les différentes étapes des travaux réalisés dans cette thèse ont été testées et validées sur données de simulation et réelles. / Today, the GNSS are largely present in the transport field. Currently, the scientific community aims to develop transport applications with a high accuracy, availability and integrity. These systems offer a continuous positioning service. Performances are defined by the system parameters but also by signal environment propagation. The atmosphere propagation characteristics are well known. However, it is more difficult to anticipate and analyze the impact of the propagation environment close to the antenna which can be composed, for instance, of urban obstacles or vegetation.Since several years, the LEOST and the LAGIS research axes are driven by the understanding of the propagation environment and its use as supplementary information to help the GNSS receiver to be more pertinent. This approach aims to reduce the number of sensors in the localisation system, and consequently reduces its complexity and cost. The work performed in this thesis is devoted to provide more realistic pseudorange error models and reception channel model. After, a step of observation error characterization, several pseudorange error models have been proposed. These models are the finite gaussian mixture model and the Dirichlet process mixture. The model parameters are then estimated jointly with the state vector containing position by using adapted filtering solution like the Rao-Blackwellized particle filter. The noise model evolution allows adapting to an urban environment and consequently providing a position more accurate.Each step of this work has been tested and evaluated on simulation data and real data.
174

Synthèse d'observateurs ensemblistes pour l’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation / Set-membership state observers design based on explicit characterizations of theestimation-error bounds

Loukkas, Nassim 06 June 2018 (has links)
Dans ce travail, nous proposons deux nouvelles approches ensemblistes pourl’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation. Ces approches peuvent être vues comme la combinaison entre un observateur ponctuel et une caractérisation ensembliste de l’erreur d’estimation. L’objectif est de réduire la complexité de leur implémentation, de réduire le temps de calcul en temps réel et d’améliorer la précision et des encadrements des vecteurs d’état.La première approche propose un observateur ensembliste basé sur des ensembles invariants ellipsoïdaux pour des systèmes linéaires à temps-discret et aussi des systèmes à paramètres variables. L’approche proposée fournit un intervalle d’état déterministe qui est construit comme une somme entre le vecteur état estimé du système et les bornes de l’erreur d’estimation. L’avantage de cette approche est qu’elle ne nécessite pas la propagation des ensemble d’état dans le temps.La deuxième approche est une version intervalle de l’observateur d’état de Luenberger, pour les systèmes linéaires incertains à temps-discret, basés sur le calcul d’intervalle et les ensembles invariants. Ici, le problème d’estimation ensembliste est considéré comme un problème d’estimation d’état ponctuel couplé à une caractérisation intervalle de l’erreur d’estimation. / In This work, we propose two main new approaches for the set-membershipstate estimation problem based on explicit characterization of the estimation error bounds. These approaches can be seen as a combination between a punctual observer and a setmembership characterization of the observation error. The objective is to reduce the complexity of the on-line implimentation, reduce the on-line computation time and improve the accuracy of the estimated state enclosure.The first approach is a set-membership observer based on ellipsoidal invariant sets for linear discrete-time systems and also for Linear Parameter Varying systems. The proposed approach provides a deterministic state interval that is build as the sum of the estimated system states and its corresponding estimation error bounds. The important feature of the proposed approach is that does not require propagation of sets.The second approach is an interval version of the Luenberger state observer for uncertain discrete-time linear systems based on interval and invariant set computation. The setmembership state estimation problem is considered as a punctual state estimation issue coupled with an interval characterization of the estimation error.
175

Détection des utilisations à risque d’API : approche basée sur le système immunitaire

Gallais-Jimenez, Maxime 06 1900 (has links)
No description available.
176

Contribution to error analysis of algorithms in floating-point arithmetic / Contribution à l'analyse d'algorithmes en arithmétique à virgule flottante

Plet, Antoine 07 July 2017 (has links)
L’arithmétique virgule flottante est une approximation de l’arithmétique réelle dans laquelle chaque opération peut introduire une erreur. La norme IEEE 754 requiert que les opérations élémentaires soient aussi précises que possible, mais au cours d’un calcul, les erreurs d’arrondi s’accumulent et peuvent conduire à des résultats totalement faussés. Cela arrive avec une expression aussi simple que ab + cd, pour laquelle l’algorithme naïf retourne parfois un résultat aberrant, avec une erreur relative largement supérieure à 1. Il est donc important d’analyser les algorithmes utilisés pour contrôler l’erreur commise. Je m’intéresse à l’analyse de briques élémentaires du calcul en cherchant des bornes fines sur l’erreur relative. Pour des algorithmes suffisamment précis, en arithmétique de base β et de précision p, on arrive en général à prouver une borne sur l'erreur de la forme α·u + o(u²) où α > 0 et u = 1/2·β1-p est l'unité d'arrondi. Comme indication de la finesse d'une telle borne, on peut fournir des exemples numériques pour les précisions standards qui approchent cette borne, ou bien un exemple paramétré par la précision qui génère une erreur de la forme α·u + o(u²), prouvant ainsi l'optimalité asymptotique de la borne. J’ai travaillé sur la formalisation d’une arithmétique à virgule flottante symbolique, sur des nombres paramétrés par la précision, et à son implantation dans le logiciel de calcul formel Maple. J’ai aussi obtenu une borne d'erreur très fine pour un algorithme d’inversion complexe en arithmétique flottante. Ce résultat suggère le calcul d'une division décrit par la formule x/y = (1/y)·x, par opposition à x/y = (x·y)/|y|². Quel que soit l'algorithme utilisé pour effectuer la multiplication, nous avons une borne d'erreur plus petite pour les algorithmes décrits par la première formule. Ces travaux sont réalisés avec mes directeurs de thèse, en collaboration avec Claude-Pierre Jeannerod (CR Inria dans AriC, au LIP). / Floating-point arithmetic is an approximation of real arithmetic in which each operation may introduce a rounding error. The IEEE 754 standard requires elementary operations to be as accurate as possible. However, through a computation, rounding errors may accumulate and lead to totally wrong results. It happens for example with an expression as simple as ab + cd for which the naive algorithm sometimes returns a result with a relative error larger than 1. Thus, it is important to analyze algorithms in floating-point arithmetic to understand as thoroughly as possible the generated error. In this thesis, we are interested in the analysis of small building blocks of numerical computing, for which we look for sharp error bounds on the relative error. For this kind of building blocks, in base and precision p, we often successfully prove error bounds of the form α·u + o(u²) where α > 0 and u = 1/2·β1-p is the unit roundoff. To characterize the sharpness of such a bound, one can provide numerical examples for the standard precisions that are close to the bound, or examples that are parametrized by the precision and generate an error of the same form α·u + o(u²), thus proving the asymptotic optimality of the bound. However, the paper and pencil checking of such parametrized examples is a tedious and error-prone task. We worked on the formalization of a symbolicfloating-point arithmetic, over numbers that are parametrized by the precision, and implemented it as a library in the Maple computer algebra system. We also worked on the error analysis of the basic operations for complex numbers in floating-point arithmetic. We proved a very sharp error bound for an algorithm for the inversion of a complex number in floating-point arithmetic. This result suggests that the computation of a complex division according to x/y = (1/y)·x may be preferred, instead of the more classical formula x/y = (x·y)/|y|². Indeed, for any complex multiplication algorithm, the error bound is smaller with the algorithms described by the “inverse and multiply” approach.This is a joint work with my PhD advisors, with the collaboration of Claude-Pierre Jeannerod (CR Inria in AriC, at LIP).
177

Regularized Jackknife estimation with many instruments

Doukali, Mohamed 10 1900 (has links)
No description available.
178

L'intersinographie : une étude de l’acquisition de l’écriture des caractères chinois par des apprenants francophones / Intersinography : a study of the acquisition of Chinese character writing by Francophone learners

Song, Weiyi 31 October 2017 (has links)
Cette thèse porte sur l’intersinographie, notion construite sur le modèle d’« interlangue », pour caractériser les connaissances "intermédiaires" des apprenants en matière d’écriture en langue étrangère. Nous étudions la dynamique du développement des compétences graphiques chez des apprenants francophones du chinois comme langue étrangère. Nous abordons une question cruciale pour la didactique et l’apprentissage de la langue chinoise (mandarin). En effet, à la différence des langues à écriture alphabétique, le développement d’une compétence graphique en chinois a des spécificités qui ne se réduisent pas à la transcription de la langue parlée. Cela tient évidemment à la nature de l’écriture chinoise. La maîtrise de cette dernière requiert des processus pédagogiques particuliers. Peu de travaux ont été consacrés au développement d’une compétence graphique en langue étrangère et encore moins aux compétences liées à la sinographie. Cette thèse s’articule autour d’une étude de la maîtrise de l’exécution graphique. Afin de dresser une liste des productions graphiques non conformes, nous avons établi trois corpus auprès d’apprenants du chinois langue étrangère : un corpus graphique général, un test de la graphie de 100 caractères et un corpus relevé auprès d’adolescents apprenant le français. Suite à nos études quantitatives et qualitatives (suivi des évolutions individuelles), validées par des analyses statistiques, nous proposons une démarche d’enseignement dite d’« arborescence sinographique (字树, zìshù) ». A l’heure de la digitalisation de l’information et des savoirs, cette thèse propose des pistes de réflexion originales en matière de didactique des sinogrammes. / This thesis focuses on intersinography, a concept built on the "interlanguage" model, to characterize the learner’s "intermediate" knowledge of writing in a foreign language. We study the dynamics of the development of graphic competences in French-speaking learners of Chinese as a foreign language.We address a crucial question for didactics and learning Chinese (Mandarin). Unlike languages written in an alphabet system, the development of the graphic skills necessary for writing Chinese characters is partially distinct from the learning of spoken Chinese. This is obviously due to the nature of Chinese logograms. Mastery of reading and writing in Chinese requires specific pedagogical processes, distinct from those of oral language.Little work has been devoted to the development of graphic competence in a foreign language, in particular to sinography. This thesis is based on a study of the mastery of graphical execution.In order to draw up a list of non-conforming graphic productions, we have built three corpora among learners of Chinese as a foreign language: a corpus of writings from adolescents (the adolescent corpus), a test for diagnosing written competency (the 100-character test), and a general-use corpus of character writings (the general graphic corpus).Following our quantitative and qualitative studies (follow-up of individual evolutions), and validated by statistical analyzes, we propose a method of teaching called the "sinographic tree (字树, zìshù)". In the age of the digitization of information and knowledge, this thesis proposes unique reflection on the teaching of the sinograms.
179

Surveillance préventive des systèmes hybrides à incertitudes bornées / Preventive monitoring of hybrid systems in a bounded-error framework

MaÏga, Moussa 02 July 2015 (has links)
Cette thèse est dédiée au développement d’algorithmes génériques pour l’observation ensembliste de l’état continu et du mode discret des systèmes dynamiques hybrides dans le but de réaliser la détection de défauts. Cette thèse est organisée en deux grandes parties. Dans la première partie, nous avons proposé une méthode rapide et efficace pour le passage ensembliste des gardes. Elle consiste à procéder à la bissection dans la seule direction du temps et ensuite faire collaborer plusieurs contracteurs simultanément pour réduire le domaine des vecteurs d’état localisés sur la garde, durant la tranche de temps étudiée. Ensuite, nous avons proposé une méthode pour la fusion des trajectoires basée sur l'utilisation des zonotopes. Ces méthodes, utilisées conjointement, nous ont permis de caractériser de manière garantie l'ensemble des trajectoires d'état hybride engendrées par un système dynamique hybride incertain sur un horizon de temps fini. La deuxième partie de la thèse aborde les méthodes ensemblistes pour l'estimation de paramètres et pour l'estimation d'état hybride (mode et état continu) dans un contexte à erreurs bornées. Nous avons commencé en premier lieu par décrire les méthodes de détection de défauts dans les systèmes hybrides en utilisant une approche paramétrique et une approche observateur hybride. Ensuite, nous avons décrit deux méthodes permettant d’effectuer les tâches de détection de défauts. Nous avons proposé une méthode basée sur notre méthode d'atteignabilité hybride non linéaire et un algorithme de partitionnement que nous avons nommé SIVIA-H pour calculer de manière garantie l'ensemble des paramètres compatibles avec le modèle hybride, les mesures et avec les bornes d’erreurs. Ensuite, pour l'estimation d'état hybride, nous avons proposé une méthode basée sur un prédicteurcorrecteur construit au dessus de notre méthode d'atteignabilité hybride non linéaire. / This thesis is dedicated to the development of generic algorithms for the set-membership observation of the continuous state and the discrete mode of hybrid dynamical systems in order to achieve fault detection. This thesis is organized into two parts. In the first part, we have proposed a fast and effective method for the set-membership guard crossing. It consists in carrying out bisection in the time direction only and then makes several contractors working simultaneously to reduce the domain of state vectors located on the guard during the study time slot. Then, we proposed a method for merging trajectories based on zonotopic enclosures. These methods, used together, allowed us to characterize in a guaranteed way the set of all hybrid state trajectories generated by an uncertain hybrid dynamical system on a finite time horizon. The second part focuses on set-membership methods for the parameters or the hybrid state (mode and continuous state) of a hybrid dynamical system in a bounded error framework. We started first by describing fault detection methods for hybrid systems using the parametric approach and the hybrid observer approach. Then, we have described two methods for performing fault detection tasks. We have proposed a method for computing in a guaranteed way all the parameters consistent with the hybrid dynamical model, the actual data and the prior error bound, by using our nonlinear hybrid reachability method and an algorithm for partition which we denote SIVIA-H. Then, for hybrid state estimation, we have proposed a method based on a predictor-corrector, which is also built on top of our non-linear method for hybrid reachability.
180

Contribution à la conception et l'optimisation des systèmes haptiques / Contribution to the design and optimization of haptic systems

Chaker, Abdelbadia 26 November 2012 (has links)
L'objectif de ce travail est de concevoir une nouvelle interface haptique en vue de son exploitation pour la chirurgie mini-invasive. La technique d'anastomose ciblée consiste à réunir deux parties désolidarisées d'une artère par des sutures et des nœuds. Ceci est effectué par des outils chirurgicaux introduits à travers de petites incisions. Une étude expérimentale de cette tâche a été effectuée en collaboration avec des chirurgiens afin de caractériser leurs gestes. L'enregistrement de l'opération par un système de capture de mouvement a permis d'identifier la nature et les gestes canoniques de cette technique. Une structure parallèle sphérique a été ensuite adoptée comme base de l'interface haptique. Cette architecture présente un centre fixe de rotation semblable au point d'incision réel et offre les trois degrés de liberté de rotation nécessaires autours de ce point. Une étude détaillée de cette architecture suivie d'une phase d'optimisation, a permis d'adapter la structure à l'application chirurgicale. L'optimisation, basée sur un algorithme générique, a porté dans un premier lieu sur l'espace de travail de la tâche. La dextérité de la structure a été ensuite prise en compte. Une phase de conception basée sur les paramètres résultants de cette optimisation a aboutie à la réalisation d'un premier prototype. L'influence des erreurs de fabrication sur l'orientation de la plateforme a été aussi traitée dans ce travail afin de déterminer les plages des défauts admissibles. Une modélisation, utilisant les torseurs de petits déplacements, a été élaborée.La dernière partie de ce travail porte sur la commande a retour d'effort de l'interface. Un banc d'essais à 1 degré de liberté a été réalisé afin de tester les différents schémas de contrôle pour la téléopération. Les essais en simulation on permit de dresser une vue comparative de ces schémas. / The aim of this work is to develop a new haptic interface to perform a minimally invasive surgery. The targeted anastomosis technique consists of the surgical binding of a ruptured blood vessel, using sutures and knots. This task is performed by surgical tools inserted through small incisions. An experimental study of this task was conducted in collaboration with surgeons in order to characterize their gesture. The recording of the operation by a motion capture system helped identifying the nature and the canonical actions of this technique. A spherical parallel mechanism (SPM) was then adopted as a basis for the haptic interface. This architecture has a fixed center of rotation similar to the real incision point and offers the three required degrees of freedom of rotation around that point. A detailed study of the architecture followed by an optimization procedure led to a suitable mechanism for the surgical application. The optimization, which is based on a generic algorithm, used the workspace of the task as a criterion. Then the dexterity of the structure was taken into account. A design phase based on the parameters resulting from this optimization led to building the first prototype.The influence of manufacturing errors on the orientation of the platform was also addressed in this work to determine the ranges of allowable defects. The manufacturing errors are modeled by screws of small displacement in order to determine their effect on the orientation error of the end effector. The last part of this work focuses on the command of the force feedback interface. An experimental setup made out of a one degree of freedom system, was built to test different control schemes for teleoperation. Simulation trials allowed developing a comparative view of these schemes.

Page generated in 0.0536 seconds