Spelling suggestions: "subject:"modèle prédiction"" "subject:"modèle prédictive""
11 |
Apport de la base de données DAHD (Drug Allergy and Hypersensitivity Database) à la compréhension des hypersensibilités médicamenteuses / The contribution of the Drug Allergy and Hypersensitivity Database to the comprehension of drug hypersensitivitiesChiriac, Anca Mirela 29 November 2017 (has links)
La confirmation d’une hypersensibilité médicamenteuse est importante car la plupart des cas allégués ne sont pas confirmés. Le diagnostic repose sur l’interrogatoire et le bilan allergologique, ce dernier comprenant surtout des tests in vivo. Ces tests ne sont pas dénués de risque. Ce travail se propose de répondre avec une méthodologie originale (pour le domaine de l’hypersensibilité médicamenteuse), à des questions en suspens visant la nécessité, les modalités et l’utilité du bilan allergologique, en prenant principalement mais pas exclusivement le modèle des hypersensibilités aux ß-lactamines. J’ai utilisé plusieurs approches méthodologiques, appliquées à une large base de données d’hypersensibilités médicamenteuses. Dans un premier temps, j’ai exploité les données cliniques rétrospectives afin de construire 2 modèles de diagnostic d’hypersensibilité aux ß-lactamines et j’ai ensuite testé leurs performances diagnostiques sur un échantillon prospectif de patients. Les modèles atteignent globalement une sensibilité de 50%, ce qui est difficilement acceptable, dans un contexte iatrogénique. Secondairement, j’ai réalisé le passage des protocoles de tests de provocation aux ß-lactamines, d’une étape avec paliers purement empiriques, à un protocole basé sur des données issues d’une analyse de survie. Autres 3 articles ont suivi une méthodologie similaire : les patients ayant eu un bilan allergologique négatif pour un médicament donné ont été re-contactés et interrogés au moyen d’un questionnaire. Le service rendu au patient a été calculé par le taux de patients ayant repris (sans réaction) le médicament autorisé (plus de 90% pour 3 classes médicamenteuses analysées). / Most alleged cases of hypersensitivity reactions following drug administration are actually ruled out by drug allergy work up. The diagnosis is based on clinical history and allergy tests, mainly in vivo tests. These tests carry a considerable risk of iatrogeny. The purpose of this thesis was to address some unmet needs regarding the need, technical aspects and utility of the drug allergy work up, using an original methodology applied to the drug hypersensitivity field. It focuses mainly (but not only) on drug hypersensitivity reactions to ß-lactams. I used different statistical methods, applied to a large database, the Drug Allergy and Hypersensitivity Database. First (Article 1), I used retrospective clinical data to build 2 models for ß-lactam hypersensitivity diagnosis. I then tested these models on a prospective sample, in order to analyze their diagnostic performances. The overall sensitivity of the 2 models is around 50%, which is unacceptable in an iatrogenic context. Second (Article 2), I worked on empirical protocols of drug provocation tests and I identified steps for data-driven, evidence-based protocols by means of survival analysis. The Articles 3, 4 and 5 were conceived following a similar methodology: patients with a negative drug allergy work-up for a certain drug were called and questioned on whether they had been exposed to this same drug, following allergy tests. High negative predictive values of these tests, with more than 90% of patients tolerating subsequent administration without any hypersensitivity reaction, were obtained for 3 different drug classes.
|
12 |
001_correct : un environnement de restructuration des programmes objets piloté par la qualitéChawiche, Hassan M. January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
13 |
Atténuation des réafférences visuelles de la main dans le cortex pariétal lors d’un mouvement d’atteinte vers une cible.Benazet, Marc January 2016 (has links)
Résumé : Il semble que le cerveau atténuerait les stimuli provenant de nos actions par rapport aux stimuli d’origine externe, ceci afin d’augmenter la pertinence des informations environnementales. Lors de la production d’un mouvement, la copie de la commande motrice serait utilisée pour anticiper les conséquences sensorielles. Les conséquences sensorielles prédites permettraient ainsi d’atténuer les réafférences réelles du mouvement. Plusieurs évidences montrent que l’activité corticale liée aux réafférences somatosensorielles et auditives est atténuée lorsque celles-ci résultent de nos propres mouvements par rapport à lorsqu’elles proviennent d’une cause externe. L’étude présentée dans ce mémoire a investigué l’existence d’une atténuation des réafférences visuelles lors d’un mouvement d’atteinte du bras vers une cible. L’expérience consistait en une tâche de pointage de la main vers une cible visuelle, pendant laquelle l’activité EEG des sujets était enregistrée. L’intervalle de temps entre la position réelle de la main et le curseur visuel associé à celle-ci était manipulé. De fait, le retour visuel était fourni soit en temps réel soit avec un retard de 150 ms. Le délai créait ainsi un décalage entre les conséquences visuelles prédites et réelles du mouvement. Les résultats montrent que l’amplitude de la composante N1 du Potentiel Évoqué Visuel (PEV) associé au retour visuel de la main était réduite dans le cortex pariétal lorsque le retour visuel était fourni en temps réel par rapport à lorsqu’il était présenté en retard. Conséquemment, ces données suggèrent que les réafférences visuelles du membre en mouvement sont atténuées au niveau cortical lorsqu’elles correspondent aux prédictions. L’association des résultats comportementaux et électrophysiologiques supportent également d’autres études qui montrent que les processus sensorimoteurs sont plus fins que la perception consciente. À la lumière de la littérature, la modulation de la composante N1 enregistrée aux électrodes pariéto-occipitales suggère l’implication des régions pariétales dans l’intégration des retours sensoriels et des prédictions motrices. En discussion, nous proposons que les retours visuels liés au contrôle en ligne du membre soient modulés au niveau pariétal en raison des prédictions motrices cérébelleuses, à l’instar des retours tactiles. / Abstract : It is well established that the cortical processing of somatosensory and auditory signals is attenuated when they result from self-generated actions as compared to external events. This phenomenon is thought to result from an efference copy of motor commands used to predict the sensory consequences of an action through a forward model. The present work examined whether attenuation also takes place for visual reafferent signals from the moving limb during voluntary reaching movements. To address this issue, EEG activity was recorded in a condition in which visual feedback of the hand was provided in real time and compared to a condition in which it was presented with a 150 ms delay, thus creating a mismatch between the predicted and actual visual consequences of the movement. Results revealed that the amplitude of the N1 component of the visual ERP evoked by hand visual feedback over the parietal cortex was significantly smaller when presented in real time as compared to when it was delayed. These data suggest that the cortical processing of visual reafferent signals is attenuated when they are correctly predicted, likely as a result of a forward model.
|
14 |
Etude de déformabilité de tresses en cours de préformage pour la fabrication de composite par le procédé RTMTelmar, Aurélie 07 December 2012 (has links) (PDF)
Cette thèse traite la fabrication de pièces composites par le procédé " Resin Transert Molding " (RTM), appliquée à des tubes de protections thermiques assemblées dans des propulseurs de systèmes d'armes. Ces travaux ont pour objectif de démontrer la faisabilité d'utilisation de ce procédé pour la fabrication de ces pièces complexes. C'est le préformage, première étape du procédé de fabrication par RTM, qui est étudié dans le cadre de cette thèse. Cette étape est cruciale du point de vue de la faisabilité de l'étape d'injection qui la suit dans le procédé RTM mais aussi pour s'assurer de la qualité de la pièce composite finale obtenue. L'objectif des travaux de thèse est triple. Il faut tout d'abord développer le protocole de fabrication répétable adapté pour garantir l'obtention de préformes conformes. Ce protocole devra être viable du point de vue industriel. Pour cela, une démarche expérimentale a été mise en place. Un pilote de laboratoire puis un pilote industriel ont permis de comprendre et maitriser les phénomènes survenant en cours de préformage en faisant varier les paramètres procédé pour la fabrication de nombreux prototypes. Un modèle macroscopique prédictif de la forme globale des plis obtenus à partir des paramètres procédés a été développé à l'aide des observations expérimentales. Un modèle mésoscopique, à l'échelle de la maille élémentaire, a été écrit également. Il permet de prédire, à partir des données constitutives du matériau et d'une géométrie de pièce, la déformation de compaction et de cisaillement, modes de sollicitations prépondérants en cours de préformage, subie par le renfort en cours de la première étape du procédé de fabrication. Ces modèles mésoscopique et macroscopique couplés permettent le développement d'un outil global qui, de manière théorique et prédictive, assure la faisabilité d'une pièce de géométrie connue avec un matériau connu et fournit les paramètres " procédé " optimum pour assurer sa fabrication future. Les phénomènes de déformation en cisaillement et compaction apparaissant sur la tresse en cours de préformage sont donc identifiés et connus. Le procédé de fabrication est optimisé et l'outil prédictif permet d'envisager et tester en amont un changement de matériau, de géométrie de pièce à fabriquer ou de cahier descharges industriel.
|
15 |
Système embarqué de capture et analyse du mouvement humain durant la marcheZong, Cong 20 December 2012 (has links) (PDF)
Ces travaux de thèse sont consacrés à la définition et la mise en œuvre de systèmes multi-capteurs et d'algorithmes, embarqués sur un déambulateur et dédiés à la capture et l'estimation de la posture et du mouvement de son utilisateur durant la locomotion. Plusieurs expérimentations ont été menées afin d'évaluer quantitativement la qualité de la posture reconstruite obtenue. Un détecteur d'anomalies durant la marche a de plus été proposé afin d'évaluer le système, en termes d'application. Dans ce mémoire, les paramètres du mouvement humain relatifs à la marche (pas, posture, équilibre) généralement utilisés pour l'analyse de la marche, sont d'abord introduits. Pour l'observation de tels paramètres, les médecins utilisent différents dispositifs. La plupart sont encombrants, ce qui limite leur usage au milieu hospitalier. Les systèmes multi-capteurs embarqués sur un déambulateur proposés permettraient d'obtenir des données quotidiennement, sur des distances de locomotion et des durées plus importantes. Deux architectures ont été développées successivement : la première est composée d'une caméra 3D et de deux capteurs infrarouges ; la seconde est composée de deux capteurs Kinect. Ces architectures sont utilisées pour estimer la posture du sujet et son activité locomotrice par recalage sur un modèle physique de mannequin virtuel 3D. La précision de la posture obtenue est améliorée en intégrant un module de prédiction du mouvement: il utilise une estimation de certains paramètres discrets de la marche (durée et longueur des pas) et un modèle de la marche assistée. Enfin, le développement d'un algorithme de détection de ruptures du rythme locomoteur nous permet de valider l'ensemble de l'approche par rapport à l'application finale : l'assistance au diagnostic. A partir d'un ensemble de mesures de distance, correspondant au rapport de vraisemblance généralisé calculé sur les positions relatives de chaque articulation et la vitesse du déambulateur déterminée par un odomètre, un modèle multi-dimensionnel d'une marche régulière est ensuite appris via un séparateur à vaste marge à une classe. Cet algorithme a été évalué sur la base d'un protocole de changement de rythme de marche. Dans l'avenir, ce système pourra être intégré au robot d'assistance à la déambulation conçu dans le cadre du projet ANR MIRAS (Multimodal Interactive Robot of Assistance in Strolling)
|
16 |
Une approche pragmatique pour mesurer la qualité des applications à base de composants logiciels / A pragmatic approach to measure the quality of Component–Based Software ApplicationsHamza, Salma 19 December 2014 (has links)
Ces dernières années, de nombreuses entreprises ont introduit la technologie orientée composant dans leurs développements logiciels. Le paradigme composant, qui prône l’assemblage de briques logiciels autonomes et réutilisables, est en effet une proposition intéressante pour diminuer les coûts de développement et de maintenance tout en augmentant la qualité des applications. Dans ce paradigme, comme dans tous les autres, les architectes et les développeurs doivent pouvoir évaluer au plus tôt la qualité de ce qu’ils produisent, en particulier tout au long du processus de conception et de codage. Les métriques sur le code sont des outils indispensables pour ce faire. Elles permettent, dans une certaine mesure, de prédire la qualité « externe » d’un composant ou d’une architecture en cours de codage. Diverses propositions de métriques ont été faites dans la littérature spécifiquement pour le monde composant. Malheureusement, aucune des métriques proposées n’a fait l’objet d’une étude sérieuse quant à leur complétude, leur cohésion et surtout quant à leur aptitude à prédire la qualité externe des artefacts développés. Pire encore, l’absence de prise en charge de ces métriques par les outils d’analyse de code du marché rend impossible leur usage industriel. En l’état, la prédiction de manière quantitative et « a priori » de la qualité de leurs développements est impossible. Le risque est donc important d’une augmentation des coûts consécutive à la découverte tardive de défauts. Dans le cadre de cette thèse, je propose une réponse pragmatique à ce problème. Partant du constat qu’une grande partie des frameworks industriels reposent sur la technologie orientée objet, j’ai étudié la possibilité d’utiliser certaines des métriques de codes "classiques", non propres au monde composant, pour évaluer les applications à base de composants. Parmi les métriques existantes, j’ai identifié un sous-ensemble d’entre elles qui, en s’interprétant et en s’appliquant à certains niveaux de granularité, peuvent potentiellement donner des indications sur le respect par les développeurs et les architectes des grands principes de l’ingénierie logicielle, en particulier sur le couplage et la cohésion. Ces deux principes sont en effet à l’origine même du paradigme composant. Ce sous-ensemble devait être également susceptible de représenter toutes les facettes d’une application orientée composant : vue interne d’un composant, son interface et vue compositionnelle au travers l’architecture. Cette suite de métrique, identifiée à la main, a été ensuite appliquée sur 10 applications OSGi open- source afin de s’assurer, par une étude de leur distribution, qu’elle véhiculait effectivement pour le monde composant une information pertinente. J’ai ensuite construit des modèles prédictifs de propriétés qualité externes partant de ces métriques internes : réutilisation, défaillance, etc. J’ai décidé de construire des modèles qui permettent de prédire l’existence et la fréquence des défauts et les bugs. Pour ce faire, je me suis basée sur des données externes provenant de l’historique des modifications et des bugs d’un panel de 6 gros projets OSGi matures (avec une période de maintenance de plusieurs années). Plusieurs outils statistiques ont été mis en œuvre pour la construction des modèles, notamment l’analyse en composantes principales et la régression logistique multivariée. Cette étude a montré qu’il est possible de prévoir avec ces modèles 80% à 92% de composants fréquemment buggés avec des rappels allant de 89% à 98%, selon le projet évalué. Les modèles destinés à prévoir l’existence d’un défaut sont moins fiables que le premier type de modèle. Ce travail de thèse confirme ainsi l’intérêt « pratique » d’user de métriques communes et bien outillées pour mesurer au plus tôt la qualité des applications dans le monde composant. / Over the past decade, many companies proceeded with the introduction of component-oriented software technology in their development environments. The component paradigm that promotes the assembly of autonomous and reusable software bricks is indeed an interesting proposal to reduce development costs and maintenance while improving application quality. In this paradigm, as in all others, architects and developers need to evaluate as soon as possible the quality of what they produce, especially along the process of designing and coding. The code metrics are indispensable tools to do this. They provide, to a certain extent, the prediction of the quality of « external » component or architecture being encoded. Several proposals for metrics have been made in the literature especially for the component world. Unfortunately, none of the proposed metrics have been a serious study regarding their completeness, cohesion and especially for their ability to predict the external quality of developed artifacts. Even worse, the lack of support for these metrics with the code analysis tools in the market makes it impossible to be used in the industry. In this state, the prediction in a quantitative way and « a priori » the quality of their developments is impossible. The risk is therefore high for obtaining higher costs as a consequence of the late discovery of defects. In the context of this thesis, I propose a pragmatic solution to the problem. Based on the premise that much of the industrial frameworks are based on object-oriented technology, I have studied the possibility of using some « conventional » code metrics unpopular to component world, to evaluate component-based applications. Indeed, these metrics have the advantage of being well defined, known, equipped and especially to have been the subject of numerous empirical validations analyzing the predictive power for imperatives or objects codes. Among the existing metrics, I identified a subset of them which, by interpreting and applying to specific levels of granularity, can potentially provide guidance on the compliance of developers and architects of large principles of software engineering, particularly on the coupling and cohesion. These two principles are in fact the very source of the component paradigm. This subset has the ability to represent all aspects of a component-oriented application : internal view of a component, its interface and compositional view through architecture. This suite of metrics, identified by hand, was then applied to 10 open-source OSGi applications, in order to ensure, by studying of their distribution, that it effectively conveyed relevant information to the component world. I then built predictive models of external quality properties based on these internal metrics : reusability, failure, etc. The development of such models and the analysis of their power are only able to empirically validate the interest of the proposed metrics. It is also possible to compare the « power » of these models with other models from the literature specific to imperative and/or object world. I decided to build models that predict the existence and frequency of defects and bugs. To do this, I relied on external data from the history of changes and fixes a panel of 6 large mature OSGi projects (with a maintenance period of several years). Several statistical tools were used to build models, including principal component analysis and multivariate logistic regression. This study showed that it is possible to predict with these models 80% to 92% of frequently buggy components with reminders ranging from 89% to 98%, according to the evaluated projects. Models for predicting the existence of a defect are less reliable than the first type of model. This thesis confirms thus the interesting « practice » of using common and well equipped metrics to measure at the earliest application quality in the component world.
|
17 |
DEVELOPPEMENT DE MODELES PREDICTIFS DECRIVANT LE COUPLAGE CHIMIE-TRANSPORT DANS LES SEDIMENTS NATURELSLu, Jun 06 November 2013 (has links) (PDF)
La gestion de sols ou sédiments contaminés par des métaux nécessite de pouvoir prédire la migration de ces métaux, dont la mobilité dépend des propriétés de transport du milieu ainsi que de la réactivité chimique de celui-ci (principalement réactions adsorption/désorption). Pour étudier l'adsorption des cations métalliques (majeurs et traces) en condition dynamique, des expériences de transport en colonne ont été réalisées avec un sol pauvre en minéraux carbonatés et en matière organique. Considérant que la réactivité de ce sol était due essentiellement à la phase argileuse smectitique, un modèle d'adsorption basé sur les propriétés de rétention de la montmorillonite du Wyoming, utilisant la théorie des échangeurs d'ions multi-sites a été intégré à un code de transport 1D. Les prédictions calculées par ce modèle ont ensuite été comparées aux courbes de percées mesurées dans cette étude et reportées de la littérature. L'étude sur le transport réactif des cations majeurs a mis en évidence le rôle significatif des protons (et ce même à des pH proche de la neutralité), et a permis de valider le modèle pour le transport compétitif des cations majeurs (Na et Ca). Cependant, l'étude de la rétention de Zn(II) a mis en évidence une incohérence entre les résultats issus des expériences batch et ceux obtenus avec les expériences colonne, que l'on pourrait attribuer à la contribution d'une autre phase adsorbante (illite). Néanmoins, le modèle d'adsorption proposé a permis de reproduire avec une bonne satisfaction des données expérimentales de rétention de Zn(II) proposées dans la littérature et obtenues avec des expériences colonne.
|
18 |
Etude de la microstructure et des performances des revêtements céramiques YSZ finement structurés obtenus par projection plasma de suspension / Study of the microstructure and efficiency of YSZ-SPS finely structured ceramic coatingsZhao, Yongli 25 September 2018 (has links)
Grâce à l'utilisation d'un porteur liquide, la projection plasma de suspension (SPS) permet la fabrication de revêtements finement structurés. Comme pour la projection plasma conventionnelle (APS), les microstructures des revêtements SPS peuvent être adaptées en contrôlant les conditions de projection. Cependant, le procédé SPS est plus compliqué que le procédé APS par son nombre de paramètres modifiables.Cette thèse vise à apporter une compréhension plus fondamentale de la relation entre les paramètres du procédé SPS et les propriétés des revêtements YSZ en identifiant des modèles génériques basés sur l’utilisation de méthodes statistiques mathématiques pour l'étude de l'influence et de la sensibilité de paramètres individuels.Des expériences systématiques ont été menées pour étudier l'influence de six paramètres (puissance du plasma, charge massique de suspension, taille de la poudre, distance de projection, pas de projection et rugosité du substrat) sur la microstructure des revêtements qui ont aussi été analysés en terme de propriétés d’usage (mécanique, thermique, tribologique, etc.). La porosité des revêtements a fait l’objet d’une étude approfondie et les mesures ont été réalisées par trois techniques différentes : la méthode par analyse d’images, la transmission RX et la méthode USAXS (Ultra-Small Angle X-ray Scattering). Des analyses multivariées sur les données expérimentales recueillies ont été effectuées et plusieurs modèles mathématiques ont été proposés afin de prédire les propriétés des revêtements et guider ensuite vers une optimisation de la microstructure du revêtement en vu d'applications spécifiques.Dans ce contexte d'optimisation des performances mécaniques et tribologiques de ces revêtements céramiques, différentes quantités et tailles de poudre h-BN ont été ajoutées dans la suspension YSZ. Les revêtements composites YSZ / h-BN ont été fabriqués et leur analyse a montré une nette réduction du coefficient de frottement et du taux d'usure lorsque la taille et la quantité de poudre d’ajout sont optimisées l'une avec l'autre. Trois mécanismes d’usure ont finalement été identifiés et seront discutés. / Thanks to the using of liquid carrier, suspension plasma spray (SPS) enables the manufacture of finely structured coatings. As for conventional plasma spraying (APS), the microstructures of SPS coatings can be tailored by controlling the spray conditions. However, SPS is more complicated than APS due to its number of modifiable parameters.This thesis aims to provide a more fundamental understanding of the relationship between SPS process parameters and the properties of YSZ coatings by identifying generic models based on the use of mathematical statistical methods for the study of influence and sensitivity of the individual parameters.Systematic experiments were carried out to study the influence of six parameters (plasma power, suspension mass load, powder size, projection distance, projection step and substrate roughness) on the microstructure of coatings which were also analyzed in terms of the properties (mechanical, thermal, tribological, etc.). The porosity of the coatings was studied in detail and the measurements were carried out using three different techniques: the image analysis method, the X-ray transmission and the USAXS (Ultra-Small Angle X-ray Scattering) method. Multivariate analyzes of the collected experimental data were performed and several mathematical models were proposed to predict the properties of the coatings and then guide towards an optimization of the microstructure of the coating for specific applications.In this context of optimizing the mechanical and tribological performance of ceramic coatings, different amounts and sizes of h-BN powder have been added in the YSZ suspension. The YSZ/h-BN composite coatings were manufactured by SPS process and their analysis showed a clear reduction in the coefficient of friction and the wear rate when the size and the amount of addition powder are optimized together. Three wear mechanisms have finally been identified and been discussed.
|
19 |
Développement d'un modèle d'efforts de coupe intégrant le contact en dépouille : application au tournage de superfinition du cuivre Cu-c2Germain, Dimitri 16 December 2011 (has links) (PDF)
L'objectif de ces travaux est la modélisation des efforts de coupe dans le cas de la superfinition à l'outil coupant du cuivre Cu-c2 par le biais de la démarche Couple-Arête-Matière. La prédiction des efforts permet d'adapter les conditions de coupe pour une opération d'usinage où de définir les spécifications des outils lors de leur conception. Le Couple-Arête-Matière repose sur la discrétisation d'arête et la mise en place sur chaque élément d'arête des efforts élémentaires fonctions de la géométrie et des conditions de coupe locales. Cette dépendance de la géométrie et de ces conditions de coupe est introduite par la mise en place d'un modèle d'efforts. Par sommation sur la longueur d'arête en prise, il est possible de déterminer les efforts globaux dans les repères liés à l'outil ou à la pièce. Cette étude vise le calcul de ces efforts au travers de trois modèles. Les deux premiers modèles développés sont de type phénoménologique et calculent les efforts à partir des paramètres opératoires courants tels que l'épaisseur coupée, la géométrie de l'outil et la qualité de l'arête. Le troisième modèle est analytique et basé sur les mécanismes de formation du copeau. Les efforts sont déterminés à partir des contributions des trois zones communément identifiées ; la zone de cisaillement primaire est caractérisée par une loi de comportement de type Norton-Hoff, les deuxième et troisième zones, respectivement en contact avec le copeau et la face en dépouille sont caractérisées par une distribution de contraintes. Les performances de ces trois modèles sont comparées via le Couple-Arête-Matière. Les données expérimentales sont obtenues à partir d'images réalisées en cours d'usinage par une caméra à haute résolution ainsi que par des mesures d'efforts en coupe orthogonale sur des disques et des tubes, permettant la mise en évidence de l'effet du diamètre de la pièce usinée sur la zone de contact en dépouille.
|
20 |
Online generation of time- optimal trajectories for industrial robots in dynamic environments / Génération en ligne de trajectoires optimales en temps pour des robots industriels en environnements dynamiquesHomsi, Saed Al 17 March 2016 (has links)
Nous observons ces dernières années un besoin grandissant dans l’industrie pour des robots capables d’interagir et de coopérer dans des environnements confinés. Cependant, aujourd’hui encore, la définition de trajectoires sûres pour les robots industriels doit être faite manuellement par l’utilisateur et le logiciel ne dispose que de peu d’autonomie pour réagir aux modifications de l’environnement. Cette thèse vise à produire une structure logicielle innovante pour gérer l’évitement d’obstacles en temps réel pour des robots manipulateurs évoluant dans des environnements dynamiques. Nous avons développé pour cela un algorithme temps réel de génération de trajectoires qui supprime de façon automatique l’étape fastidieuse de définition d’une trajectoire sûre pour le robot.La valeur ajoutée de cette thèse réside dans le fait que nous intégrons le problème de contrôle optimal dans le concept de hiérarchie de tâches pour résoudre un problème d’optimisation non-linéaire efficacement et en temps réel sur un système embarqué aux ressources limitées. Notre approche utilise une commande prédictive (MPC) qui non seulement améliore la réactivité de notre système mais présente aussi l’avantage de pouvoir produire une bonne approximation linéaire des contraintes d’évitement de collision. La stratégie de contrôle présentée dans cette thèse a été validée à l’aide de plusieurs expérimentations en simulations et sur systèmes réels. Les résultats démontrent l’efficacité, la réactivité et la robustesse de cette nouvelle structure de contrôle lorsqu’elle est utilisée dans des environnements dynamiques. / In the field of industrial robots, there is a growing need for having cooperative robots that interact with each other and share work spaces. Currently, industrial robotic systems still rely on hard coded motions with limited ability to react autonomously to dynamic changes in the environment. This thesis focuses on providing a novel framework to deal with real-time collision avoidance for robots performing tasks in a dynamic environment. We develop a reactive trajectory generation algorithm that reacts in real time, removes the fastidious optimization process which is traditionally executed by hand by handling it automatically, and provides a practical way of generating locally time optimal solutions.The novelty in this thesis is in the way we integrate the proposed time optimality problem in a task priority framework to solve a nonlinear optimization problem efficiently in real time using an embedded system with limited resources. Our approach is applied in a Model Predictive Control (MPC) setting, which not only improves reactivity of the system but presents a possibility to obtain accurate local linear approximations of the collision avoidance constraint. The control strategies presented in this thesis have been validated through various simulations and real-world robot experiments. The results demonstrate the effectiveness of the new control structure and its reactivity and robustness when working in dynamic environments.
|
Page generated in 0.054 seconds