411 |
Planification robuste des roulements d’engins dans le domaine ferroviaire / Robust railway rolling-stock planningTréfond, Sabine 17 March 2014 (has links)
Cette thèse est consacrée à la planification robuste du matériel roulant ferroviaire dans un contexte de transport de voyageurs régional. Il s'agit de déterminer pour chaque engin une suite de trajets à réaliser sur une période donnée de façon à résister au mieux aux aléas pouvant apparaître en opérationnel. Dans ce but, nous proposons une définition et une caractérisation de la robustesse par des indicateurs propres au contexte d'étude. Nous abordons le problème par une approche structurelle différente des approches robustes classiques qui permet d'agir sur la structure d'une solution en fonction des indicateurs définis. Trois méthodes sont alors mises en œuvre dans le cadre de ce travail. Une résolution approchée par une heuristique gloutonne et une recherche locale permet d'obtenir des solutions rapidement. Une méthode de résolution approchée par génération de colonnes a été développée afin de prendre en compte plus de contraintes de façon intégrée. Une méthode basée sur un programme linéaire en nombres entiers résolu exactement traite un problème plus général. Afin de limiter le coût de la robustesse, ces méthodes sont basées sur un existant à SNCF répondant au problème de planification des ressources matérielles à coûts de production minimaux. Un outil de simulation du comportement des solutions en situation perturbée permet de comparer les solutions entre elles par évaluation des indicateurs de robustesse. Des expérimentations sur des instances réelles ont prouvé la pertinence des approches et ont mené à l'industrialisation d'un prototype. / This thesis deals with robust rolling-stock planning problems for passenger regional trains. It consists in building robust rolling-stock schedules to operate trains under technical constraints while anticipating operational disturbances that can occur. First of all, we define indicators to characterize robustness in context. We use these indicators to have an effect on solutions that we build. This structural approach is unusual compared to classical robust optimization approaches. We have implemented three methods to solve the problem. A sequential heuristic method enhanced by a local search gives solutions quickly. A column-generation method calculates approximate solutions.An integer linear program is solved exactly to obtain solutions to a global problem. These methods are based on an existing tool at SNCF that optimizes the rolling-stock planning problem to assure optimal production costs. A simulation tool evaluates robustness indicators to compare solutions. Tests on real instances have proved the relevance of the approaches and have lead to the use of a prototype in production
|
412 |
Processus spatio-temporels en géométrie stochastique et application à la modélisation de réseaux de télécommunication / Space-time processes in stochastic geometry and application to modelling of telecommunication networksMorlot, Frédéric 02 July 2012 (has links)
L'objectif de cette thèse est de réunir les deux approches suivantes qui existent actuellement pour étudier une foule: ou bien à temps fixé on s'intéresse à la distribution spatiale des individus, ou bien on suit un seul individu à la fois au cours du temps. On se propose de construire des processus spatio-temporels, qui, comme leur nom l'indique, permettraient de rendre compte du caractère aléatoire des usages d'une foule dans un réseau de télécommunication, à la fois du point de vue spatial (modèles de route) et du point de vue temporel (déplacements sur ces routes, usages qui varient au cours de ces déplacements…). Une fois ces processus construits de manière rigoureuse, on étudie leur comportement d'une manière fine. Nous développons trois modèles différents qui chacun mènent à des formules analytiques fermées, ce qui permet de les utiliser d'une manière très confortable à des fins de dimensionnement. / This thesis consists in joining two approaches that currently exist when one wants to study crowds phenomena: either taking a snapshot by freezing time to study the spatial repartition of the individuals, or following one given individual over time.We build space-time processes that let us model random phenomena in a crowd, being on a spatial level (roads models) or a time level (movings on these roads, space-dependent behaviors…). Once we have built them in a rigorous manner, we study their properties, which let us obtain analytical closed formulas that can be widely used for dimensioning purposes.
|
413 |
Disciplines basées sur la taille pour la planification des jobs dans data-intensif scalable computing systems / Size-based disciplines for job scheduling in data-intensive scalable computing systemsPastorelli, Mario 18 July 2014 (has links)
La dernière décennie a vu l’émergence de systèmes parallèles pour l’analyse de grosse quantités de données (DISC) , tels que Hadoop, et la demande qui en résulte pour les politiques de gestion des ressources, pouvant fournir des temps de réponse rapides ainsi qu’équité. Actuellement, les schedulers pour les systèmes de DISC sont axées sur l’équité, sans optimiser les temps de réponse. Les meilleures pratiques pour surmonter ce problème comprennent une intervention manuelle et une politique de planification ad-hoc , qui est sujette aux erreurs et qui est difficile à adapter aux changements. Dans cette thèse, nous nous concentrons sur la planification basée sur la taille pour les systèmes DISC. La principale contribution de ce travail est le scheduler dit Hadoop Fair Sojourn Protocol (HFSP), un ordonnanceur préemptif basé sur la taille qui tient en considération le vieillissement, ayant comme objectifs de fournir l’équité et des temps de réponse réduits. Hélas, dans les systèmes DISC, les tailles des job d’analyse de données ne sont pas connus a priori, donc, HFSP comprends un module d’estimation de taille, qui calcule une approximation et qui affine cette estimation au fur et a mesure du progrès d’un job. Nous démontrons que l’impact des erreurs d’estimation sur les politiques fondées sur la taille n’est pas significatif. Pour cette raison, et en vertu d’être conçu autour de l’idée de travailler avec des tailles estimées, HFSP est tolérant aux erreurs d’estimation de la taille des jobs. Nos résultats expérimentaux démontrent que, dans un véritable déploiement Hadoop avec des charges de travail réalistes, HFSP est plus performant que les politiques de scheduling existantes, a la fois en terme de temps de réponse et d’équité. En outre, HFSP maintiens ses bonnes performances même lorsque le cluster de calcul est lourdement chargé, car il focalises les ressources sur des jobs ayant priorité. HFSP est une politique préventive: la préemption dans un système DISC peut être mis en œuvre avec des techniques différentes. Les approches actuellement disponibles dans Hadoop ont des lacunes qui ont une incidence sur les performances du système. Par conséquence, nous avons mis en œuvre une nouvelle technique de préemption, appelé suspension, qui exploite le système d’exploitation pour effectuer la préemption d’une manière qui garantie une faible latence sans pénaliser l’avancement des jobs a faible priorité. / The past decade have seen the rise of data-intensive scalable computing (DISC) systems, such as Hadoop, and the consequent demand for scheduling policies to manage their resources, so that they can provide quick response times as well as fairness. Schedulers for DISC systems are usually focused on the fairness, without optimizing the response times. The best practices to overcome this problem include a manual and ad-hoc control of the scheduling policy, which is error-prone and difficult to adapt to changes. In this thesis we focus on size-based scheduling for DISC systems. The main contribution of this work is the Hadoop Fair Sojourn Protocol (HFSP) scheduler, a size-based preemptive scheduler with aging; it provides fairness and achieves reduced response times thanks to its size-based nature. In DISC systems, job sizes are not known a-priori: therefore, HFSP includes a job size estimation module, which computes approximated job sizes and refines these estimations as jobs progress. We show that the impact of estimation errors on the size-based policies is not signifi- cant, under conditions which are verified in a system such as Hadoop. Because of this, and by virtue of being designed around the idea of working with estimated sizes, HFSP is largely tolerant to job size estimation errors. Our experimental results show that, in a real Hadoop deployment and with realistic workloads, HFSP performs better than the built-in scheduling policies, achieving both fairness and small mean response time. Moreover, HFSP maintains its good performance even when the cluster is heavily loaded, by focusing the resources to few selected jobs with the smallest size. HFSP is a preemptive policy: preemption in a DISC system can be implemented with different techniques. Approaches currently available in Hadoop have shortcomings that impact on the system performance. Therefore, we have implemented a new preemption technique, called suspension, that exploits the operating system primitives to implement preemption in a way that guarantees low latency without penalizing low-priority jobs.
|
414 |
Effets physiques et biologiques des faisceaux de protons balayés : mesures et modélisation pour des balayages séquentiels à haut débit / Bio-physical effects of scanned proton beams : measurements and models for discrete high dose rates scanning systemsDe Marzi, Ludovic 09 November 2016 (has links)
L'objectif principal de cette thèse est de développer et optimiser les algorithmes caractérisant les propriétés physiques et biologiques des mini-faisceaux de protons pour la réalisation des traitements avec modulation d'intensité. Un modèle basé sur la superposition et décomposition des mini-faisceaux en faisceaux élémentaires a été utilisé. Un nouveau modèle de description des mini-faisceaux primaires a été développé à partir de la sommation de trois fonctions gaussiennes. Les algorithmes ont été intégrés dans un logiciel de planification de traitement, puis validés expérimentalement et par comparaison avec des simulations Monte Carlo. Des approximations ont été réalisées et validées afin de réduire les temps de calcul en vue d'une utilisation clinique. Dans un deuxième temps, un travail en collaboration avec les équipes de radiobiologie de l'institut Curie a été réalisé afin d'introduire des résultats radiobiologiques dans l'optimisation biologique des plans de traitement. En effet, les faisceaux balayés sont délivrés avec des débits de dose très élevés (de 10 à 100 Gy/s) et de façon discontinue, et l'efficacité biologique des protons est encore relativement méconnue vue la diversité d'utilisation de ces faisceaux : les différents modèles disponibles et notamment leur dépendance avec le transfert d'énergie linéique ont été étudiés. De bons accords (écarts inférieurs à 3 % et 2 mm) ont été obtenus entre calculs et mesures de dose. Un protocole d'expérimentation pour caractériser les effets des hauts débits pulsés a été mis en place et les premiers résultats obtenus sur une lignée cellulaire suggèrent des variations d'efficacité biologique inférieures à 10 %, avec toutefois de larges incertitudes. / The main objective of this thesis is to develop and optimize algorithms for intensity modulated proton therapy, taking into account the physical and biological pencil beam properties. A model based on the summation and fluence weighted division of the pencil beams has been used. A new parameterization of the lateral dose distribution has been developed using a combination of three Gaussian functions. The algorithms have been implemented into a treatment planning system, then experimentally validated and compared with Monte Carlo simulations. Some approximations have been made and validated in order to achieve reasonable calculation times for clinical purposes. In a second phase, a collaboration with Institut Curie radiobiological teams has been started in order to implement radiobiological parameters and results into the optimization loop of the treatment planning process. Indeed, scanned pencil beams are pulsed and delivered at high dose rates (from 10 to 100 Gy/s), and the relative biological efficiency of protons is still relatively unknown given the wide diversity of use of these beams: the different models available and their dependence with linear energy transfers have been studied. A good agreement between dose calculations and measurements (deviations lower than 3 % and 2 mm) has been obtained. An experimental protocol has been set in order to qualify pulsed high dose rate effects and preliminary results obtained on one cell line suggested variations of the biological efficiency up to 10 %, though with large uncertainties.
|
415 |
Extraction et analyse de biomarqueurs issus des imageries TEP et IRM pour l'amélioration de la planification de traitement en radiothérapie / Extraction and analysis of biomarkers derived from PET and MR imaging for improved treatment planning in radiotherapyReuzé, Sylvain 11 October 2018 (has links)
Au-delà des techniques conventionnelles de diagnostic et de suivi du cancer, l’analyse radiomique a pour objectif de permettre une médecine plus personnalisée dans le domaine de la radiothérapie, en proposant une caractérisation non invasive de l’hétérogénéité tumorale. Basée sur l’extraction de paramètres quantitatifs avancés (histogrammes des intensités, texture, forme) issus de l’imagerie multimodale, cette technique a notamment prouvé son intérêt pour définir des signatures prédictives de la réponse aux traitements. Dans le cadre de cette thèse, des signatures de la récidive des cancers du col utérin ont notamment été développées, à partir de l’analyse radiomique seule ou en combinaison avec des biomarqueurs conventionnels, apportant des perspectives majeures dans la stratification des patients pouvant aboutir à une adaptation spécifique de la dosimétrie.En parallèle de ces études cliniques, différentes barrières méthodologiques ont été soulevées, notamment liées à la grande variabilité des protocoles et technologies d’acquisition des images, qui entraîne un biais majeur dans les études radiomiques multicentriques. Ces biais ont été évalués grâce à des images de fantômes et des images multicentriques de patients pour l’imagerie TEP, et deux méthodes de correction de l’effet de stratification ont été proposées. En IRM, une méthode de standardisation des images par harmonisation des histogrammes a été évaluée dans les tumeurs cérébrales.Pour aller plus loin dans la caractérisation de l’hétérogénéité intra-tumorale et permettre la mise en œuvre d’une radiothérapie personnalisée, une méthode d’analyse locale de la texture a été développée. Adaptée particulièrement aux images IRM de tumeurs cérébrales, ses capacités à différencier des sous-régions de radionécrose ou de récidive tumorale ont été évaluées. Dans ce but, les cartes paramétriques d’hétérogénéité ont été proposées à des experts comme des séquences IRM additionnelles.À l’issue de ce travail, une validation dans des centres extérieurs des modèles développés, ainsi que la mise en place d’essais cliniques intégrant ces méthodes pour personnaliser les traitements seront des étapes majeures dans l’intégration de l’analyse radiomique en routine clinique. / Beyond the conventional techniques of diagnosis and follow-up of cancer, radiomic analysis allows to personalize radiotherapy treatments, by proposing a non-invasive characterization of tumor heterogeneity. Based on the extraction of advanced quantitative parameters (histograms of intensities, texture, shape) from multimodal imaging, this technique has notably proved its interest in determining predictive signatures of treatment response. During this thesis, signatures of cervical cancer recurrence have been developed, based on radiomic analysis alone or in combination with conventional biomarkers, providing major perspectives in the stratification of patients that can lead to dosimetric treatment plan adaptation.However, various methodological barriers were raised, notably related to the great variability of the protocols and technologies of image acquisition, which leads to major biases in multicentric radiomic studies. These biases were assessed using phantom acquisitions and multicenter patient images for PET imaging, and two methods enabling a correction of the stratification effect were proposed. In MRI, a method of standardization of images by harmonization of histograms has been evaluated in brain tumors.To go further in the characterization of intra-tumor heterogeneity and to allow the implementation of a personalized radiotherapy, a method for local texture analysis has been developed. Specifically adapted to brain MRI, its ability to differentiate sub-regions of radionecrosis or tumor recurrence was evaluated. For this purpose, parametric heterogeneity maps have been proposed to experts as additional MRI sequences.In the future, validation of the predictive models in external centers, as well as the establishment of clinical trials integrating these methods to personalize radiotherapy treatments, will be mandatory steps for the integration of radiomic in the clinical routine.
|
416 |
Méthodes inspirées de la robotique pour la simulation des changements conformationnels des protéines / Robotics-Inspired Methods for the Simulation of Conformational Changes in ProteinsAl Bluwi, Ibrahim 25 September 2012 (has links)
Cette thèse présente une approche de modélisation inspirée par la robotique pour l'étude des changements conformationnels des protéines. Cette approche est basée sur une représentation mécanistique des protéines permettant l'application de méthodes efficaces provenant du domaine de la robotique. Elle fournit également une méthode appropriée pour le traitement « gros-grains » des protéines sans perte de détail au niveau atomique. L'approche présentée dans cette thèse est appliquée à deux types de problèmes de simulation moléculaire. Dans le premier, cette approche est utilisée pour améliorer l'échantillonnage de l'espace conformationnel des protéines. Plus précisément, cette approche de modélisation est utilisée pour implémenter des classes de mouvements pour l'échantillonnage, aussi bien connues que nouvelles, ainsi qu'une stratégie d'échantillonnage mixte, dans le contexte de la méthode de Monte Carlo. Les résultats des simulations effectuées sur des protéines ayant des topologies différentes montrent que cette stratégie améliore l'échantillonnage, sans toutefois nécessiter de ressources de calcul supplémentaires. Dans le deuxième type de problèmes abordés ici, l'approche de modélisation mécanistique est utilisée pour implémenter une méthode inspirée par la robotique et appliquée à la simulation de mouvements de grande amplitude dans les protéines. Cette méthode est basée sur la combinaison de l'algorithme RRT (Rapidly-exploring Random Tree) avec l'analyse en modes normaux, qui permet une exploration efficace des espaces de dimension élevée tels les espaces conformationnels des protéines. Les résultats de simulations effectuées sur un ensemble de protéines montrent l'efficacité de la méthode proposée pour l'étude des transitions conformationnelles / Proteins are biological macromolecules that play essential roles in living organisms. Un- derstanding the relationship between protein structure, dynamics and function is indis- pensable for advances in fields such as biology, pharmacology and biotechnology. Study- ing this relationship requires a combination of experimental and computational methods, whose development is the object of very active interdisciplinary research. In such a context, this thesis presents a robotics-inspired modeling approach for studying confor- mational changes in proteins. This approach is based on a mechanistic representation of proteins that enables the application of efficient methods originating from the field of robotics. It also provides an accurate method for coarse-grained treatment of proteins without loosing full-atom details.The presented approach is applied in this thesis to two different molecular simulation problems. First, the approach is used to enhance sampling of the conformational space of proteins using the Monte Carlo method. The modeling approach is used to implement new and known Monte Carlo trial move classes as well as a mixed sampling strategy. Results of simulations performed on proteins with different topologies show that this strategy enhances sampling without demanding higher computational resources. In the second problem tackled in this thesis, the mechanistic modeling approach is used to implement a robotics-inspired method for simulating large amplitude motions in proteins. This method is based on the combination of the Rapidly-exploring Random Tree (RRT) algorithm with Normal Mode Analysis (NMA), which allows efficient exploration of the high dimensional conformational spaces of proteins. Results of simulations performed on ten different proteins of different sizes and topologies show the effectiveness of the proposed method for studying conformational transitions
|
417 |
Planification de mouvement pour la manipulation d'objets sous contraintes d'interaction homme-robot / Motion planning for object manipulation under human-robot interaction constraintsMainprice, Jim 17 December 2012 (has links)
Un robot agit sur son environnement par le mouvement, sa capacité à planifier ses mouvements est donc une composante essentielle de son autonomie. L'objectif de cette thèse est concevoir des méthodes algorithmiques performantes permettant le calcul automatique de trajectoires pour des systèmes robotiques complexes dans le cadre de la robotique d'assistance. Les systèmes considérés qui ont pour vocation de servir l'homme et de l'accompagner dans des tâches du quotidien doivent tenir compte de la sécurité et du bien-être de l'homme. Pour cela, les mouvements du robot doivent être générés en considérant explicitement le partenaire humain raisonant sur un modèle du comportement social de l'homme, de ses capacités et de ses limites afin de produire un comportement synergique optimal.Dans cette thèse nous étendons les travaux pionniers menés au LAAS dans ce domaine afin de produire des mouvements considérant l’homme de manière explicite dans des environnements encombrés. Des algorithmes d’exploration de l’espace des configurations par échantillonnage aléatoire sont combinés à des algorithmes d’optimisation de trajectoire afin de produire des mouvements sûrs et agréables. Nous proposons dans un deuxième temps un planificateur de tâche d’échange d’objet prenant en compte la mobilité du receveur humain permettant ainsi de partager l’effort lors du transfert. La pertinence de cette approche a été étudiée dans une étude utilisateur. Finalement, nous présentons une architecture logicielle qui permet de prendre en compte l’homme de manière dynamique lors de la réalisation de tâches de manipulation interactive / A robot act upon its environment through motion, the ability to plan its movements is therefore an essential component of its autonomy. The objective of this thesis is to design algorithmic methods to perform automatic trajectory computation for complex robotic systems in the context of assistive robotics. This emerging field of autonomous robotics applications brings new constraints and new challenges. Such systems that are designed to serve humans and to help in daily tasks must consider the safety and well-being of the surrounding humans. To do this, the robot's motions must be generated by considering the human partner explicitly. For comfort and efficiency, the robot must take into account a model of human social behavior, capabilities and limitations to produce an optimal synergistic behavior.In this thesis we extend to cluttered environments the pioneering work that has been conducted at LAAS in this field. Algorithms that explore the configuration space by random sampling are combined with trajectory optimization algorithms to produce safe and human aware motions. Secondly we propose a planner for object handover taking into account the mobility of the human recipient allowing to share the effort during the transfer. The relevance of this approach has been studied in a user study. Finally, we present a software architecture developed in collaboration with a partner of the European project Dexmart that allows to take dynamically into account humans during the execution of interactive manipulation tasks
|
418 |
Kinodynamic motion planning for quadrotor-like aerial robots / Planification kinodynamique de mouvements pour des systèmes aériens de type quadrirotorBoeuf, Alexandre 05 July 2017 (has links)
La planification de mouvement est le domaine de l’informatique qui a trait au développement de techniques algorithmiques permettant la génération automatique de trajectoires pour un système mécanique. La nature d’un tel système varie selon les champs d’application. En animation par ordinateur il peut s’agir d’un avatar humanoïde. En biologie moléculaire cela peut être une protéine. Le domaine d’application de ces travaux étant la robotique aérienne, le système est ici un UAV (Unmanned Aerial Vehicle: véhicule aérien sans pilote) à quatre hélices appelé quadrirotor. Le problème de planification de mouvements consiste à calculer une série de mouvements qui amène le système d’une configuration initiale donnée à une configuration finale souhaitée sans générer de collisions avec son environnement, la plupart du temps connu à l’avance. Les méthodes habituelles explorent l’espace des configurations du système sans tenir compte de sa dynamique. Cependant, la force de poussée qui permet à un quadrirotor de voler est par construction parallèle aux axes de rotation des hélices, ce qui implique que certains mouvements ne peuvent pas être effectués. De plus, l’intensité de cette force de poussée, et donc l’accélération linéaire du centre de masse, sont limitées par les capacités physiques du robot. Pour toutes ces raisons, non seulement la position et l’orientation doivent être planifiées, mais les dérivées plus élevées doivent l’être également si l’on veut que le système physique soit en mesure de réellement exécuter le mouvement. Lorsque c’est le cas, on parle de planification kinodynamique de mouvements. Une distinction est faite entre le planificateur local et le planificateur global. Le premier est chargé de produire une trajectoire valide entre deux états du système sans nécessairement tenir compte des collisions. Le second est l’algorithme principal qui est chargé de résoudre le problème de planification de mouvement en explorant l’espace d’état du système. Il fait appel au planificateur local. Nous présentons un planificateur local qui interpole deux états comprenant un nombre arbitraire de degrés de liberté ainsi que leurs dérivées premières et secondes. Compte tenu d’un ensemble de limites sur les dérivées des degrés de liberté jusqu’au quatrième ordre (snap), il produit rapidement une trajectoire en temps minimal quasi optimale qui respecte ces limites. Dans la plupart des algorithmes modernes de planification de mouvements, l’exploration est guidée par une fonction de distance (ou métrique). Le meilleur choix pour celle-ci est le cost-to-go, c.a.d. le coût associé à la méthode locale. Dans le contexte de la planification kinodynamique de mouvements, il correspond à la durée de la trajectoire en temps minimal. Le problème dans ce cas est que calculer le cost-to-go est aussi difficile (et donc aussi coûteux) que de calculer la trajectoire optimale elle-même. Nous présentons une métrique qui est une bonne approximation du cost-to-go, mais dont le calcul est beaucoup moins coûteux. Le paradigme dominant en planification de mouvements aujourd’hui est l’échantillonnage aléatoire. Cette classe d’algorithmes repose sur un échantillonnage aléatoire de l’espace d’état afin de l’explorer rapidement. Une stratégie commune est l’échantillonnage uniforme. Il semble toutefois que, dans notre contexte, ce soit un choix assez médiocre. En effet, une grande majorité des états uniformément échantillonnés ne peuvent pas être interpolés. Nous présentons une stratégie d’échantillonnage incrémentale qui diminue considérablement la probabilité que cela ne se produise. / Motion planning is the field of computer science that aims at developing algorithmic techniques allowing the automatic computation of trajecto- ries for a mechanical system. The nature of such a system vary according to the fields of application. In computer animation it could be a humanoid avatar. In molecular biology it could be a protein. The field of application of this work being aerial robotics, the system is here a four-rotor UAV (Unmanned Aerial Vehicle) called quadrotor. The motion planning problem consists in computing a series of motions that brings the system from a given initial configuration to a desired final configuration without generating collisions with its environment, most of the time known in advance. Usual methods explore the system’s configuration space regardless of its dynamics. By construction the thrust force that allows a quadrotor to fly is tangential to its attitude which implies that not every motion can be performed. Furthermore, the magnitude of this thrust force and hence the linear acceleration of the center of mass are limited by the physical capabilities of the robot. For all these reasons, not only position and orientation must be planned, higher derivatives must be planned also if the motion is to be executed. When this is the case we talk of kinodynamic motion planning. A distinction is made between the local planner and the global planner. The former is in charge of producing a valid trajectory between two states of the system without necessarily taking collisions into account. The later is the overall algorithmic process that is in charge of solving the motion planning problem by exploring the state space of the system. It relies on multiple calls to the local planner. We present a local planner that interpolates two states consisting of an arbitrary number of degrees of freedom (dof) and their first and second derivatives. Given a set of bounds on the dof derivatives up to the fourth order (snap), it quickly produces a near-optimal minimum time trajectory that respects those bounds. In most of modern global motion planning algorithms, the exploration is guided by a distance function (or metric). The best choice is the cost-to-go, i.e. the cost associated to the local method. In the context of kinodynamic motion planning, it is the duration of the minimal-time trajectory. The problem in this case is that computing the cost-to-go is as hard (and thus as costly) as computing the optimal trajectory itself. We present a metric that is a good approximation of the cost-to-go but which computation is far less time consuming. The dominant paradigm nowadays is sampling-based motion planning. This class of algorithms relies on random sampling of the state space in order to quickly explore it. A common strategy is uniform sampling. It however appears that, in our context, it is a rather poor choice. Indeed, a great majority of uniformly sampled states cannot be interpolated. We present an incremental sampling strategy that significantly decreases the probability of this happening.
|
419 |
Gestion des croyances de l'homme et du robot et architecture pour la planification et contrôle de tâches collaboratives homme-robot / Human and robot beliefs management and architecture for collaborative task planning and controlWarnier, Mathieu 10 December 2012 (has links)
Ce travail de thèse a eu pour objectif de définir et mettre en oeuvre l'architecture décisionnelle d'un robot réalisant une tâche en collaboration avec un homme pour atteindre un but commun. Un certain nombre de fonctionnalités existaient déjà ou ont été développées conjointement avec ce travail au sein de l'équipe. Ce travail a d'abord consisté en l'étude puis à la formalisation des différentes capacités nécessaires. Il s'est traduit concrètement par l'approfondissement de certains des modules fonctionnels existants par l'auteur ou par d'autres membres de l'équipe en lien étroit avec l'auteur. La première contribution principale de l'auteur a consisté à développer une couche de contrôle de haut niveau qui a permis l'intégration et la mise en oeuvre des différentes capacités du robot découpée en 3 activités : la construction et la mise à jour de l'état du monde ; la gestion des buts et des plans de haut niveau ; l'exécution et le suivi des mouvements de manipulation. La deuxième contribution principale a consisté à améliorer les raisonnements géométriques et temporels pour d'abord permettre au robot de mieux suivre l'évolution de l'état du monde puis lui donner la capacité à inférer quand l'homme a des croyances distinctes de celles du robot. / Goal of this thesis was to formalize and to implement a decisional layer for a robot achieving tasks collaboratively with a human to achieve a shared goal. Some functionalities were already there or were built during my own thesis by other inside the team. My first task was to study and formalize the skills needed by the robot. Consequently some of the existing functional modules were improved by some other members of the team or myself. My first main contribution was to develop a new high level control component to integrate and manage the different robot skills according to 3 main activities : state of the world build and update; goals and plans management; manipulation motions execution and monitoring. My second main contribution was to improve geometric and temporal reasoning skills so that first, the robot could better understand and track changes in the world and second, infer when the human had some beliefs about the world that were distinct from its own beliefs.
|
420 |
Conception d'un système d'aide à la décision facilitant la coordination interdépartementale pour l'allocation de la production et la planification du transport dans le secteur forestierDelisle, Simon 24 September 2021 (has links)
La gestion des activités de distribution dans le secteur forestier pose un enjeu de taille en raison de la décentralisation de la prise de décision, l'incertitude sur les opérations de production et la quantité massive de données. Dans ce contexte, le but de ce mémoire est de concevoir un système d'aide à la décision pour l'allocation de la production et la planification du transport. Il vise également à évaluer une approche à flux poussé-tiré de gestion de la chaîne de valeur. Ce projet est réalisé en collaboration avec Produits forestiers Résolu, permettant l'évaluation des solutions dans un cadre réel de grande envergure. Pour atteindre ces objectifs, une analyse du contexte de l'organisation a d'abord mis en évidence les modes de fonctionnement de l'entreprise, les caractéristiques d'un réseau de distribution dans l'industrie forestière et les interactions interdépartementales. Une revue de la littérature a ensuite été réalisée afin d'établir un état de l'art sur les approches de résolution des problèmes d'allocation, les mécanismes de coordinations et les stratégies d'intégration. Suite à l'acquisition et le traitement des données de l'entreprise, deux outils d'aide à la décision ont été développés pour des activités critiques de l'entreprise, actuellement réalisées entièrement manuellement. Un premier outil permet de déterminer l'allocation optimale des commandes aux centres de production et de distribution. La mise en œuvre de cet outil pour l'entreprise permet de réduire les coûts de transport jusqu'à 7.2%. Ce modèle permet également d'évaluer l'effet d'une stratégie hybride de flux poussé-tiré sur la performance de l'entreprise. Le second outil permet d'optimiser la sélection de routes et de transporteurs ferroviaires pour la distribution de marchandises dans le réseau nord-américain, pouvant conduire à une réduction des coûts de l'ordre de 6.6%. Finalement, le projet a permis de démontrer qu'il est possible pour l'entreprise de déplacer son point de découplage en amont du rabotage. L'intégration des deux modèles dans une stratégie hybride de production et distribution permet des économies de 12.3%. Ces résultats ont stimulé une réflexion stratégique chez le partenaire afin de revoir sa gestion des opérations de production, de distribution et de ventes. Ce travail contribue ainsi au domaine en évaluant les effets d'une approche à flux poussé-tiré ainsi que des outils pour faciliter la prise de décision dans un cas d'études du secteur forestier tout en répondant aux besoins pratiques du partenaire industriel.
|
Page generated in 0.0464 seconds