• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1209
  • 263
  • 235
  • 204
  • 181
  • 115
  • 36
  • 34
  • 20
  • 20
  • 13
  • 13
  • 9
  • 9
  • 7
  • Tagged with
  • 2794
  • 572
  • 550
  • 527
  • 486
  • 418
  • 408
  • 397
  • 353
  • 292
  • 261
  • 254
  • 217
  • 215
  • 214
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
541

Metodik för robotsimulering och programmering av bågsvetsrobotar / Methodology for robot simulation and programming of arc welding robots

Hänninen, Sofia, Karlsson, Gunilla January 2008 (has links)
<p>Det finns flera fördelar med robotiserad bågsvetsning jämfört med manuell bågsvetsning. När det gäller produktivitet och repeterbarhet är robot överlägsen människa, vilket gör att produkterna håller jämnare kvalitet. I slutet av 80-talet började offline-programmering att tillämpas. Att programmera en robot offline innebär att utföra programmeringen med dator utan direkt tillgång till roboten. Genom simulering visualiseras ett robotprogram i en grafisk modell av den fysiska robotcellen utan att den fysiska roboten behöver tas ur produktion. För att systemet för offline-programmering (OLP) ska vara effektivt, måste dess modellers kinematik överensstämma med dess fysiska motsvarigheter. En virtuell modell av en cell skiljer sig dock alltid något från verkligheten. Därför krävs kalibrering När simuleringsprogrammet är färdigt och kalibreringen är utförd, ska programmet översättas till ett för roboten specifikt programspråk. Detta görs genom en så kallad translator.</p><p>Denna rapport har skrivits på uppdrag av Delfoi. Delfoi har i flera år använt sig av DELMIA IGRIP för offline-programmering av bågsvetsningsrobotar. DELMIA har nu gett ut en ny generation program i den gemensamma plattformen V5. Plattformen innehåller bland annat DELMIA V5 Robotics och CATIA V5. Området för bågsvetsning har varit relativt outforskat. Därför vill företaget undersöka hur långt V5 Robotics har utvecklats inom detta område. Syftet är att undersöka om utvecklingen av V5 Robotics kommit tillräckligt långt för att kunna säljas till kund för offline-programmering av bågsvetsning.</p><p>Arbetet påbörjades genom att kartlägga den arbetsmetodik som Delfoi använder sig av vid bågsvetsning i IGRIP. Detta har skett i programvaran UltraArc, som innehåller IGRIP’s applikation för bågsvetsning. Dessutom gjordes en kartläggning av användandet av AMP, Arc weld Macro Programming, vid offline-programmering av bågsvetsning. Nästa del var att ta fram en metodik för bågsvetsning i V5 Robotics. De båda programmen och dess metodik har sedan jämförts, för att ta reda på om V5 Robotics är tillräckligt utvecklat för att migrera från IGRIP till V5 Robotics. Demonstrationer av arbetssättet i V5 Robotics har genomförts på Delfoi samt hos en av Delfois kunder, BT Industries i Mjölby.</p><p>Författarnas slutsats är att V5 Robotics är redo att användas för OLP av bågsvetsning. För de företag som använder sig av CATIA V5 finns det stora fördelar med att starta migrationen från IGRIP till V5 Robotics. Metodiken mellan de båda mjukvarorna har stora likheter, men vissa delar har utvecklats till det bättre i V5 Robotics. Dock kan den nya programvaran behöva testas i verkliga projekt för att säkerställa att hela programmeringsprocessen fungerar tillfredsställande innan bytet genomförs.</p> / <p>There are several advantages in robotic arc welding, compared to manual arc welding. When it comes to productivity and repeatability, robot is superior to man, which generates more even quality in products. In the end of the 1980’s, offline programming was put into practice. To program a robot offline means to perform the programming on a computer with no direct access to the robot. Through simulation, the robot program is visualized as a graphic model of the actual workcell, without having to take the actual robot out of production. For the offline programming system (OLP) to be efficient, the kinematics of the models need to correspond to its physical counterpart. A virtual model is always slightly different from the reality. That is why calibration is necessary. When the simulation program is complete and the calibration is done, the program needs to be translated to the language of the target robot. This is done through a post processor.</p><p>This thesis was written as an assignment from the company Delfoi. Delfoi has been using DELMIA IGRIP for offline programming of robotic arc welding for several years. DELMIA now has released a new generation of programs in the common platform V5. The platform includes for example DELMIA V5 Robotics and CATIA V5. The area of arc welding has been relatively unexplored. That is why the company wants to investigate how far V5 Robotics has developed in this area. The purpose is to investigate if the development of V5 Robotics has come far enough for V5 Robotics to be taken to customers for OLP of arc welding.</p><p>The work was begun by surveying the methodology used by Delfoi in arc welding in IGRIP. This has been done in the software UltraArc, which consists of the arc welding application from IGRIP. There was also a surveillance of the application of AMP, Arc weld Macro Programming, in offline programming of arc welding. The next step was to evolve a methodology for arc welding in V5 Robotics. The two softwares and their methodologies were then compared to find out whether or not V5 is enough developed for migration from IGRIP to V5 Robotics. Demonstrations of the method of working in V5 Robotics were held on Delfoi and on BT Industries in Mjölby, which is one of Deloi’s clients.</p><p>The conclusion of the writers is that V5 Robotics is ready to be used in OLP of arc welding. For companies using CATIA V5, there are great advantages in migrating from IGRIP to V5 Robotics. The methodoldgies of the softwares show great similarities, but some parts have been developed to the better in V5 Robotics. Though, the new software needs to be tested in real projects to assure that the entire process of programming functions satisfying before the change is completed.</p>
542

Commande référencée capteur des robots non holonomes

Maya Mendez, Mauro Eduardo 05 April 2007 (has links) (PDF)
Ce travail de thèse concerne la synthèse de commandes référencées capteur pour les robots non holonomes, dans le cadre de l'approche par fonctions transverses, ainsi que l'étude de la robustesse de ces lois de commande. La commande de robots non holonomes a été très étudiée ces quinze dernières années. Cependant, lorsque l'on souhaite stabiliser la pose complète du robot, la synthèse de lois de commande robustes vis-à-vis d'erreurs d'estimation de l'état du robot (qui dans la pratique découlent typiquement d'erreurs sur les modèles des capteurs) reste un problème ouvert. La problématique principale de cette thèse se situe à ce niveau. Les résultats développés dans cette thèse portent essentiellement sur deux aspects. Le premier concerne la façon d'utiliser les signaux capteurs pour la synthèse de lois de commande. Plusieurs méthodes de synthèse de commande sont proposées dans ce travail, en particulier, par analogie avec la commande des robots manipulateurs, nous proposons une synthèse directe dans l'espace des signaux capteurs. La deuxième partie de ce travail, plus fondamentale, porte sur l'analyse et l'évaluation des propriétés de robustesse des schémas de commande vis-à-vis d'incertitudes sur les modèles de capteurs. Des résultats théoriques de stabilité sont établis, puis validés et complétés par des simulations ainsi que par des résultats expérimentaux.
543

Fusion d'informations multi-capteurs pour la commande du robot humanoïde NAO / Multi-sensor information fusion : application for the humanoid NAO robot

Nguyen, Thanh Long 05 April 2017 (has links)
Dans cette thèse nous montrons comment améliorer la perception d’un robot humanoïde NAO en utilisant la fusion multi-capteurs. Nous avons proposé deux scénarios: la détection de la couleur et la reconnaissance d’objets colorés. Dans ces deux situations, nous utilisons la caméra du robot et nous ajoutons des caméras externes pour augmenter la fiabilité de la détection car nous nous plaçons dans un contexte expérimental dans lequel l’environnement est non contrôlé. Pour la détection de la couleur, l’utilisateur demande au robot NAO de trouver un objet coloré. La couleur est décrite par des termes linguistiques tels que: rouge, jaune, .... Le principal problème à résoudre est la façon dont le robot reconnaît les couleurs. Pour ce faire, nous avons proposé un système Flou de Sugeno pour déterminer la couleur demandée. Pour simplifier, les cibles choisies sont des balles colorées. Nous avons appliqué la transformation de Hough pour extraire les valeurs moyennes des pixels des balles détectées. Ces valeurs sont utilisées comme entrées pour le système Flou. Les fonctions d'appartenance et les règles d'inférence du système sont construites sur la base de l'évaluation perceptive de l'humain. La sortie du système Flou est une valeur numérique indiquant le nom de la couleur. Une valeur de seuil est introduite pour définir la zone de décision pour chaque couleur. Si la sortie floue tombe dans cet intervalle, alors la couleur est considérée comme la vraie sortie du système. Nous sommes dans un environnement non contrôlé dans lequel il y a des incertitudes et des imprécisions (variation de la lumière, qualité des capteurs, similarité entre couleurs). Ces facteurs affectent la détection de la couleur par le robot. L’introduction du seuil qui encadre la couleur, conduit à un compromis entre l'incertitude et la fiabilité. Si cette valeur est faible, les décisions sont plus fiables, mais le nombre de cas incertains augmente, et vice et versa. Dans nos expérimentations, on a pris une valeur de seuil petite, de sorte que l'incertitude soit plus importante, et donc la prise de décision par un capteur unique, celui de NAO, soit faible. Nous proposons d'ajouter d’autres caméras 2D dans le système afin d’améliorer la prise de décision par le robot NAO. Cette prise de décision résulte de la fusion des sorties des caméras en utilisant la théorie des fonctions de croyance pour lever les ambiguïtés. La valeur de seuil est prise en compte lors de la construction des valeurs de masse à partir de la sortie Floue de Sugeno de chaque caméra. La règle de combinaison de Dempster-Shafer et le maximum de probabilité pignistique sont choisis dans la méthode. Selon nos expériences, le taux de détection du système de fusion est grandement amélioré par rapport au taux de détection de chaque caméra prise individuellement. Nous avons étendu cette méthode à la reconnaissance d’objets colorés en utilisant des caméras hétérogènes 2D et 3D. Pour chaque caméra, nous extrayons vecteurs de caractéristiques (descripteurs SURF et SHOT) des objets, riches en informations caractérisant les modèles d'objets. Sur la base de la correspondance avec des modèles formés et stockés dans la base d'apprentissage, chaque vecteur de caractéristiques de l'objet détecté vote pour une ou plusieurs classes appartenant à l'ensemble de puissance. Nous construisons une fonction de masse après une étape de normalisation. Dans cette expérimentation, la règle de combinaison de Dempster-Shafer et le maximum de probabilité pignistique sont utilisés pour prendre la décision finale. A la suite des trois expérimentations réalisées, le taux de reconnaissance du système de fusion est bien meilleur que le taux de décision issu de chaque caméra individuellement. Nous montrons ainsi que la fusion multi-capteurs permet d’améliorer la prise de décision du robot. / Being interested in the important role of robotics in human life, we do a research about the improvement in reliability of a humanoid robot NAO by using multi-sensor fusion. In this research, we propose two scenarios: the color detection and the object recognition. In these two cases, a camera of the robot is used in combination with external cameras to increase the reliability under non-ideal working conditions. For the color detection, the NAO robot is requested to find an object whose color is described in human terms such as: red, yellow, brown, etc. The main problem to be solved is how the robot recognizes the colors as well as the human perception does. To do that, we propose a Fuzzy Sugeno system to decide the color of a detected target. For simplicity, the chosen targets are colored balls, so that the Hough transformation is employed to extract the average pixel values of the detected ball, then these values are used as the inputs for the Fuzzy system. The membership functions and inference rules of the system are constructed based on perceptual evaluation of human. The output of the Fuzzy system is a numerical value indicating a color name. Additionally, a threshold value is introduced to define the zone of decision for each color. If the Fuzzy output falls into a color interval constructed by the threshold value, that color is considered to be the output of the system. This is considered to be a good solution in an ideal condition, but not in an environment with uncertainties and imprecisions such as light variation, or sensor quality, or even the similarity among colors. These factors really affect the detection of the robot. Moreover, the introduction of the threshold value also leads to a compromise between uncertainty and reliability. If this value is small, the decisions are more reliable, but the number of uncertain cases are increases, and vice versa. However, the threshold value is preferred to be small after an experimental validation, so the need for a solution of uncertainty becomes more important. To do that, we propose adding more 2D cameras into the detection system of the NAO robot. Each camera applies the same method as described above, but their decisions are fused by using the Dempster-Shafer theory in order to improve the detection rate. The threshold value is taken into account to construct mass values from the Sugeno Fuzzy output of each camera. The Dempster-Shafer's rule of combination and the maximum of pignistic probability are chosen in the method. According to our experimens, the detection rate of the fusion system is really better than the result of each individual camera. We extend this recognition process for colored object recognition. These objects are previously learned during the training phase. To challenge uncertainties and imprecisions, the chosen objects look similar in many points: geometrical form, surface, color, etc. In this scenario, the recognition system has two 2D cameras: one of NAO and one is an IP camera, then we add a 3D camera to take the advantages of depth information. For each camera, we extract feature points of the objects (SURF descriptor for 2D data, and the SHOT descriptor for 3D data). To combine the cameras in the recognition system, the Dempster-Shafer theory is again employed for the fusion. Based on the correspondence to trained models stored in the learning base, each feature point of the detected object votes for one or several classes i.e. a hypothesis in the power set. We construct a mass function after a normalization step. In this case, the Dempster-Shafer's rule of combination and the maximum of pignistic probability are employed to make the final decision. After doing three experiments, we conclude that the recognition rate of the fusion system is much better than the rate of each individual camera, from that we confirm the benefits of multi-sensor fusion for the robot's reliability.
544

Compréhension de parole et détection des émotions pour robot compagnon / No title available

Le Tallec, Marc 02 February 2012 (has links)
Pas de résumé fourni / No summary available
545

HRC implementation in laboratory environment : Development of a HRC demonstrator

Boberg, Arvid January 2018 (has links)
Eurofins is one of the world's largest laboratories which, among other things, offer chemical and microbiological analyses in agriculture, food and environment. Several 100.000 tests of various foods are executed each year at Eurofins’ facility in Jönköping and the current processes include much repeated manual tasks which could cause ergonomic problems. The company therefore wants to investigate the possibilities of utilizing Human-Robot Collaboration (HRC) at their facility. Human-Robot Collaboration is a growing concept that has made a big impression in both robot development and Industry 4.0. A HRC approach allow humans and robots to share their workspaces and work side by side, without being separated by a protective fence which is common among traditional industrial robots. Human-Robot Collaboration is therefore believed to be able to optimize the workflows and relieve human workers from unergonomic tasks. The overall aim of the research project presented is to help the company to gain a better understanding about the existing HRC technologies. To achieve this goal, the state-of-the-art of HRC had to be investigated and the needs, possibilities and limitations of HRC applications had to be identified at Eurofins’ facility. Once these have been addressed, a demonstrator could be built which could be used for evaluating the applicability and suitability of HRC at Eurofins. The research project presented used the design science research process. The state-of-the-art of HRC was studied in a comprehensive literature review, reviewing sterile robots and mobile robotics as well. The presented literature review could identify possible research gaps in both HRC in laboratory environments and mobile solutions for HRC applications. These areas studied in the literature review formed together the basis of the prepared observations and interviews, used to generate the necessary data to develop the design science research artefact, the demonstrator. ABB's software for robotic simulation and offline programming, RobotStudio, were used in the development of the demonstrator, with the collaborative robot YuMi chosen for the HRC implementation. The demonstrator presented in the research project has been built, tested and refined in accordance to the design science research process. When the demonstrator could illustrate an applicable solution, it was evaluated for its performance and quality using a mixed methods approach. Limitations were identified in both the performance and quality of the demonstrator's illustrated HRC implementation, including adaptability and sterility constraints. The research project presented could conclude that a HRC application would be possible at a station which were of interest by the company, but would however not be recommended due to the identified constraints. Instead, the company were recommended to look for stations which are more standardized and have less hygienic requirements. By the end of the research project, additional knowledge was contributed to the company, including how HRC can affect today's working methods at Eurofins and in laboratory environments in general.
546

Vybrané parametry welfare dojnic ve vztahu k dojení dojicím automatem. / Selected welfare parameters of milk cows in relation to milking by a robot.

PRŮŠA, Jan January 2015 (has links)
The aim of this work was to gather and evaluate the evidence about the behaviour of dairy cows during the milking by a robot (including physiological reactions running after the milking). The following parameters were observed: number of milking per 24 hours, the time from onset to the robot and the teat cup deployment, the time between milking, the total time of milking, milk yield with each milking, average and total milk yield per day. The results were measured separately in heifers and in cows on the second and subsequent lactations. In the same time, there was also observed the behaviour of cows after leaving the milking robot - feed and water intake, physical activity and the rest for the time of 30 minutes after the milking. Simultaneously, there was also observed the effect of milking technology for the health of the cows, focused on diseases of the mammary gland. There were three ethologic observations which always lasted 24 hours. In addition to the observed data, there were evaluated the data records obtained from the milking machine (e. g. milk yield per one milking, the interval between single milkings, etc.). There were observed an average of 60 pieces of cows. Throughout the watching the cows in the barn behaved calmly and contentedly. They came to the milking machine spontaneously, only a few cases had to be herded for milking by the caregiver. However, they were all the heifers which did not have the sufficient experience with the milking. The counting of teat cup deployment attempts had to be abandoned because of the close proximity of the observer at the milking robot. In this case, the cows were not quiet and did not want to go in the robot spontaneously. The mammary gland disease was diagnosed at an average of 6.9 pieces of milked cows per one month. This high number of cases is ascribed to a poor hygiene of the stables and a poorer quality of feeding. This work was created in cooperation with the grants NAZV QJ1210144 and NAZV QJ1530058.
547

Porovnání vybraných ukazatelů welfare dojnic dojených v dojicím automatu a na rybinové dojírně

KOUTEK, Martin January 2016 (has links)
The aim of this diploma thesis was to obtain and formulate the knowledge about the process of milking and the activity of dairy cows 30 minutes after milking in the milking parlour with a robot and in the herringbone milking parlour. Three ethological observations took place in three seasons. The observation on the farm with a milking robot took 24 hours continuously. The observation on the farm with a milking parlour lasted for the duration of milking and subsequent observation of the last group of dairy cows. In total, there were evaluated 452 successful milkings on the farm with the robot and 112 successful milkings on the farm with the milking parlour. Crosses of Czech Fleckvieh Breed and red Holstein Breed in the same ratio were observed during the monitoring. Parameters during milking and ethological performance, such as drinking, feed intake and lying down, in the duration of 30 minutes after milking were monitored. The instructions of the thesis are based on the project NAZV - QJ1210144 and NAZV QJ1530058.
548

Task compatibility and feasibility maximization for whole-body control / Compatibilité des tâches et maximisation de la faisabilité pour le contrôle de l'ensemble du corps

Lober, Ryan 20 November 2017 (has links)
Le développement de comportements utiles pour les robots complexes, tel que des humanoïdes, s'avère difficile. La commande corps-complet à base de modèle allège en partie ces difficultés, en permettant la composition des comportements corps-complets complexes à partir de plusieurs tâches atomiques effectuées simultanément sur le robot. Cependant, des hypothèses et erreurs de modélisation, faites pendant la planification des tâches, peuvent produire des combinaisons infaisables/incompatibles quand exécutées sur le robot, créant des mouvements corps-complet imprévisibles, et probablement dangereux. L'objectif de ce travail est de mieux comprendre ce qui rend les tâches infaisables ou incompatibles et de développer des méthodes automatiques pour améliorer ces problèmes pour que les mouvements corps-complets puissent être accomplis comme prévu. Nous commençons par construire un formalisme permettant d'analyser quand les tâches sont faisables et compatibles étant données les contraintes de commande. En utilisant les métriques de faisabilité et compatibilité à base de modèle, nous démontrons comment optimiser les tâches avec des outils de commande prédictive non-linéaire ainsi que les inconvénients de cette approche. Afin de surmonter ces faiblesses, une boucle d'optimisation est formulée, qui améliore automatiquement la faisabilité et compatibilité des tâches via la recherche de politique sans modèle en conjonction avec la commande corps-complets à base de modèle. À travers une série d'expériences simulées et réelles, nous montrons que la simple optimisation de faisabilité et compatibilité des tâches nous permet de réaliser des mouvements corps-complets utiles. / Producing useful behaviors on complex robots, such as humanoids, is a challenging undertaking. Model-based whole-body control alleviates some of this difficulty by allowing complex whole-body motions to be broken up into multiple atomic tasks, which are performed simultaneously on the robot. However, modeling errors and assumptions, made during task planning, often result in infeasible and/or incompatible task combinations when executed on the robot. Consequently, there is no guarantee that the prescribed tasks will be accomplished, resulting in unpredictable, and most likely, unsafe whole-body motions. The objective of this work is to better understand what makes tasks infeasible or incompatible, and develop automatic methods of improving on these two issues so that the overall whole-body motions may be accomplished as planned. We start by building a concrete analytical formalism of what it means for tasks to be feasible with the control constraints and compatible with one another. Using the model-based feasibility and compatibility metrics, we demonstrate how the tasks can be optimized using non-linear model predictive control, while also detailing the shortcomings of this model-based approach. In order to overcome these weaknesses, an optimization loop is designed, which automatically improves task feasibility and compatibility using model-free policy search in conjunction with model-based whole-body control. Through a series of simulated and real-world experiments, we demonstrate that by simply optimizing the tasks to improve both feasibility and compatibility, complex and useful whole-body motions can be realized.
549

Modulation de mouvements de tête pour l'analyse multimodale d'un environnement inconnu / Head movements modulation for the multimodal analysis of unknown environments

Cohen-Lhyver, Benjamin 19 September 2017 (has links)
L'exploration d'un environnement inconnu par un robot mobile est un vaste domaine de recherche visant à comprendre et implémenter des modèles d'exploration efficaces, rapides et pertinents. Cependant, depuis les années 80, l'exploration ne s'est plus contentée de la seule détermination de la topographie d'un espace : à la composante spatiale a été couplée une composante sémantique du monde exploré. En effet, en addition aux caractéristiques physiques de l'environnement — murs, obstacles, chemins empruntables ou non, entrées et sorties — permettant au robot de se créer une représentation interne du monde grâce à laquelle il peut s'y déplacer, existent des caractéristiques dynamiques telles que l'apparition d'événements audiovisuels. Ces événements sont d'une grande importance en cela qu'ils peuvent moduler le comportement du robot en fonction de leur localisation dans l'espace — aspect topographique — et de l'information qu'ils portent — aspect sémantique. Bien qu'imprédictibles par nature (puisque l'environnement est inconnu) tous ces événements ne sont pas d'égale importance : certains peuvent porter une information utile au robot et à sa tâche d'exploration, d'autres non. Suivant les travaux sur les motivations intrinsèques à explorer un environnement inconnu et puisant son inspiration de phénomènes neurologiques, ce travail de thèse a consisté en l'élaboration du modèle Head Turning Modulation (HTM) visant à donner à un robot doté de mouvements de tête la capacité de déterminer l'importance relative de l'apparition d'un événement audiovisuel dans un environnement inconnu en cours d'exploration. Cette importance a été formalisée sous la forme de la notion de Congruence s'inspirant principalement (i) de l'entropie de Shannon, (ii) du phénomène de Mismatch Negativity et (iii) de la Reverse Hierarchy Theory. Le modèle HTM, créé dans le cadre du projet européen Two!Ears, est un paradigme d'apprentissage basé sur (i) une auto-supervision (le robot décide lorsqu'il est nécessaire d'apprendre ou non), (ii) une contrainte de temps réel (le robot apprend et réagit aussitôt que des données sont perçues), et (iii) une absence de données a priori sur l'environnement (il n'existe pas de vérité à apprendre, seulement la réalité perçue de l'environnement à explorer). Ce modèle, intégré à l’ensemble du framework Two!Ears, a été entièrement porté sur un robot mobile pourvu d'une vision binoculaire et d'une audition binaurale. Le modèle HTM couple ainsi une approche montante traditionnelle d’analyse des signaux perceptifs (extractions de caractéristiques, reconnaissance visuelle ou auditive, etc.) à une approche descendante permettant, via la génération d’une action motrice, de comprendre et interpréter l’environnement audiovisuel du robot. Cette approche bottom-up/top-down active est ainsi exploitée pour moduler les mouvements de tête d’un robot humanoïde et étudier l'impact de la Congruence sur ces mouvements. Le système a été évalué via des simulations réalistes, ainsi que dans des conditions réelles, sur les deux plateformes robotiques du projet Two!Ears. / The exploration of an unknown environement by a mobile robot is a vast research domain aiming at understanding and implementing efficient, fast and relevant exploration models. However, since the 80s, exploration is no longer restricted to the sole determination of topography a space: to the spatial component has been coupled a semantic one of the explored world. Indeed, in addition to the physical characteristics of the environment — walls, obstacles, usable paths or not, entrances and exits — allowing the robot to create its own internal representation of the world through which it can move in it, exist dynamic components such as the apparition of audiovisual events. These events are of high importance for they can modulate the robot's behavior through their location in space — topographic aspect — and the information they carry — semantic aspect. Although impredictible by nature (since the environment is unknown) all these events are not of equal importance: some carry valuable information for the robot's exploration task, some don't. Following the work on intrinsic motivations to explore an unknown environment, and being rooted in neurological phenomenons, this thesis work consisted in the elaboration of the Head Turning Modulation (HTM) model aiming at giving to a robot capable of head movements, the ability to determine the relative importance of the apparition of an audioivsual event. This "importance" has been formalized through the notion of Congruence which is mainly inspired from (i) Shannon's entropy, (ii) the Mismatch Negativity phenomenon, and (iii) the Reverse Hierarchy Theory. The HTM model, created within the Two!Ears european project, is a learning paradigm based on (i) an auto-supervision (the robot decides when it is necessary or not to learn), (ii) a real-time constraint (the robot learns and reacts as soon as data is perceived), and (iii) an absence of prior knowledge about the environment (there is no "truth" to learn, only the reality of the environment to explore). This model, integrated in the overal Two!Ears framework, has been entirely implemented in a mobile robot with binocular vision and binaural audition. The HTM model thus gather the traditional approach of ascending analysis of perceived signals (extraction of caracteristics, visual or audio recognition etc.) to a descending approach that enables, via motor actions generation in order to deal with perception deficiency (such as visual occlusion), to understand and interprete the audiovisual environment of the robot. This bottom-up/top-down active approach is then exploited to modulate the head movements of a humanoid robot and to study the impact of the Congruence on these movements. The system has been evaluated via realistic simulations, and in real conditions, on the two robotic platforms of the Two!Ears project.
550

Perception intelligente pour la navigation rapide de robots mobiles en environnement naturel / Intelligent perception for fast navigation of mobile robots in natural environments

Malartre, Florent 16 June 2011 (has links)
Cette thèse concerne la perception de l’environnement pour le guidage automatique d’un robot mobile. Lorsque l’on souhaite réaliser un système de navigation autonome, plusieurs éléments doivent être abordés. Parmi ceux-ci nous traiterons de la franchissabilité de l’environnement sur la trajectoire du véhicule. Cette franchissabilité dépend notamment de la géométrie et du type de sol mais également de la position du robot par rapport à son environnement (dans un repère local) ainsi que l’objectif qu’il doit atteindre (dans un repère global). Les travaux de cette thèse traitent donc de la perception de l’environnement d’un robot au sens large du terme en adressant la cartographie de l’environnement et la localisation du véhicule. Pour cela un système de fusion de données est proposé afin d’estimer ces informations. Ce système de fusion est alimenté par plusieurs capteurs dont une caméra, un télémètre laser et un GPS. L’originalité de ces travaux porte sur la façon de combiner ces informations capteurs. A la base du processus de fusion, nous utilisons un algorithme d’odométrie visuelle basé sur les images de la caméra. Pour accroitre la précision et la robustesse l’initialisation de la position des points sélectionnés se fait grâce à un télémètre laser qui fournit les informations de profondeur. De plus, le positionnement dans un repère global est effectué en combinant cette odométrie visuelle avec les informations GPS. Pour cela un procédé a été mis en place pour assurer l’intégrité de localisation du véhicule avant de fusionner sa position avec les données GPS. La cartographie de l’environnement est toute aussi importante puisqu’elle va permettre de calculer le chemin qui assurera au véhicule une évolution sans risque de collision ou de renversement. Dans cette optique, le télémètre laser déjà présent dans le processus de localisation est utilisé pour compléter la liste courante de points 3D qui matérialisent le terrain à l’avant du véhicule. En combinant la localisation précise du véhicule avec les informations denses du télémètre il est possible d’obtenir une cartographie précise, dense et géo-localisée de l’environnement. Tout ces travaux ont été expérimentés sur un simulateur robotique développé pour l’occasion puis sur un véhicule tout-terrain réel évoluant dans un monde naturel. Les résultats de cette approche ont montré la pertinence de ces travaux pour le guidage autonome de robots mobiles. / This thesis addresses the perception of the environment for the automatic guidance of a mobile robot. When one wishes to achieve autonomous navigation, several elements must be addressed. Among them we will discuss the traversability of the environment on the vehicle path. This traversability depends on the ground geometry and type and also the position of the robot in its environment (in a local coordinate system) taking into acount the objective that must be achieved (in a global coordinate system).The works of this thesis deal with the environment perception of a robot inthe broad sense by addressing the mapping of the environment and the location of the vehicle. To do this, a data fusion system is proposed to estimate these informations. The fusion system is supplied by several low cost sensors including a camera, a rangefinder and a GPS receiver. The originality of this work focuses on how to combine these sensors informations. The base of the fusion process is a visual odometry algorithm based on camera images. To increase the accuracy and the robustness, the initialization of the selected points position is done with a rangefinder that provides the depth information.In addition, the localization in a global reference is made by combining the visual odometry with GPS information. For this, a process has been established to ensure the integrity of localization of the vehicle before merging its position with the GPS data. The mapping of the environment is also important as it will allow to compute the path that will ensure an evolution of the vehicle without risk of collision or overturn. From this perspective, the rangefinder already present in the localization process is used to complete the current list of 3D points that represent the field infront of the vehicle. By combining an accurate localization of the vehicle with informations of the rangefinder it is possible to obtain an accurate, dense and geo-located map environment. All these works have been tested on a robotic simulator developed for this purpose and on a real all-terrain vehicle moving in a natural world. The results of this approach have shown the relevance of this work for autonomous guidance of mobile robots.

Page generated in 0.0539 seconds