Spelling suggestions: "subject:"cobots -- mouvements"" "subject:"cobots -- mouvement""
1 |
Suivi d'objet en 6 degrés de liberté avec caméra événementielleDubeau, Etienne 15 September 2022 (has links)
Actuellement, les méthodes de suivi d’objet utilisent majoritairement un capteur conventionnel doté d’une fréquence de capture limitée, par exemple : une caméra couleur RGB ou un capteur RGB-D qui fournit également la profondeur à chaque pixel. Ceux-ci ne sont pas idéaux lorsque l’objet se déplace à grande vitesse car des images floues sont produites. Augmenter la fréquence de capture est la solution naïve, mais cela a comme effet d’augmenter le nombre de données capturées et la complexité d’exécution des algorithmes. Ceci cause particulièrement problème dans un contexte de réalité augmentée qui utilise des systèmes embarqués ou mobiles qui ont des capacités de calcul limitées. D’un autre côté, la popularité des capteurs événementiels, qui mesurent les variations d’intensité dans la scène, est en augmentation dû à leur faible puissance d’utilisation, leur faible latence, leur capacité d’acquisition à grande vitesse et le fait qu’ils minimisent le nombre de données capturées. Ce mémoire présente donc une méthode d’apprentissage profond de suivi d’objet à grande vitesse en six degrés de liberté en combinant deux capteurs distincts, soit un capteur RGBD et une caméra événementielle. Pour permettre l’utilisation des capteurs conjointement, une méthode de calibration temporelle et spatiale est détaillée afin de mettre en registre les images capturées par les deux caméras. Par la suite, une méthode d’apprentissage profond de suivi d’objet est présentée. Celle-ci utilise uniquement des données synthétiques à l’entrainement et utilise les deux capteurs pour améliorer les performances de suivi d’objet en 6DOF, surtout dans les scénarios à grande vitesse. Pour terminer, un jeu de données RGB-D-E est capturé et annoté à la position réelle pour chaque trame. Ce jeu de données est accessible publiquement et peut être utilisé pour quantifier les performances de méthodes futures.
|
2 |
Suivi d'objet en 6 degrés de liberté avec caméra événementielleDubeau, Etienne 22 February 2024 (has links)
Actuellement, les méthodes de suivi d'objet utilisent majoritairement un capteur conventionnel doté d'une fréquence de capture limitée, par exemple : une caméra couleur RGB ou un capteur RGB-D qui fournit également la profondeur à chaque pixel. Ceux-ci ne sont pas idéaux lorsque l'objet se déplace à grande vitesse car des images floues sont produites. Augmenter la fréquence de capture est la solution naïve, mais cela a comme effet d'augmenter le nombre de données capturées et la complexité d'exécution des algorithmes. Ceci cause particulièrement problème dans un contexte de réalité augmentée qui utilise des systèmes embarqués ou mobiles qui ont des capacités de calcul limitées. D'un autre côté, la popularité des capteurs événementiels, qui mesurent les variations d'intensité dans la scène, est en augmentation dû à leur faible puissance d'utilisation, leur faible latence, leur capacité d'acquisition à grande vitesse et le fait qu'ils minimisent le nombre de données capturées. Ce mémoire présente donc une méthode d'apprentissage profond de suivi d'objet à grande vitesse en six degrés de liberté en combinant deux capteurs distincts, soit un capteur RGB-D et une caméra événementielle. Pour permettre l'utilisation des capteurs conjointement, une méthode de calibration temporelle et spatiale est détaillée afin de mettre en registre les images capturées par les deux caméras. Par la suite, une méthode d'apprentissage profond de suivi d'objet est présentée. Celle-ci utilise uniquement des données synthétiques à l'entrainement et utilise les deux capteurs pour améliorer les performances de suivi d'objet en 6DOF, surtout dans les scénarios à grande vitesse. Pour terminer, un jeu de données RGB-D-E est capturé et annoté à la position réelle pour chaque trame. Ce jeu de données est accessible publiquement et peut être utilisé pour quantifier les performances de méthodes futures.
|
3 |
Transmission à variation continue pour articulation robotiqueGrenier, Martin 19 April 2018 (has links)
Ce mémoire présente le développement d'une transmission à variation continue pour les articulations robotiques. Le domaine de la robotique pourrait considérablement augmenter l'efficacité et la performance de ces systèmes en intégrant de nouveaux types de transmission au niveau de ses actionneius. En effet, les transmissions à ratio variables sont utilisées dans une multitude de domaines (transport, production d'énergie etc.) et permettent d'obtenir une plus grande polyvalence en gérant adéquatement la source de puissance disponible. Dans le cadre de ce projet, la transmission développée est principalement basée sur un mécanisme à cinq barres. Dans un premier temps, l'analyse cinématique et l'optimisation des dimensions du mécanisme sont exposées. Grâce à cette optimisation, un comportement performant et uniforme est atteint. En second lieu, une étude comparative avec un autre concept potentiel de transmission est présenté. Cette étude permet de démystifier le potentiel des train épicycloïdaux à double actionnement. Finalement, un prototype du mécanisme a été conçu et fabriqué. Ainsi, un chapitre est consacré aux composantes et aux méthodes de commande nécessaires au bon fonctionnement du prototype. Cette section inclut aussi une validation expérimentale du comportement espéré de la transmission et des essais expérimentaux qui permettent d'estimer l'efficacité effective du prototype fabriqué.
|
4 |
Équilibrage statique adaptatif d'un manipulateur sériel à 4 degrés de libertéTremblay, Philippe 13 April 2018 (has links)
Ce mémoire traite de l'équilibrage statique adaptatif d'un manipulateur à 4 degrés de liberté destiné à une utilisation au sein d'une chaîne de montage de l'industrie automobile. Le contexte du projet ainsi que les objectifs visés sont d'abord énoncés clairement. Par la suite, différentes méthodes et architectures permettant de réaliser l'équilibrage statique sont présentées. Ces méthodes sont détaillées et une conclusion est établie quant à la faisabilité de chacune. La meilleure d'entre elles est retenue puis analysée plus en détail. Pour en valider le fonctionnement, un prototype de cette solution est également construit. Finalement, les résultats de l'expérimentation et les problèmes rencontrés lors de celle-ci sont présentés. Un retour et une discussion sur l'ensemble du travail effectué viennent conclure le tout
|
5 |
Localisation relative à six degrés de liberté basée sur les angles et sur le filtrage probabilisteDugas, Olivier 20 April 2018 (has links)
Lorsque des robots travaillent en équipe, il est avantageux de permettre à ceux-ci de se localiser mutuellement pour faire, par exemple, de la navigation en formation. La résolution de la localisation relative est d'une importance particulière pour des équipes de robots aériens ou sous-marins lorsque ceux-ci opèrent dans des environnements dépourvus de points de repère. Ce problème se complexifie davantage lorsque le système de localisation permet seulement l'utilisation de caméras légères et bon marché. Cette étude présente une solution analytique au problème de localisation relative à six degrés de liberté basée sur des mesures d'angle. Cette solution est intégrée à des filtres probabilistes pour augmenter sa précision. En utilisant deux robots mutuellement observables possédant chacun deux marqueurs et une caméra colinéaires, nous pouvons retrouver les transformations qui expriment la pose du premier dans le référentiel du second. Notre technique se distingue du fait qu'elle nécessite uniquement la mesure de deux paires d'angles, au lieu d'un mélange de mesures d'angles et de distances. La précision des résultats est vérifiée par des simulations ainsi que par des expérimentations concrètes. Suite à des expérimentations à des distances variant entre 3:0 m et 15:0 m, nous montrons que la position relative est estimée avec moins de 0:5 % d'erreur et que l'erreur moyenne sur l'orientation relative est maintenue sous 2:2 deg. Une généralisation approximative est formulée et simulée pour le cas où la caméra de chaque robot n'est pas colinéaire avec les marqueurs de celui-ci. Au-delà de la précision des caméras, nous montrons qu'un filtre non parfumé de Kalman permet d'adoucir l'erreur sur les estimations de la position relative, et qu'un filtre étendu de Kalman basé sur les quaternions peut faire de même pour l'orientation relative. Cela rend notre solution particulièrement adaptée pour le déploiement de flottes de robots à six degrés de liberté comme des dirigeables. / When a team of robots have to collaborate, it is useful to allow them to localize each other in order to maintain flight formations, for example. The solution of cooperative localization is of particular importance to teams of aerial or underwater robots operating in areas devoid of landmarks. The problem becomes harder if the localization system must be low-cost and lightweight enough that only consumer-grade cameras can be used. This paper presents an analytical solution to the six degrees of freedom cooperative localization problem using bearing only measurements. Probabilistic filters are integrated to this solution to increase it's accuracy. Given two mutually observing robots, each one equipped with a camera and two markers, and given that they each take a picture at the same moment, we can recover the coordinate transformation that expresses the pose of one robot in the frame of reference of the other. The novelty of our approach is the use of two pairs of bearing measurements for the pose estimation instead of using both bearing and range measurements. The accuracy of the results is verified in extensive simulations and in experiments with real hardware. In experiments at distances between 3:0 m and 15:0 m, we show that the relative position is estimated with less than 0:5 % error and that the mean orientation error is kept below 2:2 deg. An approximate generalization is formulated and simulated for the case where each robot's camera is not colinear with the same robot's markers. Passed the precision limit of the cameras, we show that an unscented Kalman filter can soften the error on the relative position estimations, and that an quaternion-based extended Kalman filter can do the same to the error on the relative orientation estimations. This makes our solution particularly well suited for deployment on fleets of inexpensive robots moving in 6 DoF such as blimps.
|
Page generated in 0.0432 seconds