51 |
Utilisation de la stéréo radargrammétrie RADARSAT-2 pour le suivi de la fonte des calottes glaciaires Barnes et Penny (Île de Baffin, Nunavut, Canada)Papasodoro, Charles January 2015 (has links)
Résumé : Le contexte récent d’accélération de la fonte des glaciers et calottes glaciaires (GCG) de l’archipel arctique canadien, jumelé aux difficultés de suivi des GCG de cette région, rendent essentiels le développement et l’utilisation de nouvelles approches innovatrices de suivi. Le potentiel de la stéréo radargrammétrie (SRG) RADARSAT-2 est ici caractérisé pour l’extraction d’élévations et le calcul de changements d’élévation et de bilans de masse (historiques et récents) sur les calottes glaciaires Barnes et Penny (Nunavut, Canada). Par la méthode semi-automatisée de recherche de corrélation à partir de couples stéréoscopiques RADARSAT-2 de 2013 (mode wide ultra-fin; résolution spatiale de 3 m; taille d’image de 50 km x 50 km), une précision verticale de ~7 m (LE68) est mesurée sur la terre ferme, et cette valeur de précision est possiblement légèrement supérieure sur la calotte Barnes, étant donné la variabilité de profondeur de pénétration. Par captage 3D, une précision altimétrique de ~3-4 m (LE68) est mesurée par différents photo-interprètes à partir de couples RADARSAT de 2012 en zone d’ablation de la calotte Penny. Sur la calotte Barnes, les changements d’élévation mesurés par rapport aux premiers modèles numériques de terrain disponibles permettent de mesurer un bilan de masse spécifique historique (1960-2013) de -0,49 ± 0,20 m w.e./année, pour un bilan de masse total de -2,9 Gt/année. Entre 2005 et 2013, le bilan de masse spécifique de cette calotte augmente significativement à -1,20 ± 0,86 m w.e./année, pour un bilan de masse total de -7 Gt/année. En zone d’ablation de la calotte Penny, un changement d’élévation annuel moyen de -0,59 m/année est mesuré entre 1958 et 2012. Parallèlement, plusieurs aspects méthodologiques et techniques sont discutés et analysés. Des profondeurs de pénétration nulles (bande C) sont mesurées à partir des images acquises sur la calotte Barnes à la toute fin de la saison d’ablation (fin septembre/début octobre), alors que cette profondeur augmente à ~2,5-3 m pour des images acquises à la fin octobre/début novembre (période de gel). Nos résultats suggèrent aussi que le modèle de fonction rationnelle, lorsqu’utilisé avec des images RADARSAT-2 en mode wide ultra-fin, permet d’obtenir des précisions plus constantes que le modèle hybride de Toutin. De par son indépendance des conditions météorologiques, son utilisation possible sans point de contrôle et sa simplicité de traitement, la SRG RADARSAT-2 s’avère donc être une excellente alternative aux technologies actuelles pour le suivi de GCG situés dans des régions affectées par des contraintes opérationnelles importantes. / Abstract : Given the recent melt acceleration of the Canadian arctic archipelago’s ice caps and the monitoring difficulties of this remote region, the development of new innovative monitoring tools has become essential. Here, the potential of the RADARSAT-2 stereo radargrammetry (SRG) is characterized for elevations extraction, as well as for elevation changes/mass balances calculations (historical and recent) on Barnes and Penny ice caps (Nunavut, Canada). Using the semi-automatic approach of correlation search from RADARSAT-2 stereoscopic couples of 2013 (wide ultra-fine mode; spatial resolution of 3 m; coverage of 50 km x 50 km), a vertical precision of ~7 m (LE68) is measured on ice-free terrain and this precision is possibly slighty worse on the ice cap because of the penetration depth’s variability. On the other hand, the 3D vision extraction approach reveals an altimetric precision of ~3-4 m (LE68) on the ablation area of the Penny Ice Cap. On the Barnes Ice Cap, elevation changes calculated relative to the oldest digital elevation models available allows to calculate an historical specific mass balance (1960-2013) of -0,49 ± 0,20 m w.e./year, resulting in a total annual mass balance of -2,9 Gt/year. Between 2005 and 2013, the specific mass balance of this ice cap increases to -1,20 ± 0,86 m w.e./year, which equals to a total annual mass balance f -7 Gt/year. On Penny Ice Cap’s ablation area, an average elevation change of -0,59 m/year is measured between 1958 and 2012. As also suggested in the literature, the recent melt acceleration is highly linked to warmer summer temperatures. Methodological and technical aspects are also presented and analyzed. No penetration depth (C band) is perceived on elevations derived from late ablation season images (late September/beginning of October), while a penetration of ~2,5-3 m is measured from images acquired in late October/beginning of November (freeze period). Our results also suggest the superiority and better consistency of the rational function model for geometrical correction of wide ultra-fine mode RADARSAT-2 images, compared to the hybrid Toutin’s model. Because of its all-weather functionality, its possible use without any ground control point and the simplicity and facility of its treatment, the RADARSAT-2 SRG represents a really good technology for glacier monitoring in regions affected by serious operational constraints.
|
52 |
Modélisation d'objets 3D par fusion silhouettes-stéréo à partir de séquences d'images en rotation non calibréesHernández Esteban, Carlos 04 May 2004 (has links) (PDF)
Nous présentons une nouvelle approche pour la modélisation d'objets 3D de haute qualité à partir de séquences d'images en rotation partiellement calibrées. L'algorithme est capable: de calibrer la caméra (la pose et la longueur focale), de reconstruire la géométrie 3D et de créer une carte de texture. Par rapport à d'autres méthodes plus classiques, le calibrage est réalisé à partir d'un ensemble de silhouettes comme seule source d'information. Nous développons le concept de cohérence d'un ensemble de silhouettes généré par un objet 3D. Nous discutons d'abord la notion de cohérence de silhouettes et définissons un critère pratique pour l'estimer. Ce critère dépend à la fois des silhouettes et des paramètres des caméras qui les ont générées. Ces paramètres peuvent être estimés pour le problème de modélisation 3D en maximisant la cohérence globale des silhouettes. La méthode de reconstruction 3D est fondée sur l'utilisation d'un modèle déformable classique, qui définit le cadre dans lequel nous pouvons fusionner l'information de la texture et des silhouettes pour reconstruire la géométrie 3D. Cette fusion est accomplie en définissant deux forces basées sur les images: une force définie par la texture et une autre définie par les silhouettes. La force de texture est calculée en deux étapes: une approche corrélation multi-stéréo par décision majoritaire, et une étape de diffusion du vecteur gradient (GVF). En raison de la haute résolution de l'approche par décision majoritaire, une version multi-résolution du GVF a été développée. En ce qui concerne la force des silhouettes, une nouvelle formulation de la contrainte des silhouettes est dérivée. Elle fournit une manière robuste d'intégrer les silhouettes dans l'évolution du modèle déformable. A la fin de l'évolution, cette force fixe les contours générateurs du modèle 3D. Finalement, une carte de texture est calculée à partir des images originales et du modèle 3D reconstruit.
|
53 |
Développement d'un implant à géométrie variable pour le traitement des fractures du fémur proximal chez les personnes âgéesBillard, Rémi 21 February 2014 (has links) (PDF)
Les fractures du fémur proximal de la personne âgée sont généralement fixées par des dispositifs d'ostéosynthèse. Pour les fractures particulières dites inter-trochantériennes, il est possible de fixer la fracture de manière intra-médullaire (à l'intérieur de l'os) ou de manière extra-médullaire (en dehors de l'os). Pour chaque type de traitement, les hôpitaux sont équipés des deux systèmes de fixation. Les différences de morphologie des individus impliquent l'existence de multiples références d'implants et donc de surcoûts en termes d'équipement. Dans ce travail de thèse, un implant original adaptable à la plupart des morphologies a été développé. Cet implant permettra non seulement d'offrir aux chirurgiens une souplesse au cours des interventions chirurgicales mais aussi de réduire de manière significative les stocks d'implants dans les hôpitaux. Le comportement mécanique de l'implant est étudié dans différents cas de fractures par deux approches complémentaires, une méthode numérique par Éléments Finis et une approche expérimentale mettant en oeuvre des techniques de stéréo-corrélation à partir d'images de caméras rapides. Les résultats des calculs numériques sont confrontés à ceux issus d'essais réalisés sur des fémurs synthétiques, puis cadavériques en laboratoire d'anatomie. Les comparaisons avec des implants existants montrent que ce nouveau concept d'implant permet une fixation plus stable des fragments osseux et une bonne compression du foyer de fracture.
|
54 |
Le cinéma omnistéréo ou l'art d'avoir des yeux tout le tour de la têteChapdelaine-Couture, Vincent 12 1900 (has links)
Cette thèse s'intéresse à des aspects du tournage, de la projection et de la perception du cinéma stéréo panoramique, appelé aussi cinéma omnistéréo. Elle s'inscrit en grande partie dans le domaine de la vision par ordinateur, mais elle touche aussi aux domaines de l'infographie et de la perception visuelle humaine.
Le cinéma omnistéréo projette sur des écrans immersifs des vidéos qui fournissent de l'information sur la profondeur de la scène tout autour des spectateurs. Ce type de cinéma comporte des défis liés notamment au tournage de vidéos omnistéréo de scènes dynamiques, à la projection polarisée sur écrans très réfléchissants rendant difficile l'estimation de leur forme par reconstruction active, aux distorsions introduites par l'omnistéréo pouvant fausser la perception des profondeurs de la scène.
Notre thèse a tenté de relever ces défis en apportant trois contributions majeures. Premièrement, nous avons développé la toute première méthode de création de vidéos omnistéréo par assemblage d'images pour des mouvements stochastiques et localisés. Nous avons mis au point une expérience psychophysique qui montre l'efficacité de la méthode pour des scènes sans structure isolée, comme des courants d'eau. Nous proposons aussi une méthode de tournage qui ajoute à ces vidéos des mouvements moins contraints, comme ceux d'acteurs. Deuxièmement, nous avons introduit de nouveaux motifs lumineux qui permettent à une caméra et un projecteur de retrouver la forme d'objets susceptibles de produire des interréflexions. Ces motifs sont assez généraux pour reconstruire non seulement les écrans omnistéréo, mais aussi des objets très complexes qui comportent des discontinuités de profondeur du point de vue de la caméra. Troisièmement, nous avons montré que les distorsions omnistéréo sont négligeables pour un spectateur placé au centre d'un écran cylindrique, puisqu'elles se situent à la périphérie du champ visuel où l'acuité devient moins précise. / This thesis deals with aspects of shooting, projection and perception of stereo panoramic cinema, also called omnistereo cinema. It falls largely in the field of computer vision, but it also in the areas of computer graphics and human visual perception.
Omnistereo cinema uses immersive screens to project videos that provide depth information of a scene all around the spectators. Many challenges remain in omnistereo cinema, in particular shooting omnistereo videos for dynamic scenes, polarized projection on highly reflective screens making difficult the process to recover their shape by active reconstruction, and perception of depth distortions introduced by omnistereo images.
Our thesis addressed these challenges by making three major contributions. First, we developed the first mosaicing method of omnistereo videos for stochastic and localized motions. We developed a psychophysical experiment that shows the effectiveness of the method for scenes without isolated structure, such as water flows. We also propose a shooting method that adds to these videos foreground motions that are not as constrained, like a moving actor. Second, we introduced new light patterns that allow a camera and a projector to recover the shape of objects likely to produce interreflections. These patterns are general enough to not only recover the shape of omnistereo screens, but also very complex objects that have depth discontinuities from the viewpoint of the camera. Third, we showed that omnistereo distortions are negligible for a viewer located at the center of a cylindrical screen, as they are in the periphery of the visual field where the human visual system becomes less accurate.
|
55 |
Contributions aux problèmes de l'étalonnage extrinsèque d'affichages semi-transparents pour la réalité augmentée et de la mise en correspondance dense d'images / Contributions to the problems of extrinsic calibration semitransparent displays for augmented reality and dense mapping imagesBraux-Zin, Jim 26 September 2014 (has links)
La réalité augmentée consiste en l'insertion d'éléments virtuels dans une scène réelle, observée à travers un écran. Les systèmes de réalité augmentée peuvent prendre des formes différentes pour obtenir l'équilibre désiré entre trois critères : précision, latence et robustesse. On identifie trois composants principaux : localisation, reconstruction et affichage. Nous nous concentrons sur l'affichage et la reconstruction. Pour certaines applications, l'utilisateur ne peut être isolé de la réalité. Nous proposons un système sous forme de "tablette augmentée" avec un écran semi transparent, au prix d'un étalonnage adapté. Pour assurer l'alignement entre augmentations et réalité, il faut connaître les poses relatives de l'utilisateur et de la scène observée par rapport à l'écran. Deux dispositifs de localisation sont nécessaires et l'étalonnage consiste à calculer la pose de ces dispositifs par rapport à l'écran. Le protocole d'étalonnage est le suivant : l'utilisateur renseigne les projections apparentes dans l'écran de points de référence d'un objet 3D connu ; les poses recherchées minimisent la distance 2D entre ces projections et celles calculées par le système. Ce problème est non convexe et difficile à optimiser. Pour obtenir une estimation initiale, nous développons une méthode directe par l'étalonnage intrinsèque et extrinsèque de caméras virtuelles. Ces dernières sont définies par leurs centres optiques, confondus avec les positions de l'utilisateur, ainsi que leur plan focal, constitué par l'écran. Les projections saisies par l'utilisateur constituent alors les observations 2D des points de référence dans ces caméras virtuelles. Un raisonnement symétrique permet de considérer des caméras virtuelles centrées sur les points de référence de l'objet, "observant" les positions de l'utilisateur. Ces estimations initiales sont ensuite raffinées par ajustement de faisceaux. La reconstruction 3D est basée sur la triangulation de correspondances entre images. Ces correspondances peuvent être éparses lorsqu'elles sont établies par détection, description et association de primitives géométriques ou denses lorsqu'elles sont établies par minimisation d'une fonction de coût sur toute l'image. Un champ dense de correspondance est préférable car il permet une reconstruction de surface, utile notamment pour une gestion réaliste des occultations en réalité augmentée. Les méthodes d'estimation d'un tel champ sont basées sur une optimisation variationnelle, précise mais sensible aux minimums locaux et limitée à des images peu différentes. A l'opposé, l'emploi de descripteurs discriminants peut rendre les correspondances éparses très robustes. Nous proposons de combiner les avantages des deux approches par l'intégration d'un coût basé sur des correspondances éparses de primitives à une méthode d'estimation variationnelle dense. Cela permet d'empêcher l'optimisation de tomber dans un minimum local sans dégrader la précision. Notre terme basé correspondances éparses est adapté aux primitives à coordonnées non entières, et peut exploiter des correspondances de points ou de segments tout en filtrant implicitement les correspondances erronées. Nous proposons aussi une détection et gestion complète des occultations pour pouvoir mettre en correspondance des images éloignées. Nous avons adapté et généralisé une méthode locale de détection des auto-occultations. Notre méthode produit des résultats compétitifs avec l'état de l'art, tout en étant plus simple et plus rapide, pour les applications de flot optique 2D et de stéréo à large parallaxe. Nos contributions permettent d'appliquer les méthodes variationnelles à de nouvelles applications sans dégrader leur performance. Le faible couplage des modules permet une grande flexibilité et généricité. Cela nous permet de transposer notre méthode pour le recalage de surfaces déformables avec des résultats surpassant l'état de l'art, ouvrant de nouvelles perspectives. / Augmented reality is the process of inserting virtual elements into a real scene, observed through a screen. Augmented Reality systems can take different forms to get the desired balance between three criteria: accuracy, latency and robustness. Three main components can be identified: localization, reconstruction and display. The contributions of this thesis are focused on display and reconstruction. Most augmented reality systems use non-transparent screens as they are widely available. However, for critical applications such as surgery or driving assistance, the user cannot be ever isolated from reality. We answer this problem by proposing a new “augmented tablet” system with a semi-transparent screen. Such a system needs a suitable calibration scheme:to correctly align the displayed augmentations and reality, one need to know at every moment the poses of the user and the observed scene with regard to the screen. Two tracking devices (user and scene) are thus necessary, and the system calibration aims to compute the pose of those devices with regard to the screen. The calibration process set up in this thesis is as follows: the user indicates the apparent projections in the screen of reference points from a known 3D object ; then the poses to estimate should minimize the 2D on-screen distance between those projections and the ones computed by the system. This is a non-convex problem difficult to solve without a sane initialization. We develop a direct estimation method by computing the extrinsic parameters of virtual cameras. Those are defined by their optical centers which coincide with user positions, and their common focal plane consisting of the screen plane. The user-entered projections are then the 2D observations of the reference points in those virtual cameras. A symmetrical thinking allows one to define virtual cameras centered on the reference points, and “looking at” the user positions. Those initial estimations can then be refined with a bundle adjustment. Meanwhile, 3D reconstruction is based on the triangulation of matches between images. Those matches can be sparse when computed by detection and description of image features or dense when computed through the minimization of a cost function of the whole image. A dense correspondence field is better because it makes it possible to reconstruct a 3D surface, useful especially for realistic handling of occlusions for augmented reality. However, such a field is usually estimated thanks to variational methods, minimizing a convex cost function using local information. Those methods are accurate but subject to local minima, thus limited to small deformations. In contrast, sparse matches can be made very robust by using adequately discriminative descriptors. We propose to combine the advantages of those two approaches by adding a feature-based term into a dense variational method. It helps prevent the optimization from falling into local minima without degrading the end accuracy. Our feature-based term is suited to feature with non-integer coordinates and can handle point or line segment matches while implicitly filtering false matches. We also introduce comprehensive handling of occlusions so as to support large deformations. In particular, we have adapted and generalized a local method for detecting selfocclusions. Results on 2D optical flow and wide-baseline stereo disparity estimation are competitive with the state of the art, with a simpler and most of the time faster method. This proves that our contributions enables new applications of variational methods without degrading their accuracy. Moreover, the weak coupling between the components allows great flexibility and genericness. This is the reason we were able to also transpose the proposed method to the problem of non-rigid surface registration and outperforms the state of the art methods.
|
56 |
Modélisation 3D à partir d'images : contributions en reconstruction photométrique à l'aide de maillages déformables / Multi-view Shape Modeling from Images : Contributions to Photometric-based Reconstruction using Deformable MeshesDelaunoy, Amaël 02 December 2011 (has links)
Comprendre, analyser et modéliser l'environment 3D à partir d'images provenant de caméras et d'appareils photos est l'un des défis majeurs actuel de recherche en vision par ordinateur. Cette thèse s'interesse à plusieurs aspects géométriques et photometriques liés à la reconstruction de surface à partir de plusieurs caméras calibrées. La reconstruction 3D est vue comme un problème de rendu inverse, et vise à minimiser une fonctionnelle d'énergie afin d'optimiser un maillage triangulaire représentant la surface à reconstruire. L'énergie est définie via un modèle génératif faisant naturellement apparaître des attributs tels que la visibilité ou la photométrie. Ainsi, l'approche présentée peut indifférement s'adapter à divers cas d'application tels que la stéréovision multi-vues, la stéréo photométrique multi-vues ou encore le “shape from shading” multi-vues. Plusieurs approches sont proposées afin de résoudre les problèmes de correspondances de l'apparence pour des scènes non Lambertiennes, dont l'apparence varie en fonction du point de vue. La segmentation, la stéréo photométrique ou encore la réciprocité d'Helmholtz sont des éléments étudiés afin de contraindre la reconstruction. L'exploitation de ces contraintes dans le cadre de reconstruction multi-vues permet de reconstruire des modèles complets 3D avec une meilleure qualité. / Understanding, analyzing and modeling the 3D world from 2D pictures and videos is probably one of the most exciting and challenging problem of computer vision. In this thesis, we address several geometric and photometric aspects to 3D surface reconstruction from multi-view calibrated images. We first formulate multi-view shape reconstruction as an inverse rendering problem. Using generative models, we formulate the problem as an energy minimization method that leads to the non-linear surface optimization of a deformable mesh. A particular attention is addressed to the computation of the discrete gradient flow, which leads to coherent vertices displacements. We particularly focus on models and energy functionals that depend on visibility and photometry. The same framework can then be equally used to perform multi-view stereo, multi-view shape from shading or multi-view photometric stereo. Then, we propose to exploit different additional information to constraint the problem in the non-Lambertian case, where the appearance of the scene depends on the view-point direction. Segmentation for instance can be used to segment surface regions sharing similar appearance or reflectance. Helmholtz reciprocity can also be applied to reconstruct 3D shapes of objects of any arbitrary reflectance properties. By taking multiple image-light pairs around an object, multi-view Helmholtz stereo can be performed. Using this constrained acquisition scenario and our deformable mesh framework, it is possible to reconstruct high quality 3D models.
|
57 |
Analyse numérique et expérimentale de la mise en forme par estampage des renforts composites pour applications aéronautiques / Analyse numérique et expérimentale de la mise en forme par estampage des renforts composites pour applications aéronautiquesNasri, Mondher 23 November 2018 (has links)
Ces travaux de thèse s’inscrivent dans un thème de recherche portant sur l’optimisation de la phase de conception et la préparation de la fabrication par estampage de pièces de formes complexes. Le préformage des renforts tissés secs est un enjeu important pour plusieurs procédés de production de pièces en matériaux composites tel que, par exemple, le procédé RTM (Resin Transfer Molding). Au cours de cette phase, la préforme est soumise à des déformations importantes. La connaissance du comportement du tissu sec est alors un enjeu majeur en vue de l’optimisation des procédés de mise en forme. Pour mettre en œuvre les renforts tissés, il est nécessaire de tenir compte de leurs caractéristiques intrinsèques aux différentes échelles, de leurs très grandes déformations en cisaillement et du comportement fortement orienté de ces matériaux. Un point important réside dans la détermination des orientations des renforts après formage. Face à la complexité de mise au point expérimentale de la mise en forme des renforts tissés, la simulation est un outil important pour l’optimisation de conception de pièces composites. Dans ce travail, une nouvelle approche hybride discrète non linéaire, basée sur l’association d’éléments continus hypoélastiques (comportement en cisaillement non linéaire) avec des connecteurs spécifiques de comportement non linéaire a été abordée. Elle permet de prédire les contraintes au niveau des fibres et de déterminer avec plus de précision, les angles de cisaillement en se basant sur la modification de l’orientation en grande déformation. En outre, elle permet d’analyser et de prévoir le comportement global du tissu à partir de sa structure interne. Le nombre de paramètres à identifier est faible et le temps de calcul est raisonnable. Cette approche a été programmée via une routine VUMAT et implémentée dans le code de calcul élément fini ABAQUS/Explicit. L’identification et la validation du modèle ont été effectuées en utilisant des essais de caractérisation standard des tissus. Les résultats de mise en forme des renforts tissés ont été comparés à des résultats expérimentaux. / This thesis is part of a research theme dealing with the optimization of the design process and thepreparation for a manufacturing process by stamping of complex shaped parts. The preforming ofdry woven reinforcements is one of the most important steps during production of complexcomposite material parts such as RTM (Resin Transfer Molding) process. In this stage, thedeformation of preform (fabric) is quite important. Understand the woven behavior is an essentialstep in the study of shaping processes. In order to use woven reinforcements to produce industrialparts, it is compulsory to take into account their intrinsic characteristics at different scales, theirvery large shear deformations and the high oriented behavior of these materials. Further more, thedetermination of the reinforcement orientations after forming is an important task. The complexityof the experimental development of the shaping of woven reinforcements makes simulation animportant tool for optimizing the design of composite parts. This work presented a new non-lineardiscrete hybrid approach, based on the association of hypoelastic continuous elements (non-linearshear behavior) with specific non-linear behavior connectors. This approach able to predict thestresses at the level of the fiber to determine with more precision, the shear angles based on themodification of the orientation in large de formation. In addition, it allows the overall behavior of thetissue to be analyzed and predicted from its internal structure. The number of parameters to be identified is limited and the calculation time is reasonable. This approach was implemented in the Finite element code ABAQUS/Explicit via a VUMAT routine code. The identification and validationof the model was performed using standard fabric characterization tests. The woven reinforcement forming results were compared with experimental results.
|
58 |
Cellular GPU Models to Euclidean Optimization Problems : Applications from Stereo Matching to Structured Adaptive Meshing and Traveling Salesman Problem / Modèles cellulaires GPU appliquès à des problèmes d'optimisation euclidiennes : applications à l'appariement d'images stéréo, à la génération de maillages et au voyageur de commerceZhang, Naiyu 02 December 2013 (has links)
Le travail présenté dans ce mémoire étudie et propose des modèles de calcul parallèles de type cellulaire pour traiter différents problèmes d’optimisation NP-durs définis dans l’espace euclidien, et leur implantation sur des processeurs graphiques multi-fonction (Graphics Processing Unit; GPU). Le but est de pouvoir traiter des problèmes de grande taille tout en permettant des facteurs d’accélération substantiels à l’aide du parallélisme massif. Les champs d’application visés concernent les systèmes embarqués pour la stéréovision de même que les problèmes de transports définis dans le plan, tels que les problèmes de tournées de véhicules. La principale caractéristique du modèle cellulaire est qu’il est fondé sur une décomposition du plan en un nombre approprié de cellules, chacune comportant une part constante de la donnée, et chacune correspondant à une unité de calcul (processus). Ainsi, le nombre de processus parallèles et la taille mémoire nécessaire sont en relation linéaire avec la taille du problème d’optimisation, ce qui permet de traiter des instances de très grandes tailles.L’efficacité des modèles cellulaires proposés a été testée sur plateforme parallèle GPU sur quatre applications. La première application est un problème d’appariement d’images stéréo. Elle concerne la stéréovision couleur. L’entrée du problème est une paire d’images stéréo, et la sortie une carte de disparités représentant les profondeurs dans la scène 3D. Le but est de comparer des méthodes d’appariement local selon l’approche winner-takes-all et appliquées à des paires d’images CFA (color filter array). La deuxième application concerne la recherche d’améliorations de l’implantation GPU permettant de réaliser un calcul quasi temps-réel de l’appariement. Les troisième et quatrième applications ont trait à l’implantation cellulaire GPU des réseaux neuronaux de type carte auto-organisatrice dans le plan. La troisième application concerne la génération de maillages structurés appliquée aux cartes de disparité afin de produire des représentations compressées des surfaces 3D. Enfin, la quatrième application concerne le traitement d’instances de grandes tailles du problème du voyageur de commerce euclidien comportant jusqu’à 33708 villes.Pour chacune des applications, les implantations GPU permettent une accélération substantielle du calcul par rapport aux versions CPU, pour des tailles croissantes des problèmes et pour une qualité de résultat obtenue similaire ou supérieure. Le facteur d’accélération GPU par rapport à la version CPU est d’environ 20 fois plus vite pour la version GPU sur le traitement des images CFA, cependant que le temps de traitement GPU est d’environ de 0,2s pour une paire d’images de petites tailles de la base Middlebury. L’algorithme amélioré quasi temps-réel nécessite environ 0,017s pour traiter une paire d’images de petites tailles, ce qui correspond aux temps d’exécution parmi les plus rapides de la base Middlebury pour une qualité de résultat modérée. La génération de maillages structurés est évaluée sur la base Middlebury afin de déterminer les facteurs d’accélération et qualité de résultats obtenus. Le facteur d’accélération obtenu pour l’implantation parallèle des cartes auto-organisatrices appliquée au problème du voyageur de commerce et pour l’instance avec 33708 villes est de 30 pour la version parallèle. / The work presented in this PhD studies and proposes cellular computation parallel models able to address different types of NP-hard optimization problems defined in the Euclidean space, and their implementation on the Graphics Processing Unit (GPU) platform. The goal is to allow both dealing with large size problems and provide substantial acceleration factors by massive parallelism. The field of applications concerns vehicle embedded systems for stereovision as well as transportation problems in the plane, as vehicle routing problems. The main characteristic of the cellular model is that it decomposes the plane into an appropriate number of cellular units, each responsible of a constant part of the input data, and such that each cell corresponds to a single processing unit. Hence, the number of processing units and required memory are with linear increasing relationship to the optimization problem size, which makes the model able to deal with very large size problems.The effectiveness of the proposed cellular models has been tested on the GPU parallel platform on four applications. The first application is a stereo-matching problem. It concerns color stereovision. The problem input is a stereo image pair, and the output a disparity map that represents depths in the 3D scene. The goal is to implement and compare GPU/CPU winner-takes-all local dense stereo-matching methods dealing with CFA (color filter array) image pairs. The second application focuses on the possible GPU improvements able to reach near real-time stereo-matching computation. The third and fourth applications deal with a cellular GPU implementation of the self-organizing map neural network in the plane. The third application concerns structured mesh generation according to the disparity map to allow 3D surface compressed representation. Then, the fourth application is to address large size Euclidean traveling salesman problems (TSP) with up to 33708 cities.In all applications, GPU implementations allow substantial acceleration factors over CPU versions, as the problem size increases and for similar or higher quality results. The GPU speedup factor over CPU was of 20 times faster for the CFA image pairs, but GPU computation time is about 0.2s for a small image pair from Middlebury database. The near real-time stereovision algorithm takes about 0.017s for a small image pair, which is one of the fastest records in the Middlebury benchmark with moderate quality. The structured mesh generation is evaluated on Middlebury data set to gauge the GPU acceleration factor and quality obtained. The acceleration factor for the GPU parallel self-organizing map over the CPU version, on the largest TSP problem with 33708 cities, is of 30 times faster.
|
59 |
Formage incrémental de tôle d'aluminium : étude du procédé à l'aide de la mesure de champs et identification de modèles de comportementDecultot, Nicolas 10 December 2009 (has links) (PDF)
Ce travail est consacré à l'étude du procédé de formage incrémental simple point (Single Point Incremental Forming, SPIF). Ce nouveau procédé de mise en forme de tôles à froid est surtout utilisé pour le prototypage et la réalisation de petites séries. Son principe est basé sur le repoussage local de la matière par un poinçon de petite taille devant les dimensions de la tôle et contrôlé en déplacement. Dans un premier temps, un pilote de SPIF équipé d'un capteur de forces tri-axes et d'un banc multi-caméras permettant l'utilisation de la mesure de champs par stéréo-corrélation a été développé au laboratoire. Au moyen de celui-ci, une étude paramétrique du procédé SPIF concernant entre autre la formabilité et l'emboutissabilité de tôles d'alliage d'aluminium a été tout d'abord réalisée. Ensuite, plusieurs méthodes d'identification ont été mises en œuvre afin d'identifier les paramètres de critères de plasticité (Hill48, Hill90 et Barlat) et de lois d'écrouissage isotrope permettant de modéliser le comportement élastoplastique anisotrope des tôles étudiées. La méthode d'identification à partir de mesures de champs par recalage de modèle Eléments-Finis a notamment été développée. Enfin, à partir des modèles identifiés, une simulation éléments finis d'une trajectoire simple en formage incrémental a été réalisée, ces résultats sont comparés avec des résultats expérimentaux.
|
60 |
Maillages avec préservation d'arêtes vives à partir de nuages de point 3DSalman, Nader 16 December 2010 (has links) (PDF)
La majorité des algorithmes de reconstruction de surface sont optimisés pour s'appliquer à des données de haute qualité. Les résultats obtenus peuvent alors être inutilisables si les données proviennent de solutions d'acquisition bon marché. Notre première contribution est un algorithme de reconstruction de surfaces à partir de données de stéréo vision. Il combine les informations liées aux points 3D avec les images calibrées afin de combler l'imprécision des données. L'algorithme construit une soupe de triangles 3D à l'aide des images calibrées et à l'issue d'une phase de prétraitement du nuage de points. Pour épouser au mieux la surface de la scène, on contraint cette soupe de triangle 3D à respecter des critères de visibilité et de photo-consistance. On calcule ensuite un maillage à partir de la soupe de triangles à l'aide d'une technique de reconstruction qui combine les triangulations de Delaunay contraintes et le raffinement de Delaunay. Notre seconde contribution est un algorithme qui construit, à partir d'un nuage de points 3D échantillonnés sur une surface, un maillage de surface qui représente fidèlement les arêtes vives. Cet algorithme génère un bon compromis entre précision et complexité du maillage. Dans un premier temps, on extrait une approximation des arêtes vives de la surface sous-jacente à partir du nuage de points. Dans un deuxième temps, on utilise une variante du raffinement de Delaunay pour générer un maillage qui combine les arêtes vives extraites avec une surface implicite obtenue à partir du nuage de points. Notre méthode se révèle flexible, robuste au bruit; cette méthode peut prendre en compte la résolution du maillage ciblé et un champ de taille défini par l'utilisateur. Nos deux contributions génèrent des résultats efficaces sur une variété de scènes et de modèles. Notre méthode améliore l'état de l'art en termes de précision.
|
Page generated in 0.0403 seconds