• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 44
  • 42
  • 39
  • 23
  • 18
  • 11
  • 6
  • 6
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 534
  • 260
  • 161
  • 106
  • 101
  • 86
  • 84
  • 64
  • 60
  • 52
  • 50
  • 50
  • 47
  • 45
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Reconstruction tridimensionnelle par stéréophotométrie / 3D-reconstruction by photometric stereo

Quéau, Yvain 26 November 2015 (has links)
Cette thèse traite de la reconstruction 3D par stéréophotométrie, qui consiste à utiliser plusieurs photographies d'une scène prises sous le même angle, mais sous différents éclairages. Nous nous intéressons dans un premier temps à des techniques robustes pour l'estimation des normales à la surface, et pour leur intégration en une carte de profondeur. Nous étudions ensuite deux situations où le problème est mal posé : lorsque les éclairages sont inconnus, ou lorsque seuls deux éclairages sont utilisés. La troisième partie est consacrée à l'étude de modèles plus réalistes, à la fois en ce qui concerne les éclairages et la réflectance de la surface. Ces trois premières parties nous amènent aux limites de la formulation classique de la stéréophotométrie : nous introduisons finalement, dans la partie 4, une reformulation variationnelle et différentielle du problème qui permet de dépasser ces limites. / This thesis tackles the photometric stereo problem, a 3D-reconstruction technique consisting in taking several pictures of a scene under different lightings. We first focus on robust techniques for estimating the normals to the surface, and for integrating these normals into a depth map. Then, we study two situations where the problem is ill-posed: when lightings are unknown and when only two images are used. Part 3 is devoted to more realistic models, in terms of lightings and of surface reflectance. These first three parts bring us to the limits of the usual formulation of photometric stereo: we eventually introduce in Part 4 a variational and differential reformulation of this problem which allows us to overcome these limits.
432

Sistema de visión computacional estereoscópico aplicado a un robot cilíndrico accionado neumáticamente

Ramirez Montecinos, Daniela Elisa January 2017 (has links)
In the industrial area, robots are an important part of the technological resources available to perform manipulation tasks in manufacturing, assembly, the transportation of dangerous waste, and a variety of applications. Specialized systems of computer vision have entered the market to solve problems that other technologies have been unable to address. This document analyzes a stereo vision system that is used to provide the center of mass of an object in three dimensions. This kind of application is mounted using two or more cameras that are aligned along the same axis and give the possibility to measure the depth of a point in the space. The stereoscopic system described, measures the position of an object using a combination between the 2D recognition, which implies the calculus of the coordinates of the center of mass and using moments, and the disparity that is found comparing two images: one of the right and one of the left. This converts the system into a 3D reality viewfinder, emulating the human eyes, which are capable of distinguishing depth with good precision.The proposed stereo vision system is integrated into a 5 degree of freedom pneumatic robot, which can be programmed using the GRAFCET method by means of commercial software. The cameras are mounted in the lateral plane of the robot to ensure that all the pieces in the robot's work area can be observed.For the implementation, an algorithm is developed for recognition and position measurement using open sources in C++. This ensures that the system can remain as open as possible once it is integrated with the robot. The validation of the work is accomplished by taking samples of the objects to be manipulated and generating robot's trajectories to see if the object can be manipulated by its end effector or not. The results show that is possible to manipulate pieces in a visually crowded space with acceptable precision. However, the precision reached does not allow the robot to perform tasks that require higher accuracy as the one is needed in manufacturing assembly process of little pieces or in welding applications. / En el área industrial los robots forman parte importante del recurso tecnológico disponible para tareas de manipulación en manufactura, ensamble, manejo de residuos peligrosos y aplicaciones varias. Los sistemas de visión computacional se han ingresado al mercado como soluciones a problemas que otros tipos de sensores y métodos no han podido solucionar. El presente trabajo analiza un sistema de visión estereoscópico aplicado a un robot. Este arreglo permite la medición de coordenadas del centro de un objeto en las tres dimensiones, de modo que, le da al robot la posibilidad de trabajar en el espacio y no solo en un plano. El sistema estereoscópico consiste en el uso de dos o más cámaras alineadas en alguno de sus ejes, mediante las cuales, es posible calcular la profundidad a la que se encuentran los objetos. En el presente, se mide la posición de un objeto haciendo una combinación entre el reconocimiento 2D y la medición de las coordenadas y de su centro calculadas usando momentos. En el sistema estereoscópico, se añade la medición de la última coordenada mediante el cálculo de la disparidad encontrada entre las imágenes de las cámaras inalámbricas izquierda y derecha, que convierte al sistema en un visor 3D de la realidad, emulando los ojos humanos capaces de distinguir profundidades con cierta precisión. El sistema de visión computacional propuesto es integrado a un robot neumático de 5 grados de libertad el cual puede ser programado desde la metodología GRAFCET mediante software de uso comercial. Las cámaras del sistema de visión están montadas en el plano lateral del robot de modo tal, que es posible visualizar las piezas que quedan dentro de su volumen de trabajo. En la implementación, se desarrolla un algoritmo de reconocimiento y medición de posición, haciendo uso de software libre en lenguaje C++. De modo que, en la integración con el robot, el sistema pueda ser lo más abierto posible. La validación del trabajo se logra tomando muestras de los objetos a ser manipulados y generando trayectorias para el robot, a fin de visualizar si la pieza pudo ser captada por su garra neumática o no. Los resultados muestran que es posible lograr la manipulación de piezas en un ambiente visualmente cargado y con una precisión aceptable. Sin embargo, se observa que la precisión no permite que el sistema pueda ser usado en aplicaciones donde se requiere precisión al nivel de los procesos de ensamblado de piezas pequeñas o de soldadura.
433

Identification expérimentale de modèles de zones cohésives à partir de techniques d'imagerie thermomécanique / Identification of cohesive zone models using thermomechanical imaging techniques

Wen, Shuang 14 December 2012 (has links)
Ce travail porte sur l'identification de modèles de zones cohésives. Ces modèles, proposés initialement dans les années 60 sont maintenant de intensivement utilisés dans les simulations numériques pour rendre compte de l'initiation et de la propagation de fissures pour différents matériaux et structures.L'identification de ces modèles reste encore aujourd'hui une problématique délicate. Les développements récents de techniques d'imagerie permettent d'accéder à des champs de mesures locales (e.g. déformation et température, …). On se propose dans ce travail d'utiliser la richesse des informations issues de ces techniques d'imagerie pour mettre en place une procédure d'identification qui prenne en compte à la fois le développement de la localisation (effet de structure) mais aussi la nature des différentes irréversibilités mises en jeu (comportement thermo-mécanique). On s'intéresse à des comportements élasto-plastiques endommageables de matériaux ductiles. L'endommagement est associé à un comportement cohésif de l'interface entre les éléments volumiques supposés purement élasto-plastiques.La procédure d'identification comporte deux étapes. La première consiste à caractériser la forme et les paramètres de la loi cohésive sur des essais de traction standard à partir d'une analyse des champs mécaniques localement développés. La seconde étape consiste à vérifier la cohérence thermo-mécanique du modèle identifié en confrontant les mesures calorimétriques déduites des champs de température avec les prévisions du modèle identifié.Cette méthode est appliquée avec succès sur différents matériaux (acier Dual Phase et cuivre). Une attention particulière est portée sur la caractérisation de la longueur caractéristique qui est nécessairement introduite dans l'identification. On montre que cette longueur peut être estimée au regard des différents paramètres introduits dans les traitements d'images.Cette méthode est appliquée sur différents matériaux (acier et cuivre). Une attention particulière est portée sur la caractérisation de la longueur caractéristique qui est nécessairement introduite dans l'identification. On montre que cette longueur peut-être corrélée à l'échelle d'identification des processus d'endommagement sous-jacents. Ainsi les modèles cohésifs identifiés sont fournis au modélisateur avec l'échelle physique à laquelle ils résument l'endommagement volumique du matériau. / This work deals with the identification of cohesive zone models. These models were intially proposed in the 1960s. They are now more and more frequently used in numerical simulations to account for crack initiation and propagation in different materials and structures.The identification of these models still remains a delicate issue. The recent developments in imaging techniques now allow reaching local measurement fields (e.g. strain, temperature,…). We propose here to use the large amount of information given by these techniques to set up an identification procedure accounting for either the localization development (structural effect) and also the character of the different irreversibility sources encountered (thermo-mechanical behavior). We study damageable elasto-plastic ductile materials. Damage is associated to a cohesive behavior of the interface between volumic elements supposed to remain purely elasto-plastic.The identification procedure involves two steps. The first one consists in characterizing the shape and the parameters of the cohesive zone on tensile tests by analyzing the mechanical fields locally developed. The second one consists in checking the thermo-mechanical consistency of the identified model by confronting the calorimetric measurements deduced from temperature fields with the previsions of the identified model.This method is applied on different materials (Dual Phase steel and copper). A specific caution is conferred to the characterization of the characteristic length necessarily introduced by the identification. It is shown that this length can be estimated regarding the different parameters introduced in the image processing.
434

Geometrical and contextual scene analysis for object detection and tracking in intelligent vehicles / Analyse de scène contextuelle et géométrique pour la détection et le suivi d'objets dans les véhicules intelligents

Wang, Bihao 08 July 2015 (has links)
Pour les véhicules intelligents autonomes ou semi-autonomes, la perception constitue la première tâche fondamentale à accomplir avant la décision et l’action. Grâce à l’analyse des données vidéo, Lidar et radar, elle fournit une représentation spécifique de l’environnement et de son état, à travers l’extraction de propriétés clés issues des données des capteurs. Comparé à d’autres modalités de perception telles que le GPS, les capteurs inertiels ou les capteurs de distance (Lidar, radar, ultrasons), les caméras offrent la plus grande quantité d’informations. Grâce à leur polyvalence, les caméras permettent aux systèmes intelligents d’extraire à la fois des informations contextuelles de haut niveau et de reconstruire des informations géométriques de la scène observée et ce, à haute vitesse et à faible coût. De plus, la technologie de détection passive des caméras permet une faible consommation d’énergie et facilite leur miniaturisation. L’utilisation des caméras n’est toutefois pas triviale et pose un certain nombre de questions théoriques liées à la façon dont ce capteur perçoit son environnement. Dans cette thèse, nous proposons un système de détection d’objets mobiles basé seule- ment sur l’analyse d’images. En effet, dans les environnements observés par un véhicule intelligent, les objets en mouvement représentent des obstacles avec un risque de collision élevé, et ils doivent être détectés de manière fiable et robuste. Nous abordons le problème de la détection d’objets mobiles à partir de l’extraction du contexte local reposant sur une segmentation de la route. Après transformation de l’image couleur en une image invariante à l’illumination, les ombres peuvent alors être supprimées réduisant ainsi leur influence négative sur la détection d’obstacles. Ainsi, à partir d’une sélection automatique de pixels appartenant à la route, une région d’intérêt où les objets en mouvement peuvent apparaître avec un risque de collision élevé, est extraite. Dans cette zone, les pixels appartenant à des objets mobiles sont ensuite identifiés à l’aide d’une approche plan+parallaxe. À cette fin, les pixels potentiellement mobiles et liés à l’effet de parallaxe sont détectés par une méthode de soustraction du fond de l’image; puis trois contraintes géométriques différentes: la contrainte épipolaire, la contrainte de cohérence structurelle et le tenseur trifocal, sont appliquées à ces pixels pour filtrer ceux issus de l’effet de parallaxe. Des équations de vraisemblance sont aussi proposées afin de combiner les différents contraintes d’une manière complémentaire et efficace. Lorsque la stéréovision est disponible, la segmentation de la route et la détection d’obstacles peuvent être affinées en utilisant une segmentation spécifique de la carte de disparité. De plus, dans ce cas, un algorithme de suivi robuste combinant les informations de l’image et la profondeur des pixels a été proposé. Ainsi, si l’une des deux caméras ne fonctionne plus, le système peut donc revenir dans un mode de fonctionnement monoculaire ce qui constitue une propriété importante pour la fiabilité et l’intégrité du système de perception. Les différents algorithmes proposés ont été testés sur des bases de données d’images publiques en réalisant une évaluation par rapport aux approches de l’état de l’art et en se comparant à des données de vérité terrain. Les résultats obtenus sont prometteurs et montrent que les méthodes proposées sont efficaces et robustes pour différents scénarios routiers et les détections s’avèrent fiables notamment dans des situations ambiguës. / For autonomous or semi-autonomous intelligent vehicles, perception constitutes the first fundamental task to be performed before decision and action/control. Through the analysis of video, Lidar and radar data, it provides a specific representation of the environment and of its state, by extracting key properties from sensor data with time integration of sensor information. Compared to other perception modalities such as GPS, inertial or range sensors (Lidar, radar, ultrasonic), the cameras offer the greatest amount of information. Thanks to their versatility, cameras allow intelligent systems to achieve both high-level contextual and low-level geometrical information about the observed scene, and this is at high speed and low cost. Furthermore, the passive sensing technology of cameras enables low energy consumption and facilitates small size system integration. The use of cameras is however, not trivial and poses a number of theoretical issues related to how this sensor perceives its environmen. In this thesis, we propose a vision-only system for moving object detection. Indeed,within natural and constrained environments observed by an intelligent vehicle, moving objects represent high risk collision obstacles, and have to be handled robustly. We approach the problem of detecting moving objects by first extracting the local contextusing a color-based road segmentation. After transforming the color image into illuminant invariant image, shadows as well as their negative influence on the detection process can be removed. Hence, according to the feature automatically selected onthe road, a region of interest (ROI), where the moving objects can appear with a high collision risk, is extracted. Within this area, the moving pixels are then identified usin ga plane+parallax approach. To this end, the potential moving and parallax pixels a redetected using a background subtraction method; then three different geometrical constraints : the epipolar constraint, the structural consistency constraint and the trifocaltensor are applied to such potential pixels to filter out parallax ones. Likelihood equations are also introduced to combine the constraints in a complementary and effectiveway. When stereo vision is available, the road segmentation and on-road obstacles detection can be refined by means of the disparity map with geometrical cues. Moreover, in this case, a robust tracking algorithm combining image and depth information has been proposed. If one of the two cameras fails, the system can therefore come back to a monocular operation mode, which is an important feature for perception system reliability and integrity. The different proposed algorithms have been tested on public images data set with anevaluation against state-of-the-art approaches and ground-truth data. The obtained results are promising and show that the proposed methods are effective and robust on the different traffic scenarios and can achieve reliable detections in ambiguous situations.
435

Construção de ambientes virtuais interativos baseados em imagens para estudos arquitetônicos e urbanísticos

Méndez, Ricardo Brod January 2002 (has links)
Este trabalho aborda a utilização de tecnologias para a criação de ambientes virtuais baseados em imagens, com uma aplicação na praça central da cidade de Pelotas/RS. Possibilita que o usuário realize interativamente um passeio no entorno da praça com recursos que permitem avaliações arquitetônicas e urbanísticas por meio de simulações de troca de cor nos prédios, inserção de novas construções e análise do estado de conservação de imóveis, com vantagens sobre métodos tradicionais de análises em montagens fotográficas estáticas. Enfatiza a pesquisa de soluções para visualização interativa de ambientes, focado na identificação de fontes de informação e não na sua modelagem matemática. Para a apresentação do trabalho, além da seleção das cenas urbanas que seriam estudadas, foram consideradas técnicas para a modelagem dos elementos arquitetônicos de forma que se obtivesse a máxima preservação das características naturais (estado de conservação, cores e riqueza de detalhes), formas para a visualização destes dados de maneira integrada com dados bibliográficos (histórico, técnicas construtivas e localização) e também a utilização de objetos multimídia para o enriquecimento na apresentação de conteúdos. Na busca de soluções, foram investigadas as técnicas de modelagem fotogramétrica como forma de obtenção de objetos realísticos com a manutenção das características do objeto original em modelos geométricos simplificados. Foram feitos estudos sobre as formas de apresentação de ambientes virtuais navegáveis através de panoramas interativos e também foi estudada uma forma de aproximar a visualização dos conteúdos com a visão natural humana, através da estereoscopia. O trabalho culmina com a fusão de todas as tecnologias estudadas em uma aplicação denominada “Praça República Virtual – PRV” (para resgatar o antigo nome da atual Praça Coronel Pedro Osório), que funciona como um canteiro de provas na medida que abre um leque de opções para utilização em estudos na área de Arquitetura e Urbanismo. / This work approaches the uses of technologies for creation of virtual environments based on images, with an application to the central square of the city of Pelotas/RS. It makes possible to the user to accomplish an interactive walkthrough with resources that allows architectural and urban planning evaluations through simulations of color changes in the buildings, insertion of new constructions and analysis of the conservation condition of the buildings, with advantages if compared to traditional methods of analysis with static photographic assemblies. It emphasizes the research of solutions for interactive visualization of environments, focused in the identification of sources of information and not in mathematical modeling. Besides the selection of the urban scenes to be studied, it was considered techniques for modeling the architectural elements to obtain the maximal preservation of their natural characteristics (conservation state, colors and wealth of details), ways of visualization of nowadays conservation, but integrated with bibliographical dates (historical, constructive techniques and location). It also includes the uses of multimedia objects to the presentation of contents. In the search of solutions, techniques of photogrammetric modeling were investigated, looking for the construction of realistic objects and maintenance of the characteristics of the original object but using simplified geometric models. It was done a search about forms of presentation of navigable virtual environments through interactive panoramas and also using a prototype of stereoscopy. The work culminates with the coalition of all studied technologies in a prototype of the central square of Pelotas called “Praça República Virtual–PRV” (to rescue the old name of the current Square Cel. Pedro Osório). It works like a stonemason of proofs in the measure that opens various options of use in studies in the area of Architecture and Urban Planning.
436

Fusion de données multi capteurs pour la détection et le suivi d'objets mobiles à partir d'un véhicule autonome / Multi sensor data fusion for detection and tracking of moving objects from a dynamic autonomous vehicle

Baig, Qadeer 29 February 2012 (has links)
La perception est un point clé pour le fonctionnement d'un véhicule autonome ou même pour un véhicule fournissant des fonctions d'assistance. Un véhicule observe le monde externe à l'aide de capteurs et construit un modèle interne de l'environnement extérieur. Il met à jour en continu ce modèle de l'environnement en utilisant les dernières données des capteurs. Dans ce cadre, la perception peut être divisée en deux étapes : la première partie, appelée SLAM (Simultaneous Localization And Mapping) s'intéresse à la construction d'une carte de l'environnement extérieur et à la localisation du véhicule hôte dans cette carte, et deuxième partie traite de la détection et du suivi des objets mobiles dans l'environnement (DATMO pour Detection And Tracking of Moving Objects). En utilisant des capteurs laser de grande précision, des résultats importants ont été obtenus par les chercheurs. Cependant, avec des capteurs laser de faible résolution et des données bruitées, le problème est toujours ouvert, en particulier le problème du DATMO. Dans cette thèse nous proposons d'utiliser la vision (mono ou stéréo) couplée à un capteur laser pour résoudre ce problème. La première contribution de cette thèse porte sur l'identification et le développement de trois niveaux de fusion. En fonction du niveau de traitement de l'information capteur avant le processus de fusion, nous les appelons "fusion bas niveau", "fusion au niveau de la détection" et "fusion au niveau du suivi". Pour la fusion bas niveau, nous avons utilisé les grilles d'occupations. Pour la fusion au niveau de la détection, les objets détectés par chaque capteur sont fusionnés pour avoir une liste d'objets fusionnés. La fusion au niveau du suivi requiert le suivi des objets pour chaque capteur et ensuite on réalise la fusion entre les listes d'objets suivis. La deuxième contribution de cette thèse est le développement d'une technique rapide pour trouver les bords de route à partir des données du laser et en utilisant cette information nous supprimons de nombreuses fausses alarmes. Nous avons en effet observé que beaucoup de fausses alarmes apparaissent sur le bord de la route. La troisième contribution de cette thèse est le développement d'une solution complète pour la perception avec un capteur laser et des caméras stéréo-vision et son intégration sur un démonstrateur du projet européen Intersafe-2. Ce projet s'intéresse à la sécurité aux intersections et vise à y réduire les blessures et les accidents mortels. Dans ce projet, nous avons travaillé en collaboration avec Volkswagen, l'Université Technique de Cluj-Napoca, en Roumanie et l'INRIA Paris pour fournir une solution complète de perception et d'évaluation des risques pour le démonstrateur de Volkswagen. / Perception is one of important steps for the functioning of an autonomous vehicle or even for a vehicle providing only driver assistance functions. Vehicle observes the external world using its sensors and builds an internal model of the outer environment configuration. It keeps on updating this internal model using latest sensor data. In this setting perception can be divided into two sub parts: first part, called SLAM(Simultaneous Localization And Mapping), is concerned with building an online map of the external environment and localizing the host vehicle in this map, and second part deals with finding moving objects in the environment and tracking them over time and is called DATMO(Detection And Tracking of Moving Objects). Using high resolution and accurate laser scanners successful efforts have been made by many researchers to solve these problems. However, with low resolution or noisy laser scanners solving these problems, especially DATMO, is still a challenge and there are either many false alarms, miss detections or both. In this thesis we propose that by using vision sensor (mono or stereo) along with laser sensor and by developing an effective fusion scheme on an appropriate level, these problems can be greatly reduced. The main contribution of this research is concerned with the identification of three fusion levels and development of fusion techniques for each level for SLAM and DATMO based perception architecture of autonomous vehicles. Depending on the amount of preprocessing required before fusion for each level, we call them low level, object detection level and track level fusion. For low level we propose to use grid based fusion technique and by giving appropriate weights (depending on the sensor properties) to each grid for each sensor a fused grid can be obtained giving better view of the external environment in some sense. For object detection level fusion, lists of objects detected for each sensor are fused to get a list of fused objects where fused objects have more information then their previous versions. We use a Bayesian fusion technique for this level. Track level fusion requires to track moving objects for each sensor separately and then do a fusion between tracks to get fused tracks. Fusion at this level helps remove false tracks. Second contribution of this research is the development of a fast technique of finding road borders from noisy laser data and then using these border information to remove false moving objects. Usually we have observed that many false moving objects appear near the road borders due to sensor noise. If they are not filtered out then they result into many false tracks close to vehicle making vehicle to apply breaks or to issue warning messages to the driver falsely. Third contribution is the development of a complete perception solution for lidar and stereo vision sensors and its intigration on a real vehicle demonstrator used for a European Union project (INTERSAFE-21). This project is concerned with the safety at intersections and aims at the reduction of injury and fatal accidents there. In this project we worked in collaboration with Volkswagen, Technical university of Cluj-Napoca Romania and INRIA Paris to provide a complete perception and risk assessment solution for this project.
437

Caractérisation expérimentale du décrochage dynamique dans les hydroliennes à flux transverse par la méthode PIV (Particle Image Velocimetry). Comparaison avec les résultats issus des simulations numériques / Experimental Caracteristics of dynamic stall in HARVEST Turbines with Particles Image Velocimetry method (PIV). Comparing with modeling results

Bossard, Jonathan 27 September 2012 (has links)
Cette thèse de doctorat a été réalisée dans le cadre du projet HARVEST, programme de recherche initié en 2001 au LEGI et consacré au développement d'un nouveau concept d'hydrolienne à axe vertical inspiré des turbines Darrieus pour la récupération de l'énergie cinétique des courants marins et fluviaux. Ce travail s'est focalisé sur la mise en place d'un moyen de mesure par Vélocimétrie par Image de Particules deux dimensions – deux composantes (2D-2C) et deux dimensions – trois composantes (2D-3C). L'objectif est d'une part de constituer une base de données expérimentale pour la validation locale des simulations numériques RANS 2D et 3D menées dans le cadre de travaux précédents, et d'autre part d'améliorer la compréhension des phénomènes hydrodynamiques instationnaires rencontrés dans ces machines et en particulier du décrochage dynamique. La confrontation des mesures expérimentales et des simulations a notamment permis de mettre en évidence les points forts et les limites des modèles numériques dans les différents régimes de fonctionnement de la machine. / This PhD thesis has been carried out within the framework of the HARVEST project. This research program, initiated in 2001 by the LEGI laboratory (Grenoble, France), is devoted to the development of a new marine turbine concept inspired from Darrieus turbines in order to convert kinetic energy of marine, tidal or river currents into electric energy. This work has been focused on the development of an experimental apparatus based on two dimensions – two components (2D-2C) and two dimensions – three components (2D-3C) Particle Image Velocimetry. The objective is to provide an experimental database for the local validation of 2D and 3D RANS computations and to improve our understanding of unsteady hydrodynamics phenomena experienced in this type of turbine and especially of dynamic stall. Comparison between measurements and computations enabled to identify strengths and limitations of numerical models for various operating conditions of this type of turbine.
438

Développement d'un implant à géométrie variable pour le traitement des fractures du fémur proximal chez les personnes âgées / Development of an adjustable implant for proximal femoral fractures in the elderly

Billard, Rémi 21 February 2014 (has links)
Les fractures du fémur proximal de la personne âgée sont généralement fixées par des dispositifs d’ostéosynthèse. Pour les fractures particulières dites inter-trochantériennes, il est possible de fixer la fracture de manière intra-médullaire (à l’intérieur de l’os) ou de manière extra-médullaire (en dehors de l’os). Pour chaque type de traitement, les hôpitaux sont équipés des deux systèmes de fixation. Les différences de morphologie des individus impliquent l’existence de multiples références d’implants et donc de surcoûts en termes d’équipement. Dans ce travail de thèse, un implant original adaptable à la plupart des morphologies a été développé. Cet implant permettra non seulement d’offrir aux chirurgiens une souplesse au cours des interventions chirurgicales mais aussi de réduire de manière significative les stocks d’implants dans les hôpitaux. Le comportement mécanique de l’implant est étudié dans différents cas de fractures par deux approches complémentaires, une méthode numérique par Éléments Finis et une approche expérimentale mettant en oeuvre des techniques de stéréo-corrélation à partir d’images de caméras rapides. Les résultats des calculs numériques sont confrontés à ceux issus d’essais réalisés sur des fémurs synthétiques, puis cadavériques en laboratoire d’anatomie. Les comparaisons avec des implants existants montrent que ce nouveau concept d’implant permet une fixation plus stable des fragments osseux et une bonne compression du foyer de fracture. / Proximal femoral fractures in the elderly are generally fixed with osteosynthetic devices. For specific fractures called intertrochanteric, it is possible to fix the fracture in an intramedullary way (inside the bone) or in an extramedullary way (outside the bone). For each type of treatment, hospitals are equipped with the two fixing systems. The differences in physical characteristics between individuals imply the existence of multiple references implants and therefore additional costs in terms of equipment. In this thesis work,an original implant adaptable to most people has been developed. This implant will provide surgeons greater flexibility during surgery but also significantly reduce stocks implants in hospitals. The mechanical behavior of the implant is studied in different cases of fractures by two complementary approaches,a finite element analysis and an experimental study employing stereo-image correlation technique from images of high speed cameras. The results of the numerical calculation are compared with those derived from tests on synthetic femurs, then cadaver in anatomy laboratory. Comparisons with existing implants show that this new implant concept allows for a more stable fixation of bone fragments and a good compression of the fracture.
439

Mapeamento rob?tico 2,5-D com representa??o em grade de ocupa??o-eleva??o

Souza, Anderson Abner de Santana 03 August 2012 (has links)
Made available in DSpace on 2014-12-17T14:55:05Z (GMT). No. of bitstreams: 1 AndersonASS_TESE.pdf: 3250611 bytes, checksum: 4e87cd6efd2a74f4715e56d6e2aa0064 (MD5) Previous issue date: 2012-08-03 / This work introduces a new method for environment mapping with three-dimensional information from visual information for robotic accurate navigation. Many approaches of 3D mapping using occupancy grid typically requires high computacional effort to both build and store the map. We introduce an 2.5-D occupancy-elevation grid mapping, which is a discrete mapping approach, where each cell stores the occupancy probability, the height of the terrain at current place in the environment and the variance of this height. This 2.5-dimensional representation allows that a mobile robot to know whether a place in the environment is occupied by an obstacle and the height of this obstacle, thus, it can decide if is possible to traverse the obstacle. Sensorial informations necessary to construct the map is provided by a stereo vision system, which has been modeled with a robust probabilistic approach, considering the noise present in the stereo processing. The resulting maps favors the execution of tasks like decision making in the autonomous navigation, exploration, localization and path planning. Experiments carried out with a real mobile robots demonstrates that this proposed approach yields useful maps for robot autonomous navigation / Este trabalho apresenta um novo m?todo de mapeamento de ambientes com rob?s m?veis com informa??es tridimensionais para navega??o. Muitas abordagens de mapeamento 3D, usam o m?todo em grade de ocupa??o, o que resulta no uso de muito recurso computacional tanto na constru??o como no armazenamento desses mapas. A presente pesquisa apresenta o mapeamento 2,5-D em grade de ocupa??o-eleva??o, a qual ? definida como uma representa??o discreta, onde cada c?lula armazena uma probabilidade de ocupa??o, a altura do espa?o mapeado e a vari?ncia desse valor de altura. Essa representa??o permite que um rob? m?vel tenha a ci?ncia se um lugar do seu ambiente est? ocupado por um obst?culo e qual a altura desse obst?culo. Dessa forma, ele pode decidir se ? poss?vel navegar sobre o obst?culo ou n?o, de acordo com suas habilidades motoras. As informa??es sensoriais necess?rias para construir o mapa s?o providas por um sistema de vis?o est?reo, o qual foi modelado atrav?s de uma robusta an?lise estat?stica, considerando os ru?dos presentes no processamento est?reo. Os mapas resultantes favorecem a execu??o de tarefas como tomadas de decis?es na navega??o aut?noma, explora??o, localiza??o e planejamento de caminhos. Experimentos pr?ticos reais mostram que o m?todo de mapeamento apresentado ? ?til para a navega??o de rob?s aut?nomos
440

Uma proposi??o para o c?lculo de mapas de disparidade de imagens est?reo usando um interpolador neural baseado em fun??es de base radial

Ara?jo, Allan David Garcia de 13 January 2010 (has links)
Made available in DSpace on 2014-12-17T14:55:44Z (GMT). No. of bitstreams: 1 AllanDGA_DISSERT.pdf: 1992696 bytes, checksum: 87d8b1dbc6fe4df6df2f85f90481f9be (MD5) Previous issue date: 2010-01-13 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / This study aims to seek a more viable alternative for the calculation of differences in images of stereo vision, using a factor that reduces heel the amount of points that are considered on the captured image, and a network neural-based radial basis functions to interpolate the results. The objective to be achieved is to produce an approximate picture of disparities using algorithms with low computational cost, unlike the classical algorithms / O presente trabalho visa buscar uma alternativa mais vi?vel para o c?lculo das disparidades em imagens de vis?o est?reo, utilizando um fator de salto que reduz a quantidade de pontos que s?o considerados da imagem capturada, e uma rede neural baseada em fun??es de base radial para interpolar os resultados obtidos. O objetivo a ser alcan?ado ? produzir uma imagem de disparidades aproximada da real com algoritmos de baixo custo computacional, diferentemente dos algoritmos tradicionais

Page generated in 0.0409 seconds