• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 615
  • 222
  • 105
  • 104
  • 67
  • 57
  • 17
  • 13
  • 11
  • 11
  • 11
  • 11
  • 9
  • 9
  • 7
  • Tagged with
  • 1470
  • 247
  • 212
  • 211
  • 201
  • 198
  • 193
  • 181
  • 152
  • 125
  • 119
  • 110
  • 103
  • 98
  • 96
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

A calibration method for laser-triangulating 3D cameras / En kalibreringsmetod för lasertriangulerande 3D-kameror

Andersson, Robert January 2008 (has links)
<p>A laser-triangulating range camera uses a laser plane to light an object. If the position of the laser relative to the camera as well as certrain properties of the camera is known, it is possible to calculate the coordinates for all points along the profile of the object. If either the object or the camera and laser has a known motion, it is possible to combine several measurements to get a three-dimensional view of the object.</p><p>Camera calibration is the process of finding the properties of the camera and enough information about the setup so that the desired coordinates can be calculated. Several methods for camera calibration exist, but this thesis proposes a new method that has the advantages that the objects needed are relatively inexpensive and that only objects in the laser plane need to be observed. Each part of the method is given a thorough description. Several mathematical derivations have also been added as appendices for completeness.</p><p>The proposed method is tested using both synthetic and real data. The results show that the method is suitable even when high accuracy is needed. A few suggestions are also made about how the method can be improved further.</p>
112

Shape based stereovision assistance in rehabilitation robotics

Jurczyk, Michael Ulrich 01 June 2005 (has links)
A graphical user interface program was created along with shape models, which allow persons with disabilities to set up a stereovision system with off-the-shelf hardware and detect objects of interest, which can be picked up using a sensor assisted telerobotic manipulator. A Hitachi KP-D50 CCD camera and an Imaging Source CCD camera were used along with two Imaging Source DFG/LC1 frame grabbers to set up a stereovision system. In order to use the stereovision system, the two main problems of correspondence and reconstruction are solved using subroutines of the program created for this work.The user interface allows the user to easily perform the intrinsic and extrinsic camera calibration required for stereovision, by following a few basic steps incorporated into the user interface program, which are described in this thesis. A calibration table required for these tasks can also be easily created using the program. In order to detect the object of interest, shape models, created by the user interface program, are used to solve the correspondence problem of stereovision. The correspondence problem is that of locating corresponding points in the left eye and the right eye, which are necessary to perform the calculations to obtain the location of the object of interest with respect to the end-effector. The shape models created for some commonly available items such as a doorknob and a door handle are included in the program and used to test the stereovision system. As expected, the error of detection decreases as the stereo system is moved closer to the object of interest in the x-, y- and z-position.
113

A CAMERA-BASED ENERGY RELAXATION FRAMEWORK TO MINIMIZE COLOR ARTIFACTS IN A PROJECTED DISPLAY

Sanders, Nathaniel 01 January 2007 (has links)
We introduce a technique to automatically correct color inconsistencies in a display composed of one or more digital light projectors (DLP). The method is agnostic to the source of error and can detect and address color problems from a number of sources. Examples include inter- and intra-projector color differences, display surface markings, and environmental lighting differences on the display. In contrast to methods that discover and map all colors into the greatest common color space, we minimize local color discontinuities to create color seamlessness while remaining tolerant to significant color error. The technique makes use of a commodity camera and highdynamic range sensing to measure color gamuts at many different spatial locations. A differentiable energy function is defined that combines both a smoothness and data term. This energy function is globally minimized through the successive application of projective warps defined using gradient descent. After convergence the warps can be applied at runtime to minimize color defects in the display. The framework is demonstrated on displays that suffer from several sources of color error.
114

Manual And Auto Calibration Of Stereo Camera Systems

Ozuysal, Mustafa 01 September 2004 (has links) (PDF)
To make three dimensional measurements using a stereo camera system, the intrinsic and extrinsic calibration of the system should be obtained. Furthermore, to allow zooming, intrinsic parameters should be re-estimated using only scene constraints. In this study both manual and autocalibration algorithms are implemented and tested. The implemented manual calibration system is used to calculate the parameters of the calibration with the help of a planar calibration object. The method is tested on different internal calibration settings and results of 3D measurements using the obtained calibration is presented. Two autocalibration methods have been implemented. The first one requires a general motion while the second method requires a pure rotation of the cameras. The autocalibration methods require point matches between images. To achieve a fully automated process, robust algorithms for point matching have been implemented. For the case of general motion the fundamental matrix relation is used in the matching algorithm. When there is only rotation between views, the homography relation is used. The results of variations on the autocalibration methods are also presented. The result of the manual calibration has been found to be very reliable. The results of the first autocalibration method are not accurate enough but it has been shown that the calibration from rotating cameras performs precise enough if rotation between images is sufficiently large.
115

Automatic Cinematography and Editing in Virtual Environments. / Cinématographie et montage automatique dans des environnements virtuels

Galvane, Quentin 26 October 2015 (has links)
La libre diffusion de modèles 3D de qualité ainsi que la mise à disposition de nombreux moyens facilitant la création de contenus animés ont permis de populariser la production d'oeuvres cinématographiques 3D.A l'heure actuelle, on peut cependant observer un manque important d'outils permettant de traiter la cinématographie (placement des caméras pour l'enregistrement des plans) et d'effectuer le montage de tels contenus (sélection des plans et transitions entre caméras). La création d'un film nécessite la connaissance d'un grand nombre de règles et de conventions.La plupart des systèmes d'animation ne disposant pas de ces connaissances, le besoin de méthodes automatiques qui pourraient, au moins partiellement, assister l'utilisateur dans son entreprise créative, se fait de plus en plus ressentir. A travers cette thèse, nous abordons à la fois la gestion automatique de la cinématographie ainsi que le montage des plans générés.L'utilisation de caméras pour retranscrire les actions et événements se déroulant au sein d'un environnement dynamique est une préoccupation importante de beaucoup d'applications graphiques. Dans le contexte de la simulation de foule, nous présentons une nouvelle approche qui aborde le contrôle simultané de plusieurs caméras filmant un groupe de cibles. Nous proposons un système se reposant sur le modèle de "comportements guidées" développé par Reynolds. Celui-ci permet de contrôler et coordonner localement un ensemble de caméras évoluant dans un environnement afin de filmer les différents événements s'y déroulant.Le montage d'un film est une tache particulièrement complexe et méticuleuse qui nécessite de profondes connaissances du domaine. L'automatisation de cette tache requiert donc la formalisation de cette expertise. En utilisant la méthode de montage linéaire - ou "continuity editing" ; il s'agit de la technique de montage la plus utilisée - comme référence pour l'évaluation du montage, nous présentons une nouvelle approche au montage automatique d'animations 3D se reposant sur une méthode d'optimisation. En s'appuyant sur une hypothèse semi-Markovienne, notre méthode utilise la programmation dynamique afin de calculer efficacement les solutions.A partir de notre première contribution, nous proposons ensuite une nouvelle approche à la création de "replay" cinématiques qui utilise à la fois les informations narratives et géométriques extraites du jeu pour automatiquement calculer la trajectoire de la caméra. En combinant ce système avec notre framework de montage, notre solution génère rapidement les replay de sessions de jeu.Enfin, en prenant inspiration de pratiques couramment utilisées dans l'industrie du cinéma, nous proposons une nouvelle approche à la planification de mouvements de caméra. Notre solution assure le réalisme des trajectoires en contraignant les caméras sur des rails virtuels. La position et l'orientation de la caméra sont optimisées dans le temps le long du rail pour satisfaire différentes propriétés visuelles. Les plans générés sont ensuite envoyés à notre framework de montage qui génère alors la séquence cinématographique. / The wide availability of high-resolution 3D models and the facility to create new geometrical and animated content, using low-cost input devices, open to many the possibility of becoming digital 3D storytellers. To date there is however a clear lack of accessible tools to easily create the cinematography (positioning and moving the cameras to create shots) and perform the editing of such stories (selecting appropriate cuts between the shots created by the cameras). Creating a movie requires the knowledge of a significant amount of empirical rules and established conventions. Most 3D animation packages do not encompass this expertise, calling the need for automatic approaches that would, at least partially, support users in their creative process. In this thesis we address both challenges of automating cinematography and editing in virtual environments.Using cameras to convey events and actions in dynamic environments is a major concern in many CG applications.In the context of crowd simulation, we present a novel approach to address the challenge of controlling multiple cameras tracking groups of targets. In this first contribution we propose a system that relies on Reynolds' model of steering behaviors to control and locally coordinate a collection of autonomous camera agents evolving in the dynamic 3D environments to shot multi-scale events.Editing a movie is a complex and tedious endeavor that requires a lot of expertise in the field. Therefore, automating the process calls for a formalization of this knowledge. Using continuity editing -- the predominant style of editing -- as a benchmark for evaluating edits, we introduce a novel optimization-based approach for automatically creating well-edited movies from a 3D animation. We propose an efficient solution through dynamic programming, by relying on a plausible semi-Markov assumption.Building upon our first contribution we then propose a novel importance-driven approach to cinematic replay that exploits both the narrative and geometric information in games to automatically compute camera paths. Combined with our editing framework, our solution generates coherent cinematic replays of game sessions.Finally, drawing inspiration from standard practices in the movie industry, we introduce a novel approach to camera path planning. This solution ensures realistic trajectories by constraining camera motion on a virtual rail. The camera position and orientation are optimized in time along the rail to best satisfy visual properties. The computed shots constitute relevant inputs for the editing framework which then generates compelling cinematographic content.
116

Context-based innovative mobile user interfaces / Interfaces utilisateurs mobiles innovantes basées sur le contexte

Zhou, Yun 08 October 2012 (has links)
Avec le développement de différents capteurs et des dispositifs, l'informatique ne se limite plus à la mode bureautique. Cependant, l'interface utilisateur traditionnelle, utilisée sur l'ordinateur de bureau, n'est plus approprié pour l'informatique ubiquitaire. La complexité de l'environnement mobile demande la conception d'interfaces dédiées impliquant des techniques d'entrée et la sortie qui contiennent les nouvelles caractéristiques émergentes au-delà des techniques traditionnelles. L'une des solutions possibles pour permettre l'interaction omniprésente soit le nomadisme, soit la mobilité. Nous proposons trois interfaces liées à ces deux solutions: L'interface fixé dan l'environnement (abréviation de IEI en anglais), interface dépendante de l'environnement (EDI) et Interface Indépendante de l'environnement (EII). Tout d'abord, nous présentons globalement notre approche sur la conception de ces trois interfaces innovantes (IEI, EDI et EII), leurs configurations portées (dispositif d'affichage portée sur les lunettes plus caméra et dispositif d'affichage pico-projecteur plus caméra), des exemples réels d'utilisation et une évaluation préliminaire des techniques d'entrée de sélection pour prouver la faisabilité de nos prototypes. Par la suite, nous proposons sur les dispositifs portées, et seule les EDI et les EII seraient étudié plus en détail. Afin de concrétiser l'EDI et l'EII, nous proposons un continuum allant de l'interface physique, l'interface mixte physique-numérique, jusqu'à l'interface totalement numérique. Basé sur l'interface physique, nous proposons le système MobilePaperAccess qui sur le dispositif d'affichage portée sur les lunettes plus caméra permettant l'accès à l'information numérique à partir d'une interface imprimé du papier. Ce système est conçu pour valider nos concepts de l'EDI et de l'EII. Les deux types d'interfaces (EDI et EII) et trois techniques d'entrée (doigt, masque et carnet) ont été évaluées par les méthodes quantitatives et qualitatives avec ce système. Basé sur l'interface numérique projetée multi-échelle, le système PlayAllAround est sur dispositif d'affichage pico-projecteur plus caméra, et il pouvoir fournir un affichage à différentes tailles, à la plus petite, individuelle et portée, à la plus grande, partageable et publique. Pour la conception de ce système, nous proposons une décomposition de l'interface basée sur une de cellule de référence de taille fixé pourrait la mise à l'échelle de l'interface en fonctionne de la taille de projection. Le geste de sélection sur un vol et l'interface multi-échelle ont été évalués avec ce système. Les résultats de nos expériences ont montré que PlayAllAround fonctionne bien avec le geste de sélection sur un vol et l'interface multi-échelle. Pour aller plus loin, nous explorons les gestes de la main, y compris le geste stationnaire, le geste de pincement et le geste de fermeture du poing. Nous employons le geste de pincement et le geste de fermeture du poing comme entrée pour pointer, l'action de glisser-déposer et la action de tracer. Afin de satisfaire aux exigences de l'interaction dans la vie quotidienne, nous étudions comment l'utilisateur peut interagir avec ces gestes à l'arrêt ou en marchant. Nous comparons les interactions du geste de sélection sur un vol et geste de pincement dans trois situations que debout, assis et en marchant. En outre, l'évaluation de l'interface projetée, ainsi que la satisfaction sur le fonctionnement de la configuration porté sur la tête a été faite et discutée. Enfin, le long du continuum, nous continuons à étudier sur l'interface mixte par un dispositif pico-projecteur plus caméra dans le but de concrétiser les concepts de l'EDI et de l'EII. L'interface mixte contient une partie physique basée sur des marqueurs d'ARToolkit et une partie numérique projetée. […] / With the development of a wide variety of sensors and devices, computing is no longer limited to the desktop mode. However, the traditional user interface, used on the desktop computer, is no longer appropriate for ubiquitous computing. A sophisticated mobile environment re-quires dedicated design of interfaces, involving input and output techniques with new emerging features that go far beyond the capacities of traditional techniques. One of the solutions to enable ubiquitous interaction and end limitation of the desktop mode is nomadism, while another is mobility. We propose three interfaces related to these two solutions: In-environment interface (IEI), Environment Dependent Interface (EDI), and Environment Independent Interface (EII). We exclude IEI and mainly focus on wear-able interaction. This thesis aims to investigate research issues involved in the design, implementation and evaluation of EDI and EII. It presents our design approach to these three innovative interfaces (IEI, EDI and EII), their wear-able configurations (camera-glasses device unit and cam-era-projector device unit), real examples of use (including the Research Team Interaction Scenario), and both the quantitative and qualitative user studies and evaluations to prove the feasibility and usability of our prototypes. Our work is a many-sided investigation on innovative wearable interfaces, as well as input and output techniques, which will pave the way for future research into wearable interfaces.
117

Determinação da difusividade térmica do esmalte e dentina em função da temperatura, utilizando termografia no infravermelho / Thermal diffusivity measurement of dental hard tissue as function of temperatura obtained by infrared thermography.

Thiago Martini Pereira 04 September 2009 (has links)
Neste trabalho foi desenvolvido um software que calcula, de forma automatizada, o valor da difusividade térmica em função da temperatura em materiais. A técnica de Termografia no Infravermelho foi utilizada para a aquisição dos dados de distribuição de temperatura em função do tempo, os quais foram utilizados para ajustar uma função de temperatura encontrada por meio da equação de calor homogênea, aplicando as condições de contorno do problema. Para isso, uma câmera termográfica operando no infravermelho distante (8 m - 9 m) foi calibrada para captar temperaturas entre 185º C e 1300º C, e aquisição com frequência de 300 Hz. Foram empregadas como material de avaliação, 10 amostras de esmalte e 10 amostras de dentina, com dimensões de 4 x 4 x 2 mm, obtidas de dentes incisivos inferiores bovinos, as quais foram irradiadas de forma pontual com o laser pulsado de Er:Cr;YSGG (l = 2,78 m), por 10 segundos. Durante as irradiações, foi efetuado o registro das temperaturas atingidas nas amostras que começou 2 segundos antes da irradiação e continuou por mais 2 segundos após o término daquelas. Após as irradiações, as sequências de imagens térmicas digitalizadas obtidas foram processadas no software desenvolvido durante este trabalho, que gerou um arquivo com os dados da difusividade térmica em função da temperatura atingida, assim como forneceu os valores da difusividade térmica para o intervalo de decaimento da temperatura após cada pulso laser. O resultado médio de difusividade térmica obtido para o esmalte dental neste trabalho foi 0,0084±0,001 cm2/s para a região de temperatura de 220-550ºC. Este valor é aproximadamente constante até a temperatura de 550 ºC. O valor médio de difusividade térmica obtido para a dentina foi de 0,0015 0,0004 cm2/s na região de temperatura de 300-360 ºC, porém a difusividade térmica para a dentina aumenta para temperaturas mais altas. De acordo com os resultados obtidos, pode-se concluir que o uso da termografia no infravermelho, associado ao software desenvolvido, apresenta-se como um método eficiente para a determinação dos valores de difusividade térmica em função da temperatura de diferentes materiais. / Neste trabalho foi desenvolvido um software que calcula, de forma automatizada, o valor da difusividade térmica em função da temperatura em materiais. A técnica de Termografia no Infravermelho foi utilizada para a aquisição dos dados de distribuição de temperatura em função do tempo, os quais foram utilizados para ajustar uma função de temperatura encontrada por meio da equação de calor homogênea, aplicando as condições de contorno do problema. Para isso, uma câmera termográfica operando no infravermelho distante (8 m - 9 m) foi calibrada para captar temperaturas entre 185º C e 1300º C, e aquisição com frequência de 300 Hz. Foram empregadas como material de avaliação, 10 amostras de esmalte e 10 amostras de dentina, com dimensões de 4 x 4 x 2 mm, obtidas de dentes incisivos inferiores bovinos, as quais foram irradiadas de forma pontual com o laser pulsado de Er:Cr;YSGG (l = 2,78 m), por 10 segundos. Durante as irradiações, foi efetuado o registro das temperaturas atingidas nas amostras que começou 2 segundos antes da irradiação e continuou por mais 2 segundos após o término daquelas. Após as irradiações, as sequências de imagens térmicas digitalizadas obtidas foram processadas no software desenvolvido durante este trabalho, que gerou um arquivo com os dados da difusividade térmica em função da temperatura atingida, assim como forneceu os valores da difusividade térmica para o intervalo de decaimento da temperatura após cada pulso laser. O resultado médio de difusividade térmica obtido para o esmalte dental neste trabalho foi 0,0084±0,001 cm2/s para a região de temperatura de 220-550ºC. Este valor é aproximadamente constante até a temperatura de 550 ºC. O valor médio de difusividade térmica obtido para a dentina foi de 0,0015 0,0004 cm2/s na região de temperatura de 300-360 ºC, porém a difusividade térmica para a dentina aumenta para temperaturas mais altas. De acordo com os resultados obtidos, pode-se concluir que o uso da termografia no infravermelho, associado ao software desenvolvido, apresenta-se como um método eficiente para a determinação dos valores de difusividade térmica em função da temperatura de diferentes materiais.
118

Modélisation et développement d'une plateforme intelligente pour la capture d'images panoramiques cylindriques / Modeling and design of a smart system for capturing cylindrical panoramic images

Pélissier, Frantz 11 September 2014 (has links)
Dans la plupart des applications de robotique, un système de vision apporte une amélioration significative de la perception de l’environnement. La vision panoramique est particulièrement intéressante car elle rend possible une perception omnidirectionnelle. Elle est cependant rarement utilisée en pratique à cause des limitations technologiques découlant des méthodes la permettant. La grande majorité de ces méthodes associent des caméras, des miroirs, des grands angles et des systèmes rotatifs ensembles pour créer des champs de vision élargis. Les principaux défauts de ces méthodes sont les importantes distorsions des images et l’hétérogénéité de la résolution. Certaines autres méthodes permettant des résolutions homogènes, prodiguent un flot de données très important qui est difficile à traiter en temps réel et sont soit trop lents soit manquent de précision. Pour résoudre ces problèmes, nous proposons la réalisation d’une caméra panoramique intelligente qui présente plusieurs améliorations technologiques par rapport aux autres caméras linéaires rotatives. Cette caméra capture des panoramas cylindriques homogènes avec une résolution de 6600 × 2048 pixels. La synchronisation de la capture avec la position angulaire est possible grâce à une plateforme rotative de précision. Nous proposons aussi une solution au problème que pose le gros flot de données avec l’implémentation d’un extracteur de primitives qui sélectionne uniquement les primitives invariantes des images pour donner un système panoramique de vision qui ne transmet que les données pertinentes. Le système a été modélisé et une méthode de calibrage spécifiquement conçue pour les systèmes cylindriques rotatifs est présentée. Enfin, une application de localisation et de reconstruction 3D est décrite pour montrer une utilisation pratique dans une application de type Simultaneous Localization And Mapping ( SLAM ). / In most robotic applications, vision systems can significantly improve the perception of the environment. The panoramic view has particular attractions because it allows omnidirectional perception. However, it is rarely used because the methods that provide panoramic views also have significant drawbacks. Most of these omnidirectional vision systems involve the combination of a matrix camera and a mirror, rotating matrix cameras or a wide angle lens. The major drawbacks of this type of sensors are in the great distortions of the images and the heterogeneity of the resolution. Some other methods, while providing homogeneous resolutions, also provide a huge data flow that is difficult to process in real time and are either too slow or lacking in precision. To address these problems, we propose a smart panoramic vision system that presents technological improvements over rotating linear sensor methods. It allows homogeneous 360 degree cylindrical imaging with a resolution of 6600 × 2048 pixels and a precision turntable to synchronize position with acquisition. We also propose a solution to the bandwidth problem with the implementation of a feature etractor that selects only the invariant feaures of the image in such a way that the camera produces a panoramic view at high speed while delivering only relevant information. A general geometric model has been developped has been developped to describe the image formation process and a caligration method specially designed for this kind of sensor is presented. Finally, localisation and structure from motion experiments are described to show a practical use of the system in SLAM applications.
119

Etude des vestiges de supernova en intéraction avec l'expérience d'astronomie H.E.S.S. et étalonnage de la caméra H.E.S.S. II / Study of supernova interacting with molecular clouds with H.E.S.S. and calibration of the H.E.S.S. II camera

Fernandez Gangoso, Diane 30 September 2014 (has links)
La découverte du rayonnement cosmique remonte à plus d'un siècle, mais son origine est encore incertaine aujourd'hui. Divers éléments théoriques et observationnels tendent à confirmer que les vestiges de supernova (SNRs) sont à l'origine de la majeure partie du rayonnement cosmique galactique jusqu'à des énergies de ~3 PeV, voire au-delà. Mais ce paradigme requiert encore une preuve irréfutable.Lors de l'expansion d'un SNR, les particules chargées du milieu circumstellaire/interstellaire sont accélérées par l'onde de choc et peuvent alors rayonner depuis le domaine radio jusqu'aux très hautes énergies (>100 GeV). Les mécanismes d'accélération et les processus d'émission des particules ont été étudiés et modélisés au cours de cette thèse.Les instruments d'astronomie Gamma permettent de détecter les rayonnements émis par les particules accélérées au choc des SNRs. En particulier, le télescope à création de paires Fermi-LAT et le réseau de télescopes au sol à imagerie Tcherenkov atmosphérique H.E.S.S. détectent, à eux deux, des photons Gamma d'énergie comprise entre ~30 MeV et plusieurs dizaines de TeV. Au cours de cette thèse, réalisée dans le cadre de l'expérience H.E.S.S., les données observationnelles de plusieurs SNRs ont été analysées et interprétées. Les études menées ont conduit à la détection d'une des sources les plus faibles encore jamais détectée et dont l'émission Gamma est associée à l'interaction du SNR G349.7+0.2 avec un nuage moléculaire adjacent. Des limites supérieures sur les flux intégrés de nombreux SNRs ont été extraites afin de contraindre les modèles d'accélération de particules. Le SNR Puppis A présente notamment un comportement spectral inattendu, difficile à expliquer dans le cadre des modèles d'accélération de particules actuels.Un cinquième télescope, de plus grande taille, a été ajouté mi-2012 au réseau de quatre petits télescopes H.E.S.S. afin d'abaisser le seuil en énergie et d'améliorer la sensibilité du réseau. Dans ce cadre, j'ai activement participé au développement, à l'intégration et à l'analyse des données du dispositif d'étalonnage de la caméra de ce cinquième télescope. / The discovery of Cosmic Rays (CRs) dates back more than one century ago, however their origin remains unclear. There is rather convincing evidence that the bulk of Galactic CRs, up to ~3 PeV, and possibly beyond, is accelerated in supernova remnants (SNRs). However this paradigm still needs a conclusive proof. While the SNR expands, charged particles from the circumstellar/interstellar medium are accelerated at the SNR shock wave and radiate from radio to very high energies (>100 GeV). Particles acceleration and broad band radiation mechanism were studied and modelled during this PhD. $gamma$-ray astronomy instruments enable to detect radiation from particles accelerated at the SNR shock wave. In particular the pair creation telescope Fermi-LAT and the array of imaging atmospheric Cherenkov telescopes H.E.S.S., enable together to detect Gamma-ray photons in the ~30 MeV-30 TeV energy range. As a member of the H.E.S.S. collaboration, I analysed and interpreted observational data from several Galactic SNRs. These studies led to the discovery of one of the faintest sources ever detected whose Gamma-ray emission is associated with the interaction of the SNR G349.7+02 with an adjacent molecular cloud. Upper limits on the integrated flux of many SNRs were extracted in order to constrain models of particle acceleration. In particular, the SNR Puppis A shows an unexpected spectral behavior difficult to explain with current models. A fifth bigger telescope was added mid 2012 to the H.E.S.S. array of four small telescopes to lower the energy threshold and to improve the sensitivity of the array. In this context I actively participated to the development, integration end data analysis of the calibration hardware of the camera of this fifth telescope.
120

B.A.D : Black.Aromred.Drone

Heljeved, Christian January 2013 (has links)
The aim of this project was to develop and improve Intuitive Aerial AB airborne camera rig system, the biggest focus area in this project has been on the upper part of the UAV camera rig system, whether proofing and make it more portable during transports is the main goal, I am using industrial design methodology to do this.Intuitive Aerial AB is developing a new model of their airborne camera rig system to the NAB show (National Association of Broadcasts) in April 6-11 2013 in Las Vegas USA. The airborne Camera rig is an UAV (Unmanned Aerial Vehicle) that targets the professional film and photography industry.Idea generation, sketching, prototype, brainstorming, user research, market analysis, CAD modeling and rendering are some of the industrial design methods used in this project. This project has had a tight time schedule to be ready for the NAB Show. This means that development and production has been hands on.The result presented in this report is a new design of the Intuitive Aerial airborne camera rig system. That is produced to the NAB show in Las Vegas. After the NAB Show in Las Vegas a concept study of the camera rig system has been made. And is visualised as sketches and 3D model renderings.

Page generated in 0.0562 seconds