• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 22
  • 9
  • 6
  • 2
  • 2
  • Tagged with
  • 82
  • 21
  • 20
  • 18
  • 18
  • 16
  • 16
  • 15
  • 13
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Comparaison de la micro-tomodensitométrie par comptage de photons et par intégration de charges avec le dispositif d'irradiation PIXSCAN

Ouamara, H. 15 February 2013 (has links) (PDF)
L'approche développée par l'équipe imXgam du CPPM a consisté à adapter la technologie des pixels hybrides XPAD à l'imagerie biomédicale. C'est dans cette optique qu'un micro tomodensitomètre PIXSCAN II basé sur la nouvelle génération de détecteurs à pixels hybrides appelés XPAD3 a été développé. Ce travail de thèse décrit la démarche engagée pour évaluer l'apport de la technologie à pixels hybrides en tomodensitométrie par rayons X en termes de contraste et de dose et pour explorer de nouvelles possibilités d'imagerie biomédicale à faible dose. L'évaluation des performances ainsi que la validation des résultats obtenus avec les données acquises avec le détecteur XPAD3 ont été comparées aux résultats obtenus avec la caméra CCD DALSA XR-4 similaire aux détecteurs utilisés dans la plupart des micro-TDM usuels. Le détecteur XPAD3 permet d'obtenir des images reconstruites d'une qualité satisfaisante et proche de celle des images de la caméra DALSA XR-4, mais avec une meilleure résolution spatiale. A faible dose, les images du détecteur XPAD3 sont de meilleure qualité que celles de la caméra CCD. Du point de vue de l'instrumentation, ce projet a prouvé le bon fonctionnement du dispositif PIXSCAN II pour la souris. Nous avons pu reproduire une qualité d'image semblable à celle obtenue avec un détecteur à intégration de charges de type caméra CCD. Pour améliorer les performances du détecteur XPAD3, il va falloir optimiser la stabilité des seuils et avoir des courbes de réponses des pixels en fonction de l'énergie assez homogènes en utilisant un capteur plus dense comme le CdTe par exemple.
62

Segmentation d'images par combinaison adaptative couleur-texture et classification de pixels. : Applications à la caractérisation de l'environnement de réception de signaux GNSS

ATTIA, Dhouha 03 October 2013 (has links) (PDF)
En segmentation d'images, les informations de couleur et de texture sont très utilisées. Le premier apport de cette thèse se situe au niveau de l'utilisation conjointe de ces deux sources d'informations. Nous proposons alors une méthode de combinaison couleur/texture, adaptative et non paramétrique, qui consiste à combiner un (ou plus) gradient couleur et un (ou plus) gradient texture pour ensuite générer un gradient structurel utilisé comme image de potentiel dans l'algorithme de croissance de régions par LPE. L'originalité de notre méthode réside dans l'étude de la dispersion d'un nuage de point 3D dans l'espace, en utilisant une étude comparative des valeurs propres obtenues par une analyse des composantes principales de la matrice de covariance de ce nuage de points. L'approche de combinaison couleur/texture proposée est d'abord testée sur deux bases d'images, à savoir la base générique d'images couleur de BERKELEY et la base d'images de texture VISTEX. Cette thèse s'inscrivant dans le cadre des projets ViLoc (RFC) et CAPLOC (PREDIT), le deuxième apport de celle-ci se situe au niveau de la caractérisation de l'environnement de réception des signaux GNSS pour améliorer le calcul de la position d'un mobile en milieu urbain. Dans ce cadre, nous proposons d'exclure certains satellites (NLOS dont les signaux sont reçus par réflexion voir totalement bloqués par les obstacles environnants) dans le calcul de la position d'un mobile. Deux approches de caractérisation, basées sur le traitement d'images, sont alors proposées. La première approche consiste à appliquer la méthode de combinaison couleur/texture proposée sur deux bases d'images réelles acquises en mobilité, à l'aide d'une caméra fisheye installée sur le toit du véhicule de laboratoire, suivie d'une classification binaire permettant d'obtenir les deux classes d'intérêt " ciel " (signaux LOS) et " non ciel " (signaux NLOS). Afin de satisfaire la contrainte temps réel exigée par le projet CAPLOC, nous avons proposé une deuxième approche basée sur une simplification de l'image couplée à une classification pixellaire adaptée. Le principe d'exclusion des satellites NLOS permet d'améliorer la précision de la position estimée, mais uniquement lorsque les satellites LOS (dont les signaux sont reçus de manière direct) sont géométriquement bien distribués dans l'espace. Dans le but de prendre en compte cette connaissance relative à la distribution des satellites, et par conséquent, améliorer la précision de localisation, nous avons proposé une nouvelle stratégie pour l'estimation de position, basée sur l'exclusion des satellites NLOS (identifiés par le traitement d'images), conditionnée par l'information DOP, contenue dans les trames GPS.
63

Optical arbitrary waveform generation using chromatic dispersion in silica fibers

Von Eden, Elric Omar 14 June 2007 (has links)
A novel approach to optical pulse shaping and arbitrary waveform generation (OAWG) using time-domain spectral shaping (TDSS) in negative and positive dispersion in commercial optical fibers has been proposed and evaluated. In order to study the pulse shaping capability of this OAWG system, mathematical analysis was used to determine expressions for the expected output waveform under certain assumptions. Then, Matlab code was developed to model the propagation of an optical signal through a fiber with arbitrary characteristics as well as optical modulation using an electro-optic modulator. The code was first benchmarked to several well-known theoretical systems to ensure that it produced accurate results, and then it was used to examine the ability of this novel OAWG approach to generate different waveforms under various conditions. The results of numerous simulations are presented and used to qualitatively examine the ability of this system to perform OAWG in a real-world setting. Based on the results of simulations, mathematical modeling, as well as previous research in this area, it was determined that higher-order fiber dispersion could be a limitation to the time-bandwidth product and pulse shaping fidelity of this pulse shaping method. Additional dispersion compensation techniques were devised to help overcome these limitations such as the use of multiple dispersion-compensating fibers and spectral phase modulation. An OAWG system employing these techniques was also simulated using the developed Matlab code. Using these results, the possibility and feasibility of employing this system in various pulse shaping applications such as optical communications, are discussed and analyzed. Limitations of the system are also investigated, and methods to improve the system for future applications are suggested.
64

Segmentação, classificação e quantificação de bacilos de tuberculose em imagens de baciloscopia de campo claro através do emprego de uma nova técnica de classificação de pixels utilizando máquinas de vetores de suporte

Xavier, Clahildek Matos 02 July 2012 (has links)
Submitted by Geyciane Santos (geyciane_thamires@hotmail.com) on 2015-07-15T14:04:04Z No. of bitstreams: 1 Dissertação - Clahildek Matos Xavier.pdf: 23017599 bytes, checksum: f3e0230fd866c0a784966606404bb807 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-15T18:37:45Z (GMT) No. of bitstreams: 1 Dissertação - Clahildek Matos Xavier.pdf: 23017599 bytes, checksum: f3e0230fd866c0a784966606404bb807 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-15T18:47:26Z (GMT) No. of bitstreams: 1 Dissertação - Clahildek Matos Xavier.pdf: 23017599 bytes, checksum: f3e0230fd866c0a784966606404bb807 (MD5) / Made available in DSpace on 2015-07-15T18:47:26Z (GMT). No. of bitstreams: 1 Dissertação - Clahildek Matos Xavier.pdf: 23017599 bytes, checksum: f3e0230fd866c0a784966606404bb807 (MD5) Previous issue date: 2012-07-02 / Não Informada / Tuberculosis (TB) is a contagious disease caused by Mycobacterium tuberculosis that primarily affects the lungs and reaches over 8.8 million people worldwide. Although the number of cases of TB disease and deaths has fallen over the past years, this disease still remains a serious health problem in developing countries. Currently, as initial tests for the diagnosis of TB are used methods of smear bright field and fluorescence. The first is used mostly in developing countries, due to low cost, the second is the preferred method in developed countries to be more sensitive. Among the many challenges for the control of this disease is the development of a rapid, efficient and low cost for the diagnosis of tuberculosis. The process of diagnosis of smear-field course is time consuming, manual and error-prone, so that there is a high rate of false negatives. Various techniques for pattern recognition in the image smear bright field microscopy have been designed to recognize and count of the rods. This paper describes a new method for segmentation of tubercle bacilli in sputum bright field. The method proposed in this dissertation uses a classifier consisting of a support vector machine. The differential method is proposed in the variables selected for the input of the classifier. They were selected from four color spaces: RGB, HSI, YCbCr and Lab used to both individual characteristics such as subtractions of characteristics of the same color space and different color spaces. We investigated a total of 30 features. The best features were selected using the selection technique scalar features. With the proposed method was reached a sensitivity of 94%. However, further steps for noise reduction are required to minimize the classification errors. / A tuberculose (TB) é uma doença contagiosa causada pelo Mycobacterium tuberculosis que afeta, principalmente, os pulmões e atinge mais de 8,8 milhões de pessoas em todo o mundo. Embora o número de casos de doenças e mortes por TB tenham caído ao longo dos últimos anos, essa doença ainda continua sendo um grave problema de saúde nos países em desenvolvimento. Atualmente, como exames iniciais para o diagnóstico da TB são usados os métodos de baciloscopia de campo claro e baciloscopia de fluorescência. O primeiro é mais usado em países em desenvolvimento, devido ao baixo custo; o segundo é o método preferencial em países desenvolvidos por ser mais sensível. Entre os vários desafios para o controle dessa doença, está o desenvolvimento de um método rápido, eficiente e de baixo custo para o diagnóstico da TB. O processo de diagnóstico de baciloscopia de campo claro é demorado, manual e propenso a erros, fazendo com que haja uma alta taxa de falsos negativos. Várias técnicas de reconhecimento de padrão em imagens baciloscópicas de microscopia de campo claro têm sido desenvolvidas para o reconhecimento e contagem dos bacilos. Este trabalho descreve um novo método para segmentação de bacilos da tuberculose em baciloscopia de campo claro. O método proposto utiliza um classificador constituído por uma máquina de vetores de suporte. O diferencial do mesmo em relação a outros trabalhos está nas variáveis selecionadas para a entrada do classificador. Essas variáveis foram selecionadas a partir de quatro espaços de cor: RGB, HSI, YCbCr e Lab. Investigou-se tanto características individuais, como subtrações de características de um mesmo espaço de cor e de espaços de cores diferentes, num total de 30 características. As melhores características foram selecionadas utilizando-se a técnica de seleção escalar de características. Alcançou-se uma sensibilidade de 94%. No entanto, novas etapas para a redução de ruído são necessárias para minimizar os erros de classificação.
65

Painting in the twenty-tens;where to now? : (You can’t touch this!)

Olofsson, Max January 2012 (has links)
The essay is a manifesto-like personal take on painting, and a redefinition of painting in the digital age. Careless usage of the term ”painting” has led to a diluted descriptive function and a waning categorizing capacity; almost anything can be called painting, which in turn puts actual painting in an awkward position – where it, apart from being itself, could be almost anything. The term “painthing” is introduced to distinguish painting from works that beside its two-dimensional visual information also makes a point of its specific materiality. It brings up cave paintings and links to video-games, suggesting that video-games have gone through the reversed evolution of the history of painting – from abstraction to representation. It speaks of the problems of documentation – the translation of visual information (or re-flattening of a flat surface) – and the cultural equalization of information and images on the internet through the common denominator the pixel. It also describes “information painting”, which in short is digital painting where there is no physical object to be translated to a documentation of itself, but rather a painting that is original in its documentation form (its digital form), painting that strives to be nothing but the utopia of an image – the untouchable/unreachable visual information.
66

3D structure estimation from image stream in urban environment / Estimation de la structure 3D d'un environnement urbain à partir d'un flux vidéo

Nawaf, Mohamad Motasem 05 December 2014 (has links)
Dans le domaine de la vision par ordinateur, l’estimation de la structure d’une scène 3D à partir d’images 2D constitue un problème fondamental. Parmi les applications concernées par cette problématique, nous nous sommes intéressés dans le cadre de cette thèse à la modélisation d’un environnement urbain. Nous nous sommes intéressés à la reconstruction de scènes 3D à partir d’images monoculaires générées par un véhicule en mouvement. Ici, plusieurs défis se posent à travers les différentes étapes de la chaine de traitement inhérente à la reconstruction 3D. L’un de ces défis vient du fait de l’absence de zones suffisamment texturées dans certaines scènes urbaines, d’où une reconstruction 3D (un nuage de points 3D) trop éparse. De plus, du fait du mouvement du véhicule, d’une image à l’autre il n’y a pas toujours un recouvrement suffisant entre différentes vues consécutives d’une même scène. Dans ce contexte, et ce afin de lever les verrous ci-dessus mentionnés, nous proposons d’estimer, de reconstruire, la structure d’une scène 3D par morceaux en se basant sur une hypothèse de planéité. Nous proposons plusieurs améliorations à la chaine de traitement associée à la reconstruction 3D. D’abord, afin de structurer, de représenter, la scène sous la forme d’entités planes nous proposons une nouvelle méthode de reconstruction 3D, basée sur le regroupement de pixels similaires (superpixel segmentation), qui à travers une représentation multi-échelle pondérée fusionne les informations de couleur et de mouvement. Cette méthode est basée sur l’estimation de la probabilité de discontinuités locales aux frontières des régions calculées à partir du gradient (gradientbased boundary probability estimation). Afin de prendre en compte l’incertitude liée à l’estimation du mouvement, une pondération par morceaux est appliquée à chaque pixel en fonction de cette incertitude. Cette méthode génère des regroupements de pixels (superpixels) non contraints en termes de taille et de forme. Pour certaines applications, telle que la reconstruction 3D à partir d’une séquence d’images, des contraintes de taille sont nécessaires. Nous avons donc proposé une méthode qui intègre à l’algorithme SLIC (Simple Linear Iterative Clustering) l’information de mouvement. L’objectif étant d’obtenir une reconstruction 3D plus dense qui estime mieux la structure de la scène. Pour atteindre cet objectif, nous avons aussi introduit une nouvelle distance qui, en complément de l’information de mouvement et de données images, prend en compte la densité du nuage de points. Afin d’augmenter la densité du nuage de points utilisé pour reconstruire la structure de la scène sous la forme de surfaces planes, nous proposons une nouvelle approche qui mixte plusieurs méthodes d’appariement et une méthode de flot optique dense. Cette méthode est basée sur un système de pondération qui attribue un poids pré-calculé par apprentissage à chaque point reconstruit. L’objectif est de contrôler l’impact de ce système de pondération, autrement dit la qualité de la reconstruction, en fonction de la précision de la méthode d’appariement utilisée. Pour atteindre cet objectif, nous avons appliqué un processus des moindres carrés pondérés aux données reconstruites pondérées par les calculés par apprentissage, qui en complément de la segmentation par morceaux de la séquence d’images, permet une meilleure reconstruction de la structure de la scène sous la forme de surfaces planes. Nous avons également proposé un processus de gestion des discontinuités locales aux frontières de régions voisines dues à des occlusions (occlusion boundaries) qui favorise la coplanarité et la connectivité des régions connexes. L’ensemble des modèles proposés permet de générer une reconstruction 3D dense représentative à la réalité de la scène. La pertinence des modèles proposés a été étudiée et comparée à l’état de l’art. Plusieurs expérimentations ont été réalisées afin de démontrer, d’étayer, la validité de notre approche / In computer vision, the 3D structure estimation from 2D images remains a fundamental problem. One of the emergent applications is 3D urban modelling and mapping. Here, we are interested in street-level monocular 3D reconstruction from mobile vehicle. In this particular case, several challenges arise at different stages of the 3D reconstruction pipeline. Mainly, lacking textured areas in urban scenes produces low density reconstructed point cloud. Also, the continuous motion of the vehicle prevents having redundant views of the scene with short feature points lifetime. In this context, we adopt the piecewise planar 3D reconstruction where the planarity assumption overcomes the aforementioned challenges.In this thesis, we introduce several improvements to the 3D structure estimation pipeline. In particular, the planar piecewise scene representation and modelling. First, we propose a novel approach that aims at creating 3D geometry respecting superpixel segmentation, which is a gradient-based boundary probability estimation by fusing colour and flow information using weighted multi-layered model. A pixel-wise weighting is used in the fusion process which takes into account the uncertainty of the computed flow. This method produces non-constrained superpixels in terms of size and shape. For the applications that imply a constrained size superpixels, such as 3D reconstruction from an image sequence, we develop a flow based SLIC method to produce superpixels that are adapted to reconstructed points density for better planar structure fitting. This is achieved by the mean of new distance measure that takes into account an input density map, in addition to the flow and spatial information. To increase the density of the reconstructed point cloud used to performthe planar structure fitting, we propose a new approach that uses several matching methods and dense optical flow. A weighting scheme assigns a learned weight to each reconstructed point to control its impact to fitting the structure relative to the accuracy of the used matching method. Then, a weighted total least square model uses the reconstructed points and learned weights to fit a planar structure with the help of superpixel segmentation of the input image sequence. Moreover, themodel handles the occlusion boundaries between neighbouring scene patches to encourage connectivity and co-planarity to produce more realistic models. The final output is a complete dense visually appealing 3Dmodels. The validity of the proposed approaches has been substantiated by comprehensive experiments and comparisons with state-of-the-art methods
67

Optimisation of the ILC vertex detector and study of the Higgs couplings / Développement d'un détecteur de vertex de nouvelle génération pour le collisionneur ILC : impact sur la détermination des rapports d'embranchement du boson de Higgs standard

Voutsinas, Georgios 28 June 2012 (has links)
Cette thèse est une contribution au document intitulé "Detector Baseline Document (DBD)" décrivant le conceptde détecteur ILD envisagé auprès du collisionneur linéaire international électron-positon ILC (acronyme del'anglais International Linear Collider).Les objectifs de physique de l'ILD nécessitent un détecteur de vertex (VXD) particulièrement léger, rapide et trèsgranulaire permettant d'atteindre une résolution sans précédent sur le paramètre d'impact des trajectoiresreconstruites des particules produites dans les interactions étudiées. Le principal objectif de cette thèse est demontrer comment optimiser les paramètres du VXD dans le cas ou il est composé de Capteurs à Pixels Actifsfabriqués en technologie industrielle CMOS (CAPS). Ce travail a été réalisé en étudiant la sensibilité desperformances d'étiquetage des saveurs lourdes et de la précision sur les rapports d'embranchement hadroniquedu boson de Higgs aux différents paramètres du VXD.Le cahier des charges du VXD, particulièrement ambitieux, a nécessité le développement d'une nouvelletechnologie de capteurs de pixels de silicium, les CAPS, dont le groupe PICSEL de l'IPHC est à l'origine. Lavitesse de lecture et l'influence des paramètres qui régissent la fabrication des capteurs en fonderie ont étéétudiées dans cette thèse, et des prototypesde CAPS ont été caractérisés sur faisceau de particules. Enfin, les performances de trajectométrie d'un VXDcomposé de CAPS a été évalué avec des études de simulation. / This thesis is a contribution to the " Detector Baseline Document ", describing the ILD detector which is intendedfor the International Linear Collider (ILC).The physics goals of the ILD call for a vertex detector (VXD) particularly light, rapid and very granular allowing toreach an unprecedented resolution on the impact parameter of the tracks that reconstruct the particles producedin the studied interactions. The principle goal of this thesis is to show how to optimise the parameters of the VXDin the case that is composed of Active Pixel Sensors manufactured in industrial CMOS technology (CAPS). Thiswork has been realised by studying the sensitivity of the performance of the heavy flavour tagging and theprecision on the hadronic branching fractions of the Higgs boson as a function of different sets of VXDparameters.The specifications of the VXD, particularly ambitious, call for the development of a novel silicon pixel sensorstechnology, the CAPS, which was pioneered by the PICSEL group of IPHC. The readout speed and the influenceof the fabrication parameters have been studied in this thesis, and CAPS prototypes have been characterised intest beams. Finally, the tracking performance of a CAPS based VXD has been evaluated with simulation studies.
68

Advanced planar pixel technology developments for ATLAS upgrade phase 2 / Avancées technologiques dans le domaine des pixels planaires pour l'expérience ATLAS Phase 2

Hohov, Dmytro 01 October 2019 (has links)
Le complexe d'accélérateurs du grand collisionneur de hadrons (le Large Hadron Collider - LHC) sera mis à jour lors du long arrêt de la période LS3 en 2023-2025 pour passer à la phase de haute luminosité (HL-LHC). La luminosité instantanée sera multipliée par 5 pour atteindre 7.5×10³⁴ cm⁻²s⁻¹, ce qui correspond à environ 200 collisions inélastiques par croisement de paquets comparé aux 50 par croisement au LHC. Pendant le fonctionnement du HL-LHC, afin d'atteindre une haute précision dans les études des processus physiques du modèle standard et les recherches de nouvelle physique, le collisionneur à protons devra fournir une luminosité intégrée de l’ordre 400 fb⁻¹ par an pendant une dizaine d’années soit 4000 fb⁻¹ escomptées. Ceci représente un ordre de grandeur supérieur à l'ensemble de la période du LHC. Le détecteur interne (Inner Detector) ATLAS actuel ne sera pas en mesure de faire face efficacement à l'augmentation du taux d'événements et de la dose de rayonnement. Afin d’obtenir des performances au minimum égales ou supérieures à celles de la phase LHC, et tenant compte d’un environnement plus hostile en termes de radiations et d’empilements d’évènements, il a été décidé d’opérer le remplacement complet du trajectomètre interne ou Inner Tracker (ITk); à cette fin, une technologie tout silicium a été choisie. Cette thèse est axée sur l'étude de nouveaux capteurs pixels planaires fins à bords très minces, basés sur le concept d’utilisation de matrices de diodes à implants dopés n sur un substrat dopé p. Ce choix est motivé par les critères de meilleure performance intrinsèque, de radio-tolérance élevée ainsi qu’un coût de production optimisé pour de grandes surfaces. Dans ce travail, des capteurs de différentes épaisseurs allant de 50 μm à 150 μm dotés de bords actifs et minces ont fait l’objet d’études approfondies notamment lors de leur fonctionnement à haut flux de particules chargées. De nombreuses analyses minutieuses ont été menées pour déterminer leur résolution en position à l’aide d’un télescope de faisceau de haute énergie. Les régions d’impacts sur la zone active des pixels ainsi que sur la région des contours ont été scrutées avant et après leur irradiation. En effet, de nombreux résultats obtenus en faisceau de protons et électrons seront montrés, notamment une étude comparative des différents concepts de matrices de capteurs de pixels planaires lus avec la puce de lecture « FE-I4 » en technologie CMOS 130 nm. Préparant la phase future du LHC, nous montrerons les premiers résultats obtenus avec la nouvelle génération de pixels granulaires. Ces matrices ont été couplées à la nouvelle puce de lecture frontale récemment développée au CERN, utilisant la technologie CMOS 65 nm. Ces capteurs dotés d’ une plus fine granularité de 50×50 μm² , ont un pas optimisé lequel est nécessaire pour maintenir un taux d'occupation aussi bas que possible dans un contexte de multiplicités de particules chargées très élevées. Dans ce travail, une contribution personnelle à l’électronique de lecture sera détaillée, en particulier les études ont été menées sur la puce nommée «Ring-Oscillator» ou moniteur de radiations, développée au laboratoire. On décrira son comportement dynamique en fonction de la température, de la tension nominale et en conditions hautement radiatives (500 MRad). La mise au point d’un nouvel outil de caractérisation de détecteurs pixels a fait l’objet d’un développement important. Grâce à un ensemble basé sur une excitation laser de 1060 nm, il sera possible de disposer d’un système précis et autonome capable de mesurer rapidement les caractéristiques fonctionnelles des matrices de pixels avec une excellente résolution spatiale. Les caractéristiques de cet outil feront l’objet d’une présentation exhaustive. / The Large Hadron Collider (LHC) will go through the accelerator complex upgrade during the LS3 long shutdown in 2023-2025 to move to the High Luminosity phase (HL-LHC). As a result, an instantaneous luminosity will increase sevenfold to 7.5×10³⁴ cm⁻²s⁻¹, corresponding to approximately 200 inelastic collisions per bunch-crossing, whereas the LHC runs resulted in up to 50 collisions per bunch-crossing. During the operation of the HL-LHC, in order to achieve high-precision in studies of Standard Model processes and searches for new physics, about 4000 fb⁻¹ of integrated luminosity be collected, which is of an order of magnitude larger than over the entire LHC period. The present ATLAS Inner Detector (ID) will not be able to efficiently cope with the increased event rate and radiation dose. Due to this fact the complete replacement of the ID is foreseen with fully silicon Inner Tracker (ITk) to provide high tracking performance in harsher environment delivered by the HL-LHC. This thesis is focused on the study of new n+-in-p planar silicon sensors, as a promising option to instrument the ITk pixel layers, considering their radiation hardness and cost-effectiveness. Sensors of different thicknesses ranging from 50 µm to 150 µm of active and slim edge designs have been tested at a high energy particle beam to investigate hit efficiency performance analyzed on the pixel active area and on the edge area before and after irradiation. The test beam results and their comparison for the different designs of the pixel sensors compatible with FE-I4 readout chip are discussed. Also, the first results on test beam characterization of the pixel modules employing a newly developed prototype of readout chip for the ITk, RD53A chip, implemented in 65 nm CMOS technology, were obtained. The sensors with the decreased to 25×100 µm² and 50×50 µm² pixel pitch to maintain the lower level of occupancy at high particle multiplicity were measured. Additionally, the tests of ring oscillators, contained in RD53A chip, which may be used as a monitor of the received radiation dose, were carried out depending on temperature, supplied voltage and irradiation level up to 500 MRad. Finally, the test bench setup for silicon pixel detectors characterization using an infra-red laser has been the subject of an original development in this thesis. The setup was developed in the clean room at Laboratoire de l'accélérateur linéaire (LAL) and it is capable of rapidly measuring the functional characteristics, providing a flexible charge injection with well-defined hit position to characterize the silicon pixel matrixes. The software to control the setup was created using LabVIEW programming environment. The results of the measurements with the FE-I4 module implemented with openings allowing the laser beam passage on a sensor backside are presented in this thesis.
69

Bad Pixels Challenges Of Microbudget Digital Cinema

Bowser, Alexander Jon 01 January 2011 (has links)
Bad Pixels is a feature-length, microbudget, digital motion picture, produced, written, and directed by Alexander Jon Bowser as part of the requirements for earning a Master of Fine Arts in Film & Digital Media from the University of Central Florida. The materials contained herein serve as a record of the microbudget filmmaking experience. This thesis documents the challenges confronted by a first-time feature filmmaker; an evaluation of both the theory and application of a dynamic microbudget approach to digital content creation. From script development to digital distribution, the thesis aims to reflect on technical and procedural decisions made and assess their impact on the overall experience and final product.
70

Développement de détecteurs Micromegas pixellisés pour les hauts flux de particules et évaluation de la contribution diffractive à la leptoproduction de hadrons à COMPASS / Development of pixelised Micromegas detectors for high particle flux and diffractive processes' contribution to hadron leptoproduction at COMPASS

Thibaud, Florian 29 September 2014 (has links)
Le travail présenté dans cette thèse porte d’une part sur le développement et la caractérisation d’une nouvelle génération de détecteurs Micromegas (MICROMEsh GAseous Structure) pour l’expérience COMPASS au Cern, et d’autre part sur l’estimation de la contribution de canaux diffractifs à la production de pions et de kaons, dans le cadre de l’étude des fonctions de fragmentation de quarks en hadrons à COMPASS. De nouveaux détecteurs Micromegas d’une surface active de 40 x 40 cm² sont en cours de développement pour le futur de l’expérience COMPASS, à partir de 2015. Ces détecteurs devront fonctionner dans des flux de muons et hadrons approchant 8 MHz/cm². Pour cela, une zone centrale d’environ 5 cm de diamètre, traversée par le faisceau, sera constituée de 1280 pixels, et des technologies permettant de fortement réduire l’impact des décharges seront adoptées. Quatre prototypes de géométrie finale utilisant deux types de technologies de réduction des décharges différentes ont été produits au Cern et testés en conditions réelles à COMPASS entre 2010 et 2012. Trois d’entre eux sont des détecteurs hybrides utilisant une feuille GEM (Gas Electron Multiplier) en tant qu’étage de préamplification pour réduire la probabilité de décharge. Le dernier détecteur est équipé d’une structure résistive à « résistances enterrées », permettant la réduction de l’amplitude des décharges. Leurs performances sont présentées dans cette thèse. L’impact de ces résultats sur la production et la mise en œuvre de la série finale de détecteurs est également discuté. Les fonctions de fragmentation de quarks en hadrons l’hadronisation d’un quark de saveur q en un hadron h. Ces fonctions universelles interviennent dans l’expression de la section efficace de nombreux processus. Elles sont accessibles à COMPASS via la réaction de diffusion profondément inélastique semi-inclusive de muons sur des nucléons. Les observables permettant leur extraction dans ce cadre sont les multiplicités de hadrons, soit le nombre moyen de hadrons produits par événement de diffusion profondément inélastique. Les mésons vecteurs issus de processus diffractifs produisent également des pions et kaons par leur désintégration. Ces processus n’impliquant pas l’hadronisation d’un quark, il semble justifié de ne pas les comptabiliser dans la mesure des multiplicités. Ce travail propose une étude Monte-Carlo des contributions de la production diffractive de mésons vecteurs rho et phi à la production de hadrons léger et aux événements inclusifs. Des facteurs de correction des multiplicités sont finalement établis. Enfin, l’effet de cette correction sur l’extraction des fonctions de fragmentation en pions est présenté. / This thesis is dedicated to the development and characterisation of a new generation of Micromegas (MICROMEsh GAseous Structure) detectors for the COMPASS experiment at Cern, and the estimation of the diffractive processes’ contribution to the production of pions and kaons, concerning the study of the quark fragmentation functions into hadrons at COMPASS. New Micromegas detectors with a 40 x 40 cm² active area are being developed for the future physics program of the COMPASS experiment starting in 2015. These detectors will have to work in high muon and hadron flux (close to 8 MHz/cm²). In this context, a central area of about 5 cm diameter, crossed by the beam, will be composed of 1280 pixels, and discharge-reduction technologies will be used. Four prototypes with a final read-out geometry, using two different discharge-reduction technologies have been produced at Cern and studied in nominal conditions at COMPASS between 2010 and 2012. Three are hybrid detectors using a GEM (Gas Electron Multiplier) foil as a preamplification stage to reduce the discharge probability. The other is equipped with a so called “buried resistors” resistive structure allowing to strongly reduce the discharge amplitude. Their performances are presented in this thesis. The impact of these results on the production and implementation of the final series of detectors is also discussed. Quark fragmentation functions into hadrons describe the hadronisation of a quark of flavor q into a hadron h. These universal functions take part in the cross-section expression of several processes. They can be accessed at COMPASS via semi-inclusive deep inelastic scattering of muons off nucleons. The relevant observables for fragmentation function extraction are hadron multiplicities, corresponding to the mean number of hadrons produced per deep inelastic scattering event. Vector mesons produced by a diffractive process can decay into pions and kaons. As such processes do not involve quark hadronisation, they should a priori be excluded from multiplicity measurements. This work presents a Monte-Carlo study of the impact of diffractive rho and phi production on light hadrons and inclusive events yields. Multiplicity correction factors are finally established. The effect of this correction on the extraction of pion fragmentation functions is also discussed.

Page generated in 0.0484 seconds