• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 153
  • 37
  • 25
  • 13
  • 12
  • 6
  • 5
  • 5
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 303
  • 70
  • 48
  • 47
  • 45
  • 44
  • 44
  • 39
  • 36
  • 33
  • 31
  • 30
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Etude de la fragmentation lors de la réaction 12C+12C à 95 MeV/n et 400MeV/n dans le cadre de la hadronthérapie

Juliani, Didier 11 September 2013 (has links) (PDF)
La hadronthérapie est une méthode de radiothérapie utilisant des ions (ici le carbone) comme faisceau plutôt que des rayons X plus conventionnels pour le traitement des cancers. Étant donné le parcours spécifique des ions dans la matière, ils permettent de traiter des tumeurs profondes dans des zones délicates telles que le cerveau par exemple. Ceci est complémentaire à tout ce qui existe depuis des dizaines d'années (intervention chirurgicale, rayons X, chimiothérapie). Deux futurs centres de traitement et de recherche (ARCHADE à Caen et ETOILE à Lyon) seront opérationnels en France à partir de 2018 en ce qui concerne ARCHADE afin de profiter des avancées récentes et de poursuivre les recherches sur cette méthode. La perte d'énergie des ions carbone dans la matière suit la loi de Bethe-Bloch, le maximum de dépôt d'énergie se situant dans une zone restreinte appelée " pic de Bragg ". En modulant la position et l'énergie du faisceau, il est possible d'irradier l'ensemble du volume de la tumeur. Cependant, les réactions nucléaires de l'ion carbone dans les tissus entrainent la production de fragments plus légers (H, He, Li etc.) qui déposent leur énergie au-delà du pic de Bragg. Les modèles implémentés dans les codes de simulation couramment utilisés en hadronthérapie (FLUKA, GEANT4 etc.) sont incapables de reproduire en même temps les distributions angulaires des fragments générés ainsi que les distributions en énergie. Le fait de ne pas reproduire fidèlement ce phénomène de fragmentation nuit à la précision des systèmes de planification de traitement utilisés cliniquement. En effet, une mauvaise estimation du processus de fragmentation entraine un biais dans le calcul de la dose déposée dans les cellules saines en arrière du pic de Bragg. Ainsi, afin de mieux contraindre les modèles, deux expériences de mesure de sections efficaces de fragmentation du carbone ont été menées. La première en mai 2011 avec un faisceau à 95MeV/n au GANIL à CAEN avec les collaborateurs du LPC Caen et la seconde en août 2011 avec un faisceau à 400 MeV/n au GSI à Darmstadt, avec la collaboration FIRST. L'expérience E600 étudie la fragmentation des ions du faisceau de carbone à 95 MeV/n dans différentes cibles minces (Au, C, , Ti etc.) correspondant aux différents constituants élémentaires du corps humain. Les différents fragments sont détectés à l'aide de cinq télescopes. Chacun d'eux est constitué de 3 étages (2 détecteurs silicium et un scintillateur CsI) afin de faire des mesures de perte d'énergie et d'énergie totale permettant une identification par la méthode du ΔE-E. Ces télescopes étaient disposés sur des raquettes pilotées à distance afin de pouvoir modifier leur position angulaire par rapport à la position de la cible. Ainsi, les taux de production des différents fragments permettent de remonter aux sections efficaces de fragmentation doublement différentielles (en énergie et en angle). [...]
262

Spectrométrie de masse COINTOF : Conception et d'un analyseur à temps de vol et développement de la méthode d'analyse

Teyssier, Cécile 28 September 2012 (has links) (PDF)
Le Dispositif d'Irradiation d'Agrégats Moléculaires (DIAM) est conçu pour l'étude de mécanismes de dissociation résultant de l'interaction de nanosystèmes moléculaires avec des protons de 20-150 keV. Une technique originale de spectrométrie de masse appelée COINTOF (Correlated Ion and Neutral Time Of Flight) permet la mesure corrélée du temps de vol des fragments neutres et chargés issus de la dissociation d'un système moléculaire sélectionné en masse. Une stratégie de traitement des signaux a été développée afin de pouvoir distinguer des fragments proches en temps (< 1ns). Les données collectées sont structurées dans le logiciel ROOT® pour l'analyse statistique des corrélations. Le fonctionnement de la technique COINTOF est illustré par des expériences de dissociation induite par collision d'agrégats d'eau protonés sur une cible gazeuse. La méthodologie d'analyse des données est exposée à travers l'étude du canal de dissociation du trimère d'eau protoné produisant l'ion chargé H3O+ et deux molécules d'eau. La distribution de la différence de temps de vol entre les deux fragments neutres est mesurée, mettant en évidence une énergie libérée de quelques eV. En parallèle, un second spectromètre de masse à temps de vol adapté à l'évolution du dispositif a été développé. Il associe un temps de vol linéaire et un temps de vol orthogonal et intègre un détecteur à position (ligne à retard). Des simulations ont démontré les potentialités du nouvel analyseur. Enfin, des travaux ont été menés au laboratoire R.-J. A. Lévesque (Université de Montréal) portant sur les capacités d'imagerie de détecteurs à position multi-pixel de la collaboration MPX-ATLAS.
263

Meření CP narušení na experimentu Belle v rozpadech B0 → ŋcK0S metodou tzv. časové analýzy, optimalizace vrcholového detektoru pro expriment Belle II. / Measurement of Time-Dependent CP Violation in B0 → ŋcK0S at Belle Experiment, Optimization Studies of the Belle II Vertex Detector

Drásal, Zbyněk January 2014 (has links)
Title: Measurement of Time-Dependent CP Violation in B0 → ηcK0 S at Belle Experi- ment, Optimization Studies of the Belle II Vertex Detector Author: Zbyněk Drásal Department: Institute of Particle and Nuclear Physics Supervisor: Dr. Zdeněk Doležal, IPNP Supervisor's e-mail address: Zdenek.Dolezal@mff.cuni.cz Abstract: This doctoral thesis deals with two independent topics. In the first part we present a measurement of branching ratio(s) and time-dependent CP violation parame- ters in B0 (B± ) → ηcK0 S(K± ), ηc → p¯p. The values of CP violation parameters have been found as follows: sin 2φ1, denoted as an SCP parameter, equals: SCP = 0.68+0.38 −0.46±0.13syst, the direct CP violation parameter, denoted as an ACP , is: ACP = 0.00+0.23 −0.31 ± 0.08syst. These results have been obtained with the final data sample of 772×106 B ¯B pairs collected at Υ(4S) resonance with a Belle detector at the KEKB e+ e− asymmetric collider machine in Japan. In the second part, we present our approach to the Monte Carlo (MC) simula- tion of Belle II vertex detector and its response to high energy particles. Belle II represents an upgrade of current Belle experiment and its designed vertex detector will consist of 2 layers of Depfet pixel detectors (PXD) and 4 layers of double-sided silicon micro-strip detectors (SVD). The MC...
264

Algorithms For Geospatial Analysis Using Multi-Resolution Remote Sensing Data

Uttam Kumar, * 03 1900 (has links) (PDF)
Geospatial analysis involves application of statistical methods, algorithms and information retrieval techniques to geospatial data. It incorporates time into spatial databases and facilitates investigation of land cover (LC) dynamics through data, model, and analytics. LC dynamics induced by human and natural processes play a major role in global as well as regional scale patterns, which in turn influence weather and climate. Hence, understanding LC dynamics at the local / regional as well as at global levels is essential to evolve appropriate management strategies to mitigate the impacts of LC changes. This can be captured through the multi-resolution remote sensing (RS) data. However, with the advancements in sensor technologies, suitable algorithms and techniques are required for optimal integration of information from multi-resolution sensors which are cost effective while overcoming the possible data and methodological constraints. In this work, several per-pixel traditional and advanced classification techniques have been evaluated with the multi-resolution data along with the role of ancillary geographical data on the performance of classifiers. Techniques for linear and non-linear un-mixing, endmember variability and determination of spatial distribution of class components within a pixel have been applied and validated on multi-resolution data. Endmember estimation method is proposed and its performance is compared with manual, semi-automatic and fully automatic methods of endmember extraction. A novel technique - Hybrid Bayesian Classifier is developed for per pixel classification where the class prior probabilities are determined by un-mixing a low spatial-high spectral resolution multi-spectral data while posterior probabilities are determined from the training data obtained from ground, that are assigned to every pixel in a high spatial-low spectral resolution multi-spectral data in Bayesian classification. These techniques have been validated with multi-resolution data for various landscapes with varying altitudes. As a case study, spatial metrics and cellular automata based models applied for rapidly urbanising landscape with moderate altitude has been carried out.
265

Fully Convolutional Neural Networks for Pixel Classification in Historical Document Images

Stewart, Seth Andrew 01 October 2018 (has links)
We use a Fully Convolutional Neural Network (FCNN) to classify pixels in historical document images, enabling the extraction of high-quality, pixel-precise and semantically consistent layers of masked content. We also analyze a dataset of hand-labeled historical form images of unprecedented detail and complexity. The semantic categories we consider in this new dataset include handwriting, machine-printed text, dotted and solid lines, and stamps. Segmentation of document images into distinct layers allows handwriting, machine print, and other content to be processed and recognized discriminatively, and therefore more intelligently than might be possible with content-unaware methods. We show that an efficient FCNN with relatively few parameters can accurately segment documents having similar textural content when trained on a single representative pixel-labeled document image, even when layouts differ significantly. In contrast to the overwhelming majority of existing semantic segmentation approaches, we allow multiple labels to be predicted per pixel location, which allows for direct prediction and reconstruction of overlapped content. We perform an analysis of prevalent pixel-wise performance measures, and show that several popular performance measures can be manipulated adversarially, yielding arbitrarily high measures based on the type of bias used to generate the ground-truth. We propose a solution to the gaming problem by comparing absolute performance to an estimated human level of performance. We also present results on a recent international competition requiring the automatic annotation of billions of pixels, in which our method took first place.
266

Fully Convolutional Neural Networks for Pixel Classification in Historical Document Images

Stewart, Seth Andrew 01 October 2018 (has links)
We use a Fully Convolutional Neural Network (FCNN) to classify pixels in historical document images, enabling the extraction of high-quality, pixel-precise and semantically consistent layers of masked content. We also analyze a dataset of hand-labeled historical form images of unprecedented detail and complexity. The semantic categories we consider in this new dataset include handwriting, machine-printed text, dotted and solid lines, and stamps. Segmentation of document images into distinct layers allows handwriting, machine print, and other content to be processed and recognized discriminatively, and therefore more intelligently than might be possible with content-unaware methods. We show that an efficient FCNN with relatively few parameters can accurately segment documents having similar textural content when trained on a single representative pixel-labeled document image, even when layouts differ significantly. In contrast to the overwhelming majority of existing semantic segmentation approaches, we allow multiple labels to be predicted per pixel location, which allows for direct prediction and reconstruction of overlapped content. We perform an analysis of prevalent pixel-wise performance measures, and show that several popular performance measures can be manipulated adversarially, yielding arbitrarily high measures based on the type of bias used to generate the ground-truth. We propose a solution to the gaming problem by comparing absolute performance to an estimated human level of performance. We also present results on a recent international competition requiring the automatic annotation of billions of pixels, in which our method took first place.
267

Měření rychlosti vozidel pomocí stereo kamery / Vehicle Speed Measurement Using Stereo Camera Pair

Najman, Pavel January 2021 (has links)
Tato práce se snaží najít odpověď na otázku, zda je v současnosti možné autonomně měřit rychlost vozidel pomocí stereoskopické měřící metody s průměrnou chybou v rozmezí 1 km/h, maximální chybou v rozmezí 3 km/h a směrodatnou odchylkou v rozmezí 1 km/h. Tyto rozsahy chyb jsou založené na požadavcích organizace OIML, jejichž doporučení jsou základem metrologických legislativ mnoha zemí. Pro zodpovězení této otázky je zformulována hypotéza, která je následně testována. Metoda, která využívá stereo kameru pro měření rychlosti vozidel je navržena a experimentálně vyhodnocena. Výsledky pokusů ukazují, že navržená metoda překonává výsledky dosavadních metod. Průměrná chyba měření je přibližně 0.05 km/h, směrodatná odchylka chyby je menší než 0.20 km/h a maximální absolutní hodnota chyby je menší než 0.75 km/h. Tyto výsledky jsou v požadovaném rozmezí a potvrzují tedy testovanou hypotézu.
268

Modelování metod číslicového zpracování obrazu u digitální radiografie / Digital radiography- image processing simulation

Lamoš, Martin January 2010 (has links)
This paper describes a MATLAB application with the main purpose of the simulation of noise components and noise elimination methods of Digital Radiography. The main parts of simulator are the model of a scene, procedures for loading the noise components to image data and methods for image processing. Various methods are employed depending on the type of noise. Subtraction techniques are used for the elimination of structural noise. The physical noise suppression is obtained using several methods of cumulation and Pixel Shift is used to reduce motion artifacts caused by the existence of moving noise. The techniques of superposition highlight the areas of interest in an image. Included are also auxiliary procedures for simulator running and presentation of final data. The model and the presented application can be used mainly for educational purposes as a powerful didactic tool.
269

Etude expérimentale de l'atomisation de structures ligamentaires viscoélastiques. / Experimental study of atomization of viscoelastic ligamentary structures

Tirel, Christophe 02 April 2019 (has links)
Ce travail traite de l’atomisation des structures ligamentaires. Cette étude est focalisée sur les ligaments produits par des jets libres de solutions viscoélastiques diluées. La description multi-échelles est utilisée pour étudier les dynamiques d’amincissement de ces ligaments. La description multi-échelles d’un système liquide est initialement présentée : elle décrit le système à travers sa distribution d’échelles. Cette description est appliquée à des ensembles théoriques ainsi qu’à des systèmes modélisant les ligaments étudiés, améliorant la compréhension de cet outil de description. De nouvelles méthodes sont utilisées pour mesurer les distributions d’échelles : méthode de segmentation d’images sub-pixels et méthode de Monte-Carlo. Leur combinaison apporte une amélioration notable aux petites échelles et permettent une mesure des distributions d’échelles 3D. Ce résultat incite à revisiter les études antérieures où la description multi-échelles a été utilisée. A notre connaissance, c’est la première fois qu’une étude sur les jets libres de solutions viscoélastiques diluées est réalisée de manière statistique. L’influence de trois paramètres est étudiée : la concentration en polymère de la solution, les dimensions de la buse d’injection et le débit d’injection. Basé sur les résultats donnés par la description multi-échelles, un protocole d’identification des régimes d’amincissement des ligaments est présenté. Les caractéristiques de ces régimes sont mesurées, en particulier le temps de relaxation de la solution. Les temps mesurés sont compris entre 24 μs et 6,3 ms, ce qui est en accord avec les temps de relaxation mesurés dans la littérature pour les jets. L’approche multi-échelles confirme ici sa pertinence pour l’étude des processus d’atomisation. Les temps de relaxation mesurés présentent une forte corrélation vis-à-vis du taux de déformation subit par la solution durant l’injection. Ce résultat indique que la solution a subi une dégradation mécanique. Il convient de tenir compte de l’étape d’injection lorsque l’on souhaite atomiser de telles solutions viscoélastiques diluées. / This work concern the atomization of ligament structures. This study focuses on ligaments produced by free jets of dilute viscoelastic solutions. The multi-scale description is used to study the thinning dynamics of these ligaments. The multi-scale description of a liquid system is initially presented: it describes the system through its scale distribution. This description is applied to theoretical systems as well as to systems modelling the ligaments studied, improving the understanding of this description tool. New methods are used to measure the scale distributions: sub-pixel image segmentation method and Monte-Carlo method. Their combination provides a significant improvement at small scales and allows a measurement of 3D scale distributions. This result prompts us to revisit previous studies where the multi-scale description was used. To our knowledge, this is the first time that a study on free jets of dilute viscoelastic solutions has been carried out statistically. The influence of three parameters is studied: the polymer concentration of the solution, the dimensions of the injection nozzle and the injection flow rate. Based on the results of the multi-scale description, a protocol for identifying ligament thinning regimes is presented. The characteristics of these regimes are measured, in particular the relaxation time of the solution. The measured times are between 24 μs and 6.3 ms, which is in accordance with the relaxation times measured in the literature for jets. The multi-scale approach here confirms its relevance for the study of atomization processes. The measured relaxation times show a strong correlation with the deformation rate of the solution during injection. This result indicates that the solution has undergone mechanical degradation. The injection step should be taken into account when atomizing such dilute viscoelastic solutions.
270

Contribution to the construction of the Insertable B-Layer of ATLAS for high luminosity upgrade and Research for invisible Higgs / Contribution a la construction du detecteur interne d’ATLAS pour la phase haute luminosité et Recherche de boson de Higgs en mode invisible

Bassalat, Ahmed 16 December 2015 (has links)
Pour la deuxième période de prise des données du LHC (Run 2) de 2015 - 2022, une quatrième couche de senseurs pixels a été installée dans le détecteur de l’existence ATLAS sur un tube de faisceau de plus petit diamètre afin d’ajouter de la redondance pour améliorer la reconstruction des trajectoires des particules chargées. Ce détecteur du pixel permettra d’assurer un suivi de la qualité de l’étiquetage des mesons b haute luminosité (b-tagging). Au cours des deux dernières années plusieurs composants ont été produits et assemblés sur des structures de soutien appelées échelles. Au total, 20 échelles ont été construites et qualifiées en cardere d’un procédé d’assurance qualité définie par ATLAS au CERN. Quatorze échelles ont été intégrées sur le tube de faisceau. Ceci constitue la première partie de la thèse dédiée à la partie construction du détecteur. La deuxième partie est consacrée à la recherche de boson de Higgs issu de collisions proton proton l’énergie du 8 TeV centre de masse de, se désintégrant en particules invisibles une luminosité integrée de 20.3 fb−1 enregistrées par le détecteur ATLAS au LHC. Les résultats sont interprétés dans les modèles de matière noire Higgs portail(Higgs portal Dark Matter). / For Run 2 of the LHC a fourth, innermost Pixel Detector layer on a smaller radius beampipe has been installed in the ATLAS Detector to add redundancy against radiation damage ofthe current Pixel Detector and to ensure a high quality tracking and b-tagging performance ofthe Inner Detector over the coming years until the High Luminosity Upgrade. State of the artcomponents have been produced and assembled onto support structures known as staves overthe last two years. In total, 20 staves have been built and qualified in a designated QualityAssurance setup at CERN of which 14 have been integrated onto the beam pipe. In the secondpart, A search for a Higgs boson produced via vector-boson fusion and decaying into invisibleparticles is discussed, using 20.3 fb−1 of proton proton collision data at the centre of massenergy of 8 TeV recorded by the ATLAS detector at the LHC. For a Higgs boson with a massof 125 GeV, assuming the Standard Model production cross section, an upper bound of 0.28is set on the branching fraction of H →invisible at 90% confidence level, where the expectedupper limit is 0.31. The results are interpreted in model of Higgs portal dark matter where thebranching fraction limit is converted into upper bounds on the dark matter nucleon scatteringcross section as a function of the dark matter particle mass, and compared to results from thedirect dark matter detection experiments.

Page generated in 0.0342 seconds