• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 59
  • 33
  • Tagged with
  • 240
  • 240
  • 127
  • 123
  • 50
  • 48
  • 32
  • 28
  • 27
  • 26
  • 23
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Optimisation d’une mission spatiale CMB de 4eme génération / Optimization of a 4th generation CMB space mission

Banerji, Ranajoy 21 September 2017 (has links)
Le rayonnement du Fond Diffus Cosmologique est une source riche et propre d’informations cosmologiques. L’étude du CMB au cours des dernières décennies a conduit à la mise en place d’un modèle standard pour la cosmologie et a permis de mesurer précisément ses principaux paramètres. Il a également transformé le domaine, en le basant davantage sur les données observationnelles et les approches numériques et statistiques.A l’heure actuelle, l’inflation est le principal paradigme décrivant les premiers moments de notre Univers. Elle prédit la génération de fluctuations de la densité de matière primordiale et des ondes gravitationnelles. Le signal de polarisation du CMB porte la signature de ces ondes gravitationnelles sous la forme de modes-B primordiaux. Une future génération de missions spatiale d’observation de la polarisation du CMB est bien adaptée à l’observation de cette signature de l’inflation.Cette thèse se concentre sur l’optimisation d’une future mission spatiale CMB qui observera le signal en modes-B pour atteindre une sensibilité de r = 0,001. Plus précisément, j’étudie la stratégie d’observation et l’impact des effets systématiques sur la qualité de la mesure de polarisation / The Cosmic Microwave Background radiation is a rich and clean source of Cosmological information. Study of the CMB over the past few decades has led to the establishment of a “Standard Model” for Cosmology and constrained many of its principal parameters. It hasalso transformed the field into a highly data-driven domain.Currently, Inflation is the leading paradigm describing the earliest moments of our Universe. It predicts the generation of primordial matter density fluctuations and gravitational waves. The CMB polarisation carries the signature of these gravitational waves in the form of primordial “B-modes”. A future generation of CMB polarisation space mission is well suited to observe this signature of Inflation.This thesis focuses on optimising a future CMB space mission that will observe the B-modesignal for reaching a sensitivity of r = 0.001. Specifically, I study the optimisation of the scanning strategy and the impact of systematics on the quality of polarisation measurement
172

Méthodologie d'analyse du centre de gravité de normes internationales publiées : une démarche innovante de recommandation. / Methodology for center of gravity analysis of published international standards : an innovative approach

Peoples, Bruce E. 08 April 2016 (has links)
.../... / “Standards make a positive contribution to the world we live in. They facilitate trade, spreadknowledge, disseminate innovative advances in technology, and share good management andconformity assessment practices”7. There are a multitude of standard and standard consortiaorganizations producing market relevant standards, specifications, and technical reports in thedomain of Information Communication Technology (ICT). With the number of ICT relatedstandards and specifications numbering in the thousands, it is not readily apparent to users howthese standards inter-relate to form the basis of technical interoperability. There is a need todevelop and document a process to identify how standards inter-relate to form a basis ofinteroperability in multiple contexts; at a general horizontal technology level that covers alldomains, and within specific vertical technology domains and sub-domains. By analyzing whichstandards inter-relate through normative referencing, key standards can be identified as technicalcenters of gravity, allowing identification of specific standards that are required for thesuccessful implementation of standards that normatively reference them, and form a basis forinteroperability across horizontal and vertical technology domains. This Thesis focuses on defining a methodology to analyze ICT standards to identifynormatively referenced standards that form technical centers of gravity utilizing Data Mining(DM) and Social Network Analysis (SNA) graph technologies as a basis of analysis. As a proofof concept, the methodology focuses on the published International Standards (IS) published bythe International Organization of Standards/International Electrotechnical Committee; JointTechnical Committee 1, Sub-committee 36 Learning Education, and Training (ISO/IEC JTC1 SC36). The process is designed to be scalable for larger document sets within ISO/IEC JTC1 that covers all JTC1 Sub-Committees, and possibly other Standard Development Organizations(SDOs).Chapter 1 provides a review of literature of previous standard analysis projects and analysisof components used in this Thesis, such as data mining and graph theory. Identification of adataset for testing the developed methodology containing published International Standardsneeded for analysis and form specific technology domains and sub-domains is the focus ofChapter 2. Chapter 3 describes the specific methodology developed to analyze publishedInternational Standards documents, and to create and analyze the graphs to identify technicalcenters of gravity. Chapter 4 presents analysis of data which identifies technical center of gravitystandards for ICT learning, education, and training standards produced in ISO/IEC JTC1 SC 36.Conclusions of the analysis are contained in Chapter 5. Recommendations for further researchusing the output of the developed methodology are contained in Chapter 6.
173

Optimisation des techniques de compression d'images fixes et de vidéo en vue de la caractérisation des matériaux : applications à la mécanique / Optimization of compression techniques for still images and video for characterization of materials : mechanical applications

Eseholi, Tarek Saad Omar 17 December 2018 (has links)
Cette thèse porte sur l’optimisation des techniques de compression d'images fixes et de vidéos en vue de la caractérisation des matériaux pour des applications dans le domaine de la mécanique, et s’inscrit dans le cadre du projet de recherche MEgABIt (MEchAnic Big Images Technology) soutenu par l’Université Polytechnique Hauts-de-France. L’objectif scientifique du projet MEgABIt est d’investiguer dans l’aptitude à compresser de gros volumes de flux de données issues d’instrumentation mécanique de déformations à grands volumes tant spatiaux que fréquentiels. Nous proposons de concevoir des algorithmes originaux de traitement dans l’espace compressé afin de rendre possible au niveau calculatoire l’évaluation des paramètres mécaniques, tout en préservant le maximum d’informations fournis par les systèmes d’acquisitions (imagerie à grande vitesse, tomographie 3D). La compression pertinente de la mesure de déformation des matériaux en haute définition et en grande dynamique doit permettre le calcul optimal de paramètres morpho-mécaniques sans entraîner la perte des caractéristiques essentielles du contenu des images de surface mécaniques, ce qui pourrait conduire à une analyse ou une classification erronée. Dans cette thèse, nous utilisons le standard HEVC (High Efficiency Video Coding) à la pointe des technologies de compression actuelles avant l'analyse, la classification ou le traitement permettant l'évaluation des paramètres mécaniques. Nous avons tout d’abord quantifié l’impact de la compression des séquences vidéos issues d’une caméra ultra-rapide. Les résultats expérimentaux obtenus ont montré que des taux de compression allant jusque 100 :1 pouvaient être appliqués sans dégradation significative de la réponse mécanique de surface du matériau mesurée par l’outil d’analyse VIC-2D. Finalement, nous avons développé une méthode de classification originale dans le domaine compressé d’une base d’images de topographie de surface. Le descripteur d'image topographique est obtenu à partir des modes de prédiction calculés par la prédiction intra-image appliquée lors de la compression sans pertes HEVC des images. La machine à vecteurs de support (SVM) a également été introduite pour renforcer les performances du système proposé. Les résultats expérimentaux montrent que le classificateur dans le domaine compressé est robuste pour la classification de nos six catégories de topographies mécaniques différentes basées sur des méthodologies d'analyse simples ou multi-échelles, pour des taux de compression sans perte obtenus allant jusque 6: 1 en fonction de la complexité de l'image. Nous avons également évalué les effets des types de filtrage de surface (filtres passe-haut, passe-bas et passe-bande) et de l'échelle d'analyse sur l'efficacité du classifieur proposé. La grande échelle des composantes haute fréquence du profil de surface est la mieux appropriée pour classer notre base d’images topographiques avec une précision atteignant 96%. / This PhD. thesis focuses on the optimization of fixed image and video compression techniques for the characterization of materials in mechanical science applications, and it constitutes a part of MEgABIt (MEchAnic Big Images Technology) research project supported by the Polytechnic University Hauts-de-France (UPHF). The scientific objective of the MEgABIt project is to investigate the ability to compress large volumes of data flows from mechanical instrumentation of deformations with large volumes both in the spatial and frequency domain. We propose to design original processing algorithms for data processing in the compressed domain in order to make possible at the computational level the evaluation of the mechanical parameters, while preserving the maximum of information provided by the acquisitions systems (high-speed imaging, tomography 3D). In order to be relevant image compression should allow the optimal computation of morpho-mechanical parameters without causing the loss of the essential characteristics of the contents of the mechanical surface images, which could lead to wrong analysis or classification. In this thesis, we use the state-of-the-art HEVC standard prior to image analysis, classification or storage processing in order to make the evaluation of the mechanical parameters possible at the computational level. We first quantify the impact of compression of video sequences from a high-speed camera. The experimental results obtained show that compression ratios up to 100: 1 could be applied without significant degradation of the mechanical surface response of the material measured by the VIC-2D analysis tool. Then, we develop an original classification method in the compressed domain of a surface topography database. The topographical image descriptor is obtained from the prediction modes calculated by intra-image prediction applied during the lossless HEVC compression of the images. The Support vector machine (SVM) is also introduced for strengthening the performance of the proposed system. Experimental results show that the compressed-domain topographies classifier is robust for classifying the six different mechanical topographies either based on single or multi-scale analyzing methodologies. The achieved lossless compression ratios up to 6:1 depend on image complexity. We evaluate the effects of surface filtering types (high-pass, low-pass, and band-pass filter) and the scale of analysis on the efficiency of the proposed compressed-domain classifier. We verify that the high analysis scale of high-frequency components of the surface profile is more appropriate for classifying our surface topographies with accuracy of 96 %.
174

Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'informations changeant au cours du temps

Kassab, Randa 11 May 2009 (has links) (PDF)
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps.<br /><br />L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données. <br /><br />Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples.
175

Contributions à la statistique des processus et à l'estimation fonctionnelle

Rachdi, Mustapha 07 November 2006 (has links) (PDF)
Dans cette HDR, notre objectif premier est de présenter nos travaux sur la statistique non paramétrique des processus stochastiques et sur l'estimation fonctionnelle. Plutôt que de vouloir insister sur les détails mathématiques de nos résultats, que l'on pourra toujours retrouver dans les articles correspondants, nous avons choisi de les présenter d'une façon synthétique. Sans prétendre à l'exhaustivité, nous nous sommes attachés à indiquer les articles historiques et à faire un choix de certains articles nous paraîssant les plus intéressants. Les techniques non paramétriques ont pris une importance de plus en plus grande depuis une trentaine d'années dans la recherche en statistique mathématique. Le nombre toujours croissant d'articles sur ce thème en témoigne. Il faut également signaler que le développement des moyens informatiques et la puissance actuelle de calcul des ordinateurs permettent d'élargir toujours plus le champs d'application de ces méthodes. Ce document est organisé en respectant des thématiques. En fait, nous avons classifié l'ensemble de nos travaux en six chapitres. Dans chacun de ces chapitres, nous indiquons les travaux concernés avant un bref historique, ensuite nous résumons les principaux résultats, les idées sous-jacentes, et ce qui a motivé ce travail. Nous scindons nos recherches en deux grandes parties : d'abord, l'estimation fonctionnelle et la statistique des processus en dimension finie (chapitres 1, 2, 3 et 4), et puis, l'analyse statistique des données fonctionnelles (chapitre 5). Le dernier chapitre de ce mémoire est le fruit de nos investigations avec l'équipe de Telecom Lille 1 sur la modélisation statistique du canal de transmission à 60 GHz dans les milieux confinés.
176

Sections efficaces de production de pions et de kaons lors de collisions proton-noyau de l'ordre du GeV.<br />Mesures de sections efficaces de production de particules chargées légères lors de réactions induites par protons de 62,9 MeV sur cible de plomb.

Guertin, A. 22 October 2001 (has links) (PDF)
I - Sections efficaces de production de pions et de kaons<br />lors de collisions proton noyau de l'ordre du GeV<br /><br />L'étude des propriétés des hadrons dans la matière nucléaire est un sujet d'intérêt actuel. Les kaons chargés positivement possèdent un anti-quark étrange qui ne peut pas être réabsorbé et constituent donc une sonde intéressante du milieu nucléaire.<br />La première partie de cette thèse étudie les sections efficaces de production de pions et de kaons lors de collisions proton noyau pour une énergie incidente de l'ordre du GeV.<br />Dans un premier temps, le modèle de Dynamique Quantique Moléculaire utilisé pour simuler les collisions proton noyau est décrit. Puis, les sections efficaces totales des processus élémentaires implémentées dans le modèle sont présentées. Ensuite, les effets de la fonction spectrale du nucléon sur la production de pions et de kaons sont mis en évidence dans les sections efficaces doublement différentielles. Finalement, les conséquences des corrélations observées entre les nucléons du noyau sont discutées.<br /><br />II - Mesures de sections efficaces de production de particules chargées légères<br />lors de réactions induites par protons de 62,9 MeV sur cible de plomb<br /><br />Pour développer des options nouvelles de gestion des déchets nucléaires, des recherches sont menées sur les systèmes hybrides. La seconde partie de cette thèse s'inscrit dans le cadre des mesures de données nucléaires liées à la conception de tels systèmes. Un pouvoir prédictif suffisant des codes théoriques, de 20 à 150 MeV, nécessite de nouvelles mesures de sections efficaces pour les contraindre.<br />L'expérience réalisée a pour but de déterminer les sections efficaces de production de particules chargées légères (p, d, t, 3He, a) lors de réactions induites par protons de 62,9 MeV sur une cible de plomb 208Pb.<br />Le contexte général de cette partie est présenté en premier lieu. Puis, le dispositif expérimental composé de 7 télescopes triple (Si, Si, CsI(Tl)) est décrit. Les chapitres suivants sont consacrés au dépouillement des données (identification des particules, étalonnage des détecteurs) et à l'extraction des sections efficaces. Finalement, une étude comparative de nos résultats expérimentaux à ceux des codes théoriques est menée.
177

Identifications croisées multi-longueurs d'ondes. Application aux populations stellaires des Nuages de Magellan et aux étoiles jeunes de notre Galaxie.

Delmotte, Nausicaa 07 November 2003 (has links) (PDF)
Cette thèse bénéficie de la mise à disposition publique récente des grands relevés infrarouges et visibles et s'inscrit dans le cadre de l'Observatoire Virtuel émergent. Nous avons réalisé un "Master Catalogue of stars towards the Magellanic Clouds" (MC2) basé sur l'identification croisée multi-longueur d'onde des catalogues de sources ponctuelles DENIS, 2MASS, GSC-II et UCAC. D'importants résultats sur la précision et la calibration astro-photométriques de ces catalogues ont été établis. Le MC2 est accessible en ligne au travers d'une interface web spécialement conçue pour gérer sa nature composite. Nous avons produit des vues multi-spectrales du GNM, où ses populations stellaires variées se distinguent de façon remarquable dans les diagrammes couleur-couleur et couleur-magnitude construits à partir de magnitudes à la fois visibles et infrarouges. Nous avons calibré les magnitudes absolues des étoiles de type B dans le proche-infrarouge, en fonction de leur type spectral. Nous avons combiné des mesures de distance de grande qualité basées sur les données Hipparcos avec la photométrie homogène des sources ponctuelles proche-infrarouges 2MASS. Les données ont été corrigées de l'extinction et nous avons évalué par le biais de simulations la contribution de divers erreurs de mesure et effets physiques (binarité, rotation) à la dispersion observée sur la calibration. C'est une étape nécessaire à la détermination de la structure du disque jeune Galactique et des distances et propriétés de jeunes amas ouverts découverts par les grands relevés infrarouges tels 2MASS. Nous avons commencé une analyse morphologique et multi-longueur d'onde de régions ionisées et de leurs étoiles dans le GNM, imagées en bande étroite. L'interaction réciproque des étoiles massives avec le milieu interstellaire environnant permet d'approfondir l'histoire de formation stellaire locale et le contenu stellaire de ces régions ainsi que d'obtenir un schéma de leur évolution dynamique.
178

Analyse et modélisation de données probabilistes par décomposition de mélange de copules et application à une base de données climatologiques

Vrac, Mathieu 06 December 2002 (has links) (PDF)
Nous étendons les méthodes de décomposition de mélange de densités de probabilité au cas des données "fonctions de répartition", permettant ainsi de classifier ces fonctions et de modéliser une loi pour ces données fonctionnelles particulières. Cette loi est donnée par la notion de "fonctions de distribution de distributions" (FDD), basée sur la définition d'une fonction de répartition pour des variables aléatoires à valeurs dans un espace probabiliste. Les extensions sont effectuées en associant les FDD aux fonctions "copules" par le théorème de Sklar. Les copules "couplent" les fonctions de répartition à n dimensions (jointes) et à 1-dimension (marginales) d'un n-uplet de variables aléatoires. Nous regardons principalement une classe de copules paramétriques, les copules Archimédiennes, et proposons trois nouvelles méthodes d'estimation des paramètres dans le cas de copules multivariées : par coefficients de corrélation de Kendall, de Spearman, et par maximisation de la vraisemblance. L'association des FDD et des copules caractérise l'évolution des données fonctionnelles (i.e. la forme de ces fonctions) entre différents points à l'intérieur des classes pour chaque variable, et donne une mesure de dépendance entre les variables utilisées. Les méthodes sont tout d'abord développées pour une variable, puis divers généralisations sont proposées pour n dimensions. Certains points théoriques sont ensuite discutés, tels que la convergence de l'algorithme et le fait que la méthode par copules est une généralisation du cas classique. Une application de la méthode "approche classification" par copules est réalisée sur des données climatiques de l'atmosphère terrestre. Le but est la classification de "profils" atmosphériques et l'estimation de la loi sous-jacente des données. Les résultats sont comparés avec ceux de méthodes "classiques", prouvant ainsi les performances nettement supérieures de la méthode par décomposition de mélange de copules (DMC) et l'intérêt de l'utilisation des données probabilistes.
179

Les déterminants de la trajectoire économique d'une pêcherie complexe : cas de la pêche française dans le golfe de Gascogne

Steinmetz, Fabien 04 March 2010 (has links) (PDF)
Le niveau trophique moyen des espèces débarquées par les flottilles françaises du Golfe de Gascogne a baissé depuis 30 ans suivant en cela les observations de Daniel Pauly au niveau mondial. Les effets des déterminants écosystémiques, institutionnels et économiques de cette baisse sont étudiés par deux approches complémentaires d'analyse de séries temporelles et d'interprétation des phénomènes grâce à un modèle bio-économique. Les grands facteurs susceptibles d'interagir avec l'exploitation de 1973 à nos jours ont été analysés. L'étude à court terme des productions et de la productivité de trois grandes flottilles de chalutiers sud bretonnes a montré que celles-ci s'adaptent selon leurs spécificités aux contraintes imposées par les stocks ou les prix. Dans le cadre plus global de l'analyse agrégée des débarquements provenant de la zone maritime du golfe ou de la façade de l'Atlantique Nord-est, on met en évidence les liens entre l'évolution de la structure des débarquements et celle des facteurs biologiques ou économiques, révélant notamment l'augmentation des débarquements d'espèces pélagiques. On observe qu'il existe un lien entre les prix des importations et celui des débarquements français, ce lien dépendant du type de marché de poisson étudié. Un modèle bio-économique, basé sur les hypothèses de Gordon Schaefer élargies à un système proie prédateur ou de compétition, montre les effets à long terme produits par les changements du progrès technique, du type de régulation et du prix d'équilibre sur la structure des débarquements, certains d'entre eux expliquant le changement structurel des débarquements observé dans le Golfe.
180

Nouvelles limites sur la détection directe de la matière sombre avec l’expérience PICASSO

Piro, Marie-Cécile 06 1900 (has links)
Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses. / Astronomical and cosmological observations strongly suggest the presence of an exotic form of non-relativistic, non-baryonic matter that would represent 26% of the actual energy-matter content of the Universe. This so-called cold dark matter would be composed of Weakly Interactive Massive Particles (WIMP). PICASSO (Project In CAnada to Search for Supersymmetric Objects) aims to detect directly one of the dark matter candidates proposed in the framework of supersymmetric extensions of the standard model : the neutralino. The experiment is installed in the SNOLAB underground laboratory at Sudbury (Ontario) and uses superheated C4F10 droplets detectors, a variant of bubble chamber technique. Phase transitions in the superheated liquids are triggered by 19 F recoils caused by the elastic collision with neutralinos and create an acoustic signal which is recorded by piezoelectric sensors. This thesis presents recent progress in PICASSO leading to a substantially increased sensitivity in the search of neutralinos. New fabrication and purification procedures allowed a background reduction of about a factor 10 of the major detectors contamination caused by alpha emitters. Detailed studies allowed to localize these emitters in the detectors. In addition, data analysis efforts were able to improve substantially the discrimination between alpha particle induced events and those created by nuclear recoils. New analysis tools were also developed in order to discriminate between particle induced and non-particle induced events, such as electronic backgrounds and acoustic noise signals. An important new background suppression mechanism at higher temperatures led to the present improved sensitivity of PICASSO at low WIMP masses.

Page generated in 0.0631 seconds