Spelling suggestions: "subject:"spectral""
101 |
Cohérence temporelle des photons uniques émis par un nanocristal individuel de CdSe/ZnSCoolen, Laurent 08 December 2006 (has links) (PDF)
Cette thése décrit une expérience d'interférométrie de Michelson réalisée pour mesurer la cohérence temporelle de l'émission d'un nanocristal individuel cœur/coquille de CdSe/ZnS. La difficulté d'une telle mesure réside dans la diffusion rapide (0,1 ms) de leur raie d'émission qui élargit le spectre mesuré habituellement. Nous introduisons, dans une description de l'expérience par un formalisme quantique, une méthode baptisée spectroscopie de Fourier à corrélation de photons (PCFS), reposant sur la mesure des corrélations aux temps courts entre les intensités détectées aux sorties de l'interféromètre. Contrairement aux méthodes spectroscopiques standard, la PCFS associe une bonne résolution temporelle à une bonne résolution spectrale (qui est calculée théoriquement en détail). Ceci nous permet d'étudier des nanocristaux individuels, à 300, 20 et 10 K, et de caractériser à la fois leur largeur spectrale et leur diffusion spectrale. Nous mesurons une largeur spectrale de 6,5 micro-eV (soit un temps de cohérence de 200 ps), meilleure de presque deux ordres de grandeur que les largeurs mesurées par spectroscopie d'un nanocristal individuel (0,1-1 meV).
|
102 |
Caractérisation de la source laser du détecteur d'ondes gravitationnelles VIRGOTrinquet, Hervé 27 January 2003 (has links) (PDF)
La source laser pour le détecteur d'ondes gravitationnelles VIRGO a été conçue pour délivrer un faisceau stable, continu, mono mode de 20 W à 1.064 μm. Je rappelle dans un premier temps les principales contraintes auxquelles doit répondre la source laser. Je décris ensuite l'architecture du système et les techniques utilisées pour stabiliser le faisceau. Enfin je donne les principales performances obtenues jusqu'en juillet 2002 : puissance de 2.7W avec un niveau de stabilité en fréquence de 500 Hz rms pour un cycle utile de plus de 90%. Dans un second temps, j'étudie les principales sources de bruits et les processus de couplages pouvant expliquer le manque de stabilité du système. Je montre ainsi que le contrôle local utilisé contribue à augmenter le bruit de fréquence et de puissance jusqu'à 10 Hz. Des résonances mécaniques sont identifiées entre 10 Hz et 1 kHz. Ainsi la simplification de l'un des bancs devrait permettre au système de respecter les contraintes.
|
103 |
Modélisation et étude des propriétés optiques des nanotubes de carbones delling and study of optical properties of carbon nanotubes /Ricaud, Benjamin Cornean, Horia. Duclos, Pierre. January 2007 (has links)
Reproduction de : Thèse de doctorat : Physique Mathématique : Toulon : 2007. / Titre provenant du cadre-titre. Bibliographie p.197-198.
|
104 |
Intérêt des algorithmes de réduction de bruit dans l'implant cochléaire : Application à la binauralitéJeanvoine, Arnaud 17 December 2012 (has links) (PDF)
Les implants cochléaires sont des appareils destinés à la réhabilitationdes surdités profondes et totales. Ils assurent la stimulation du nerf auditif en plaçant des électrodes dans la cochlée. Différentes études ont été établis afin d'améliorer l'intelligibilité de la parole dans le bruit chez le patientporteur de cet appareil. Les techniques bilatérales et binaurales permettent dereproduire une audition binaurale, car les deux oreilles sont simulées (commepour les personnes normo-entendantes). Ainsi la localisation et la perceptiondes sons environnants sont améliorées par rapport à une implantationmonaurale. Toutefois, les capacit'es de reconnaissances des mots sont trèsvite limitées en pr'esence de bruits. Nous avons d'evelopp'es des techniquesde r'eduction de bruit afin d'augmenter les performances de reconnaissance.Des améliorations de 10% à 15% suivant les conditions ont été observées. Néanmoins, si la perception est améliorée par les algorithmes, ils focalisent sur une direction, et ainsi, la localisation est alors réduite à l'angle delocalisation. Une seconde étude a alors été effectuée pour mesurer l'effetdes algorithmes sur la localisation. Ainsi, le beamformer donne les meilleurs résultats de compréhension mais la moins bonne localisation. La ré-injectiond'un pourcentage du signal d'entrée sur la sortie a permis de compenser laperte de la localisation sans détériorer l'intelligibilité. Le résultat de ces deux expériences montre qu'il faut un compromis entre laperception et la localisation des sons pour obtenir les meilleures performances.
|
105 |
Électroencéphalographie, fonctions sensori-motrices et profil cognitif associés au trouble de comportement en sommeil paradoxalMassicotte-Marquez, Jessica January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
|
106 |
Développement des méthodes géophysiques électriques pour la caractérisation des sites et sols pollués aux hydrocarburesBlondel, Amélie 14 January 2014 (has links) (PDF)
La géophysique procure une vision d'ensemble du sous-sol sous forme de cartes et de coupes et apporte des informations précieuses sur la géologie et l'organisation du sous-sol. Bureau d'étude spécialise dans les diagnostics de sols et la recherche d'objets enterrés, Geoscope, partenaire de la thèse CIFRE, désire développer sa thématique géophysique appliquée aux sites et sols pollués. L'objectif est de localiser, de limiter et caractériser les zones polluées aux hydrocarbures. L'étude porte sur l'impact des pollutions hydrocarbonées sur la réponse géoélectrique, et plus spécifiquement sur la réponse en polarisation provoquée spectrale. Les mécanismes de polarisation, qui peuvent être modifiés par la présence d'hydrocarbures, interviennent sur des gammes de fréquences caractéristiques. La polarisation provoquée spectrale, qui mesure la réponse d'un milieu dans le domaine fréquentiel, apporte des informations plus précises que les autres méthodes géoélectriques qui fonctionnent dans le domaine temporel. Les effets de la présence d'hydrocarbures sont étudiés à différentes échelles : (i) à l'échelle du laboratoire, sur des milieux synthétiques afin d'appréhender les mécanismes de réponse (ii) à l'échelle de deux sites pollués afin de confronter les modèles développés en, laboratoire aux données réelles, d'apprécier les limites des méthodes et d'adapter les protocoles utilisés.
|
107 |
Localisation par vision multi-spectrale. Application aux systèmes embarquésGonzalez, Aurélien 08 July 2013 (has links) (PDF)
La problématique SLAM (Simultaneous Localization and Mapping) est un thème largement étudié au LAAS depuis plusieurs années. L'application visée concerne le développement d'un système d'aide au roulage sur aéroport des avions de ligne, ce système devant être opérationnel quelques soient les conditions météorologiques et de luminosité (projet SART financé par la DGE en partenariat avec principalement FLIR Systems, Latécoère et Thales). Lors de conditions de visibilité difficile (faible luminosité, brouillard, pluie...), une seule caméra traditionnelle n'est pas suffisante pour assurer la fonction de localisation. Dans un premier temps, on se propose d'étudier l'apport d'une caméra infrarouge thermique. Dans un deuxième temps, on s'intéressera à l'utilisation d'une centrale inertielle et d'un GPS dans l'algorithme de SLAM, la centrale aidant à la prédiction du mouvement, et le GPS à la correction des divergences éventuelles. Enfin, on intègrera dans ce même SLAM des pseudo-observations issues de l'appariement entre des segments extraits des images, et ces mêmes segments contenus dans une cartographie stockée dans une base de données. L'ensemble des observations et pseudo-observations a pour but de localiser le porteur à un mètre près. Les algorithmes devant être portés sur un FPGA muni d'un processeur de faible puissance par rapport aux PC standard (400 MHz), un co-design devra donc être effectué entre les éléments logiques du FPGA réalisant le traitement d'images à la volée et le processeur embarquant le filtre de Kalman étendu (EKF) pour le SLAM, de manière à garantir une application temps-réel à 30 Hz. Ces algorithmes spécialement développés pour le co-design et les systèmes embarqués avioniques seront testés sur la plate-forme robotique du LAAS, puis portés sur différentes cartes de développement (Virtex 5, Raspberry, PandaBoard...) en vue de l'évaluation des performances
|
108 |
The correlation of sedimentation processes and land-use through remote sensing : the case study of the Jequia Lagoon, Alagoas, Brazil /Ferreira, Heliene, January 2002 (has links)
Thèse (D.R.Min.) -- Université du Québec à Chicoutimi, 2001. / Bibliogr.: f. 237-249. Document électronique également accessible en format PDF. CaQCU
|
109 |
Analyse des effets atmosphériques dans les données en télédétection du moyen infrarouge sur la classification des minéraux de surface en milieu arideNadeau, Christian. January 2000 (has links)
Thèses (M.Sc.)--Université de Sherbrooke (Canada), 2000. / Titre de l'écran-titre (visionné le 17 juillet 2006). Publié aussi en version papier.
|
110 |
Line outage vulnerabilities of power systems : models and indicators / Modèles et indicateurs pour l'analyse des vulnérabilités des réseaux électriques aux pertes de lignesHa, Dinh Truc 06 March 2018 (has links)
La vulnérabilité des systèmes électriques est l'un des problèmes liés à leur complexité. Il a fait l’objet d’une attention croissante des chercheurs au cours des dernières décennies. Malgré cela, les phénomènes fondamentaux qui régissent la vulnérabilité du système ne sont pas encore bien compris.Comprendre comment la vulnérabilité des réseaux électriques émerge de leur topologie est la motivation principale du présent travail. Pour cela, le présent travail de recherché propose une nouvelle méthode pour évaluer la vulnérabilité des systèmes électriques et identifier leurs éléments les plus critiques. La méthode permet d’avoir une bonne compréhension des liens entre la topologie d’un réseau et sa vulnérabilité à des pertes d’ouvrages (lignes ou transformateurs).La première partie de ce travail consiste en une analyse critique des approches rencontrées dans la littérature, s’appuyant sur la théorie des graphes, pour analyser la vulnérabilité des réseaux électriques. Les résultats fournis par ces approches pour quatre réseaux IEEE sont comparés à ceux fournis par une analyse de contingence de référence, basée sur une résolution d’un load-flow AC. Des avantages et inconvénients de chaque approche est tirée une méthode améliorée pour l'évaluation de la vulnérabilité des réseaux électriques aux pertes d’ouvrage. Cette méthode est basée sur une approximation courant continue du load flow.La deuxième partie propose une nouvelle approche basée sur la théorie spectrale des graphes et son utilisation pour la résolution d’un load flow DC. Elle permet de mieux comprendre comment la vulnérabilité des réseaux électriques et leurs composants critiques émergent de la topologie du graphe sous-jacent au réseau. / The vulnerability of electrical systems is one of the problems related to their complexity. It has received increasing attention from researchers in recent decades. Despite this, the fundamental phenomena that govern the vulnerability of the system are still not well understood.Understanding how the vulnerability of power systems emerges from their complex organization is, therefore, the main motivation of the present work. It proposes the definition of a standard method to assess the vulnerability of power systems and identify their most critical elements. The method enables a better understanding of the links between the topology of the grid and the line outage vulnerabilities.The first part of this research work offers a critical review of literature approaches used to assess system vulnerability. The results provided by these approaches for four IEEE test systems are confronted to a reference contingency analysis using AC power flow calculations. From these analyses, pros and cons of each approach are outlined. An improved method for assessment of system vulnerability to line outages is defined from this confrontation. It is based on DC load flow and graph theory.The second part proposes a new approach based on spectral graph theory and solving of DC power flow to identify how system vulnerability and critical components emerge from the power network topology.
|
Page generated in 0.0587 seconds