Spelling suggestions: "subject:"matière condensée"" "subject:"matière condensées""
521 |
Polarization stereoscopic imaging prototypeIqbal, Mohammad 02 November 2011 (has links) (PDF)
The polarization of light was introduced last ten years ago in the field of imaging system is a physical phenomenon that can be controlled for the purposes of the vision system. As that found in the human eyes, in general the imaging sensors are not under construction which is sensitive to the polarization of light. These properties can be measured by adding optical components on a conventional camera. The purpose of this thesis is to develop an imaging system that is sensitive both to the stereoscopic and to the state of polarization. As well as the visual system on a various of insects in nature such as bees, that are have capability to move in space by extracted relevant information from the polarization. The developed prototype should be possible to reconstruct threedimensional of points of interest with the issues associated with a set of parameters of the state of polarization. The proposed system consists of two cameras, each camera equipped with liquid crystal components to obtain two images with different directions of polarization. For each acquisition, four images are acquired: two for each camera. Raised by the key of main capability to return polarization information from two different cameras. After an initial calibration step; geometric and photometric, the mapping of points of interest process is made difficult because of the optical components placed in front of different lenses. A detailed study of different methods of mapping was used to select sensitivity to the polarization effects. Once points are mapped, the polarization parameters of each point are calculated from the four values from four images acquired. The results on real scenes show the feasibility and desirability of this imaging system for robotic applications.
|
522 |
Etude des J/psi dans le canal dimuon du spectromètre de l'expérience ALICE auprès du LHC dans les collisions proton+proton à sqrt(s) = 7 TeVBoyer, Bruno 21 October 2011 (has links) (PDF)
La densité epsilon0 de la matière nucléaire ordinaire est de l'ordre de 0,17 GeV/fm^3 . Lorsqu' elle atteint une densité comprise entre 5 à 10 epsilon0 ou une température comprise entre 150 à 200 MeV, une transition de phase, prédite par la ChromoDynamique Quantique sur réseau, vers un nouvel état de la matière se produit. Cet état dans lequel les quarks et les gluons sont déconfinés et peuvent se mouvoir librement est appelé Plasma de Quarks et de Gluons (PQG). Les collisions d'ions lourds ultra-relativistes au Large Hadron Collider (LHC) permettront de recréer les conditions de formation d'un tel état. L'étude du PQG au LHC se fera essentiellement avec l'expérience ALICE (A Large Ion Collider Experiment) dont le spectromètre à muons est conçu pour observer dans le canal muonique, sur un domaine de pseudo-rapidité -4 < eta < -2.5, la suppression des résonances lourdes (J/psi,Upsilon) par écrantage de couleur à travers leurs décroissance en muons.La première partie de ce travail porte sur les corrections d'acceptance et d'efficacité qui sont indispensables pour les analyses de physique. Cette étude a montré que le processus de correction est indépendant des distributions choisies.La seconde partie de cette thèse porte sur l'analyse du J/psi dans les collisions proton+proton à sqrt(s) = 7 TeV.
|
523 |
Tests phénoménologiques de la chromodynamique quantique perturbative à haute énergie au LHCDucloué, Bertrand 08 July 2014 (has links) (PDF)
Dans la limite des hautes énergies, la petite valeur de la constante de couplage de l'interaction forte peut être compensée par l'apparition de grands logarithmes de l'énergie dans le centre de masse. Toutes ces contributions peuvent être du même ordre de grandeur et sont resommées par l'équation de Balitsky-Fadin-Kuraev-Lipatov (BFKL). De nombreux processus ont été proposés pour étudier cette dynamique. L'un des plus prometteurs, proposé par Mueller et Navelet, est l'étude de la production de deux jets vers l'avant séparés par un grand intervalle en rapidité dans les collisions de hadrons. Un calcul BFKL ne prenant en compte que les termes dominants (approximation des logarithmes dominants ou LL) prédit une augmentation rapide de la section efficace avec l'augmentation de l'intervalle en rapidité entre les jets ainsi qu'une faible corrélation angulaire. Cependant, des calculs basés sur cette approximation ne purent pas décrire correctement les mesures expérimentales de ces observables au Tevatron. Dans cette thèse, nous étudions ce processus à l'ordre des logarithmes sous-dominants, ou NLL, en prenant en compte les corrections NLL aux facteurs d'impact, qui décrivent la transition d'un hadron initial vers un jet, et à la fonction de Green, qui décrit le couplage entre les facteurs d'impact. Nous étudions l'importance de ces corrections NLL et trouvons qu'elles sont très importantes, ce qui conduit à des résultats très différents de ceux obtenus à l'ordre des logarithmes dominants. De plus, ces résultats dépendent fortement du choix des échelles présentes dans ce processus. Nous comparons nos résultats avec des données récentes de la collaboration CMS sur les corrélations angulaires des jets Mueller-Navelet au LHC et ne trouvons pas un bon accord. Nous montrons que cela peut être corrigé en utilisant la procédure de Brodsky-Lepage-Mackenzie pour fixer le choix de l'échelle de renormalisation. Cela conduit à des résultats plus stables et une très bonne description des données de CMS. Finalement, nous montrons que, à l'ordre des logarithmes sous-dominants, l'absence de conservation stricte de l'énergie-impulsion (qui est un effet négligé dans un calcul BFKL) devrait être un problème beaucoup moins important qu'à l'ordre des logarithmes dominants.
|
524 |
Modélisation et simulation numérique d'écoulements diphasiques pour la microfluidiquePrigent, Guillaume 24 January 2013 (has links) (PDF)
Ce travail de thèse est consacré à la modélisation et simulation numérique d'écoulements diphasiques liquide-gaz mettant en jeu des transferts de chaleur. La simulation de configurations où la prise en compte des effets de compressibilité de la phase gazeuse est indispensable (micropompes, microactionneurs, etc...) a nécessité l'utilisation d'un modèle original, considérant le liquide incompressible et le gaz compressible sous l'hypothèse faible Mach. Lors de cette thèse, ce modèle a été implémenté dans un code diphasique prenant en compte l'interface à l'aide d'une méthode de front-tracking. Des cas tests ont été développés spécifiquement afin de vérifier la conservation de l'énergie pour des configurations de complexité croissante. Les résultats des cas tests ont permis de mettre en évidence la difficulté à assurer la conservation de l'énergie lorsque l'interface n'est pas discontinue mais lissée, comme c'est le cas dans la méthode de front-tracking standard. Une méthode de traitement d'interface hybride a été proposée, rétablissant le caractère discontinu de l'interface avec la reconstruction d'une fonction indicatrice de phase échelon, tandis que le déplacement de l'interface est assuré d'un pas de temps à l'autre à l'aide du front-tracking. Les résultats obtenus avec cette nouvelle méthode hybride sont très satisfaisants, la méthode hybride permettant d'assurer la conservation de l'énergie et de la masse avec précision dans les simulations.
|
525 |
Etude théorique de nouveaux concepts de nano-transistors en graphèneBerrada, Salim 16 May 2014 (has links) (PDF)
Cette thèse porte sur l'étude théorique de nouveaux concepts de transistors en graphène par le formalisme des fonctions de Green dans l'hypothèse du transport balistique. Le graphène est un matériau bidimensionnel composé d'atomes de carbone organisés en nid d'abeille. Cette structure confère des propriétés uniques aux porteurs de charge dans le graphène, comme une masse effective nulle et un comportement ultra-relativiste (fermions de Dirac), ce qui conduit à des mobilités extraordinairement élevées. C'est pourquoi des efforts très importants ont été mis en œuvre dans la communauté scientifique pour la réalisation de transistors en graphène. Cependant, en vue de nombreuses applications, le graphène souffre de l'absence d'une bande d'énergie interdite. De plus, dans le cas des transistors conventionnels à base de graphène (GFET), cette absence de bande interdite, combinée avec l'apparition de l'effet tunnel de Klein, a pour effet de dégrader considérablement le rapport I_ON/I_OFF des GFET. L'absence de gap empêche également toute saturation du courant dans la branche N - là où se trouve le maximum de transconductance pour des sources et drain dopés N - et ne permet donc pas de tirer profit des très bonnes performances fréquentielles que le graphène est susceptible d'offrir grâce aux très hautes mobilités de ses porteurs. Cependant, de précédents travaux théorique et expérimentaux ont montré que la réalisation d'un super-réseau d'anti-dots dans la feuille de graphène - appelée Graphene NanoMesh (GNM) - permettait d'ouvrir une bande interdite dans le graphène. On s'est donc d'abord proposé d'étudier l'apport de l'introduction de ce type de structure pour former canal des transistors - appelés GNMFET - par rapport aux GFET " conventionnels ". La comparaison des résultats obtenus pour un GNM-FET avec un GFET de mêmes dimensions permettent d'affirmer que l'on peut améliorer le rapport I_ON/I_OFF de 3 ordres de grandeurs pour une taille et une périodicité adéquate des trous. Bien que l'introduction d'un réseau de trous réduise légèrement la fréquence de coupure intrinsèque f_T, il est remarquable de constater que la bonne saturation du courant dans la branche N, qui résulte de la présence de la bande interdite dans le GNM, conduit à une fréquence maximale d'oscillation f_max bien supérieure dans le GNM-FET. Le gain en tension dans ce dernier est aussi amélioré d'un ordre de grandeur de grandeur par rapport au GFET conventionnel. Bien que les résultats sur le GNM-FET soient très encourageants, l'introduction d'une bande interdite dans la feuille de graphène induit inévitablement une masse effective non nulle pour les porteurs, et donc une vitesse de groupe plus faible que dans le graphène intrinsèque. C'est pourquoi, en complément de ce travail, nous avons exploré la possibilité de moduler le courant dans un GFET sans ouvrir de bande interdite dans le graphène. La solution que nous avons proposée consiste à utiliser une grille triangulaire à la place d'une grille rectangulaire. Cette solution exploite les propriétés du type "optique géométrique" des fermions de Dirac dans le graphène, qui sont inhérentes à leur nature " Chirale ", pour moduler l'effet tunnel de Klein dans le transistor et bloquer plus efficacement le passage des porteurs dans la branche P quand le dopage des sources et drains sont de type N. C'est pourquoi nous avons choisi d'appeler ce transistor le " Klein Tunneling FET " (KTFET). Nous avons pu montrer que cette géométrie permettrait d'obtenir un courant I_off plus faible que ce qui est obtenu d'habitude, pour la même surface de grille, pour les GFET conventionnels. Cela offre la perspective d'une nouvelle approche de conception de dispositifs permettant d'exploiter pleinement le caractère de fermions de Dirac des porteurs de charges dans le graphène.
|
526 |
Mesure de la section efficace de l'électroproduction de photons à JLAB dans le but d'effectuer une Séparation Rosenbluth de la contribution DVCSMartí Jiménez-Argüello, Alejandro Miguel 11 July 2014 (has links) (PDF)
L'étude de la structure interne des hadrons nous permet de comprendre la nature des interactions entre les partons, les quarks et les gluons, décrites par la Chromodynamique Quantique. Les processus de diffusion élastique, qui ont été utilisés avec succès pour mesurer les facteurs de forme des nucléons, sont inclus dans ce cadre. Les processus inélastiques sont également inclus dans ce cadre, ils nous permettent d'extraire beaucoup d'information grâce au développement des distributions de partons (PDFs). Par conséquent, tandis que la diffusion élastique d'électrons par le nucléon nous fournit des informations sur la répartition des charges, et donc de la distribution spatiale des composants du nucléon, la diffusion inélastique présente des informations sur la distribution d'impulsions au moyen des PDFs. Cependant, dans les processus inélastiques, il est possible d'étudier les processus exclusifs tels que la Diffusion Compton Profondément Virtuelle (DVCS), qui nous permet d'accéder aux distributions spatiale et d'impulsions des quarks simultanément. Ceci est possible grâce aux fonctions généralisées des distributions de partons (GPDS), qui nous permettent de corréler les deux types de distributions. Le processus connu sous le nom DVCS est le moyen le plus facile pour accéder aux GPDS. Ce procédé implique la diffusion d'un électron par un proton, au moyen de l'échange d'un photon virtuel, qui entraîne la diffusion des particules initiales et l'émission d'un photon réel. Ce processus est en concurrence avec le processus dit Bethe-Heitler, dans lequel le photon réel est émis par l'électron initial ou final. En raison de la faible section efficace de ce type de procédé, de l'ordre du nb, il est nécessaire d'utiliser une installation capable de fournir une haute luminosité pour réaliser les expériences. L'une de ces installations est le Thomas Jefferson National Accelerator Facility, où l'expérience appelée "Complete Separation of Virtual Photon and π⁰ Electroproduction Observables of Unpolarized Proton" a été réalisée au cours de la période entre Octobre et Décembre de 2010. Le principal objectif de cette expérience est la séparation de la contribution du terme provenant du DVCS à partir du terme d'interférence, résultant de la contribution du BH. Cette séparation est appelée "Séparation Rosenbluth". Cette thèse porte sur le calorimètre électromagnétique qui a été utilisé pour détecter le photon dans l'expérience E07-007 à Jefferson Lab. Il y a aussi une introduction théorique à l'étude de la structure du nucléon, en révisant les concepts de facteurs de forme et des distributions de partons à travers des processus élastiques et inélastiques. Le calcul de la section efficace de la leptoproduction de photons est décrite en détail, ainsi que les buts de l'expérience E07-007. Dans cette thèse on décrit l'analyse des données enregistrées par le calorimètre électromagnétique, avec le but d'obtenir les variables cinématiques des photons réels résultants des réactions DVCS. Finalement, on décrit la sélection des événements à partir des données stockées, les réductions appliquées aux variables cinématiques et la soustraction de fond. En outre, le processus d'extraction des observables nécessaires pour le calcul de la section efficace de la leptoproduction de photons est décrite, ainsi que les principales étapes suivies pour effectuer la simulation Monte-Carlo utilisée dans ce calcul. Les sections efficaces obtenues sont indiquées à la fin de cette thèse.
|
527 |
Application of attosecond pulses to high harmonic spectroscopy of moleculesLin, Nan 16 December 2013 (has links) (PDF)
High-order Harmonic Generation (HHG) is an extreme nonlinear process that can be intuitively understood as the sequence of 3 steps: i) tunnel ionization of the target atom/molecule, creating an electronic wave packet (EWP) in the continuum, ii) acceleration of the EWP by the strong laser field and iii) recombination to the core with emission of an attosecond burst of XUV coherent light. HHG thus provides a tunable ultrashort tabletop source of XUV/Soft X-ray radiation on attosecond time scale for applications ('direct' scheme). At the same time, it encodes coherently in the XUV radiation the structure and dynamical charge rearrangement of the radiating atoms/molecules ('self-probing' scheme or High Harmonic Spectroscopy). This thesis is dedicated to both application schemes in attophysics based on advanced characterization and control of the attosecond emission. In the so-called 'self-probing' scheme, the last step of HHG, the electron-ion re-collision can be considered as a probe process and the emission may encode fruitful information on the recombining system, including molecular structure and dynamics. In the first part, we performed high harmonic spectroscopy of N₂O and CO₂ molecules that are (laser-)aligned with respect to the polarization of the driving laser. We implemented two methods based on optical and quantum interferometry respectively in order to characterize the amplitude and phase of the attosecond emission as a function of both photon energy and alignment angle. We discovered new effects in the high harmonic generation, which could not be explained by the structure of the highest occupied molecular orbital (HOMO). Instead, we found that during the interaction with the laser field, two electronic states are coherently excited in the molecular ion and form a hole wave packet moving on an attosecond timescale in the molecule after tunnel ionization. We focused on exploring this coherent electronic motion inside the molecule, and compared the measurements in N₂O and CO₂. The striking difference in the harmonic phase behavior led us to the development of a multi-channel model allowing the extraction of the relative weight and phase of the two channels involved in the emission. An unexpected pi/4 phase shift between the two channels is obtained. Moreover, we studied the attosecond profile of the pulses emitted by these two molecules, and we proposed a simple but flexible way for performing attosecond pulse shaping. In the second part, high harmonic spectroscopy was extended to other molecular systems, including some relatively complex molecules, e.g., SF₆ and small hydrocarbons (methane, ethane, ethylene, acetylene). It revealed many interesting results such as phase distortions not previously reported. For the 'direct' scheme, we photoionized rare gas atoms using well characterized attosecond pulses of XUV coherent radiation combined with an infrared (IR) laser "dressing" field with controlled time delay, stabilized down to about ± 60 as. We evidenced marked differences in the measured angular distributions of the photoelectrons, depending on the number of IR photons exchanged. Joined to a theoretical interpretation, these observations bring new insights into the dynamics of this class of multi-color photoionization processes that are a key step towards studying photoionization in the time domain, with attosecond time resolution.
|
528 |
Développement d'un biocapteur associant dispositif à onde de Love et polymères à empreintes moléculaires : caractérisation sous gazOmar Aouled, Nima 16 July 2013 (has links) (PDF)
Ces travaux de recherches concernent l'association de la technologie des polymères à empreintes moléculaires aux dispositifs acoustiques à onde de Love afin de réaliser un biocapteur dans le cadre d'un projet ANR Tecsan. La première partie de ces travaux de thèse a dressé plus spécifiquement la mise au point d'un protocole de dépôt localisé de polymères imprimés (MIP) et non imprimés (NIP) en films minces compatibles avec la propagation de l'onde élastique. La seconde aprtie des travaux a visé une caractérisation des films et des capteurs ainsi réalisés, par microscopie à balayage et apr mesures de détection sous gaz. Des éléments relatifs aux propriétés mécaniques (porosité, surfaces spécifiques) des MIPs et NIPs, avant extraction de la molécule cible, puis après extraction et après recapture, ont permis de valider le principe du capteur, ouvrant la voie à l'application en milieu liquide.
|
529 |
Elaboration de matériaux composites nanofils magnétiques/polymères pour la fabrication d'aimants permanentsFang, Weiqing 29 November 2013 (has links) (PDF)
Cette thèse porte sur l'élaboration de nanocomposites anisotropes à base de nanofils de cobalt/polymères pour la fabrication d'aimants permanents qui ne contiennent pas de terres rares et l'optimisation des propriétés magnétiques de ces matériaux composites. La préparation de nanofils de cobalt mono-domaines (R~6-10 nm et L~250-350 nm) a été réalisée par voie thermique conventionnelle et par voie micro-onde. Des films de composites Co/polymère alignés ont été élaborés avec de très bonnes propriétés magnétiques (μ0Hc=0.75T, Mr/Ms=0.92). Le (BH)max est de 160 kJ/m3 qui est dans la gamme des aimants SmCo (BHmax~ 120-200 kJ/m3). Les techniques de diffusion de neutrons et de rayons-X aux petits angles (DNPA et DXPA) ont été utilisées pour la caractérisation des dispersions et des systèmes anisotropes. Les fils dans le chloroforme sont mieux dispersés par rapport aux autres solvants et forment des agrégats moins gros. Pour les films de composites, l'agrégation des nanofils est relativement plus dense dans le polystyrène que dans le poly(vinyl pyrrolidone). La qualité de l'alignement est proportionnelle à l'amplitude du champ appliqué même pour des champs très élevés. Cependant, un meilleur alignement ne conduit pas automatiquement à une meilleure coercivité. Les interactions entre des nanofils ont été caractérisées par Henkel plots. Les valeurs de ΔM sont faibles (ΔM<-0.2). En outre, la DNPA polarisée a permis de suivre le renversement magnétique à l'échelle nanométrique. Le champ coercitif Hc est défini par le renversement global de gros paquets de fils. Au-delà de Hc, il n'y a plus que des processus de retournements de fils individuels. Afin d'optimiser le Hc, l'optimisation de la microstructure (organisation des fils) est plus importante que l'optimisation des propriétés des fils individuels.
|
530 |
Propriétés thermiques et morphologiques de la couronne solaire : estimation de la robustesse des diagnostics par mesure d'émission différentielle (DEM) et reconstructions tomographiques des pôlesGuennou, Chloé 24 October 2013 (has links) (PDF)
L'évolution de notre compréhension des propriétés de la couronne solaire dépend largement de la détermination empirique ou semi-empirique des paramètres fondamentaux du plasma, tels que le champ magnétique, la densité et la température, mais pour lesquels il n'existe pas de mesure directe. L'intégration le long de la ligne de visée complique considérablement l'interprétation des observations, du fait de la superposition de structures aux propriétés physiques différentes. Pour lever cette ambiguïté, on dispose de plusieurs outils, dont la mesure d'émission différentielle (ou DEM; Differential Emission Measure), qui permet d'obtenir la quantité de plasma en fonction de la température le long de la ligne de visée, et la tomographie, qui permet, elle, d'obtenir la distribution spatiale de l'émissivité. Le couplage de ces deux outils permet d'obtenir un diagnostic tridimensionnel en température et densité de la couronne. A l'heure actuelle, le code utilisé dans ce travail est l'un des deux seuls au monde capables de réaliser ce couplage. Cependant, ces deux méthodes requièrent un processus d'inversion, dont les difficultés intrinsèques peuvent fortement limiter l'interprétation des résultats. La méthode développée dans cette thèse s'attache à évaluer la robustesse des diagnostics spectroscopiques par DEM, en proposant une nouvelle technique de caractérisation tenant compte des différentes sources d'incertitudes mises en jeu. En utilisant une approche probabiliste, cette technique permet d'étalonner a priori le problème d'inversion, et ainsi d'étudier son comportement et ses limitations dans le cadre de modèles simples. L'avantage de ce type d'approche est sa capacité à fournir des barres d'erreurs associées aux DEMs reconstruites à partir de données réelles. La technique développée a d'abord été appliquée à l'imageur SDO/AIA dans le cas de modèles de DEMs simples mais capables de représenter une grande variété de conditions physiques au sein de la couronne. Si l'inversion de plasmas proches de l'isothermalité apparaît robuste, nos résultats montrent qu'il n'en va pas de même pour les plasmas largement distribués en température, pour lesquelles les DEMs reconstruites sont à la fois moins précises mais aussi biaisées vers des solutions secondaires particulières. La technique a ensuite été appliquée au spectromètre Hinode/EIS, en utilisant un modèle de DEM représentant la distribution en loi de puissance des DEMs des régions actives, dont la pente permet de fournir des contraintes relatives à la fréquence des événements de chauffage coronal. Nos résultats montrent que les sources d'incertitudes sont à l'heure actuelle trop élevées pour permettre une mesure exploitable de la fréquence. La dernière partie est consacrée aux reconstructions tridimensionnelles obtenues par couplage tomographie/DEM, en s'intéressant aux structures polaires. Premières reconstructions réalisées avec AIA, nos résultats permettent d'étudier l'évolution en température et densité en fonction de l'altitude, montrant la présence de plumes polaires plus chaudes et denses que leur environnement.
|
Page generated in 0.0499 seconds