• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1048
  • 285
  • 85
  • 3
  • 1
  • 1
  • Tagged with
  • 1420
  • 294
  • 279
  • 162
  • 156
  • 134
  • 123
  • 121
  • 92
  • 88
  • 85
  • 78
  • 74
  • 74
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Optimisation of a self-mixing laser displacement sensor / Optimisation d'un capteur laser de déplacement par interférométrie à rétro-injection optique

Zabit, Usman 20 July 2010 (has links)
L'interférométrie à rétro-injection optique, également connu sous le nom de Self-Mixing, permet de concevoir des capteurs qui sont compacts, auto-alignés et sans contact. Dans ce phénomène, une partie du faisceau laser de retour réfléchi par la cible rentre dans la cavité active de laser et fait varier ses propriétés spectrales. La diode laser agit alors comme une source de lumière, un microinterféromètre ainsi qu'un détecteur de lumière. Dans cette thèse, un capteur de déplacement, basé sur la rétro-injection optique, a été optimisé de sorte que des mesures précises peuvent être obtenues en temps réel. Le capteur est robuste à la disparition des franges de self-mixing pour des vibrations harmoniques. Il est également capable de s'adapter à un changement dans le régime de feedback optique et peut donc extraire le déplacement dans les cas les plus répandus expérimentalement, à savoir un feedback faible puis modéré. L'utilisation de l'optique adaptative, sous la forme d'une lentille liquide, a également été démontrée pour ce capteur, ce qui nous a permis de maintenir le capteur dans un régime de feedback favorable. L'influence du speckle a également été réduite de telle sorte que le capteur mesure jusqu'à la gamme centimétrique pour des cibles non- oopératives. Une nouvelle technique est également présentée, elle permet de rendre le capteur insensible aux vibrations mécaniques parasites qui fausseraient la mesure pour des conditions industrielles. / Optical Feedback Interferometry, also known as Self-Mixing, results in compact, selfaligned and contact-less sensors. In this phenomenon, a portion of the laser beam is back reflected from the target and enters the active laser cavity to vary its spectral properties. The laser diode then simultaneously acts as a light source, a micro- nterferometer as well as a light detector. In this thesis, a self-mixing displacement sensor has been optimised so that precise measurement can be obtained in real-time. The sensor is robust to the disappearance of self-mixing fringes for harmonic vibrations. It is also able to auto-adapt itself to a change in the optical feedback regime and so can extract displacement from the weak as well as moderate feedback regime signals. The use of adaptive optics, in the form of a liquid lens, has also been demonstrated for this sensor, which has allowed us to maintain the sensor in a fringe-loss less regime. The influence of speckle has also been reduced so that the sensor can now measure up to the centimetric range for non-cooperative targets. A novel technique has also been presented that makes the sensor insensitive to parasitic mechanical vibrations that would falsify the measurement under industrial conditions.
192

"Métron", entre "logos" et "praxis" dans la philosophie grecque, d'Homère à Aristote

Bassu, Sébastien 17 December 2013 (has links)
Cette étude porte sur la notion de μέτρον dans l’antiquité grecque d’Homère à Aristote. Le μέτρον désigne la notion de mesure : il traverse à la fois l’histoire des idées et les différents domaines de la réflexion philosophique. Il est question de déterminer la signification et la fonction de la mesure dans la pensée philosophique. Dans un premier temps, l’étude entreprend la détermination de la notion éthique et pratique de la « juste mesure » dans la pensée archaïque, de la poésie archaïque (Homère, Hésiode) aux Sept sages et à la poésie élégiaque (Solon et Théognis). Ensuite, elle entreprend de montrer comment la « mesure » s’est élevée à une fonction scientifique grâce au développement mathématique. Par ce développement, la notion de « mesure » est intégrée à la rationalité (λόγος) et à l’étude de la physique par les premiers philosophes présocratiques (Milésiens, Pythagoriciens, Héraclite et Parménide) : la « mesure » est appliquée au temps et à l’espace dans l’étude de l’univers. Puis, la notion de mesure est intégrée par Platon qui fait du μέτρον une idée centrale de sa pensée philosophique comme notion éthique, épistémologique et métaphysique. Il développe une conception de la « mesure » qui tente de répondre au relativisme hérité de la sophistique (Protagoras et Gorgias). Enfin, l’étude se clôt sur un examen de la fonction du μέτρον dans la métaphysique, la physique et l’éthique d’Aristote. / This study is concerned with the notion of μέτρον in Greek Antiquity from Homer to Aristotle. This notion means the « measure ». Mέτρον is a term which goes across in the same time the History of Ideas and the different domains of the philosophical thought. So the question is the determination of the meaning and function of μέτρον. In the first time, the study undertakes the determination of the ethical and practical notion about the « due measure » in the archaïc thought, from archaïc poetry (Homer, Hesiod) to Seven Wise Men and Elegy (Solo and Theognis).Then, the study undertakes to show how the « measure » is elevated to a scientifical function thanks to the mathematical development. By this development, the notion of « measure » is integrated in the rationality (logos) and study of the Physics by the first Presocratic Philosophers (Milesians, Pythagoreans, Heraclitus and Parmenides) : the « measure » is applicated to the Time and Space in Universe. Then, Plato makes metron a central notion of his philosophical thought as an ethical, epistemological and metaphysical term. He develops his own conception of « measure » against the relativism of the measure inherited from the sophistic (Protagoras and Gorgias). Finally, this study is closed on an examen about the function of μέτρον in Aristotle’s Metaphysics, Physics and Ethics.
193

Characterization and applications of quantum measurement invasiveness / Caractérisation et applications de l'invasivité de la mesure quantique

Moreira, Saulo Vicente 31 May 2017 (has links)
L'invalidité de la mesure quantique est une propriété des phénomènes quantiques.Elle est reliée au fait que la mesure de systèmes quantiques peut les affecter d'une façon que ne peut pas être décrite au sein de la physique classique.Cette thèse étudie la question de l'invasivité des mesures quantiques à travers l'inégalité de Leggett-Garg et d'une autre inégalité basée sur la condition de non perturbation (\ non-disturbance condition "). La violation de ces inégalités témoigne de l'invasivité des mesures quantiques. Dans un premier temps, nous _étudierons un modèle pour la violation de l'inégalité de Leggett-Garg, qui permettra une caractérisation opérationnelle de l'invasivité de la mesure quantique à travers un paramètre appelé la mesurabilité du système physique. Ce paramètre contrôle la violation de l'inégalité de Leggett-Garg et peut être reliée à des tests expérimentaux de cette inégalité. De cette façon, ce paramètre permet la compréhension et l'interprétation de ces violations. Nous avons également étudie, via ce modèle, la relation entre l'invasivité et une définition particulière de la « macroscopicité", associée la »taille " de systèmes de spin. Nous avons ensuite étudie une application de l'invasivité de la mesure quantique dans le cadre des protocoles pour l'estimation de paramètres en métrologie quantique. Une relation générale entre l'information de Fisher et les corrélations quantiques temporelles a été établie, et permet la caractérisation de la robustesse au bruit de scenarios de métrologie. Cette relation sert de ligne directrice pour la connexion entre l'invasivité de la mesure quantique et des scenarios (quasi-)optimaux en métrologie. Nous avons également établi une relation entre l'invasivité de la mesure quantique et une définition de la cohérence macroscopique. Pour finir, nous avons proposé un protocole pour tester la non-invasivité de mesures, basé sur la condition de non perturbation, pour des systèmes de spin de taille arbitraire. Cette inégalité permet de s'assurer contre la possibilité que sa violation soit due à des perturbations classiques de la mesure. Nous avons montré que la valeur maximale pour la violation de l'inégalité correspond au nombre de particules qui constitue le système / Quantum measurement invasiveness is a feature of quantum phenomena, i.e. associated with the fact that measurements can affect quantum systems in a manner which cannot be described by classical physics. In this thesis we will investigate measurement invasiveness through the Leggett-Garg inequality and another inequality based on the non-disturbance condition, both of which, when violated, witness measurement invasiveness. First, we will study a model for the violation of the Leggett-Garg inequality, which will allow us to provide an operational characterization of measurement invasiveness through a parameter called the measurability of the physical system. This parameter controls Leggett-Garg inequality violation and can be associated with experimental tests of this inequality, helping one to understand and interpret them. We will also investigate, through this model, the relationship between measurement invasiveness and a specific definition of macroscopicity, related to the \size" of spin systems. We will then seek to study an application of measurement invasiveness in the context of protocols for parameter estimation or quantum metrology. A general relationship between the Fisher information and temporal quantum correlations will be established, allowing one to characterize the robustness of metrological scenarios against the presence of noise. This relationship will also serve as a guideline for a connection between measurement invasiveness and (nearly-) optimal metrological scenarios. We will also establish a relationship between measurement invasiveness and a definition of a measure of macroscopic coherence. Lastly, we will propose a protocol for testing measurement noninvasiness based on the non-disturbance condition for spin systems of arbitrary size. This inequality allows one to argue against the possibility of its violation being due to the classical disturbance of measurements. We will show that the maximum value for the violation of this inequality Corresponds to the number of particles which constitutes the system.
194

Comprendre les situations d’exposition aux nanoparticules par l’intégration de l’activité de travail à la mesure : vers une construction de la prévention / Understanding exposure situations to nanoparticles by integrating work activity with measurement : towards a construction of prevention

Galey, Louis 24 June 2019 (has links)
Le récent développement des nanotechnologies induit des expositions potentielles aux nanoparticules dans une diversité de milieux professionnels. Une meilleure appréhension des risques et des expositions professionnelles aux nanoparticules représente alors un enjeu essentiel pour les acteurs de la prévention, ce qui nécessite d’enrichir, voire de rompre, avec les approches classiques de métrologie et de prévention. Dans ce contexte, notre thèse se centre sur le développement d’une méthodologie transdisciplinaire intégrant l’analyse de l’activité à la mesure afin de produire des connaissances sur l’exposition aux nanoparticules et sa maîtrise. A partir de la construction et de la validation d’une méthodologie par des spécialistes de la mesure des nanoparticules, de l’épidémiologie et de l’ergonomie, nos résultats s’orientent autour de trois axes. 1) La revue systématique de la littérature des préconisations actuelles pour évaluer les expositions professionnelles aux nanoparticules met en avant l’existence de 23 documents centrés sur la mesure des nanoparticules manufacturées seulement sans s’intéresser aux nanoparticules émises non intentionnellement par certains procédés industriels. Par ailleurs, ces recommandations à destination des préventeurs doivent évoluer pour une meilleure prise en compte de l’activité de travail et devenir opérationnelles. 2) La méthode d’évaluation de l’exposition produite tenant compte de ces limites, est passée par une mobilisation des acteurs de l’entreprise pour collecter des informations sur les situations potentielles d’exposition. Ensuite, des mesurages en temps réel et intégrés des aérosols, accompagnés d’enregistrements de la fréquence cardiaque et respiratoire sont synchronisés à des vidéos de situations de travail. Un découpage à différentes échelles temporelles en phase de l’activité ou en action détaillée de l’opérateur, conduit à révéler des situations d’exposition réelles aux nanoparticules, et évaluer leurs niveaux d’exposition intégrant l’intensité physique. 3) Nous montrons que les échanges avec les opérateurs lors d’entretiens de confrontation aux vidéos et mesures synchronisées, permettent de rendre visibles ces situations d’exposition et leurs déterminants, sous forme de situations d’exposition caractéristiques. Cette présentation des résultats de l’analyse de l’activité, contribue à comprendre et mettre en perspective les pratiques de sécurité formelles pour les faire évoluer. C’est par ces échanges collectifs que les déterminants de l’exposition sont découverts, ce qui permet aux différents acteurs de renforcer la maîtrise de l’exposition. L’usage des situations d’exposition est aussi un moyen d’agir sur les projets de conception en transférant des repères pour la conception et la prévention. Il devient alors possible d’enrichir les évaluations de l’exposition aux nanoparticules et contribuer à la construction collective de la sécurité dans l’innovation. / The recent development of nanotechnologies has led to potential exposures to nanoparticles in a variety of workplaces. A better understanding of occupational exposures to nanoparticles represents a major stake for prevention stakeholders. These exposures require an overhaul of, and perhaps a break from traditional metrology and prevention approaches, as they are challenged by the particular characteristics of nanoparticles. In this context, this thesis focuses on the development of a transdisciplinary methodology integrating work activity analysis with measurement in order to produce knowledges on exposure to nanoparticles and its control.From the construction and the validation of a methodology between specialists in nanoparticle measurement, epidemiology and ergonomics, our results follow three axes. 1) The systematic review of the literature on current recommendations for assessing occupational exposures to nanoparticles highlights the existence of 23 documents focusing on the measurement of manufactured nanoparticles only, excluding nanoparticles emitted unintentionally by some industrial processes. In addition, these recommendations for preventionists must evolve to take better account of work activity and become operational. 2) The exposure assessment method developed in this thesis work is based on the mobilization of the company's stakeholders to gather information on potential exposure situations. Then, real-time as well as time averaged aerosol measurements, accompanied by heart rate recording, were synchronized with videos of work situations. A breakdown at different time scales, at the work activity stage or in more detailed action carried out by the operator, revealed real exposure situations to nanoparticles, and characterized the associated exposure levels, taking into account the physical intensity of the work. 3) We show that discussions with operators during confrontation interviews involving real-time measurement synchronized to videos of the work activity, made it possible to make these exposure situations and their determinants visible, in the form of “typical exposure situations”. Presenting the results in association with the work activity analysis in the companies contributes to understanding and questioning the regulated safety practices to make them change. It is through these collective exchanges that the determinants of exposure are discovered, allowing to the company’s stakeholders to improve exposure control. The use of exposure situations is also a means of influencing design projects by transferring requirements for conception or prevention. It therefore becomes possible to expand exposure assessment to nanoparticles and contribute to collectively build safety within innovation.
195

Modèle physique de la plasticité d'un cristal métallique CFC soumis à des chargements alternés :<br />Contribution à la définition d'une modélisation multiéchelles de la mise en forme des métaux.

Saai, Afaf 13 September 2007 (has links) (PDF)
Les opérations de mise en forme (particulièrement l'emboutissage) font subir au métal des chargements alternés avec de grandes amplitudes de déformation, le plus souvent suivis de changements de trajets. Une simulation numérique de ces opérations nécessite l'utilisation d'un modèle du comportement qui puisse rendre compte efficacement des trajets de chargements complexes. <br />Cette thèse est une contribution à l'établissement d'un modèle de comportement plastique destiné à être utilisé pour la simulation numérique des opérations de mise en forme. Le parti a été pris de recourir à un modèle micromécanique dont les variables sont des paramètres micro-structuraux intrinsèques comme les densités de dislocations et leurs distributions sur chaque système de glissement. Le modèle traite des chargements alternés dans un cadre physique unifié défini pour l'ensemble des équations constitutives décrivant l'écrouissage. <br />Au-delà de l'intérêt de définir un modèle particulier, ce travail apporte une contribution à la mise en œuvre des différentes étapes qui doivent conduire à son utilisation dans une simulation numérique macroscopique. Il s'agit de définir un protocole reproductible, plutôt indépendant du modèle considéré et exploitable pour d'autres modélisations. En particulier, des protocoles expérimentaux sont définis pour produire des données dans des conditions reproductibles. Des moyens de caractérisation récents comme l'analyse d'images dans les domaines visible et infrarouge sont utilisés pour étudier la réponse expérimentale thermomécanique de différents échantillons à caractère fortement cristallin. Ensuite, l'implantation du modèle dans un code éléments finis commercial permet d'envisager des simulations complexes qui, si elles ne s'adressent pas actuellement à des opérations d'emboutissage, comportent toutefois les ingrédients pour les traiter. <br />Ce travail, à l'interface de nombreux champs disciplinaires, apporte donc une contribution au développement des modèles de comportement plastique des matériaux métalliques qui porte sur l'ensemble des briques nécessaires au développement de simulations numériques utilisant des modèles à caractère physique.
196

Caractérisation de l'intensité d'un faisceau d'ions lourds par mesure de sa composante électromagnétique haute fréquence

Mariette, Christophe 24 October 2002 (has links) (PDF)
Comme tout accélérateur de particules, le GANIL (Grand Accélérateur National d'Ions<br />Lourds) doit être réglé et surtout surveillé en temps réel.<br /><br /><br />Cette surveillance du faisceau est obtenue par mesure de son intensité. Cette mesure<br />est assurée par des transformateurs d'intensité basses fréquences (TI-BF). Le mode de<br />fonctionnement de ces capteurs génère une perte de 9% de faisceau. De plus, ces capteurs<br />mesurent difficilement les faibles intensités.<br /><br /><br />De plus en plus à le recherche d'évènements rares, les physiciens réclament plus<br />d'intensités faisceau augmentant ainsi la probabilité d'apparition de ces évènements. Le projet<br />T.H.I. (Transport des Hautes Intensités) et le projet S.P.I.R.A.L. (Source de Production d'Ions<br />Radioactifs Accélérés en Ligne) prévoient des puissances de faisceau de 6KW, limitées à<br />400W en mode normal. A haute énergie de faisceau, de telles puissances peuvent engendrer<br />une détérioration matérielle. Les systèmes de sécurité doivent se déclencher instantanément.<br />Les TI-BF sensibles aux chocs mécaniques (basses fréquences) ne répondent pas à ces<br />exigences.<br /><br /><br />Les transformateurs d'intensité hautes fréquences (TI-HF) sont capables de mesurer les<br />paquets d'ions. Cette caractéristique permet de supprimer la perte de 9% de faisceau. De<br />même, leur temps de réponse répond aux exigences de déclenchement des sécurités. Enfin, les<br />TI-HF ont une dynamique supérieure aux TI-BF.
197

Approximation et indépendance algébrique de quasi-périodes de variétés abéliennes

Grinspan, Pierre 15 September 2000 (has links) (PDF)
Périodes et ``quasi-périodes'' (aussi appelées, resp., périodes de première et deuxième espèce) d'une variété abélienne $A$ définie sur un sous-corps de $\CC$ s'obtiennent par intégration, le long des chemins fermés sur $A(\CC)$, des différentielles rationnelles sur $A$, méromorphes et sans résidus de sorte que ces intégrales soient bien définies; les premières sont obtenues en se restreignant aux différentielles régulières. Au premier chapitre de la thèse, la ``méthode modulaire'' de Barré, Diaz, Gramain, Philibert et Nesterenko est utilisée et quelque peu raffinée pour obtenir notamment une mesure d'approximation algébrique du quotient d'une période d'une courbe elliptique définie sur $\bar\QQ$ par sa quasi-période associée; ceci améliore un résultat récent de N. Saradha, en lui faisant presque contenir celui obtenu en 1980 par Reyssat avec la ``méthode elliptique''. Puis, dans la deuxième partie, nous étudions diverses extensions possibles des théorèmes de Chudnovsky (des années 70) sur l'indépendance algébrique de quasi-périodes de courbes elliptiques; ceci inclut des extensions aux variétés abéliennes de dimension quelconque, ainsi que des résultats d'approximation (algébrique) simultanée précisant les assertions d'indépendance algébrique. Au coeur des deux parties, bien que celles-ci soient par ailleurs très différentes, se trouve une astuce suggérée par Chudnovsky au début des années 80, consistant à faire apparaître et exploiter des propriétés de ``G-fonctions'' (ou ``condition d'Eisenstein'' de Polya et Szegö) dans les estimations arithmétiques de la preuve de transcendance; pour ce faire on utilise, dans la deuxième partie, des généralisations en plusieurs variables du théorème d'Eisenstein et de la fonction sigma de Weierstrass qui avaient servi à Chudnovsky, et dans la première, les liens entre les fonctions modulaires (thêta notamment) et hypergéométriques.
198

Développement d'un capteur à fibre optique à base de réseaux de Bragg superposés de courtes et de longues périodes : application à la mesure discriminée de température et de déformation

Triollet, Sébastien 03 December 2010 (has links) (PDF)
[Les capteurs à fibres optiques présentent des qualités intéressantes en termes de tailles et de poids relativement faibles qui permettent de réduire l'intrusivité du capteur dans le matériau (ou dans la structure composite). Ils sont également insensibles aux perturbations électromagnétiques, stables et durables dans le temps, mais aussi sensibles à plusieurs sollicitations comme la température, la déformation et la pression, d'où un besoin essentiel de les discriminer. Parmi eux on distingue les réseaux de Bragg : ceux à courtes périodes (FBG : Fiber Bragg Grating) et ceux à longues périodes (LPG : Long Period Grating). Le travail de thèse reporté dans ce manuscrit, traite du développement d'un capteur à fibre optique basé sur la superposition d'un LPG et d'un FBG afin de mesurer et de discriminer la température et la déformation. De nombreuses approches sont proposées dans la littérature afin de découpler ces deux sollicitations cependant elles ne permettent pas forcément une utilisation en conditions réelles de mesures. C'est pourquoi nous introduisons la notion d'efficacité de découplage avec le paramètre E qui permet de comparer toutes ces approches et met en évidence un très bon potentiel pour la structure à base de réseaux superposés LPG/FBG. La mise en œuvre d'un tel composant est décrite dans ce manuscrit et consiste à inscrire initialement le LPG puis le FBG au même endroit et sur toute la longueur du LPG. De plus ce type de structure permet un multiplexage qui, bien que faible, est néanmoins possible. Les étalonnages en température et en déformation du capteur ont permis de mettre en évidence une erreur de l'ordre de 2% sur la sensibilité à la température et de 3% sur la sensibilité à la déformation, ce qui conduit à une erreur sur l'estimation de la température et de la déformation mesurée de l'ordre de 0.3°C et 3 microdef. Dans un souci applicatif, le capteur à base de réseaux de Bragg superposés est tout d'abord utilisé pour instrumenter une structure métallique soumise simultanément à une variation de température et de déformation. Les valeurs mesurées présentent une incertitude maximale de 0.4°C pour la température et de 3 me pour la déformation ce qui permet de valider notre composant pour le contrôle et la surveillance de structures métalliques. La seconde application étudiée est relative à l'instrumentation de pièces composites stratifiées de type verre/époxy pour le suivi de procédés d'élaboration par voie liquide : VARTM (Vacuum Assisted Resin Transfer Molding) et LRI (Liquid Resin Infusion), pour lesquels l'évolution de la température et de la déformation au cours du procédé est suivie par le capteur à base de réseaux de Bragg superposés LPG/FBG. Des mesures diélectriques (DEA) sont également réalisées au cours de ces procédés et permettent la comparaison et la validation de nos résultats]
199

Validation et étalonnage d'images de télédétection à l'aide de mesures ponctuelles selon une approche géostatique : application à la mesure des précipitations et de l'insolation

Creutin, Jean-Dominique 12 March 1987 (has links) (PDF)
Comment utiliser de manière quantitative l'information fournie par un dispositif de télédétection météorologique afin d'améliorer la mesure conventionnelle donnée par les réseaux de stations au sol ? Pour répondre à cette question, importante d'un point de vue pratique, ce mémoire propose une approche géostatistique permettant, d'une part, de vérifier la qualité des mesures obtenues par chaque dispositif, et d'autre part de combiner les mesures sol aux images de télédétection. Des exemples d'application concernant la mesure des précipitations et de l'insolation sont analysés afin d'illustrer la méthodologie proposée en la comparant à des approches plus traditionnelles. La définition d'un protocole de validation s'appuie sur des rappels de géostatistique classique (Chapitre 1). Ce protocole fixe des valeurs de référence permettant de vérifier les résultats obtenus par un dispositif de mesure d'après différents critères statistiques d'erreur (Chapitre Il). Le système de cokrigeage est décrit en terme de méthode d'étalonnage capable de combiner des mesures ponctuelles et de télédétection (Chapitre IV). Différentes simplifications de cette méthode sont détaillées et rapprochées des méthodes classiques d'étalonnage (Chapitre VII). Les données utilisées pour mettre en oeuvre ces méthodes de validation et d'étalonnage (Chapitres III, V et VII) sont des mesures de précipitations en région tempérée (radar et pluviomètres dans le Bassin Parisien) ou semi-aride (satellites et pluviomètres en Arabie) et des mesures d'insolation en région tempérée (satellite et héliographes en France).
200

Alignement moléculaire par impulsions laser ultrabrèves : Mesures & Applications

Loriot, Vincent 02 March 2009 (has links) (PDF)
L'interaction entre un échantillon moléculaire gazeux et une impulsion laser ultra-brève intense conduit, après le passage de l'impulsion, à des réalignements transitoires et périodiques des molécules. Cette thèse se rapporte à la mesure et aux applications liées à cet effet. Le degré d'alignement moléculaire est déterminé à travers la variation d'indice de réfraction induite par le réarrangement des dipôles moléculaires. Une technique d'imagerie bidimensionnelle permettant de mesurer sur une base monocoup l'alignement des molécules est reportée dans ce manuscrit. L'alignement est ensuite utilisé comme un outil de mesure pour évaluer des quantités physiques, difficilement accessibles par d'autres méthodes. La "technique de défocalisation croisée" a été tout d'abord employée pour mesurer les probabilités d'ionisation de gaz atomiques et moléculaires en régime femtoseconde. La "technique de polarisation 1D" a été ensuite appliquée pour obtenir une mesure de l'indice Kerr électronique calibré à travers l'alignement moléculaire. Il a été trouvé que l'effet Kerr électronique produit une variation d'indice qui change de signe aux alentours des 30 TW.cm-2 pour les principaux gaz qui constituent l'atmosphère. Cet effet a été interprété de manière phénoménologique par des termes Kerr d'ordres supérieurs (de n4 à n10). L'impact important de ces résultats sur la compréhension du mécanisme de filamentation est discuté.

Page generated in 0.0277 seconds