• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 949
  • 444
  • 136
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1579
  • 381
  • 295
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 145
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Etude des fragments de fission au point de scission avec le modèle SPY / Fission fragments study at scission point with SPY model

Lemaître, Jean-François 25 September 2015 (has links)
Bien que découverte il y a 75 ans, la fission nucléaire fait toujours l'objet de recherches. En effet, la compréhension de ce phénomène présente encore des difficultés théoriques dues à sa complexité. Cela nécessite une bonne compréhension de la structure du noyau de l'atome ainsi qu'une description détaillée du mécanisme pilotant l'évolution du système fissionnant.Un nouveau modèle statistique, appelé SPY (Scission Point Yields), a été développé pour déterminer les caractéristiques des fragments (rendements de fission, énergie cinétique, énergie d¹excitation). Ce modèle est basé sur le modèle de Wilkins développé en 1976. Il consiste en une description statistique du processus de fission au point de scission où les fragments sont complètement définis. L'une des principales avancées du modèle SPY est l'introduction de la description microscopique de la structure nucléaire dans le calcul de l'énergie du système à la scission.Il permet d'étudier la relation entre les propriétés des fragments et leur structure nucléaire. Avec le modèle SPY, il est possible de calculer les propriétés des fragments et d'identifier les tendances globales pour environ 3000 noyaux fissionnants de Z=70 à Z=109, de la drip line neutron jusqu'à la drip line proton.Après une présentation générale de la version de référence du modèle SPY, les résultats obtenus pour la fission thermique de l'uranium 235 et la fission spontanée du californium 252 sont comparés aux données expérimentales. Une étude systématique sur l'ensemble des noyaux actuellement synthétisés est également menée avant d'étendre cette étude bien au-delà de la zone des noyaux synthétisables. Deux développements seront ensuite détaillés. Le premier concerne la manière de calculer l'énergie d'interaction coulombienne entre les deux fragments. Les distributions de charges issues de calculs microscopiques seront introduites afin d'améliorer le calcul de l'énergie d'interaction coulombienne. La possibilité de redéfinir le point de scission du système grâce à ces distributions de charge sera également discuté.Le deuxième développement porte sur le lien entre la modélisation du noyau et les observables associées aux fragments de fission. D'une part, différents modèles du noyau pour le calcul de l'énergie individuelle des fragments, tel que le modèle de la goutte liquide, seront envisagés et l'impact du choix de la modélisation du noyau sera étudiée.D'autre part, l'impact de la prise en compte de la structure nucléaire des fragments dans le calcul des densités d'états sur les observables sera étudié. / Although discovered 75 years ago, nuclear fission is still under investigation. Indeed, the understanding of this phenomenon still presents theoretical difficulties due to its complexity. This requires a good understanding of the structure of atomic nucleus and at the same time a detailed description of the mechanisms driving the evolution of a fissioning system.A new statistical scission point model named SPY (Scission Point Yields) is developped to model the fission mechanism and determine nascent fragments characteristics (yields, kinetic energy, excitation energy). This model is based on the Wilkins model developed in 1976. It consists in a statistical description of the fission process at the scission point where fragments are completely defined and well separated. One of the main advance brought by SPY model is the introduction of microscopic description of the nuclear structure in the calculation of the energy of the system at scission. Therefore, this model can be regarded as a theoretical laboratory for fission modeling since it allows to study the relationship between fission fragments properties and their nuclear structure.With SPY, we were able to calculate the properties of fragments and to identify global trends for about 3000 fissioning nuclei from Z=70 to Z=109 and from proton drip line to neutron drip line.After a general presentation of SPY model, results for thermal fission of uranium 235 and spontaneous fission of 252 californium are compared with experimental data. A systematic study over all currently synthesized nuclei is also done before extending this study beyond the synthesizable nuclei area. Finally the main developments of the model performed will be detailed.The first one is related to calcultation of the Coulomb interaction energy between the two fragments. The charge distributions from microscopic calculations are introduced to improve the calculation of the energy of Coulomb interaction. The ability to redefine the scission point of the system thanks to these distributions will also be discussed. The second development concerns the relationship between nucleus modeling and observables related to fission fragments. On the one hand, different models of the nucleus to calculate the individual energy of the fragments, such as liquid drop model, will be considered and the impact of the choice of the nucleus modeling will be studied. On the other hand, the impact of the inclusion of the nuclear structure of the fragments in the calculation of states densities on observable will be studied.
392

Estimation de paramètres physiques à partir de leur description par une base de mesure de très grande dimension / Estimation of physical parameters through their representation by a high dimensional database

Watson, Victor 12 July 2018 (has links)
Cette thèse contribue au développement de diverses méthodes permettant la détermination des paramètres stellaires fondamentaux (température effective, gravité de surface et "métallicité" i.e., la composition chimique globale), ainsi que de la vitesse de rotation projetée (vsini), à partir de l'analyse de spectres à haute résolution. Plusieurs méthodes seront présentées, et leurs performances respectives en terme d'extraction des paramètres fondamentaux seront discutées. Nous mettrons en particulier l'accent sur une mise en œuvre originale de la méthode dite Sliced Inverse Regression (SIR, Watson et al. 2017). / This thesis contributes to the development of various methods for the determination of the stellar fundamental parameters (effective temperature, surface gravity and "metallicity" ie, the overall chemical composition), as well as the projected rotation speed (vsini), from the analysis of high resolution spectra. Several methods will be presented, and their respective performances in terms of extraction of the fundamental parameters will be discussed. In particular, we will focus on an original implementation of the Sliced Inverse Regression method (SIR, Watson et al., 2017).
393

Computational studies of molecular self-assembly at surfaces : from rational design to function / Études computationnelles de l'auto-assemblage moléculaire au niveau des surfaces : de la conception rationnelle à la fonction

Conti, Simone 30 September 2016 (has links)
L’auto-assemblage moléculaire au niveau des surfaces est un exemple majeur de l'auto-organisation de la matière avec des applications technologiques d’intérêt. La capacité́ de prédire la structure de la monocouche auto-assemblée (SAM) formée à l'équilibre est d'une importance fondamentale. Dans cette thèse, je présente une théorie aux premiers principes pour l’interprétation de l’auto-assemblage 2D basée sur la modélisation et la thermodynamique statistique. La méthode mise au point permet d'accéder à la stabilité́ thermodynamique de la SAM et à sa dépendance à l'égard de la concentration. Cela permet d'étudier les équilibres concurrentiels au niveau des surfaces et de rationaliser le polymorphisme en 2D. De plus, cette théorie prédit l'existence d'une concentration critique de monomères au-dessus de laquelle l’auto-assemblage 2D est favorisé. Celle-ci est utilisée pour définir une échelle absolue définissant la propension à l’auto-assemblage en 2D. Enfin, quatre applications technologiques sont discutées, exposant les possibilités de la méthode développée. / Molecular self-assembly at surfaces is a prominent example of self-organization of matter with outstanding technological applications. The ability to predict the structure of the self-assembled monolayer (SAM) formed at equilibrium is of great fundamental and technological importance. In this dissertation I present a self-consistent theory for a first-principle interpretation of 2D self-assembly based on modeling and statistical thermodynamics. The developed framework provides access to the thermodynamic stability of the SAM and to its concentration dependence. This allows to study competitive equilibria at surfaces and to rationalize the 2D polymorphism evidenced by scanning probe techniques. The theory predicts the existence of a critical concentration of monomers, which is used to set an absolute scale for the 2D self-assembly propensity. Last, four technological applications are discussed, showing the potentials of the developed framework.
394

Long term performance prediction of proton exchange membrane fuel cells using machine learning method / Prédiction à long terme ds performances de piles à combustible à membrane échangeuse de protons par apprentissage statistique

Wu, Yiming 13 December 2016 (has links)
Les questions environnementales, en particulier le réchauffement de la planète en raison de l'effet de serre, estdevenu de plus en plus critique au cours des dernières décennies. Candidate potentielle parmi les différentessolutions alternatives d'énergie verte pour le développement durable, la pile à combustible à membrane échangeusede protons (PEMFC en anglais) a fait l'objet de nombreux travaux de recherche, dans les domaines de l'énergie etdes transports. Les PEMFC peuvent produire de l'électricité directement à partir de la réaction électrochimique entrel'hydrogène et l'oxygène de l'air, avec comme seul sous-produits de l'eau et de la chaleur. Si l'hydrogène est produità partir de sources d'énergie renouvelables, cette conversion de l'énergie est complètement écologique.Cependant, la durée de vie relativement courte des PEMFC fonctionnant dans des conditions dynamiques (pour lesvéhicules, par exemple) empêche son utilisation massive. La prévision précise de leurs mécanismes devieillissement peut ainsi aider à concevoir des modèles de maintenance appropriés des PEMFC en fournissant desinformations prévisibles sur la dégradation des performances. De plus, la prédiction pourrait également contribuer àatténuer la dégradation indésirable des systèmes PEMFC en cours d'exploitation. Ces travaux proposent unenouvelle approche guidée par les données pour prédire la dégradation des performances des PEMFC en utilisantune méthode d'apprentissage améliorée (Relevance Vector Machine : RVM).Tout d'abord, la description théorique des PEMFC en fonctionnement est présentée. Ensuite, une illustrationdétaillée de l'impact des conditions opérationnelles sur la performance des PEMFC est exposée, ainsi que desmécanismes de dégradation de chaque composant des PEMFC.Une méthode de prédiction de performance en utilisant la RVM améliorée est ensuite proposée et démontrée. Lesrésultats de prédiction basés sur des zones d'apprentissage différentes à partir des données historiques sontégalement discutés et comparés avec les résultats de prédiction utilisant les machines à vecteurs de support(Support Vector Machine : SVM).En outre, une méthode de prédiction RVM à noyau auto-adaptatif (Self-Adaptive Kernel) est présentée. La matricede conception de la formation du RVM est également modifiée afin d'acquérir une plus grande précision lors de laprédiction. Les résultats de la prévision sont illustrés et discutés en détails.En résumé, ces travaux permettent de discuter principalement de l'analyse de la prédiction de la performance desPEMFC en utilisant des méthodes d'apprentissage statistique. / The environmental issues, especially the global warming due to greenhouse effect, has become more and morecritical in recent decades. As one potential candidate among different alternative "green energy" solutions forsustainable development, the Proton Exchange Membrane Fuel Cell (PEMFC) has been received extensiveresearch attention since many years for energy and transportation applications. The PEMFC stacks, can produceelectricity directly from electrochemical reaction between hydrogen and oxygen in the air, with the only by-productsof water and heat. If the hydrogen is produced from renewable energy sources, this energy conversion is 100% ecofriendly.However, the relatively short lifespan of PEMFCs operating under non-steady-state conditions (for vehicles forexample) impedes its massive use. The accurate prediction of their aging mechanisms can thus help to designproper maintenance patterns of PEMFCs by providing foreseeable performance degradation information. In addition,the prediction could also help to avoid or mitigate the unwanted degradation of PEMFC systems during operation.This thesis proposes a novel data driven approach to predict the performance degradation of the PEMFC using animproved relevance vector machine method.Firstly, the theoretical description of the PEMFC during operation will be presented followed by an extensivelydetailed illustration on impacts of operational conditions on PEMFC performance, along with the degradationmechanisms on each component of PEMFC. Moreover, different approaches of PEMFC performance prediction inthe literature will also be briefly introduced.Further, a performance prediction method using an improved Relevance Vector Machine (RVM) would be proposedand demonstrated. The prediction results based on different training zones from historical data will also bediscussed and compared with the prediction results using conventional Support Vector Machine (SVM).Moreover, a self-adaptive kernel RVM prediction method will be introduced. At the meantime, the design matrix ofthe RVM training will also be modified in order to acquire higher precision during prediction. The prediction resultswill be illustrated and discussed thoroughly in the end.In summary, this dissertation mainly discusses the analysis of the PEMFC performance prediction using advancedmachine learning methods.
395

Prévision et spatialisation des concentrations en ozone troposphérique en Bourgogne

Houzé, Marie-Laure 11 December 2006 (has links) (PDF)
La thèse, réalisée au Centre de Recherches de Climatologie, UMR 5210 CNRS / Université de Bourgogne, a été co-financée par le Conseil Régional de Bourgogne et les Associations agréées de Surveillance de la Qualité de l'Air (AASQA) de la région (Atmosf'Air). Elle porte sur l'ozone, gaz toxique que les concentrations placent parmi les polluants atmosphériques les plus préoccupants de la région. Les concentrations horaires en ozone mesurées sur quelques années dans douze stations bourguignonnes sont analysées. Leurs variations spatiales et temporelles sont mises en relation avec certains éléments extra-régionaux (ozone de fond, conditions synoptiques) et infra-régionaux (propriétés physiques, occupation du sol, caractéristiques météorologiques locales et potentiel d'émission de précurseurs). Le deuxième volet concerne l'élaboration d'une méthode statistico-dynamique de prévision des concentrations maximales d'ozone pour le lendemain pour cinq stations Atmosf'Air dans l'agglomération dijonnaise, trois dans celle de Chalon-sur-Saône, deux à Mâcon, une à Montceau-les-Mines et une station rurale, dans le Morvan, à Saint-Brisson. Nous avons élaboré les modèles de prévisions avec le concours de Météo-France. Ils intègrent des prévisions météorologiques extraites d'ALADIN. La chimie est également prise en compte, puisque peuvent être intégrés dans les modèles de régressions multiples retenus, des précurseurs (oxyde d'azote) ou l'ozone mesuré par Atmosf'Air le jour où est effectuée la prévision. L'erreur moyenne de prévision est d'environ 20 μg/m3. Grâce à l'application d'un correctif qui renforce le « dynamisme » des prévisions, les pics d'ozone sont correctement prévus. Les erreurs résiduelles sont analysées et indiquent que les modèles atténuent légèrement les variations de concentrations observées lors des changements brutaux de types de temps. Des erreurs ponctuelles, mais plus fortes, sont liées à des erreurs de prévisions météorologiques ou à des concentrations anormales de précurseurs. Au total, ces prévisions sont performantes et plus fines spatialement que celles issues des modèles déterministes. Leur intérêt est indéniable localement pour informer et alerter les populations concernées. Enfin, en s'appuyant sur les résultats d'une campagne de mesures terrain (104 points échantillonnés par tubes à diffusion passive), distribués sur l'ensemble de la Bourgogne en août 2000, nous avons cherché à mieux comprendre les déterminants de la répartition spatiale de l'ozone et par conséquent les mécanismes mis en jeux. Une démarche descendante utilisant les méthodes de l'analyse et de la statistique spatiale a été développée. Tout d'abord, des indices sur les propriétés de la surface ont été créés à partir des données compilées (MNT, occupation du sol, champs atmosphériques simulés) et avec l'aide d'un Système d'Information Géographique (SIG). Ensuite, la structuration spatiale de l'ozone a été étudiée à partir de l'analyse variographique directe et croisée. Nous avons interprété ces comportements à partir des états de l'atmosphère et des indices de la surface. En plus de la forte anisotropie observée sur la répartition spatiale de l'ozone, les résultats ont fait ressortir deux types de structuration en accord avec deux situations météorologiques contrastées. Un premier type correspond à une configuration peu favorable à la formation d'ozone. Dans ce cas, la structure spatiale de l'ozone à l'échelle de la région est fortement corrélée à la rugosité de la surface. Un deuxième type correspond à une situation favorable à la production d'ozone. Nous montrons alors le forçage « biologique » de la surface sur le champ d'ozone, via des grandes classes combinant rugosité de surface et occupation du sol. Ainsi, une forte corrélation entre la concentration en ozone en un point et la proportion de forêt mixte en amont de ce point est observée. Dans tous les cas, les résultats démontrent la complexité des mécanismes et le forçage de la répartition spatiale de l'ozone en Bourgogne par la surface.
396

Méthodes structurales et probabilistes pour l'analyse de groupe en neuroimagerie fonctionnelle

Thirion, Bertrand 30 July 2009 (has links) (PDF)
La neuro-imagerie est actuellement la principale modalité non-invasive pour explorer la structure et le fonctionnement dur cerveau. Dans cette présentation, nous allons nous concentrer sur l'Imagerie par Résonance Magnétique (IRM) qui est la seule modalité à fournir une couverture de tout le volume cérébral à la résolution du millimètre. L'utilisation des données d'IRM pour mieux comprendre le fonctionnement normal du cerveau et pour diagnostiquer différentes maladies implique quelques problèmes fondamentaux: i) La capacité à utiliser des informations hétérogènes, telles que la segmentation des tissus observés en IRM anatomique, la caractérisation fonctionnelle de certaines régions cérébrales en IRM fonctionnelle et les mesures de connectivité obtenues en IRM de diffusion; ii) la capacité à opérer des comparaisons inter-individuelles pertinentes, en dépit de la variabilité impressionnante de la forme des cerveaux observée même dans des populations saines. Nous allons présenter différentes propositions pour construire des modèles moyens de l'organisation cérébrale tout en mettant en évidence la variabilité inter-individuelle avec différents outils de traitement statistique. Enfin nous allons évoquer les problèmes soulevés par la comparison des données d'IRM avec celles obtenues par génotypage complet des individus, qui fournissent les marqueurs fondamentaux de la variabilité inter-individuelle.
397

Lixiviation du Chrome, du Cuivre et de l'Arsenic (CCA)<br />à partir de sols contaminés sur des sites de traitement du bois

Lespagnol, Geoffrey 09 July 2003 (has links) (PDF)
Les pratiques industrielles du traitement du bois aux CCA (Cr, Cu et As) conduisent<br />souvent à une forte contamination des sols de ces sites industriels, et leur lixiviation naturelle<br />par les eaux de pluie constitue un risque potentiel pour les nappes phréatiques et pour la<br />chaîne alimentaire. Afin de contribuer à mieux évaluer ce risque, nous nous proposons de<br />quantifier expérimentalement et de modéliser statistiquement les concentrations en CCA<br />lixiviables à partir de ces sols.<br />Dans le but de concilier les conditions du terrain avec les contraintes du laboratoire,<br />nous avons choisi d'expérimenter la lixiviation des CCA sur des colonnes de sols pollués et<br />non déstructurés, prélevées sur des sites industriels ayant connu une longue activité.<br />Toutefois, des prélèvements de sol déstructuré (plus simples) effectués simultanément, ont été<br />expérimentés en batch (plus aisés à mettre en oeuvre que les colonnes), afin d'évaluer la<br />pertinence d'un diagnostic effectué en batch en lieu et place des colonnes. A partir de cinq<br />sites préalablement reconnus, quatorze zones parmi les plus contaminées ont été<br />sélectionnées, représentant quatorze sols différents. Sur chaque zone, nous avons délimité une<br />surface d'environ 800 cm2 pour y échantillonner 3 ou 4 répliques du sol conditionné en<br />colonnes (10 cm de diamètre et de hauteur).<br />La gamme des teneurs initiales en CCA dans ces sols s'étend de quelques dizaines à<br />plusieurs milliers de mg/kg de sol sec, et montre généralement la prépondérance du Cu devant<br />le Cr et l'As (Cu > Cr > As). De fortes variations latérales des teneurs et une atténuation<br />verticale très rapide du signal (> 10 fois) ont été observées. De telles hétérogénéités dans le<br />sol peuvent résulter de l'association d'une fixation rapide le long d'une verticale dans les<br />macropores, et d'une diffusion plus lente dans les micropores opérant dans toutes les<br />directions du sol.<br />Les évènements pluvieux ont été simulés en enchaînant plusieurs cycles de lixiviation<br />en conditions de circulation saturée en eau. Les concentrations en CCA mesurées dans chacun<br />de ces cycles atteignent rapidement un état quasi-stationnaire qui permet de proposer une<br />moyenne des concentrations pour chaque élément, pour chacun des 14 sols.<br />En mesurant les concentrations de différentes espèces de CCA en solution aqueuse<br />(spéciation), nous avons constaté que l'ordre des concentrations en CCA lixiviés est le<br />suivant : Cr(VI) < Cutot / Cu2+ < As(V). La plupart des concentrations en Cr(VI) restent en<br />dessous de la limite de la valeur-guide de 50 μg/l. Les proportions de Cu2+ restant variables<br />suivant les sols (elles peuvent atteindre plusieurs mg/l pour les sols dont les teneurs sont les<br />plus élevées). L'As(V) présente de fortes concentrations (> 50 μg/l) pour la majorité des sols.<br />L'analyse statistique par régressions linéaires multiples nous a permis de relier les<br />concentrations en CCA lixiviés avec certaines des caractéristiques essentielles des sols. Les<br />concentrations en Cu et en As lixiviés sont systématiquement corrélées aux teneurs initiales<br />du sol et aux pH du sol. Le meilleur modèle a été établi pour le Cu, expliquant 96% des<br />variations en commun, alors que le Cr n'a pu être modélisé. Le modèle de l'As explique<br />quant-à lui 94 % des variations en commun avec néanmoins de fortes variations possibles<br />entre les valeurs mesurées et les valeurs calculées par le modèle. Des relations ont aussi pu<br />être proposées pour relier les résultats des batchs à ceux des colonnes. Avec certaines<br />précautions et vérifications, ces modèles pourraient être utilisés pour estimer les quantités de<br />CCA lixiviés par la simple mesure de quelques paramètres du sol.
398

Multi-scalarité du phénomène feu de forêt en régions méditerranéennes françaises de 1973 à 2006

Mangiavillano, Adrien 20 November 2008 (has links) (PDF)
Les feux de forêt, landes, garrigues ou maquis constituent un « problème » extrêmement sérieux pour les régions euro-méditerranéennes. Les variations de ce phénomène complexe sont issues des interactions entre des paramètres de nature différente ; interactions qui peuvent être non-linéaires. Sans être propre à l'étude de cette non-linéarité, cette thèse démontre qu'il est possible, d'une part, d'en mesurer les effets sur les propriétés statistiques et physiques du phénomène et d'autre part, que l'auto-organisation, l'instabilité chronologique et l'irrégularité morphologique limitent intrinsèquement la prédictibilité d'un tel phénomène. Nous analysons ainsi, à partir de l'exemple des régions méditerranéennes françaises de 1973 à 2006 (base Prométhée), les différentes modalités de son émergence selon la situation géographique des lieux étudiés et les échelles temporelles et spatiales auxquelles il se réfère. Cette approche, essentiellement structurelle et statistique, est à même de compléter les travaux existants sur le sujet et donne l'opportunité d'aboutir à des indicateurs innovants pour une différenciation spatiale centrée sur la question des échelles. Aussi, l'enjeu de ce travail est majeur puisqu'il suppose de rechercher des récurrences, un ordre qui transcende les cas particuliers, tout en faisant écho à la prise en compte de l'incertitude chez les hommes de terrain, les ingénieurs, les physiciens, les climatologues et les géographes.
399

Microscopies de proximité :<br />Des spectroscopies aux processus physiques

Dumas, Philippe 11 January 2001 (has links) (PDF)
On l'a peut être oublié mais c'est la quête d'une sonde spectroscopique locale, qui a conduit H.Rohrer et G.Binnig à l'invention de la microscopie par effet tunnel. C'est en s'appuyant sur la physique des surfaces (domaine qui ne leur était pas familier) que les inventeurs ont favorisé la diffusion de la microscopie tunnel à l'extérieur des laboratoires d'IBM Zürich. De cette opération, initialement parallèle à leur programme de recherche officiel, devait naître toute une famille de sondes locales dérivées à commencer par la microscopie à force atomique. Le jury Nobel a, dès 1986, reconnu la portée de leurs travaux en leur accordant le prix de Physique.<br />Les développements de cette famille de techniques ont été très rapides et ont entraîné la naissance d'une communauté toujours plus large. Quinze ans après, on pourrait croire que les développements sont achevés, il n'en est rien. Des pans entiers de la recherche n'ont pas encore tiré profit de ces techniques légères de laboratoire. Parallèlement, continuent d'apparaître de nouvelles microscopies en champ proche qui soulignent d'autres propriétés physico-chimiques.<br />Il y a ainsi, disponible, une palette variée d'outils, qui permet dans de nombreuses disciplines, de visualiser des surfaces, des objets, de les sonder, de les manipuler même... Sans exclusive, ces outils, particulièrement bien adaptés, ont largement contribué au développement de la nanophysique.<br /><br /> Cette rédaction est pour moi une occasion de revenir sur une dizaine d'années de recherches et sur la physique que m'a permis d'aborder l'utilisation des Microscopies en Champ Proche. Mon propos n'est pas de rédiger une nouvelle thèse mais plutôt de montrer une démarche à moyen terme.<br />Cette démarche ne peut totalement apparaître dans les seuls articles. Il y manque en effet : la multitude d'expériences toutes individuellement insignes mais qui, touche après touche, permettent d'accéder à une vision cohérente. De même, les rencontres avec d'autres chercheurs n'y sont pas toujours mentionnées. C'est important car, au hasard de ces contacts, des affinités intellectuelles se créent et ont une influence déterminante sur la recherche.<br /><br />Lorsque je débute ma thèse en 1986, sous la direction de Frank Salvan, je suis instantanément immergé dans cette communauté tunnel naissante. L'enthousiasme partagé, les errements communs, l'apprentissage collectif ont été une véritable chance. Je garde de ces premières années un souvenir -non pas nostalgique- mais -au contraire- très vivant. Je me rappelle notamment comment la communauté a surmonté les limitations de la technique en introduisant de nouvelles sondes.<br /><br /> Force est de constater le formidable pouvoir évocateur des images fournies par les microscopies en champ proche. Cette caractéristique, très médiatique, explique indubitablement le succès de ces techniques mais est aussi parfois la raison de leur discrédit. Avec de tels supports : les images, la tentation de vulgarisation exagérée est forte. A cela s'ajoute la facilité d'accès à cette production d'image grâce aux appareils commerciaux existants. L'ensemble concourt malheureusement à la floraison, dans la littérature, d'exemples de sur-interprétation plus ou moins volontaire des données.<br /><br />On l'a dit, la physique des surfaces, a offert au STM l'occasion de se révéler à la communauté scientifique au travers de superbes images à l'échelle atomique de structures périodiques de surface. Nous sommes nombreux à avoir abordé les microscopies en champ proche en traquant la 7x7 du Si(111). Quelques années après, malgré les progrès de l'instrumentation qui rendent l'obtention de la résolution atomique plus routinière, "voir les atomes" dégage toujours pour moi une émotion (sans doute liée à la lenteur de prise d'une image). Toutefois, si le STM a permis d'avoir une meilleure connaissance de "l'intérieur" de la maille cristalline, je considère que son apport est plus dans la mise en évidence l'importance des défauts.<br />Ainsi, je ne m'étendrais pas sur les applications de la microscopie par effet tunnel à l'étude de l'ordre cristallin en surface ou des premiers stades de la croissance. J'ai en effet rapidement délaissé ce domaine en tant que tel. Je me contenterai d'écrire deux choses :<br />La première est que, même si l'apport du STM n'avait été que de nous apprendre à (mieux) préparer les surfaces, son invention aurait déjà été très appréciable. C'est un crible qui évite beaucoup d'erreurs et qui contribue alors à mieux tirer profit des autres techniques.<br />La seconde est que, en champ proche, la réussite des expériences passe de toutes manières par la maîtrise des substrats. Cette "culture" des surfaces est donc une base indispensable. Nous aurons l'occasion d'en donner des exemples.<br /><br />Le premier volet de ce manuscrit concernera les expériences récentes qui nous préoccupent actuellement dans le domaine de l'électronique moléculaire. Alors que les tailles de dispositifs diminuent, il a été maintes fois proposé d'approcher le problème par l'autre extrémité3 et d'utiliser les briques élémentaires parfaites que sont les molécules pour réaliser un édifice réalisant une fonction complexe.<br />Plus fondamentalement, que cette possibilité devienne un jour réalité ou non, il s'avère que l'on ne connaît qu'extrêmement peu de choses du transport électronique dans une molécule unique et guère plus du transport dans une assemblée de molécules comme en témoigne, par exemple, la mise en évidence récente de la supraconductivité dans des cristaux organiques.iii Une des raisons en est que prendre (ne serait-ce que) deux contacts sur une molécule unique est une tâche ardue. Comme toujours, l'émergence de ce thème de recherche résulte de la conjonction de plusieurs facteurs.<br />D'une part, un rapprochement avec des chercheurs d'un laboratoire de chimie du campus (Corinne Moustrou, André Samat et Robert Guglielmetti du GCOPL) capables de synthétiser des molécules photo-commutables transitant entre des formes dites « isolantes » et « conductrices ». <br />D'autre part, une expertise acquise, au cours de la thèse de Hubert Klein, dans la préparation de couches organiques autoassemblées qui, nous le verrons, sont une composante essentielle de ce projet.<br />Enfin, notre connaissance des sondes couplant microscopie tunnel et rayonnement électromagnétique que nous retrouverons à la fin de cette étude.<br />L'ensemble concourait à élaborer un projet de recherche commun qui était rendu encore plus cohérent en suscitant l'intérêt de théoriciens (Thierry Martin du CPT et Andres Saul du CRMC2). Nous ne sommes qu'au tout début de ce travail de longue haleine. Il y a de nombreuses voies à explorer, d'obstacles à contourner, d'instrumentation à développer mais les résultats déjà acquis sont de bon augure.<br /><br /> Le deuxième thème que j'aborderai est celui de la nanorugosité des surfaces. Il est utile de replacer les choses dans leur contexte de l'époque. A la fin des années 80, la plupart des chercheurs impliqués dans la microscopie par effet tunnel aspiraient à obtenir la résolution atomique et l'effet médiatique consécutif au prix Nobel et aux « images » (cf. plus haut) drainait vers les laboratoires possesseurs de STM quantité de projets et d'échantillons plus ou moins adaptés. En fait, avec l'avènement du STM, on avait sauté une étape qui allait bientôt être comblée par la disponibilité commerciale du premier microscope à force atomique. On disposait alors d'une visualisation du relief à l'échelle atomique mais on savait en fait très peu de la topographie des surfaces à (un peu) plus grande échelle. De plus, s'il est relativement facile de reconnaître une structure périodique à la surface d'un cristal soigneusement préparé en ultra-vide, comment différencier une surface rugueuse d'une autre, comment les comparer, les classer, comment en tirer les paramètres caractéristiques, comment en comprendre l'évolution ?<br />C'est une collaboration industrielle qui m'a donné l'occasion de me pencher sur ces problèmes et, par la suite, de développer les outils d'analyse statistique de rugosité. <br />Parmi les sollicitations extérieures, certaines émanaient d'industriels de la microélectronique (production) soucieux de « voir » pourquoi, lors des procédés en ligne, tel dépôt donnait de meilleurs résultats que tel autre. Eux se satisfaisaient tout à fait de ces fameuses images qui révélaient de nettes différences topologiques. Mais ce type d'analyse nous aurait limité à des cas très caricaturaux. Nous avons alors développé des programmes informatiques qui, à partir de la nappe 2D de la surface, en calculaient la densité spectrale de rugosité4. Les résultats furent en accord avec nos attentes. A partir d'échantillons identiques, les images conduisaient aux mêmes spectres. Des images visiblement différentes menaient à des spectres significativement distincts. Enfin, des images qui se ressemblaient permettaient de mettre en évidence des différences plus subtiles.<br />Nous en savions assez pour y consacrer plus de temps.<br />Tout c'est alors enchaîné assez vite car le hasard a voulu que des opportunités se présentent à ce moment là. Un stagiaire dynamique passait par là alors que le CNET-Meylan voulait aborder la microscopie en champ proche de manière « encadrée ». Une thèse débutait. Dans la lignée des premières expériences, nous avons entrepris des études STM de diverses surfaces de Si. Ce travail a achevé de nous convaincre de la validité de l'approche. Le CNET s'équipait d'un AFM et les expériences prenaient un tour nouveau. On pouvait maintenant balayer des surfaces de plusieurs dizaines de microns de côté alors que le champ de notre STM dédié à la résolution atomique n'était de que de 1 micron. De plus le fait de travailler à la pression atmosphèrique décuplait le flux de données et permettait de systématiser les choses. Les mesures étaient reproductibles mais il fallait aller plus loin. En effet, des erreurs systématiques peuvent canuler les mesures. Un contact s'est alors établi avec E.Pelletier et Cl.Amra (ENSPM, Marseille). Spécialistes de diffusion lumineuse, il maîtrisaient bien la mesure quantitative de la rugosité. En deux mots leur technique est la suivante : un pinceau lumineux monochromatique est envoyé sur une surface. Si celle-ci n'est pas parfaitement lisse (tout est réfléchi dans le spéculaire) ni périodique (phénomène de diffraction), de la lumière est diffusée dans toutes les directions de l'espace. Sa mesure, et des modèles classiques permettent de remonter au spectre de rugosité des surfaces dans une gamme de longueur d'onde typiquement comprise entre lambda et 20 fois lambda.<br />Nous avons défini un protocole de caractérisations croisées qui a permis de prouver que nos mesures de rugosité en AFM étaient parfaitement quantitatives.<br />La thèse d'Olivier Vatel allait permettre d'appliquer notre travail à un grand nombre de surfaces produites en milieu semi-industriel. Aux delà des spectres de DSP, nous en tirions des paramètres caractéristiques (e.g. longueurs de corrélation verticales et horizontales) et leur évolution temporelle. Sur le plan international, à cette période, on ne dénombrait que peu de publications tirant profit des mêmes outils d'analyseiv. Les résultats obtenus nous donnaient l'occasion d'aborder des domaines nouveaux. Nous lisions en particulier beaucoup dans le domaine des lois d'échellev. Ces lectures m'amenèrent à profiter d'un de mes voyages régulier à Grenoble pour y rencontrer un théoricien dont un article m'avait plu. Je ne le connaissais pas. C'était Jacques Villain. A la sortie de cette discussion, non seulement j'étais conforté dans mes recherches en cours mais de nouvelles perspectives s'offraient. En effet, certains modèles continus de croissance ou d'érosion permettaient en effet le calcul analytique complet de la densité spectrale de puissance que nous mesurions par ailleursvi. La thèse de Michel Ramonda qui débutait allait notamment s'attacher à comparer les résultats issus des mesures, des calculs théoriques à l'échelle mésoscopique ou des simulations numériques atomistiques.<br /><br /> Enfin, je décrirai quelques une des expériences d'émission de lumière stimulée par STM. Une fois les techniques (approche, usage des céramiques piézo-électriques, asservissement...) héritées du STM et de l'AFM maîtrisées, nombreuses ont été les microscopies à balayage inventées. Parmi ces développements l'observation de l'émission de lumière émise à la jonction pointe/surface d'un STM est reportée. Cette idée était dans l'air mais c'est James Gimzewski qui la réalise en premier, accédant ainsi à la vieille requête d'un de ses collègues d'IBM Zurich : Bruno Reihl, expert en photoémission inverse. Dans cette première expérience, l'énergie des photons détectés était d'une dizaine de Volts et le STM était plutôt utilisé en régime d'émission de champ. Nonobstant, la voie était ouverte. La perspective de pouvoir mesurer, à l'échelle nanométrique, des propriétés optiques effaçait à nos yeux les difficultés techniques et la maigreur du signal. C'est ainsi, qu'au travers d'une collaboration avec Gimzewski, nous nous sommes lancés dans le sujet. Quelques groupes ont suivi en Europe. De timides tentatives ont été reportées aux USAvii puis, plus tard, au Japon.<br />En ce qui nous concerne, menant ce thème de recherche simultanément à d'autres, nous avons débuté par une période d'apprentissage pendant laquelle nous avons obtenu, par cette technique, un certain nombre de résultatsviii sur des métaux ou des cristaux de semiconducteurs à gap direct. Ces résultats, avec ceux de la littérature, nous ont montré que les processus d'émission lumineuse à partir de métaux ou de semiconducteurs étaient radicalement différents:<br />Pour les métaux, l'émission est reliée à une résonance plasmon localisée entre la pointe et la surface. Cette émission dépend alors non seulement des deux matériaux mais également de la géométrie de la jonction tunnel (notamment de la forme de la pointe). En fait, la pointe tunnel exalte localement le champ électromagnétique. Les calculs développés dans ce cadreix montrent que l'extension latérale de ces modes peut, selon la pointe utilisée, descendre au nanomètre. C'est la limite de résolution que je pronostiquerai pour toutes ces sondes-outils à balayage tirant profit du champ électromagnétique à l'extrémité d'une pointe. Parmi elles, j'englobe aussi bien les techniques de lithographie en champ proche (STM et AFM) que les microscopes en champ proche optique sans ouverture utilisant des pointes tunnel. Pour clore cette parenthèse, ajoutons que ces phénomènes physiques sont les mêmes que ceux qui régissent la propagation des ondes électromagnétiques dans les matériaux nanostructurés et qui sont à l'origine par exemple des composants à bande interdite photonique.<br />Pour les semiconducteurs, la recombinaison radiative électron/trou est le processus majoritaire impliqué dans l'émission de lumière induite par STM. Le lien avec la structure électronique du matériau est donc plus direct puisque l ‘énergie des photons émis est celle de la bande interdite.<br />Ces expériences nous encourageaient à dédier un système expérimental complet à cette technique. Son installation a coïncidé avec la découverte de la luminescence du silicium poreux.xiii Le silicium poreux, matériau nanostructuré présentant de surprenantes propriétés optiques, semblait parfaitement adapté à notre technique. De fait, nous en avons étudié plusieurs aspects (morphologie, lithographie, propriétés optiques et électronique) et avons pu constater en émission de lumière stimulée par STM des rendements (nombre de photons/électrons) très importants.<br />Pour pouvoir corréler directement la morphologie mesurée par STM à l'émission de lumière, il nous fallait des échantillons bien caractérisés. Nous nous sommes alors intéressés à des nanocristallites métalliques individuelles puis de nouveau aux semiconducteurs avec, notamment, l'étude de l'émission de lumière d'un puits quantique unique d'arséniure de gallium.<br /> Ce dernier thème qui traite de la spectroscopie de nanostructures est à rapprocher de celui ayant trait à l'électronique moléculaire que nous développons actuellement. Nous retrouverons notamment dans les deux la notion, extrêmement importante, du couplage contrôlé entre le nanoobjets et les électrodes.
400

CISAILLEMENT DE MOUSSES BIDIMENSIONNELLES ÉTUDE DU RÉGIME ÉLASTO -PLASTIQUE

Ataei Talebi, Shirin 18 November 2008 (has links) (PDF)
Cette thèse s'inscrit dans l'étude de la rhéologie des mousses liquides, en étudiant expérimentalement le cisaillement de mousses bidimensionnelles. Après un rappel de l'état de l'art du domaine, on présente l'ensemble des techniques expérimentales permettant de réaliser un cisaillement simple. Ensuite on introduit la notion de désordres (géométrique, topologique) de la mousse dont on étudie l'évolution sous l'effet du cisaillement. Ceci est suivi par une étude de la déformation élastique des mousses. Enfin on étudie le régime élasto-plastique en détectant les recombinaisons topologiques entre bulles. On présente la notion d'abruptance d'une mousse et étudie celle-ci en fonction des différents paramètres qui caractérisent une mousse.

Page generated in 0.097 seconds