• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 3
  • 1
  • Tagged with
  • 11
  • 11
  • 11
  • 11
  • 11
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation du cycle océanique du néodyme

Arsouze, Thomas 03 December 2008 (has links) (PDF)
La composition isotopique du néodyme (CI de Nd, aussi notée "Nd) est un traceur de la circulation océanique et des apports lithogéniques. Dans le cadre de cette thèse, nous avons inséré les isotopes du Nd dans un modèle de circulation océanique général, afin de valider par la modélisation l'hypothèse de "Boundary Exchange" (BE, Boundary Scavenging associé à un apport de matière à l'océan le long de la marge continentale) comme principal source et puits de l'élément au réservoir océanique, et de simuler son cycle océanique. Dans un premier temps, en considérant le seul BE comme terme source/puits, nous avons pu reproduire les principales caractéristiques de la distribution océanique en "Nd (signature des principales masses d'eau, augmentation vers des valeurs radiogéniques le long de la circulation thermohaline) à la fois au niveau global et régional. Ce résultat confirme le BE comme processus primordial dans le cycle océanique de l'élément. Cette même paramétrisation du BE dans une configuration du modèle au Dernier Maximum Glaciaire nous a permis de constater que cet apport est sensible à la fois aux changements de forçages et aux changements de circulation océanique. La comparaison avec les données suggère un scénario dans le bassin Atlantique de prédominance d'eaux profondes en provenance du Sud avec une cellule méridienne vigoureuse en surface et jusqu'à 2000m de profondeur. Enfin, nous avons mis en place un modèle couplé dynamique/biogéochimique permettant de modéliser à la fois la CI et la concentration en Nd, afin de résoudre le "Paradoxe du Nd" (qui résulte d'un découplage de comportement entre ces deux paramètres) et quantifier les sources de Nd à l'océan. Les résultats montrent que les interactions dissous/ particulaires sont nécessaires pour réconcilier la distribution des deux paramètres, et que la remobilisation sédimentaire (source du processus de BE) est la source principale de Nd à l'océan (1:1:1010 g(Nd)/an), avec des flux jusqu'à 25 fois plus fort que les autres flux externes (décharges fluviales sous forme dissoute et poussières atmosphériques).
2

Effet de la température sur le comportement des barrières de confinement

Tang, Anh Minh 11 1900 (has links) (PDF)
Le présent travail étudie le comportement des barrières ouvragées d'argile gonflante compactée proposées pour le stockage des déchets radioactifs en grande profondeur sous des sollicitations thermo-hydro-mécaniques. La bentonite MX80 a été choisie pour cette étude. Premièrement, une étude expérimentale sur la conductivité thermique de la bentonite compactée a été réalisée. Cette étude a mis en évidence l'effet de la masse volumique sèche, de la teneur en eau, de la fraction volumique des composants du sol, de la microstructure et de la minéralogie. Cette étude expérimentale a donné lieu à la proposition d'un modèle théorique pour estimer la conductivité thermique des bentonites compactées. Deuxièmement, après une étude sur l'étalonnage de la succion générée par solution saline saturée en fonction de la température, on a réalisé les essais de détermination de la courbe de rétention d'eau à différentes températures. Les résultats expérimentaux ont montré une réduction de la capacité de rétention d'eau du sol due à l'échauffement. Cet effet a été ensuite simulé par une modélisation simple basée sur la tension surfacique eau-air. Troisièmement, une nouvelle cellule isotrope permettant un contrôle simultané de succion, de température, et de contrainte mécanique a été développée. Avec cette cellule, une étude expérimentale sur le comportement thermo-mécanique de la bentonite compactée non-saturée a été réalisée. Finalement, un modèle a été proposé pour simuler les comportements thermo-hydro-mécaniques observés expérimentalement.
3

Optimization of Multi-standards Software Defined Radio Equipments: A Common Operators Approach

Gul, Sufi Tabassum 12 November 2009 (has links) (PDF)
La technique de paramétrisation est très prometteuse pour la conception radio logicielle. La radio logicielle consiste à concevoir des systèmes multi-standards qui tirent bénéfice des possibilités de programmation ou de reconfiguration offertes par les composants de traitement la constituant. Cette thèse étudie la technique de paramétrisation par opérateurs communs. Les opérateurs communs sont des unités de traitements communes à plusieurs opérations qu'effectue un équipement, quelle que soit la couche du modèle OSI à laquelle elles appartiennent. La méthode proposée repose sur une approche théorique afin de résoudre le problème de conception d'un équipement multi-standards. Elle consiste en une optimisation d'un hypergraphe. La conception de l'équipement est représentée par des opérateurs à différents niveaux de granularité dans un graphe acyclique orienté. Le niveau le plus élevé représente une approche de conception d'équipements multi-standards de type Velcro. Plus les opérateurs sont bas dans le graphe, plus leur coût est faible en termes de complexité, mais plus il faut faire appel de fois à eux pour effectuer des opérations de différentes sortes. Nous décrivons ensuite en tant qu'exemples des conception basées sur les opérateurs DMFFT (dual mode FFT), LFSR (linear feedback shift register) et le cas du FRMFB (frequency response masking filter bank). Les solutions basées sur les opérateurs communs proposées dans cette thèse peuvent contribuer à optimiser la conception des futurs équipements multi-standards de radio logicielle qui devront supporter de nombreux standards de communication sans fil.
4

Développement du projet SETUP (Simulations Expérimentale et Théorique Utiles à la planétologie) : application à l'étude de la physico-chimie de l'atmosphère de Titan

Arzoumanian, Emmanuel 02 December 2010 (has links) (PDF)
Le travail de cette thèse s'inscrit dans le cadre du développement du programme S.E.T.U.P. (Simulations Expérimentale et Théorique Utiles à la planétologie) dont l'objectif est d'effectuer des simulations représentatives de l'atmosphère de Titan et de déterminer les processus physico-chimiques qui y sont impliqués. Pour ce faire, un dispositif expérimental combine deux types de dépôts d'énergie (électrons et photons) représentatifs des processus de dissociation des molécules N2 et CH4 qui composent majoritairement l'atmosphère de Titan. De plus, une technique d'analyse par spectroscopie laser doit permettre d'identifier et de quantifier des produits et donc de suivre l'évolution du mélange réactionnel in situ en temps réel.La méthodologie adoptée pour la mise en œuvre des expériences de simulations a été de caractériser l'ensemble des étapes depuis les sources énergétiques jusqu'à l'analyse des produits et de développer les outils de modélisation nécessaires à l'interprétation des expériences.Dans un premier temps, il s'est agit de mieux caractériser les deux types de photolyse du méthane envisagés. En effet, il est prévu d'utiliser soit une lampe UV délivrant un rayonnement à Lyman-α (121,6 nm) soit un laser excimère KrF pulsé délivrant un rayonnement à 248 nm. Ce dernier doit en effet permettre des études cinétiques concernant les espèces à courte durée de vie. Des expériences d'irradiation de CH4 et d'un mélange N2/CH4 aux deux longueurs d'onde ont été menées puis simulées grâce à un modèle 0D.L'analyse fine des résultats issus des irradiations de CH4 à Lyman-α montre que des travaux complémentaires sont nécessaires pour comprendre les différences entre les expériences et le modèle chimique. En particulier, une caractérisation de l'émission de la lampe s'est avérée indispensable et a été réalisée afin d'améliorer la compréhension de la chimie mise en jeu. Les résultats obtenus lors de l'irradiation à 248 nm suggèrent que la source laser utilisée pourrait provoquer l'ionisation de CH4 et induire une chimie ionique qui n'était pas envisagée au départ. Ce type d'irradiation pourrait se révéler intéressant pour étudier les processus ionosphériques de l'atmosphère de Titan. En revanche, cette source doit être abandonnée pour l'étude de la chimie des neutres. Une source pulsée à Lyman-α devra être développée.Dans un deuxième temps, trois types d'expériences préliminaires de simulations de l'atmosphère de Titan ont été effectuées. Afin de mieux comprendre l'importance relative de chaque source énergétique, des expériences dites de " plasma " où N2 et CH4 sont dissociés simultanément dans un plasma crée par décharge microonde, ont tout d'abord été menées. Ensuite, des expériences dites de " post-décharge " où CH4 est introduit dans l'enceinte après la dissociation de N2 par plasma, ont été conduites. Et enfin, des expériences dites de " couplage ", censées mieux représenter les processus de l'atmosphère de Titan où CH4, toujours introduit en post-décharge, est cette fois photodissocié à Lyman-α, ont été réalisées.Lors des expériences " plasma ", dix composés sont identifiés : HCN, NH3, HC3N, C2H2, C2H4, C2H6, C3H4, C4H2, HC5N et C6H2. Leur abondance est globalement en bon accord avec celle déterminée par les observations de la haute atmosphère de Titan dans la zone comprise entre 900 et 1200 km d'altitude validant ainsi le module plasma du dispositif. Lors des expériences " post-décharge " et " couplage ", seuls les composés azotés HCN et NH3 sont formés et cela indépendamment du fait que le CH4 subisse ou pas une irradiation UV. Ce résultat s'explique par le fait que le taux de photodissociation du CH4 se révèle très inférieur à la dissociation de N2 par les électrons, ce qui empêche une complexification chimique des hydrocarbures dans les simulations. Il s'avère donc indispensable de modifier la source de rayonnement à Lyman-α afin d'être beaucoup plus efficace en terme de flux.Les résultats acquis grâce à cette méthodologie " étape par étape " ont permis de mettre en évidence les paramètres qu'il faut impérativement maîtriser pour la mise en œuvre de simulations pertinentes de l'atmosphère de Titan. Ils définissent aussi l'orientation des futurs développements du projet SETUP
5

Aide à la conception de légendes personnalisées et originales : proposition d'une méthode coopérative pour le choix des couleurs

Christophe, Sidonie 30 October 2009 (has links) (PDF)
Aide à la conception de légendes personnalisées et originales : proposition d'une méthode coopérative pour le choix des couleurs Les utilisateurs s'approprient aisément les outils cartographiques numériques pour se construire leur propre carte. Cependant, l'accès aux outils ne suffit pas pour concevoir une légende cartographique de qualité. Il est nécessaire de savoir comment faire de bons choix de représentation graphique, en particulier de bons choix de couleurs. Une expertise cartographique comportant des connaissances en sémiologie graphique et en perception des couleurs (contrastes et harmonies) est nécessaire : soit l'utilisateur possède ces connaissances, soit les outils doivent les lui apporter. Dans ce contexte, nous cherchons à aider les utilisateurs à concevoir des légendes personnalisées et originales, en nous concentrant sur l'aide au choix des couleurs. Nous proposons une méthode de conception coopérative en quatre phases reposant sur des interactions homme-machine : 1- choix d'une source d'inspiration, 2- acquisition des préférences de l'utilisateur sur les sources d'inspiration, 3- interprétation des préférences et construction de légendes adaptées, 4- retouche de légendes. Deux stratégies de conception sont envisagées en utilisant deux types de sources d'inspiration : des échantillons de carte et des toiles de maîtres. En partant du constat que des désaccords entre l'utilisateur et le système peuvent se produire, nous proposons d'utiliser des techniques de dialogue homme-machine pour améliorer l'adaptation du système à l'utilisateur. Le modèle de dialogue ainsi proposé est implémenté dans le prototype COLorLEGend (COLLEG)
6

Recherche et caractérisation d'exoplanètes par photométrie : développement et exploitation du projet ASTEP

Crouzet, Nicolas 03 November 2010 (has links) (PDF)
La photométrie des transits est une méthode puissante pour la détection et la caractérisation des exoplanètes. Le Dôme C, en Antarctique, est un site extrêmement prometteur pour les observations photométriques, grâce à une nuit continue de 3 mois durant l'hiver austral et des conditions atmosphériques très favorables. Le projet ASTEP (Antarctic Search for Transiting ExoPlanets) vise à détecter et caractériser des planètes en transit, ainsi qu'à déterminer les limites de la photométrie dans le visible depuis la station Concordia, au Dôme C. Il se divise en deux phases : ASTEP Sud, un instrument fixe de 10 cm, et ASTEP 400, un télescope pointable de 40 cm. Le travail présenté dans cette thèse est dédié au développement et à l'exploitation du projet ASTEP. Un simulateur photométrique est élaboré, et permet d'identifier les sources de bruit affectant la photométrie, telles que les variations de seeing ou de la forme des PSF (Point Spread Function). Des simulations aboutissent au choix des caméras CCD d'ASTEP. Ces caméras sont alors testées et caractérisées. On présente ensuite ASTEP Sud, un instrument fixe composé d'une lunette de 10 cm et d'une caméra CCD dans une enceinte chauffée, qui pointe en permanence un champ de 3.88°x3.88° centré sur le pôle sud céleste. La stratégie d'observation est validée, et les différents éléments de l'instrument sont choisis. Les paramètres d'observation sont définis à partir d'une étude de la contamination et des tests sur le ciel. ASTEP Sud a fonctionné quasiment en continu durant les hivers 2008, 2009 et 2010. L'analyse préliminaire des données permet de qualifier le Dôme C pour la photométrie : la fraction de temps excellent pour les observations photométriques est comprise entre 56.3 et 68.4 % pour l'hiver 2008 et entre 59.4 et 72.7 % pour l'hiver 2009, ce qui est meilleur que dans les grands observatoires des régions tempérées. Les courbes de lumière des 8000 étoiles du champ sont extraites. Le traitement est en cours d'amélioration pour atteindre une précision permettant d'identifier la signature de transits d'exoplanètes. Le coeur du projet, ASTEP 400, est un télescope de 40 cm entièrement conçu et développé dans le but d'effectuer des observations photométriques de qualité dans les conditions extrêmes de l'hiver antarctique. On présente les différentes études menées par les membres de l'équipe ASTEP (études optiques, mécaniques, thermiques, développement logiciel) ; en particulier, on détaille les simulations photométriques et l'étude du guidage. Après des observations de test à l'Observatoire de Nice, ASTEP 400 est installé à Concordia durant la campagne d'été 2010. Le fonctionnement du télescope est nominal dès le début des observations. La précision photométrique obtenue est équivalente à celle de télescopes de 1.5 à 2 m situés dans des sites tempérés. De plus, l'observation continue pendant 1 mois de planètes à transits connues permet d'atteindre une précision de 200 ppm, inégalée pour des observations photométriques dans le visible depuis le sol. On obtient ainsi une limite supérieure sur la profondeur du transit secondaire, et donc sur la température de brillance de ces planètes dans le visible. En parallèle, le suivi d'alertes microlentilles avec ASTEP 400 permet de compléter les données d'autres télescopes, et de participer à la détection d'objets de type naine brune ou planétaire. Le fonctionnement nominal d'ASTEP 400 durant tout l'hiver 2010 et la qualité des données obtenues confirment le potentiel du Dôme C pour la recherche et la caractérisation de planètes en transits, et pour la photométrie dans le visible en général.
7

Simulation numérique de la reconnexion magnétique : mécanismes cinétiques sous-jacents à la description fluide des ions

Aunai, Nicolas 08 February 2011 (has links) (PDF)
La capacité à libérer l'énergie stockée dans le champ magnétique et à briser le théorème du gel font de la reconnexion magnétique un des phénomènes les plus importants de la physique des plasmas. Lorsqu'elle se produit dans un environnement non-collisionel comme la magnétosphère terrestre, une modélisation cinétique est à priori nécessaire. Cependant la plupart de notre compréhension du phénomène se base sur un interprétation fluide, plus intuitive. Dans quelle mesure ces deux interprétations d'un même phénomène sont-elles reliées ? C'est la problématique à laquelle cette thèse s'intéresse, dans le cas de la reconnexion antiparallèle et pour la population ionique du plasma. La première partie de ce travail s'intéresse à l'accélération fluide et cinétique des protons au sein de la région de reconnexion. Il est montré comment le mouvement individuel des particules joue un rôle du point de vue fluide via la force de pression, jusqu'alors négligée dans les modèles. Ces résultats ont également mené dans une seconde partie à des prédictions et vérifications observationnelles basées sur les données des satellites Cluster. Dans un troisième temps, nous montrons le rôle important joué par le flux d'énergie thermique dans le transfert d'énergie au cours du processus de reconnexion, dans le cas symétrique et asymétrique. Enfin la dernière partie de ce manuscrit propose une solution au problème fondamental consistant décrire une couche de courant tangentielle asymétrique dans un état d'équilibre cinétique
8

Etude des proprietes d'un detecteur infrarouge H2RG pour l'optimisation d'un spectrographe embarque sur le satellite SNAP/JDEM

Crouzet, Pierre-Elie 21 October 2009 (has links) (PDF)
Le travail eectue pendant cette these s'inscrit dans le cadre de la mission SNAP (SuperNovae Acceleration Probe). Celle-ci se propose de determiner la nature de l'energie Noire par la combinaison de mesures d'un echantillon de supernovae lointaines de type Ia avec des mesures de cisaillement gravitationnel. Le satellite embarquera deux instruments : un imageur grand champ et un spectrographe d'une precision photometrique et spectroscopique jamais atteinte. L'objectif de cette these est d'etudier les proprietes des detecteurs infrarouges hybrides H2RG (produits par Teledyne) du spectrographe pour optimiser ses performances. Pour cela, le detecteur H2RG numero 40 a ete caracterise puis utilise dans un prototype de spectrographe. Le mode de traitement des donnees a egalement ete optimise pour diminuer le bruit de lecture et quantier l'impact du rayonnement cosmique. Ces aspects seront developpes dans cette these ainsi que leurs impacts sur les performances du spectrographe.
9

Hausse du niveau de la mer et impact du changement climatique global

Llovel, William 06 December 2010 (has links) (PDF)
Au cours du 20ème} siècle, les enregistrements marégraphiques suggèrent une hausse du niveau de la mer de 1.8 mm/an. Plus récemment, les observations spatiales indiquent une hausse de 3.3 mm/an sur la période 1993-2009. Cette augmentation au cours du temps est attribuée au réchauffement global de la planète enregistré depuis plusieurs années maintenant. Durant cette thèse, nous analysons les observations et les causes de la hausse moyenne globale du niveau de la mer. Nous estimons les variations stériques du niveau de la mer grâce aux données du projet international Argo et, les variations de masse des océans liés aux apports d'eau des continents à l'aide des mesures de la mission GRACE. Une autre étude se concentre sur la variabilité du stock d'eaux continentales des plus grands bassins hydrologiques de la planète, à l'aide des données GRACE, et l'impact de cette composante à la hausse du niveau de la mer. Puis, nous analysons l'impact de la variabilité interannuelle du stock d'eaux continentales aux variations du niveau de la mer sur diverses périodes. Enfin, nous étudions le bilan des contributions climatiques à la hausse observée du niveau de la mer sur la période altimétrique totale et pour les années récentes. Dans une deuxième partie, nous étudions les variations régionales du niveau de la mer. Nous établissons dans un premier temps, les causes de la variabilité régionale du niveau de la mer et nous interprétons le signal résiduel issu de la différence entre le niveau de la mer observé et l'expansion thermique des océans. Nous étudions ensuite les variations passées des structures régionales du niveau de la mer sur les dernières décennies (1950-2003). Le but est de reconstruire les variations passées du niveau de la mer en 2-D et ainsi d'avoir une connaissance plus approfondie de l'évolution régionale du niveau moyen des mers. Ce travail a pour objectif ultime de contraindre les modèles climatiques couplés utilisés par l'IPCC (Intergovernmental Panel on Climate Change) pour prédire l'évolution future du niveau de la mer au cours du 21ème siècle. Cette analyse nous permet de détecter un signal basse fréquence dans la variabilité régionale du niveau de la mer que nous observons non seulement dans les données in situ mais aussi dans les modèles climatiques couplés.
10

Modélisation de la dynamique océanique barotrope dans l'estuaire et le plateau amazoniens

Le Bars, Yoann 22 March 2010 (has links) (PDF)
À la frontière entre les continents et les océans, les marges continentales sont le siège de la grande majorité des apports de matière - dissoutes et solides, organiques et inorganiques - d'origine continentale vers l'océan. Elles sont aussi directement en contact avec les masses d'eau océaniques qui échangent de la matière et des éléments avec ces marges. L'érosion et le transport par les rivières étant une des sources essentielles des éléments chimiques à l'océan, la remise en suspension de matériel sédimenté et les forts mélanges d'eau favorisent les transferts de matière du continent vers l'océan. Le projet Amandes a pour objectif l'étude de ces échanges entre continents et océans, en étudiant le cas particulier du transport d'éléments en provenance des montagnes andines vers l'océan Atlantique par le système amazonien. Trois disciplines complémentaires - géochimie continentale et marine, océanographie physique et modélisation hydrodynamique (incluant l'assimilation de données) - sont associées pour atteindre ces objectifs. Parmi les modèles de la zone existants, aucun ne répond aux besoins du projet Amandes. Cette thèse a consisté à établir un nouveau modèle, qui permettra d'explorer en profondeur le problème du transport, c'est-à-dire le déplacement de toute la colonne d'eau et ce qu'elle contient, par exemple des sédiments. Cependant, établir un nouveau modèle hydrodynamique dans le but d'étudier le transport de matériaux par le fleuve Amazone dans l'océan Atlantique était un sujet trop ambitieux pour une seule thèse. En conséquence, nous nous sommes attachés à établir les bases d'un modèle qui sera étendu par la suite. Pour répondre à ses besoins de modélisation, le projet Amandes a opté pour le modèle à grilles non-structurées T-UGOm. L'avantage des grilles non-structurées est leur grande souplesse, qui leur permet de s'adapter finement aux spécificités géographiques de la zone modélisée. Dans le cas de l'estuaire de l'Amazone, où la géographie peut être complexe, cette particularité est un avantage critique. Pour appliquer T-UGOm au cas de l'Amazone, il a fallu préciser certains schémas numériques. Également, l'estuaire étant une zone de fortes marées, avec des fonds de faibles profondeurs sur de grandes étendues et soumise à de forts courants, le frottement de fond a une influence primordiale. Nous avons donc apporté un effort important pour affiner la prise en compte de ce frottement par le modèle. D'autre part, tant la faiblesse des fonds marin que la complexité de la géographie induisent également une forte influence du trait de côtes et de la bathymétrie. En conséquence, une part importante des efforts a été dédiée à établir un trait de côtes et une bathymétrie de la zone aussi précis que possible. La marée étant le phénomène hydrodynamique de plus forte amplitude dans la zone, nous nous sommes focalisés sur sa modélisation. Les développements évoqués précédemment ont permis, lorsque l'on compare notre meilleure solution de marée avec les données in situ et satellites, d'améliorer sensiblement la modélisation de la marée. En comparant notre meilleure solution avec celles déjà publiées, celle-ci est plus proche des données collectées. Ceci ouvre la voie à une modélisation hydrodynamique plus complète, en particulier du transport.

Page generated in 0.0786 seconds