• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 486
  • 72
  • 47
  • 4
  • 3
  • Tagged with
  • 636
  • 229
  • 154
  • 81
  • 73
  • 69
  • 68
  • 65
  • 58
  • 56
  • 54
  • 46
  • 45
  • 44
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

KIMONO: une méthode de modélisation descriptive centrée agent pour l'explication des systèmes complexes, une application en épidémiologie

Amouroux, Edouard 30 September 2011 (has links) (PDF)
Depuis plusieurs années, on peut observer une tendance, dans de nombreux domaines (Sociologie, Ecologie, Economie, etc.), à construire des modèles vers l'exploration des systèmes qu'ils représentent que vers la prédiction ou l'explication. S'inscrivant dans le paradigme des "systèmes complexes", ces modèles exploratoires utilisent généralement une représentation explicite et détaillée des composants du système étudié. Ils offrent aussi aux utilisateurs finaux (chercheurs, décideurs, parties prenantes) une grande liberté d'adaptation en termes de paramètres et de structure du modèle. Ces modèles servent de support à des expériences "as-if" en permettant, au travers de ces ajustements, la formulation d'hypothèses détaillées et ce à différents niveaux de descriptions du système. A partir de ces hypothèses, des scénarios sont construits, dont les résultats sont explorés et analysés grâce à des simulations répétées. L'épidémiologie est exemplaire de cette situation. Elle a une longue histoire de modélisation qui peut être caractérisée comme la recherche de modèles essentiellement prédictifs. Cependant, certaines situations, comme l'émergence de foyers épidémiques de grippe aviaire en Asie du Sud Est, montre la limite d'une telle approche: sans une prise en compte adéquate des interactions entre les dynamiques sociales, écologiques et biologiques, l'utilisation de modèles prédictifs est sans fondement. De plus, dès lors que l'on tente de prendre en compte ces dynamiques, les modèles deviennent dépendants de données incomplètes ou qualitatives (le processus de décision des acteurs sociaux ou bien le comportement des oiseaux, par exemple). En conséquence, on assiste actuellement à un changement d'orientation de la communauté épidémiologique vers la conception de modèles plus exploratoires, mieux adaptés à la génération et à l'étude d'hypothèses variées, et mieux à même d'aider à mesurer, par rapport à ces hypothèses, l'impact des politiques locales et globales de lutte contre les épidémies dans le cadre de scénarios complexes. Cependant, concevoir et utiliser de tels modèles souligne les sérieux problèmes méthodologiques auxquels ne peuvent réellement répondre les méthodologies de modélisation et simulation existantes. Et quand celles-ci ont été adaptées pour prendre ces spécificités en compte, il en résulte des solutions ad hoc qui ne peuvent être réutilisées ni dans le domaine en général, ni dans d'autres domaines. L'objectif de cette thèse est de proposer une méthodologie (KIMONO) qui, sans être spécifique à un domaine particulier, facilite la conception et l'utilisation de ces modèles exploratoires. En partant d'une série d'exemples tirés de différents domaines (trafic routier, ségrégation sociale, dynamique du sol, mais aussi, et de façon plus extensive, épidémiologie), je commence par une caractérisation des besoins de conception (prise en compte d'hypothèses contradictoires et évolutives lors du processus de modélisation, génération de modèles extrêmement modulaires, rendant possible un cycle de modélisation itératif, permettant la collaboration entre différents experts et la combinaison de différents formalismes, etc.) pour aboutir à une proposition concrète impliquant un outil informatique dédié et un formalisme commun et accessible, orienté aussi bien vers la facilitation de la collaboration, la communication et l'implémentation de "modèles monde" (le nom donné dans ce document à ces modèles exploratoires ouverts). La méthodologie que je propose se concentre sur deux éléments: l'implication des experts et la représentation détaillée du système. Les experts sont au coeur de processus de modélisation. Celui-ci s'appuie sur une description étendue de leurs connaissances, potentiellement exprimées dans leurs propres formalismes, description qui est ensuite amendée de façon itérative (soit pour la complexifier, soit pour la simplifier) dans un dialogue continu avec les modélisateurs et en utilisant le modèle pour support. Ce processus itératif s'arrête quand les experts estiment qu'ils ont obtenu suffisamment de précisions sur le système ou lorsque la poursuite de ces itérations nécessite des expériences ou données de terrain. Concernant les types de représentations qui soient adaptées à un tel processus, je propose une combinaison modulaire et adaptable de deux systèmes d'implémentation: les modèles à base d'agent (MBA) et les Systèmes d'Information Géo-référencées (SIG). Je montre que cette combinaison offre une très grande souplesse de description des composants d'un système (réel), qu'elle permet de représenter de façon équivalente les 5 DRAFT 26/09/11 connaissances qualitatives et quantitatives des experts, et qu'elle supporte un haut niveau d'évolution des hypothèses au cours du processus de modélisation. Les protocoles d'interaction proposés entre modélisateurs et experts se basent sur deux abstractions de cette implémentation: ODD (Overview, Design concepts, Details, un protocole de communication de modèle) et GAML (un langage de modélisation pour la programmation collaborative du modèle). La méthodologie proposée a été appliquée et validée dans le contexte d'une étude détaillée située en Asie du Sud Est (essentiellement au Nord Vietnam) par des épidémiologistes et des vétérinaires. Ceux-ci voulaient pouvoir évaluer, en l'absence de données de terrain ou de résultats d'expérimentation, l'effet de différentes hypothèses expliquant la réapparition récurrente de foyers épidémiques de grippe aviaire parmi la population domestique de volailles. Au cours de cette coopération interdisciplinaire, qui a duré quatre ans, plusieurs "modèles monde" ont été co-conçus et implémentés au sein de la plate-forme GAMA, et utilisés comme "laboratoires virtuels" par les experts. Cette collaboration, et ces résultats, ont permis de tester un large champ d'hypothèses (en particulier sur les conditions locales de persistance), d'avoir une meilleure compréhension du rôle de l'environnement spatial, des facteurs écologiques et sociaux dans la survie et la propagation du virus et ont également permis de réorienter certaines des études de terrains.
122

Méthodologie d'analyses énergétique et exergétique des procédés de transformation de produits dans l'industrie

Abou Khalil, Bachir 12 December 2008 (has links) (PDF)
Les émissions de Gaz à Effet de Serre, la raréfaction prochaine des énergies fossiles et l'augmentation de leurs prix ont conduit la France à mettre en place, entre autres mesures, le plan des Certificats d'Economie d'Energie. Ce plan oblige les fournisseurs d'énergie, notamment EDF, à préparer des actions d'économies d'énergie chez leurs clients. Pour les petites et moyennes industries, les coûts d'analyses énergétiques poussées peuvent être hors de leurs moyens. Le but est donc de développer une méthodologie limitant le temps d'analyse ainsi que le type et la quantité des données nécessaires. Les méthodologies existantes ont été revues en détail, et des leçons essentielles ont été tirées sur leurs avantages et inconvénients. Une méthodologie a été développée, appelée Analyse Energétique et Exergétique des Procédés de transformation (AEEP). Cette méthode comprend trois étapes, dont la première, appelée Analyse Procédé (AP), est fondamentale et constitue un travail amont effectué une fois par type de produit. Cette étape consiste en la détermination de l'Energie Minimale Requise pour la transformation de la matière première en produit final, pour en tirer le Meilleur Procédé de Transformation. L'AP a été appliquée à plusieurs opérations industrielles unitaires, montrant ainsi la généricité et la systématicité de la méthode. Ensuite, une application directe de la méthodologie AEEP est effectuée sur une unité de fabrication de fromages. Les résultats ont montré que cette méthode est applicable à tous les niveaux d'audit (à faible et haut coûts). Elle permet aussi l'identification de solutions d'améliorations de la performance énergétique du système de production, non identifiables par les méthodes classiques.
123

Méthodologie GPS, mesure des déformations verticales et humidité atmosphérique

Bouin, M.-N. 19 January 2010 (has links) (PDF)
Pendant 10 ans, j'ai travaillé au LAREG (Laboratoire de Recherche en Géodésie de l'IGN) sur la méthodologie du traitement GPS pour le positionnement vertical précis, avec plusieurs applications à des domaines variés des sciences de la Terre. J'ai cherché : 1) à mettre en évidence et quantifier les sources d'incertitudes, qu'elles viennent d'effets physiques (traversée de l'atmosphère par les signaux GPS en particulier) ou géodésiques (effets géométriques ou de systèmes de référence..) ; 2) à obtenir les résultats les plus précis, voire les plus exacts possible, en développant une méthodologie adaptée. Les domaines d'application où j'ai obtenu des résultats novateurs sont : la déformation d'une zone de subduction rapide, l'arc des Vanuatu. Sur cette zone bien instrumentée par l'IRD depuis plus de 15 ans, nous avons obtenu un champ de vitesses 3D précis grâce à un traitement adapté et cohérent. On met ainsi en évidence l'effet de la Ride d'Entrecasteaux, relief sous marin qui s'engage dans la subduction, sur les vitesses verticales proches de la fosse et très probablement sur le cycle sismique. l'étude des variations à long terme du niveau de la mer. La mise en place d'un centre d'analyse GPS des données des stations colocalisées avec les marégraphes d'un réseau mondial permet, avec près de 10 ans de données continues traitées de 1) proposer un champ de vitesses verticales homogènes sur plus de 220 stations, validé par des estimations géophysiques indépendantes ; 2) en utilisant ces vitesses, réévaluer la vitesse long terme de variation du niveau de la mer dans un référentiel absolu (donc comparable aux variations données par l'altimétrie sur 15 ans). l'étude de l'humidité atmosphérique dans le cycle de mousson en Afrique de l'Ouest. Durant la campagne AMMA, qui s'est déroulée principalement de 2005 à 2007 en Afrique de l'Ouest, nous avons mis en place un réseau de 6 stations GPS permanentes et un centre d'analyse de leurs données pour la production de Contenus Intégrés en Vapeur d'Eau atmosphérique. Des traitements automatiques en temps peu différé ont fourni, pendant toute la durée de la campagne, des indicateurs d'aide à la décision, avec des CIVE comparables aux prévisions et aux analyses. Le traitement scientifique, à l'état de l'art, met en évidence des biais importants des mesures « classiques » de radio sondages en Afrique, qui se répercutent ensuite sur les analyses. Il apporte des informations nouvelles sur les différentes étapes de la mousson (que l'on caractérise bien par l'évolution de la vapeur d'eau atmosphérique) et sur le cycle diurne et son évolution au cours du cycle de mousson. la géodésie de fond de mer. Les résultats ne concernent pour l'instant que la composante verticale. Sur une zone calme au Vanuatu, des tests sur un réseau de répétition montrent que la répétabilité sur la hauteur ellipsoïdale d'un repère installé par 16 m de fond est sub centimétrique. Le facteur limitant est la précision que l'on peut obtenir sur la mesure de hauteur par GPS en surface, évaluée grâce à une étude méthodologique à 10 à 15 cm sur la zone d'intérêt (fosse de subduction). On a obtenu, sur cette zone, une cartographie GPS de la surface moyenne océanique à même précision, qui met en évidence des biais importants dans les surfaces altimétriques et alti-gravimétriques au Vanuatu.
124

Parcours, déplacements et actions face au rayon : mieux comprendre le comportement physique du consommateur en magasin pour mieux comprendre ses achats

Schmitt, Julien 08 December 2009 (has links) (PDF)
Si l'étude du comportement du consommateur en magasin prend une importance croissante dans la littérature en marketing, la plupart des recherches n'observent pas réellement ce comportement. Le plus souvent, il est mesuré par des questionnaires, c'est-àdire comportements déclarés pouvant être très différents du comportement réel. Pourtant, les achats du consommateur, pour la plupart décidés en magasin, dépendent directement de son comportement physique en magasin, c'est-à-dire de son parcours à travers le point de vente, des rayons visités et évités, des produits devant lesquels il passe et des actions qu'il effectue quand, arrêté devant un rayon, il prend, examine, essaie et finalement repose ou choisit un produit plutôt qu'un autre. L'idée principale de cette thèse est donc d'étudier le comportement physique du consommateur en magasin. Cette thèse est composée de deux études. La première étude a pour but de mieux comprendre de qu'est le comportement physique en magasin : en avoir une vue synthétique et intelligible en identifiant les principales dimensions qui le composent et ses relations avec les achats. La deuxième étude a pour objectif d'utiliser l'information contenue dans ce comportement physique pour améliorer un modèle probabiliste d'analyse des achats : l'analyse du panier du consommateur. Chacune de ces recherches permet d'étudier le comportement sous un angle différent. L'ensemble tente ainsi d'apporter une connaissance nouvelle sur le comportement du consommateur en magasin. Pour atteindre nos objectifs de recherche, nous avons développé un nouvel outil de recueil de données permettant d'observer de manière non intrusive et de saisir et chronométrer les actions précises des consommateurs tout au long du parcours en magasin.
125

Evolution des formes comptables en contexte de transition économique. Le cas du Viêt Nam

Lê, Nhu Tuyên 16 July 2008 (has links) (PDF)
Sombart (1916) au début du siècle dernier évoquait une "indissociabilité" entre les systèmes économiques, notamment le capitalisme, et la comptabilité. Cette thèse est une contribution à cette perspective séminale soulignant l'importance de la comptabilité dans la construction institutionnelle des systèmes économiques. Après la chute du mur de Berlin, les anciennes économies communistes entrèrent dans un processus dit de "transition économique". Ce contexte de transition, conduisant à l'émergence d'une économie de type capitaliste, se présente comme un terrain idéal pour enquêter sur les relations consubstantielles entre comptabilité et économie. Le processus de transition économique au Viêt-nam a été retenu comme terrain d'enquête. Un travail de collecte s'étant étalé sur quatre ans a permis de rassembler un très grand nombre de sources documentaires et des archives d'entreprise. Nous avons également mené des entretiens avec des témoins vivants de l'histoire comptable vietnamienne et administré un questionnaire à une centaine de répondants. L'ensemble fut traité selon la méthode historique. Des idéaux-types d'une part des systèmes économiques de type communiste et capitaliste, d'autre part des systèmes comptables qui leur sont associés ont été construits. Ils ont servi de guide tout d'abord dans une revue de littérature consacrée aux écrits académiques portant sur la transition comptable. Ils ont également permis le décryptage de notre abondant matériel documentaire et d'instrument d'interprétation des données. Nous livrons au final sous forme de récit historique une analyse du processus de la transition économique au Viêt-nam entre 1975 et 2003. Cette thèse essaie de montrer comment différentes formes comptables traduisent, au gré des réformes, le passage d'une économie centralisée et planifiée (de type communiste) vers une économie de marché (de type capitaliste).
126

ESSAI SUR LA DECADENCE L'HERMENEUTIQUE D'UN OBJET TRANSDISCIPLINAIRE ET SES CONSEQUENCES POUR UNE RECHERCHE EN GESTION

Jardat, Rémi 23 June 2010 (has links) (PDF)
Les recherches présentées ici reflètent l'importance de la transdisciplinarité et du structuralisme (en sens large du terme) en sciences de gestion. Deux études de terrain témoignent tout d'abord de la résistance du phénomène de gestion aux grilles de lecture purement organisationnelles : d'une part, la confrontation au Crédit Mutuel, banque coopérative dont les spécificités appellent le recours à un méta-modèle démocratie-efficacité complexe, et d'autre part, l'étude d'un projet de mécénat humanitaire, dont la gouvernance est à la fois dans et hors de la gestion. L'intérêt des approches structuralistes au sens large est ensuite souligné par l'exemple d'un travail d'archéologie du management stratégique par la méthode de Michel Foucault d'une part et par le décryptage des projets informatiques conflictuels par la sémiotique d'Algirdas-Julien Greimas d'autre part. Ce compte rendu de travaux réalisés pendant 8 années de recherche en gestion est suivi d'une étude nouvelle réalisée dans le cadre de l'Habilitation à Diriger des Recherches. Il s'avère que le concept de déclin, très utilisé en gestion du fait de la détermination de divers cycles de vie, constitue une notion à la fois très porteuse et très suspecte. Cette notion est par ailleurs massivement utilisée pour parler d'autres aspects des affaires humaines (économie, histoire, sociologie, etc.) sans que soient bien cernées les éventuelles significations que ces emplois multiples peuvent occasionner. Il est alors proposé d'étudier un objet transdisciplinaire – le « déclin-décadence-déclassement » - à l'aide d'une analyse transposant aux sciences humaines un certain nombre de notions structurales issues de la géologie. Si l'on admet en effet que les affaires humaines sont avant tout sujettes à représentations, il apparaît possible de décrire leur structure à travers deux notions-clés que sont le pli et la schistosité. Le pli est une représentation qui superpose deux termes en explicitant cette superposition, de sorte que le sens de chacun des deux termes avant l'établissement du pli soit expliqué et reste accessible à l'enquête. La marque formelle d'une représentation en pli consiste en énoncés portant sur cette représentation et affirmant son caractère conjectural et discutable. La schistosité caractérise toute représentation qui superpose deux termes de sorte que, pour au moins l'un d'entre eux, le sens auquel il était employé avant l'établissement de la représentation diffère de celui auquel il est employé une fois superposé à l'autre terme, sans que cette différence soit assumée ni même évaluable. La marque formelle d'une représentation schisteuse est typiquement l'homonymie subreptice à laquelle recourt toute généralisation abusive. L'analyse structurale est appliquée en deux volets. Un premier volet prend pour matériau d'analyse les représentations du « déclin-décadence-déclassement » produites dans le cadre de l'historiographie romaine (période impériale). Un second volet prend pour matériau d'analyse le matériau de gestion défini comme l'ensemble des représentations afférentes aux phénomènes de gestion. L'étude de ces deux matériaux est conduite en trois étapes transposées du processus de la géologie en train de se faire : la topographie, la palé-ontologie et la tectonique. Concernant les représentations du phénomène de gestion, chaque étape de l'étude conduit à des constats d'importance méthodologique croissante. La topographie du déclin invite à une analyse de l'importance et de la performance des lieux communs en gestion. La palé-ontologie amène à porter l'attention, tout d'abord aux transformations silencieuses de l'entreprise, puis aux homonymies et décontextualisations qui peuvent être le lot des travaux de recherche en gestion. La tectonique des représentations du déclin conduit à des remarques de deux niveaux. Au niveau opérationnel apparaît le risque qu'il y a pour le praticien de recourir à l'argument du déclin pour promouvoir, dans les organisations, la conduite du changement. Au niveau méthodologique est esquissé l'intérêt d'une démarche herméneutique pour étudier le phénomène de gestion. La conclusion est focalisée sur la mise en avant de quelques spécificités des représentations de gestion (en regard des représentations touchant d'autres aspects des affaires humaines). Les représentations du phénomène managérial sont analysées comme un matériau dont l'épaisseur reflète la distance qui sépare, pour le manager, les objectifs attendus des résultats réellement obtenus. Les difficultés à manager sont en conséquence décrites à l'aide de métaphores relevant de la science des matériaux. Ces propriétés du matériau de gestion trouvent alors une explication dans les structures et textures auparavant mises à jour lors de l'étude d'objets plus restreints (discours stratégistes et représentations du déclin). L'objectif de la recherche en gestion consiste dans cette optique à enrichir le matériau de gestion sans le brouiller par des transpositions et généralisations abusives.
127

Définition d'un cadre méthodologique pour la conception de modèles multi-agents adaptée à la gestion des ressources renouvelables

Bommel, Pierre 07 May 2009 (has links) (PDF)
Le paradigme des systèmes multi-agents (SMA), qui propose une manière originale de modéliser le monde, est considéré comme un mode pertinent de représentation des connaissances. Mais les potentialités des SMA ne doivent pas cacher les difficultés qui guettent le modélisateur et qui peuvent remettre en cause sa légitimité scientifique. La question de la validation sert alors de fil directeur de cette thèse qui décrit un cadre méthodologique pour concevoir des modèles plus fiables. Car, contrairement aux modèles mathématiques, un SMA ne peut pas prouver ses résultats ni s'abstraire de la simulation. De plus, les probabilités de faire apparaître des erreurs ou des biais ne sont pas négligeables. De sa conception à son implémentation, de nombreux artefacts peuvent apparaître. On peut alors légitimement s'interroger sur la fiabilité des simulateurs. Or il s'agit moins d'erreurs de codage que de problèmes de gestion approximative des interactions ou d'activation des agents qui peuvent remettre en cause cette fiabilité. Cette thèse éclaire donc les zones sensibles susceptibles de générer des artefacts. Car la modélisation des socio-éco-systèmes n'est pas juste une spécialité informatique, mais demande un véritable savoir-faire et le modélisateur doit garder un regard critique sur ses outils. Non seulement il faut connaître par avance les points sensibles des SMA mais il faut également s'assurer de la robustesse de ses résultats en montrant que le simulateur exhibe des comportements relativement stables. Au-delà de la phase d'élaboration, la thèse souligne le rôle des analyses exploratoires pour mieux expliquer le comportement global d'un modèle, hiérarchiser l'influence des paramètres et tester la robustesse des hypothèses. Elle montre l'intérêt de la réplication et la nécessité de présenter un SMA de façon claire et non ambiguë. Après la mise en place d'un simulateur, un travail de re-présentation reste à mener pour proposer des diagrammes réorganisés qui mettent la lumière sur les points essentiels et autorisent des discussions et des critiques. Nous défendons l'idée d'une modélisation exposée, qui doit assumer ses choix sans imposer ses points de vue. Il est urgent d'abandonner la vision naïve qui consiste à penser qu'un modèle est objectif. La notion de modèle neutre qui ne serait qu'une copie du réel in silico, impliquerait que le modélisateur n'a aucun présupposé sur le système qu'il étudie et que le monde se reflète dans sa pensée comme une image dans un miroir. Or, que ce soit intentionnel ou non, un modèle est forcément une représentation subjective. Il faut donc expliciter ses choix et les présenter de la façon la plus lisible possible pour qu'ils puissent être compris, partagés ou critiqués. Suite aux défauts de fiabilité des SMA et aussi à cause de démarches naïves de la modélisation, il est préférable, dans l'état actuel des SMA, d'opter pour des modèles simples plutôt qu'une approche descriptive qui chercherait à introduire dans le modèle le maximum d'informations considérées comme données par nature.
128

Joyful economists : étude des relations historiques entre analyse économique et analyse psychologique du point de vue de "l'économie du bonheur"

Edwards, José Miguel 14 December 2009 (has links) (PDF)
Cette thèse traite de l'histoire des relations entre l'analyse économique et l'analyse psychologique du point de vue de l'histoire de "l'économie du bonheur" (the economics of happiness). Elle comporte trois parties. La première (The Economics of Happiness) traite du développement historique de l'économie du bonheur et la divise en deux périodes : depuis la première analyse économique des données de bonheur (1974) jusqu'à la fin du XXème siècle, et ensuite. La deuxième partie de la thèse (Bypassing Behavior Control) utilise cette histoire comme point de départ et étudie l'histoire des relations entre l'analyse économique et la psychologie expérimentale. Elle compare deux visions alternatives du comportement du consommateur : en tant qu'agent rationnel qui répond à ses préférences, et en tant qu'influencé par son entourage socio-économique ainsi que par les pratiques publicitaires des producteurs. La troisième et dernière partie de la thèse (Subjective Quantification in Economics), étudie l'histoire de l'usage économique de données subjectives. Elle est centrée sur le développement croissant d'analyses économiques de données de bonheur (subjective well-being), de données d'anticipations (economic expectations) et d'évaluations contingentes (contingent valuations). Elle montre que ces analyses ont été adoptées par des économistes en tant qu'outils de gouvernement et contrôle économique (plutôt qu'outils scientifiques) et explique ainsi l'émergence des dernières analyses des économistes du bonheur, qui utilisent des données de satisfaction comme instruments d'évaluation des politiques environnementales (the life satisfaction approach for valuing environmental goods).
129

Aldéhydes et cétones dans l'environnement : de la phase gaz à la phase condensée

Perrier, Sebastien 19 November 2002 (has links) (PDF)
Ces demières annèes, de nombreuses mesures en région polaire ont montré que les concentrations de certains gaz traces réactifs (aldéhydes, oxydes d'azote) étaient très supérieures à ce que la chimie en phase gazeuse pouvait expliquer. Les hypothèses actuellement retenues pour expliquer ces observations comprennent l'émission de composés dissous ou adsorbés dans la neige, et leur production photochimique dans le manteau neigeux, à partir de composés à identifier. Afin de tenter d'expliquer les rapports de mélange du formaldéhyde (HCHO) et de l'acétaldéhyde (CH3CHO) dans l'arctique, des mesures simultanées ont été effectuées dans l'atmosphère et dans la neige, au cours de la campagne ALERT 2000, à Alert (Ellesmere Island, 82,5° N, 62,3° W) en février et avril 2000. Le développement préalable d'une méthode d'analyse sensible de ces composés dans la neige a été nécessaire. Les évolutions temporelles des concentrations en formaldéhyde (HCHO) et en acétaldéhyde (CH3CHO) dans les couches de neige fraîches ont été suivies pendant plusieurs jours. Comme le métamorphisme de la neige conduit à des cycles de sublimation/condensation à la fois de la glace et des espèces dissoutes, nous avons également suivi l'évolution de la microphysique de la neige. Les résultats obtenus nous ont permis de tester différents mécanismes possibles d'incorporation des aldéhydes dans la neige. Connaître le mécanisme prédominant est nécessaire pour quantifier la vitesse d'échange air-neige de ces composés. Les mécanismes possibles incluent l'adsorption à la surface des cristaux de neige, et la dissolution dans leur volume. Les données obtenues ont permis de tester ces différents mécanismes, et d'apporter des éléments nouveaux sur les processus par lesquels le manteau neigeux pouvait avoir un impact important sur la chimie de l'atmosphère. Nous avons notamment émis l'hypothèse que le formaldéhyde était incorporé en volume dans les cristaux de neige et que les échanges avec l'atmosphère se faisaient par diffusion en phase solide. La vérification de ces résultats nécessitait cependant une confirmation par des expériences en laboratoire. Nous avons donc effectué une étude préliminaire de la solution solide HCHOH20 et nous avons obtenu le coefficient de diffusion du formaldéhyde dans la glace (DHCHO) à -15°C : DHCHO = (8±5j x10*11 cm2 s-1 . Cette valeur de DHCHO permet d'expliquer les variations des concentrations en formaldéhyde dans la neige que nous avons observé sur le terrain.
130

Teneurs en monoxyde de carbone de l'air contenu dans la glace de l'Antarctique et du Groenland

Haan, Denis 10 May 1996 (has links) (PDF)
Le monoxyde de carbone (CO) est présent à l'état de trace dans l'atmosphère, il participe à de nombreuses réactions chimiques qui affectent la composition atmosphérique et le climat. Dans le cadre de cette étude, une méthode expérimentale a été mise au point pour extraire le gaz piégé dans la glace ancienne et analyser sa concentration en CO. L'extraction du gaz par fusion et regel de l'échantillon de glace apparaît comme étant la méthode la mieux adaptée à l'étude du CO contenu dans la glace. Des tests "blanc" réalisés à partir de glace artificielle montrent que cette méthode est efficace (pas de contamination en CO détectable) à condition de nettoyer préalablement la surface de l'échantillon. Il reste à déterminer dans quelle mesure ces observations faites sur la glace artificielle peuvent être extrapolées à la glace naturelle. Il semble que ce soit le cas pour la glace antarctique dont le comportement au cours d'un cycle de fusion-regel est similaire à celui de la glace artificielle. Par contre, le cas de la glace du Groenland paraît plus complexe, car elle semble induire, dans certaines sections de carotte, une contamination supplémentaire liée vraisemblablement à des processus in situ de production de CO. La méthode d'extraction par fusion-regel a été appliquée à un nombre important d'échantillons provenant de carottes antarctiques et groenlandaises. Pour la première fois, une interprétation en terme de signal atmosphérique a pu être apportée pour des échantillons couvrant les deux derniers siècles. Ainsi, l'analyse des carottes Eurocore (Groenland) et D47 (Antarctique) nous a pennis de retracer l'évolution au cours de la période 1850-1950 de la concentration en CO aux hautes latitudes. Une augmentation d'environ 20% des teneurs en CO apparaît, au cours de cette période, dans l'hémisphère nord, en phase avec l'évolution des sources anthropiques de CO telles que la combustion du charbon et la consommation des carburants liquides. Au cours de la période 1850-1916, l'Antarctique se caractérise, en revanche, par une relative stabilité des teneurs en CO qui suggère que les hautes latitudes sud sont restées influencées, pendant au moins la première partie de l'ère industrielle, par la prédominance de sources naturelles de CO. A partir d'un scénario d'évolution des sources, nous avons montré que ces résultats présentent des implications importantes dans la compréhension du cycle atmosphérique du CO. Ils suggèrent en effet que des sources anthropiques de CO doivent déjà être prises en compte pour la période pré-industrielle, ce qui constitue une contrainte importante pour les modèles. En marge de ces résultats, l'étude de la partie basse de la carotte Eurocore suggère la possiblité d'interactions physico-chimiques au sein de la glace pouvant modifier le signal atmosphérique originel. Le profil de concentration en CO, présente en effet dans cette partie de la carotte, une variabilité importante qui ne peut pas être a priori expliquée par la modification des sources et des puits de CO. L'existence de mécanismes d'oxydation de la matière organique contenue dans la glace pourrait être à l'origine des variations observées sur ces niveaux. La similitude du profil de CO avec celui du CO2 dans cette partie de la carotte semble confirmer cette hypothèse.

Page generated in 0.0421 seconds