• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2514
  • 773
  • 211
  • 12
  • 4
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3567
  • 1408
  • 879
  • 627
  • 569
  • 558
  • 412
  • 364
  • 338
  • 338
  • 324
  • 322
  • 318
  • 315
  • 306
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Filtrage d'artefacts par analyse multicomposante de l'électroencéphalogramme de patients épileptiques / Artifact filtering by multicomponent analysis on electroencephalogram of epileptic patients

Boudet, Samuel 03 July 2008 (has links)
L'électroencéphalographie (EEG) consiste à mesurer l'activité électrique du cerveau à l'aide d'électrodes placées à la surface du cuir chevelu. Cette technique est principalement utilisée pour le diagnostic de l'épilepsie. Certains grapho-éléments comme des ondes lentes et des pointes-ondes peuvent apparaitre sur l'EEG permettant au neurologue de détecter une souffrance épileptique. Malheureusement, cette activité peut être fortement contaminée par des signaux parasites appelés artefacts. Ces artefacts ont pour origines principales l'activité oculaire, l'activité musculaire, le rythme cardiaque et les légers déplacements d'électrodes. Les fréquences des grapho-éléments pathologique recouvrent celles des artefacts et nous avons alors recours à des filtres spatiaux, reposant sur la séparation de sources. Le principe est de déterminer un ensemble de sources d'origines cérébrales et un ensemble de sources d'artefacts. Les sources d'artefacts sont supprimées et les sources cérébrales sont utilisées pour reconstruire le signal. Nous présentons dans cette thèse plusieurs méthodes combinant les filtres spatiaux et les filtres frèquentiels afin d'automatiser le filtrage. Une démarche quantitative a été définie afin de valider ces méthodes, nous permettant de choisir la méthode la plus performante appelée Adaptive Filtering by Optimal Projection (AFOP). Les tests sur des enregistrements cliniques de patient épileptiques, ont montré, selon l'avis du neurologue, l'efficacité d'AFOP sur la plupart des types d'artefacts ainsi que son respect des rythmes cérébraux. / The electroencephalography (EEG) consists in measuring brain electrical activity thanks to electrodes located on the scalp surface. This technique is mainly used for the diagnostic of epilepsy. Sorne grapho-elements like slow waves and spike waves can appear on the EEG, enabling the neurologist to detect an epilepsy pain. Unfortunately, this activity can be highly contaminated by parasitical signals called artifacts. These artifacts have for main origins, the ocular activity, the muscular activity, the cardiac rhythm and tight electrode displacements. The frequencies of pathological grapho-elements recover those of artifacts, and it is then required to use spatial filter which rests on source separation. The principle is to determine a set of cerebral sources and a set of artifacts sources. Artifact sources are then cancelled and the cerebral ones are used to rebuild the signal. This thesis presents several methods using both spatial and frequential filters, making the EEG filtering automated. A quantitative approach of filtering validation is defined, which enables the author to choose the most efficient called Adaptive Filtering by Optimal Projection (AFOP). According to the neurologist, tests on clinical recordings of epileptic patients prove AFOP efficiency on cancelling most of artifact types as well as on respecting cerebn rhythms.
52

Modélisation du comportement thermomécanique d'un alliage à mémoire de forme à base de fer type Fe-Mn-Si / Modelling of Martensitic transformation and plastic slip effects on the thermomechanical behaviour of Iron based Shape Memory Alloys

Jemal Ellouze, Fatma 13 November 2009 (has links)
Il est bien connu que les alliages à mémoire de forme (AMF) sont considérés comme une classe particulière de matériaux qui peuvent retrouver une forme préalablement définie par simple chauffage. Cette propriété remarquable, appelée effet mémoire de forme, peut être exploitée dans la conception d'applications originales afin de trouver les solutions intéressantes aux problèmes rencontrés dans divers champs industriels. Dans notre travail, nous proposons une loi constitutive tridimensionnelle thermomécanique adaptée aux alliages à mémoire de forme à base de fer. Elle tient compte de l'effet de la transformation martensitique et des mécanismes de glissement plastique et leurs interactions. La formulation adoptée est basée sur une description micromécanique simplifiée. La comparaison entre les forces motrices et les forces critiques d'activation des mécanismes mis en jeu nous ont permis de déterminer le type de comportement induit pour un niveau de chargement donné. Nous avons adopté le schéma implicite d'intégration de Newton-Raphson pour la résolution de ce système. Les résultats obtenus pour des chargements thermomécaniques sont comparés à ceux obtenus expérimentalement. / It is well known that Shape Memory Alloys (SMA) are a particular class of materials that can recover a memorized shape by simple heating. This remarkable property, called the Shape Memory Effect (SME), can be exploited in the design of original applications in order to find attractive solutions to problems encountered in various industrial fields. We propose a thermo-mechanical three-dimensional constitutive law adapted to Fe-based shape memory alloys. It takes into account the effect of the martensitic transformation and the plastic slip mechanisms and their interaction. The adopted formulation is based on a simplified micromechanical description. The macroscopic behaviour is derived by considering the equivalent homogeneous effect on a representative volume element. The Gibbs free energy expression is defined. Thermodynamic driving forces are then derived and compared to critical forces leading to the constitutive equations solved by Newton–Raphson numerical scheme. Obtained results for thermo-mechanical loadings are compared to experimental ones.
53

Modélisation multi-échelle du comportement mécanique des matériaux cimentaires : effets des agrégats / Multi-scale modeling of mechanic response of cementitious materials : effects of aggregates

Jin, Caifeng 14 November 2012 (has links)
Les phénomènes de localisation de déformation et de coalescence de microfissures sont considérés comme les deux principaux précurseurs du processus de rupture des structures en matériaux cimentaires. Il est aujourd’hui largement reconnu que la rupture survient suivant les trois étapes successives que sont la nucléation des microfissures, la propagation des microfissures et leur coalescence à la présence d’une zone fortement localisée. La modélisation de ce processus de rupture présente un travail complexe et délicat. Cette thèse porte sur la modélisation multi-échelle de l’endommagement et de la rupture des matériaux cimentaires sous sollicitation hygrométrique avec des effets d’agrégat. Les travaux présentés dans cette thèse visent à décrire le comportement mécanique et le processus de rupture des matériaux cimentaires en prenant en compte des effets d’agrégats à une échelle mésoscopique. La pâte cimentaire sera considérée comme un milieu homogène qui sera décrit par un modèle de comportement élastoplastique homogénéisé, permettant de prendre en compte la localisation de déformation et le processus de fissuration. Une approche numérique, à l’aide de la méthode XFEM, sera proposée afin de prendre en compte les effets des agrégats et des interfaces. / The phenomena of strain localization and coalescence of microcracks are regarded as two principle precursors of the rupture process structures in cementitious materials. It is now widely recognized that the rupture occurs following by three stages that are microcracks nucleation, the propagation of microcracks and their coalescence in a highly localized area. The modeling of this process of rupture presents a complex and delicate work. This thesis focuses on the multi-scale modeling of damage and fracture of cementitious materials under hydrometric solicitation with effects of aggregates. The work presented in this thesis aims to describe the mechanical behavior and the rupture process of cementitious materials taking into account the effects of aggregates at mesoscopic scale. The cement paste is considered as a homogeneous medium which is described by an elastoplastic homogenized model, which takes into account the strain localization and cracking process. A numerical approach by using the extended finite element method(XFEM) will be proposed to take into account the effects of aggregates and interfaces.
54

Hybridation des métaheuristiques et de la programmation dynamique pour les problèmes d’optimisation mono et multi-objectif : application à la production d’énergie / Hybridization between metaheuristic and dynamic programming for mono and multi-objective optimization problems : application in energy production

Jacquin, Sophie 19 November 2015 (has links)
Cette thèse s'intéresse à l'étude de deux problèmes d'optimisation pour la production d’énergie électrique. Le premier est un problème académique très étudié : le Unit Commitment Problem (UCP). Le second est un problème de planification des débits d'eau dans un réseau hydro-électrique issu d'une application industrielle. Ces deux problèmes sont des problèmes NP-complets très difficiles car ils sont non linéaires, fortement contraints et que la taille des données est importante. Dans la première partie de cette thèse, nous proposons DYNAMOP. Il s'agit d'un algorithme génétique qui guide la recherche effectuée par la programmation dynamique en manipulant des solutions représentées sous forme de chemins du graphe d’états. Cette représentation est avantageuse car, d'une part, elle facilite la mise en place d'hybridations avec la programmation dynamique et, d'autre part, elle permet de proposer des opérateurs évolutionnaires efficaces tenant compte les dépendances entre les variables. DYNAMOP est appliqué aux deux problèmes de production d'énergie. La qualité des résultats permet d'affirmer que cette méthode est bien adaptée à la résolution de ce type de problèmes. Dans la seconde partie, nous présentons MO-DYNAMOP une extension de DYNAMOP à l'optimisation multi-objectif. MO-DYNAMOP est évalué sur une version bi-objectif de l'UCP nécessitant l'utilisation d'une représentation indirecte. Une solution partielle sera ainsi décodée en un ensemble de solutions complètes Pareto équivalentes ce qui rend difficile l'évaluation sa qualité. Nous proposons donc plusieurs adaptations des stratégies usuelles d'assignation de fitness et comparons les méthodes obtenues à la littérature. / In this thesis, two energy production problems are studied. The first is a well known academic problem: the Unit Commitment Problem (UCP). The second one is a hydro scheduling problem with a real world application. These two problems are very hard NP-complete problems because they are non-linear, highly constrained, and the data size is large. In the first part of this thesis we propose DYNAMOP. It is a genetic algorithm that uses a representation based on a path in the graph of states of dynamic programming. The advantages of this representation are that it makes it easy to propose efficient evolutionary operators taking the dependencies into account, and that it facilitates the hybridization with dynamic programming. DYNAMOP is tested  on the two energy production problems. The results confirm the competitiveness of the proposed method to solve energy problems. In the second part, we present MO-DYNAMOP, which is an extension of DYNAMOP to multi-objective combinatorial optimization problems. MO-DYNAMOP is applied to a bi-objective version of the UCP, but this implies an indirect representation, which is problematic. Indeed, in this case, decoding a genotypic solution involves the resolution of a multi-objective problem. Then many Pareto equivalent phenotypic solutions can be produced from one genotypic solution. We propose and compare 3 decoding strategies to solve this difficulty. A comparison study beetween MO-DYNAMOP and methods previously proposed for the bi-objective UCP is performed. Experiments indicate that MO-DYNAMOP performs considerably better.
55

Sparse and discriminative clustering for complex data : application to cytology / Classification non supervisée discriminante et parcimonieuse pour des données complexes : une application à la cytologie

Brunet, Camille 01 December 2011 (has links)
Les thèmes principaux de ce mémoire sont la parcimonie et la discrimination pour la modélisation de données complexes. Dans un première partie de ce mémoire, nous nous plaçons dans un contexte de modèle de mélanges gaussiens: nous introduisons une nouvelle famille de modèles probabilistes qui simultanément classent et trouvent un espace discriminant tel que cet espace discrimine au mieux les groupes. Une famille de 12 modèles est introduite et se base sur deux idées clefs: tout d'abord, les données réelles vivent dans un sous-espace latent de dimension intrinsèque plus petite que celle de l'espace observé; deuxièmement, un sous-espace de dimensions K-1 est suffisant pour discriminer K groupes; enfin, l'espace observé et celui latent sont liés par une transformation linéaire. Une procédure d'estimation, appelée Fisher-EM, est proposée et améliore la plupart du temps les performances de clustering grâce à l'utilisation du sous-espace discriminant. Puisque chaque axe engendrant le sous-espace discriminant est une combinaison linéaire des variables d'origine, nous avons proposé trois méthodes différentes basées sur des critères pénalisés afin de faciliter l'interprétation des résultats. En particulier, ces méthodes permettent d'introduire de la parcimonie directement dans les composantes de la matrice de projection et peut se traduite comme une étape de sélection de variables discriminantes pour la classification. Dans une seconde partie, nous nous plaçons dans le contexte de la sériation. Nous proposons une mesure de dissimilarités basée sur le voisinage commun qui permet d'introduire de la parcimonie dans les données. Une procédure algorithmique appelée l'algorithme PB-Clus est introduite et permet d'obtenir une représentation diagonale par blocs des données. Cet outil permet de révéler la structure intrinsèque des données même dans le cas de données fortement bruitées ou de recouvrement de groupes. Ces deux méthodes ont été validées dans le cadre d'une application biologique basée sur la détection de cellules cancéreuses. / The main topics of this manuscript are sparsity and discrimination for modeling complex data. In a first part, we focus on the GMM context: we introduce a new family of probabilistic models which both clusters and finds a discriminative subspace chosen such as it best discriminates the groups. A family of 12 DLM models is introduced and is based on two three-ideas: firstly, the actual data live in a latent subspace with an intrinsic dimension lower than the dimension of the observed space; secondly, a subspace of K-1 dimensions is theoretically sufficient to discriminate K groups; thirdly, the observation and the latent spaces are linked by a linear transformation. An estimation procedure, named Fisher-EM is proposed and improves, most of the time, clustering performances owing to the use of a discriminative subspace. As each axis, spanning the discriminative subspace, is a linear combination of all original variables, we therefore proposed 3 different methods based on a penalized criterion in order to ease the interpretation results. In particular, it allows to introduce sparsity directly in the loadings of the projection matrix which enables also to make variable selection for clustering. In a second part, we deal with the seriation context. We propose a dissimilarity measure based on a common neighborhood which allows to deal with noisy data and overlapping groups. A forward stepwise seriation algorithm, called the PB-Clus algorithm, is introduced and allows to obtain a block representation form of the data. This tool enables to reveal the intrinsic structure of data even in the case of noisy data, outliers, overlapping and non-Gaussian groups. Both methods has been validated on a biological application based on the cancer cell detection.
56

Modélisation à l’échelle moléculaire de la réactivité des aérosols atmosphériques / Molecular modeling of the atmospheric aerosols reactivity

Fotsing Kwetche, Césaire Rostand 06 December 2018 (has links)
Cette thèse constitue une contribution à la modélisation à l’échelle moléculaire de la réactivité des aérosols atmosphériques. L’objectif est de mettre au point une méthodologie hybride classique/quantique permettant de traiter la réactivité hétérogène à la surface des aérosols atmosphériques attaqués par diverses espèces réactives de nature radicalaire (Cl, OH ou peroxyles RO2) ou saturée (dioxygène, ozone). Tout d’abord, l’approche quantique de la réactivité entre le chlore et les molécules d’acide carboxyliques (acide valérique) ou acides gras (acide palmitique) a été validée en phase gaz. Les résultats ont permis, d’une part, de mettre en évidence la spontanéité de l’abstraction des atomes d’hydrogène de l’acide par le chlore et d’autre part l’augmentation de la constante de vitesse de réaction lorsque la chaîne de la molécule d’acide s’allonge. Dans la deuxième partie dédiée à la simulation d’un aérosol modèle, nous avons, à partir de la dynamique moléculaire classique, construit un agrégat d’acide palmitique et analysé ses propriétés structurales et énergétiques. Ensuite, en ajoutant des molécules d’eau, on constate que celles-ci forment des îlots à la surface de l’agrégat. Enfin, nous avons étudié la réactivité hétérogène à la surface de l’aérosol en découpant le système en deux régions traitées de manière différenciée (approche dite "QM/MM", " Quantum Mechanics/Molecular Mechanics"). Nous avons identifié un échantillon d’atomes hydrogène à la surface de l’agrégat pouvant être capté par le Chlore et calculé pour chacun d’eux la constante de réaction. Nous avons finalement pu déterminer pour la première fois une valeur théorique du coefficient de capture (" uptake") réactif, qui peut être comparée aux résultats expérimentaux. / This thesis contributes to the molecular level understanding of atmospheric aerosol chemistry. The objective is to set up an hybrid classical/quantum methodology to treat the heterogeneous chemical mechanisms occurring at the surface of model aerosols attacked by various reactive species, either radicals (Cl, OH or RO2 peroxyl) or saturated (oxygen, ozone). Firstly, the quantum approach used to treat the reactivity between chlorine and a carboxylic acid molecule (valeric acid) or fatty acid (palmitic acid) has been validated in the gas phase. These calculations made it possible, on the one hand, to highlight the spontaneity of the abstraction of the hydrogen atoms of the acid by the chlorine radical and, on the other hand, the increase of the reaction rate constant as the chain of the acid molecule gets longer. In the second part dedicated to the simulation of a model submicrometer aerosol, we have built an aggregate of palmitic acid using classical molecular dynamics and analysed its structural and energetic properties. Then, addition of water molecules leads to the formation of water islands at the surface of the aggregate. Finally, we studied the heterogeneous reactivity at the surface of the aerosol by dividing the system into two regions treated differently (QM/MM approach, Quantum Mechanics/Molecular Mechanics). We have identified a sample of hydrogen atoms at the surface of the aggregate that can be captured by chlorine and calculated for each of them the reaction rate constant within the QM/MM scheme. We have finally been able to determine for the first time a theoretical value of the reactive uptake coefficient, which can be in principle compared to experimental data.
57

Contribution aux méthodes numériques pour la simulation d'écoulements de fluides, d'électromagnétisme et de physique des plasmas

Salmon, Stéphanie 26 November 2008 (has links) (PDF)
Ce manuscrit comporte trois parties distinctes, la première concerne la simulation numérique d'écoulements de fluides. La deuxième partie porte sur les équations de l'électromagnétisme et leur couplage avec les équations cinétiques de Vlasov dans le cadre de simulations numériques en physique des plasmas. La dernière partie évoque rapidement des travaux qui ont donné lieu à des publications mais qui ne rentrent pas complètement dans un des deux cadres abordés précédemment. Dans la première partie, l'objectif est d'étendre aux maillages triangulaires non structurés une méthode numérique éprouvée pour résoudre les équations de Stokes bidimensionnelles : la méthode Marker And Cell qui a été développée sur des maillages en quadrilatères quasi-réguliers dans les années 60. L'idée proposée pour cela est de résoudre le problème de Stokes avec pour variables le tourbillon, la vitesse et la pression. Alors que les résultats numériques obtenus sur des maillages réguliers sont satisfaisants, ceux sur des maillages non structurés ne le sont pas. Il s'est avéré lors de l'étude théorique que ce problème est un problème de stabilité. On montre théoriquement et numériquement que la formulation tourbillon-vitesse-pression est une généralisation de la formulation fonction courant-tourbillon permettant la prise en compte de conditions limites plus générales. L'instabilité, due à des fonctions harmoniques discrètes, peut être levée en utilisant de véritables fonctions harmoniques, calculées à l'aide de leur représentation intégrale, dans le schéma numérique. On résout ainsi l'instabilité de la formulation fonction courant-tourbillon et on améliore les précédents résultats de convergence connus de cette formulation. En particulier, on démontre alors une convergence en moyenne quadratique du tourbillon de l'ordre de 3/2 à 2 dans les cas les plus réguliers (contre un-demi avant). Puis on utilise le fait que la formulation tourbillon-vitesse-pression est équivalente à la formulation fonction courant-tourbillon pour redéfinir une nouvelle formulation tourbillon-vitesse-pression. En effet, il est bien connu que la formulation classique en fonction courant-tourbillon (n'utilisée qu'en deux dimensions d'espace) est mal posée lorsque l'on cherche le tourbillon dans l'espace de Sobolev H1 car son gradient n'est alors pas contrôlé, mais bien posée dans un autre espace de fonctions moins régulières. On étend alors ce résultat au cas tri-dimensionnel et l'on obtient une nouvelle formulation en tourbillon-vitesse-pression bien posée dans un nouvel espace. On démontre aussi théoriquement que ce nouvel espace est bien celui introduit en 2D, ce qu'on confirme par des résultats numériques. La deuxième partie concerne la résolution d'équations cinétiques intervenant dans la simulation directe des plasmas et des faisceaux de particules chargées (modèles de Vlasov-Poisson ou Vlasov-Maxwell). Grâce à l'augmentation de la puissance de calculs des ordinateurs, la simulation de l'évolution des plasmas et des faisceaux de particules basée sur une résolution directe de l'équation de Vlasov sur un maillage de l'espace des phases devient une alternative aux méthodes particulaires (Particle In Cell) habituellement employées. La force de ces simulations directes réside dans le fait qu'elles ne sont pas bruitées (contrairement aux méthodes PIC) et que l'approximation est de même résolution sur tout l'espace des phases, en particulier dans les régions à faible densité de particules où des phénomènes physiques importants ont lieu. L'inconvénient principal est que beaucoup de points sont inutiles car la fonction de distribution des particules y est nulle, ce qui rend ces méthodes directes coûteuses en temps de calcul. On introduit alors une méthode de résolution directe de l'équation de Vlasov sur un maillage {\bf{mobile}} de l'espace des phases. Ce qui permet de ne mailler que la partie de l'espace des phases sur laquelle la fonction de distribution des particules est {\emph{a priori}} non nulle. Nous avons utilisé avec succès cette méthode de maillage mobile en 1D afin de simuler un problème d'interaction laser-plasma. Nous introduisons donc un maillage mobile de l'espace des phases qui suit parfaitement le développement des instabilités et permet de réduire drastiquement le temps de calcul. Nous avons aussi obtenu les premiers résultats d'une méthode de maillage mobile en 4D en couplant le maillage mobile et une méthode de décomposition de domaines. \\ En ce qui concerne la résolution des équations de Vlasov-Maxwell : nous travaillons sur le développement d'un solveur Maxwell éléments finis d'arêtes d'ordre élevé couplé à un code PIC en trois dimensions d'espaces (6D de l'espace des phases). Un point important afin que le couplage fonctionne est que l'équation de conservation de la charge doit être vérifiée au niveau numérique à chaque pas de temps. Ce qui implique que le courant obtenu à partir de l'évolution de l'équation de Vlasov doit être calculé d'une façon bien particulière. Les premiers résultats obtenus en 2D confirment que la méthode de calcul du courant proposée conserve bien la charge comme attendu.
58

VERS UNE SIMULATION SANS MAILLAGE DES PHÉNOMÈNES ÉLECTROMAGNÉTIQUES

Hérault, Christophe 21 January 2000 (has links) (PDF)
Récemment de nouvelles méthodes de simulation numérique ont fait leur apparition. Ces méthodes basées sur un nuage de noeuds ne font pas intervenir de maillage comme pour la méthode des éléments finis. Malgré leur nombre, leur base théorique est semblable. De plus, de part leur caractère récent, leurs développements sont encore à ce jour qu 'aux prémices. Ce travail récapitule les grandes lignes des procédures indispensables pour une résolution à l'aide d'une méthode sans maillage appelée méthode HP-Clouds. Entre autre, les fondements mathématiques par la création de nouvelles fonctions de forme sans maillage, supportées par des boules, sont présentés dans un premier chapitre. Puis, une procédure de résolution des équations de Maxwell en électromagnétisme à l'aide de la méthode HP-Clouds est présentée en décrivant précisément la méthode de. Ritz-Galerkin dans un cas simple. Nous avons d'autre part mis l'accent sur la structure rie données basée sur les boules, supports des fonctions de forme, permettant, ainsi de faciliter l'insertion de la méthode HP-Clouds dans un logiciel de simulation numérique. Dans toutes ces étapes nous nous sommes astreint à ne pas utiliser de maillage même intermédiaire ou fictif. Enfin, nous avons validé nos résultats sur trois problèmes concrets qui laisse présager un avenir prometteur pour les méthodes sans maillage.
59

Intercomparaison de trois modèles canadiens de qualité de l'air à l'échelle régionale

Dégardin, David January 2007 (has links) (PDF)
CHRONOS, AURAMS et GEM-AQ sont trois modèles de simulation de la qualité de l'air à l'échelle régionale développés et utilisés par différentes institutions canadiennes. Ils reproduisent, avec différents degrés de complexité, les interactions physico-chimiques présentes dans l'atmosphère. Bien que CHRONOS et AURAMS aient déjà prouvé leurs capacités à reproduire des épisodes intenses de pollution, les évaluations réalisées ne permettent pas une comparaison directe de leurs performances respectives. GEM-AQ, quant à lui, est en phase d'évaluation par ses concepteurs. Les objectifs de ce projet consistaient à réaliser la première intercomparaison de ces trois modèles sur une période commune et sur un même domaine d'évaluation, puis de caractériser les écarts pour identifier leurs origines. À l'aide d'analyses appropriées, nous avons comparé les niveaux d'ozone simulés, du 6 juillet au 31 août 2004, par les modèles avec 607 sites de mesure des réseaux de surveillance de la qualité de l'air canadiens et américains. Les sites de mesure sélectionnés ont été répartis selon cinq secteurs qui couvrent la moitié est de l'Amérique du nord et qui caractéristisent des régimes météorologiques différents. Nous avons rencontré des difficultés avec GEM-AQ pour effectuer les simulations qui n'ont pas pu être résolues par manque de temps. Nous avons donc limité l'intercomparaison à deux modèles. Nous avons montré que CHRONOS et AURAMS reproduisaient la variation des niveaux horaires d'ozone observés, avec des coefficients de corrélation moyens respectifs de 0.71 et 0.66. Cependant, les deux modèles ont surestimé leurs amplitudes sur l'ensemble du domaine hormis sur la péninsule floridienne où celles-ci ont été similaires. Les surestimations sur les niveaux horaires ont été de 30 à 50% en moyenne pour CHRONOS alors que celles d'AURAMS ont rarement excédées 20%. Nous avons constaté que les écarts évoluaient selon un cycle nycthémère plus influencé par les données d'émissions, notamment celles qui décrivent les émissions biogéniques, que par les paramétrages qui décrivent les processus photochimiques. Par ailleurs, les différences entre les moyennes d'ozone observées et simulées ont également présenté une caractéristique spatiale; Les différences les plus importantes ont été retrouvées sur un secteur commun aux deux modèles. Celui-ci recouvre l'essentiel de la chaîne des Appalaches et son versant occidental. Cette particularité soulignerait l'influence de la définition géographique des émissions sur la simulation des niveaux d'ozone. Nous avons également observé que l'évolution de la couche de mélange simulée par le modèle météorologique GEM pourrait être à l'origine d'une surestimation notable des niveaux d'ozone en fin d'après-midi. Finalement, nous avons identifié les influences que peuvent avoir la couverture et la résolution d'une grille sur les niveaux d'ozone simulés. Ainsi, les moins bonnes performances d'AURAMS ont été retrouvées au voisinage de sa limite ouest et dans les régions où les effets locaux peuvent fortement influencer le comportement des polluants troposphériques. Dans ce contexte, nous avons montré la pertinence potentielle d'une évaluation de modèle qui reposerait sur la comparaison du niveau d'ozone simulé dans une cellule par rapport à la moyenne des niveaux observés par les stations présentes dans cette cellule. Pour caractériser l'influence des émissions sur la simulation des niveaux d'ozone, nous avons réalisé une étude de sensibilité d'AURAMS où nous avons successivement modifié les émissions biogéniques puis anthropiques. Cette étude nous a permis d'associer les émissions biogéniques à la surestimation des niveaux d'ozone simulés; Nous avons également observé que les derniers inventaires d'émission canadien et américain ont réajusté à la baisse les émissions d'oxydes d'azote associés au trafic matinal. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Évaluation de modèle, CHRONOS, AURAMS intercomparaison Ozone, Caractérisation des écarts.
60

Adaptation d'une méthode de synthèse et d'analyse pour une détermination globale des amides

Id-Hammou, Khadija January 2008 (has links) (PDF)
La présence d'amides dans l'environnement et leurs effets néfastes sur la santé a suscité le développement d'une méthode d'analyse globale des amides (R-CO-NH₂). Cette méthode est basée sur la chromatographie liquide à haute performance à phase inverse dotée respectivement d'un détecteur UV et fluorescence (HPLC-UV/FLUO). Ceci a nécessité la transformation des amides en dérivés amides susceptibles d'êtres détectés en UV et fluorescence. Lors de la présente étude, le réactif le chlorure de dansyle (DNS-Cl) a été utilisé pour la dérivatisation des amides. Le groupement sulfonyle du DNS-Cl réagit avec le groupement NH₂ des amides primaires pour former des produits dérivés aromatiques fluorescents. Les dérivés standards DNS-amides ne sont pas disponibles commercialement, ce qui a nécessité le développement d'une méthode de préparation des dérivés standards de trois classes d'amides primaires un amide aromatique, un amide aliphatique insaturé et deux amides aliphatiques saturés (benzamide, acrylamide, acétamide et propionamide). Le rendement moyen obtenu est de 55 % non optimisé. Les dérivés standards DNS-amides obtenus ont été d'abord caractérisés par infrarouge (IR) et la résonance magnétique nucléaire du proton (¹H) et du carbone 13 (¹³C) et par la suite analysés par le couplage HPLC-UV/FLUO. Les longueurs d'onde (λ) d'absorption, d'excitation et d'émission (déterminées par le spectrofluorimètre) employées lors de cette étude sont respectivement de 254 nm, 345 nm et de 535 nm. Les valeurs des limites de détection obtenues pour les quatre amides étudiés (benzamide, acrylamide, acétamide et propionamide) par HPLC-UV sont respectivement de 0,02 ppm, 0,02 ppm, 0,03 ppm et 0,03 ppm et celles obtenus par HPLC-FLUO sont respectivement de 0,01 ppm, 0,04 ppm, 0,004 ppm et 0,003 ppm. L'étude montre que le couplage HPLC-UV/FLUO permet d'avoir une bonne sensibilité et que la technique HPLC-FLUO est plus sélective que la technique HPLC-UV. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Amides, Benzamide, Acrylamide, Acétamide, Propionamide, Analyse globale, HPLC-UV/FLUO.

Page generated in 0.0378 seconds