61 |
Etude de la composante organique de l'aérosol atmosphérique : cas de deux vallées alpines (Chamonix et Maurienne) et développement analytiqueMarchand, Nicolas 20 February 2003 (has links) (PDF)
Les particules atmosphériques appelées aérosols jouent un rôle potentiellement important sur le bilan radiatif terrestre et sur celui des photo-oxydants comme l'ozone troposphérique. Lorsque leurs tailles est inférieures à 2,5µm, ils peuvent présenter un danger pour la santé publique. La connaissance de la composition physico-chimique de ces aérosols est encore très insuffisante en ce qui concerne sa composante organique, appelée MOP (Matière Organique Particulaire). De même, les mécanismes de formation de la MOP demeurent encore mal connus. Ce travail s'inscrit donc dans la problématique générale d'une meilleure connaissance de la composante organique de l'aérosol.<br /> <br />Dans le cadre du programme PO.V.A. (POllution des Vallées Alpines), articulé autour de la réouverture du tunnel sous le Mont Blanc et dont les principaux objectifs sont de mieux appréhender les phénomènes de pollution atmosphérique et les mécanismes dispersifs propres aux systèmes montagneux, des aérosols ont été collectés dans les vallées de Chamonix et de Maurienne au cours de deux campagnes intensives de mesures. Elles se sont déroulées au cours de l'été 2000 et de l'hiver 2001. <br /><br />Après la présentation des problématiques (chapitre I) et des méthodes utilisées (chapitre II), les résultats de deux types d'analyse sont présentés (chapitre III). Le premier type se focalise sur une classe de composés : Les Hydrocarbures Aromatiques Polycycliques (HAP). L'intérêt de l'étude des HAP est double. D'une part ils sont, pour la plupart, considérés comme cancérogènes et mutagènes. D'autre part, ils sont émis quasi exclusivement par les combustions (dérivés du pétrole et biomasse) et leur étude permet de mieux appréhender les influences relatives des différentes sources anthropiques. Le second type d'analyses, plus exploratoire, consiste à réaliser une spéciation quantitative, la plus exhaustive possible, de la fraction organique et d'établir des relations entre la composition chimique, les sources, les saisons et les paramètres météorologiques. Des composés comme le guaiacol, la vanillin, le syringol (...) (émis par les feux de bois) ou comme la nopinone (composé secondaire) ont ainsi pu être quantifiés.<br />Les résultats obtenus ont permis de mettre en évidence :<br />- un apport anthropique important dans les deux vallées, pour les deux saisons et plus particulièrement en hiver où des concentrations en HAP très élevées et représentatives de grands centres urbains ont été observées (maximum 150 ng.m-3) ;<br />- des niveaux de concentrations en composés anthropiques primaires systématiquement plus importants dans la vallée de Chamonix, malgré l'absence du trafic des poids lourds;<br />- l'influence des conditions météorologiques et de la géomorphologie des vallées dans la dispersion des polluants ; <br />- une contribution très marquée des combustions de bois (chauffage domestique) dans la vallée de Chamonix l'hiver.<br /><br />La spéciation quantitative de la MOP (chapitre III) a permis de déterminer globalement entre 10 et 74% du carbone organique. La fraction identifiée dépend de la saison considérée et est plus élevée l'hiver (34-74%) lorsque l'apport des sources primaires anthropiques est prépondérant. Cette variabilité saisonnière a mis en évidence les lacunes du protocole analytique utilisé, qui ne permet pas de quantifier la plupart des composés oxygénés polyfonctionnels et donc les composés constitutifs l'aérosol organique secondaire. Une méthode alternative de prélèvement et d'analyse de ces composés a été développée (Chapitre IV).
|
62 |
Modélisation et visualisation de phénomènes naturels simulés pas système physique particulaireGuilbaud, Claire 23 September 2002 (has links) (PDF)
Un phénomène naturel se manifeste par des dynamiques, plus ou moins complexes, aux formes diverses et à topologie variable. Ce mouvement est induit soit par une intervention extérieure, soit par un état interne, qui induit une réorganisation de matière (une agitation ou un écoulement par exemple). CORDIS-ANIMA, système de modélisation et de simulation numérique d'objets physiques, permet par la gestion de quelques paramètres de réaliser toutes sortes de phénomènes sans connaître l'expression formelle de la physique sous-jacente à celui-ci. A l'aide de ce formalisme, nous avons réalisé des modèles de pâtes, de sable, de gel (2D et 3D), de fluides turbulents (2D) et de croissance végétales. Les calculs de simulations produisent un nuage de points matériels qui font partie intégrante de la matière simulée. Ces points n'étant pas disposés sur la surface de l'objet, il n'est dès lors pas possible de réaliser directement un rendu de la surface de cet objet. Nous avons donc mis au point des méthodes de construction volumique qui à partir des informations produites par la simulation, génèrent les indications volumiques manquantes. En étudiant les paramètres physiques des phénomènes simulés, en caractérisant les dynamiques internes révélées par les mouvements des points matériels calculés, ou encore en tentant de reproduire simplement les comportements cognitifs qui permettent à un observateur de ""deviner"" la forme d'un objet à partir d'une information de forme incomplète (i.e. un nuage de point issu de la simulation), nous avons réalisé un ensemble de techniques de construction et de rendu adaptées aux types de phénomènes simulés.
|
63 |
Modélisation et utilisation des erreurs de pseudodistances GNSS en environnement transport pour l'amélioration des performances de localisationViandier, Nicolas 07 June 2011 (has links) (PDF)
Les GNSS sont désormais largement présents dans le domaine des transports. Actuellement, la communauté scientifique désire développer des applications nécessitant une grande précision, disponibilité et intégrité.Ces systèmes offrent un service de position continu. Les performances sont définies par les paramètres du système mais également par l'environnement de propagation dans lequel se propagent les signaux. Les caractéristiques de propagation dans l'atmosphère sont connues. En revanche, il est plus difficile de prévoir l'impact de l'environnement proche de l'antenne, composé d'obstacles urbains. L'axe poursuivit par le LEOST et le LAGIS consiste à appréhender l'environnement et à utiliser cette information en complément de l'information GNSS. Cette approche vise à réduire le nombre de capteurs et ainsi la complexité du système et son coût. Les travaux de recherche menés dans le cadre de cette thèse permettent principalement de proposer des modélisations d'erreur de pseudodistances et des modélisations de l'état de réception encore plus réalistes. Après une étape de caractérisation de l'erreur, plusieurs modèles d'erreur de pseudodistance sont proposés. Ces modèles sont le mélange fini de gaussiennes et le mélange de processus de Dirichlet. Les paramètres du modèle sont estimés conjointement au vecteur d'état contenant la position grâce à une solution de filtrage adaptée comme le filtre particulaire Rao-Blackwellisé. L'évolution du modèle de bruit permet de s'adapter à l'environnement et donc de fournir une localisation plus précise. Les différentes étapes des travaux réalisés dans cette thèse ont été testées et validées sur données de simulation et réelles.
|
64 |
Étude d'une source d'ions obtenue par extraction et accélération à partir d'une source plasma filaireGueroult, Renaud 19 September 2011 (has links) (PDF)
L'objet de ce travail consiste dans un premier temps en la modélisation d'une source plasma filaire en régime continu basse pression, puis, dans un second temps, en la caractérisation des propriétés d'une source d'ions développée sur la base de la source plasma préalablement étudiée. Un code particulaire permettant de modéliser le fonctionnement de la source plasma est ainsi développé, puis validé par comparaison avec les résultats d'une étude expérimentale. A la lueur des résultats de simulation, une analyse de la décharge en termes d'écoulement ionique de Child-Langmuir collisionnel en géométrie cylindrique est proposée, permettant alors d'interpréter la transition de mode comme une réorganisation naturelle de la décharge lorsque le courant de décharge excède un courant limite fonction de la tension de décharge, de la pression et de l'espace inter-électrodes. L'analyse de la fonction de distribution en énergie des ions impactant la cathode met par ailleurs en évidence la possibilité d'extraire un faisceau d'ions de faible dispersion en énergie autour de la tension de décharge, et ce sous réserve d'opérer la décharge dans son mode haute pression. Un prototype de source d'ions permettant l'extraction et l'accélération d'ions à partir de la source filaire est alors proposé. L'étude expérimentale d'un tel dispositif confirme le fait que l'adjonction d'un processus d'accélération se traduit par un simple décalage de la fonction de distribution en vitesse des ions d'une valeur correspondant à la tension d'accélération, mais ne l'élargit pas. Il est ainsi possible de produire des faisceaux d'ions de diverses espèces ioniques, d'énergie modulable (0-5 keV) et de dispersion en énergie limitée (~ 10 eV). Les courants de faisceau mesurés sont de quelques dizaines de micro-ampères, et la divergence d'un tel faisceau est de l'ordre du degré. Une modélisation numérique de cette source d'ions est finalement entreprise afin d'identifier de possibles optimisations du concept proposé.
|
65 |
Modélisation d'une source d'ions à effet Hall pour des applications de traitement de surfaceOudini, Noureddine 26 October 2011 (has links) (PDF)
Dans les sources d'ions de type EHIS " End-Hall Ion Source " un faisceau ionique est extrait d'un plasma magnétisé sans l'utilisation d'un système de grilles d'extraction. Les sources EHIS sont essentiellement utilisées dans des procédés de traitement de surface. Dans ce type de sources, le plasma est généré par l'application d'une tension entre les électrodes afin de créer une décharge DC. La présence, dans le plasma, d'un champ magnétique parallèle à une anode conique réduit la mobilité électronique dans la direction perpendiculaire aux lignes de champ magnétique. La chute de conductivité électronique dû au champ magnétique près de l'anode entraîne l'établissement d'un champ électrique dans cette région pour assurer le transport du courant électronique vers l'anode. Les ions créés par impact électron-atome sont expulsés de la source par le champ électrique proche de l'anode et forment un faisceau ionique. Ces sources ont été optimisées de façon très empirique et leur fonctionnement est loin d'être totalement compris. Dans le but de mieux comprendre le mécanisme de fonctionnement des sources EHIS, nous avons développé un modèle auto-cohérent axisymétrique. Dans ce modèle les espèces lourdes (Ar et Ar+) sont décrites de façon particulaire. Le transport électronique est traité de façon fluide par résolution des trois premiers moments de l'équation de Boltzmann en supposant l'équilibre de Boltzmann le long des lignes de champ magnétique et la quasi-neutralité du plasma. Le champ électrique est déduit d'une équation de conservation du courant. Ce model a permis de clarifier plusieurs aspects du fonctionnement des " End-Hall Ion Sources ".
|
66 |
Analyse probabiliste, étude combinatoire et estimation paramétrique pour une classe de modèles de croissance de plantes avec développement stochastiqueLoi, Cédric 31 May 2011 (has links) (PDF)
Dans cette thèse, nous nous intéressons à une classe particulière de modèles stochastique de croissance de plantes structure-fonction à laquelle appartient le modèle GreenLab. L'objectif est double. En premier lieu, il s'agit d'étudier les processus stochastiques sous-jacents à l'organogenèse. Un nouveau cadre de travail combinatoire reposant sur l'utilisation de grammaires formelles a été établi dans le but d'étudier la distribution des nombres d'organes ou plus généralement des motifs dans la structure des plantes. Ce travail a abouti à la mise en place d'une méthode symbolique permettant le calcul de distributions associées à l'occurrence de mots dans des textes générés aléatoirement par des L-systèmes stochastiques. La deuxième partie de la thèse se concentre sur l'estimation des paramètres liés au processus de création de biomasse par photosynthèse et de son allocation. Le modèle de plante est alors écrit sous la forme d'un modèle de Markov caché et des méthodes d'inférence bayésienne sont utilisées pour résoudre le problème.
|
67 |
Estuaire de la Charente : structure de communauté et écologie trophique du zooplancton, approche écosystémique de la contamination métalliqueModéran, Julien 09 July 2010 (has links) (PDF)
Les estuaires sont des systèmes hautement dynamiques où interagissent des processus biogéochimiques complexes qui influent sur le devenir de la matière organique et non organique. La confrontation des eaux fluviales et marines induit des changements rapides des principaux facteurs structurant la distribution des organismes vivants et gouvernant la spéciation de certains éléments traces entre phase particulaire et dissoute, ex : gradient de salinité, teneurs en matières en suspension (MES). Ce travail vise à étudier l'estuaire de la Charente, principal fleuve influançant le bassin de Marennes-Oléron (première zone ostreicole française) afin (i) de caractériser la structure de la communauté zooplanctonique en relation avec les paramètres environnementaux, (ii) le fonctionnement de la base du réseau trophique de l'estuaire (identification des sources de matière organique exploitée par les organismes zooplanctoniques et suprabenthiques) et (iii) d'établir un état de contamination par les métaux des compartiments biotiques. L'estuaire de la Charente se distingue par des concentrations en MES extrêmement élevées, présentant néanmoins une contribution importante de la matière organique (efflorescence phytoplanctonique printanière en zone mésohaline et production microphytobenthique). La zone de turbidité maximale semble correspondre à un écotone qui contrôle les flux de matière organique et la distribution des organismes. Le mélange physique des particules issues des systèmes dulcicoles et marins adjacents à l'estuaire avec cette forte charge de matériel resuspendu conduit à une homogénéisation des signatures isotopiques et métalliques particulaires en été et automne le long du gradient de salinité. Les quatre assemblages zooplanctoniques identifiés sont structurés spatialement par la salinité et la concentration en MES et temporellement par les variations de température et de débit fluvial. Malgré la dominance quantitative du matériel détritique au sein du pool de matière organique particulaire (MOP), il semble que les 5 taxons planctoniques ou suprabenthiques dominants étudiés (Eurytemora affinis, Acartia spp., Daphnia spp., Neomysis integer, Mesopodopsis slabberi) présentent une sélectivité importante vis-à-vis de sources primaires distinctes. Cette succession spatio-temporelle d'espèces sélectives conduit à une multiplication des flux trophiques et semble ainsi optimiser à l'échelle annuelle l'exploitation de la MOP disponible. Les concentrations en Cd, Cu, Hg, Pb, V et Zn ont par ailleurs été mesurées dans près de 40 taxons estuariens (zooplancton, benthos, poissons). Malgré des concentrations en métaux dissous et particulaires plus faibles que dans les grands estuaires européens subissant une pression anthropique importante (Seine, Gironde), les niveaux de contamination mesurés dans les différents compartiments biotiques semblent globalement équivalents. Les évènements brefs (crue hivernale, efflorescence phytoplanctonique printanière) altèrent toutefois fortement ce schéma général en modifiant les sources primaires de matière organique disponibles et les concentrations métalliques particulaires (Cd notamment).
|
68 |
Architectures pour des systèmes de localisation et de cartographie simultanéesVincke, Bastien 03 December 2012 (has links) (PDF)
La robotique mobile est un domaine en plein essor. L'un des domaines de recherche consiste à permettre à un robot de cartographier son environnement tout en se localisant dans l'espace. Les techniques couramment employées de SLAM (Simultaneous Localization And Mapping) restent généralement coûteuses en termes de puissance de calcul. La tendance actuelle vers la miniaturisation des systèmes impose de restreindre les ressources embarquées. L'ensemble de ces constatations nous ont guidés vers l'intégration d'algorithmes de SLAM sur des architectures adéquates dédiées pour l'embarqué.Les premiers travaux ont consisté à définir une architecture permettant à un robot mobile de se localiser. Cette architecture doit respecter certaines contraintes, notamment celle du temps réel, des dimensions réduites et de la faible consommation énergétique.L'implantation optimisée d'un algorithme (EKF-SLAM), en utilisant au mieux les spécificités architecturales du système (capacités des processeurs, implantation multi-cœurs, calcul vectoriel ou parallélisation sur architecture hétérogène), a permis de démontrer la possibilité de concevoir des systèmes embarqués pour les applications SLAM dans un contexte d'adéquation algorithme architecture. Une seconde approche a été explorée ayant pour objectif la définition d'un système à base d'une architecture reconfigurable (à base de FPGA) permettant la conception d'une architecture fortement parallèle dédiée au SLAM. L'architecture définie a été évaluée en utilisant une méthodologie HIL (Hardware in the Loop).Les principaux algorithmes de SLAM sont conçus autour de la théorie des probabilités, ils ne garantissent en aucun cas les résultats de localisation. Un algorithme de SLAM basé sur la théorie ensembliste a été défini garantissant l'ensemble des résultats obtenus. Plusieurs améliorations algorithmiques sont ensuite proposées. Une comparaison avec les algorithmes probabilistes a mis en avant la robustesse de l'approche ensembliste.Ces travaux de thèse mettent en avant deux contributions principales. La première consiste à affirmer l'importance d'une conception algorithme-architecture pour résoudre la problématique du SLAM. La seconde est la définition d'une méthode ensembliste permettant de garantir les résultats de localisation et de cartographie.
|
69 |
Ecologie et évolution des maladies infectieuses aiguës : le cas de la grippeBallesteros, Sébastien 18 December 2009 (has links) (PDF)
Cette thèse s'intéresse aux interactions entre immunologie, épidémiologie et biologie évolutive. Nous utilisons une combinaison d'approches mathématiques et statistiques pour comprendre les processus gouvernant les dynamiques épidémiologiques et les phylogénies observées pour différents pathogènes de l'échelle individuelle aux populations. Nous prenons l'exemple de la grippe humaine. Trois hypothèses permettent de rendre compte de la phylodynamique particulière de la grippe: (i) il existe un mécanisme de densité-dépendance directe médié par une période temporaire d'immunité totale après infection ; (ii) le nombre de phénotypes possibles est limité, les virus les ré-explorant sans cesse ; (iii) l'évolution de l'antigène principal de la grippe est ponctuée, les échappements ponctuels à l'immunité induisant des balayages sélectifs. (iii) domine aujourd'hui et rend compte de la variabilité des épidémies de grippe, de larges échappements à l'immunité en induisant de plus grandes. Nous montrons que le formalisme ayant mené à (iii) induit de manière implicite un processus immunologique irréaliste pour la grippe. Nous révélons que les séries temporelles d'incidences grippales ne peuvent pas fournir une preuve du caractère ponctué de l'évolution antigénique, un modèle parcimonieux prenant en compte une évolution antigénique purement graduelle les reproduisant. La nature chaotique de ces dynamiques marque une limite fondamentale à la prédictibilité de la taille des épidémies de grippe et ce, indépendamment de la contingence évolutive. Nous développons un formalisme confrontable aux données pour tester les différentes hypothèses rendant compte de la phylodynamique de la grippe.
|
70 |
Visualisation interactive de simulations à grand nombre d'atomes en Physique des MatériauxLatapie, Simon 07 April 2009 (has links) (PDF)
Afin de répondre au besoin croissant de puissance de calcul qui intéresse les applications scientifiques, des architectures de calculateurs de plus en plus parallèles se répandent, de type cluster, MPP, ou autre, avec de plus en plus d'unités de calcul. Les codes de calcul, en s'adaptant à ce parallélisme, produisent de fait des résultats de plus en plus volumineux. Dans le domaine plus spécifique de la dynamique moléculaire appliquée à la physique des matériaux, le nombre de particules d'un système étudié est aujourd'hui de l'ordre de quelques millions à quelques centaines de millions, ce qui pose d'importants problèmes d'exploitation des données produites. Les solutions de visualisation utilisées auparavant ne sont plus capables de traiter une telle quantité d'information de façon interactive. Le but de cette thèse est de concevoir et d'implémenter une solution de manipulation de données composées d'un très grand nombre de particules, formant un ensemble .dense. ( par exemple, une simulation en dynamique moléculaire de quelques dizaines de millions d'atomes ). Cette solution devra être adaptative pour pouvoir fonctionner non seulement sur un poste de bureau de type .desktop., mais aussi dans des environnements collaboratifs et immersifs simples, par exemple de type mur d'image, avec éventuellement des éléments de réalité virtuelle (écrans stéréo, périphériques 3D). De plus, elle devra augmenter l'interactivité, c'est-à-dire rendre le système plus apte à réagir avec l'utilisateur, afin d'effectuer des phases d'exploration des données plus efficaces. Nous proposons une solution répondant à ces besoins de visualisation particulaire dense, en apportant des améliorations : - à l'interaction, par un système permettant une exploration simple et efficace d'une simulation scientifique. A cette fin, nous avons conçu, développé, et testé le .FlowMenu3D., une extension tridimensionnelle du .FlowMenu., un menu octogonal utilisé en environnement 2D. - à l'interactivité, par une architecture optimisée pour le rendu de systèmes particulaires denses. Cette dernière, intégrée au framework de visualisation VTK, est conçue sur le principe d'un rendu parallèle hybride sort-first/sort-last, dans lequel le système sort-last Ice-T est couplé à des extensions de partitionnement spatial des données, d'occlusion statistique par une méthode de Monte-Carlo, mais aussi de programmation GPU à base de shaders pour améliorer la performance et la qualité du rendu des sphères représentant les données.
|
Page generated in 0.0529 seconds