• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 11
  • 1
  • Tagged with
  • 38
  • 38
  • 17
  • 13
  • 10
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Conception et expérimentation d'un outil d'aide au transfert de connaissances enseignées : cas d'une formation en alternance de Techniciens supérieurs en statistique et traitement informatiques de données / Conception and experiment of a help tool for the transfer of knowledge taught : case of vocational training of senior technicians' alternation in Statistics and IT processing of data

Kouame, Kouassi 04 June 2013 (has links)
Ce travail de thèse porte sur la conception et l’expérimentation d’un outil d’aide au transfert de connaissances enseignées pour la formation professionnelle en alternance de techniciens supérieurs. La formation étudiée s’adresse à des étudiants d’un Diplôme Universitaire de Technologie en Statistique et en Traitement Informatique de données (DUT-STID). Elle est dispensée au sein d’un Institut Universitaire de Technologie (IUT Lumière Lyon 2) qui présente la particularité de ne fonctionner qu’en alternance, avec un engagement important des professionnels dans tout le processus de la formation. La durée de cette formation est de deux ans dans une formule spécifique le « 1 + 1 » où les apprenants sont sous statut d’étudiants la première année et sous statut d’apprenti la seconde année. Pour étudier le transfert de connaissances enseignées en entreprise, nous nous sommes appuyé sur un cadre théorique basé sur la théorie de l’activité (Engeström, 1987 ; Tuomi-Grohn & Engeström, 2003). Du point de vue méthodologique, nous avons fait le choix d’une approche progressive et collaborative. Nous avons tout d’abord mené, à partir de plusieurs sources de données (documents ; enquête et entretiens ; archives des traces d’activités des apprentis en entreprise issues des livrets d’apprentissage) une analyse de l’organisation pédagogique de la formation en recherchant ce qui pouvait, au sein de celle-ci, favoriser les mises en lien de situations d’apprentissage et les transferts de connaissances. Les résultats de cette analyse ont montré que l’organisation existante était peu favorable aux transferts de connaissances enseignées en situation de travail, comme cela peut être le cas dans de nombreuses formations en alternance. Puis, nous avons conçu, en nous inspirant du concept d’objet-frontière, et en étroite collaboration avec les responsables de la formation et les enseignants connaissant le mieux le cursus et les missions des apprentis en entreprise, un nouvel outil permettant d’effectuer des rapprochements entre des types de tâches réalisées en entreprise et des types de connaissances enseignées à l’IUT. Ce nouvel outil a été testé et expérimenté sur plusieurs cas d’étudiants en apprentissage en entreprise au cours de différentes périodes. L’objectif était de varier les types de contexte et les profils de tuteur pour tester la capacité de l’outil à fonctionner dans différents types de systèmes d’activité, avec différents types d’acteurs. Sur la base des cas étudiés, les tests et expérimentations réalisés en situation réelle ont révélé que notre outil répondait indéniablement à un besoin et était très favorablement accueilli notamment par les maitres d’apprentissage, les apprentis et les tuteurs universitaires, principaux destinataires de cet objet-frontière. Dans les cas étudiés, il a permis d’enrichir les missions confiées, d’expliciter davantage les étapes et les ressources nécessaires au travail de l’apprenti et de favoriser des temps d’échange sur les connaissances et outils enseignés à l’IUT qui pourraient être pertinents pour la réalisation des activités en entreprise. L’expérimentation montre, cependant, que son utilisation est complexe et repose surtout sur la capacité des tuteurs universitaires à en expliciter le fonctionnement aux maitres d’apprentissage et à faire vivre l’outil en situation. La dernière partie de la thèse rend compte du travail réalisé pour intégrer cet outil d’aide au transfert dans l’organisation pédagogique de la formation. Depuis septembre 2012, il fait officiellement partie des outils de suivi et d’évaluation des apprentis en situation de travail. / This work of thesis concerns the conception and the experiment of a help tool for the transfer of knowledge taught for the vocational training in senior technicians' alternation. The studied training addresses students of a Two-year technical degree in Statistics and IT processing of data (DUT-STID). It takes place within a University Institute of Technology (IUT Lumière LYON 2) which has the peculiarity to work only in alternation, with a significant commitment of professionals throughout the training process. The duration of this training is of two years in a specific formula " 1 + 1 " where the learners are under students' status the first year and under the status of apprentice the second. To study the transfer of knowledge taught in company, we leaned on a theoretical framework based on the theory of the activity (Engeström, 1987; Tuomi-Grohn and Engeström, 2003). From the methodological point of view, we chose a progressive and collaborative approach. We first conducted from multiple data sources (documents; survey and interviews; archives of the tracks of activities of the apprentices in company stemming from notebooks of learning) an analysis of the educational organization seeking what could, within it, promote the linking of learning situations (apprenticeship) and the transfers of knowledge. The results of this analysis showed that the existing organization was not conductive to the transfers of knowledge taught in working situation as may be the case in many sandwich courses. Then, in close collaboration with the persons in charge of the training and the teachers knowing best the program and the missions of the apprentices in company, we developed, by basing ourselves on the concept of boundary-object, a new tool allowing to make links between types of tasks realized in company and types of knowledge taught at the IUT (UNIVERSITY INSTITUTE OF TECHNOLOGY). This new tool was tested and experimented on several cases of students in apprenticeship in company during various periods. The aim was to vary the types of context and tutor profiles to test the ability of the tool to operate in different types of activity systems with different types of actors. On the basis of the studied cases, the tests and the experiments realized in real life situation revealed that our tool answered unmistakably a need and was warmly welcomed in particular by the apprenticeship masters, the apprentices and the academic tutors, the main beneficiaries of this boundary-object. In the cases studied, it allowed to enrich the entrusted mission, to further clarify the steps and resources needed for the apprentice’s work and to foster the exchange time on the knowledge and tools taught at UIT (UNIVERSITY INSTITUTE OF TECHNOLOGY) that may be relevant to the achievement of the activities in a company.The experiment shows however, that its use is complex and based a lot on the ability of the academic tutors to clarify the functioning to the apprenticeship masters and to make use of the tool in situation. The last part of the thesis reports the work realized to integrate this support tool for the transfer into the educational organization of the training. Since September, 2012, it is officially part of the tools for monitoring and evaluation of the apprentices in working situation.
22

Modélisation de l'anticipation musicale: Du temps de la musique vers la musique du temps

Cont, Arshia 16 October 2008 (has links) (PDF)
Cette thèse étudie l'anticipation musicale, à la fois comme un processus cognitif et comme un principe de conception pour des applications d'informatique musicale et d'extraction de données musicales. Dans cette étude, nous reformulons le problème de modélisation d'anticipation abordé dans la littérature de la cognition musicale, à celui de modélisation anticipative, un principe de conception cognitive pour modéliser des systèmes artificiels. Nous proposons des modèles anticipatifs concernant trois préoccupations principales de l'attente musicale : quoi attendre?, comment attendre?, et quand attendre?.<br />Dans le traitement de la première question, nous introduisons un cadre mathématique nommé géométrie d'informations musicales combinant la théorie de l'information, la géométrie différentielle, et l'apprentissage statistique pour représenter les contenus pertinents de l'informations musicales. La deuxième question est abordée comme un problème d'apprentissage automatique des stratégies décisionnelles dans un environnement, en employant les méthodes d'apprentissage interactif. Nous proposons pour la troisième question, une nouvelle conception du problème de synchronisation temps réel entre une partition symbolique et un musicien. Ceci nous ramène à Antescofo, un outils préliminaire d'écriture du temps et de l'interaction dans l'informatique musicale. Malgré la variété des sujets abordés dans cette thèse, la conception anticipative est la facture commune entre toutes les propositions avec les prémices de réduire la complexité structurelle et computationnelle de modélisation, et d'aider à aborder des problèmes complexes dans l'informatique musicale.
23

Contribution à l'analyse des données en hydrométéorologie, la prévision des phénomènes accidentels et l'analyse des champs spatiaux : application à la prévision des avalanches à Davos et à l'analyse des épisodes pluvieux cévenols

Obled, Charles 14 December 1979 (has links) (PDF)
Dans ce travail nous tenterons participer à l'effort de rationalisation de l'instrumentation et de collecte d'informations, à propos de deux ensembles de données très représentatifs de ceux que l'on rencontre en Hydrométéorologie : Condenser l'information, en extraire le maximum, optimiser éventuellement le système de mesure, et mesurer son potentiel de prévision. Le premier exemple concerne la prévision des phénomènes "accidentels" connus le plus souvent de manière qualitative (occurence d'orages à grêle. nature des précipitations: pluie ou neige, risque de pollution, etc ... ) parmi lesquels le problème de la prévision des avalanches n'avait pas encore fait l'objet d'un effort intensif. Un autre problème, très courant en Hydrologie, concerne les variables "régionalisées", c'est-à-dire mesurées sur un réseau où la proximité géographique entre stations a un sens et doit donc être prise en compte. L'exemple du réseau pluviométrique des Cévennes est aussi intéressant par sa densité que spectaculaire par l'importance des précipitations qu'il mesure. Au passage, nous évoquerons, non pas l'ensemble des méthodes existantes en Analyse des Données, mais celles que nous avons personnellement utilisées, analysées, voire améliorées sur ces exemples. Grâce en particulier aux travaux de Pro BENZECRI et de ses collaborateurs, l'Analyse des données n'a plus rien aujourd'hui d'un domaine grossièrement défriché, mais c'est encore un jardin à l' anglaise où de nombreuses zones d'ombre subsistent ... Nous avons cherché
24

Quantification de dégâts sur le bâti liés aux catastrophes majeures par images satellite multimodales très haute résolution

Chesnel, Anne-Lise 15 September 2008 (has links) (PDF)
Lors d'une catastrophe majeure, il est nécessaire de connaître rapidement l'importance des dégâts sur les bâtiments. Actuellement, cette quantification de dégâts se fait manuellement par comparaison visuelle d'images satellite. Les méthodes automatiques sont immatures ; leurs performances étant rarement évaluées, elles ne sont pas utilisées par les opérationnels. Nous proposons un protocole standard d'évaluation des performances de méthodes de quantification de dégâts. Il s'appuie sur des bases de données de référence obtenues pour cinq cas de catastrophes variées. Celles-ci contiennent pour chaque bâtiment l'emprise de son toit dans chaque image, ainsi qu'un degré de dégâts. Le protocole permet de quantifier les performances d'une méthode et de confronter ses résultats à d'autres. Disposant de ce protocole d'évaluation, nous proposons une méthode de quantification de dégâts à partir d'un couple d'images satellites panchromatiques de très haute résolution (THR) spatiale et d'un ensemble d'objets d'intérêt définis dans l'image de référence. La méthode développée doit pouvoir conduire à des résultats satisfaisants et reproductibles en utilisant des images de modalités différentes, et être automatisée au mieux. Les dégâts sur les bâtiments sont quantifiés par l'amplitude des changements sur leurs toits. Pour comparer ces derniers, ils doivent être alignés. Le recalage géométrique des données THR est un problème complexe non résolu ; une nouvelle méthode adaptée à notre problème est développée et évaluée. Elle aboutit à des résultats généralement satisfaisants pour notre application. Des indices de changements sont ensuite extraits. Deux coefficients de corrélation et des indices de texture obtenus par filtrage sont extraits, et un degré de dégâts est attribué à chacun des bâtiments par classification supervisée. L'impact des différences de modalité des images sur les performances de notre méthode est évalué. La méthode proposée est rapide, en grande partie généralisable et robuste à l'utilisation d'images THR de différentes résolutions ou issues de couples multicapteurs ; le paramètre influant est le B/H du couple.
25

Sismotectonique des Pyrénées occidentales : étude détaillée du contenu spectral des ondes de volume dans la région focale

Modiano, Thierry 29 October 1980 (has links) (PDF)
Le but de la première partie de ce travail est l'étude détaillée de la sismicité des Pyrénées Occidentales. En novembre 1978, a donc été entreprise par le LGIG et l'IPGP, en collaboration avec l'Institut Géographique National espagnol, une campagne d'enregistrement dans la région d'Arette, mettant en oeuvre 24 stations et permettant de faire une étude sérieuse des mécanismes au foyer. Par ailleurs, après une période très calme du point de vue sismique, a eu lieu le 29 février 1980 un séisme de magnitude 5,4 dans la région d'Arudy, à l'extrémité Est du réseau utilisé"en 1978. Nous présentons ici une étude complète des enregistrements obtenus à Arette en 1978. Le temps nous a manqué pour faire une étude exhaustive des répliques du séisme d'Arudy. Nous présentons néanmoins des résultats préliminaires concernant ces répliques. Après avoir rappelé les résultats obtenus dans la région de Lourdes en 1977, nous faisons la synthèse des trois expériences . L'étude de la sismicité de cette région est non seulement utile quant à la surveillance et la prévision des séismes mais elle permet aussi de répondre à certaines questions concernant la limite entre les blocs ibérique et européen et le mouvement relatif de ces deux blocs. Une étude des mécanismes au foyer permet de répondre, au moins partiellement, à ces deux questions (chapitre V) .
26

Simulation du mouvement pulmonaire personnalisé par réseau de neurones artificiels pour la radiothérapie externe

Laurent, Rémy 21 September 2011 (has links) (PDF)
Le développement de nouvelles techniques en radiothérapie externe ouvre de nouvelles voies dans la recherche de gain de précision dans la distribution de dose en passant notamment par la connaissance du mouvement pulmonaire. La simulation numérique NEMOSIS (Neural Network Motion Simulation System) basée sur les Réseaux de Neurones Artificiels (RNA) développée ici permet, en plus de déterminer de façon personnalisée le mouvement, de réduire les doses nécessaires initiales pour le déterminer. La première partie présente les techniques actuelles de traitement, les mouvements pulmonaires ainsi que les méthodes de simulation ou d'estimation du mouvement déjà existantes. La seconde partie décrit le réseau de neurones artificiels utilisé et les étapes de son paramétrage pour répondre à la problématique posée. Une évaluation précise de notre approche a été réalisée sur des données originales. Les résultats obtenus sont comparés avec une méthode d'estimation du mouvement. Les temps de calcul extrêmement faibles, de l'ordre de 7 millisecondes pour générer une phase respiratoire, ont permis d'envisager son utilisation en routine clinique. Des modifications sont apportées à NEMOSIS afin de répondre aux critères de son utilisation en radiothérapie externe et une étude sur le mouvement de contours tumoraux est effectuée. Ces travaux ont mis en place les bases de la simulation du mouvement pulmonaire par RNA et ont validé cette approche. Son exécution en temps réel couplé à la précision de la prédiction fait de NEMOSIS un outil prometteur dans la simulation du mouvement synchronisé avec la respiration.
27

Contributions to large-scale data processing systems / Contributions aux systèmes de traitement de données à grande échelle

Caneill, Matthieu 05 February 2018 (has links)
Cette thèse couvre le sujet des systèmes de traitement de données àgrande échelle, et plus précisément trois approches complémentaires :la conception d'un système pour prédir des défaillances de serveursgrâce à l'analyse de leurs données de supervision; l'acheminement dedonnées dans un système à temps réel en étudiant les corrélationsentre les champs des messages pour favoriser la localité; etfinalement un environnement de développement innovateur pour concevoirdes transformations de donées en utilisant des graphes orientés deblocs.À travers le projet Smart Support Center, nous concevons unearchitecture qui passe à l'échelle, afin de stocker des sériestemporelles rapportées par des moteurs de supervision, qui vérifienten permanence la santé des systèmes informatiques. Nous utilisons cesdonnées pour effectuer des prédictions, et détecter de potentielsproblèmes avant qu'ils ne ne produisent.Nous nous plongeons ensuite dans les algorithmes d'acheminement pourles sytèmes de traitement de données en temps réel, et développons unecouche pour acheminer les messages plus efficacement, en évitant lesrebonds entre machines. Dans ce but, nous identifions en temps réelles corrélations qui apparaissent entre les champs de ces messages,tels les mots-clics et leur localisation géographique, par exempledans le cas de micromessages. Nous utilisons ces corrélations pourcréer des tables d'acheminement qui favorisent la colocation desacteurs traitant ces messages.Pour finir, nous présentons λ-blocks, un environnement dedéveloppement pour effectuer des tâches de transformations de donnéessans écrire de code source, mais en créant des graphes de blocs decode. L'environnement est rapide, et est distribué avec des pilesincluses: libraries de blocs, modules d'extension, et interfaces deprogrammation pour l'étendre. Il est également capable de manipulerdes graphes d'exécution, pour optimisation, analyse, vérification, outout autre but. / This thesis covers the topic of large-scale data processing systems,and more precisely three complementary approaches: the design of asystem to perform prediction about computer failures through theanalysis of monitoring data; the routing of data in a real-time systemlooking at correlations between message fields to favor locality; andfinally a novel framework to design data transformations usingdirected graphs of blocks.Through the lenses of the Smart Support Center project, we design ascalable architecture, to store time series reported by monitoringengines, which constantly check the health of computer systems. We usethis data to perform predictions, and detect potential problems beforethey arise.We then dive in routing algorithms for stream processing systems, anddevelop a layer to route messages more efficiently, by avoiding hopsbetween machines. For that purpose, we identify in real-time thecorrelations which appear in the fields of these messages, such ashashtags and their geolocation, for example in the case of tweets. Weuse these correlations to create routing tables which favor theco-location of actors handling these messages.Finally, we present λ-blocks, a novel programming framework to computedata processing jobs without writing code, but rather by creatinggraphs of blocks of code. The framework is fast, and comes withbatteries included: block libraries, plugins, and APIs to extendit. It is also able to manipulate computation graphs, foroptimization, analyzis, verification, or any other purposes.
28

Optimisation de l’analyse de données de la mission spatiale MICROSCOPE pour le test du principe d’équivalence et d’autres applications / Optimization of the data analysis of the MICROSCOPE space mission for the test of the Equivalence Principle and other applications

Baghi, Quentin 12 October 2016 (has links)
Le Principe d'Equivalence (PE) est un pilier fondamental de la Relativité Générale. Il est aujourd'hui remis en question par les tentatives d'élaborer une théorie plus exhaustive en physique fondamentale, comme la théorie des cordes. La mission spatiale MICROSCOPE vise à tester ce principe à travers l'universalité de la chute libre, avec un objectif de précision de 10-15, c'est-à-dire un gain de deux ordres de grandeurs par rapport aux expériences actuelles. Le satellite embarque deux accéléromètres électrostatiques, chacun intégrant deux masses-test. Les masses de l'accéléromètre servant au test du PE sont de compositions différentes, alors que celles de l'accéléromètre de référence sont constituées d'un même matériau. L'objectif est de mesurer la chute libre des masses-test dans le champ gravitationnel de la Terre, en mesurant leur accélération différentielle avec une précision attendue de 10-12 ms-2Hz-1/2 dans la bande d'intérêt. Une violation du PE se traduirait par une différence périodique caractéristique entre les deux accélérations. Cependant, diverses perturbations sont également mesurées en raison de la grande sensibilité de l'instrument. Certaines d'entre elles, comme les gradients de gravité et d'inertie, sont bien définies. En revanche d'autres ne sont pas modélisées ou ne le sont qu'imparfaitement, comme le bruit stochastique et les pics d'accélérations dus à l'environnement du satellite, qui peuvent entraîner des saturations de la mesure ou des données lacunaires. Ce contexte expérimental requiert le développement d'outils adaptés pour l'analyse de données, qui s'inscrivent dans le cadre général de l'analyse des séries temporelles par régression linéaire.On étudie en premier lieu la détection et l’estimation de perturbations harmoniques dans le cadre de l'analyse moindres carrés. On montre qu’avec cette technique la projection des perturbations harmoniques sur le signal de violation du PE peut être maintenue à un niveau acceptable. On analyse ensuite l'impact des pertes de données sur la performance du test du PE. On montre qu'avec l'hypothèse pire cas sur la fréquence des interruptions de données (environ 300 interruptions de 0.5 seconde par orbite, chiffre évalué avant le vol), l'incertitude des moindres carrés ordinaires est multipliée par un facteur 35 à 60. Pour compenser cet effet, une méthode de régression linéaire basée sur une estimation autorégressive du bruit est développée, qui permet de décorréler les observations disponibles, sans calcul ni inversion directs de la matrice de covariance. La variance de l'estimateur ainsi construit est proche de la valeur optimale, ce qui permet de réaliser un test du PE au niveau attendu, même en présence de pertes de données fréquentes. On met également en place une méthode pour évaluer plus précisément la DSP du bruit à partir des données disponibles, sans utilisation de modèle a priori. L'approche est fondée sur une modification de l'algorithme espérance-maximisation (EM) avec une hypothèse de régularité de la DSP, en utilisant une imputation statistique des données manquantes. On obtient une estimée de la DSP avec une erreur inférieure à 10-12 ms-2Hz-1/2. En dernier lieu, on étend les applications de l'analyse de données en étudiant la faisabilité de la mesure du gradient de gravité terrestre avec MICROSCOPE. On évalue la capacité de cette observable à déchiffrer la géométrie des grandes échelles du géopotentiel. Par simulation des signaux obtenus à partir de différents modèles du manteau terrestre profond, on montre que leurs particularités peuvent être distinguées. / The Equivalence Principle (EP) is a cornerstone of General Relativity, and is called into question by the attempts to build more comprehensive theories in fundamental physics such as string theories. The MICROSCOPE space mission aims at testing this principle through the universality of free fall, with a target precision of 10-15, two orders of magnitude better than current on-ground experiments. The satellite carries on-board two electrostatic accelerometers, each one including two test-masses. The masses of the test accelerometer are made with different materials, whereas the masses of the reference accelerometer have the same composition. The objective is to monitor the free fall of the test-masses in the gravitational field of the earth by measuring their differential accelerations with an expected precision of 10-12 ms-2Hz-1/2 in the bandwidth of interest. An EP violation would result in a characteristic periodic difference between the two accelerations. However, various perturbations are also measured because of the high sensitivity of the instrument. Some of them are well defined, e.g. gravitational and inertial gradient disturbances, but others are unmodeled, such as random noise and acceleration peaks due to the satellite environment, which can lead to saturations in the measurement or data gaps. This experimental context requires us to develop suited tools for the data analysis, which are applicable in the general framework of linear regression analysis of time series.We first study the statistical detection and estimation of unknown harmonic disturbances in a least squares framework, in the presence of a colored noise of unknown PSD. We show that with this technique the projection of the harmonic disturbances onto the WEP violation signal can be rejected. Secondly we analyze the impact of the data unavailability on the performance of the EP test. We show that with the worst case before-flight hypothesis (almost 300 gaps of 0.5 second per orbit), the uncertainty of the ordinary least squares is increased by a factor 35 to 60. To counterbalance this effect, a linear regression method based on an autoregressive estimation of the noise is developed, which allows a proper decorrelation of the available observations, without direct computation and inversion of the covariance matrix. The variance of the constructed estimator is close to the optimal value, allowing us to perform the EP test at the expected level even in case of very frequent data interruptions. In addition, we implement a method to more accurately characterize the noise PSD when data are missing, with no prior model on the noise. The approach is based on modified expectation-maximization (EM) algorithm with a smooth assumption on the PSD, and use a statistical imputation of the missing data. We obtain a PSD estimate with an error less than 10-12 ms-2Hz-1/2. Finally, we widen the applications of the data analysis by studying the feasibility of the measurement of the earth's gravitational gradient with MICROSCOPE data. We assess the ability of this set-up to decipher the large scale geometry of the geopotential. By simulating the signals obtained from different models of the earth's deep mantle, and comparing them to the expected noise level, we show that their features can be distinguished.
29

Traitement et analyse de séries chronologiques continues de turbidité pour la formulation et le test de modèles des rejets urbains par temps de pluie / Treatment and analysis of continuous turbidities series for the test of urban stormwater quality models

Métadier, Marjolaine 14 February 2011 (has links)
Des approches parcimonieuses sont aujourd'hui développées pour la modélisation de la qualité des rejets urbains par temps de pluie, e adéquation avec la quantité de données disponibles. De plus, l'analyse des incertitudes apparaît comme un outil incontournable pour le test des modèles. Parallèlement, le développement des techniques de mesure en continu en réseau, spectrométrie et turbidité, permet l'obtention de données continues de flux de matières en suspension et de demande chimique en oxygène en grand nombre, apportant une information riche. Ce travail constitue une des premières études en hydrologie urbaine basée sur l'exploitation d'une grande base de données acquises par la mesure de la turbidité. Des mesures sur la période 2004-2008 ont été exploitées sur deux sites. Après traitement et validation, 263 et 239 événements pluvieux ont été retenus. L'analyse des données a permis la formulation d'hypothèses sur la génération des flux pour la proposition de modèles adaptés. Le test de l'approche multi-régression a confirmé la nécessité de construire des modèles locaux, basés sur une analyse approfondie des données. Les meilleurs modèles obtenus sont ceux pour la masse événementielle qui parviennent à reproduire en tendance la variabilité des observations. La méthode bayésienne a été utilisée pour le test d'un modèle d'Accumulation-Erosion-Transfert simple à l'échelle du bassin versant. Les premiers résultats mettent e défaut la structure du modèle testé. Cependant ces premiers tests ont démontré l'efficacité de la procédure d'analyse bayésienne, dont l'application du principe d'apprentissage permet d'améliorer de manière significative les structures des modèles. / More and more urban water managers are tackling the issue of water quality modelling. Current research works focus on parsimonious modelling approaches that match the amount of data available for calibration. Moreover uncertainties analysis now appears as an integrated step and a powerful tool in models testing. In parallel, development of in sewer continuous measurements based on spectrometry and turbidimetry techniques, provides large data base of continuous total suspended solids and chemical oxygen demand concentrations, providing much information on fluxes dynamics. This research work is one of the first studies in urban hydrology based on a large turbidity data base. Data from two sites have been treated and validated, with measurements over the period 2004-2008. 263 and 239 stormwater events were selected for the modelling work for the two sites. Data analysis provided insights for making assumptions on the pollutant fluxes generation and proposing adapted models. Test of multi-regression approach that it is necessary to build local approaches based on detailed data analysis. Best models were obtained for event mass, data variability could be reproduced in trend. Formal Bayesian approach was used for testing a simple global Accumulation-Erosion-Transfer model for Chassieu. First results evidenced the difficulties of the model to reproduce the dynamics variability. This may be due to the simple structure. However these first tests have demonstrated the efficiency of the Bayesian analysis procedure. ln particular, the application of the learning principle showed that model structure can be significantly and efficiently improved.
30

Simulations expérimentales en laboratoire pour la préparation à l'analyse des données issues de missions spatiales, ainsi que pour l'étude de l'impact en exobiologie de l'évolution de la matière organique au sein d'environnements astrophysiques / Experimental simulations of the evolution of organic matter in astrophysical environments : a study in preparation for the analysis of astrobiologically relevant data acquired from space missions

Fresneau, Aurélien 15 December 2016 (has links)
Les grains de poussière se trouvant dans les nuages moléculaires denses jouent un grand rôle dans la formation de molécules organiques complexes. Ces grains sont recouverts d'un manteau glacé contenant des molécules primitives. Au cours de l'évolution des nuages moléculaires vers des systèmes planétaires, les grains sont soumis à des processus énergétiques transformant la matière organique présente dans les glaces. Les grains finissent par être intégrés dans les petits corps du système solaire tels que les comètes et les astéroïdes. Cette thèse cherche à simuler en laboratoire l'évolution chimique de ces glaces. Des analogues de ces glaces sont formés sur un substrat à basse température, et sont irradiés avec des photons UV et/ou réchauffés afin de simuler les processus astrophysiques. On forme ainsi un résidu organique que l'on caractérise grâce à la spectroscopie infrarouge à transformée de Fourier (IRTF) et la spectrométrie de masse à très haute résolution (VHRMS) par Orbitrap.Nous avons d'abord effectué des études mécanistiques centrées autour de la formation d'aminoalcools et d'hydroxynitriles lors du réchauffement de glaces contenant de l'acétaldéhyde (CH$_3$CHO) ou de l'acétone ((CH$_3$)$_2$CO) avec NH$_3$, HCN et H$_2$O. Nous avons ensuite étudié la composition globale de résidus issus de l'irradiation et du réchauffement de glaces contenant H$_2$O, CH$_3$OH, et NH$_3$. Nous présentons une nouvelle approche pour interpréter les données Orbitrap de ces résidus. Les similarités trouvées avec des analyses de matière organique météoritique issues de la littérature laissent à penser qu'une partie de son évolution pourrait être semblable à celle de nos résidus. / Dust grains located in dense molecular clouds play a major role in the formation of complex organic molecules. These grains are covered by icy mantles containing primitive molecules. Dense molecular clouds can collapse and lead to the formation of planetary systems such as our own. During this evolution, the grains are exposed to energetic processes which transform the organic matter inside the ices. The grains are ultimately incorporated into small solar system bodies such as comets and asteroids, which can then contribute to the exogenous delivery of organic matter on Earth. In this context, this thesis focuses on simulating the chemical evolution of ices. To that end, ice analogues are formed by condensing a relevant gas mixture on a cold substrate. These interstellar ice analogues are irradiated with UV photons and/or heated in order to simulate astrophysical processes. An organic residue is formed which we characterized with Fourier transform infrared spectroscopy (FTIR) and very high resolution mass spectrometry (VHRMS) by Orbitrap.First, we performed mechanistic studies focused on the formation of aminoalcohols and hydroxynitriles from the warming of ices containing acetaldehyde (CH$_3$CHO) or acetone ((CH$_3$)$_2$CO) with NH$_3$, HCN and H$_2$O. Secondly, we studied the global composition of residues made from irradiation and warming of ices containing H$_2$O, CH$_3$OH, and NH$_3$. We present a new approach to interpret Orbitrap data of the residues. Similarities observed with meteoritic organic matter analyses found in the literature could mean that some of the evolution that led to meteoritic organic matter is shared with the evolution of our residues.

Page generated in 0.1114 seconds