• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 72
  • 37
  • 9
  • 1
  • 1
  • Tagged with
  • 119
  • 119
  • 51
  • 47
  • 42
  • 16
  • 13
  • 13
  • 13
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Dynamique des précurseurs de la rupture des<br />matériaux hétérogènes : application aux<br />mousses polymères vitreuses

Deschanel, Stephanie 01 December 2005 (has links) (PDF)
De nouvelles approches physiques concernant les mécanismes d'endommagement consistent à considérer le phénomène de rupture comme le point critique d'une transition de phase. La rupture peut alors se traduire pour certains matériaux par une percolation de microfissures. Cette multi-fissuration implique le choix de matériaux hétérogènes. Des essais mécaniques sur mousses polymères solides sont conduits jusqu'à rupture, couplés au suivi de l'activité acoustique. Les distributions des énergies révèlent des lois de puissance indépendamment de la densité du matériau, du mode de chargement ou des lois de comportement. En revanche, la conformité à une loi de puissance des intervalles de temps semble exiger une contrainte quasi constante sur la plus grande partie de l'essai. L'allure de l'énergie cumulée dans le cas d'essais de fluage semblerait présenter une loi de puissance sur une plage de temps restreinte. En revanche, pour les essais de traction, aucune loi de puissance n'est observée.
62

Détection de structures fines par traitement d'images et apprentissage statistique : application au contrôle non destructif

Morard, Vincent 22 October 2012 (has links) (PDF)
Dans cette thèse, nous présentons de nouvelles méthodes de traitement d'images pourextraire ou rehausser les éléments fins d'une image. Pour ces opérateurs, issus de la morphologie mathématique,l'accent a été mis principalement sur la précision de détection et sur le temps de calcul,qui doivent être optimisés pour pouvoir répondre aux contraintes de temps imposées par différentesapplications industrielles. La première partie de ce mémoire présente ces méthodes, organisées enfonction de la tortuosité des objets à détecter. Nous commençons par proposer un algorithme rapidepour le calcul des ouvertures 1-D afin d'extraire des structures rectilignes des images. Puis, nous étudionsune nouvelle classe d'opérateurs rapides avec les ouvertures parcimonieuses par chemins, permettantd'analyser des structures ayant une tortuosité modérée. Enfin, nous proposons de nouveauxéléments structurants adaptatifs et des filtres connexes construits avec des attributs géodésiques etgéométriques pour extraire des structures filiformes ayant une tortuosité quelconque.Dans un second temps, nous avons développé une méthode d'analyse statistique en introduisantune nouvelle pénalisation adaptative. L'objectif consiste à créer un modèle prédictif précis, quiminimise en même temps une fonction de coût, indépendante des données. Lorsque cette fonctionde coût est liée au temps de calcul de chaque descripteur, il est alors possible de créer un modèleparcimonieux précis et qui minimise les temps de calcul. Cette méthode est une généralisation desrégressions linéaires et logistiques Ridge, Forward stagewise, Lar, ou Lasso.Les algorithmes développés dans cette thèse ont été utilisés pour trois applications industrielles,très différentes les unes des autres, mais toutes faisant intervenir une approche multidisciplinaire : letraitement d'images et l'analyse statistique. L'association de ces deux disciplines permet d'améliorerla généricité des stratégies proposées puisque les opérateurs de traitement d'images alliés à un apprentissagesupervisé ou non supervisé, permettent d'adapter le traitement à chaque application.Mots clés : Traitement d'images, morphologie mathématique, analyse statistique, caractérisation deformes, contrôles non destructifs, ouvertures parcimonieuses par chemins, region growing structuringelements, amincissements par attributs géodésiques et topologiques, adaptive coefficient shrinkage.
63

Vers le futur Internet d'Objets au travers d'une optimisation inter­couche des protocols standardisés

Pavkovic, Bogdan 18 December 2012 (has links) (PDF)
Le paradigme de l'Internet des Objets (IoT) envisage d'enrichir l'Internet actuel avec un grand nombre de dispositifs intelligents communicants. Les réseaux de capteurs sans fil (RCF) exploitent des appareils avec des ressources énergétiques limitées équipés de capteurs afin de récupérer en temps réel des mesures (comme la température, la radioactivité, ou le CO2). Les réseaux de capteurs sont particulièrement pertinents pour la surveillance, la télémétrie ou la prévention des catastrophes naturelles. Cependant, ce type de réseau pose des problèmes majeurs tels que l'utilisation efficace de ressources énergétiques limitées, la prise en charge transparente de nœuds défaillants, sans intervention humaine. L'Internet des Objets ne permettra d'intégrer des réseaux de capteurs autonomes que si les protocoles sont standards et passent à l'échelle. Les contributions de cette thèse sont les suivantes : * nous avons caractérisé expérimentalement un réseau radio multisaut en exploitant statistiquement un grand volume de mesures provenant d'une plate-forme expérimentale opérée par Orange. Notre analyse porte sur la caractérisation d'un lien et de sa qualité ainsi que de la dynamique du réseau. * nous avons proposé de modifier le standard IEEE 802.15.4 afin qu'il puisse cohabiter efficacement avec le protocole de routage actuellement standard de l'Internet des Objets, RPL. En particulier, nous proposons d'exploiter une structure de graphe dirigé acyclique afin d'exploiter une topologie maillée et pallier à la déficience éventuelle d'un nœud. Nous avons proposé également des algorithmes simples d'ordonnancement distribué des supertrames adaptés à cette topologie. * le choix des pères au niveau MAC dans une structure de graphe dirigé acyclique est déterminant dans la qualité des routes possibles dans la couche réseau. Nous avons ainsi proposé un algorithme de choix des pères basé sur plusieurs métriques. Nous aboutissons à une structure permettant d'équilibrer la charge, limitant les points de congestion, utilisant des liens radio de bonne qualité, limitant la congestion au niveau MAC. * nous avons enfin présenté des mécanismes permettant d'offrir une qualité de service dans une pile s'appuyant sur IEEE 802.15.4 et RPL. Notre extension de routage opportuniste et multi-chemin contribue à améliorer la livraison des paquets avant une date limite, tout en minimisant le surcout et la consommation d'énergie par rapport à la version originale de RPL.
64

Génèse et évolution des compétences des élèves à la fin de l'école maternelle : éléments d'analyse à partir de données de panel et d'une expérimentation musicale

Lecocq, Aurélie 21 May 2012 (has links) (PDF)
Nous nous proposons d'étudier, dans cette thèse, une question essentielle et relativement peu traitée dans les recherches françaises en sciences de l'éducation, elle concerne la genèse des acquisitions des élèves et leur évolution au cours de la scolarité. En nous appuierons sur la mobilisation des données longitudinales (panel 1997) ainsi que sur la mise en œuvre d'une expérimentation musicale à l'école maternelle, nous chercherons à répondre à ces questions : Comment se structurent et évoluent les premiers apprentissages des élèves dans le contexte scolaire et socioéconomique ? En quoi les capacités cognitives des élèves ont un impact sur leurs performances scolaires ? Est-ce que des activités spécifiques peuvent avoir un effet positif sur les compétences scolaires, via un accroissement des capacités cognitives ? Des analyses implicatives menées sur les données du panel ont mis en évidence la hiérarchisation des compétences des élèves et l'importance des capacités cognitives sur leur rendement scolaire. La revue de littérature regorge d'exemples probants qui attestent qu'il est possible d'accroitre les performances scolaires des élèves en développant certaines de ces capacités cognitives, et que la musique est un outil particulièrement efficace en ce sens. Nous avons donc cherché à tester empiriquement l'impact de la musique sur les capacités cognitives et sur les performances scolaires des élèves en effectuant une recherche expérimentale. Elle repose sur une méthodologie robuste qui garanti la validité des résultats qui en sont issus. Si les résultats des analyses de différence de différences, confirmés par les modèles de réponse à l'item, sont peu concluants quant à l'impact de la musique sur les progressions des capacités cognitives, nous avons montré et vérifié via le modèle d'Heckman que le traitement expérimental a un effet sur les performances scolaires des élèves.
65

Statistical properties of barycenters in the Wasserstein space and fast algorithms for optimal transport of measures / Propriétés statistiques du barycentre dans l’espace de Wasserstein

Cazelles, Elsa 21 September 2018 (has links)
Cette thèse se concentre sur l'analyse de données présentées sous forme de mesures de probabilité sur R^d. L'objectif est alors de fournir une meilleure compréhension des outils statistiques usuels sur cet espace muni de la distance de Wasserstein. Une première notion naturelle est l'analyse statistique d'ordre un, consistant en l'étude de la moyenne de Fréchet (ou barycentre). En particulier, nous nous concentrons sur le cas de données (ou observations) discrètes échantillonnées à partir de mesures de probabilité absolument continues (a.c.) par rapport à la mesure de Lebesgue. Nous introduisons ainsi un estimateur du barycentre de mesures aléatoires, pénalisé par une fonction convexe, permettant ainsi d'imposer son a.c. Un autre estimateur est régularisé par l'ajout d'entropie lors du calcul de la distance de Wasserstein. Nous nous intéressons notamment au contrôle de la variance de ces estimateurs. Grâce à ces résultats, le principe de Goldenshluger et Lepski nous permet d'obtenir une calibration automatique des paramètres de régularisation. Nous appliquons ensuite ce travail au recalage de densités multivariées, notamment pour des données de cytométrie de flux. Nous proposons également un test d'adéquation de lois capable de comparer deux distributions multivariées, efficacement en terme de temps de calcul. Enfin, nous exécutons une analyse statistique d'ordre deux dans le but d'extraire les tendances géométriques globales d'un jeu de donnée, c'est-à-dire les principaux modes de variations. Pour cela nous proposons un algorithme permettant d'effectuer une analyse en composantes principales géodésiques dans l'espace de Wasserstein. / This thesis focuses on the analysis of data in the form of probability measures on R^d. The aim is to provide a better understanding of the usual statistical tools on this space endowed with the Wasserstein distance. The first order statistical analysis is a natural notion to consider, consisting of the study of the Fréchet mean (or barycentre). In particular, we focus on the case of discrete data (or observations) sampled from absolutely continuous probability measures (a.c.) with respect to the Lebesgue measure. We thus introduce an estimator of the barycenter of random measures, penalized by a convex function, making it possible to enforce its a.c. Another estimator is regularized by adding entropy when computing the Wasserstein distance. We are particularly interested in controlling the variance of these estimators. Thanks to these results, the principle of Goldenshluger and Lepski allows us to obtain an automatic calibration of the regularization parameters. We then apply this work to the registration of multivariate densities, especially for flow cytometry data. We also propose a test statistic that can compare two multivariate distributions, efficiently in terms of computational time. Finally, we perform a second-order statistical analysis to extract the global geometric tendency of a dataset, also called the main modes of variation. For that purpose, we propose algorithms allowing to carry out a geodesic principal components analysis in the space of Wasserstein.
66

Statistical analysis for the radiological characterization of radioactive waste in particle accelerators / Analyse statistique pour la caractérisation radiologique des déchets radioactifs au sein des accélérateurs de particules

Zaffora, Biagio 08 September 2017 (has links)
Ce travail de thèse introduit une nouvelle méthode pour la caractérisation radiologique des déchets très faiblement radioactifs produits au sein de l’Organisation Européenne pour la Recherche Nucléaire (CERN). La méthode se base sur : 1. le calcul des radionucléides en présence, i.e. les radionucléides qui peuvent être produits lors de l’interaction des particules avec la matière et les structures environnantes les accélérateurs, 2. la mesure directe des émetteurs gamma et, 3. la quantification des émetteurs alpha et beta purs et de rayons X de faible énergie, appelés radionucléides difficile-a-mesurer (DTM), en utilisant les méthodes dites des «scaling factor» (SF), «correlation factor» (CF) et activité moyenne (MA). La première phase du processus de caractérisation est le calcul des radionucléides en présence à l’aide de codes de calcul analytiques ou Monte Carlo. Après le calcul de l’inventaire radiologique, les radionucléides émetteurs gamma sont mesurés par spectrométrie gamma dans chaque colis de la population. L’émetteur gamma dominant, appelé « key nuclide » (KN), est identifié. La méthode dite des «scaling factors» permet d’estimer l’activité des radionucléides DTM après évaluation de la corrélation entre l’activité des DTM et l’activité de l’émetteur gamma dominant obtenue à partir d’échantillons. Si une corrélation existe, l’activité des radionucléides DTM peut être évaluée grâce à des facteurs de corrélation expérimentaux appelés « scaling factors », sinon l’activité moyenne obtenue à partir d’échantillons prélevés dans la population est attribuée à chaque colis. Lorsque les activités des émetteurs alpha et beta purs et des émetteurs X de faible énergie ne peuvent pas être estimées par mesure la méthode des « correlation factors » s’applique. La méthode des « correlation factors » se base sur le calcul de corrélations théoriques entre l’émetteur gamma dominant et les radionucléides de très faible activité. Cette thèse décrit en détail la nouvelle technique de caractérisation radiologique, montre un cas d’application complet et présente les résultats de l’industrialisation de la méthode ayant permis la caractérisation radiologique de plus de 1000 m3 de déchets radioactifs au CERN entre 2015 et 2017. / This thesis introduces a new method to characterize metallic very-low-level radioactive waste produced at the European Organization for Nuclear Research (CERN). The method is based on: 1. the calculation of a preliminary radionuclide inventory, which is the list of the radionuclides that can be produced when particles interact with a surrounding medium, 2. the direct measurement of gamma emitters and, 3. the quantification of pure-alpha, pure-beta and low-energy X-ray emitters, called difficult-to-measure (DTM) radionuclides, using the so-called scaling factor (SF), correlation factor (CF) and mean activity (MA) techniques. The first stage of the characterization process is the calculation of the radionuclide inventory via either analytical or Monte Carlo codes. Once the preliminary radionuclide inventory is obtained, the gamma-emitting radionuclides are measured via gamma-ray spectrometry on each package of the waste population. The major gamma-emitter, called key nuclide (KN), is also identified. The scaling factor method estimates the activity of DTM radionuclides by checking for a consistent and repeated relationship between the key nuclide and the activity of the difficult to measure radionuclides from samples. If a correlation exists the activity of DTM radiodionuclides can be evaluated using the scaling factor otherwise the mean activity from the samples collected is applied to the entire waste population. Finally, the correlation factor is used when the activity of pure-alpha, pure-beta and low-energy X-ray emitters is so low that cannot be quantified using experimental values. In this case a theoretical correlation factor is obtained from the calculations to link the activity of the radionuclides we want to quantify and the activity of the key nuclide. The thesis describes in detail the characterization method, shows a complete case study and describes the industrial-scale application of the characterization method on over 1’000 m3 of radioactive waste, which was carried out at CERN between 2015 and 2017.
67

Modeling and mechanical characterization of a bio-sourced composite by non-contact kinematic field measurements / Modélisation et caractérisation mécanique d'un composite bio-sourcé par mesures de champs cinématiques sans contact

Sun, Shengnan 14 April 2014 (has links)
Ce travail de thèse a été réalisé dans le cadre du projet de l'ANR DEMETHER lancé en 2011. L'objectif du projet était d'élaborer un matériau composite d'origine bio-sourcée pour l'isolation thermique des bâtiments existants. Ces biocomposites sont constitués de broyats de tiges de tournesol liés par une biomatrice à base de chitosane. Mon travail s'est concentré essentiellement sur la caractérisation et la modélisation des propriétés mécaniques des broyats et du biocomposite. La première phase du travail a permis de mettre en évidence l'influence de la zone de prélèvement des échantillons dans la tige ainsi que celle de l'humidité relative sur le module d'Young. Une approche statistique a également permis de prendre en considération le caractère diffus des tiges sur leurs propriétés mécaniques. Par la suite, un travail d'homogénéisation basé sur la morphologie et les caractéristiques des constituants de l'écorce a conduit à une estimation des propriétés élastiques globales de celle-ci. La deuxième phase du travail a permis de caractériser mécaniquement le biocomposite en compression par une méthode de mesures de champs sans contact développée au laboratoire. Le caractère hétérogène des champs de déformation a ainsi été directement relié aux constituants et au taux de chitosane. / This thesis was carried out within the framework of the project Demether started in 2011. The objective of this project is to develop a bio-based composite material for thermal insulation of existing buildings. These biocomposites consist of shredded sunflower stems linked by a chitosan-based biomatrix. My work is mainly focused on the characterization and the modeling of the mechanical properties of both the sunflower stem and the biocomposite. The first part of this work highlighted the influence of both the specimen sampling location and the conditioning relative humidity on the Young's modulus of sunflower stem. A statistical approach enabled us to take into account the diffuse nature of the stems on their mechanical properties. Thereafter, a homogenization work was carried out. It led to an estimate of the elastic property of the bark based on the morphology and the characteristics of the constituents. In the second phase of the work, the mechanical behavior of the biocomposite under compression was characterized by applying a full-field measurement technique. The heterogeneous nature of the deformation fields was directly linked to the constituents and the chitosan mass percentage of the biocomposite.
68

Étude et optimisation de la qualité sonore d'un véhicule récréatif motorisé

Benghanem, Abdelghani January 2017 (has links)
La qualité sonore (QS) est un facteur important dans la conception et pour la perception des produits, notamment dans le cas des véhicules. Il est donc fondamental d'étudier la qualité sonore des véhicules récréatifs motorisés. L'objectif est d'étudier le bruit généré par un véhicule récréatif motorisé (VRM) et de rendre ce dernier plus agréable pour le conducteur afin de rajouter plus de plaisir à l'expérience de conduite. Le projet est basé sur trois volets importants. Le premier volet consiste à identifier les paramètres physiques des différents composants acoustiques d'un véhicule récréatif motorisé, de conduire des tests d'écoute et d'en faire une étude statistique. Pour ce faire, plusieurs bases de données ont été déjà établies par des enregistrements binauraux correspondants à la position du pilote. Le deuxième volet consiste à définir une méthode de prédiction des résultats de tests d'écoute de préférence par des indicateurs psychoacoustiques dits objectifs, issus des signaux mesurés pour les tests d'écoute de préférence. L'originalité de cette partie est l'utilisation des méthodes statistiques de régression linéaire multiple pour la conception du modèle perceptif, et notamment l'algorithme Lasso qui permet la création de modèles de prédiction de qualité sonore parcimonieux. Le troisième volet consiste à concevoir un dispositif de modification et d'amélioration du son moteur, par filtrage numérique des signaux binauraux, puis étudier son effet à partir de la reproduction de sons simulés et mesurés.
69

Détection de structures fines par traitement d'images et apprentissage statistique : application au contrôle non destructif / Thin structures detection by means of image processing and statistical learning : application to non-destructive testing

Morard, Vincent 22 October 2012 (has links)
Dans cette thèse, nous présentons de nouvelles méthodes de traitement d’images pourextraire ou rehausser les éléments fins d’une image. Pour ces opérateurs, issus de la morphologie mathématique,l’accent a été mis principalement sur la précision de détection et sur le temps de calcul,qui doivent être optimisés pour pouvoir répondre aux contraintes de temps imposées par différentesapplications industrielles. La première partie de ce mémoire présente ces méthodes, organisées enfonction de la tortuosité des objets à détecter. Nous commençons par proposer un algorithme rapidepour le calcul des ouvertures 1-D afin d’extraire des structures rectilignes des images. Puis, nous étudionsune nouvelle classe d’opérateurs rapides avec les ouvertures parcimonieuses par chemins, permettantd’analyser des structures ayant une tortuosité modérée. Enfin, nous proposons de nouveauxéléments structurants adaptatifs et des filtres connexes construits avec des attributs géodésiques etgéométriques pour extraire des structures filiformes ayant une tortuosité quelconque.Dans un second temps, nous avons développé une méthode d’analyse statistique en introduisantune nouvelle pénalisation adaptative. L’objectif consiste à créer un modèle prédictif précis, quiminimise en même temps une fonction de coût, indépendante des données. Lorsque cette fonctionde coût est liée au temps de calcul de chaque descripteur, il est alors possible de créer un modèleparcimonieux précis et qui minimise les temps de calcul. Cette méthode est une généralisation desrégressions linéaires et logistiques Ridge, Forward stagewise, Lar, ou Lasso.Les algorithmes développés dans cette thèse ont été utilisés pour trois applications industrielles,très différentes les unes des autres, mais toutes faisant intervenir une approche multidisciplinaire : letraitement d’images et l’analyse statistique. L’association de ces deux disciplines permet d’améliorerla généricité des stratégies proposées puisque les opérateurs de traitement d’images alliés à un apprentissagesupervisé ou non supervisé, permettent d’adapter le traitement à chaque application.Mots clés : Traitement d’images, morphologie mathématique, analyse statistique, caractérisation deformes, contrôles non destructifs, ouvertures parcimonieuses par chemins, region growing structuringelements, amincissements par attributs géodésiques et topologiques, adaptive coefficient shrinkage. / This PhD is dedicated to new image processing methods to extract or enhance thinobjects from an image. These methods stem from mathematical morphology, and they mainly focuson the accuracy of the detection and on the computation time. This second constraint is imposed bythe fact that we are dealing with high-throughput applications. The first part of this thesis presentsthese methods, organized according to the tortuosity of the objects to detect. We first propose afast algorithm for the computation of 1-D openings, used to extract thin and straight structures in theimages. Then, we study a new class of fast operators, parsimonious path openings, which can extractthin structures with moderate tortuosities. Finally, we propose new adaptive structuring elementsand new thinnings with geodesic and geometric attributes to filter out the noise and to enhance thinstructures of any tortuosity.Besides, we have developed a machine learning method by introducing a new adaptive penalization.We aim at creating a predictive model that minimizes a cost function (independent of the data)while preserving a good accuracy. When this cost function is linked to the computation time of eachfeature, the resulting models will optimize the timings, while preserving a good accuracy. This methodis a generalization of linear and logistic regressions with Ridge, Forward stagewise, Lar or Lassopenalization.The algorithms developed in this thesis have been used for three industrial applications. While theirobjectives are very different, the framework is the same (non-destructive testing) and they all involvea multidisciplinary approach (images processing and statistical analysis). The combination of thesetwo fields yields a higher flexibility in comparison with classical methods. Generic strategies are used,since image processing operators are associated to statistical learning (supervised or unsupervised)to make a specific treatment for each application.Keywords: Image processing, mathematical morphology, statistical analysis, pattern recognition,non destructive testing, parsimonious path openings, region growing structuring elements, geodesicand topologic attributes thinnings, adaptive coefficient shrinkage.
70

Approche métabolomique dans l'analyse de l'évolution oxydative des vins en spectrométrie de masse à très haute résolution / Metabolomic approach in the analysis of the oxidative evolution of wines using high resolution mass spectrometry

Boutegrabet, Lemia 13 June 2012 (has links)
Tout au long du procédé d’élaboration d’un vin, des réactions d’oxydation peuvent se produire y compris au cours du vieillissement en bouteilles. Depuis quelques années, la profession viti-vinicole est confrontée au problème de l’oxydation prématurée des vins blancs.. A ce jour, peu d’études ont pu apporter des explications d’ordre chimique à ce phénomène, et les mécanismes réactionnels intervenant restent peu connus.L’objectif de ce travail de thèse est d’apporter, au travers d’une analyse moléculaire non ciblée en spectrométrie de masse à transformée de Fourier et à résonance cyclotronique des ions (FT-ICR-MS) couplée à une étude chimiométrique, des réponses originales aux questions posées par la problématique actuelle d’oxydation prématurée des vins blancs. Nous avons montré suite à l’étude d’une série de vins oxydés prématurément non seulement la grande diversité chimique des vins, mais aussi la présence d’un ensemble de masses typiques associées à ce phénomène. Pour une meilleure compréhension de l’origine de cette problématique, nous avons considéré deux autres types d’oxydation : une oxydation relative exclusivement à un apport contrôlé en oxygène et une autre relative à l'évolution naturelle de vins en bouteilles. Cette dernière consiste en le suivi de l'évolution des espaces chimiques de séries verticales de vins blancs et rouges en fonction du temps. Sur la série verticale des vins blancs allant de 1979 à 2006, une charnière à l’année 1990 a été observée avec des groupes de masses typiques de chacun des vins jeunes (1979-1990) et des vieux vins (1991-2006).La comparaison entre les espaces chimiques discriminants chacun de ces trois types d’oxydation ne révèle la présence que de trois masses en commun, ce qui appuie l'hypothèse de causes multiparamétriques à l’oxydation prématurée des vins blancs, qui ne serait donc pas un phénomène du exclusivement à une exposition non contrôlée à l'oxygène.Des essais d’élucidation structurale en FT-ICR-MS/MS des masses discriminantes des vins oxydés et de la série verticale ont été effectués et des schémas de fragmentation pour certaines masses sont proposés / During winemaking processes, many oxidation reactions may occur especially during the aging period. Recently, white wines are characterized by a problem of premature oxidation for which few studies have provided chemical explanation. To date, the involved mechanisms in this phenomenon remain poorly understood.The aim of this thesis project is to provide, through an untargeted molecular analysis using Fourier transform ion cyclotron resonance mass spectrometry (FT-ICR-MS) coupled to chemometric analysis, original clue to understand the premature oxidation of white wines. Based on the study of a series of premature oxidized white wines, we were able to elucidate the high complexity and the chemical diversity of wine, and got out typical masses characterizing the oxidation state. In order to better understand the origin of this phenomenon, we considered two alternative possibilities of oxidation: the first one induced by oxygen, and the second through a natural evolution of wines in bottles. The latter included the monitoring of the chemical evolution of white and red wines as a function of time. A very interesting result was obtained on the vertical series of white wines from 1979 to 2006, where two groups were separated at the 1990 vintage to provide a group of old wines (1979-1990) and a group of new wines (1991-2006). Typical discriminant masses were found for each group.A comparison between the chemical spaces discriminating each of the three types of oxidation (premature oxidation, oxidation with oxygen and natural evolution of wine in bottle) revealed very few common masses that may indicate that the phenomenon of premature oxidation is indeed influenced by multiple factors.Finally, a structural elucidation of the typical masses of the groups of oxidized and aged wines were established using FT-ICR-MS/MS. Possible fragmentations schemes of some of these masses were proposed

Page generated in 0.0821 seconds