Spelling suggestions: "subject:"3analyse statistique"" "subject:"3analyse qtatistique""
61 |
Analyse morphologique 3D de particules de forme complexes: application aux intermétalliques dans les alliages d'aluminiumParra-Denis, Estelle 12 February 2007 (has links) (PDF)
Le matériau étudié dans cette thèse est un alliage d'aluminium 5182 contenant des particules intermétalliques de deux types : Alx(Fe,Mn) et Mg2Si. Au cours du laminage industriel, les particules sont brisées et redistribuées dans le volume de la tôle. Or, les particules intermétalliques contrôlent à la fois l'aspect de surface et la formabilité de la tôle finale.<br />Le travail présenté dans la thèse s'articule autour de deux problématiques : mettre en évidence la distribution volumique des particules intermétalliques dans le volume de la tôle, et caractériser leur forme tridimensionnelle complexe au cours du laminage. Ainsi, des échantillons prélevés à différentes étapes du laminage sont observés par micro tomographie aux rayons X (réalisé à l'ESRF). Les images tridimensionnelles obtenues sont segmentées par la méthode de segmentation multi classe. Elle permet d'extraire chaque type de particule de l'alliage. Une base de donnée contenant chaque particule individualisée est créée. Elle permet de reconstruire l'image binaire du matériau et de travailler particule à particule.<br />La dispersion des particules est mise en évidence par l'étude du graphe des distances et de la covariance. Puis l'analyse de l'érosion linéaire et de la covariance permet de modéliser le matériau par un modèle probabiliste de type schéma Booléen à grains primaires sphériques.<br />Une batterie de paramètres morphologiques caractérise la forme tridimensionnelle complexe des particules. Une analyse en composantes principales est ensuite réalisée pour synthétiser l'information. Dans l'espace obtenu, les particules sont classées en cinq familles de forme. Enfin, leur évolution au cours du laminage est étudiée.
|
62 |
Dynamique des précurseurs de la rupture des<br />matériaux hétérogènes : application aux<br />mousses polymères vitreusesDeschanel, Stephanie 01 December 2005 (has links) (PDF)
De nouvelles approches physiques concernant les mécanismes d'endommagement consistent à considérer le phénomène de rupture comme le point critique d'une transition de phase. La rupture peut alors se traduire pour certains matériaux par une percolation de microfissures. Cette multi-fissuration implique le choix de matériaux hétérogènes. Des essais mécaniques sur mousses polymères solides sont conduits jusqu'à rupture, couplés au suivi de l'activité acoustique. Les distributions des énergies révèlent des lois de puissance indépendamment de la densité du matériau, du mode de chargement ou des lois de comportement. En revanche, la conformité à une loi de puissance des intervalles de temps semble exiger une contrainte quasi constante sur la plus grande partie de l'essai. L'allure de l'énergie cumulée dans le cas d'essais de fluage semblerait présenter une loi de puissance sur une plage de temps restreinte. En revanche, pour les essais de traction, aucune loi de puissance n'est observée.
|
63 |
Détection de structures fines par traitement d'images et apprentissage statistique : application au contrôle non destructifMorard, Vincent 22 October 2012 (has links) (PDF)
Dans cette thèse, nous présentons de nouvelles méthodes de traitement d'images pourextraire ou rehausser les éléments fins d'une image. Pour ces opérateurs, issus de la morphologie mathématique,l'accent a été mis principalement sur la précision de détection et sur le temps de calcul,qui doivent être optimisés pour pouvoir répondre aux contraintes de temps imposées par différentesapplications industrielles. La première partie de ce mémoire présente ces méthodes, organisées enfonction de la tortuosité des objets à détecter. Nous commençons par proposer un algorithme rapidepour le calcul des ouvertures 1-D afin d'extraire des structures rectilignes des images. Puis, nous étudionsune nouvelle classe d'opérateurs rapides avec les ouvertures parcimonieuses par chemins, permettantd'analyser des structures ayant une tortuosité modérée. Enfin, nous proposons de nouveauxéléments structurants adaptatifs et des filtres connexes construits avec des attributs géodésiques etgéométriques pour extraire des structures filiformes ayant une tortuosité quelconque.Dans un second temps, nous avons développé une méthode d'analyse statistique en introduisantune nouvelle pénalisation adaptative. L'objectif consiste à créer un modèle prédictif précis, quiminimise en même temps une fonction de coût, indépendante des données. Lorsque cette fonctionde coût est liée au temps de calcul de chaque descripteur, il est alors possible de créer un modèleparcimonieux précis et qui minimise les temps de calcul. Cette méthode est une généralisation desrégressions linéaires et logistiques Ridge, Forward stagewise, Lar, ou Lasso.Les algorithmes développés dans cette thèse ont été utilisés pour trois applications industrielles,très différentes les unes des autres, mais toutes faisant intervenir une approche multidisciplinaire : letraitement d'images et l'analyse statistique. L'association de ces deux disciplines permet d'améliorerla généricité des stratégies proposées puisque les opérateurs de traitement d'images alliés à un apprentissagesupervisé ou non supervisé, permettent d'adapter le traitement à chaque application.Mots clés : Traitement d'images, morphologie mathématique, analyse statistique, caractérisation deformes, contrôles non destructifs, ouvertures parcimonieuses par chemins, region growing structuringelements, amincissements par attributs géodésiques et topologiques, adaptive coefficient shrinkage.
|
64 |
Vers le futur Internet d'Objets au travers d'une optimisation intercouche des protocols standardisésPavkovic, Bogdan 18 December 2012 (has links) (PDF)
Le paradigme de l'Internet des Objets (IoT) envisage d'enrichir l'Internet actuel avec un grand nombre de dispositifs intelligents communicants. Les réseaux de capteurs sans fil (RCF) exploitent des appareils avec des ressources énergétiques limitées équipés de capteurs afin de récupérer en temps réel des mesures (comme la température, la radioactivité, ou le CO2). Les réseaux de capteurs sont particulièrement pertinents pour la surveillance, la télémétrie ou la prévention des catastrophes naturelles. Cependant, ce type de réseau pose des problèmes majeurs tels que l'utilisation efficace de ressources énergétiques limitées, la prise en charge transparente de nœuds défaillants, sans intervention humaine. L'Internet des Objets ne permettra d'intégrer des réseaux de capteurs autonomes que si les protocoles sont standards et passent à l'échelle. Les contributions de cette thèse sont les suivantes : * nous avons caractérisé expérimentalement un réseau radio multisaut en exploitant statistiquement un grand volume de mesures provenant d'une plate-forme expérimentale opérée par Orange. Notre analyse porte sur la caractérisation d'un lien et de sa qualité ainsi que de la dynamique du réseau. * nous avons proposé de modifier le standard IEEE 802.15.4 afin qu'il puisse cohabiter efficacement avec le protocole de routage actuellement standard de l'Internet des Objets, RPL. En particulier, nous proposons d'exploiter une structure de graphe dirigé acyclique afin d'exploiter une topologie maillée et pallier à la déficience éventuelle d'un nœud. Nous avons proposé également des algorithmes simples d'ordonnancement distribué des supertrames adaptés à cette topologie. * le choix des pères au niveau MAC dans une structure de graphe dirigé acyclique est déterminant dans la qualité des routes possibles dans la couche réseau. Nous avons ainsi proposé un algorithme de choix des pères basé sur plusieurs métriques. Nous aboutissons à une structure permettant d'équilibrer la charge, limitant les points de congestion, utilisant des liens radio de bonne qualité, limitant la congestion au niveau MAC. * nous avons enfin présenté des mécanismes permettant d'offrir une qualité de service dans une pile s'appuyant sur IEEE 802.15.4 et RPL. Notre extension de routage opportuniste et multi-chemin contribue à améliorer la livraison des paquets avant une date limite, tout en minimisant le surcout et la consommation d'énergie par rapport à la version originale de RPL.
|
65 |
Génèse et évolution des compétences des élèves à la fin de l'école maternelle : éléments d'analyse à partir de données de panel et d'une expérimentation musicaleLecocq, Aurélie 21 May 2012 (has links) (PDF)
Nous nous proposons d'étudier, dans cette thèse, une question essentielle et relativement peu traitée dans les recherches françaises en sciences de l'éducation, elle concerne la genèse des acquisitions des élèves et leur évolution au cours de la scolarité. En nous appuierons sur la mobilisation des données longitudinales (panel 1997) ainsi que sur la mise en œuvre d'une expérimentation musicale à l'école maternelle, nous chercherons à répondre à ces questions : Comment se structurent et évoluent les premiers apprentissages des élèves dans le contexte scolaire et socioéconomique ? En quoi les capacités cognitives des élèves ont un impact sur leurs performances scolaires ? Est-ce que des activités spécifiques peuvent avoir un effet positif sur les compétences scolaires, via un accroissement des capacités cognitives ? Des analyses implicatives menées sur les données du panel ont mis en évidence la hiérarchisation des compétences des élèves et l'importance des capacités cognitives sur leur rendement scolaire. La revue de littérature regorge d'exemples probants qui attestent qu'il est possible d'accroitre les performances scolaires des élèves en développant certaines de ces capacités cognitives, et que la musique est un outil particulièrement efficace en ce sens. Nous avons donc cherché à tester empiriquement l'impact de la musique sur les capacités cognitives et sur les performances scolaires des élèves en effectuant une recherche expérimentale. Elle repose sur une méthodologie robuste qui garanti la validité des résultats qui en sont issus. Si les résultats des analyses de différence de différences, confirmés par les modèles de réponse à l'item, sont peu concluants quant à l'impact de la musique sur les progressions des capacités cognitives, nous avons montré et vérifié via le modèle d'Heckman que le traitement expérimental a un effet sur les performances scolaires des élèves.
|
66 |
Statistical properties of barycenters in the Wasserstein space and fast algorithms for optimal transport of measures / Propriétés statistiques du barycentre dans l’espace de WassersteinCazelles, Elsa 21 September 2018 (has links)
Cette thèse se concentre sur l'analyse de données présentées sous forme de mesures de probabilité sur R^d. L'objectif est alors de fournir une meilleure compréhension des outils statistiques usuels sur cet espace muni de la distance de Wasserstein. Une première notion naturelle est l'analyse statistique d'ordre un, consistant en l'étude de la moyenne de Fréchet (ou barycentre). En particulier, nous nous concentrons sur le cas de données (ou observations) discrètes échantillonnées à partir de mesures de probabilité absolument continues (a.c.) par rapport à la mesure de Lebesgue. Nous introduisons ainsi un estimateur du barycentre de mesures aléatoires, pénalisé par une fonction convexe, permettant ainsi d'imposer son a.c. Un autre estimateur est régularisé par l'ajout d'entropie lors du calcul de la distance de Wasserstein. Nous nous intéressons notamment au contrôle de la variance de ces estimateurs. Grâce à ces résultats, le principe de Goldenshluger et Lepski nous permet d'obtenir une calibration automatique des paramètres de régularisation. Nous appliquons ensuite ce travail au recalage de densités multivariées, notamment pour des données de cytométrie de flux. Nous proposons également un test d'adéquation de lois capable de comparer deux distributions multivariées, efficacement en terme de temps de calcul. Enfin, nous exécutons une analyse statistique d'ordre deux dans le but d'extraire les tendances géométriques globales d'un jeu de donnée, c'est-à-dire les principaux modes de variations. Pour cela nous proposons un algorithme permettant d'effectuer une analyse en composantes principales géodésiques dans l'espace de Wasserstein. / This thesis focuses on the analysis of data in the form of probability measures on R^d. The aim is to provide a better understanding of the usual statistical tools on this space endowed with the Wasserstein distance. The first order statistical analysis is a natural notion to consider, consisting of the study of the Fréchet mean (or barycentre). In particular, we focus on the case of discrete data (or observations) sampled from absolutely continuous probability measures (a.c.) with respect to the Lebesgue measure. We thus introduce an estimator of the barycenter of random measures, penalized by a convex function, making it possible to enforce its a.c. Another estimator is regularized by adding entropy when computing the Wasserstein distance. We are particularly interested in controlling the variance of these estimators. Thanks to these results, the principle of Goldenshluger and Lepski allows us to obtain an automatic calibration of the regularization parameters. We then apply this work to the registration of multivariate densities, especially for flow cytometry data. We also propose a test statistic that can compare two multivariate distributions, efficiently in terms of computational time. Finally, we perform a second-order statistical analysis to extract the global geometric tendency of a dataset, also called the main modes of variation. For that purpose, we propose algorithms allowing to carry out a geodesic principal components analysis in the space of Wasserstein.
|
67 |
Statistical analysis for the radiological characterization of radioactive waste in particle accelerators / Analyse statistique pour la caractérisation radiologique des déchets radioactifs au sein des accélérateurs de particulesZaffora, Biagio 08 September 2017 (has links)
Ce travail de thèse introduit une nouvelle méthode pour la caractérisation radiologique des déchets très faiblement radioactifs produits au sein de l’Organisation Européenne pour la Recherche Nucléaire (CERN). La méthode se base sur : 1. le calcul des radionucléides en présence, i.e. les radionucléides qui peuvent être produits lors de l’interaction des particules avec la matière et les structures environnantes les accélérateurs, 2. la mesure directe des émetteurs gamma et, 3. la quantification des émetteurs alpha et beta purs et de rayons X de faible énergie, appelés radionucléides difficile-a-mesurer (DTM), en utilisant les méthodes dites des «scaling factor» (SF), «correlation factor» (CF) et activité moyenne (MA). La première phase du processus de caractérisation est le calcul des radionucléides en présence à l’aide de codes de calcul analytiques ou Monte Carlo. Après le calcul de l’inventaire radiologique, les radionucléides émetteurs gamma sont mesurés par spectrométrie gamma dans chaque colis de la population. L’émetteur gamma dominant, appelé « key nuclide » (KN), est identifié. La méthode dite des «scaling factors» permet d’estimer l’activité des radionucléides DTM après évaluation de la corrélation entre l’activité des DTM et l’activité de l’émetteur gamma dominant obtenue à partir d’échantillons. Si une corrélation existe, l’activité des radionucléides DTM peut être évaluée grâce à des facteurs de corrélation expérimentaux appelés « scaling factors », sinon l’activité moyenne obtenue à partir d’échantillons prélevés dans la population est attribuée à chaque colis. Lorsque les activités des émetteurs alpha et beta purs et des émetteurs X de faible énergie ne peuvent pas être estimées par mesure la méthode des « correlation factors » s’applique. La méthode des « correlation factors » se base sur le calcul de corrélations théoriques entre l’émetteur gamma dominant et les radionucléides de très faible activité. Cette thèse décrit en détail la nouvelle technique de caractérisation radiologique, montre un cas d’application complet et présente les résultats de l’industrialisation de la méthode ayant permis la caractérisation radiologique de plus de 1000 m3 de déchets radioactifs au CERN entre 2015 et 2017. / This thesis introduces a new method to characterize metallic very-low-level radioactive waste produced at the European Organization for Nuclear Research (CERN). The method is based on: 1. the calculation of a preliminary radionuclide inventory, which is the list of the radionuclides that can be produced when particles interact with a surrounding medium, 2. the direct measurement of gamma emitters and, 3. the quantification of pure-alpha, pure-beta and low-energy X-ray emitters, called difficult-to-measure (DTM) radionuclides, using the so-called scaling factor (SF), correlation factor (CF) and mean activity (MA) techniques. The first stage of the characterization process is the calculation of the radionuclide inventory via either analytical or Monte Carlo codes. Once the preliminary radionuclide inventory is obtained, the gamma-emitting radionuclides are measured via gamma-ray spectrometry on each package of the waste population. The major gamma-emitter, called key nuclide (KN), is also identified. The scaling factor method estimates the activity of DTM radionuclides by checking for a consistent and repeated relationship between the key nuclide and the activity of the difficult to measure radionuclides from samples. If a correlation exists the activity of DTM radiodionuclides can be evaluated using the scaling factor otherwise the mean activity from the samples collected is applied to the entire waste population. Finally, the correlation factor is used when the activity of pure-alpha, pure-beta and low-energy X-ray emitters is so low that cannot be quantified using experimental values. In this case a theoretical correlation factor is obtained from the calculations to link the activity of the radionuclides we want to quantify and the activity of the key nuclide. The thesis describes in detail the characterization method, shows a complete case study and describes the industrial-scale application of the characterization method on over 1’000 m3 of radioactive waste, which was carried out at CERN between 2015 and 2017.
|
68 |
Modeling and mechanical characterization of a bio-sourced composite by non-contact kinematic field measurements / Modélisation et caractérisation mécanique d'un composite bio-sourcé par mesures de champs cinématiques sans contactSun, Shengnan 14 April 2014 (has links)
Ce travail de thèse a été réalisé dans le cadre du projet de l'ANR DEMETHER lancé en 2011. L'objectif du projet était d'élaborer un matériau composite d'origine bio-sourcée pour l'isolation thermique des bâtiments existants. Ces biocomposites sont constitués de broyats de tiges de tournesol liés par une biomatrice à base de chitosane. Mon travail s'est concentré essentiellement sur la caractérisation et la modélisation des propriétés mécaniques des broyats et du biocomposite. La première phase du travail a permis de mettre en évidence l'influence de la zone de prélèvement des échantillons dans la tige ainsi que celle de l'humidité relative sur le module d'Young. Une approche statistique a également permis de prendre en considération le caractère diffus des tiges sur leurs propriétés mécaniques. Par la suite, un travail d'homogénéisation basé sur la morphologie et les caractéristiques des constituants de l'écorce a conduit à une estimation des propriétés élastiques globales de celle-ci. La deuxième phase du travail a permis de caractériser mécaniquement le biocomposite en compression par une méthode de mesures de champs sans contact développée au laboratoire. Le caractère hétérogène des champs de déformation a ainsi été directement relié aux constituants et au taux de chitosane. / This thesis was carried out within the framework of the project Demether started in 2011. The objective of this project is to develop a bio-based composite material for thermal insulation of existing buildings. These biocomposites consist of shredded sunflower stems linked by a chitosan-based biomatrix. My work is mainly focused on the characterization and the modeling of the mechanical properties of both the sunflower stem and the biocomposite. The first part of this work highlighted the influence of both the specimen sampling location and the conditioning relative humidity on the Young's modulus of sunflower stem. A statistical approach enabled us to take into account the diffuse nature of the stems on their mechanical properties. Thereafter, a homogenization work was carried out. It led to an estimate of the elastic property of the bark based on the morphology and the characteristics of the constituents. In the second phase of the work, the mechanical behavior of the biocomposite under compression was characterized by applying a full-field measurement technique. The heterogeneous nature of the deformation fields was directly linked to the constituents and the chitosan mass percentage of the biocomposite.
|
69 |
Étude et optimisation de la qualité sonore d'un véhicule récréatif motoriséBenghanem, Abdelghani January 2017 (has links)
La qualité sonore (QS) est un facteur important dans la conception et pour la perception
des produits, notamment dans le cas des véhicules. Il est donc fondamental d'étudier la
qualité sonore des véhicules récréatifs motorisés. L'objectif est d'étudier le bruit généré
par un véhicule récréatif motorisé (VRM) et de rendre ce dernier plus agréable pour le
conducteur afin de rajouter plus de plaisir à l'expérience de conduite. Le projet est basé
sur trois volets importants. Le premier volet consiste à identifier les paramètres physiques
des différents composants acoustiques d'un véhicule récréatif motorisé, de conduire des
tests d'écoute et d'en faire une étude statistique. Pour ce faire, plusieurs bases de données
ont été déjà établies par des enregistrements binauraux correspondants à la position du
pilote. Le deuxième volet consiste à définir une méthode de prédiction des résultats de
tests d'écoute de préférence par des indicateurs psychoacoustiques dits objectifs, issus des
signaux mesurés pour les tests d'écoute de préférence. L'originalité de cette partie est
l'utilisation des méthodes statistiques de régression linéaire multiple pour la conception
du modèle perceptif, et notamment l'algorithme Lasso qui permet la création de modèles
de prédiction de qualité sonore parcimonieux. Le troisième volet consiste à concevoir un
dispositif de modification et d'amélioration du son moteur, par filtrage numérique des
signaux binauraux, puis étudier son effet à partir de la reproduction de sons simulés et
mesurés.
|
70 |
Détection de structures fines par traitement d'images et apprentissage statistique : application au contrôle non destructif / Thin structures detection by means of image processing and statistical learning : application to non-destructive testingMorard, Vincent 22 October 2012 (has links)
Dans cette thèse, nous présentons de nouvelles méthodes de traitement d’images pourextraire ou rehausser les éléments fins d’une image. Pour ces opérateurs, issus de la morphologie mathématique,l’accent a été mis principalement sur la précision de détection et sur le temps de calcul,qui doivent être optimisés pour pouvoir répondre aux contraintes de temps imposées par différentesapplications industrielles. La première partie de ce mémoire présente ces méthodes, organisées enfonction de la tortuosité des objets à détecter. Nous commençons par proposer un algorithme rapidepour le calcul des ouvertures 1-D afin d’extraire des structures rectilignes des images. Puis, nous étudionsune nouvelle classe d’opérateurs rapides avec les ouvertures parcimonieuses par chemins, permettantd’analyser des structures ayant une tortuosité modérée. Enfin, nous proposons de nouveauxéléments structurants adaptatifs et des filtres connexes construits avec des attributs géodésiques etgéométriques pour extraire des structures filiformes ayant une tortuosité quelconque.Dans un second temps, nous avons développé une méthode d’analyse statistique en introduisantune nouvelle pénalisation adaptative. L’objectif consiste à créer un modèle prédictif précis, quiminimise en même temps une fonction de coût, indépendante des données. Lorsque cette fonctionde coût est liée au temps de calcul de chaque descripteur, il est alors possible de créer un modèleparcimonieux précis et qui minimise les temps de calcul. Cette méthode est une généralisation desrégressions linéaires et logistiques Ridge, Forward stagewise, Lar, ou Lasso.Les algorithmes développés dans cette thèse ont été utilisés pour trois applications industrielles,très différentes les unes des autres, mais toutes faisant intervenir une approche multidisciplinaire : letraitement d’images et l’analyse statistique. L’association de ces deux disciplines permet d’améliorerla généricité des stratégies proposées puisque les opérateurs de traitement d’images alliés à un apprentissagesupervisé ou non supervisé, permettent d’adapter le traitement à chaque application.Mots clés : Traitement d’images, morphologie mathématique, analyse statistique, caractérisation deformes, contrôles non destructifs, ouvertures parcimonieuses par chemins, region growing structuringelements, amincissements par attributs géodésiques et topologiques, adaptive coefficient shrinkage. / This PhD is dedicated to new image processing methods to extract or enhance thinobjects from an image. These methods stem from mathematical morphology, and they mainly focuson the accuracy of the detection and on the computation time. This second constraint is imposed bythe fact that we are dealing with high-throughput applications. The first part of this thesis presentsthese methods, organized according to the tortuosity of the objects to detect. We first propose afast algorithm for the computation of 1-D openings, used to extract thin and straight structures in theimages. Then, we study a new class of fast operators, parsimonious path openings, which can extractthin structures with moderate tortuosities. Finally, we propose new adaptive structuring elementsand new thinnings with geodesic and geometric attributes to filter out the noise and to enhance thinstructures of any tortuosity.Besides, we have developed a machine learning method by introducing a new adaptive penalization.We aim at creating a predictive model that minimizes a cost function (independent of the data)while preserving a good accuracy. When this cost function is linked to the computation time of eachfeature, the resulting models will optimize the timings, while preserving a good accuracy. This methodis a generalization of linear and logistic regressions with Ridge, Forward stagewise, Lar or Lassopenalization.The algorithms developed in this thesis have been used for three industrial applications. While theirobjectives are very different, the framework is the same (non-destructive testing) and they all involvea multidisciplinary approach (images processing and statistical analysis). The combination of thesetwo fields yields a higher flexibility in comparison with classical methods. Generic strategies are used,since image processing operators are associated to statistical learning (supervised or unsupervised)to make a specific treatment for each application.Keywords: Image processing, mathematical morphology, statistical analysis, pattern recognition,non destructive testing, parsimonious path openings, region growing structuring elements, geodesicand topologic attributes thinnings, adaptive coefficient shrinkage.
|
Page generated in 0.0833 seconds