• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 19
  • 5
  • 1
  • Tagged with
  • 101
  • 101
  • 101
  • 47
  • 46
  • 36
  • 29
  • 20
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse du procédé de crêpage du papier et suivi de l'usure des lames de crêpage par émission acoustique

Théberge, Jean January 2008 (has links)
Ce document présente les approches suivies et les résultats des investigations théoriques et expérimentales entreprises dans le cadre de l'étude du procédé de crêpage du papier depuis le début de la maîtrise faite en collaboration avec Kruger Produits Ltée. L'objectif du projet est de mieux comprendre les phénomènes reliant la qualité du papier a l'état d'usure des lames de crêpage. À cette fin, une méthode expérimentale basée sur les techniques de mesure par émission acoustique afin de suivre en temps réel le comportement mécanique et l'état d'usure des lames est proposée. Ce suivi en temps réel permet d'identifier par émission acoustique les mécanismes reliés à l'usure des lames par friction et d'établir une corrélation entre le comportement mécanique de la lame et les différents paramètres de qualité du papier, dont le crêpage. Ce mémoire présente donc en premier lieu la problématique du projet, les éléments fondamentaux qui entrent en jeu lors du procédé de crêpage, la description des lames utilisées dans le procédé industriel, l'analyse des principes de base des phénomènes d'usure des lames en relation avec les aspects métallurgiques du matériau et enfin, les principes du suivi de l'usure par la technique d'émission acoustique et le traitement numérique des signaux. La deuxième partie du mémoire s'attarde sur les procédures expérimentales suivies et sur la synthèse des résultats obtenus. La troisième partie présente la conclusion sur les résultats obtenus à partir de laquelle une série de recommandations sont mises de l'avant afin de permettre à l'entreprise d'améliorer l'opération de crêpage du papier.
32

Apport de la chimiométrie et des plans d’expériences pour l’évaluation de la qualité de l’huile d’olive au cours de différents processus de vieillissement / Contribution of chemometrics and experimental designs for evaluating the quality of olive oil during different aging process

Plard, Jérôme 17 January 2014 (has links)
L'huile d'olive est un élément important de l'alimentation méditerranéenne. Cependant lorsqu'une huile vieillit, elle se dégrade et perd ses propriétés. Il est donc important de connaitre l'évolution de la composition de l'huile en fonction de ses conditions de stockage et de fabrication. Ce suivi a été effectué sur deux huiles de fabrication différente, une huile fruité vert et une huile fruité noir, obtenue à partir d'olive à maturité que l'on a laissé fermenter quelques jours. De manière à obtenir rapidement des vieillissements poussés, ces deux huiles ont été vieillies artificiellement, par procédé thermique , et par procédé photochimique. Ces vieillissements ont été réalisés sur des volumes différents de manière à déterminer l'impact du rapport surface/masse. En parallèle, des échantillons de chacune des deux huiles ont été conservés durant 24 mois dans des conditions de stockage différentes déterminées à l'aide d'un plan d'expériences. Les paramètres influençant le plus la conservation de l'huile d'olive sont l'apport en oxygène, la luminosité et la température. Ces influences ont été déterminées à partir du suivi des principaux paramètres de qualité La réponse des plans a permis de mettre en évidence des interactions entre ces différents paramètres. L'analyse de la composition de l'huile ainsi que de tous les critères de qualité demande beaucoup de temps et consomme une grande quantité de solvant. Afin de pallier à ces désagréments, les résultats ont également été utilisés pour construire des modèles chimiométriques permettant de déterminer ces grandeurs à partir des spectres proche et moyen infrarouge des échantillons. / Olive oil is an important component of the Mediterranean diet. When oil ages, it deteriorates and loses its properties. It is therefore important to know the evolution of the oil composition according to the conditions of storage and manufacturing. This monitoring was carried out on two different oils manufacturing, green fruity oil obtained from olives harvested before maturity, and black fruit oil obtained from olives harvest at maturity and fermented for few days under controlled conditions. To obtain quickly pushed aging, these two oils were artificially aged by heat process (heated to 180 °C under supply of O2), and photochemical process (under an UV lamp and under supply of O2). These aging were performed on different volumes to determine the impact of surface/weight ratio. In parallel, samples of both oils were stored for 24 months under different storage conditions determined using an experimental design. The parameters affecting the most the conservation of olive oil are oxygen, light and temperature. These influences were determined from the monitoring of key quality criteria. Response of experimental design helped to highlight the interactions between these different parameters. The analysis of the oil composition as well as all the quality criteria requires a large amount of solvents and a lot of time consumer. To overcome these inconveniences, chemometric models has been built to determine these criteria from the near and mid-infrared spectra of samples. Natural aging is very little advanced in comparison to accelerated aging, so predictive models were established from the results of natural aging and accelerated separately.
33

Caractérisation de paramètres cosmétologiques à partir d'images multispectrales de peau / Characterization of cosmetologic data from multispectral skin images

Corvo, Joris 01 December 2016 (has links)
Grâce aux informations spatiales et spectrales qu'elle apporte, l'imagerie multispectrale de la peau est devenue un outil incontournable de la dermatologie. Cette thèse a pour objectif d'évaluer l’intérêt de cet outil pour la cosmétologie à travers trois études : la détection d'un fond de teint, l'évaluation de l'âge et la mesure de la rugosité.Une base d'images multispectrales de peau est construite à l'aide d'un système à multiples filtres optiques. Une phase de prétraitement est nécessaire à la standardisation et à la mise en valeur de la texture des images.Les matrices de covariance des acquisitions peuvent être représentées dans un espace multidimensionnel, ce qui constitue une nouvelle approche de visualisation de données multivariées. De même, une nouvelle alternative de réduction de la dimensionnalité basée sur l'ACP est proposée dans cette thèse. L'analyse approfondie de la texture des images multispectrales est réalisée : les paramètres de texture issus de la morphologie mathématique et plus généralement de l'analyse d'images sont adaptés aux images multivariées. Dans cette adaptation, plusieurs distances spectrales sont expérimentées, dont une distance intégrant le modèle LIP et la métrique d'Asplünd.Les résultats des prédictions statistiques générées à partir des données de texture permettent de conclure quant à la pertinence du traitement des données et de l'utilisation de l'imagerie multispectrale pour les trois études considérées. / Thanks to its precision in spatial and spectral domain, multispectral imaging has become an essential tool in dermatology. This thesis focuses on the interest of this technology for cosmetological parameters assessment through three different studies: the detection of a foundation make-up, age assessment and roughness measurement.A database of multispectral skin images is build using a multiple optical filters system. A preprocessing step allows to standardize those texture images before their exploitation.Covariance matrices of mutispectral acquisitions can be displayed in a multidimensional scaling space which is a novel way to represent multivariate data sets. Likewise, a new dimensionality reduction algorithm based on PCA is proposed in this thesis.A complete study of the images texture is performed: texture features from mathematical morphology and more generally from image analysis are expanded to the case of multivariate images. In this process, several spectral distances are tested, among which a new distance associating the LIP model to the Asplund metric.Statistical predictions are generated from texture data. Thoses predictions lead to a conclusion about the data processing efficiency and the relevance of multispectral imaging for the three cosmetologic studies.
34

Études par spectroscopie EELS de nanobulles d'hélium et de nanoparticules bimétalliques or-argent (Au@Ag) / Study by EELS of helium nano-bubbles and gold-silver nanoparticles (Au@Ag)

Attouchi, Farah 14 November 2014 (has links)
Ce travail de thèse porte sur l'exploitation de la spectroscopie des pertes d'énergie des électrons,(EELS) résolue spatialement pour l'étude de systèmes de dimensions nanométriques. Cette technique étant réalisée avec un microscope électronique en transmission et à balayage, on parle d'expérience STEM-EELS dont le principal avantage est de permettre à la fois une caractérisation morphologique à l'échelle nanométrique et l'accès à une grande variété d'informations sur les propriétés physiques et chimiques des systèmes étudiés. Nous présentons ainsi deux cas d'étude portant sur : des nanobulles d'hélium confinées dans des matrices à base de fer et des nanoparticules métalliques or-argent de structure coeur- coquille. Ces deux études se basent sur le couplage entre imagerie microscopique à l'échelle nanomètrique et spectroscopie EELS en perte proche (Low-loss EELS).La première étude permet de sonder les densités et les pressions des bulles d'hélium en fonction de leur tailles en s'appuyant sur la détection et l'étude, bulle par bulle, du seuil K de l'hélium. Les résultats sont globalement en accord avec d'autres études dans le domaine, mais des densités très basses en hélium (<10 at nmˉ³) ont été mesurées de façon fiable pour la première fois.la deuxième étude concerne l'exploration des propriétés plasmoniques des nanoparticules bimétalliques Au@Ag en sondant les énergies et les localisations des modes plasmon de surface. On trouve un accord excellent entre les expériences et les calculs par éléments finis pour les positions des modes plasmon. La coquille en Ag semble déterminer leurs énergies, avec le coeur en Au ayant apparemment peu d'effet.Une part importante de ce travail concerne le développement des méthodologies d'acquisition et de traitement des données. Tout particulièrement l'utilisation des techniques d'analyses mutivariés (MVA) pour améliorer la détection de l'hélium dans les bulles. / This thesis describes the application of high spatial resolution electron energy-loss spectroscopy (EELS) to the nanometre scale analysis of two rather di#erent types of sam- ple. EELS performed in the scanning transmission electron microscope (STEM) is known as STEM-EELS and offers the possibility of performing morphological characterisations simultaneously with access to a wide variety of information on the physical and chemical properties of the systems under study. Our two areas of study are nano-bubbles of helium in iron-based alloys and core-shell Au-Ag nano-particles. Both systems are studied via electron microscopic imaging and low-loss EELS (i.e. the spectral range below 50 eV). In the first case the helium densities and pressures in the bubbles are measured as a function of their size and the conditions in which they are generated, via the examination of the intensity and spectral position of the He-K excitation. The results are in broad agreement with othe studies in the field, but particularly lowhelium densities (< 10 at nmˉ³) have been reliably measured here for the first time.The second case concerns the exploration of the bi-metallic nano-particles plasmonic properties via the study of the surface plasmon mode energies and spatial localisations. Excellent agreement is found between experiment and finite element calculations for the plasmon modes. The outer Ag shell essentially fixes their energies, the Au core apparently having little effect.An important part of this work concerns the application of novel acquisition and data analysis methods. In particular the use of multivariate statistical analysis (MVA) is shown to facilitate the detection and quantification of helium in the bubbles.
35

Contribution à la reconnaissance non-intrusive d'activités humaines / Contribution to the non-intrusive gratitude of human activities

Trabelsi, Dorra 25 June 2013 (has links)
La reconnaissance d’activités humaines est un sujet de recherche d’actualité comme en témoignent les nombreux travaux de recherche sur le sujet. Dans ce cadre, la reconnaissance des activités physiques humaines est un domaine émergent avec de nombreuses retombées attendues dans la gestion de l’état de santé des personnes et de certaines maladies, les systèmes de rééducation, etc.Cette thèse vise la proposition d’une approche pour la reconnaissance automatique et non-intrusive d’activités physiques quotidiennes, à travers des capteurs inertiels de type accéléromètres, placés au niveau de certains points clés du corps humain. Les approches de reconnaissance d’activités physiques étudiées dans cette thèse, sont catégorisées en deux parties : la première traite des approches supervisées et la seconde étudie les approches non-supervisées. L’accent est mis plus particulièrement sur les approches non-supervisées ne nécessitant aucune labellisation des données. Ainsi, nous proposons une approche probabiliste pour la modélisation des séries temporelles associées aux données accélérométriques, basée sur un modèle de régression dynamique régi par une chaine de Markov cachée. En considérant les séquences d’accélérations issues de plusieurs capteurs comme des séries temporelles multidimensionnelles, la reconnaissance d’activités humaines se ramène à un problème de segmentation jointe de séries temporelles multidimensionnelles où chaque segment est associé à une activité. L’approche proposée prend en compte l’aspect séquentiel et l’évolution temporelle des données. Les résultats obtenus montrent clairement la supériorité de l’approche proposée par rapport aux autres approches en termes de précision de classification aussi bien des activités statiques et dynamiques, que des transitions entre activités. / Human activity recognition is currently a challengeable research topic as it can be witnessed by the extensive research works that has been conducted recently on this subject. In this context, recognition of physical human activities is an emerging domain with expected impacts in the monitoring of some pathologies and people health status, rehabilitation procedures, etc. In this thesis, we propose a new approach for the automatic recognition of human activity from raw acceleration data measured using inertial wearable sensors placed at key points of the human body. Approaches studied in this thesis are categorized into two parts : the first one deals with supervised-based approaches while the second one treats the unsupervised-based ones. The proposed unsupervised approach is based upon joint segmentation of multidimensional time series using a Hidden Markov Model (HMM) in a multiple regression context where each segment is associated with an activity. The model is learned in an unsupervised framework where no activity labels are needed. The proposed approach takes into account the sequential appearance and temporal evolution of data. The results clearly show the satisfactory results of the proposed approach with respect to other approaches in terms of classification accuracy for static, dynamic and transitional human activities
36

Diagnostic de systèmes non linéaires par analyse en composantes principales à noyau / Diagnosis of nonlinear systems using kernel Principal Component Analysis

Anani, Kwami Dodzivi 21 March 2019 (has links)
Dans cette thèse, le diagnostic d'un système non linéaire a été réalisé par une analyse de données. Initialement conçue pour analyser les données liées par des relations linéaires, l'Analyse en Composantes Principales (ACP) est couplée aux méthodes à noyau pour détecter, localiser et estimer l'amplitude des défauts sur des systèmes non linéaires. L'ACP à noyau consiste à projeter les données par l'intermédiaire d'une application non linéaire dans un espace de dimension élevée dénommé espace des caractéristiques où l'ACP linéaire est appliquée. Ayant fait la projection à l'aide de noyaux, la détection peut facilement être réalisée dans l'espace des caractéristiques. Cependant, l'estimation de l'amplitude du défaut nécessite la résolution d'un problème d'optimisation non linéaire. Une étude de contributions permet de localiser et d'estimer ces amplitudes. La variable ayant la plus grande contribution est susceptible d'être affectée par un défaut. Dans notre travail, nous avons proposé de nouvelles méthodes pour les phases de localisation et d'estimation des défauts pour lesquelles les travaux existants ont des limites. La nouvelle méthode proposée est basée sur les contributions sous contraintes permettant d'obtenir une reconstruction parcimonieuse des variables. L'efficacité des méthodes proposées est montrée sur un réacteur à agitation continue (CSTR). / In this thesis, the diagnosis of a nonlinear system was performed using data analysis. Initially developed to analyze linear system, Principal Component Analysis (PCA) is coupled with kernel methods for detection, isolation and estimation of faults' magnitude for nonlinear systems. Kernel PCA consists in projecting data using a nonlinear mapping function into a higher dimensional space called feature space where the linear PCA is applied. Due to the fact that the projections are done using kernels, the detection can be performed in the feature space. However, estimating the magnitude of the fault requires the resolution of a nonlinear optimization problem. The variables' contributions make it possible to isolate and estimate these magnitudes. The variable with the largest contribution may be considered as faulty. In our work, we proposed new methods for the isolation and estimation phases for which previous work has some limitations. The new proposed method in this thesis is based on contributions under constraints. The effectiveness of the developed methods is illustrated on the simulated continuous stirred tank reactor (CSTR).
37

Spectroscopie infrarouge déportée : mise au point d'un biocapteur pour l'imagerie métabolique et la sécurité microbiologique

Keirsse, Julie 10 July 2003 (has links) (PDF)
Un biocapteur à base de fibre optique en verre de chalcogénures, transparente dans un large domaine du moyen infrarouge (MIR), a été développé. Il permet l'enregistrement de spectres MIR par spectroscopie déportée. Le principe de la mesure est basé sur le concept de la spectroscopie par ondes évanescentes. Pour améliorer la sensibilité, les fibres utilisées sont effilées sur quelques centimètres et ont un profil en diamètre de 450-100-450 µm. La zone effilée sera mise en contact avec l'échantillon à analyser. Différents états métaboliques (physiologique ou pathologique) dans le foie et le sérum ont été analysés. Les coupes de foies et les sérums ont été mis directement en contact avec la partie senseur de la fibre, et des spectres MIR ont ainsi été collectés. L'objectif de ces études est d'identifier deux états métaboliques différents (sain et pathologique) d'un même échantillon. Des modifications spectrales peuvent être mises en évidence et reliées à une ou des altération(s) du métabolisme des lipides, glucides et/ou protides. Ces modifications peuvent être des différences d'intensité et/ou des décalages en nombre d'onde de bandes d'absorption. Tous les résultats sont corrélés avec les dosages sanguins et les colorations histologiques des échantillons analysés. Le développement d'un biofilm bactérien a été suivi in situ et en temps réel. Proteus mirabilis est un micro-organisme pathogène, opportuniste des voies urinaires, qui a développé un comportement multi-cellulaires complexe, corrélé dans l'espace et le temps, ce qui lui permet de coloniser de nouvelles surfaces. Durant le processus de différenciation, le changement de l'état végétatif à celui migrant (pathogène) est accompagné par des modifications des constituants membranaires. Les spectres MIR, enregistrés pendant le développement d'un biofilm à P. mirabilis, permettent de détecter en temps réel une contamination de surface, mais aussi les modifications biochimiques des constituants de la membrane bactérienne. Tous les spectres ont été traités par Analyse en Composantes Principales (ACP), d'une part pour une reconnaissance non-supervisée d'une pathologie, et d'autre part, déterminer la distribution spatiale des phénotypes de P. mirabilis au sein du biofilm
38

Analyses factorielles des distributions marginales de processus

Boumaza, Rachid 04 January 1999 (has links) (PDF)
On définit la mesure d'affinité de deux densités de probabilité de p-vecteurs aléatoires par le produit scalaire de ces deux densités dans l'espace des fonctions de carré intégrable. On la calcule pour différents types de densités. On présente les propriétés asymptotiques de cette mesure d'affinité dans le cas de densités gaussiennes ; on montre en particulier la normalité asymptotique de cette mesure lorsque les paramètres de ces densités sont estimés par le maximum de vraisemblance. On utilise cette mesure d'affinité pour définir l'analyse en composantes principales de T densités de probabilité (ou des fonctions caractéristiques associées) avec l'objectif d'apprécier l'évolution de ces densités en les visualisant dans des espaces de dimension réduite. On en montre les liens avec la méthode Statis Dual (sur matrices de variance) et on en propose une estimation convergente. On montre les représentations obtenues sur des données de cardiologie et sur des données de processus gaussiens en en faisant varier les paramètres. Aux densités précédentes indicées par t (t=1,...,T) on ajoute une variable qualitative Y définie sur l'ensemble des indices. Cette variable engendrant une partition des densités en Q catégories, on définit l'analyse discriminante de ces densités et on propose quatre règles d'affectation d'une nouvelle densité gaussienne à l'une des Q catégories. Deux règles sont de type probabiliste (vraisemblance maximale) et s'appuient sur le caractère asymptotiquement gaussien de la mesure d'affinité ; deux règles sont de type géométrique (distance minimale) et s'appuient sur la distance induite par la mesure d'affinité. On applique cette méthode à des données archéologiques (mesures de pierres de châteaux d'Alsace), l'objectif étant de dater ces châteaux.
39

Etude méthodologique de l'analyse en composantes principales de processus bidimensionnels : effets des approximations numériques et de l'échantillonnage et utilisation pour la simulation de champs aléatoires : application au traitement des températures mensuelles de surface de la mer sur l'Atlantique intertropical

Braud, Isabelle 10 April 1990 (has links) (PDF)
Le point de départ de ce mémoire est la technique d'Analyse en Composantes Principales de Processus (ACPP), extension à des champs spatialement et/ou temporellement continus de l'Analyse en Composantes Principales (ACP) classique. Elle conduit à rechercher les fonctions propres d'un noyau de covariance, solutions d'une équation intégrale de Fredholm et permet ainsi de tenir compte explicitement de la forme et de la taille du domaine d'étude. Dans le chapitre l, après un rappel de la méthode et la présentation de l'approximation numérique utilisée lorsqu'on travaille avec un échantillon de taille fInie et un processus discrétisé spatialement, on s'attache à montrer les liens de cette technique avec la recherche de modes normaux de systèmes dynamiques puis avec les techniques d'interpolation optimale et la géostatistique. On montre ainsi que l'ACPP peut s'interpréter comme un cas particulier de krigeage s'appuyant sur un modèle de covariance spécifique, non nécessairement stationnaire. Dans le chapitre 2, afIn de quantifIer les erreurs sur l'estimation des fonctions propres, dues à l'échantillonnage statistique et à la discrétisation spatiale, une solution analytique, pour un modèle particulier de covariance et un domaine circulaire, est proposée puis comparée aux solutions numériques. Le chapitre 3 pose ensuite les principes de l'utilisation de l'ACPP pour la simulation de champs bidimensionnels et analyse la sensibilité de la méthode au choix des paramètres en terme de restitution d'une covariance cible. La technique est aussi comparée à d'autres méthodes (Bandes tournantes, méthodes matricielles), puis utilisée pour la simulation de champs non stationnaires. Enfin, le chapitre 4 illustre tous ces développements méthodologiques sur des données de température mensuelle de surface de la mer sur l'Atlantique intertropical entre 1964 et 1987.
40

Analyse des champs spatiaux par utilisation de la télédétection : estimation de la durée quotidienne d'insolation en France à l'aide d'images du satellite Météosat et de mesures sol

Galle, Sylvie 21 May 1987 (has links) (PDF)
L'insolation est étudiée, à l'échelle synoptique (la France) à l'aide d'un ensemble de mesures de la durée quotidienne d'insolation réalisées au sol et par télédétection satellitaire. L'objectif poursuivi est d'analyser une série de données suffi* samment longue pour caractériser de manière statistique le comportement climatologique de l'insolation dans l'espace. Les données sont fournies par 88 héliographes du réseau synoptique français ainsi que par le programme " Cactus " de la Météorologie Nationale, qui utilise les images visibles du satellite Météosat. L'étude porte sur une année de données. La similarité de la structure spatiale des mesures du sol et du satellite est montrée par analyse objective, et par analyse en composantes principales de processus. La fine perception de la variabilité spatiale du satellite est alors utilisée pour optimiser un réseau de mesures au sol. Les performances du programme Cactus sont comparées avec celles de méthodes d'interpolation classiques (basées sur 23 héliographes), pour l'estimation du rapport d'insolation. Elles se sont révélées plus performantes en terme de cofluctuation. Il apparaît cependant une tendance du satellite à exagérer les valeurs extrêmes. L'étalonnage des mesures satellitaires par des mesures sol a pour but de conjuguer les qualités de précision des hélio* graphes, et la définition spatiale du satellite. Une approche géostatistique est proposée. L'effet recherché est observé à partir d'une certaine densité du réseau d'étalonnage

Page generated in 0.0459 seconds