• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 27
  • 6
  • 1
  • Tagged with
  • 117
  • 117
  • 106
  • 57
  • 54
  • 43
  • 33
  • 24
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse Inverse en Géotechnique: développement d'une méthode à base d'algorithmes génétiques.

Levasseur, Séverine 05 October 2007 (has links) (PDF)
La plupart des essais géotechniques in situ ne permettent pas d'identifier directement les paramètres constitutifs des couches de sol. L'utilisation de calculs par éléments finis pour dimensionner les ouvrages est ainsi limitée par une mauvaise connaissance des propriétés mécaniques des sols. C'est dans ce contexte que se pose la problématique d'analyse inverse en géotechnique : quelles informations concernant les paramètres constitutifs du sol est-il possible d'obtenir à partir de mesures in situ ? <br />L'objectif de ce travail est de développer une méthode d'analyse inverse permettant d'identifier l'ensemble des paramètres constitutifs d'un sol à partir de mesures géotechniques in situ. La procédure est basée sur un processus d'optimisation par algorithme génétique. L'ensemble des solutions identifiées sont ensuite décrites mathématiquement par une étude statistique de type analyse en composantes principales. Cette étude montre que ce type d'optimisation par algorithme génétique permet d'estimer différentes solutions approchées pour les problèmes inverses de géotechnique. Si toutes les solutions d'un problème ne sont pas identifiées directement par l'algorithme génétique, leur exploitation par une analyse en composantes principales permet d'estimer l'ensemble des solutions du problème inverse. Cette méthode est développée sur des exemples d'ouvrages de soutènement et d'essais pressiométriques.
32

Sécurisation des smart cards par masquage de signal informationnel sur canal secondaire

Chaillan, Fabien Jauffret, Claude Courmontagne, Philippe. January 2006 (has links)
Reproduction de : Thèse de doctorat : Traitement du Signal : Toulon : 2006. / Titre provenant du cadre-titre. Bibliographie p.221-224.
33

Optimisation de la qualité et du confort des produits textiles par exploitation de données physiques et de la connaissance humaine

Koehl, Ludovic Zeng, Xianyi January 2007 (has links)
Reproduction de : Habilitation à diriger des recherches : Sciences physiques. Automatique et informatique industrielle : Lille 1 : 2006. / N° d'ordre (Lille 1) : 545. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 82-85. Liste des publications et communications.
34

Statistical methods for insurance fraud detection

Poissant, Mathieu January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
35

Utilisation de méta-modèles multi-fidélité pour l'optimisation de la production des réservoirs / Use of multi-fidelity meta-models for optimizing reservoir production

Thenon, Arthur 20 March 2017 (has links)
Les simulations d'écoulement sur des modèles représentatifs d'un gisement pétrolier sont généralement coûteuses en temps de calcul. Une pratique courante en ingénierie de réservoir consiste à remplacer ces simulations par une approximation mathématique, un méta-modèle. La méta-modélisation peut fortement réduire le nombre de simulations nécessaires à l'analyse de sensibilité, le calibrage du modèle, l'estimation de la production, puis son optimisation. Cette thèse porte sur l'étude de méta-modèles utilisant des simulations réalisées à différents niveaux de précision, par exemple pour des modèles de réservoir avec des maillages de résolutions différentes. L'objectif est d'accélérer la construction d'un méta-modèle prédictif en combinant des simulations coûteuses avec des simulations rapides mais moins précises. Ces méta-modèles multi-fidélité, basés sur le co-krigeage, sont comparés au krigeage pour l'approximation de sorties de la simulation d'écoulement. Une analyse en composantes principales peut être considérée afin de réduire le nombre de modèles de krigeage pour la méta-modélisation de réponses dynamiques et de cartes de propriétés. Cette méthode peut aussi être utilisée pour améliorer la méta-modélisation de la fonction objectif dans le cadre du calage d'historique. Des algorithmes de planification séquentielle d'expériences sont finalement proposés pour accélérer la méta-modélisation et tirer profit d'une approche multi-fidélité. Les différentes méthodes introduites sont testées sur deux cas synthétiques inspirés des benchmarks PUNQ-S3 et Brugge. / Performing flow simulations on numerical models representative of oil deposits is usually a time consuming task in reservoir engineering. The substitution of a meta-model, a mathematical approximation, for the flow simulator is thus a common practice to reduce the number of calls to the flow simulator. It permits to consider applications such as sensitivity analysis, history-matching, production estimation and optimization. This thesis is about the study of meta-models able to integrate simulations performed at different levels of accuracy, for instance on reservoir models with various grid resolutions. The goal is to speed up the building of a predictive meta-model by balancing few expensive but accurate simulations, with numerous cheap but approximated ones. Multi-fidelity meta-models, based on co-kriging, are thus compared to kriging meta-models for approximating different flow simulation outputs. To deal with vectorial outputs without building a meta-model for each component of the vector, the outputs can be split on a reduced basis using principal component analysis. Only a few meta-models are then needed to approximate the main coefficients in the new basis. An extension of this approach to the multi-fidelity context is proposed. In addition, it can provide an efficient meta-modelling of the objective function when used to approximate each production response involved in the objective function definition. The proposed methods are tested on two synthetic cases derived from the PUNQ-S3 and Brugge benchmark cases. Finally, sequential design algorithms are introduced to speed-up the meta-modeling process and exploit the multi-fidelity approach.
36

Analyse du procédé de crêpage du papier et suivi de l'usure des lames de crêpage par émission acoustique

Théberge, Jean January 2008 (has links)
Ce document présente les approches suivies et les résultats des investigations théoriques et expérimentales entreprises dans le cadre de l'étude du procédé de crêpage du papier depuis le début de la maîtrise faite en collaboration avec Kruger Produits Ltée. L'objectif du projet est de mieux comprendre les phénomènes reliant la qualité du papier a l'état d'usure des lames de crêpage. À cette fin, une méthode expérimentale basée sur les techniques de mesure par émission acoustique afin de suivre en temps réel le comportement mécanique et l'état d'usure des lames est proposée. Ce suivi en temps réel permet d'identifier par émission acoustique les mécanismes reliés à l'usure des lames par friction et d'établir une corrélation entre le comportement mécanique de la lame et les différents paramètres de qualité du papier, dont le crêpage. Ce mémoire présente donc en premier lieu la problématique du projet, les éléments fondamentaux qui entrent en jeu lors du procédé de crêpage, la description des lames utilisées dans le procédé industriel, l'analyse des principes de base des phénomènes d'usure des lames en relation avec les aspects métallurgiques du matériau et enfin, les principes du suivi de l'usure par la technique d'émission acoustique et le traitement numérique des signaux. La deuxième partie du mémoire s'attarde sur les procédures expérimentales suivies et sur la synthèse des résultats obtenus. La troisième partie présente la conclusion sur les résultats obtenus à partir de laquelle une série de recommandations sont mises de l'avant afin de permettre à l'entreprise d'améliorer l'opération de crêpage du papier.
37

Apport de la chimiométrie et des plans d’expériences pour l’évaluation de la qualité de l’huile d’olive au cours de différents processus de vieillissement / Contribution of chemometrics and experimental designs for evaluating the quality of olive oil during different aging process

Plard, Jérôme 17 January 2014 (has links)
L'huile d'olive est un élément important de l'alimentation méditerranéenne. Cependant lorsqu'une huile vieillit, elle se dégrade et perd ses propriétés. Il est donc important de connaitre l'évolution de la composition de l'huile en fonction de ses conditions de stockage et de fabrication. Ce suivi a été effectué sur deux huiles de fabrication différente, une huile fruité vert et une huile fruité noir, obtenue à partir d'olive à maturité que l'on a laissé fermenter quelques jours. De manière à obtenir rapidement des vieillissements poussés, ces deux huiles ont été vieillies artificiellement, par procédé thermique , et par procédé photochimique. Ces vieillissements ont été réalisés sur des volumes différents de manière à déterminer l'impact du rapport surface/masse. En parallèle, des échantillons de chacune des deux huiles ont été conservés durant 24 mois dans des conditions de stockage différentes déterminées à l'aide d'un plan d'expériences. Les paramètres influençant le plus la conservation de l'huile d'olive sont l'apport en oxygène, la luminosité et la température. Ces influences ont été déterminées à partir du suivi des principaux paramètres de qualité La réponse des plans a permis de mettre en évidence des interactions entre ces différents paramètres. L'analyse de la composition de l'huile ainsi que de tous les critères de qualité demande beaucoup de temps et consomme une grande quantité de solvant. Afin de pallier à ces désagréments, les résultats ont également été utilisés pour construire des modèles chimiométriques permettant de déterminer ces grandeurs à partir des spectres proche et moyen infrarouge des échantillons. / Olive oil is an important component of the Mediterranean diet. When oil ages, it deteriorates and loses its properties. It is therefore important to know the evolution of the oil composition according to the conditions of storage and manufacturing. This monitoring was carried out on two different oils manufacturing, green fruity oil obtained from olives harvested before maturity, and black fruit oil obtained from olives harvest at maturity and fermented for few days under controlled conditions. To obtain quickly pushed aging, these two oils were artificially aged by heat process (heated to 180 °C under supply of O2), and photochemical process (under an UV lamp and under supply of O2). These aging were performed on different volumes to determine the impact of surface/weight ratio. In parallel, samples of both oils were stored for 24 months under different storage conditions determined using an experimental design. The parameters affecting the most the conservation of olive oil are oxygen, light and temperature. These influences were determined from the monitoring of key quality criteria. Response of experimental design helped to highlight the interactions between these different parameters. The analysis of the oil composition as well as all the quality criteria requires a large amount of solvents and a lot of time consumer. To overcome these inconveniences, chemometric models has been built to determine these criteria from the near and mid-infrared spectra of samples. Natural aging is very little advanced in comparison to accelerated aging, so predictive models were established from the results of natural aging and accelerated separately.
38

Caractérisation de paramètres cosmétologiques à partir d'images multispectrales de peau / Characterization of cosmetologic data from multispectral skin images

Corvo, Joris 01 December 2016 (has links)
Grâce aux informations spatiales et spectrales qu'elle apporte, l'imagerie multispectrale de la peau est devenue un outil incontournable de la dermatologie. Cette thèse a pour objectif d'évaluer l’intérêt de cet outil pour la cosmétologie à travers trois études : la détection d'un fond de teint, l'évaluation de l'âge et la mesure de la rugosité.Une base d'images multispectrales de peau est construite à l'aide d'un système à multiples filtres optiques. Une phase de prétraitement est nécessaire à la standardisation et à la mise en valeur de la texture des images.Les matrices de covariance des acquisitions peuvent être représentées dans un espace multidimensionnel, ce qui constitue une nouvelle approche de visualisation de données multivariées. De même, une nouvelle alternative de réduction de la dimensionnalité basée sur l'ACP est proposée dans cette thèse. L'analyse approfondie de la texture des images multispectrales est réalisée : les paramètres de texture issus de la morphologie mathématique et plus généralement de l'analyse d'images sont adaptés aux images multivariées. Dans cette adaptation, plusieurs distances spectrales sont expérimentées, dont une distance intégrant le modèle LIP et la métrique d'Asplünd.Les résultats des prédictions statistiques générées à partir des données de texture permettent de conclure quant à la pertinence du traitement des données et de l'utilisation de l'imagerie multispectrale pour les trois études considérées. / Thanks to its precision in spatial and spectral domain, multispectral imaging has become an essential tool in dermatology. This thesis focuses on the interest of this technology for cosmetological parameters assessment through three different studies: the detection of a foundation make-up, age assessment and roughness measurement.A database of multispectral skin images is build using a multiple optical filters system. A preprocessing step allows to standardize those texture images before their exploitation.Covariance matrices of mutispectral acquisitions can be displayed in a multidimensional scaling space which is a novel way to represent multivariate data sets. Likewise, a new dimensionality reduction algorithm based on PCA is proposed in this thesis.A complete study of the images texture is performed: texture features from mathematical morphology and more generally from image analysis are expanded to the case of multivariate images. In this process, several spectral distances are tested, among which a new distance associating the LIP model to the Asplund metric.Statistical predictions are generated from texture data. Thoses predictions lead to a conclusion about the data processing efficiency and the relevance of multispectral imaging for the three cosmetologic studies.
39

Études par spectroscopie EELS de nanobulles d'hélium et de nanoparticules bimétalliques or-argent (Au@Ag) / Study by EELS of helium nano-bubbles and gold-silver nanoparticles (Au@Ag)

Attouchi, Farah 14 November 2014 (has links)
Ce travail de thèse porte sur l'exploitation de la spectroscopie des pertes d'énergie des électrons,(EELS) résolue spatialement pour l'étude de systèmes de dimensions nanométriques. Cette technique étant réalisée avec un microscope électronique en transmission et à balayage, on parle d'expérience STEM-EELS dont le principal avantage est de permettre à la fois une caractérisation morphologique à l'échelle nanométrique et l'accès à une grande variété d'informations sur les propriétés physiques et chimiques des systèmes étudiés. Nous présentons ainsi deux cas d'étude portant sur : des nanobulles d'hélium confinées dans des matrices à base de fer et des nanoparticules métalliques or-argent de structure coeur- coquille. Ces deux études se basent sur le couplage entre imagerie microscopique à l'échelle nanomètrique et spectroscopie EELS en perte proche (Low-loss EELS).La première étude permet de sonder les densités et les pressions des bulles d'hélium en fonction de leur tailles en s'appuyant sur la détection et l'étude, bulle par bulle, du seuil K de l'hélium. Les résultats sont globalement en accord avec d'autres études dans le domaine, mais des densités très basses en hélium (<10 at nmˉ³) ont été mesurées de façon fiable pour la première fois.la deuxième étude concerne l'exploration des propriétés plasmoniques des nanoparticules bimétalliques Au@Ag en sondant les énergies et les localisations des modes plasmon de surface. On trouve un accord excellent entre les expériences et les calculs par éléments finis pour les positions des modes plasmon. La coquille en Ag semble déterminer leurs énergies, avec le coeur en Au ayant apparemment peu d'effet.Une part importante de ce travail concerne le développement des méthodologies d'acquisition et de traitement des données. Tout particulièrement l'utilisation des techniques d'analyses mutivariés (MVA) pour améliorer la détection de l'hélium dans les bulles. / This thesis describes the application of high spatial resolution electron energy-loss spectroscopy (EELS) to the nanometre scale analysis of two rather di#erent types of sam- ple. EELS performed in the scanning transmission electron microscope (STEM) is known as STEM-EELS and offers the possibility of performing morphological characterisations simultaneously with access to a wide variety of information on the physical and chemical properties of the systems under study. Our two areas of study are nano-bubbles of helium in iron-based alloys and core-shell Au-Ag nano-particles. Both systems are studied via electron microscopic imaging and low-loss EELS (i.e. the spectral range below 50 eV). In the first case the helium densities and pressures in the bubbles are measured as a function of their size and the conditions in which they are generated, via the examination of the intensity and spectral position of the He-K excitation. The results are in broad agreement with othe studies in the field, but particularly lowhelium densities (< 10 at nmˉ³) have been reliably measured here for the first time.The second case concerns the exploration of the bi-metallic nano-particles plasmonic properties via the study of the surface plasmon mode energies and spatial localisations. Excellent agreement is found between experiment and finite element calculations for the plasmon modes. The outer Ag shell essentially fixes their energies, the Au core apparently having little effect.An important part of this work concerns the application of novel acquisition and data analysis methods. In particular the use of multivariate statistical analysis (MVA) is shown to facilitate the detection and quantification of helium in the bubbles.
40

Contribution à la reconnaissance non-intrusive d'activités humaines / Contribution to the non-intrusive gratitude of human activities

Trabelsi, Dorra 25 June 2013 (has links)
La reconnaissance d’activités humaines est un sujet de recherche d’actualité comme en témoignent les nombreux travaux de recherche sur le sujet. Dans ce cadre, la reconnaissance des activités physiques humaines est un domaine émergent avec de nombreuses retombées attendues dans la gestion de l’état de santé des personnes et de certaines maladies, les systèmes de rééducation, etc.Cette thèse vise la proposition d’une approche pour la reconnaissance automatique et non-intrusive d’activités physiques quotidiennes, à travers des capteurs inertiels de type accéléromètres, placés au niveau de certains points clés du corps humain. Les approches de reconnaissance d’activités physiques étudiées dans cette thèse, sont catégorisées en deux parties : la première traite des approches supervisées et la seconde étudie les approches non-supervisées. L’accent est mis plus particulièrement sur les approches non-supervisées ne nécessitant aucune labellisation des données. Ainsi, nous proposons une approche probabiliste pour la modélisation des séries temporelles associées aux données accélérométriques, basée sur un modèle de régression dynamique régi par une chaine de Markov cachée. En considérant les séquences d’accélérations issues de plusieurs capteurs comme des séries temporelles multidimensionnelles, la reconnaissance d’activités humaines se ramène à un problème de segmentation jointe de séries temporelles multidimensionnelles où chaque segment est associé à une activité. L’approche proposée prend en compte l’aspect séquentiel et l’évolution temporelle des données. Les résultats obtenus montrent clairement la supériorité de l’approche proposée par rapport aux autres approches en termes de précision de classification aussi bien des activités statiques et dynamiques, que des transitions entre activités. / Human activity recognition is currently a challengeable research topic as it can be witnessed by the extensive research works that has been conducted recently on this subject. In this context, recognition of physical human activities is an emerging domain with expected impacts in the monitoring of some pathologies and people health status, rehabilitation procedures, etc. In this thesis, we propose a new approach for the automatic recognition of human activity from raw acceleration data measured using inertial wearable sensors placed at key points of the human body. Approaches studied in this thesis are categorized into two parts : the first one deals with supervised-based approaches while the second one treats the unsupervised-based ones. The proposed unsupervised approach is based upon joint segmentation of multidimensional time series using a Hidden Markov Model (HMM) in a multiple regression context where each segment is associated with an activity. The model is learned in an unsupervised framework where no activity labels are needed. The proposed approach takes into account the sequential appearance and temporal evolution of data. The results clearly show the satisfactory results of the proposed approach with respect to other approaches in terms of classification accuracy for static, dynamic and transitional human activities

Page generated in 0.1033 seconds