• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 6
  • 2
  • Tagged with
  • 26
  • 26
  • 22
  • 11
  • 10
  • 10
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Identification des défauts d'une pile à combustible par la mesure du champ magnétique externe : vers la détermination de défauts locaux / Faults identification on a fuel cell by external magnetic measurements. : towards of determination of local faults

Ifrek, Lyes 20 November 2017 (has links)
Ce travail a permis de développer une technique non invasive d’identification de la distribution du courant dans une pile à combustible à partir du champ magnétique externe. La mesure du champ s’effectue sur un ensemble de points de mesures choisis spécialement pour détecter les variations du champ par rapport à un fonctionnement optimal de la pile. Les deux composantes du champ magnétique sensibles aux variations sont utilisées. La mesure du champ exploitable est la différence entre un mode considéré sain et un mode quelconque de fonctionnement. Autour de ces mesures de champ magnétique, un problème inverse est modélisé en explorant plusieurs approches de paramétrisation de la distribution du courant. Le caractère mal posé du problème s’est traduit par la non-unicité de la solution et sa sensibilité au bruit. L’affranchissement de ces problèmes est atteint par la régularisation du modèle inverse. L’outil développé permis de reconstruire la distribution du courant indépendamment de la taille du défaut dans la limite de sensibilité. La validation est faite sur un simulateur électrique de pile à combustible et sur une pile de type GENEPAC dans un environnement de laboratoire. / A noninvasive technique for identifying the current distribution in a fuel cell from the external magnetic field is developed. The magnetic field measurements are carried out on a set of points chosen in order to detect only the variations of the magnetic field in a case of a faulty fuel cell. Two components of the magnetic field are used because they are sensitive to current heterogeneities. The exploitable measurement of the magnetic field is the difference between a healthy mode and a faulty mode.An ill-posed inverse problem is modeled by investigating several parametrization approaches of the current distribution. The ill-posed property of the problem conducts to a non-uniqueness of the solution and a high sensitivity to the noise. A regularization method is used in order to get a stable solution. The developed tool allows identifying the current distribution independently of the size of the fault within the sensitivity limit. A validation is done on a fuel cell simulator and on a GENEPAC fuel cell in a laboratory conditions.
12

Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF / Improvement of cross section model in COCAGNE code of the calculation chain of EDF

Luu, Thi Hieu 17 February 2017 (has links)
Afin d'exploiter au mieux son parc nucléaire, la R&D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision. / In order to optimize the operation of its nuclear power plants, the EDF's R&D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy.
13

Tools O' the Times : understanding the common proporties of species interaction networks across space

Strydom, Tanya 11 1900 (has links)
Le domaine de l’écologie des réseaux est encore limité dans sa capacité à faire des inférences mondiales à grande échelle. Ce défi est principalement dû à la difficulté d’échantillonnage des interactions sur le terrain, entraînant de nombreuses « lacunes » en ce qui concerne la couverture mondiale des données. Cette thèse adopte une approche « centrée sur les méthodes » de l’écologie des réseaux et se concentre sur l’idée de développer des outils pour aider à combler les lacunes en matière de données en présentant la prédiction comme une alternative accessible à l’échantillonnage sur le terrain et introduit deux « outils » différents qui sont prêts à poser des questions à l’échelle mondiale. Le chapitre 1 présente les outils que nous pouvons utiliser pour faire des prédictions de réseaux et est motivé par l’idée selon laquelle avoir la capacité de prédire les interactions entre les espèces grâce à l’utilisation d’outils de modélisation est impératif pour une compréhension plus globale des réseaux écologiques. Ce chapitre comprend une preuve de concept (dans laquelle nous montrons comment un simple modèle de réseau neuronal est capable de faire des prédictions précises sur les interactions entre espèces), une évaluation des défis et des opportunités associés à l’amélioration des prédictions d’interaction et une feuille de route conceptuelle concernant l’utilisation de modèles prédictifs pour les réseaux écologiques. Les chapitres 2 et 3 sont étroitement liés et se concentrent sur l’utilisation de l’intégration de graphiques pour la prédiction de réseau. Essentiellement, l’intégration de graphes nous permet de transformer un graphe (réseau) en un ensemble de vecteurs, qui capturent une propriété écologique du réseau et nous fournissent une abstraction simple mais puissante d’un réseau d’interaction et servent de moyen de maximiser les informations disponibles. dispo- nibles à partir des réseaux d’interactions d’espèces. Parce que l’intégration de graphes nous permet de « décoder » les informations au sein d’un réseau, elle est conçue comme un outil de prédiction de réseau, en particulier lorsqu’elle est utilisée dans un cadre d’apprentissage par transfert. Elle s’appuie sur l’idée que nous pouvons utiliser les connaissances acquises en résolvant un problème connu. et l’utiliser pour résoudre un problème étroitement lié. Ici, nous avons utilisé le métaweb européen (connu) pour prédire un métaweb pour les espèces canadiennes en fonction de leur parenté phylogénétique. Ce qui rend ce travail particulière- ment passionnant est que malgré le faible nombre d’espèces partagées entre ces deux régions, nous sommes capables de récupérer la plupart (91%) des interactions. Le chapitre 4 approfondit la réflexion sur la complexité des réseaux et les différentes ma- nières que nous pourrions choisir de définir la complexité. Plus spécifiquement, nous remet- tons en question les mesures structurelles plus traditionnelles de la complexité en présentant l’entropie SVD comme une mesure alternative de la complexité. Adopter une approche phy- sique pour définir la complexité nous permet de réfléchir aux informations contenues dans un réseau plutôt qu’à leurs propriétés émergentes. Il est intéressant de noter que l’entropie SVD révèle que les réseaux bipartites sont très complexes et ne sont pas nécessairement conformes à l’idée selon laquelle la complexité engendre la stabilité. Enfin, je présente le package Julia SpatialBoundaries.jl. Ce package permet à l’utili- sateur d’implémenter l’algorithme de wombling spatial pour des données disposées de manière uniforme ou aléatoire dans l’espace. Étant donné que l’algorithme de wombling spatial se concentre à la fois sur le gradient et sur la direction du changement pour un paysage donné, il peut être utilisé à la fois pour détecter les limites au sens traditionnel du terme ainsi que pour examiner de manière plus nuancée la direction des changements. Cette approche pourrait être un moyen bénéfique de réfléchir aux questions liées à la détection des limites des réseaux et à leur relation avec les limites environnementales. / The field of network ecology is still limited in its ability to make large-scale, global inferences. This challenge is primarily driven by the difficulty of sampling interactions in the field, leading to many ‘gaps’ with regards to global coverage of data. This thesis takes a ’methods-centric’ approach to network ecology and focuses on the idea of developing tools to help with filling in the the data gaps by presenting prediction as an accessible alternative to sampling in the field and introduces two different ’tools’ that are primed for asking questions at global scales. Chapter 1 maps out tools we can use to make network predictions and is driven by the idea that having the ability to predict interactions between species through the use of modelling tools is imperative for a more global understanding of ecological networks. This chapter includes a proof-of-concept (where we show how a simple neural network model is able to make accurate predictions about species interactions), an assessment of the challenges and opportunities associated with improving interaction predictions, and providing a conceptual roadmap concerned with the use of predictive models for ecological networks. Chapters 2 and 3 are closely intertwined and are focused on the use of graph embedding for network prediction. Essentially graph embedding allows us to transform a graph (net- work) into a set of vectors, which capture an ecological property of the network and provides us with a simple, yet powerful abstraction of an interaction network and serves as a way to maximise the available information available from species interaction networks. Because graph embedding allows us to ’decode’ the information within a network it is primed as a tool for network prediction, specifically when used in a transfer learning framework, this builds on the idea that we can take the knowledge gained from solving a known problem and using it to solve a closely related problem. Here we used the (known) European metaweb to predict a metaweb for Canadian species based on their phylogenetic relatedness. What makes this work particularly exciting is that despite the low number of species shared between these two regions we are able to recover most (91%) of interactions. Chapter 4 delves into thinking about the complexity of networks and the different ways we might choose to define complexity. More specifically we challenge the more traditional structural measures of complexity by presenting SVD entropy as an alternative measure of complexity. Taking a physical approach to defining complexity allows us to think about the information contained within a network as opposed to their emerging properties. Interest- ingly, SVD entropy reveals that bipartite networks are highly complex and do not necessarily conform to the idea that complexity begets stability. Finally, I present the Julia package SpatialBoundaries.jl. This package allows the user to implement the spatial wombling algorithm for data arranged uniformly or randomly across space. Because the spatial wombling algorithm focuses on both the gradient as well as the direction of change for the given landscape it can be used both for detecting boundaries in the traditional sense as well as a more nuanced look at at the direction of changes. This approach could be a beneficial way with which to think about questions which relate to boundary detection for networks and how these relate to environmental boundaries.
14

Nouvelles méthodes de représentations parcimonieuses ; application à la compression et l'indexation d'images

Zepeda Salvatierra, Joaquin 28 October 2010 (has links) (PDF)
Une nouvelle structure de dictionnaire adaptés aux décompositions itératives de type poursuite, appelée un Iteration-Tuned Dictionary (ITD), est présentée. Les ITDs sont structurés en couche, chaque couche se composant d'un ensemble de dictionnaires candidats. Les décompositions itératives basées ITD sont alors réalisées en sélectionnant, à chaque itération i, l'un des dictionnaires de la i-ième couche. Une structure générale des ITDs est proposée, ainsi qu'une variante structurée en arbre appelée Tree-Structured Iteration-Tuned Dictionary (TSITD) et une version contrainte de cette dernière, appelée Iteration-Tuned and Aligned Dictionary (ITAD). Ces structures sont comparées à plusieurs méthodes de l'état de l'art et évaluées dans des applications de débruitage et de compression d'images. Un codec basé sur le schéma ITAD est également présenté et comparé à JPEG2000 dans des évaluations qualitatives et quantitatives. Dans le contexte de l'indexation d'images, un nouveau système de recherche approximative des plus proches voisins est également introduit, qui utilise les représentations parcimonieuses pour réduire la complexité de la recherche. La méthode traite l'instabilité dans la sélection des atomes lorsque l'image est soumise à de faibles transformations affines. Un nouveau système de conditionnement des données est également introduit, permettant de mieux distribuer les données sur la sphère unitaire tout en préservant leurs distances angulaires relatives. Il est montré que cette méthode améliore le compromis complexité/performance de la recherche approximative basée décompositions parcimonieuses.
15

Analyse de sensibilité déterministe pour la simulation numérique du transfert de contaminants

Marchand, Estelle 12 December 2007 (has links) (PDF)
Les questions de sûreté et d'incertitudes sont au centre des études de faisabilité pour un site de stockage souterrain de déchets nucléaires, en particulier l'évaluation des incertitudes sur les indicateurs de sûreté qui sont dues aux incertitudes sur les propriétés du sous-sol et des contaminants. L'approche globale par les méthodes probabilistes de type Monte Carlo fournit de bons résultats, mais elle demande un grand nombre de simulations. La méthode déterministe étudiée ici est complémentaire. Reposant sur la décomposition en valeurs singulières de la dérivée du modèle, elle ne donne qu'une information locale, mais elle est beaucoup moins coûteuse en temps de calcul. Le modèle d'écoulement suit la loi de Darcy et le transport des radionucléides autour du site de stockage est modélisé par une équation de diffusion-convection linéaire. Différentiation à la main et différentiation automatique sont comparées sur ces modèles en mode direct et en mode adjoint. Une étude comparée des deux approches probabiliste et déterministe pour l'analyse de la sensibilité des flux de contaminants aux exutoires par rapport aux variations des paramètres d'entrée est menée sur des données réalistes fournies par l'ANDRA. Des outils génériques d'analyse de sensibilité et de couplage de code sont développés en langage Caml. Ils permettent à l'utilisateur de ces plates-formes génériques de ne fournir que la partie spécifique de l'application dans le langage de son choix. Une étude sur les écoulements diphasiques eau/air partiellement saturés en hydrogéologie porte sur les limitations des approximations de Richards et de la formulation en pression globale issue du domaine pétrolier.
16

Quelques contributions en classification, régression et étude d'un problème inverse en finance

Monnier, Jean-Baptiste 06 December 2011 (has links) (PDF)
On s'intéresse aux problèmes de régression, classification et à un problème inverse en finance. Nous abordons dans un premier temps le problème de régression en design aléatoire à valeurs dans un espace euclidien et dont la loi admet une densité inconnue. Nous montrons qu'il est possible d'élaborer une stratégie d'estimation optimale par projections localisées sur une analyse multi-résolution. Cette méthode originale offre un avantage calculatoire sur les méthodes d'estimation à noyau traditionnellement utilisées dans un tel contexte. On montre par la même occasion que le classifieur plug-in construit sur cette nouvelle procédure est optimal. De plus, il hérite des avantages calculatoires mentionnés plus haut, ce qui s'avère être un atout crucial dans de nombreuses applications. On se tourne ensuite vers le problème de régression en design aléatoire uniformément distribué sur l'hyper-sphère et on montre comment le tight frame de needlets permet de généraliser les méthodes traditionnelles de régression en ondelettes à ce nouveau contexte. On s'intéresse finalement au problème d'estimation de la densité risque-neutre à partir des prix d'options cotés sur les marchés. On exhibe une décomposition en valeurs singulières explicite d'opérateurs de prix restreints et on montre qu'elle permet d'élaborer une méthode d'estimation de la densité risque-neutre qui repose sur la résolution d'un simple programme quadratique.
17

Séparation de sources thermométriques.

Khan, Amir Ali 27 November 2009 (has links) (PDF)
Ce travail de thèse aborde un problème de la détection des fuites d'eau dans des digues en terre. L'écoulement préférentiel, un indicateur de destruction interne, résulte dans une anomalie thermique. Les capteurs DTS basés sur la fibre optique offrent une solution efficace pour les mesures spatio-temporelles de température. Les données thermométriques sont influencées par différents facteurs comme la réponse du sol, les variations saisonnières, l'environnement géomécanique, etc. Afin d'écarter des phénomènes comme les précipitations, nous proposons un critère basé sur le skewness et le kurtosis. La détection des fuites étant formulée comme un problème de séparation de sources, nous présentons un système basé sur la SVD et l'ICA pour séparer les informations utiles liées aux fuites des autres facteurs. Dans le cas où le nombre d'acquisitions en temps est limité, nous proposons un détecteur de singularités exploitant les dissimilarités entre les mesures journalières de température aux différentes distances.
18

H-matrix based Solver for 3D Elastodynamics Boundary Integral Equations / Solveurs fondés sur la méthode des H-matrices pour les équations intégrales en élastodynamique 3D

Desiderio, Luca 27 January 2017 (has links)
Cette thèse porte sur l'étude théorique et numérique des méthodes rapides pour résoudre les équations de l'élastodynamique 3D en domaine fréquentiel, et se place dans le cadre d'une collaboration avec la société Shell en vue d'optimiser la convergence des problèmes d'inversion sismique. La méthode repose sur l'utilisation des éléments finis de frontière (BEM) pour la discrétisation et sur les techniques de matrices hiérarchiques (H-matrices) pour l'accélération de la résolution du système linéaire. Dans le cadre de cette thèse on a développé un solveur direct pour les BEMs en utilisant une factorisation LU et un stockage hiérarchique. Si le concept des H-matrices est simple à comprendre, sa mise en oeuvre requiert des développements algorithmiques importants tels que la gestion de la multiplication de matrices représentées par des structures différentes (compressées ou non) qui ne comprend pas mois de 27 sous-cas. Un autre point délicat est l'utilisation des méthodes d'approximations par matrices compressées (de rang faible) dans le cadre des problèmes vectoriels. Une étude algorithmique a donc été faite pour mettre en oeuvre la méthode des H-matrices. Nous avons par ailleurs estimé théoriquement le rang faible attendu pour les noyaux oscillants, ce qui constitue une nouveauté, et montré que la méthode est utilisable en élastodynamique. En outre on a étudié l'influence des divers paramètres de la méthode en acoustique et en élastodynamique 3D, à fin de calibrer leur valeurs numériques optimales. Dans le cadre de la collaboration avec Shell, un cas test spécifique a été étudié. Il s'agit d'un problème de propagation d'une onde sismique dans un demi-espace élastique soumis à une force ponctuelle en surface. Enfin le solveur direct développé a été intégré au code COFFEE développé a POEMS (environ 25000 lignes en Fortran 90) / This thesis focuses on the theoretical and numerical study of fast methods to solve the equations of 3D elastodynamics in frequency-domain. We use the Boundary Element Method (BEM) as discretization technique, in association with the hierarchical matrices (H-matrices) technique for the fast solution of the resulting linear system. The BEM is based on a boundary integral formulation which requires the discretization of the only domain boundaries. Thus, this method is well suited to treat seismic wave propagation problems. A major drawback of classical BEM is that it results in dense matrices, which leads to high memory requirement (O (N 2 ), if N is the number of degrees of freedom) and computational costs.Therefore, the simulation of realistic problems is limited by the number of degrees of freedom. Several fast BEMs have been developed to improve the computational efficiency. We propose a fast H-matrix based direct BEM solver.
19

Etude de champs de température séparables avec une double décomposition en valeurs singulières : quelques applications à la caractérisation des propriétés thermophysiques des matérieux et au contrôle non destructif / Study of separable temperatur fields with a double singular value decomposition : some applications in characterization of thermophysical properties of materials and non destructive testing

Ayvazyan, Vigen 14 December 2012 (has links)
La thermographie infrarouge est une méthode largement employée pour la caractérisation des propriétés thermophysiques des matériaux. L’avènement des diodes laser pratiques, peu onéreuses et aux multiples caractéristiques, étendent les possibilités métrologiques des caméras infrarouges et mettent à disposition un ensemble de nouveaux outils puissants pour la caractérisation thermique et le contrôle non desturctif. Cependant, un lot de nouvelles difficultés doit être surmonté, comme le traitement d’une grande quantité de données bruitées et la faible sensibilité de ces données aux paramètres recherchés. Cela oblige de revisiter les méthodes de traitement du signal existantes, d’adopter de nouveaux outils mathématiques sophistiqués pour la compression de données et le traitement d’informations pertinentes. Les nouvelles stratégies consistent à utiliser des transformations orthogonales du signal comme outils de compression préalable de données, de réduction et maîtrise du bruit de mesure. L’analyse de sensibilité, basée sur l’étude locale des corrélations entre les dérivées partielles du signal expérimental, complète ces nouvelles approches. L'analogie avec la théorie dans l'espace de Fourier a permis d'apporter de nouveaux éléments de réponse pour mieux cerner la «physique» des approches modales.La réponse au point source impulsionnel a été revisitée de manière numérique et expérimentale. En utilisant la séparabilité des champs de température nous avons proposé une nouvelle méthode d'inversion basée sur une double décomposition en valeurs singulières du signal expérimental. Cette méthode par rapport aux précédentes, permet de tenir compte de la diffusion bi ou tridimensionnelle et offre ainsi une meilleure exploitation du contenu spatial des images infrarouges. Des exemples numériques et expérimentaux nous ont permis de valider dans une première approche cette nouvelle méthode d'estimation pour la caractérisation de diffusivités thermiques longitudinales. Des applications dans le domaine du contrôle non destructif des matériaux sont également proposées. Une ancienne problématique qui consiste à retrouver les champs de température initiaux à partir de données bruitées a été abordée sous un nouveau jour. La nécessité de connaitre les diffusivités thermiques du matériau orthotrope et la prise en compte des transferts souvent tridimensionnels sont complexes à gérer. L'application de la double décomposition en valeurs singulières a permis d'obtenir des résultats intéressants compte tenu de la simplicité de la méthode. En effet, les méthodes modales sont basées sur des approches statistiques de traitement d'une grande quantité de données, censément plus robustes quant au bruit de mesure, comme cela a pu être observé. / Infrared thermography is a widely used method for characterization of thermophysical properties of materials. The advent of the laser diodes, which are handy, inexpensive, with a broad spectrum of characteristics, extend metrological possibilities of infrared cameras and provide a combination of new powerful tools for thermal characterization and non destructive evaluation. However, this new dynamic has also brought numerous difficulties that must be overcome, such as high volume noisy data processing and low sensitivity to estimated parameters of such data. This requires revisiting the existing methods of signal processing, adopting new sophisticated mathematical tools for data compression and processing of relevant information.New strategies consist in using orthogonal transforms of the signal as a prior data compression tools, which allow noise reduction and control over it. Correlation analysis, based on the local cerrelation study between partial derivatives of the experimental signal, completes these new strategies. A theoretical analogy in Fourier space has been performed in order to better understand the «physical» meaning of modal approaches.The response to the instantaneous point source of heat, has been revisited both numerically and experimentally. By using separable temperature fields, a new inversion technique based on a double singular value decomposition of experimental signal has been introduced. In comparison with previous methods, it takes into account two or three-dimensional heat diffusion and therefore offers a better exploitation of the spatial content of infrared images. Numerical and experimental examples have allowed us to validate in the first approach our new estimation method of longitudinal thermal diffusivities. Non destructive testing applications based on the new technique have also been introduced.An old issue, which consists in determining the initial temperature field from noisy data, has been approached in a new light. The necessity to know the thermal diffusivities of an orthotropic medium and the need to take into account often three-dimensional heat transfer, are complicated issues. The implementation of the double singular value decomposition allowed us to achieve interesting results according to its ease of use. Indeed, modal approaches are statistical methods based on high volume data processing, supposedly robust as to the measurement noise.
20

Projection de la mortalité aux âges avancées au Canada : comparaison de trois modèles

Tang, Kim Oanh January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Page generated in 0.3453 seconds