• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reconstruction de sollicitations dynamiques par méthodes inverses / Identification of a dynamic sollicitation by an inverse approach

Tran, Duc Toan 29 August 2014 (has links)
Dans le domaine de l'ingénierie, connaitre le chargement appliqué sur une structure permet de résoudre des problèmes directs dont le résultat est le champ de déplacement, de déformation dans une structure. Il est alors possible d'effectuer un dimensionnement. Cependant, parfois ce chargement doit être identifie a posteriori. Malheureusement, il n'est pas toujours possible de mesurer ce chargement : ainsi, par exemple, on ne sait pas a priori où aura lieu le chargement, ou bien il n'est pas possible de placer un capteur sans l'endommager ou encore il peut nécessiter un encombrement trop important. On a alors recours à des mesures indirectes de déplacement, de déformation, d'accélération et on est alors amené à résoudre des problèmes inverses, qui sont en général mal posés. Il est alors nécessaire d'ajouter une (des) conditions supplémentaire(s) pour obtenir une solution unique et stable : c'est la régularisation du problème. Ces techniques sont bien connues et leur essor est dû à l'utilisation des décompositions en valeurs singulières des matrices de transfert. Toutefois, elles nécessitent l'utilisation d'un paramètre additionnel qui pondère cette condition supplémentaire : la détermination de ce paramètre est délicate. Peu de travaux ayant été réalisé pour tester de façon intensive les méthodes usuelles de régularisation (Tikhonov et troncature de la (G)SVD), en association avec les différents critères de détermination du paramètre de régularisation et les différentes réponses possibles, on a effectué un tel travail pour tirer des conclusions sur la méthodologie optimale. On a pu mettre en évidence que la mesure de l'accélération associée à un critère faisant intervenir les dérivées du signal à reconstruire donne en général les meilleurs résultats sous réserve d'utiliser le critère GCV pour déterminer le paramètre de régularisation. Ces méthodes supposent que la localisation de la zone de chargement est connue. Aussi on s'est intéressé à déduire cette zone de chargement en tentant de reconstruire des chargements identiquement nuls. Cette identification a été effectuée aisément sous réserve qu'on ait peu de forces à identifier par rapport au nombre de mesures disponibles. En revanche une telle identification est délicate lorsqu'on n'a pas plus de mesures que de forces à identifier. Finalement on s'est tourné vers l'identification de chargement ayant plastifié la structure étudiée. On a alors essayé de reconstruire le chargement en supposant que la structure reste linéaire élastique, alors qu'elle a été plastifiée : on a utilisé la méthode du double chargement et effectue des simulations à l'aide du logiciel de simulation Ls-dyna.La force reconstruite fait alors apparaitre une composante statique traduisant la déformation résiduelle dans la structure. Dans ce cas, la réponse à utiliser pour identifier le chargement est une déformation dans une zone non plastifiée / In the field of the engineering, knowing the load applied on the structure which allows to solve the direct problem of which the results are given the field of displacement and strain in a structure. It is possible to perform a dimensioning. However, sometimes this load must be identified a posteriori. Unfortunately, it is not always possible to measure this load. Thus, for example, we do not know a priori where it will be loaded, either it is not possible to place a sensor without damaging it or needs too much space. We then have to use indirect measures of displacement, strain, acceleration and then we are lead to solve the inverse problems which are generally an ill-posed. It is then necessary to add one (or more) conditions to obtain a unique and stable solution: it is the regularization of the problem. These techniques are well known and their development is due to the use of the singular value decomposition of the transfer matrix. However, they require the use of an additional parameter that weights this additional condition: the determination of this parameter is difficult. Few studies having been realized in way the usual regularization methods of (Tikhonov and truncation of the (G)SVD), in association with the various criteria for determining the regularization parameter and the various possible responses, we conducted a such work, to draw conclusions on the optimal methodology. It has been highlighted that the measurement of the acceleration associated with a criterion involving the derived signal to reconstruct generally gives the best results via the GCV criterion to determine the regularization parameter. These methods suppose that the location of the loading area is known. We also were interested to deduct this loading area while trying to reconstruct load that is identically zero. This identification was performed easily that has little load to identify compared to the number of measurements available. However such identification is difficult when there are no more measures than loads to identify. Finally we turned to the identification of loading with the plastic structure. We then tried to reconstruct the load assuming that the structure remains linear-elastic, while it was plasticized: we used the method of the double load and performed simulations using the software ls-dyna. The reconstructed load then shows a static component reflecting the residual strain in the structure. In this case, the response used to identify the load is a strain in a non-plasticized zone
2

Bruit de raie des ventilateurs axiaux : Estimation des sources aéroacoustiques par modèles inverse et Méthodes de contrôle

Gérard, Anthony 15 December 2006 (has links) (PDF)
Malgré les progrès accomplis dans la réduction du bruit des ventilateurs axiaux subsoniques, le bruit de raie basse fréquence, composante gênante du bruit, demeure difficile à contrôler. Aux basses fréquences, l'ajout de matériaux absorbants est inefficace et les silencieux encombrants et coûteux. Il faut alors faire appel à des "mesures curatives", comme le contrôle actif acoustique ou le contrôle actif à la source. Les contributions de ces travaux de doctorat sont : 1) l'estimation des sources aéroacoustiques du bruit de raie par modèle inverse, 2) une méthode de contrôle actif nécessitant un seul haut-parleur et 3) une méthode de contrôle passif adaptatif basée sur l'ajout d'obstructions dans l'écoulement. Les développements théoriques menés dans cette thèse sont valides pour les ventilateurs axiaux subsoniques et les expériences ont été réalisées sur un ventilateur de radiateur d'automobile.
3

Méthodes rapides de traitement d’images hyperspectrales. Application à la caractérisation en temps réel du matériau bois / Fast methods for hyperspectral images processing. Application to the real-time characterization of wood material

Nus, Ludivine 12 December 2019 (has links)
Cette thèse aborde le démélange en-ligne d’images hyperspectrales acquises par un imageur pushbroom, pour la caractérisation en temps réel du matériau bois. La première partie de cette thèse propose un modèle de mélange en-ligne fondé sur la factorisation en matrices non-négatives. À partir de ce modèle, trois algorithmes pour le démélange séquentiel en-ligne, fondés respectivement sur les règles de mise à jour multiplicatives, le gradient optimal de Nesterov et l’optimisation ADMM (Alternating Direction Method of Multipliers) sont développés. Ces algorithmes sont spécialement conçus pour réaliser le démélange en temps réel, au rythme d'acquisition de l'imageur pushbroom. Afin de régulariser le problème d’estimation (généralement mal posé), deux sortes de contraintes sur les endmembers sont utilisées : une contrainte de dispersion minimale ainsi qu’une contrainte de volume minimal. Une méthode pour l’estimation automatique du paramètre de régularisation est également proposée, en reformulant le problème de démélange hyperspectral en-ligne comme un problème d’optimisation bi-objectif. Dans la seconde partie de cette thèse, nous proposons une approche permettant de gérer la variation du nombre de sources, i.e. le rang de la décomposition, au cours du traitement. Les algorithmes en-ligne préalablement développés sont ainsi modifiés, en introduisant une étape d’apprentissage d’une bibliothèque hyperspectrale, ainsi que des pénalités de parcimonie permettant de sélectionner uniquement les sources actives. Enfin, la troisième partie de ces travaux consiste en l’application de nos approches à la détection et à la classification des singularités du matériau bois. / This PhD dissertation addresses the problem of on-line unmixing of hyperspectral images acquired by a pushbroom imaging system, for real-time characterization of wood. The first part of this work proposes an on-line mixing model based on non-negative matrix factorization. Based on this model, three algorithms for on-line sequential unmixing, using multiplicative update rules, the Nesterov optimal gradient and the ADMM optimization (Alternating Direction Method of Multipliers), respectively, are developed. These algorithms are specially designed to perform the unmixing in real time, at the pushbroom imager acquisition rate. In order to regularize the estimation problem (generally ill-posed), two types of constraints on the endmembers are used: a minimum dispersion constraint and a minimum volume constraint. A method for the unsupervised estimation of the regularization parameter is also proposed, by reformulating the on-line hyperspectral unmixing problem as a bi-objective optimization. In the second part of this manuscript, we propose an approach for handling the variation in the number of sources, i.e. the rank of the decomposition, during the processing. Thus, the previously developed on-line algorithms are modified, by introducing a hyperspectral library learning stage as well as sparse constraints allowing to select only the active sources. Finally, the third part of this work consists in the application of these approaches to the detection and the classification of the singularities of wood.
4

Représentation parcimonieuse et procédures de tests multiples : application à la métabolomique / Sparse representation and multiple testing procedures : application to metabolimics

Tardivel, Patrick 24 November 2017 (has links)
Considérons un vecteur gaussien Y de loi N (m,sigma²Idn) et X une matrice de dimension n x p avec Y observé, m inconnu, Sigma et X connus. Dans le cadre du modèle linéaire, m est supposé être une combinaison linéaire des colonnes de X. En petite dimension, lorsque n ≥ p et que ker (X) = 0, il existe alors un unique paramètre Beta* tel que m = X Beta* ; on peut alors réécrire Y sous la forme Y = X Beta* + Epsilon. Dans le cadre du modèle linéaire gaussien en petite dimension, nous construisons une nouvelle procédure de tests multiples contrôlant le FWER pour tester les hypothèses nulles Beta*i = 0 pour i appartient à [[1,p]]. Cette procédure est appliquée en métabolomique au travers du programme ASICS qui est disponible en ligne. ASICS permet d'identifier et de quantifier les métabolites via l'analyse des spectres RMN. En grande dimension, lorsque n < p on a ker (X) ≠ 0, ainsi le paramètre Beta* décrit précédemment n'est pas unique. Dans le cas non bruité lorsque Sigma = 0, impliquant que Y = m, nous montrons que les solutions du système linéaire d'équations Y = X Beta avant un nombre de composantes non nulles minimales s'obtiennent via la minimisation de la "norme" lAlpha avec Alpha suffisamment petit. / Let Y be a Gaussian vector distributed according to N (m,sigma²Idn) and X a matrix of dimension n x p with Y observed, m unknown, sigma and X known. In the linear model, m is assumed to be a linear combination of the columns of X In small dimension, when n ≥ p and ker (X) = 0, there exists a unique parameter Beta* such that m = X Beta*; then we can rewrite Y = Beta* + Epsilon. In the small-dimensional linear Gaussian model framework, we construct a new multiple testing procedure controlling the FWER to test the null hypotheses Beta*i = 0 for i belongs to [[1,p]]. This procedure is applied in metabolomics through the freeware ASICS available online. ASICS allows to identify and to qualify metabolites via the analyse of RMN spectra. In high dimension, when n < p we have ker (X) ≠ 0 consequently the parameter Beta* described above is no longer unique. In the noiseless case when Sigma = 0, implying thus Y = m, we show that the solutions of the linear system of equation Y = X Beta having a minimal number of non-zero components are obtained via the lalpha with alpha small enough.

Page generated in 0.1142 seconds