• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 18
  • 2
  • Tagged with
  • 40
  • 18
  • 9
  • 8
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Analyse / synthèse de champs de tenseurs de structure : application à la synthèse d’images et de volumes texturés / Analysis / synthesis of structure tensor fields : application to the synthesis of textured images and volumes

Akl, Adib 11 February 2016 (has links)
Cette thèse s’inscrit dans le contexte de la synthèse d’images texturées. Dans l’objectif d’assurer une reproduction fidèle des motifs et des variations d’orientations d’une texture initiale, un algorithme de synthèse de texture à deux étapes « structure/texture » est proposé. Il s’agit, dans une première étape, de réaliser la synthèse d’une couche de structure caractérisant la géométrie de l’exemplaire et représentée par un champ de tenseurs de structure et, dans une deuxième étape, d’utiliser le champ de structure résultant pour contraindre la synthèse d’une couche de texture portant des variations plus locales. Une réduction du temps d’exécution est ensuite développée, fondée notamment sur l’utilisation de pyramides Gaussiennes et la parallélisation des calculs mis en oeuvre.Afin de démontrer la capacité de l’algorithme proposé à reproduire fidèlement l’aspect visuel des images texturées considérées, la méthode est testée sur une variété d’échantillons de texture et évaluée objectivement à l’aide de statistiques du 1er et du 2nd ordre du champ d’intensité et d’orientation. Les résultats obtenus sont de qualité supérieure ou équivalente à ceux obtenus par des algorithmes de la littérature. Un atout majeur de l’approche proposée est son aptitude à synthétiser des textures avec succès dans de nombreuses situations où les algorithmes existants ne parviennent pas à reproduire les motifs à grande échelle.L’approche de synthèse structure/texture proposée est étendue à la synthèse de texture couleur. La synthèse de texture 3D est ensuite abordée et, finalement, une extension à la synthèse de texture de forme spécifiée par une texture imposée est mise en oeuvre, montrant la capacité de l’approche à générer des textures de formes arbitraires en préservant les caractéristiques de la texture initiale. / This work is a part of the texture synthesis context. Aiming to ensure a faithful reproduction of the patterns and variations of orientations of the input texture, a two-stage structure/texture synthesis algorithm is proposed. It consists of synthesizing the structure layer showing the geometry of the exemplar and represented by the structure tensor field in the first stage, and using the resulting tensor field to constrain the synthesis of the texture layer holding more local variations, in the second stage. An acceleration method based on the use of Gaussian pyramids and parallel computing is then developed.In order to demonstrate the ability of the proposed algorithm to faithfully reproduce the visual aspect of the considered textures, the method is tested on various texture samples and evaluated objectively using statistics of 1st and 2nd order of the intensity and orientation field. The obtained results are of better or equivalent quality than those obtained using the algorithms of the literature. A major advantage of the proposed approach is its capacity in successfully synthesizing textures in many situations where traditional algorithms fail to reproduce the large-scale patterns.The structure/texture synthesis approach is extended to color texture synthesis. 3D texture synthesis is then addressed and finally, an extension to the synthesis of specified form textures using an imposed texture is carried out, showing the capacity of the approach in generating textures of arbitrary forms while preserving the input texture characteristics.
22

Approches tensorielles pour les systèmes de communication MIMO avec relais / Tensor-based MIMO relaying communication systems

Ronchini Ximenes, Leandro 25 March 2015 (has links)
Dans les communications coopératives, deux ou plusieurs terminaux de transmissionsont combinés pour accroître la diversité et/ou la puissance des signaux arrivant à un récepteur. Récemment, l'analyse tensorielle s'est avérée une approche efficace pour l'estimation de canaux dans les systèmes coopératifs. Cependant, parmi les quelques travaux consacrés à cette tâche, l'utilisation de la décomposition tensorielle PARAFAC pour modéliser les signaux reçus ne permet pas l'estimation conjointe des symboles et des canaux de communication. Afin d'éviter l'utilisation de séquences de symboles pilotes, l'objectif de cette thèse est de fournir de nouvelles approches tensorielles, en termes de systèmes de transmission et de récepteurs semi-aveugles, pour des systèmes de communication MIMO avec relai mono-directionnels, à deux sauts. Deux systèmes de transmission sont proposés en utilisant un codage spatio-temporel du type Khatri-Rao et deux stratégies de traitement Amplify-and-Forward (AF) au relai. Pour ces systèmes, appelés PT2-AF et NP-AF, les signaux reçus au niveau de la destination satisfont respectivement des modèles tensoriels du type PARATUCK2 et nested PARAFAC. En exploitant les propriétés d'unicité de ces modèles tensoriels établies dans la thèse, plusieurs récepteurs semi-aveugles sont dérivés. Certains de ces récepteurs sont du type ALS, tandis que d'autres sont des solutions non itératives basées sur des factorisations de produits de Khatri-Rao. Des résultats de simulation sont présentés pour illustrer les performances des récepteurs proposés qui sont comparés à des estimateurs supervisés. / In cooperative communication systems, two or more transmitting terminals arecombined to increase the diversity and/or the power of the signals arriving at aparticular receiver. Recently, the so-called tensor analysis has been an efficient approach for channel estimation in systems with cooperative diversity. However, among the few works devoted to this task, the utilization of the PARAFAC tensor decomposition for modeling the received signals did not allow the development of techniques for joint symbol and channel estimation. Aiming to avoid the use of pilot-based sequences, the objective of this thesis is to provide new tensor-based strategies, including transmission systems and semi-blind receivers, for one-way two-hop relaying systems. Based on a Khatri-Rao space-time coding at the source and two different Amplify-and-Forward (AF) relaying strategies, two transmission systems are proposed. For these systems, named PT2-AF and NP-AF, the received signals at the destination node follow respectively a PARATUCK2 and a nested PARAFAC tensor model. Exploiting uniqueness properties of these tensor models which are established in the thesis, several semi-blind receivers are derived. Some of these receivers are of iterative form using an ALS algorithm, whereas some other ones are close-form solutions associated with Khatri-Rao factorizations. Some simulation results are finally presented to illustrate the performance of the proposed receivers which are compared to some state-of-the-art supervised techniques.
23

Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF / Improvement of cross section model in COCAGNE code of the calculation chain of EDF

Luu, Thi Hieu 17 February 2017 (has links)
Afin d'exploiter au mieux son parc nucléaire, la R&D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision. / In order to optimize the operation of its nuclear power plants, the EDF's R&D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy.
24

Approximations de rang faible et modèles d'ordre réduit appliqués à quelques problèmes de la mécanique des fluides / Low rank approximation techniques and reduced order modeling applied to some fluid dynamics problems

Lestandi, Lucas 16 October 2018 (has links)
Les dernières décennies ont donné lieux à d'énormes progrès dans la simulation numérique des phénomènes physiques. D'une part grâce au raffinement des méthodes de discrétisation des équations aux dérivées partielles. Et d'autre part grâce à l'explosion de la puissance de calcul disponible. Pourtant, de nombreux problèmes soulevés en ingénierie tels que les simulations multi-physiques, les problèmes d'optimisation et de contrôle restent souvent hors de portée. Le dénominateur commun de ces problèmes est le fléau des dimensions. Un simple problème tridimensionnel requiert des centaines de millions de points de discrétisation auxquels il faut souvent ajouter des milliers de pas de temps pour capturer des dynamiques complexes. L'avènement des supercalculateurs permet de générer des simulations de plus en plus fines au prix de données gigantesques qui sont régulièrement de l'ordre du pétaoctet. Malgré tout, cela n'autorise pas une résolution ``exacte'' des problèmes requérant l'utilisation de plusieurs paramètres. L'une des voies envisagées pour résoudre ces difficultés est de proposer des représentations ne souffrant plus du fléau de la dimension. Ces représentations que l'on appelle séparées sont en fait un changement de paradigme. Elles vont convertir des objets tensoriels dont la croissance est exponentielle $n^d$ en fonction du nombre de dimensions $d$ en une représentation approchée dont la taille est linéaire en $d$. Pour le traitement des données tensorielles, une vaste littérature a émergé ces dernières années dans le domaine des mathématiques appliquées.Afin de faciliter leurs utilisations dans la communauté des mécaniciens et en particulier pour la simulation en mécanique des fluides, ce manuscrit présente dans un vocabulaire rigoureux mais accessible les formats de représentation des tenseurs et propose une étude détaillée des algorithmes de décomposition de données qui y sont associées. L'accent est porté sur l'utilisation de ces méthodes, aussi la bibliothèque de calcul texttt{pydecomp} développée est utilisée pour comparer l'efficacité de ces méthodes sur un ensemble de cas qui se veut représentatif. La seconde partie de ce manuscrit met en avant l'étude de l'écoulement dans une cavité entraînée à haut nombre de Reynolds. Cet écoulement propose une physique très riche (séquence de bifurcation de Hopf) qui doit être étudiée en amont de la construction de modèle réduit. Cette étude est enrichie par l'utilisation de la décomposition orthogonale aux valeurs propres (POD). Enfin une approche de construction ``physique'', qui diffère notablement des développements récents pour les modèles d'ordre réduit, est proposée. La connaissance détaillée de l'écoulement permet de construire un modèle réduit simple basé sur la mise à l'échelle des fréquences d'oscillation (time-scaling) et des techniques d'interpolation classiques (Lagrange,..). / Numerical simulation has experienced tremendous improvements in the last decadesdriven by massive growth of computing power. Exascale computing has beenachieved this year and will allow solving ever more complex problems. But suchlarge systems produce colossal amounts of data which leads to its own difficulties.Moreover, many engineering problems such as multiphysics or optimisation andcontrol, require far more power that any computer architecture could achievewithin the current scientific computing paradigm. In this thesis, we proposeto shift the paradigm in order to break the curse of dimensionality byintroducing decomposition and building reduced order models (ROM) for complexfluid flows.This manuscript is organized into two parts. The first one proposes an extendedreview of data reduction techniques and intends to bridge between appliedmathematics community and the computational mechanics one. Thus, foundingbivariate separation is studied, including discussions on the equivalence ofproper orthogonal decomposition (POD, continuous framework) and singular valuedecomposition (SVD, discrete matrices). Then a wide review of tensor formats andtheir approximation is proposed. Such work has already been provided in theliterature but either on separate papers or into a purely applied mathematicsframework. Here, we offer to the data enthusiast scientist a comparison ofCanonical, Tucker, Hierarchical and Tensor train formats including theirapproximation algorithms. Their relative benefits are studied both theoreticallyand numerically thanks to the python library texttt{pydecomp} that wasdeveloped during this thesis. A careful analysis of the link between continuousand discrete methods is performed. Finally, we conclude that for mostapplications ST-HOSVD is best when the number of dimensions $d$ lower than fourand TT-SVD (or their POD equivalent) when $d$ grows larger.The second part is centered on a complex fluid dynamics flow, in particular thesingular lid driven cavity at high Reynolds number. This flow exhibits a seriesof Hopf bifurcation which are known to be hard to capture accurately which iswhy a detailed analysis was performed both with classical tools and POD. Oncethis flow has been characterized, emph{time-scaling}, a new ``physics based''interpolation ROM is presented on internal and external flows. This methodsgives encouraging results while excluding recent advanced developments in thearea such as EIM or Grassmann manifold interpolation.
25

Estimation de modèles tensoriels structurés et récupération de tenseurs de rang faible / Estimation of structured tensor models and recovery of low-rank tensors

Goulart, José Henrique De Morais 15 December 2016 (has links)
Dans la première partie de cette thèse, on formule deux méthodes pour le calcul d'une décomposition polyadique canonique avec facteurs matriciels linéairement structurés (tels que des facteurs de Toeplitz ou en bande): un algorithme de moindres carrés alternés contraint (CALS) et une solution algébrique dans le cas où tous les facteurs sont circulants. Des versions exacte et approchée de la première méthode sont étudiées. La deuxième méthode fait appel à la transformée de Fourier multidimensionnelle du tenseur considéré, ce qui conduit à la résolution d'un système d'équations monomiales homogènes. Nos simulations montrent que la combinaison de ces approches fournit un estimateur statistiquement efficace, ce qui reste vrai pour d'autres combinaisons de CALS dans des scénarios impliquant des facteurs non-circulants. La seconde partie de la thèse porte sur la récupération de tenseurs de rang faible et, en particulier, sur le problème de reconstruction tensorielle (TC). On propose un algorithme efficace, noté SeMPIHT, qui emploie des projections séquentiellement optimales par mode comme opérateur de seuillage dur. Une borne de performance est dérivée sous des conditions d'isométrie restreinte habituelles, ce qui fournit des bornes d'échantillonnage sous-optimales. Cependant, nos simulations suggèrent que SeMPIHT obéit à des bornes optimales pour des mesures Gaussiennes. Des heuristiques de sélection du pas et d'augmentation graduelle du rang sont aussi élaborées dans le but d'améliorer sa performance. On propose aussi un schéma d'imputation pour TC basé sur un seuillage doux du coeur du modèle de Tucker et son utilité est illustrée avec des données réelles de trafic routier / In the first part of this thesis, we formulate two methods for computing a canonical polyadic decomposition having linearly structured matrix factors (such as, e.g., Toeplitz or banded factors): a general constrained alternating least squares (CALS) algorithm and an algebraic solution for the case where all factors are circulant. Exact and approximate versions of the former method are studied. The latter method relies on a multidimensional discrete-time Fourier transform of the target tensor, which leads to a system of homogeneous monomial equations whose resolution provides the desired circulant factors. Our simulations show that combining these approaches yields a statistically efficient estimator, which is also true for other combinations of CALS in scenarios involving non-circulant factors. The second part of the thesis concerns low-rank tensor recovery (LRTR) and, in particular, the tensor completion (TC) problem. We propose an efficient algorithm, called SeMPIHT, employing sequentially optimal modal projections as its hard thresholding operator. Then, a performance bound is derived under usual restricted isometry conditions, which however yield suboptimal sampling bounds. Yet, our simulations suggest SeMPIHT obeys optimal sampling bounds for Gaussian measurements. Step size selection and gradual rank increase heuristics are also elaborated in order to improve performance. We also devise an imputation scheme for TC based on soft thresholding of a Tucker model core and illustrate its utility in completing real-world road traffic data acquired by an intelligent transportation
26

Identification aveugle de mélanges et décomposition canonique de tenseurs : application à l'analyse de l'eau / Blind identification of mixtures and canonical tensor decomposition : application to wateranalysis

Royer, Jean-Philip 04 October 2013 (has links)
Dans cette thèse, nous nous focalisons sur le problème de la décomposition polyadique minimale de tenseurs de dimension trois, problème auquel on se réfère généralement sous différentes terminologies : « Polyadique Canonique » (CP en anglais), « CanDecomp », ou encore « Parafac ». Cette décomposition s'avère très utile dans un très large panel d'applications. Cependant, nous nous concentrons ici sur la spectroscopie de fluorescence appliquée à des données environnementales particulières de type échantillons d'eau qui pourront avoir été collectés en divers endroits ou différents moments. Ils contiennent un mélange de plusieurs molécules organiques et l'objectif des traitements numériques mis en œuvre est de parvenir à séparer et à ré-estimer ces composés présents dans les échantillons étudiés. Par ailleurs, dans plusieurs applications comme l'imagerie hyperspectrale ou justement, la chimiométrie, il est intéressant de contraindre les matrices de facteurs recherchées à être réelles et non négatives car elles sont représentatives de quantités physiques réelles non négatives (spectres, fractions d'abondance, concentrations, ...etc.). C'est pourquoi tous les algorithmes développés durant cette thèse l'ont été dans ce cadre (l'avantage majeur de cette contrainte étant de rendre le problème d'approximation considéré bien posé). Certains de ces algorithmes reposent sur l'utilisation de méthodes proches des fonctions barrières, d'autres approches consistent à paramétrer directement les matrices de facteurs recherchées par des carrés. / In this manuscript, we focus on the minimal polyadic decomposition of third order tensors, which is often referred to: “Canonical Polyadic” (CP), “CanDecomp”, or “Parafac”. This decomposition is useful in a very wide panel of applications. However, here, we only address the problem of fluorescence spectroscopy applied to environment data collected in different locations or times. They contain a mixing of several organic components and the goal of the used processing is to separate and estimate these components present in the considered samples. Moreover, in some applications like hyperspectral unmixing or chemometrics, it is useful to constrain the wanted loading matrices to be real and nonnegative, because they represent nonnegative physical data (spectra, abundance fractions, concentrations, etc...). That is the reason why all the algorithms developed here take into account this constraint (the main advantage is to turn the approximation problem into a well-posed one). Some of them rely on methods close to barrier functions, others consist in a parameterization of the loading matrices with the help of squares. Many optimization algorithms were considered: gradient approaches, nonlinear conjugate gradient, that fits well with big dimension problems, Quasi-Newton (BGFS and DFP) and finally Levenberg-Marquardt. Two versions of these algorithms have been considered: “Enhanced Line Search” version (ELS, enabling to escape from local minima) and the “backtracking” version (alternating with ELS).
27

Algorithmes pour la diagonalisation conjointe de tenseurs sans contrainte unitaire. Application à la séparation MIMO de sources de télécommunications numériques / Algorithms for non-unitary joint diagonalization of tensors. Application to MIMO source separation in digital telecommunications

Maurandi, Victor 30 November 2015 (has links)
Cette thèse développe des méthodes de diagonalisation conjointe de matrices et de tenseurs d’ordre trois, et son application à la séparation MIMO de sources de télécommunications numériques. Après un état, les motivations et objectifs de la thèse sont présentés. Les problèmes de la diagonalisation conjointe et de la séparation de sources sont définis et un lien entre ces deux domaines est établi. Par la suite, plusieurs algorithmes itératifs de type Jacobi reposant sur une paramétrisation LU sont développés. Pour chacun des algorithmes, on propose de déterminer les matrices permettant de diagonaliser l’ensemble considéré par l’optimisation d’un critère inverse. On envisage la minimisation du critère selon deux approches : la première, de manière directe, et la seconde, en supposant que les éléments de l’ensemble considéré sont quasiment diagonaux. En ce qui concerne l’estimation des différents paramètres du problème, deux stratégies sont mises en œuvre : l’une consistant à estimer tous les paramètres indépendamment et l’autre reposant sur l’estimation indépendante de couples de paramètres spécifiquement choisis. Ainsi, nous proposons trois algorithmes pour la diagonalisation conjointe de matrices complexes symétriques ou hermitiennes et deux algorithmes pour la diagonalisation conjointe d’ensembles de tenseurs symétriques ou non-symétriques ou admettant une décomposition INDSCAL. Nous montrons aussi le lien existant entre la diagonalisation conjointe de tenseurs d’ordre trois et la décomposition canonique polyadique d’un tenseur d’ordre quatre, puis nous comparons les algorithmes développés à différentes méthodes de la littérature. Le bon comportement des algorithmes proposés est illustré au moyen de simulations numériques. Puis, ils sont validés dans le cadre de la séparation de sources de télécommunications numériques. / This thesis develops joint diagonalization of matrices and third-order tensors methods for MIMO source separation in the field of digital telecommunications. After a state of the art, the motivations and the objectives are presented. Then the joint diagonalisation and the blind source separation issues are defined and a link between both fields is established. Thereafter, five Jacobi-like iterative algorithms based on an LU parameterization are developed. For each of them, we propose to derive the diagonalization matrix by optimizing an inverse criterion. Two ways are investigated : minimizing the criterion in a direct way or assuming that the elements from the considered set are almost diagonal. Regarding the parameters derivation, two strategies are implemented : one consists in estimating each parameter independently, the other consists in the independent derivation of couple of well-chosen parameters. Hence, we propose three algorithms for the joint diagonalization of symmetric complex matrices or hermitian ones. The first one relies on searching for the roots of the criterion derivative, the second one relies on a minor eigenvector research and the last one relies on a gradient descent method enhanced by computation of the optimal adaptation step. In the framework of joint diagonalization of symmetric, INDSCAL or non symmetric third-order tensors, we have developed two algorithms. For each of them, the parameters derivation is done by computing the roots of the considered criterion derivative. We also show the link between the joint diagonalization of a third-order tensor set and the canonical polyadic decomposition of a fourth-order tensor. We confront both methods through numerical simulations. The good behavior of the proposed algorithms is illustrated by means of computing simulations. Finally, they are applied to the source separation of digital telecommunication signals.
28

Contributions aux méthodes de calcul basées sur l'approximation de tenseurs et applications en mécanique numérique

Giraldi, Loïc 27 November 2012 (has links) (PDF)
Cette thèse apporte différentes contributions à la résolution de problèmes de grande dimension dans le domaine du calcul scientifique, en particulier pour la quantification d'incertitudes. On considère ici des problèmes variationnels formulés dans des espaces produit tensoriel. On propose tout d'abord une stratégie de préconditionnement efficace pour la résolution de systèmes linéaires par des méthodes itératives utilisant des approximations de tenseurs de faible rang. Le préconditionneur est recherché comme une approximation de faible rang de l'inverse. Un algorithme glouton permet le calcul de cette approximation en imposant éventuellement des propriétés de symétrie ou un caractère creux. Ce préconditionneur est validé sur des problèmes linéaires symétriques ou non symétriques. Des contributions sont également apportées dans le cadre des méthodes d'approximation directes de tenseurs qui consistent à rechercher la meilleure approximation de la solution d'une équation dans un ensemble de tenseurs de faibles rangs. Ces méthodes, parfois appelées "Proper Generalized Decomposition" (PGD), définissent l'optimalité au sens de normes adaptées permettant le calcul a priori de cette approximation. On propose en particulier une extension des algorithmes gloutons classiquement utilisés pour la construction d'approximations dans les ensembles de tenseurs de Tucker ou hiérarchiques de Tucker. Ceci passe par la construction de corrections successives de rang un et de stratégies de mise à jour dans ces ensembles de tenseurs. L'algorithme proposé peut être interprété comme une méthode de construction d'une suite croissante d'espaces réduits dans lesquels on recherche une projection, éventuellement approchée, de la solution. L'application à des problèmes symétriques et non symétriques montre l'efficacité de cet algorithme. Le préconditionneur proposé est appliqué également dans ce contexte et permet de définir une meilleure norme pour l'approximation de la solution. On propose finalement une application de ces méthodes dans le cadre de l'homogénéisation numérique de matériaux hétérogènes dont la géométrie est extraite d'images. On présente tout d'abord des traitements particuliers de la géométrie ainsi que des conditions aux limites pour mettre le problème sous une forme adaptée à l'utilisation des méthodes d'approximation de tenseurs. Une démarche d'approximation adaptative basée sur un estimateur d'erreur a posteriori est utilisée afin de garantir une précision donnée sur les quantités d'intérêt que sont les propriétés effectives. La méthodologie est en premier lieu développée pour l'estimation de propriétés thermiques du matériau, puis est étendue à l'élasticité linéaire.
29

MODELISATION DE L'ECOULEMENT DE LA GLACE POLAIRE ANISOTROPE ET PREMIERES APPLICATIONS AU FORAGE DE DOME C

Gillet-Chaulet, Fabien 01 December 2006 (has links) (PDF)
Le cristal de glace est l'un des matériaux naturels les plus anisotropes. L'analyse des glaces polaires indique que les cristaux s'orientent selon des directions privilégiées et que la fabrique (distribution des orientations cristallines des grains) du polycristal de glace est le résultat de l'histoire des déformations que ce polycristal a subi. Le comportement macroscopique du polycristal dépend de la fabrique et peut être lui aussi fortement anisotrope. Il a été montré que cette anisotropie est propice à créer des perturbations de la stratigraphie et qu'elle influence fortement l'écoulement de la calotte.<br /> L'objectif de cette étude est de construire un modèle d'écoulement pour la glace polaire anisotrope et l'évolution de sa fabrique.<br /> Dans ce but, nous modélisons le monocristal de glace comme un matériau continu orthotrope de révolution autour de son axe c et nous le comparons à un modèle de grain à plans de glissement. La fabrique est décrite de manière continue par le tenseur d'orientation d'ordre 2 et une fonction de fermeture pour le tenseur d'orientation d'ordre 4. Par homogénéisation, en supposant des contraintes ou des vitesses de déformation uniformes, nous obtenons des solutions analytiques pour le comportement du polycristal de glace et l'évolution de sa fabrique. A partir de ces solutions, nous adoptons une loi de comportement orthotrope linéaire pour le polycristal et une équation d'évolution pour le tenseur d'orientation du second ordre. Ces équations permettent de bien reproduire les résultats du modèle auto-cohérent utilisant une description discrète de la fabrique, avec un gain important au niveau du temps de calcul et du nombre de variables nécessaires pour décrire la fabrique.<br /> Ces équations sont implantées ensuite dans un code aux éléments finis utilisé pour simuler l'écoulement d'une calotte polaire présentant une anisotropie induite évolutive. Par des tests synthétiques, nous montrons l'influence de l'anisotropie sur l'écoulement de la calotte. Enfin, nous présentons une analyse des données de fabrique du forage de Dôme C à la lumière de notre modèle.
30

Traitement de données dans les groupes de Lie : une approche algébrique. Application au recalage non-linéaire et à l'imagerie du tenseur de diffusion

Arsigny, Vincent 29 November 2006 (has links) (PDF)
Ces dernières années, le besoin de cadres rigoureux pour traiter des données non-linéaires s'est développé considérablement en imagerie médicale. Ici, nous avons proposé plusieurs cadres généraux pour traiter certains de ces types de données, qui appartiennent à des groupes de Lie. Pour ce faire, nous nous sommes appuyés sur les propriétés algébriques de ces espaces. Ainsi, nous avons présenté un cadre de traitement général pour les matrices symétriques définies positives, appelé log-euclidien, très simple à utiliser et avec d'excellentes propriétés théoriques ; il est particulièrement adapté au traitement des images de tenseurs de diffusion. Nous avons également proposé des cadres, dits polyaffines, pour paramétrer les transformations localement rigides ou affines, en garantissant leur inversibilité avec d'excellentes propriétés théoriques. Leur utilisation est illustrée avec succès dans le cas du recalage localement rigide de coupes histologiques et du recalage 3D localement affine d'IRMs du cerveau humain. Ce travail nous a menés à proposer deux cadres généraux nouveaux pour le calcul de statistiques dans les groupes de Lie en dimension finie : d'abord le cadre log-euclidien, qui généralise notre travail sur les tenseurs, et un cadre basé sur la notion nouvelle de moyenne bi-invariante, dont les propriétés généralisent celles de la moyenne arithmétique des espaces euclidiens. Enfin, nous avons généralisé notre cadre log-euclidien aux déformations géométriques difféomorphes afin de permettre un calclul simple des statistiques sur ces transformations, ce qui ouvre la voie à un cadre général et cohérent pour les statistiques en anatomie computationnelle.

Page generated in 0.0462 seconds