51 |
Algorithmes de diagonalisation conjointe par similitude pour la décomposition canonique polyadique de tenseurs : applications en séparation de sources / Joint diagonalization by similarity algorithms for the canonical polyadic decomposition of tensors : Applications in blind source separationAndré, Rémi 07 September 2018 (has links)
Cette thèse présente de nouveaux algorithmes de diagonalisation conjointe par similitude. Cesalgorithmes permettent, entre autres, de résoudre le problème de décomposition canonique polyadiquede tenseurs. Cette décomposition est particulièrement utilisée dans les problèmes deséparation de sources. L’utilisation de la diagonalisation conjointe par similitude permet de paliercertains problèmes dont les autres types de méthode de décomposition canonique polyadiquesouffrent, tels que le taux de convergence, la sensibilité à la surestimation du nombre de facteurset la sensibilité aux facteurs corrélés. Les algorithmes de diagonalisation conjointe par similitudetraitant des données complexes donnent soit de bons résultats lorsque le niveau de bruit est faible,soit sont plus robustes au bruit mais ont un coût calcul élevé. Nous proposons donc en premierlieu des algorithmes de diagonalisation conjointe par similitude traitant les données réelles etcomplexes de la même manière. Par ailleurs, dans plusieurs applications, les matrices facteursde la décomposition canonique polyadique contiennent des éléments exclusivement non-négatifs.Prendre en compte cette contrainte de non-négativité permet de rendre les algorithmes de décompositioncanonique polyadique plus robustes à la surestimation du nombre de facteurs ou lorsqueces derniers ont un haut degré de corrélation. Nous proposons donc aussi des algorithmes dediagonalisation conjointe par similitude exploitant cette contrainte. Les simulations numériquesproposées montrent que le premier type d’algorithmes développés améliore l’estimation des paramètresinconnus et diminue le coût de calcul. Les simulations numériques montrent aussi queles algorithmes avec contrainte de non-négativité améliorent l’estimation des matrices facteurslorsque leurs colonnes ont un haut degré de corrélation. Enfin, nos résultats sont validés à traversdeux applications de séparation de sources en télécommunications numériques et en spectroscopiede fluorescence. / This thesis introduces new joint eigenvalue decomposition algorithms. These algorithms allowamongst others to solve the canonical polyadic decomposition problem. This decomposition iswidely used for blind source separation. Using the joint eigenvalue decomposition to solve thecanonical polyadic decomposition problem allows to avoid some problems whose the others canonicalpolyadic decomposition algorithms generally suffer, such as the convergence rate, theoverfactoring sensibility and the correlated factors sensibility. The joint eigenvalue decompositionalgorithms dealing with complex data give either good results when the noise power is low, orthey are robust to the noise power but have a high numerical cost. Therefore, we first proposealgorithms equally dealing with real and complex. Moreover, in some applications, factor matricesof the canonical polyadic decomposition contain only nonnegative values. Taking this constraintinto account makes the algorithms more robust to the overfactoring and to the correlated factors.Therefore, we also offer joint eigenvalue decomposition algorithms taking advantage of thisnonnegativity constraint. Suggested numerical simulations show that the first developed algorithmsimprove the estimation accuracy and reduce the numerical cost in the case of complexdata. Our numerical simulations also highlight the fact that our nonnegative joint eigenvaluedecomposition algorithms improve the factor matrices estimation when their columns have ahigh correlation degree. Eventually, we successfully applied our algorithms to two blind sourceseparation problems : one concerning numerical telecommunications and the other concerningfluorescence spectroscopy.
|
52 |
Conception d'une structure de données dans les environnements de bases de donnéesLeonard, Michel 09 May 1988 (has links) (PDF)
Étude de bases de données ayant des structures complexes avec l'objectif de rendre plus efficace le processus de leur conception et de leur réalisation, de les faire évoluer et d'améliorer leur compréhension autant par leur utilisateurs que par leurs responsables
|
53 |
Inclusion d'algèbres de Hecke et nombres de décompositionRassemusse Genet, Gwenaelle 16 June 2004 (has links) (PDF)
Cette thèse comporte trois parties. Dans la première, nous nous intéressons à la formule du commutateur d'un groupe admettant une BN-paire scindée. Nous montrons que sous une condition dite "condition de Lévi faible", le groupe vérifie cette formule. Dans la seconde partie, nous étudions la conservation de la forme unitriangulaire lors du passage d'une matrice de décomposition d'un module sur une algèbre graduée à la matrice de décomposition de la restriction de ce module sur l'algèbre effectuant la graduation et vice-versa. Nous verrons des applications pour des algèbres cellulaires pourvues également d'autres propriétés, notamment des algèbres de Ariki-Koike. Nous terminons par une partie traitant de la conjecture de J. Gruber et G. Hiss pour les nombres de décomposition des algèbres de Hecke de type B et D. Nous généralisons et prouvons cette conjecture dans le cas des algèbres de groupes de réflexions complexes. Puis nous observons quels sont les problèmes de la généralisation des méthodes utilisées lors du passage des algèbres de groupes aux algèbres de Hecke (de type B et D). Enfin, nous donnons une condition naturelle sur des filtrations de modules de Specht, sous-laquelle la conjecture est satisfaite.
|
54 |
Couplage Planification et Ordonnancement: Approche hiérarchique et décompositionGuyon, Olivier 19 May 2010 (has links) (PDF)
Cette thèse -spécialisée en Recherche Opérationnelle- traite de l'intégration, dans le processus décisionnel industriel, de deux facteurs-clés: la planification des ressources humaines et l'ordonnancement de la production. Un premier cas de ce genre de problématiques est tout d'abord étudié. Deux bornes inférieures obtenues par relaxation lagrangienne et deux méthodes de résolution exacte par décomposition et génération de coupes sont présentées. Si la première approche relève d'une technique connue de la littérature (décomposition de Benders), la seconde se veut plus spécifique. Une technique de génération de coupes énergétiques valides, applicable en préprocess de toute méthode de résolution, est également proposée. La seconde partie traite d'un autre cas particulier, déjà évoqué dans la littérature, de la problématique générale. Ces travaux prolongent ceux effectués lors de la première étude dans le sens où le problème traité est intrinsèquement plus complexe et le but avoué est d'expérimenter les techniques de décomposition et génération de coupes, a priori efficaces, sur une autre problématique. Une technique de génération d'inégalités valides, applicable elle aussi en préprocess de toute méthode de résolution, est tout d'abord mise en place. Deux méthodes de résolution exacte sont ensuite développées. La première est analogue à la technique spécifique de décomposition décrite auparavant. La seconde, plus novatrice, exploite la décomposition intuitive de la problématique et la génération de coupes dédiées dans un cadre où les solutions à valider sont construites via une approche arborescente de type Procédure de Séparation et Evaluation Séquentielle.
|
55 |
Géométrie des variétés de Deligne-Lusztig, décompositions, cohomologie modulo \ell et représentations modulairesDudas, Olivier 09 June 2010 (has links) (PDF)
Cette thèse porte sur la construction et l'étude des représentations modulaires des groupes réductifs finis. Comme dans le cas ordinaire, l'accent est mis sur les constructions de nature géométrique, obtenues à partir de la cohomologie des variétés de Deligne-Lusztig. On commence par introduire des méthodes de décomposition du type Deodhar, permettant de déterminer en toute généralité la présence d'une classe particulière de représentations, les modules de Gelfand-Graev, ainsi que certaines de leurs versions généralisées. Des résultats plus précis sont ensuite démontrés pour des variétés associées à certains éléments réguliers de petite longueur. Le cas des éléments de Coxeter tient une place importante dans ce mémoire : pour ces éléments, on détermine un représentant explicite du complexe de cohomologie, aboutissant à une preuve de la version géométrique de la conjecture de Broué pour certains nombres premiers. On en déduit aussi la forme de l'arbre de Brauer du bloc principal dans ce cas, ce qui résout une conjecture de Hiss, Lübeck et Malle. Ces deux résultats sont conditionnés par une hypothèse assurant l'absence de torsion dans la cohomologie, dont on montre qu'elle est satisfaite pour de nombreux groupes classiques et exceptionnels.
|
56 |
Analyse de Sensibilité pour les modèles dynamiques utilisés en agronomie et environnement.Matieyendou, Matieyendou 21 December 2009 (has links) (PDF)
Des modèles dynamiques sont souvent utilisés pour simuler l'impact des pratiques agricoles et parfois pour tester des règles de décision. Ces modèles incluent de nombreux paramètres incertains et il est parfois difficile voire impossible de tous les estimer. Une pratique courante dans la littérature consiste à sélectionner les paramètres clés à l'aide d'indices de sensibilité calculés par simulation et de n'estimer que les paramètres les plus influents. Bien que cette démarche soit intuitive, son intérêt réel et ses conséquences sur la qualité prédictive des modèles ne sont pas connus. Nos travaux de recherches ont pour ambition d'évaluer cette pratique des modélisateurs en établissant une relation entre les indices de sensibilité des paramètres d'un modèle et des critères d'évaluation de modèles tels que le MSEP (Mean Square Error of Prediction) et le MSE (Mean Square Error), souvent utilisés en agronomie. L'établissement d'une telle relation nécessite le développement d'une méthode d'AS qui fournit un unique indice par facteur qui prend en compte les corrélations entre les différentes sorties du modèle obtenues à différentes dates. Nous proposons un nouvel indice de sensibilité global qui permet de synthétiser les effets des facteurs incertains sur l'ensemble des dynamiques simulées à l'aide de modèle. Plusieurs méthodes sont présentées dans ce mémoire pour calculer ces nouveaux indices. Les performances de ces méthodes sont évaluées pour deux modèles agronomiques dynamiques: Azodyn et WWDM. Nous établissons également dans ce mémoire, une relation formelle entre le MSE, le MSEP et les indices de sensibilité dans le cas d'un modèle linéaire et une relation empirique entre le MSEP et les indices dans le cas du modèle dynamique non linéaire CERES-EGC. Ces relations montrent que la sélection de paramètres à l'aide d'indices de sensibilité n'améliore les performances des modèles que sous certaines conditions.
|
57 |
Deux aspects de la géométrie birationnelle des variétés algébriques : la formule du fibré canonique et la décomposition de Zariski / Two aspects of birational geometry of algebraic varieties : The canonical bundle formula and the Zariski decompositionFloris, Enrica 25 September 2013 (has links)
La formule du fibré canonique et la décomposition de Fujita-Zariski sont deux outils très importants en géométrie birationnelle. La formule du fibré canonique pour une fibration f:(X,B)→ Z consiste à écrire K_X+Bcomme le tiré en arrière de K_Z+B_Z+M_Z o* K_Z est le diviseur canonique, B_Z contient des informations sur les fibres singulières et M_Z est appelé partie modulaire. Il a été conjecturé qu’il existe une modification birationnelle Z' de Z telle que M_Z' est semi ample sur Z' , o* M_Z' est la partie modulaire induite par le changement de base. Un diviseur pseudo effectif D admet une décomposition de Fujita-Zariski s’il existent un diviseur nef P et un diviseur effectif N tels que D=P+N et P est "le plus grand diviseur nef" avec la propriété que D−P est effectif. / The canonical bundle formula and the Fujita-Zariski decomposition are two very important tools in birational geometry. The canonical bundle formula for a fibration f:(X, B)→Z consists in writing K_X+B as the pul lback of K_Z+B_Z+M_Z where K_Z is the canonical divisor, B_Z contains informations on the singular fibres andM_Z is called moduli part. It was conjectured that there exists a birational modification Z' of Z such that M_Z'is semi ample on Z', where M_Z' is the moduli part induced by the base change. A pseudo effective divisor Dadmits a Fujita-Zariski decomposition if there exist a nef divisor P and an effective divisor N such that D=P+N and P is "the biggest nef divisor" such that D−P is effectve.
|
58 |
Décomposition modale empirique et décomposition spectrale intrinsèque : applications en traitement du signal et de l’image / Empirical mode decomposition and spectral intrinsic decomposition : applications in signal and image processingThioune, Abdoulaye 19 November 2015 (has links)
Dans cette thèse, il est question d'une étude sur les méthodes d'analyse temps fréquence, temps échelle et plus particulièrement sur la décomposition modale empirique en faisant d'abord un parcours sur les méthodes traditionnelles, de l'analyse de Fourier à la transformée en ondelettes, notamment la représentation multi-résolution. Le besoin d'une précision sur les mesures aussi bien dans l'espace temporel que dans l'espace fréquentiel a toujours été une préoccupation majeure. En fait, la transformation de Fourier ne permet pas de concilier la description fréquentielle et la localisation dans le temps. La transformée de Fourier à court terme (TFCT) et ses dérivées - notamment le spectrogramme - ont depuis longtemps été les méthodes temps-fréquence les plus utilisées dans les applications pratiques. Il faut cependant reconnaître que malgré ses nombreux aspects séduisants, ces techniques sont naturellement limitées par le fait qu'elles se sont montrées inefficaces pour l'analyse de signaux non-stationnaires. La transformée en ondelettes a connu un grand succès ces dernières décennies avec le nombre important de ses applications en traitement du signal et de l'image. Malgré son efficacité dans la représentation et la manipulation des signaux, même non-stationnaires, une connaissance a priori sur le signal à décomposer est nécessaire pour un choix d'ondelette adéquat à chaque type de signal. La décomposition modale empirique - EMD pour Empirical Mode Decomposition - est une méthode de décomposition de signaux non-stationnaires ou issus de systèmes non linéaires, en une somme de modes, chaque mode étant localisé en fréquence. Cette décomposition est associée à une transformation de Hilbert-Huang (HHT) dans le but d'extraire localement une fréquence instantanée et une amplitude instantanée. Elle s'apparente à la décomposition en ondelettes avec l'avantage supplémentaire que constitue son auto-adaptabilité. Dans la suite de ces travaux, nous avons introduit une nouvelle méthode de décomposition basée sur une décomposition spectrale d'un opérateur d'interpolation basé sur les équations aux dérivées partielles. La nouvelle méthode appelée Décomposition Spectrale Intrinsèque, - SID, pour Spectrale Intrinsic Decomposition - est auto-adaptative et est plus générale que le principe de base de la Décomposition Modale Empirique. La méthode SID permet de produire un dictionnaire de Fonction Mode Spectrale Propre, en - anglais Spectral Proper Mode Function (SPMF) - qui sont semblables à des atomes dans les représentations parcimonieuses / In this thesis, it is about a study on the time-frequency, time-scale analysis methods and more particularly on Empirical Mode Decomposition (EMD), by first a course on traditional methods from Fourier analysis to wavelets, including the multiresolution representation. The need for precision measurements both in time space and in frequency space has always been a major preoccupation. In fact, the Fourier transformation does not reconcile the frequency description and location in time. The Short-Term Fourier Transform (STFT) and its derivatives - including the spectrogram - have long been the most used in practical applications. It must be recognized that despite its many attractive aspects, these technics are naturally limited by the fact that they were ineffective for non-stationary signals analysis. The wavelet transform has been very successful in recent decades with the large number of its applications in signal and image processing. Despite its effectiveness in the representation and manipulation of signals, even non-stationary, a priori knowledge about the signal to be decomposed is necessary for an appropriate wavelet choice for each type of signal. The empirical mode decomposition (EMD) is a decomposition method of non-stationary or from non-linear systems signals, in an amount of modes, each mode being localized in frequency. This decomposition is associated with a Hilbert-Huang transformation (HHT) to locally extract instantaneous amplitude and instantaneous frequency. It is similar to the wavelet decomposition with the added benefit that constitutes its auto-adaptability. In the remainder of this work, we introduced a new decomposition method based on a spectral decomposition of an interpolation intrinsic operator. The new method called Spectral Decomposition Intrinsic (SID) is auto-adaptive and is more general than the basic principle of Empirical Mode Decomposition. The SID method can produce a dictionary of Spectral Proper Mode Functions (SPMF) that are similar to atoms in sparse representations
|
59 |
Etude par sonde atomique tomographique de la décomposition spinodale dans le système Fe-Cr en couches minces / Tomographic atom probe study of spinodal decomposition of the Fe-Cr system in thin filmsColignon, Yann 03 December 2015 (has links)
Les cinétiques de décomposition dues à la présence d'une lacune de miscibilité dans le système Fe-Cr sont généralement étudiées dans des alliages Fe-Cr massifs pour lesquels la décomposition se déroule en 3 dimensions. Nous avons étudié les cinétiques de décomposition spinodale dans des couches minces Fe-Cr. Ces couches minces comportent une oscillation de composition de Cr dont le vecteur d'onde est perpendiculaire à la surface de l'échantillon. La décomposition de l'alliage a alors pour conséquence d'augmenter l'amplitude de l'oscillation au cours d'un recuit et donc d'engendrer une décomposition selon une seule dimension. Des échantillons comportant des oscillations de différentes longueurs d'onde ont ainsi été conçus. Des recuits à 500°C sur ces échantillons ont été analysés par sonde atomique tomographique. Ces résultats ont ensuite été comparés à des simulations AKMC et en champ moyen. Des recuits à 500°C d'un échantillon comportant une oscillation de composition d'une longueur d'onde de 22nm ont montré une diminution inattendue de l'amplitude de l'oscillation. Des recuits à 500°C d'un échantillon comportant une oscillation de composition d'une longueur d'onde de 6nm ont montré plusieurs comportements de l'oscillation de composition. En effet, l'oscillation s'est amplifiée par endroits alors qu'elle s'amortie ou encore évolue peu à d'autres. La présence d'O et de joints grains dans les couches minces peuvent rendre compte de ces différents comportements. / Decomposition kinetics due to the presence of a miscibility gap in the Fe-Cr system are generally studied in Fe-Cr bulk alloys for which the decomposition occurs in three dimensions. We studied the spinodal decomposition kinetics in Fe-Cr thins films. These thin films have a Cr composition oscillation whose wave vector is perpendicular to the sample surface. The decomposition of the alloy lead an increase of the oscillation amplitude during annealing and thus generate a decomposition in a single dimension. Samples having different oscillation wavelengths have been designed. Annealing treatments at 500°C of these samples were analyzed by atom probe tomography. These results were then compared to AKMC and mean field simulations. Annealing treatments at 500°C of a sample having a composition oscillation with a 22nm wavelength showed an unexpected decrease in oscillation amplitude. Annealing treatments at 500°C of a sample having a composition oscillation with a 6nm wavelength showed several behavior of the composition oscillation. Indeed, the oscillation amplifies by places while damps or changes very little in other places. The presence of O and grain boundaries in thin films may explain these different behaviors.
|
60 |
Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF / Improvement of cross section model in COCAGNE code of the calculation chain of EDFLuu, Thi Hieu 17 February 2017 (has links)
Afin d'exploiter au mieux son parc nucléaire, la R&D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision. / In order to optimize the operation of its nuclear power plants, the EDF's R&D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy.
|
Page generated in 0.1061 seconds