1 |
CONTRIBUTIONS A L'APPROXIMATION NUMERIQUE D'OPERATEURS ET DE LEURS SPECTRESGrammont, Laurence 09 March 2012 (has links) (PDF)
Mes travaux peuvent se diviser en deux thèmes : L'algèbre linéaire numérique. La théorie des opérateurs intégraux. L'algèbre linéaire numérique fut le cadre de ma thèse de doctorat, dédiée aux propriétés spectrales des opérateurs de Sylvester, endomorphismes d'espaces matriciels. J'ai tout naturellement utilisé mes connaissances, mes compétences et mon savoir faire, développés pendant ces années de formation par la recherche, pour attaquer un nouveau problème li e a une notion apparue dans les années 1990 et qui a connu un grand succès dans la communauté de l'algèbre linéaire numérique. Cette notion est celle des pseudospectres qui généralise celle des spectres dans le cadre de la théorie des perturbations. A cette notion est liée celle de rayon de stabilité. Suite a ces travaux sur les pseudospectres et ayant constat e que pour certaines matrices pathologiques, la détermination du pseudospectre était couteuse et entachées d'erreurs importantes, nous avons cherché si l'on ne pouvait pas définir d'autres généralisations du spectre plus facilement calculables. Nous avons étudié un ensemble du plan complexe, contenant les valeurs propres d'une matrice, défini comme un -voisinage des racines du polynome caractéristique. Je me suis ensuite tout naturellement tournée vers un nouveau chalenge, celui du problème polynomial de valeurs propres. Ce sujet s'est développé très récemment. Il y a des questions propres aux problèmes polynomiaux de valeurs propres qui n'ont ete posées qu' a partir des années 2000 et qui n'ont trouvées de premières réponses que cinq ans plus tard. Le domaine des problèmes polynomiaux de valeurs propres est en pleine expansion et beaucoup de problèmes restent a résoudre dans l'avenir. Parallèlement et plus directement li e aux équations matricielles, je me suis intéressée a la notion de stabilité de Lyapunov, tr es utile dans la communauté de la théorie du contrôle. Mon autre domaine de recherche concerne les équations intégrales du point de vue de l'approximation. Des méthodes de discrétisation conduisant a des matrices diagonales sont intéressantes. Ces considérations m'ont conduite à étudier l'approximation d'un équation d'opérateur intégral par une méthode d'ondelettes-vaguelettes. La difficulté de la mise en œuvre numérique m'a dirigée vers l' étude d'autres méthodes.
|
2 |
Algorithmes numériques pour les matrices polynomiales avec applications en commandeZuniga Anaya, Juan Carlos 14 September 2005 (has links) (PDF)
Dans cette thèse nous développons de nouveaux algorithmes de calcul numérique pour les matrices polynomiales. Nous abordons le problème du calcul de la structure propre (rang, espace nul, structures finie et infinie) d'une matrice polynomiale et nous appliquons les résultats obtenus au calcul de la factorisation J-spectrale des matrices polynomiales. Nous présentons également quelques applications de ces algorithmes en théorie de la commande. Tous les nouveaux algorithmes décrits ici sont basés sur le calcul d'espaces nuls constants de matrices bloc Toeplitz associées à la matrice polynomiale analysée. Pour calculer ces espaces nuls nous utilisons des méthodes standard de l'algèbre linéaire numérique comme la décomposition en valeurs singulières ou la factorisation QR. Nous étudions aussi l'application de méthodes rapides comme la méthode généralisée de Schur pour les matrices structurées. Nous analysons les algorithmes présentés au niveau complexité algorithmique et stabilité numérique, et effectuons des comparaisons avec d'autres algorithmes existants dans la littérature.
|
3 |
Numerical Quality and High Performance In Interval Linear Algebra on Multi-Core Processors / Algèbre linéaire d'intervalles - Qualité Numérique et Hautes Performances sur Processeurs Multi-CœursTheveny, Philippe 31 October 2014 (has links)
L'objet est de comparer des algorithmes de multiplication de matrices à coefficients intervalles et leurs implémentations.Le premier axe est la mesure de la précision numérique. Les précédentes analyses d'erreur se limitent à établir une borne sur la surestimation du rayon du résultat en négligeant les erreurs dues au calcul en virgule flottante. Après examen des différentes possibilités pour quantifier l'erreur d'approximation entre deux intervalles, l'erreur d'arrondi est intégrée dans l'erreur globale. À partir de jeux de données aléatoires, la dispersion expérimentale de l'erreur globale permet d'éclairer l'importance des différentes erreurs (de méthode et d'arrondi) en fonction de plusieurs facteurs : valeur et homogénéité des précisions relatives des entrées, dimensions des matrices, précision de travail. Cette démarche conduit à un nouvel algorithme moins coûteux et tout aussi précis dans certains cas déterminés.Le deuxième axe est d'exploiter le parallélisme des opérations. Les implémentations précédentes se ramènent à des produits de matrices de nombres flottants. Pour contourner les limitations d'une telle approche sur la validité du résultat et sur la capacité à monter en charge, je propose une implémentation par blocs réalisée avec des threads OpenMP qui exécutent des noyaux de calcul utilisant les instructions vectorielles. L'analyse des temps d'exécution sur une machine de 4 octo-coeurs montre que les coûts de calcul sont du même ordre de grandeur sur des matrices intervalles et numériques de même dimension et que l'implémentation par bloc passe mieux à l'échelle que l'implémentation avec plusieurs appels aux routines BLAS. / This work aims at determining suitable scopes for several algorithms of interval matrices multiplication.First, we quantify the numerical quality. Former error analyses of interval matrix products establish bounds on the radius overestimation by neglecting the roundoff error. We discuss here several possible measures for interval approximations. We then bound the roundoff error and compare experimentally this bound with the global error distribution on several random data sets. This approach enlightens the relative importance of the roundoff and arithmetic errors depending on the value and homogeneity of relative accuracies of inputs, on the matrix dimension, and on the working precision. This also leads to a new algorithm that is cheaper yet as accurate as previous ones under well-identified conditions.Second, we exploit the parallelism of linear algebra. Previous implementations use calls to BLAS routines on numerical matrices. We show that this may lead to wrong interval results and also restrict the scalability of the performance when the core count increases. To overcome these problems, we implement a blocking version with OpenMP threads executing block kernels with vector instructions. The timings on a 4-octo-core machine show that this implementation is more scalable than the BLAS one and that the cost of numerical and interval matrix products are comparable.
|
Page generated in 0.0669 seconds