• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 1
  • Tagged with
  • 5
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Algèbre matricielle rapide en calcul formel et calcul numérique

Belhaj, Skander 07 May 2010 (has links) (PDF)
Dans cette thèse, nous visons l'amélioration de quelques algorithmes en algèbre matricielle rapide et plus spécifiquement les algorithmes rapides sur les matrices structurées en calcul formel et numérique. Nous nous intéressons en particulier aux matrices de Hankel et de Toeplitz. Nous introduisons un nouvel algorithme de diagonalisation par blocs approchée de matrices réelles de Hankel. Nous décrivons la relation naturelle entre l'algorithme d'Euclide et notre factorisation par blocs approchée pour les matrices de Hankel associées à deux polynômes, ainsi que pour les matrices de Bézout associées aux mêmes polynômes. Enfin, dans le cas complexe, nous présentons un algorithme révisé de notre diagonalisation par blocs approchée des matrices de Hankel, en calculant la suite des restes et la suite des quotients apparues au cours de l'exécution de l'algorithme d'Euclide.
2

Calcul rapide sur les matrices structurées : Les matrices de Hankel.

Ben Atti, Nadia 28 November 2008 (has links) (PDF)
Cette thèse présente une contribution à l'amélioration de certains résultats concernant les algorithmes en Algèbre linéaire et plus particulièrement les algorithmes sur les matrices structurées. Nous présentons un nouvel algorithme de diagonalisation par blocs des matrices de Hankel, particulièrement efficace. Dans le cas où la matrice de Hankel correspond à une suite récurrente linéaire, nous retrouvons ainsi l'algorithme de Berlekamp-Massey, mais dans une version simplifiée (plus facile à expliquer et à programmer) et accélérée par des troncatures. En outre notre version permet une gestion dynamique des données. Notre diagonalisation par blocs, qui s'applique sur un corps arbitraire, nous permet de donner une démonstration purement algébrique et simple d'un délicat théorème de Frobenius pour la signature d'une forme de Hankel réelle. Nous donnons également une étude approfondie de l'algorithme d'Euclide signé et de ses versions matricielles pour les matrices de Hankel et de Bezout associées à un couple de polynômes. Nous expliquons les rapports existants entre différents algorithmes connus dans la littérature.
3

Approche matricielle de l'opérateur de propagation des ondes ultrasonores en milieu diffusant aléatoire

Aubry, Alexandre 23 September 2008 (has links) (PDF)
Cette thèse étudie les propriétés de l'opérateur de propagation des ondes ultrasonores en milieu aléatoire. Le dispositif expérimental consiste en un réseau multi-éléments placé en vis-à-vis d'un milieu désordonné. L'opérateur de propagation est donné par la matrice des réponses inter-éléments mesurées entre chaque couple de transducteurs. En s'appuyant sur la théorie des matrices aléatoires, le comportement statistique de cet opérateur a été étudié en régime de diffusion simple et multiple. Une cohérence déterministe des signaux est ainsi mise en évidence en régime de diffusion simple, cohérence qui disparaît dès que la diffusion multiple prédomine. Cette différence de comportement a permis la mise au point d'un radar intelligent séparant les échos simplement et multiplement diffusés. On peut ainsi extraire l'écho direct d'une cible échogène enfouie dans un milieu hautement diffusant, bien que ce dernier soit source de diffusion multiple et d'aberration. Une deuxième approche consiste, au contraire, à extraire une contribution de diffusion multiple noyée dans une contribution de diffusion simple largement prédominante. L'étude de l'intensité multiplement diffusée permet de mesurer des paramètres de transport (p.ex. la constante de diffusion D) caractérisant la propagation de l'onde multiplement diffusée. Un passage en champ lointain (ondes planes) permet d'obtenir une mesure fiable de D en étudiant le cône de rétrodiffusion cohérente. Un passage en champ proche, via l'utilisation de faisceaux gaussiens, permet d'effectuer des mesures locales de D en étudiant la croissance du halo diffusif. Cette approche a été appliquée au cas de l'os trabéculaire humain autour de 3 MHz.
4

Approche matricielle de l'opérateur de propagation des ondes ultrasonores en milieu diffusant aléatoire

Aubry, Alexandre 23 September 2008 (has links) (PDF)
Cette thèse étudie les propriétés de l'opérateur de propagation des ondes ultrasonores en milieu aléatoire. Le dispositif expérimental consiste en un réseau multi-éléments placé en vis-à-vis d'un milieu désordonné. L'opérateur de propagation est donné par la matrice des réponses inter-éléments mesurées entre chaque couple de transducteurs. En s'appuyant sur la théorie des matrices aléatoires, le comportement statistique de cet opérateur a été étudié en régime de diffusion simple et multiple. Une cohérence déterministe des signaux est ainsi mise en évidence en régime de diffusion simple, cohérence qui disparaît dès que la diffusion multiple prédomine. Cette différence de comportement a permis la mise au point d'un radar intelligent séparant les échos simplement et multiplement diffusés. On peut ainsi extraire l'écho direct d'une cible échogène enfouie dans un milieu hautement diffusant, bien que ce dernier soit source de diffusion multiple et d'aberration. Une deuxième approche consiste, au contraire, à extraire une contribution de diffusion multiple noyée dans une contribution de diffusion simple largement prédominante. L'étude de l'intensité multiplement diffusée permet de mesurer des paramètres de transport (p.ex. la constante de diffusion D) caractérisant la propagation de l'onde multiplement diffusée. Un passage en champ lointain (ondes planes) permet d'obtenir une mesure fiable de D en étudiant le cône de rétrodiffusion cohérente. Un passage en champ proche, via l'utilisation de faisceaux gaussiens, permet d'effectuer des mesures locales de D en étudiant la croissance du halo diffusif. Cette approche a été appliquée au cas de l'os trabéculaire humain autour de 3 MHz
5

Sur des méthodes préservant les structures d'une classe de matrices structurées / On structure-preserving methods of a class of structured matrices

Ben Kahla, Haithem 14 December 2017 (has links)
Les méthodes d'algèbres linéaire classiques, pour le calcul de valeurs et vecteurs propres d'une matrice, ou des approximations de rangs inférieurs (low-rank approximations) d'une solution, etc..., ne tiennent pas compte des structures de matrices. Ces dernières sont généralement détruites durant le procédé du calcul. Des méthodes alternatives préservant ces structures font l'objet d'un intérêt important par la communauté. Cette thèse constitue une contribution dans ce domaine. La décomposition SR peut être calculé via l'algorithme de Gram-Schmidt symplectique. Comme dans le cas classique, une perte d'orthogonalité peut se produire. Pour y remédier, nous avons proposé deux algorithmes RSGSi et RMSGSi qui consistent à ré-orthogonaliser deux fois les vecteurs à calculer. La perte de la J-orthogonalité s'est améliorée de manière très significative. L'étude directe de la propagation des erreurs d'arrondis dans les algorithmes de Gram-Schmidt symplectique est très difficile à effectuer. Nous avons réussi à contourner cette difficulté et donner des majorations pour la perte de la J-orthogonalité et de l'erreur de factorisation. Une autre façon de calculer la décomposition SR est basée sur les transformations de Householder symplectique. Un choix optimal a abouti à l'algorithme SROSH. Cependant, ce dernier peut être sujet à une instabilité numérique. Nous avons proposé une version modifiée nouvelle SRMSH, qui a l'avantage d'être aussi stable que possible. Une étude approfondie a été faite, présentant les différentes versions : SRMSH et SRMSH2. Dans le but de construire un algorithme SR, d'une complexité d'ordre O(n³) où 2n est la taille de la matrice, une réduction (appropriée) de la matrice à une forme condensée (J(Hessenberg forme) via des similarités adéquates, est cruciale. Cette réduction peut être effectuée via l'algorithme JHESS. Nous avons montré qu'il est possible de réduire une matrice sous la forme J-Hessenberg, en se basant exclusivement sur les transformations de Householder symplectiques. Le nouvel algorithme, appelé JHSJ, est basé sur une adaptation de l'algorithme SRSH. Nous avons réussi à proposer deux nouvelles variantes, aussi stables que possible : JHMSH et JHMSH2. Nous avons constaté que ces algorithmes se comportent d'une manière similaire à l'algorithme JHESS. Une caractéristique importante de tous ces algorithmes est qu'ils peuvent rencontrer un breakdown fatal ou un "near breakdown" rendant impossible la suite des calculs, ou débouchant sur une instabilité numérique, privant le résultat final de toute signification. Ce phénomène n'a pas d'équivalent dans le cas Euclidien. Nous avons réussi à élaborer une stratégie très efficace pour "guérir" le breakdown fatal et traîter le near breakdown. Les nouveaux algorithmes intégrant cette stratégie sont désignés par MJHESS, MJHSH, JHM²SH et JHM²SH2. Ces stratégies ont été ensuite intégrées dans la version implicite de l'algorithme SR lui permettant de surmonter les difficultés rencontrées lors du fatal breakdown ou du near breakdown. Rappelons que, sans ces stratégies, l'algorithme SR s'arrête. Finalement, et dans un autre cadre de matrices structurées, nous avons présenté un algorithme robuste via FFT et la matrice de Hankel, basé sur le calcul approché de plus grand diviseur commun (PGCD) de deux polynômes, pour résoudre le problème de la déconvolution d'images. Plus précisément, nous avons conçu un algorithme pour le calcul du PGCD de deux polynômes bivariés. La nouvelle approche est basée sur un algorithme rapide, de complexité quadratique O(n²), pour le calcul du PGCD des polynômes unidimensionnels. La complexité de notre algorithme est O(n²log(n)) où la taille des images floues est n x n. Les résultats expérimentaux avec des images synthétiquement floues illustrent l'efficacité de notre approche. / The classical linear algebra methods, for calculating eigenvalues and eigenvectors of a matrix, or lower-rank approximations of a solution, etc....do not consider the structures of matrices. Such structures are usually destroyed in the numerical process. Alternative structure-preserving methods are the subject of an important interest mattering to the community. This thesis establishes a contribution in this field. The SR decomposition is usually implemented via the symplectic Gram-Schmidt algorithm. As in the classical case, a loss of orthogonality can occur. To remedy this, we have proposed two algorithms RSGSi and RMSGSi, where the reorthogonalization of a current set of vectors against the previously computed set is performed twice. The loss of J-orthogonality has significantly improved. A direct rounding error analysis of symplectic Gram-Schmidt algorithm is very hard to accomplish. We managed to get around this difficulty and give the error bounds on the loss of the J-orthogonality and on the factorization. Another way to implement the SR decomposition is based on symplectic Householder transformations. An optimal choice of free parameters provided an optimal version of the algorithm SROSH. However, the latter may be subject to numerical instability. We have proposed a new modified version SRMSH, which has the advantage of being numerically more stable. By a detailes study, we are led to two new variants numerically more stables : SRMSH and SRMSH2. In order to build a SR algorithm of complexity O(n³), where 2n is the size of the matrix, a reduction to the condensed matrix form (upper J-Hessenberg form) via adequate similarities is crucial. This reduction may be handled via the algorithm JHESS. We have shown that it is possible to perform a reduction of a general matrix, to an upper J-Hessenberg form, based only on the use of symplectic Householder transformations. The new algorithm, which will be called JHSH algorithm, is based on an adaptation of SRSH algorithm. We are led to two news variants algorithms JHMSH and JHMSH2 which are significantly more stable numerically. We found that these algortihms behave quite similarly to JHESS algorithm. The main drawback of all these algorithms (JHESS, JHMSH, JHMSH2) is that they may encounter fatal breakdowns or may suffer from a severe form of near-breakdowns, causing a brutal stop of the computations, the algorithm breaks down, or leading to a serious numerical instability. This phenomenon has no equivalent in the Euclidean case. We sketch out a very efficient strategy for curing fatal breakdowns and treating near breakdowns. Thus, the new algorithms incorporating this modification will be referred to as MJHESS, MJHSH, JHM²SH and JHM²SH2. These strategies were then incorporated into the implicit version of the SR algorithm to overcome the difficulties encountered by the fatal breakdown or near-breakdown. We recall that without these strategies, the SR algorithms breaks. Finally ans in another framework of structured matrices, we presented a robust algorithm via FFT and a Hankel matrix, based on computing approximate greatest common divisors (GCD) of polynomials, for solving the problem pf blind image deconvolution. Specifically, we designe a specialized algorithm for computing the GCD of bivariate polynomials. The new algorithm is based on the fast GCD algorithm for univariate polynomials , of quadratic complexity O(n²) flops. The complexitiy of our algorithm is O(n²log(n)) where the size of blurred images is n x n. The experimental results with synthetically burred images are included to illustrate the effectiveness of our approach

Page generated in 0.06 seconds