• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 29
  • 9
  • Tagged with
  • 99
  • 36
  • 34
  • 31
  • 27
  • 26
  • 24
  • 23
  • 19
  • 18
  • 17
  • 16
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Analyse et traitement d'images multi modales en oncologie

Hatt, Mathieu 27 March 2012 (has links) (PDF)
Avec une formation initiale en sciences de l'informatique et une spécialisation image, mes activités de recherche actuelles concernent le traitement et l'analyse de l'information et de l'image pour des applications en médecine, plus particulièrement l'oncologie et la radiothérapie. Plus spécifiquement, je m'intéresse à la segmentation et la classification automatique pour la définition des contours d'organes et de tumeurs, au filtrage du bruit et à la déconvolution pour l'amélioration qualitative et quantitative, et plus récemment, aux modèles multi observation pour la prise en compte des images multi modales, et la fusion d'informations pour l'aide à la décision dans la prise en charge des patients. Je poursuis ces thématiques spécifiquement dans le cadre de l'utilisation de l'imagerie TEP/TDM (Tomographie par Emission de Positons et scanner X) en oncologie et radiothérapie. Mes activités de recherche ont pris place dans le contexte de l'équipe " imagerie multi modale quantitative pour le diagnostic et la thérapie " du laboratoire INSERM U650 de traitement de l'information médicale (LaTIM). Ce contexte a garantit un travail l'équipe pluridisciplinaire, en collaboration notamment avec des radiothérapeutes, des médecins nucléaires, des physiciens, des ingénieurs, des mathématiciens et des informaticiens. En tant que doctorant, ma principale contribution a été le développement d'une méthode originale de segmentation d'image adaptée à la définition des volumes fonctionnels des tumeurs sur les images TEP. Lors de mon post-doctorat, j'ai poursuivi la validation de la précision, de la robustesse et de la reproductibilité de cette approche dans le cadre d'un projet ANR pour lequel j'ai reçu un financement de deux ans et demi. J'ai également étudié au cours de ces deux dernières années l'impact d'une telle méthode dans de nombreuses applications, telles que la dosimétrie en planification de traitement en radiothérapie, et la prise en charge des patients en oncologie. Au cours de ces six dernières années, j'ai été de plus en plus impliqué dans des travaux de recherche connexes menés par d'autres doctorants et post-doctorants. Ces travaux incluent la fusion d'images TEP pour le suivi temporel quantitatif, les simulations réalistes et l'évaluation dosimétrique, la caractérisation de l'hétérogénéité intra tumorale des traceurs TEP par analyse de texture, et la réduction des effets de volume partiel et du bruit en imagerie d'émission. J'ai assumé la responsabilité de co-encadrant de plusieurs stagiaires et doctorants de l'équipe sous la direction du directeur de recherche D. Visvikis. Cette responsabilité inclus des réunions hebdomadaires et des discussions régulières avec les étudiants, l'aide à la mise en place des expériences et protocoles de validation, à l'analyse des résultats, la correction de rapports de stage, d'articles et de manuscrits de thèse, ainsi que réfléchir à des solutions aux problèmes tant théoriques que techniques. Je travaille actuellement en tant que chercheur associé au département de recherche en imagerie et radiothérapie de Maastricht (MAASTRO) aux Pays-bas. Au cours des prochaines années, mon projet de recherche sera dédié au développement d'un contexte flexible et robuste permettant la modélisation et l'analyse semi-automatique d'ensemble d'images médicales multi modales, multi résolutions et multi temporelles, telles que TEP/TDM, TEMP/TDM, TEP/IRM, multi IRM ou TEP avec différents traceurs, ainsi que des acquisitions dynamiques. Ce développement permettra de déduire de nouveaux modèles prédictifs et des outils de décision adaptés à diverses applications cliniques tels que les cancers de l'oesophage, rectal, pulmonaire ou ORL, par la fusion de toute l'information disponible (imagerie, génétique, phéntypes et rapports cliniques). Ce projet se construira en partie sur les travaux préliminaires réalisés avec des doctorants venant de soutenir et en passe de terminer leur thèse, et sur les thèses de deux nouvelles doctorantes que j'encadrerai à partir d'octobre 2011 et courant 2012, recrutées sur des financements que j'ai contribué à obtenir en 2010-2011.
92

Problèmes inverses en Haute Résolution Angulaire

Mugnier, Laurent 18 October 2011 (has links) (PDF)
Les travaux exposés portent sur les techniques d'imagerie optique à haute résolution et plus particulièrement sur les méthodes, dites d'inversion, de traitement des données associées à ces techniques. Ils se situent donc à la croisée des chemins entre l'imagerie optique et le traitement du signal et des images. Ces travaux sont appliqués à l'astronomie depuis le sol ou l'espace, l'observation de la Terre, et l'imagerie de la rétine. Une partie introductive est dédiée au rappel de caractéristiques importantes de l'inversion de données et d'éléments essentiels sur la formation d'image (diffraction, turbulence, techniques d'imagerie) et sur la mesure des aberrations (analyse de front d'onde). La première partie des travaux exposés porte sur l'étalonnage d'instrument, c'est-à-dire l'estimation d'aberrations instrumentales ou turbulentes. Ils concernent essentiellement la technique de diversité de phase : travaux méthodologiques, travaux algorithmiques, et extensions à l'imagerie à haute dynamique en vue de la détection et la caractérisation d'exoplanètes. Ces travaux comprennent également des développements qui n'utilisent qu'une seule image au voisinage du plan focal, dans des cas particuliers présentant un intérêt pratique avéré. La seconde partie des travaux porte sur le développement de méthodes de traitement (recalage, restauration et reconstruction, détection) pour l'imagerie à haute résolution. Ces développements ont été menés pour des modalités d'imagerie très diverses : imagerie corrigée ou non par optique adaptative (OA), mono-télescope ou interférométrique, pour l'observation de l'espace ; imagerie coronographique d'exoplanètes par OA depuis le sol ou par interférométrie depuis l'espace ; et imagerie 2D ou 3D de la rétine humaine. Enfin, une dernière partie présente des perspectives de recherches.
93

Sur une approche de l'analyse en composantes indépendantes à la compression des images multi composantes

Akam Bita, Isidore Paul 12 February 2007 (has links) (PDF)
Dans une première partie, nous définissons plusieurs schémas de compression en partant de l'état de l'art qu'est JPEG 2000 aujourd'hui. Les schémas de compressions que nous avons définis proposent d'utiliser une transformation pour la réduction de la redondance spatiale transformée en ondelette discrète (TOD) et une autre transformation pour réduire la redondance spectrale. Les transformations optimales sous les hypothèses faible distortion, permettant de réduire la redondance spectrale, s'obtiennent dans certains cas en minimisant un critère qui peut être interprété comme le critère de l'analyse en composantes indépendantes (ACI) (minimisation de l'information mutuelle) additionné d'un terme toujours positif ou nul qui est une certaine mesure à l'orthogonalité de la transformation obtenue. Les performances obtenues en intégrant ces transformations dans nos schémas de compression montrent une amélioration des performances en comparaison à la transformation de Karhunen Loève (TKL). Dans la deuxième partie, nous proposons un modèle de mélange convolutif pour rechercher une transformation unique réduisant à la fois les redondances spatiales et spectrales. Nous définissons le critère à minimiser sous les hypothèses faibles distortions et nous montrons que ce critère peut s'interprété comme celui de l'ACI pour la séparation et déconvolution lorsque le critère à minimiser est l'information mutuelle auquel s'additionne un terme toujours positif ou nul. Puis nous proposons deux algorithmes permettant d'obtenir d'une part la transformation minimisant le critère dans le cas général, et d'autre part celle qui minimise le critère sous la contrainte que la distorsion dans le domaine transformée est la même que celle du domaine de l'image.
94

Correction des effets de volume partiel en tomographie d'émission

Le Pogam, Adrien 29 April 2010 (has links)
Ce mémoire est consacré à la compensation des effets de flous dans une image, communément appelés effets de volume partiel (EVP), avec comme objectif d’application l’amélioration qualitative et quantitative des images en médecine nucléaire. Ces effets sont la conséquence de la faible résolutions spatiale qui caractérise l’imagerie fonctionnelle par tomographie à émission mono-photonique (TEMP) ou tomographie à émission de positons (TEP) et peuvent être caractérisés par une perte de signal dans les tissus présentant une taille comparable à celle de la résolution spatiale du système d’imagerie, représentée par sa fonction de dispersion ponctuelle (FDP). Outre ce phénomène, les EVP peuvent également entrainer une contamination croisée des intensités entre structures adjacentes présentant des activités radioactives différentes. Cet effet peut conduire à une sur ou sous estimation des activités réellement présentes dans ces régions voisines. Différentes techniques existent actuellement pour atténuer voire corriger les EVP et peuvent être regroupées selon le fait qu’elles interviennent avant, durant ou après le processus de reconstruction des images et qu’elles nécessitent ou non la définition de régions d’intérêt provenant d’une imagerie anatomique de plus haute résolution(tomodensitométrie TDM ou imagerie par résonance magnétique IRM). L’approche post-reconstruction basée sur le voxel (ne nécessitant donc pas de définition de régions d’intérêt) a été ici privilégiée afin d’éviter la dépendance aux reconstructions propres à chaque constructeur, exploitée et améliorée afin de corriger au mieux des EVP. Deux axes distincts ont été étudiés. Le premier est basé sur une approche multi-résolution dans le domaine des ondelettes exploitant l’apport d’une image anatomique haute résolution associée à l’image fonctionnelle. Le deuxième axe concerne l’amélioration de processus de déconvolution itérative et ce par l’apport d’outils comme les ondelettes et leurs extensions que sont les curvelets apportant une dimension supplémentaire à l’analyse par la notion de direction. Ces différentes approches ont été mises en application et validées par des analyses sur images synthétiques, simulées et cliniques que ce soit dans le domaine de la neurologie ou dans celui de l’oncologie. Finalement, les caméras commerciales actuelles intégrant de plus en plus des corrections de résolution spatiale dans leurs algorithmes de reconstruction, nous avons choisi de comparer de telles approches en TEP et en TEMP avec une approche de déconvolution itérative proposée dans ce mémoire. / Partial Volume Effects (PVE) designates the blur commonly found in nuclear medicine images andthis PhD work is dedicated to their correction with the objectives of qualitative and quantitativeimprovement of such images. PVE arise from the limited spatial resolution of functional imaging witheither Positron Emission Tomography (PET) or Single Photon Emission Computed Tomography(SPECT). They can be defined as a signal loss in tissues of size similar to the Full Width at HalfMaximum (FWHM) of the PSF of the imaging device. In addition, PVE induce activity crosscontamination between adjacent structures with different tracer uptakes. This can lead to under or overestimation of the real activity of such analyzed regions. Various methodologies currently exist tocompensate or even correct for PVE and they may be classified depending on their place in theprocessing chain: either before, during or after the image reconstruction process, as well as theirdependency on co-registered anatomical images with higher spatial resolution, for instance ComputedTomography (CT) or Magnetic Resonance Imaging (MRI). The voxel-based and post-reconstructionapproach was chosen for this work to avoid regions of interest definition and dependency onproprietary reconstruction developed by each manufacturer, in order to improve the PVE correction.Two different contributions were carried out in this work: the first one is based on a multi-resolutionmethodology in the wavelet domain using the higher resolution details of a co-registered anatomicalimage associated to the functional dataset to correct. The second one is the improvement of iterativedeconvolution based methodologies by using tools such as directional wavelets and curveletsextensions. These various developed approaches were applied and validated using synthetic, simulatedand clinical images, for instance with neurology and oncology applications in mind. Finally, ascurrently available PET/CT scanners incorporate more and more spatial resolution corrections in theirimplemented reconstruction algorithms, we have compared such approaches in SPECT and PET to aniterative deconvolution methodology that was developed in this work.
95

Localisation et contribution de sources acoustiques de navire au passage par traitement d’antenne réduite / Array processing for the localization and the contribution of acoustic sources of a passing-by ship using a short antenna

Oudompheng, Benoit 03 November 2015 (has links)
Le bruit rayonné par le trafic maritime étant la principale source de nuisance acoustique sous-marine dans les zones littorales, la Directive-Cadre Stratégie pour le Milieu Marin de la Commission Européenne promeut le développement de méthodes de surveillance et de réduction de l'impact du bruit du trafic maritime. Le besoin de disposer d'un système industriel d'imagerie du bruit rayonné par les navires de surface a motivé la présente étude, il permettra aux industriels du naval d'identifier quels éléments d'un navire rayonnent le plus de bruit.Dans ce contexte, ce travail de recherche porte sur la mise en place de méthodes d'imagerie acoustique sous-marine passive d'un navire de surface au passage au-dessus d'une antenne linéaire et fixe au nombre réduit d'hydrophones. Deux aspects de l'imagerie acoustique sont abordés : la localisation de sources acoustiques et l'identification de la contribution relative de chacune de ces sources dans la signature acoustique du navire.Tout d'abord, une étude bibliographique sur le rayonnement acoustique d'un navire de surface au passage est menée afin d'identifier les principales sources acoustiques et de pouvoir ensuite simuler des sources représentatives d'un navire. La propagation acoustique est simulée par la théorie des rayons et intègre le mouvement des sources. Ce simulateur de rayonnement acoustique de navire au passage est construit afin de valider les algorithmes d'imagerie acoustique proposés et de dimensionner une configuration expérimentale. Une étude sur l'influence du mouvement des sources sur les algorithmes d'imagerie acoustique a conduit à l'utilisation d'un algorithme de formation de voies pour sources mobiles pour la localisation des sources et une méthode de déconvolution pour accéder à l'identification de la contribution des sources. Les performances de ces deux méthodes sont évaluées en présence de bruit de mesure et d'incertitudes sur le modèle de propagation afin d'en connaître les limites. Une première amélioration de la méthode de formation de voies consiste en un traitement d'antenne à ouverture synthétique qui exploite le mouvement relatif entre le navire et l'antenne pour notamment améliorer la résolution en basses fréquences. Un traitement de correction acoustique de la trajectoire permet de corriger la trajectographie du navire au passage qui est souvent incertaine. Enfin, la dernière partie de cette thèse concerne une campagne de mesures de bruit de passage d'une maquette de navire de surface tractée en lac, ces mesures ont permis de valider les méthodes d'imagerie acoustique proposées ainsi que les améliorations proposées, dans un environnement réel maîtrisé. / Since the surface ship radiated noise is the main contribution to the underwater acoustic noise in coastal waters, The Marine Framework Strategy Directive of the European Commission recommends the development of the monitoring and the reduction of the impact of the traffic noise. The need for developing an industrial system for the noise mapping of the surface ship have motivated this study, it will allow the naval industries to identify which part of the ship radiates the stronger noise level.In this context, this research work deals with the development of passive noise mapping methods of a surface ship passing-by above a static linear array with a reduced number of hydrophones. Two aspects of the noise mapping are considered: the localization of acoustic sources and the identification of the relative contribution of each source to the ship acoustic signature.First, a bibliographical study concerning the acoustic radiation of a passing-by surface ship is conducted in order to list the main acoustic sources and then to simulate representative ship sources. The acoustic propagation is simulated according to the ray theory and takes the source motion into account. The simulator of the acoustic radiation of a passing-by ship is built in order to validate the proposed noise mapping methods and to design an experimental set-up. A study about the influence of the source motion on the noise mapping methods led to the use of the beamforming method for moving sources for the source localization and a deconvolution method for the identification of the source contribution. The performances of both methods are assessed considering measurement noise and uncertainties about the propagation model in order to know their limitations. A first improvement of the beamforming method consists of a passive synthetic aperture array algorithm which benefits from the relative motion between the ship and the antenna in order to improve the spatial resolution at low frequencies. Then, an algorithm is proposed to acoustically correct the trajectography mismatches of a passing-by surface ship. Finally, the last part of this thesis concerns a pass-by experiment of a towed-ship model in a lake. These measurements allowed us to validate the proposed noise mapping methods and their proposed improvements, in a real and controlled environment.
96

Platine sur silice : exemples réussis de synthèse par voie organométallique pour la catalyse hétérogène : validation par l'adsorption et la réactivité du CO / Platinum on silica : Successful examples of organometallic syntheses for heterogeneous catalysis : confirmation by CO adsorption and reactivity

Garnier, Anaïs 25 November 2013 (has links)
Chimie organométallique résonne avec catalyse homogène, et chimie des surfaces avec catalyse hétérogène. Mais la frontière établie entre ces deux domaines est en réalité très mince. Leur rapprochement aboutit dans les années 1990 au développement d’une nouvelle science : la chimie organométallique de surface, qui souligne leur complémentarité. L’objectif de cette science, dans laquelle s’inscrit ce travail de thèse, est de créer des catalyseurs hétérogènes à partir de composés organométalliques. Notre objectif est d’apporter une contribution à la compréhension de la formation de nanoparticules de platine - métal incontournable en catalyse hétérogène - sur des supports de silice amorphe, et ce grâce à la chimie organométallique. Au cours de ce travail, une palette de catalyseurs Pt/SiO2 a été préparée à partir de trois précurseurs de platine : le composé classique H2PtIVCl6.xH2O et deux composés organométalliques PtII(η 4-C8H12)Cl2 et Pt0(η 2-C7H10)3 , et de trois supports : une silice commerciale (Davison), une silice mésoporeuse SBA-15 synthétisée au laboratoire et unesilice naturelle, la diatomite. De plus, l’étude du catalyseur de référence au platine « EuroPt-1 » a permis de développer une méthodologie de suivi operando par Spectroscopie Infrarouge à Transformée de Fourier par Réflexion Diffuse (DRIFTS) de l’adsorption du monoxyde de carbone (CO) sur les différents sites d’une nanoparticule de platine. En conclusion, les catalyseurs préparés à partir de Pt0(η 2-C7H10)3 s’avèrent être plus actifs qu’EuroPt-1 pour la réaction d’oxydation du CO, ce qui démontre le potentiel d’utilisation des composés organométalliques dans le domaine de la catalyse hétérogène. / Organometallic chemistry resonates with homogeneous catalysis, and surface chemistry with heterogeneous catalysis. But the frontier between these two fields is very thin. In the 90’s, these fields approached each other and led to the development of a new science: organometallic surface chemistry, which underlines their complementarity. The goal of this science, with which this work is associated, is to create heterogeneous catalysts from organometallic compounds. Our goal is to contribute to the understanding of platinum nanoparticle formation - platinum being an important metal in heterogeneous catalysis - onto amorphous silica supports, thanks to organometallic chemistry. During this work, various Pt/SiO2 catalysts were prepared fromthree platinum precursors: the classical one, H2PtIVCl6.xH2O and two organometallic compounds PtII(η 4-C8H12)Cl2 et Pt0(η2-C7H10)3, and involved three supports: a commercial silica (Davison), a mesoporous silica SBA-15 synthesized in the laboratory, and a natural silica, the diatomite. Moreover, the study of the standard platinum reference catalyst “EuroPt-1” lead to the development of a methodology of operando Diffuse Reflectance Infrared Fourier Transform Spectroscopy (DRIFTS) of carbon monoxide (CO) adsorption on the different sites of a platinum nanoparticle. Catalysts prepared from Pt0(η 2-C7H10)3 are more active than EuroPt-1 for the CO oxidation reaction, and this work shows the potential of organometallic precursors in the domain of heterogeneous catalysis.
97

Compression et inférence des opérateurs intégraux : applications à la restauration d’images dégradées par des flous variables / Approximation and estimation of integral operators : applications to the restoration of images degraded by spatially varying blurs

Escande, Paul 26 September 2016 (has links)
Le problème de restauration d'images dégradées par des flous variables connaît un attrait croissant et touche plusieurs domaines tels que l'astronomie, la vision par ordinateur et la microscopie à feuille de lumière où les images sont de taille un milliard de pixels. Les flous variables peuvent être modélisés par des opérateurs intégraux qui associent à une image nette u, une image floue Hu. Une fois discrétisé pour être appliqué sur des images de N pixels, l'opérateur H peut être vu comme une matrice de taille N x N. Pour les applications visées, la matrice est stockée en mémoire avec un exaoctet. On voit apparaître ici les difficultés liées à ce problème de restauration des images qui sont i) le stockage de ce grand volume de données, ii) les coûts de calculs prohibitifs des produits matrice-vecteur. Ce problème souffre du fléau de la dimension. D'autre part, dans beaucoup d'applications, l'opérateur de flou n'est pas ou que partialement connu. Il y a donc deux problèmes complémentaires mais étroitement liés qui sont l'approximation et l'estimation des opérateurs de flou. Cette thèse a consisté à développer des nouveaux modèles et méthodes numériques permettant de traiter ces problèmes. / The restoration of images degraded by spatially varying blurs is a problem of increasing importance. It is encountered in many applications such as astronomy, computer vision and fluorescence microscopy where images can be of size one billion pixels. Variable blurs can be modelled by linear integral operators H that map a sharp image u to its blurred version Hu. After discretization of the image on a grid of N pixels, H can be viewed as a matrix of size N x N. For targeted applications, matrices is stored with using exabytes on the memory. This simple observation illustrates the difficulties associated to this problem: i) the storage of a huge amount of data, ii) the prohibitive computation costs of matrix-vector products. This problems suffers from the challenging curse of dimensionality. In addition, in many applications, the operator is usually unknown or only partially known. There are therefore two different problems, the approximation and the estimation of blurring operators. They are intricate and have to be addressed with a global overview. Most of the work of this thesis is dedicated to the development of new models and computational methods to address those issues.
98

Traitement aveugle et semi-aveugle du signal pour les télécommunications et le génie biomédical

Zarzoso, Vicente 09 November 2009 (has links) (PDF)
Ce rapport résume mes activités de recherche depuis l'obtention de mon doctorat. Je me suis penché sur le problème fondamental de l'estimation de signaux sources à partir de l'observation de mesures corrompues de ces signaux, dans des scénarios où les données mesurées peuvent être considérées comme une transformation linéaire inconnue des sources. Deux problèmes classiques de ce type sont la déconvolution ou égalisation de canaux introduisant des distorsions linéaires, et la séparation de sources dans des mélanges linéaires. L'approche dite aveugle essaie d'exploiter un moindre nombre d'hypothèses sur le problème à résoudre : celles-ci se réduisent typiquement à l'indépendance statistique des sources et l'inversibilité du canal ou de la matrice de mélange caractérisant le milieu de propagation. Malgré les avantages qui ont suscité l'intérêt pour ces techniques depuis les années soixante-dix, les critères aveugles présentent aussi quelques inconvénients importants, tels que l'existence d'ambiguïtés dans l'estimation, la présence d'extrema locaux associés à des solutions parasites, et un coût de calcul élevé souvent lié à une convergence lente. Ma recherche s'est consacrée à la conception de nouvelles techniques d'estimation de signal visant à pallier aux inconvénients de l'approche aveugle et donc à améliorer ses performances. Une attention particulière a été portée sur deux applications dans les télécommunications et le génie biomédical : l'égalisation et la séparation de sources dans des canaux de communications numériques, et l'extraction de l'activité auriculaire à partir des enregistrements de surface chez les patients souffrant de fibrillation auriculaire. La plupart des techniques proposées peuvent être considérées comme étant semi-aveugles, dans le sens où elles visent à exploiter des informations a priori sur le problème étudié autres que l'indépendance des sources ; par exemple, l'existence de symboles pilotes dans les systèmes de communications ou des propriétés spécifiques de la source atriale dans la fibrillation auriculaire. Dans les télécommunications, les approches que j'ai explorées incluent des solutions algébriques aux fonctions de contraste basées sur la modulation numérique, la combinaison de contrastes aveugles et supervisés dans des critères semi-aveugles, et une technique d'optimisation itérative basée sur un pas d'adaptation calculé algébriquement. Nos efforts visant à extraire le signal atrial dans des enregistrements de fibrillation auriculaire nous ont permis non seulement de dégager de nouvelles fonctions de contraste basées sur les statistiques de second ordre et d'ordre élevé incorporant l'information a priori sur les statistiques des sources, mais aussi d'aboutir à de nouveaux résultats d'impact clinique et physiologique sur ce trouble cardiaque encore mal compris. Ce rapport se conclut en proposant quelques perspectives pour la continuation de ces travaux. Ces recherches ont été menées en collaboration avec un nombre de collègues en France et à l'étranger, et ont également compris le co-encadrement de plusieurs doctorants. Les contributions qui en ont découlé ont donné lieu à plus de soixante publications dans des journaux, des conférences et des ouvrages collectifs à caractère international. Quelques-unes de ces publications sont jointes à ce document.
99

Sur des méthodes préservant les structures d'une classe de matrices structurées / On structure-preserving methods of a class of structured matrices

Ben Kahla, Haithem 14 December 2017 (has links)
Les méthodes d'algèbres linéaire classiques, pour le calcul de valeurs et vecteurs propres d'une matrice, ou des approximations de rangs inférieurs (low-rank approximations) d'une solution, etc..., ne tiennent pas compte des structures de matrices. Ces dernières sont généralement détruites durant le procédé du calcul. Des méthodes alternatives préservant ces structures font l'objet d'un intérêt important par la communauté. Cette thèse constitue une contribution dans ce domaine. La décomposition SR peut être calculé via l'algorithme de Gram-Schmidt symplectique. Comme dans le cas classique, une perte d'orthogonalité peut se produire. Pour y remédier, nous avons proposé deux algorithmes RSGSi et RMSGSi qui consistent à ré-orthogonaliser deux fois les vecteurs à calculer. La perte de la J-orthogonalité s'est améliorée de manière très significative. L'étude directe de la propagation des erreurs d'arrondis dans les algorithmes de Gram-Schmidt symplectique est très difficile à effectuer. Nous avons réussi à contourner cette difficulté et donner des majorations pour la perte de la J-orthogonalité et de l'erreur de factorisation. Une autre façon de calculer la décomposition SR est basée sur les transformations de Householder symplectique. Un choix optimal a abouti à l'algorithme SROSH. Cependant, ce dernier peut être sujet à une instabilité numérique. Nous avons proposé une version modifiée nouvelle SRMSH, qui a l'avantage d'être aussi stable que possible. Une étude approfondie a été faite, présentant les différentes versions : SRMSH et SRMSH2. Dans le but de construire un algorithme SR, d'une complexité d'ordre O(n³) où 2n est la taille de la matrice, une réduction (appropriée) de la matrice à une forme condensée (J(Hessenberg forme) via des similarités adéquates, est cruciale. Cette réduction peut être effectuée via l'algorithme JHESS. Nous avons montré qu'il est possible de réduire une matrice sous la forme J-Hessenberg, en se basant exclusivement sur les transformations de Householder symplectiques. Le nouvel algorithme, appelé JHSJ, est basé sur une adaptation de l'algorithme SRSH. Nous avons réussi à proposer deux nouvelles variantes, aussi stables que possible : JHMSH et JHMSH2. Nous avons constaté que ces algorithmes se comportent d'une manière similaire à l'algorithme JHESS. Une caractéristique importante de tous ces algorithmes est qu'ils peuvent rencontrer un breakdown fatal ou un "near breakdown" rendant impossible la suite des calculs, ou débouchant sur une instabilité numérique, privant le résultat final de toute signification. Ce phénomène n'a pas d'équivalent dans le cas Euclidien. Nous avons réussi à élaborer une stratégie très efficace pour "guérir" le breakdown fatal et traîter le near breakdown. Les nouveaux algorithmes intégrant cette stratégie sont désignés par MJHESS, MJHSH, JHM²SH et JHM²SH2. Ces stratégies ont été ensuite intégrées dans la version implicite de l'algorithme SR lui permettant de surmonter les difficultés rencontrées lors du fatal breakdown ou du near breakdown. Rappelons que, sans ces stratégies, l'algorithme SR s'arrête. Finalement, et dans un autre cadre de matrices structurées, nous avons présenté un algorithme robuste via FFT et la matrice de Hankel, basé sur le calcul approché de plus grand diviseur commun (PGCD) de deux polynômes, pour résoudre le problème de la déconvolution d'images. Plus précisément, nous avons conçu un algorithme pour le calcul du PGCD de deux polynômes bivariés. La nouvelle approche est basée sur un algorithme rapide, de complexité quadratique O(n²), pour le calcul du PGCD des polynômes unidimensionnels. La complexité de notre algorithme est O(n²log(n)) où la taille des images floues est n x n. Les résultats expérimentaux avec des images synthétiquement floues illustrent l'efficacité de notre approche. / The classical linear algebra methods, for calculating eigenvalues and eigenvectors of a matrix, or lower-rank approximations of a solution, etc....do not consider the structures of matrices. Such structures are usually destroyed in the numerical process. Alternative structure-preserving methods are the subject of an important interest mattering to the community. This thesis establishes a contribution in this field. The SR decomposition is usually implemented via the symplectic Gram-Schmidt algorithm. As in the classical case, a loss of orthogonality can occur. To remedy this, we have proposed two algorithms RSGSi and RMSGSi, where the reorthogonalization of a current set of vectors against the previously computed set is performed twice. The loss of J-orthogonality has significantly improved. A direct rounding error analysis of symplectic Gram-Schmidt algorithm is very hard to accomplish. We managed to get around this difficulty and give the error bounds on the loss of the J-orthogonality and on the factorization. Another way to implement the SR decomposition is based on symplectic Householder transformations. An optimal choice of free parameters provided an optimal version of the algorithm SROSH. However, the latter may be subject to numerical instability. We have proposed a new modified version SRMSH, which has the advantage of being numerically more stable. By a detailes study, we are led to two new variants numerically more stables : SRMSH and SRMSH2. In order to build a SR algorithm of complexity O(n³), where 2n is the size of the matrix, a reduction to the condensed matrix form (upper J-Hessenberg form) via adequate similarities is crucial. This reduction may be handled via the algorithm JHESS. We have shown that it is possible to perform a reduction of a general matrix, to an upper J-Hessenberg form, based only on the use of symplectic Householder transformations. The new algorithm, which will be called JHSH algorithm, is based on an adaptation of SRSH algorithm. We are led to two news variants algorithms JHMSH and JHMSH2 which are significantly more stable numerically. We found that these algortihms behave quite similarly to JHESS algorithm. The main drawback of all these algorithms (JHESS, JHMSH, JHMSH2) is that they may encounter fatal breakdowns or may suffer from a severe form of near-breakdowns, causing a brutal stop of the computations, the algorithm breaks down, or leading to a serious numerical instability. This phenomenon has no equivalent in the Euclidean case. We sketch out a very efficient strategy for curing fatal breakdowns and treating near breakdowns. Thus, the new algorithms incorporating this modification will be referred to as MJHESS, MJHSH, JHM²SH and JHM²SH2. These strategies were then incorporated into the implicit version of the SR algorithm to overcome the difficulties encountered by the fatal breakdown or near-breakdown. We recall that without these strategies, the SR algorithms breaks. Finally ans in another framework of structured matrices, we presented a robust algorithm via FFT and a Hankel matrix, based on computing approximate greatest common divisors (GCD) of polynomials, for solving the problem pf blind image deconvolution. Specifically, we designe a specialized algorithm for computing the GCD of bivariate polynomials. The new algorithm is based on the fast GCD algorithm for univariate polynomials , of quadratic complexity O(n²) flops. The complexitiy of our algorithm is O(n²log(n)) where the size of blurred images is n x n. The experimental results with synthetically burred images are included to illustrate the effectiveness of our approach

Page generated in 0.1073 seconds