• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 216
  • 76
  • 46
  • 30
  • 10
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 439
  • 439
  • 110
  • 101
  • 80
  • 75
  • 70
  • 69
  • 68
  • 64
  • 60
  • 56
  • 53
  • 52
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Study of generalized Radon transforms and applications in Compton scattering tomography

Rigaud, Gaël 20 November 2013 (has links) (PDF)
Since the advent of the first ionizing radiation imaging devices initiated by Godfrey Newbold Hounsfield and Allan MacLeod Cormack, Nobel Prizes in 1979, the requirement for new non-invasive imaging techniques has grown. These techniques rely upon the properties of penetration in the matter of X and gamma radiation for detecting a hidden structure without destroying the illuminated environment. They are used in many fields ranging from medical imaging to non-destructive testing through. However, the techniques used so far suffer severe degradation in the quality of measurement and reconstructed images. Usually approximated by a noise, these degradations require to be compensated or corrected by collimating devices and often expensive filtering. These degradation is mainly due to scattering phenomena which may constitute up to 80% of the emitted radiation in biological tissue. In the 80's a new concept has emerged to circumvent this difficulty : the Compton scattering tomography (CST).This new approach proposes to measure the scattered radiation considering energy ranges ( 140-511 keV) where the Compton effect is the phenomenon of leading broadcast. The use of such imaging devices requires a deep understanding of the interactions between radiation and matter to propose a modeling, consistent with the measured data, which is essential to image reconstruction. In conventional imaging systems (which measure the primary radiation) the Radon transformdefined on the straight lines emerged as the natural modeling. But in Compton scattering tomography, the measured information is related to the scattering energy and thus the scattering angle. Thus the circular geometry induced by scattering phenomenon makes the classical Radon transform inadequate.In this context, it becomes necessary to provide such Radon transforms on broader geometric manifolds.The study of the Radon transform on new manifolds of curves becomes necessary to provide theoretical needs for new imaging techniques. Cormack, himself, was the first to extend the properties of the conventional Radon transform of a family of curves of the plane. Thereafter several studies have been done in order to study the Radon transform defined on different varieties of circles, spheres, broken lines ... . In 1994 S.J. Norton proposed the first modality in Compton scattering tomography modeled by a Radon transform on circular arcs, the CART1 here. In 2010, Nguyen and Truong established the inversion formula of a Radon transform on circular arcs, CART2, to model the image formation in a new modality in Compton scattering tomography. The geometry involved in the integration support of new modalities in Compton scattering tomography lead them to demonstrate the invertibility of the Radon transform defined on a family of Cormack-type curves, called C_alpha. They illustrated the inversion procedure in the case of a new transform, the CART3, modeling a new modeling of Compton scattering tomography. Based on the work of Cormack and Truong and Nguyen, we propose to establish several properties of the Radon transform on the family C_alpha especially on C1. We have thus demonstrated two inversion formulae that reconstruct the original image via its circular harmonic decomposition and itscorresponding transform. These formulae are similar to those established by Truong and Nguyen. We finally established the well-known filtered back projection and singular value decomposition in the case alpha = 1. All results established in this study provide practical problems of image reconstruction associated with these new transforms. In particular we were able to establish new inversion methods for transforms CART1,2,3 as well as numerical approaches necessary for the implementation of these transforms. All these results enable to solve problems of image formation and reconstruction related to three Compton scattering tomography modalities.In addition we propose to improve models and algorithms es
262

Derivative Free Optimization Methods: Application In Stirrer Configuration And Data Clustering

Akteke, Basak 01 July 2005 (has links) (PDF)
Recent developments show that derivative free methods are highly demanded by researches for solving optimization problems in various practical contexts. Although well-known optimization methods that employ derivative information can be very effcient, a derivative free method will be more effcient in cases where the objective function is nondifferentiable, the derivative information is not available or is not reliable. Derivative Free Optimization (DFO) is developed for solving small dimensional problems (less than 100 variables) in which the computation of an objective function is relatively expensive and the derivatives of the objective function are not available. Problems of this nature more and more arise in modern physical, chemical and econometric measurements and in engineering applications, where computer simulation is employed for the evaluation of the objective functions. In this thesis, we give an example of the implementation of DFO in an approach for optimizing stirrer configurations, including a parametrized grid generator, a flow solver, and DFO. A derivative free method, i.e., DFO is preferred because the gradient of the objective function with respect to the stirrer&rsquo / s design variables is not directly available. This nonlinear objective function is obtained from the flow field by the flow solver. We present and interpret numerical results of this implementation. Moreover, a contribution is given to a survey and a distinction of DFO research directions, to an analysis and discussion of these. We also state a derivative free algorithm used within a clustering algorithm in combination with non-smooth optimization techniques to reveal the effectiveness of derivative free methods in computations. This algorithm is applied on some data sets from various sources of public life and medicine. We compare various methods, their practical backgrounds, and conclude with a summary and outlook. This work may serve as a preparation of possible future research.
263

Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human Brain

Wolters, Carsten H. 28 November 2004 (has links) (PDF)
The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG. / Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\"uckstr\"ome im leitf\"ahigen Gewebe des Kopfes, die sog. {\em Sekund\"arstr\"ome}. Die Rekonstruktion der Dipolquellen wird das {\em EEG/MEG inverse Problem} genannt. Dessen L\"osung erfordert die wiederholte Berechnung des {\em Vorw\"arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\"ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\"olkerung betroffen sind und f\"ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\"ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\"aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\"angender Zentren im Gehirn, z.B.~des prim\"ar-mo\-to\-ri\-schen, des prim\"ar-au\-di\-to\-rischen oder prim\"ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\"onnten L\"ahmungen, H\"or- und Sensibilit\"atsst\"orungen vermieden werden. Dazu werden \"uber akustische oder sensorische Reize charakteristische Signale evoziert und \"uber Summationstechniken sichtbar gemacht. Durch das L\"osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\"uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\"ange im Gehirn und die Aufdeckung der aktivierten Areale w\"ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\"osung des Vorw\"artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\"adel, die Zerebrospinalfl\"ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\"ahigkeiten besitzen. Der menschliche Sch\"adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\"ahige spongi\"ose Schicht wird von zwei stark isolierenden Schichten, den \"au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\"adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\"adel demnach eine richtungsabh\"angige oder {\em anisotrope} Leitf\"ahigkeit mit einem gemessenen Verh\"altnis von bis zu 1 zu 10. F\"ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \"ahnlichen Verh\"altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\"ahigkeit der WM nicht-invasiv in gen\"ugender Aufl\"osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\"ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \"uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\"urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\"ankte Mobilit\"at \"uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\"atze f\"ur die L\"osung des Vor\-w\"arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\"oht sich die Komplexit\"at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\"aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \"ublicherweise drei Schichten, die die Kopfhaut, den Sch\"adel und das Gehirn repr\"asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\"achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\"ur isotrop leitf\"ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\"aten eingehen zu k\"onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\"ahigkeits-Anisotropien n\"otig und in welchen F\"allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\"onnen komplexe FE-Vorw\"artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\"ur inverse Quellrekonstruktionen in den Anwendungen zu gen\"ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \"Offnungen im Sch\"adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\"aten wie L\"asionen im Gehirn oder die Sutura des Sch\"adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\"assigbaren Einfluss auf das EEG/MEG-Vorw\"arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\"at zweier ausgew\"ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\"adel-Anisotropie nach. Insbesondere f\"ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\"at auf Sch\"adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\"assigbaren Einfluss auf die EEG/MEG-Vorw\"artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\"osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\"onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\"atz\-liche Annahmen \"uber die Quellen sind dementsprechend unerl\"asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\"arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\"oglichst genau erkl\"art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\"osung nimmt und die Algorithmen stabil in Bezug auf eine \"Ubersch\"atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\"onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\"o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\"a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \"uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\"a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\"ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\"adelkante \"uber ein Gl\"atten und Aufblasen der segmentierten Hirnoberfl\"ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\"atzte. \"Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\"ucksichtigung der MR-Inhomogenit\"aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\"adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\"attete Spongiosaoberfl\"ache darstellt und somit ein Abgreifen der Leitf\"ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\"oglicht. Die Eigenvektoren der WM-Tensoren wurden \"uber Ganzkopf-DT-MRT gemessen. Sch\"adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\"a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\"oste FE-Modellierung} des EEG/ MEG-Vorw\"artsproblems. Zun\"achst wurde ein \"Uberblick \"uber die Theorie gegeben und die praktische Realisierung der sp\"ater eingesetzten hochaufgel\"osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\"utzpunkte zur Gl\"attung an Gewebekanten nutzen, vorteilhaft sind zu herk\"ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\"ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\"osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\"osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\"oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\"ur das Verfahren der konjugierten Gradienten konnte f\"ur hochaufgel\"oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \"Uber\-blick \"uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\"asentiert. Es wurde zun\"achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\"uhrt. F\"ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\"arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\"ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\"urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\"uber einem sog. {\em Kal\-man-Gl\"atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\"at} durchgef\"uhrt. Der erste Teil bezog sich dabei auf das Vorw\"arts\-problem, wo die Resultate im Einklang mit der verf\"ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\"adelanisotropie einen nicht-vernachl\"assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\"o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\"ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\"ahigkeits\"anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\"usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\"achlich tangential orientierten oberfl\"achennahen Quelle besonders sensitiv gegen\"uber einer 1 zu 10 Sch\"adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\"adel re\-la\-tiv d\"unn) zu tief und im parietalen und okzipitalen Bereich (Sch\"adel relativ dick) zu oberfl\"achennah lokalisiert wurden, scheint eine Approximation der Sch\"adelanisotropie in BE-Modellen \"uber eine Anpassung des skalaren Sch\"adelleitf\"ahigkeitswertes nicht m\"oglich zu sein. Obwohl bei Vernachl\"assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\"ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24$^{\circ}$ und einer mehr als zweifach untersch\"atzten Quellst\"arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\"ur die Rekonstruktion der vier tangentialen oberfl\"achennahen Dipole, welche als Aktivit\"atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\"adel\-anisotropie als vernachl\"assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\"ur alle getesteten inversen Verfahren stark verf\"alscht. Anisotropie verschob das Aktivit\"ats\-zentrum von $L_1$ und $L_2$ Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung.
264

Shape Optimization for Acoustic Wave Propagation Problems

Udawalpola, Rajitha January 2010 (has links)
Boundary shape optimization is a technique to search for an optimal shape by modifying the boundary of a device with a pre-specified topology. We consider boundary shape optimization of acoustic horns in loudspeakers and brass wind instruments. A horn is an interfacial device, situated between a source, such as a waveguide or a transducer, and surrounding space. Horns are used to control both the transmission properties from the source and the spatial power distribution in the far-field (directivity patterns). Transmission and directivity properties of a horn are sensitive to the shape of the horn flare. By changing the horn flare we design transmission efficient horns. However, it is difficult to achieve both controllability of directivity patterns and high transmission efficiency by using only changes in the horn flare. Therefore we use simultaneous shape and so-called topology optimization to design a horn/acoustic-lens combination to achieve high transmission efficiency and even directivity. We also design transmission efficient interfacial devices without imposing an upper constraint on the mouth diameter. The results demonstrate that there appears to be a natural limit on the optimal mouth diameter. We optimize brasswind instruments with respect to its intonation properties. The instrument is modeled using a hybrid method between a one-dimensional transmission line analogy for the slowly flaring part of the instrument, and a finite element model for the rapidly flaring part. An experimental study is carried out to verify the transmission properties of optimized horn. We produce a prototype of an optimized horn and then measure the input impedance of the horn. The measured values agree reasonably well with the predicted optimal values. The finite element method and the boundary element method are used as discretization methods in the thesis. Gradient-based optimization methods are used for optimization, in which the gradients are supplied by the adjoint methods.
265

Αξιοποίηση της πληροφορικής στη μελέτη της νευροφυσιολογίας του εγκεφάλου

Δουλαβέρη, Αγγελική 14 February 2012 (has links)
Είναι γεγονός ότι τόσο το ευθύ όσο & το αντίστροφο EEG & MEG πρόβλημα έχει αποτελέσει αντικείμενο μελέτης ερευνητών διαφόρων ειδικοτήτων (των Μαθηματικών, της Πληροφορικής, των Φυσικών, των Ηλεκτρολόγων Μηχανικών & φυσικά της Ιατρικής), ήδη από τις δεκαετίες του 1950 & 1960, που αναζητούσαν τρόπους υπολογισμού του ηλεκτρικού & του μαγνητικού πεδίου που παράγουν στο εξωτερικό του εγκεφάλου δεδομένες πηγές που βρίσκονται στο εσωτερικό του (ευθέα προβλήματα EEG - MEG), είτε τρόπους προσδιορισμού των πηγών από μετρήσεις των πεδίων αυτών εξωτερικά του εγκεφάλου (αντίστροφα προβλήματα EEG - MEG). Όλα τα νευρικά σήματα του εγκεφάλου διαδίδονται μέσω μικρών ηλεκτρικών ρευμάτων, τα οποία παράγουν ηλεκτρικό & μαγνητικό πεδίο εντός & εκτός του εγκεφάλου λόγω του συζευγμένου χαρακτήρα του ηλεκτρομαγνητισμού για τα χρονικώς μεταβαλλόμενα φαινόμενα. Τα ηλεκτρικά πεδία & τα μαγνητικά πεδία που παράγονται καταγράφονται από το Ηλεκτροεγκεφαλογράφημα (EEG) & το Μαγνητοεγκεφαλογράφημα (MEG) αντίστοιχα. Στην παρούσα εργασία παρουσιάζουμε τα αποτελέσματα των ερευνών που έχουν καταγραφεί τα τελευταία χρόνια & έχουν δώσει χρήσιμες σχέσεις για το ηλεκτρικό & μαγνητικό πεδίο για τα διάφορα πρότυπα του εγκεφάλου & συγκεκριμένα του σφαιρικού, του σφαιροειδούς & του ελλειψοειδούς προτύπου. Επίσης αναλύεται η αναγωγή προς το σφαιρικό πρότυπο από τα άλλα δύο πρότυπα για να αποδειχθεί ότι τελικά η σφαιρική συμπεριφορά αποκαθίσταται & αναφέρονται ποιες είναι οι σιωπηλές πηγές που δεν συνεισφέρουν στην δημιουργία του μαγνητικού πεδίου στα διάφορα πρότυπα. Τέλος γίνεται αναφορά στο αντίστροφο πρόβλημα του ΗΕΓ που δεν έχει μοναδική λύση & αναφέρουμε πως μπορεί να επιλυθεί αρκεί από τα δεδομένα που έχουμε για το ηλεκτρικό πεδίο να έχει εξαλειφθεί ο θόρυβος με κάποιες μεθόδους που εξηγούνται. Αντικείμενο της εργασίας είναι αρχικά να περιγράψει τη μεθοδολογία για την ανάλυση του ηλεκτρικού πεδίου σε καρτεσιανές συντεταγμένες όσον αφορά το ελλειψοειδές πρότυπο του εγκεφάλου, που είναι & το βέλτιστο δεδομένου ότι ο μέσος εγκέφαλος είναι ελλειψοειδής με άξονες 9, 6.5, 6 cm. Στη συνέχεια δημιουργήσαμε ένα πρόγραμμα σε matlab με σκοπό την καταγραφή των πειραματικών αποτελεσμάτων (που είναι ο προσδιορισμός της πηγής & της θέσης της) & την τρισδιάστατη γραφική παράστασή τους από την παραμετρική ανάλυσή του ηλεκτρικού πεδίου. Στόχος μας ήταν η εύρεση & η σύγκριση των πηγών & των θέσεων που αυτές εντοπίζονται στο εσωτερικό του εγκεφάλου υπό διάφορες συνθήκες που καθορίζονται από την μεταβολή διαφόρων παραμέτρων όπως το πεδίο τιμών των μετρήσεων & των σφαλμάτων τους. / The fact is that both the EEG & MEG problems and the EEG & MEG inverse problems have been studied by researchers of various disciplines (Mathematics, Informatics, Physics, Electrical Engineering & Medicine), since 1950 and 1960, that have been seeking for ways of calculating the electrical and the magnetic field that are produced outside the brain by given sources located within the brain (EEG – MEG problems), or for methods of determining the sources from the measurement of these fields outside the brain (EEG – MEG inverse problems). All the nerve signals of the brain propagate via small electric currents, which produce electric and magnetic fields within and outside the brain due to the coupled nature of electromagnetism for the time-varying phenomena. Electric and magnetic fields, that are generated, are recorded by EEG recording (EEG) & the MEG recording (MEG), respectively. In this work we present the results of surveys in the recent years that have given useful relations for the electric and magnetic field for various models of the brain and in particular the spherical, the spheroid and the ellipsoid model. We also analyzed the reduction in the spherical model from the other two models in order to demonstrate that finally the spherical behavior is restored. Moreover, we listed the silent sources that do not contribute to the creation of the magnetic field in the various models. Finally, we refer to the EEG inverse problem that has not a unique solution and we refer how it can be solved provided that the noise is removed from the data we have - regarding the electric field- with some methods that are explained. The scope of this work is to describe at first the methodology for the analysis of the electric field for the ellipsoid model of the brain (that is the optimal model since the average brain is ellipsoid with axes 9, 6.5, 6 cm) in cartesian coordinates. Then we create a program in matlab in order to record the results, as far as the source and the position of the source are concerned, and their three-dimensional graphics. Our goal is to find and compare the vectors of the sources and the vectors of the positions that these sources are located within the brain, under various conditions determined by changing the various parameters such as the measurement parameters and the errors of the measurement parameters.
266

Desenvolvimento de uma técnica experimental para a estimativa de propriedades térmicas usando uma única superfície de acesso "in situ" / Development of the experimental thecnique to Estimation the thermal properties using only one surface "in situ"

Malheiros, Fernando Costa 18 May 2017 (has links)
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / FAPEMIG - Fundação de Amparo a Pesquisa do Estado de Minas Gerais / Este trabalho apresenta um novo método experimental desenvolvido para a obtenção simult ânea da condutividade e difusividade térmica em materiais sólidos. O método se baseia na utilização de um novo aparato experimental na superfície que possui uma resistência elétrica para aquecimento, dois termopares e um sensor de medição de uxo de calor. A amostra é parcialmente aquecida em uma superfície frontal. Duas regiões da superfície frontal, aquecida e não aquecida, são usadas para estimar as propriedades térmicas. A técnica se baseia na minimização de duas funções distintas. Ambos são de nidos a partir das mesmas medições de temperatura na superfície frontal, mas usando diferentes conceitos térmicos. A primeira usa uma razão de ganho entre duas temperaturas medidas na superfície para a identi cação da difusividade térmica. A segunda é de nido pela conhecida função de erro quadrático calculada entre os valores experimentais e teóricos para as mesmas temperaturas super ciais. Este segundo procedimento permite a estimativa da condutividade térmica. Em adição, apresentase um estudo sobre o comportamento de alguns parâmetros que in uenciam o conceito de razão de ganho de temperatura. As propriedades foram mensuradas em duas amostras diferentes, PVC e cobre, materiais não condutor e condutor, com o desvio inferior a 2% dos valores encontrados na literatura. Após as estimativas experimentais, os modelos térmicos originais foram reduzidos a outros modelos simpli cados. Uma nova função para estimar a difusividade térmica foi proposta usando o modelo térmico simpli cado com a mesma ideia da razão de ganho entre duas temperaturas medidas na superfície. A condutividade térmica é determinada com o mesmo conceito quando se usa o modelo original, mas é necessária uma nova posição de medição de temperatura experimental sob o centro do uxo de calor. Esses modelos reduzidos usam apenas uma superfície para estimar as propriedades térmicas. Os resultados da estimativa de propriedades são os mesmos usando o modelo original ou os modelos reduzidos, mas tem uma diminuição signi cativa no tempo computacional usando os modelos reduzidos devido ao tempo para minimizar as funções. Dessa forma, esta técnica tem todos os requisitos para ser aplicada em medições "in situ". / This work presents a new experimental method developed for obtaining, simultaneously, the thermal conductivity and thermal di usivity of solid materials. The method is based on the use of a new surface probe that has one resistance heater, two termocouples, and one heat ux sensor. The sample is partially heated in a frontal surface. Two regions, heated and non-heated front surface are used to estimate the thermal properties. The technique relies on the minimization of two distinct functions. Both are de ned from the same frontal surface temperature measurements, but using di erent thermal concepts. The rst uses a gain ratio between two surface temperatures for the identi cation of the thermal di usivity. The second is de ned by the well-known square quadratic error function calculated between the experimental and theoretical values of the same surface temperatures. This second procedure allows the estimation of thermal conductivity. In addition, has a study about the behaviour of some parameters that in uence the a gain ratio temperatura concept. The properties were mensure in two di erent sample, PVC and coopper, non-condutor and conductor materials with the deviation less than 1% of the values found in literature. After mensurements, the original thermal models were reduced to others more simple. A new function to mensure the thermal di usivity was proposed using the simple thermal model wiht the same ideia of the gain ratio between two surface temperature measurements. The thermal conductivy is determinated with the same concept when use the original model, but a new position of mensurement of experimental temperatura under the center of the heat ux is necessary. Those reduced models use only one surface to estimate the thermal properties. The results of the properties estimation are the same using the original or the reduce models, but has a signi cant reduction in computacional estimation time using the reduce models because of the time to minimize the functions. So, this thecnique has all requirements to be applied in in situ measurements. / Tese (Doutorado)
267

Problemas inversos aplicados à identificação de parâmetros hidrodinâmicos de um modelo do estuário do rio Macaé / Inverse problems applied to the identication of hydrodynamic parameters of a model of the Macae river estuary

Edgar Barbosa Lima 27 February 2012 (has links)
Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Esta tese tem por objetivo propor uma estratégia de obtenção automática de parâmetros hidrodinâmicos e de transporte através da solução de problemas inversos. A obtenção dos parâmetros de um modelo físico representa um dos principais problemas em sua calibração, e isso se deve em grande parte à dificuldade na medição em campo desses parâmetros. Em particular na modelagem de rios e estuários, a altura da rugosidade e o coeficiente de difusão turbulenta representam dois dos parâmetros com maior dificuldade de medição. Nesta tese é apresentada uma técnica automatizada de estimação desses parâmetros através deum problema inverso aplicado a um modelo do estuário do rio Macaé, localizado no norte do Rio de Janeiro. Para este estudo foi utilizada a plataforma MOHID, desenvolvida na Universidade Técnica de Lisboa, e que tem tido ampla aplicação na simulação de corpos hídricos. Foi realizada uma análise de sensibilidade das respostas do modelo com relação aos parâmetros de interesse. Verificou-se que a salinidade é uma variável sensível a ambos parâmetros. O problema inverso foi então resolvido utilizando vários métodos de otimização através do acoplamento da plataforma MOHID a códigos de otimização implementados em Fortran. O acoplamento foi realizado de forma a não alterar o código fonte do MOHID, possibilitando a utilização da ferramenta computacional aqui desenvolvida em qualquer versão dessa plataforma, bem como a sua alteração para o uso com outros simuladores. Os testes realizados confirmam a eficiência da técnica e apontam as melhores abordagens para uma rápida e precisa estimação dos parâmetros. / This thesis presents a strategy for automatically obtaining hydrodynamic and transport parameters by means of the solution of inverse problems. Obtaining the parameters of a physical model represents a major problem in its calibration, and this is largely due to the difficulty associated to the field measurements of these parameters. In particular by modeling rivers and estuaries, the roughness height and the turbulent diffusion coefficient represent two of the most difficult parameters to measure or estimate. Here, an automated technique for estimation of these parameters through an inverse problem is applied to a model of the Macaé estuary, located in northern Rio de Janeiro. For this investigation, hydrodynamic and transport models were built in the MOHID platform, developed in the Technical University of Lisbon, which has had wide application in simulation of water bodies. A sensitivity analysis was performed regarding the model responses with respect to the parameters of interest. It was verified that salinity is a sensitive variable for both parameters. The inverse problem was then solved using various optimization methods by coupling the MOHID platform to optimization codes implemented in Fortran. The coupling was carried in a way to not change the MOHID source code, allowing the use of the computational tool here developed in any version of this platform, as well as its modification for use with other simulators. The tests confirm the efficiency of the technique and suggest the best approaches for a fast and accurate estimation of the parameters.
268

Détection et caractérisation d'exoplanètes dans des images à grand contraste par la résolution de problème inverse / Detection and characterization of exoplanets in high contrast images by the inverse problem approach

Cantalloube, Faustine 30 September 2016 (has links)
L’imagerie d’exoplanètes permet d’obtenir de nombreuses informations sur la lumière qu’elles émettent, l’interaction avec leur environnement et sur leur nature. Afin d’extraire l’information des images, il est indispensable d’appliquer des méthodes de traitement d’images adaptées aux instruments. En particulier, il faut séparer les signaux planétaires des tavelures présentes dans les images qui sont dues aux aberrations instrumentales quasi-statiques. Dans mon travail de thèse je me suis intéressée à deux méthodes innovantes de traitement d’images qui sont fondés sur la résolution de problèmes inverses.La première méthode, ANDROMEDA, est un algorithme dédié à la détection et à la caractérisation de point sources dans des images haut contraste via une approche maximum de vraisemblance. ANDROMEDA exploite la diversité temporelle apportée par la rotation de champ de l’image (où se trouvent les objets astrophysiques) alors que la pupille (où les aberrations prennent naissance) est gardée fixe. A partir de l’application sur données réelles de l’algorithme dans sa version originale, j’ai proposé et qualifié des améliorations afin de prendre en compte les résidus non modélisés par la méthode tels que les structures bas ordres variant lentement et le niveau résiduel de bruit correlé dans les données. Une fois l’algorithme ANDROMEDA opérationnel, j’ai analysé ses performances et sa sensibilité aux paramètres utilisateurs, montrant la robustesse de la méthode. Une comparaison détaillée avec les algorithmes les plus utilisés dans la communauté a prouvé que cet algorithme est compétitif avec des performances très intéressantes dans le contexte actuel. En particulier, il s’agit de la seule méthode qui permet une détection entièrement non-supervisée. De plus, l’application à de nombreuses données ciel venant d’instruments différents a prouvé la fiabilité de la méthode et l’efficacité à extraire rapidement et systématiquement (avec un seul paramètre utilisateur à ajuster) les informations contenues dans les images. Ces applications ont aussi permis d’ouvrir des perspectives pour adapter cet outil aux grands enjeux actuels de l’imagerie d’exoplanètes.La seconde méthode, MEDUSAE, consiste à estimer conjointement les aberrations et les objets d’intérêt scientifique, en s’appuyant sur un modèle de formation d’images coronographiques. MEDUSAE exploite la redondance d’informations apportée par des images multi-spectrales. Afin de raffiner la stratégie d’inversion de la méthode et d’identifier les paramètres les plus critiques, j’ai appliqué l’algorithme sur des données générées avec le modèle utilisé dans l’inversion. J’ai ensuite appliqué cette méthode à des données simulées plus réalistes afin d’étudier l’impact de la différence entre le modèle utilisé dans l’inversion et les données réelles. Enfin, j’ai appliqué la méthode à des données réelles et les résultats préliminaires que j’ai obtenus ont permis d’identifier les informations importantes dont la méthode a besoin et ainsi de proposer plusieurs pistes de travail qui permettraient de rendre cet algorithme opérationnel sur données réelles. / Direct imaging of exoplanets provides valuable information about the light they emit, their interactions with their host star environment and their nature. In order to image such objects, advanced data processing tools adapted to the instrument are needed. In particular, the presence of quasi-static speckles in the images, due to optical aberrations distorting the light from the observed star, prevents planetary signals from being distinguished. In this thesis, I present two innovative image processing methods, both based on an inverse problem approach, enabling the disentanglement of the quasi-static speckles from the planetary signals. My work consisted of improving these two algorithms in order to be able to process on-sky images.The first one, called ANDROMEDA, is an algorithm dedicated to point source detection and characterization via a maximum likelihood approach. ANDROMEDA makes use of the temporal diversity provided by the image field rotation during the observation, to recognize the deterministic signature of a rotating companion over the stellar halo. From application of the original version on real data, I have proposed and qualified improvements in order to deal with the non-stable large scale structures due to the adaptative optics residuals and with the remaining level of correlated noise in the data. Once ANDROMEDA became operational on real data, I analyzed its performance and its sensitivity to the user-parameters proving the robustness of the algorithm. I also conducted a detailed comparison to the other algorithms widely used by the exoplanet imaging community today showing that ANDROMEDA is a competitive method with practical advantages. In particular, it is the only method that allows a fully unsupervised detection. By the numerous tests performed on different data set, ANDROMEDA proved its reliability and efficiency to extract companions in a rapid and systematic way (with only one user parameter to be tuned). From these applications, I identified several perspectives whose implementation could significantly improve the performance of the pipeline.The second algorithm, called MEDUSAE, consists in jointly estimating the aberrations (responsible for the speckle field) and the circumstellar objects by relying on a coronagraphic image formation model. MEDUSAE exploits the spectral diversity provided by multispectral data. In order to In order to refine the inversion strategy and probe the most critical parameters, I applied MEDUSAE on a simulated data set generated with the model used in the inversion. To investigate further the impact of the discrepancy between the image model used and the real images, I applied the method on realistic simulated images. At last, I applied MEDUSAE on real data and from the preliminary results obtained, I identified the important input required by the method and proposed leads that could be followed to make this algorithm operational to process on-sky data.
269

Transport optimal pour l'assimilation de données images / Optimal transportation for images data assimilation

Feyeux, Nelson 08 December 2016 (has links)
Pour prédire l'évolution d'un système physique, nous avons besoin d'initialiser le modèle mathématique le représentant, donc d'estimer la valeur de l'état du système au temps initial. Cet état n'est généralement pas directement mesurable car souvent trop complexe. En revanche, nous disposons d'informations du système, prises à des temps différents, incomplètes, mais aussi entachées d'erreurs, telles des observations, de précédentes estimations, etc. Combiner ces différentes informations partielles et imparfaites pour estimer la valeur de l'état fait appel à des méthodes d'assimilation de données dont l'idée est de trouver un état initial proche de toutes les informations. Ces méthodes sont très utilisées en météorologie. Nous nous intéressons dans cette thèse à l'assimilation d'images, images qui sont de plus en plus utilisées en tant qu'observations. La spécificité de ces images est leur cohérence spatiale, l'oeil humain peut en effet percevoir des structures dans les images que les méthodes classiques d'assimilation ne considèrent généralement pas. Elles ne tiennent compte que des valeurs de chaque pixel, ce qui résulte dans certains cas à des problèmes d'amplitude dans l'état initial estimé. Pour résoudre ce problème, nous proposons de changer d'espace de représentation des données : nous plaçons les données dans un espace de Wasserstein où la position des différentes structures compte. Cet espace, équipé d'une distance de Wasserstein, est issue de la théorie du transport optimal et trouve beaucoup d'applications en imagerie notamment.Dans ce travail nous proposons une méthode d'assimilation variationnelle de données basée sur cette distance de Wasserstein. Nous la présentons ici, ainsi que les algorithmes numériques liés et des expériences montrant ses spécificités. Nous verrons dans les résultats comment elle permet de corriger ce qu'on appelle erreurs de position. / Forecasting of a physical system is computed by the help of a mathematical model. This model needs to be initialized by the state of the system at initial time. But this state is not directly measurable and data assimilation techniques are generally used to estimate it. They combine all sources of information such as observations (that may be sparse in time and space and potentially include errors), previous forecasts, the model equations and error statistics. The main idea of data assimilation techniques is to find an initial state accounting for the different sources of informations. Such techniques are widely used in meteorology, where data and particularly images are more and more numerous due to the increasing number of satellites and other sources of measurements. This, coupled with developments of meteorological models, have led to an ever-increasing quality of the forecast.Spatial consistency is one specificity of images. For example, human eyes are able to notice structures in an image. However, classical methods of data assimilation do not handle such structures because they take only into account the values of each pixel separately. In some cases it leads to a bad initial condition. To tackle this problem, we proposed to change the representation of an image: images are considered here as elements of the Wasserstein space endowed with the Wasserstein distance coming from the optimal transport theory. In this space, what matters is the positions of the different structures.This thesis presents a data assimilation technique based on this Wasserstein distance. This technique and its numerical procedure are first described, then experiments are carried out and results shown. In particularly, it appears that this technique was able to give an analysis of corrected position.
270

Efficient high-dimension gaussian sampling based on matrix splitting : application to bayesian Inversion / Échantillonnage gaussien en grande dimension basé sur le principe du matrix splitting. : application à l’inversion bayésienne

Bӑrbos, Andrei-Cristian 10 January 2018 (has links)
La thèse traite du problème de l’échantillonnage gaussien en grande dimension.Un tel problème se pose par exemple dans les problèmes inverses bayésiens en imagerie où le nombre de variables atteint facilement un ordre de grandeur de 106_109.La complexité du problème d’échantillonnage est intrinsèquement liée à la structure de la matrice de covariance. Pour résoudre ce problème différentes solutions ont déjà été proposées,parmi lesquelles nous soulignons l’algorithme de Hogwild qui exécute des mises à jour de Gibbs locales en parallèle avec une synchronisation globale périodique.Notre algorithme utilise la connexion entre une classe d’échantillonneurs itératifs et les solveurs itératifs pour les systèmes linéaires. Il ne cible pas la distribution gaussienne requise, mais cible une distribution approximative. Cependant, nous sommes en mesure de contrôler la disparité entre la distribution approximative est la distribution requise au moyen d’un seul paramètre de réglage.Nous comparons d’abord notre algorithme avec les algorithmes de Gibbs et Hogwild sur des problèmes de taille modérée pour différentes distributions cibles. Notre algorithme parvient à surpasser les algorithmes de Gibbs et Hogwild dans la plupart des cas. Notons que les performances de notre algorithme dépendent d’un paramètre de réglage.Nous comparons ensuite notre algorithme avec l’algorithme de Hogwild sur une application réelle en grande dimension, à savoir la déconvolution-interpolation d’image.L’algorithme proposé permet d’obtenir de bons résultats, alors que l’algorithme de Hogwild ne converge pas. Notons que pour des petites valeurs du paramètre de réglage, notre algorithme ne converge pas non plus. Néanmoins, une valeur convenablement choisie pour ce paramètre permet à notre échantillonneur de converger et d’obtenir de bons résultats. / The thesis deals with the problem of high-dimensional Gaussian sampling.Such a problem arises for example in Bayesian inverse problems in imaging where the number of variables easily reaches an order of 106_109. The complexity of the sampling problem is inherently linked to the structure of the covariance matrix. Different solutions to tackle this problem have already been proposed among which we emphasizethe Hogwild algorithm which runs local Gibbs sampling updates in parallel with periodic global synchronisation.Our algorithm makes use of the connection between a class of iterative samplers and iterative solvers for systems of linear equations. It does not target the required Gaussian distribution, instead it targets an approximate distribution. However, we are able to control how far off the approximate distribution is with respect to the required one by means of asingle tuning parameter.We first compare the proposed sampling algorithm with the Gibbs and Hogwild algorithms on moderately sized problems for different target distributions. Our algorithm manages to out perform the Gibbs and Hogwild algorithms in most of the cases. Let us note that the performances of our algorithm are dependent on the tuning parameter.We then compare the proposed algorithm with the Hogwild algorithm on a large scalereal application, namely image deconvolution-interpolation. The proposed algorithm enables us to obtain good results, whereas the Hogwild algorithm fails to converge. Let us note that for small values of the tuning parameter our algorithm fails to converge as well.Not with standing, a suitably chosen value for the tuning parameter enables our proposed sampler to converge and to deliver good results.

Page generated in 0.0321 seconds