• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 4
  • 4
  • 1
  • Tagged with
  • 23
  • 23
  • 11
  • 9
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Algebraic analysis of V-cycle multigrid and aggregation-based two-grid methods

Napov, Artem 12 February 2010 (has links)
This thesis treats two essentially different subjects: V-cycle schemes are considered in Chapters 2-4, whereas the aggregation-based coarsening is analysed in Chapters 5-6. As a matter of paradox, these two multigrid ingredients, when combined together, can hardly lead to an optimal algorithm. Indeed, a V-cycle needs more accurate prolongations than the simple piecewise-constant one, associated to aggregation-based coarsening. On the other hand, aggregation-based approaches use almost exclusively piecewise constant prolongations, and therefore need more involved cycling strategies, K-cycle <a href=http://www3.interscience.wiley.com/journal/114286660/abstract?CRETRY=1&SRETRY=0>[Num.Lin.Alg.Appl., vol.15(2008), pp.473-487]</a> being an attractive alternative in this respect. <br> <br> Chapter 2 considers more precisely the well-known V-cycle convergence theories: the approximation property based analyses by Hackbusch (see [Multi-Grid Methods and Applications, 1985, pp.164-167]) and by McCormick [SIAM J.Numer.Anal., vol.22(1985), pp.634-643] and the successive subspace correction theory, as presented in [SIAM Review, vol.34(1992), pp.581-613] by Xu and in [Acta Numerica, vol.2(1993), pp.285-326.] by Yserentant. Under the constraint that the resulting upper bound on the convergence rate must be expressed with respect to parameters involving two successive levels at a time, these theories are compared. Unlike [Acta Numerica, vol.2(1993), pp.285-326.], where the comparison is performed on the basis of underlying assumptions in a particular PDE context, we compare directly the upper bounds. We show that these analyses are equivalent from the qualitative point of view. From the quantitative point of view, we show that the bound due to McCormick is always the best one. <br> <br> When the upper bound on the V-cycle convergence factor involves only two successive levels at a time, it can further be compared with the two-level convergence factor. Such comparison is performed in Chapter 3, showing that a nice two-grid convergence (at every level) leads to an optimal McCormick's bound (the best bound from the previous chapter) if and only if a norm of a given projector is bounded on every level. <br> <br> In Chapter 4 we consider the Fourier analysis setting for scalar PDEs and extend the comparison between two-grid and V-cycle multigrid methods to the smoothing factor. In particular, a two-sided bound involving the smoothing factor is obtained that defines an interval containing both the two-grid and V-cycle convergence rates. This interval is narrow when an additional parameter α is small enough, this latter being a simple function of Fourier components. <br> <br> Chapter 5 provides a theoretical framework for coarsening by aggregation. An upper bound is presented that relates the two-grid convergence factor with local quantities, each being related to a particular aggregate. The bound is shown to be asymptotically sharp for a large class of elliptic boundary value problems, including problems with anisotropic and discontinuous coefficients. <br> <br> In Chapter 6 we consider problems resulting from the discretization with edge finite elements of 3D curl-curl equation. The variables in such discretization are associated with edges. We investigate the performance of the Reitzinger and Schöberl algorithm [Num.Lin.Alg.Appl., vol.9(2002), pp.223-238], which uses aggregation techniques to construct the edge prolongation matrix. More precisely, we perform a Fourier analysis of the method in two-grid setting, showing its optimality. The analysis is supplemented with some numerical investigations.
12

Méthodes multigrilles pour les jeux stochastiques à deux joueurs et somme nulle, en horizon infini

Detournay, Sylvie 25 September 2012 (has links) (PDF)
Dans cette thèse, nous proposons des algorithmes et présentons des résultats numériques pour la résolution de jeux répétés stochastiques, à deux joueurs et somme nulle dont l'espace d'état est de grande taille. En particulier, nous considérons la classe de jeux en information complète et en horizon infini. Dans cette classe, nous distinguons d'une part le cas des jeux avec gain actualisé et d'autre part le cas des jeux avec gain moyen. Nos algorithmes, implémentés en C, sont principalement basés sur des algorithmes de type itérations sur les politiques et des méthodes multigrilles. Ces algorithmes sont appliqués soit à des équations de la programmation dynamique provenant de problèmes de jeux à deux joueurs à espace d'états fini, soit à des discrétisations d'équations de type Isaacs associées à des jeux stochastiques différentiels. Dans la première partie de cette thèse, nous proposons un algorithme qui combine l'algorithme des itérations sur les politiques pour les jeux avec gain actualisé à des méthodes de multigrilles algébriques utilisées pour la résolution des systèmes linéaires. Nous présentons des résultats numériques pour des équations d'Isaacs et des inéquations variationnelles. Nous présentons également un algorithme d'itérations sur les politiques avec raffinement de grilles dans le style de la méthode FMG. Des exemples sur des inéquations variationnelles montrent que cet algorithme améliore de façon non négligeable le temps de résolution de ces inéquations. Pour le cas des jeux avec gain moyen, nous proposons un algorithme d'itération sur les politiques pour les jeux à deux joueurs avec espaces d'états et d'actions finis, dans le cas général multichaine (c'est-à-dire sans hypothèse d'irréductibilité sur les chaînes de Markov associées aux stratégies des deux joueurs). Cet algorithme utilise une idée développée dans Cochet-Terrasson et Gaubert (2006). Cet algorithme est basé sur la notion de projecteur spectral non-linéaire d'opérateurs de la programmation dynamique de jeux à un joueur (lequel est monotone et convexe). Nous montrons que la suite des valeurs et valeurs relatives satisfont une propriété de monotonie lexicographique qui implique que l'algorithme termine en temps fini. Nous présentons des résultats numériques pour des jeux discrets provenant d'une variante des jeux de Richman et sur des problèmes de jeux de poursuite. Finalement, nous présentons de nouveaux algorithmes de multigrilles algébriques pour la résolution de systèmes linéaires singuliers particuliers. Ceux-ci apparaissent, par exemple, dans l'algorithme d'itérations sur les politiques pour les jeux stochastiques à deux joueurs et somme nulle avec gain moyen, décrit ci-dessus. Nous introduisons également une nouvelle méthode pour la recherche de mesures invariantes de chaînes de Markov irréductibles basée sur une approche de contrôle stochastique. Nous présentons un algorithme qui combine les itérations sur les politiques d'Howard et des itérations de multigrilles algébriques pour les systèmes linéaires singuliers.
13

Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human Brain

Wolters, Carsten H. 28 November 2004 (has links) (PDF)
The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG. / Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\"uckstr\"ome im leitf\"ahigen Gewebe des Kopfes, die sog. {\em Sekund\"arstr\"ome}. Die Rekonstruktion der Dipolquellen wird das {\em EEG/MEG inverse Problem} genannt. Dessen L\"osung erfordert die wiederholte Berechnung des {\em Vorw\"arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\"ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\"olkerung betroffen sind und f\"ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\"ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\"aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\"angender Zentren im Gehirn, z.B.~des prim\"ar-mo\-to\-ri\-schen, des prim\"ar-au\-di\-to\-rischen oder prim\"ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\"onnten L\"ahmungen, H\"or- und Sensibilit\"atsst\"orungen vermieden werden. Dazu werden \"uber akustische oder sensorische Reize charakteristische Signale evoziert und \"uber Summationstechniken sichtbar gemacht. Durch das L\"osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\"uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\"ange im Gehirn und die Aufdeckung der aktivierten Areale w\"ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\"osung des Vorw\"artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\"adel, die Zerebrospinalfl\"ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\"ahigkeiten besitzen. Der menschliche Sch\"adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\"ahige spongi\"ose Schicht wird von zwei stark isolierenden Schichten, den \"au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\"adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\"adel demnach eine richtungsabh\"angige oder {\em anisotrope} Leitf\"ahigkeit mit einem gemessenen Verh\"altnis von bis zu 1 zu 10. F\"ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \"ahnlichen Verh\"altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\"ahigkeit der WM nicht-invasiv in gen\"ugender Aufl\"osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\"ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \"uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\"urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\"ankte Mobilit\"at \"uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\"atze f\"ur die L\"osung des Vor\-w\"arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\"oht sich die Komplexit\"at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\"aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \"ublicherweise drei Schichten, die die Kopfhaut, den Sch\"adel und das Gehirn repr\"asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\"achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\"ur isotrop leitf\"ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\"aten eingehen zu k\"onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\"ahigkeits-Anisotropien n\"otig und in welchen F\"allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\"onnen komplexe FE-Vorw\"artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\"ur inverse Quellrekonstruktionen in den Anwendungen zu gen\"ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \"Offnungen im Sch\"adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\"aten wie L\"asionen im Gehirn oder die Sutura des Sch\"adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\"assigbaren Einfluss auf das EEG/MEG-Vorw\"arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\"at zweier ausgew\"ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\"adel-Anisotropie nach. Insbesondere f\"ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\"at auf Sch\"adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\"assigbaren Einfluss auf die EEG/MEG-Vorw\"artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\"osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\"onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\"atz\-liche Annahmen \"uber die Quellen sind dementsprechend unerl\"asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\"arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\"oglichst genau erkl\"art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\"osung nimmt und die Algorithmen stabil in Bezug auf eine \"Ubersch\"atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\"onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\"o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\"a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \"uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\"a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\"ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\"adelkante \"uber ein Gl\"atten und Aufblasen der segmentierten Hirnoberfl\"ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\"atzte. \"Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\"ucksichtigung der MR-Inhomogenit\"aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\"adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\"attete Spongiosaoberfl\"ache darstellt und somit ein Abgreifen der Leitf\"ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\"oglicht. Die Eigenvektoren der WM-Tensoren wurden \"uber Ganzkopf-DT-MRT gemessen. Sch\"adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\"a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\"oste FE-Modellierung} des EEG/ MEG-Vorw\"artsproblems. Zun\"achst wurde ein \"Uberblick \"uber die Theorie gegeben und die praktische Realisierung der sp\"ater eingesetzten hochaufgel\"osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\"utzpunkte zur Gl\"attung an Gewebekanten nutzen, vorteilhaft sind zu herk\"ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\"ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\"osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\"osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\"oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\"ur das Verfahren der konjugierten Gradienten konnte f\"ur hochaufgel\"oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \"Uber\-blick \"uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\"asentiert. Es wurde zun\"achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\"uhrt. F\"ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\"arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\"ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\"urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\"uber einem sog. {\em Kal\-man-Gl\"atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\"at} durchgef\"uhrt. Der erste Teil bezog sich dabei auf das Vorw\"arts\-problem, wo die Resultate im Einklang mit der verf\"ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\"adelanisotropie einen nicht-vernachl\"assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\"o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\"ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\"ahigkeits\"anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\"usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\"achlich tangential orientierten oberfl\"achennahen Quelle besonders sensitiv gegen\"uber einer 1 zu 10 Sch\"adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\"adel re\-la\-tiv d\"unn) zu tief und im parietalen und okzipitalen Bereich (Sch\"adel relativ dick) zu oberfl\"achennah lokalisiert wurden, scheint eine Approximation der Sch\"adelanisotropie in BE-Modellen \"uber eine Anpassung des skalaren Sch\"adelleitf\"ahigkeitswertes nicht m\"oglich zu sein. Obwohl bei Vernachl\"assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\"ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24$^{\circ}$ und einer mehr als zweifach untersch\"atzten Quellst\"arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\"ur die Rekonstruktion der vier tangentialen oberfl\"achennahen Dipole, welche als Aktivit\"atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\"adel\-anisotropie als vernachl\"assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\"ur alle getesteten inversen Verfahren stark verf\"alscht. Anisotropie verschob das Aktivit\"ats\-zentrum von $L_1$ und $L_2$ Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung.
14

Método multigrid algébrico: reutilização das estruturas multigrid no transporte de contaminantes / Algebraic multigrid method: the multigrid structures reuse in contaminant transport

Santos, João Paulo Martins dos 31 August 2015 (has links)
A necessidade de obter solução de grandes sistemas lineares resultantes de processos de discretização de equações diferenciais parciais provenientes da modelagem de diferentes fenômenos físicos conduz à busca de técnicas numéricas escaláveis. Métodos multigrid são classificados como algoritmos escaláveis.Um estimador de erros deve estar associado à solução numérica do problema discreto de modo a propiciar a adequada avaliação da solução obtida pelo processo de aproximação. Nesse contexto, a presente tese caracteriza-se pela proposta de reutilização das estruturas matriciais hierárquicas de operadores de transferência e restrição dos métodos multigrid algébricos para acelerar o tempo de solução dos sistemas lineares associados à equação do transporte de contaminantes em meio poroso saturado. Adicionalmente, caracteriza-se pela implementação das estimativas residuais para os problemas que envolvem dados constantes ou não constantes, os regimes de pequena ou grande advecção e pela proposta de utilização das estimativas residuais associadas ao termo de fonte e à condição inicial para construir procedimentos adaptativos para os dados do problema. O desenvolvimento dos códigos do método de elementos finitos, do estimador residual e dos procedimentos adaptativos foram baseados no projeto FEniCS, utilizando a linguagem de programação PYTHONR e desenvolvidos na plataforma Eclipse. A implementação dos métodos multigrid algébricos com reutilização considera a biblioteca PyAMG. Baseado na reutilização das estruturas hierárquicas, os métodos multigrid com reutilização com parâmetro fixo e automática são propostos, e esses conceitos são estendidos para os métodos iterativos não-estacionários tais como GMRES e BICGSTAB. Os resultados numéricos mostraram que o estimador residual captura o comportamento do erro real da solução numérica, e fornece algoritmos adaptativos para os dados cuja malha retornada produz uma solução numérica similar à uma malha uniforme com mais elementos. Adicionalmente, os métodos com reutilização são mais rápidos que os métodos que não empregam o processo de reutilização de estruturas. Além disso, a eficiência dos métodos com reutilização também pode ser observada na solução do problema auxiliar, o qual é necessário para obtenção das estimativas residuais para o regime de grande advecção. Esses resultados englobam tanto os métodos multigrid algébricos do tipo SA quanto os métodos pré-condicionados por métodos multigrid algébrico SA, e envolvem o transporte de contaminantes em regime de pequena e grande advecção, malhas estruturadas e não estruturadas, problemas bidimensionais, problemas tridimensionais e domínios com diferentes escalas. / The need for solving large linear systems arising from the discretization of partial differential equations modelling physical phenomena motivates the search for scalable numerical techniques. Multigrid algorithms are instances of such techniques.In order to provide a suitable assessment of the solution obtained by such algorithms, an error estimator must be associated to the numerical solution of the discretized problem. In this context, this thesis proposes the reutilization of the hierarchical matrix structures of transfer operators and the restriction to algebraic multigrid methods to speed up the process of solving the linear systems associated with the contaminant transport equation in saturated porous media. In addition, it features the implementation of residual estimates for problems involving constant or non-constant data, the regimes of small- or large-scale advection and the proposal of employing the residual estimates associated to the source term and to the initial condition to build adaptive procedures for the problem data. The development of the computer codes of the finite element method, residual estimator and adaptive procedures were based on the FEniCS project, using the programming language PYTHONR and developed on the Eclipse platform. The implementation of the algebraic methods with reutilization relied upon the libray PyAMG. Grounding on the idea of reutilizing the hierarchical structures, fixed and automatic parameters multigrid methods were proposed and extended to non-stationary iterative methods such as GMRES and BICGSTAB. The numerical results demonstrate that the residual estimator captures the behavior of the real error of the numerical solution, and provide adaptive algorithms for the data whose output mesh yields a numerical solution alike to that obtained from a uniform mesh with more elements. Moreover, the methods with reutilization are faster than those that do not reuse the structures. Besides, the efficiency of such methods can also be observed in the solution of an auxiliary problem, which is necessary for deriving the residual estimates in the regime of large-scale advection. These results encompass both the type SA algebraic multigrid method and those pre-conditioned by them. Moreover, they involve the transport of contaminants in regime of small- and large-scale advection, structured and non-structured meshes, bi- and tridimensional problems and domains with different scales.
15

Método multigrid algébrico: reutilização das estruturas multigrid no transporte de contaminantes / Algebraic multigrid method: the multigrid structures reuse in contaminant transport

João Paulo Martins dos Santos 31 August 2015 (has links)
A necessidade de obter solução de grandes sistemas lineares resultantes de processos de discretização de equações diferenciais parciais provenientes da modelagem de diferentes fenômenos físicos conduz à busca de técnicas numéricas escaláveis. Métodos multigrid são classificados como algoritmos escaláveis.Um estimador de erros deve estar associado à solução numérica do problema discreto de modo a propiciar a adequada avaliação da solução obtida pelo processo de aproximação. Nesse contexto, a presente tese caracteriza-se pela proposta de reutilização das estruturas matriciais hierárquicas de operadores de transferência e restrição dos métodos multigrid algébricos para acelerar o tempo de solução dos sistemas lineares associados à equação do transporte de contaminantes em meio poroso saturado. Adicionalmente, caracteriza-se pela implementação das estimativas residuais para os problemas que envolvem dados constantes ou não constantes, os regimes de pequena ou grande advecção e pela proposta de utilização das estimativas residuais associadas ao termo de fonte e à condição inicial para construir procedimentos adaptativos para os dados do problema. O desenvolvimento dos códigos do método de elementos finitos, do estimador residual e dos procedimentos adaptativos foram baseados no projeto FEniCS, utilizando a linguagem de programação PYTHONR e desenvolvidos na plataforma Eclipse. A implementação dos métodos multigrid algébricos com reutilização considera a biblioteca PyAMG. Baseado na reutilização das estruturas hierárquicas, os métodos multigrid com reutilização com parâmetro fixo e automática são propostos, e esses conceitos são estendidos para os métodos iterativos não-estacionários tais como GMRES e BICGSTAB. Os resultados numéricos mostraram que o estimador residual captura o comportamento do erro real da solução numérica, e fornece algoritmos adaptativos para os dados cuja malha retornada produz uma solução numérica similar à uma malha uniforme com mais elementos. Adicionalmente, os métodos com reutilização são mais rápidos que os métodos que não empregam o processo de reutilização de estruturas. Além disso, a eficiência dos métodos com reutilização também pode ser observada na solução do problema auxiliar, o qual é necessário para obtenção das estimativas residuais para o regime de grande advecção. Esses resultados englobam tanto os métodos multigrid algébricos do tipo SA quanto os métodos pré-condicionados por métodos multigrid algébrico SA, e envolvem o transporte de contaminantes em regime de pequena e grande advecção, malhas estruturadas e não estruturadas, problemas bidimensionais, problemas tridimensionais e domínios com diferentes escalas. / The need for solving large linear systems arising from the discretization of partial differential equations modelling physical phenomena motivates the search for scalable numerical techniques. Multigrid algorithms are instances of such techniques.In order to provide a suitable assessment of the solution obtained by such algorithms, an error estimator must be associated to the numerical solution of the discretized problem. In this context, this thesis proposes the reutilization of the hierarchical matrix structures of transfer operators and the restriction to algebraic multigrid methods to speed up the process of solving the linear systems associated with the contaminant transport equation in saturated porous media. In addition, it features the implementation of residual estimates for problems involving constant or non-constant data, the regimes of small- or large-scale advection and the proposal of employing the residual estimates associated to the source term and to the initial condition to build adaptive procedures for the problem data. The development of the computer codes of the finite element method, residual estimator and adaptive procedures were based on the FEniCS project, using the programming language PYTHONR and developed on the Eclipse platform. The implementation of the algebraic methods with reutilization relied upon the libray PyAMG. Grounding on the idea of reutilizing the hierarchical structures, fixed and automatic parameters multigrid methods were proposed and extended to non-stationary iterative methods such as GMRES and BICGSTAB. The numerical results demonstrate that the residual estimator captures the behavior of the real error of the numerical solution, and provide adaptive algorithms for the data whose output mesh yields a numerical solution alike to that obtained from a uniform mesh with more elements. Moreover, the methods with reutilization are faster than those that do not reuse the structures. Besides, the efficiency of such methods can also be observed in the solution of an auxiliary problem, which is necessary for deriving the residual estimates in the regime of large-scale advection. These results encompass both the type SA algebraic multigrid method and those pre-conditioned by them. Moreover, they involve the transport of contaminants in regime of small- and large-scale advection, structured and non-structured meshes, bi- and tridimensional problems and domains with different scales.
16

Numerical tools for the large eddy simulation of incompressible turbulent flows and application to flows over re-entry capsules/Outils numériques pour la simulation des grandes échelles d'écoulements incompressibles turbulents et application aux écoulements autour de capsules de rentrée

Rasquin, Michel 29 April 2010 (has links)
The context of this thesis is the numerical simulation of turbulent flows at moderate Reynolds numbers and the improvement of the capabilities of an in-house 3D unsteady and incompressible flow solver called SFELES to simulate such flows. In addition to this abstract, this thesis includes five other chapters. The second chapter of this thesis presents the numerical methods implemented in the two CFD solvers used as part of this work, namely SFELES and PHASTA. The third chapter concentrates on the implementation of a new library called FlexMG. This library allows the use of various types of iterative solvers preconditioned by algebraic multigrid methods, which require much less memory to solve linear systems than a direct sparse LU solver available in SFELES. Multigrid is an iterative procedure that relies on a series of increasingly coarser approximations of the original 'fine' problem. The underlying concept is the following: low wavenumber errors on fine grids become high wavenumber errors on coarser levels, which can be effectively removed by applying fixed-point methods on coarser levels. Two families of algebraic multigrid preconditioners have been implemented in FlexMG, namely smooth aggregation-type and non-nested finite element-type. Unlike pure gridless multigrid, both of these families use the information contained in the initial fine mesh. A hierarchy of coarse meshes is also needed for the non-nested finite element-type multigrid so that our approaches can be considered as hybrid. Our aggregation-type multigrid is smoothed with either a constant or a linear least square fitting function, whereas the non-nested finite element-type multigrid is already smooth by construction. All these multigrid preconditioners are tested as stand-alone solvers or coupled with a GMRES (Generalized Minimal RESidual) method. After analyzing the accuracy of the solutions obtained with our solvers on a typical test case in fluid mechanics (unsteady flow past a circular cylinder at low Reynolds number), their performance in terms of convergence rate, computational speed and memory consumption is compared with the performance of a direct sparse LU solver as a reference. Finally, the importance of using smooth interpolation operators is also underlined in this work. The fourth chapter is devoted to the study of subgrid scale models for the large eddy simulation (LES) of turbulent flows. It is well known that turbulence features a cascade process by which kinetic energy is transferred from the large turbulent scales to the smaller ones. Below a certain size, the smallest structures are dissipated into heat because of the effect of the viscous term in the Navier-Stokes equations. In the classical formulation of LES models, all the resolved scales are used to model the contribution of the unresolved scales. However, most of the energy exchanges between scales are local, which means that the energy of the unresolved scales derives mainly from the energy of the small resolved scales. In this fourth chapter, constant-coefficient-based Smagorinsky and WALE models are considered under different formulations. This includes a classical version of both the Smagorinsky and WALE models and several scale-separation formulations, where the resolved velocity field is filtered in order to separate the small turbulent scales from the large ones. From this separation of turbulent scales, the strain rate tensor and/or the eddy viscosity of the subgrid scale model is computed from the small resolved scales only. One important advantage of these scale-separation models is that the dissipation they introduce through their subgrid scale stress tensor is better controlled compared to their classical version, where all the scales are taken into account without any filtering. More precisely, the filtering operator (based on a top hat filter in this work) allows the decomposition u' = u - ubar, where u is the resolved velocity field (large and small resolved scales), ubar is the filtered velocity field (large resolved scales) and u' is the small resolved scales field. At last, two variational multiscale (VMS) methods are also considered. The philosophy of the variational multiscale methods differs significantly from the philosophy of the scale-separation models. Concretely, the discrete Navier-Stokes equations have to be projected into two disjoint spaces so that a set of equations characterizes the evolution of the large resolved scales of the flow, whereas another set governs the small resolved scales. Once the Navier-Stokes equations have been projected into these two spaces associated with the large and small scales respectively, the variational multiscale method consists in adding an eddy viscosity model to the small scales equations only, leaving the large scales equations unchanged. This projection is obvious in the case of a full spectral discretization of the Navier-Stokes equations, where the evolution of the large and small scales is governed by the equations associated with the low and high wavenumber modes respectively. This projection is more complex to achieve in the context of a finite element discretization. For that purpose, two variational multiscale concepts are examined in this work. The first projector is based on the construction of aggregates, whereas the second projector relies on the implementation of hierarchical linear basis functions. In order to gain some experience in the field of LES modeling, some of the above-mentioned models were implemented first in another code called PHASTA and presented along with SFELES in the second chapter. Finally, the relevance of our models is assessed with the large eddy simulation of a fully developed turbulent channel flow at a low Reynolds number under statistical equilibrium. In addition to the analysis of the mean eddy viscosity computed for all our LES models, comparisons in terms of shear stress, root mean square velocity fluctuation and mean velocity are performed with a fully resolved direct numerical simulation as a reference. The fifth chapter of the thesis focuses on the numerical simulation of the 3D turbulent flow over a re-entry Apollo-type capsule at low speed with SFELES. The Reynolds number based on the heat shield is set to Re=10^4 and the angle of attack is set to 180º, that is the heat shield facing the free stream. Only the final stage of the flight is considered in this work, before the splashdown or the landing, so that the incompressibility hypothesis in SFELES is still valid. Two LES models are considered in this chapter, namely a classical and a scale-separation version of the WALE model. Although the capsule geometry is axisymmetric, the flow field in its wake is not and induces unsteady forces and moments acting on the capsule. The characterization of the phenomena occurring in the wake of the capsule and the determination of their main frequencies are essential to ensure the static and dynamic stability during the final stage of the flight. Visualizations by means of 3D isosurfaces and 2D slices of the Q-criterion and the vorticity field confirm the presence of a large meandering recirculation zone characterized by a low Strouhal number, that is St≈0.15. Due to the detachment of the flow at the shoulder of the capsule, a resulting annular shear layer appears. This shear layer is then affected by some Kelvin-Helmholtz instabilities and ends up rolling up, leading to the formation of vortex rings characterized by a high frequency. This vortex shedding depends on the Reynolds number so that a Strouhal number St≈3 is detected at Re=10^4. Finally, the analysis of the force and moment coefficients reveals the existence of a lateral force perpendicular to the streamwise direction in the case of the scale-separation WALE model, which suggests that the wake of the capsule may have some preferential orientations during the vortex shedding. In the case of the classical version of the WALE model, no lateral force has been observed so far so that the mean flow is thought to be still axisymmetric after 100 units of non-dimensional physical time. Finally, the last chapter of this work recalls the main conclusions drawn from the previous chapters.
17

Etude de schémas numériques d'ordre élevé pour la simulation de dispersion de polluants dans des géométries complexes / Analysis of High-Order Finite Volume schemes for pollutant dispersion simulation in complex geometries

Montagnier, Julien 01 July 2010 (has links)
La prévention des risques industriels nécessite de simuler la dispersion turbulente de polluants. Cependant, les outils majoritairement utilisés à ce jour ne permettent pas de traiter les champs proches dans le cas de géométries complexes, et il est nécessaire d'utiliser les outils de CFD (“ Computational Fluid Dynamics ”) plus adaptés, mais plus coûteux. Afin de simuler les écoulements atmosphériques avec dispersion de polluants, les modèles CFD doivent modéliser correctement d'une part, les effets de flottabilité, et d'autre part les effets de la turbulence. Plusieurs approches existent, notamment dans la prise en compte des effets de flottabilité et la modélisation de la turbulence, et nécessitent des méthodes numériques adaptées aux spécificités mathématiques de chacune d'entre elles, ainsi que des schémas numériques précis pour ne pas polluer la modélisation. Une formulation d'ordre élevé en volumes finis, sur maillages non structurés, parallélisée, est proposée pour simuler les écoulements atmosphériques avec dispersion de polluants. L'utilisation de schémas d'ordre élevé doit permettre d'une part de réduire le nombre de cellules et diminuer les temps de simulation pour atteindre une précision donnée, et d'autre part de mieux contrôler la viscosité numérique des schémas en vue de simulations LES (Large Eddy Simulation), pour lesquelles la viscosité numérique des schémas peut masquer les effets de la modélisation. Deux schémas d'ordre élevé ont été étudiés et implémentés dans un solveur 3D Navier Stokes incompressible sur des maillages volumes finis non structurés. Nous avons développé un premier schéma d'ordre élevé, correspondant à un schéma Padé volumes finis, et nous avons étendu le schéma de reconstruction polynomiale de Carpentier (2000) aux écoulements incompressibles. Les propriétés numériques des différents schémas implémentés dans le même code de calcul sont étudiées sur différents cas tests bi-dimensionnels (calcul de flux convectifs et diffusifs sur une solution a-priori, convection d'une tâche gaussienne, décroissance d'un vortex de Taylor et cavité entraînée) et tri-dimensionnel (écoulement autour d'un obstacle cubique). Une attention particulière a été portée à l'étude de la précision et du traitement des conditions limites. L'implémentation proposée du schéma polynomial permet d'approcher, pour un maillage identique, les temps de simulation obtenus avec un schéma décentré classique d'ordre 2, mais avec une précision supérieure. Le schéma compact donne la meilleure précision. En utilisant une méthode de Jacobi sans calcul implicite de la matrice pour calculer le gradient, le temps de simulation devient intéressant uniquement lorsque la précision requise est importante. Une alternative est la résolution du système linéaire par une méthode multigrille algébrique. Cette méthode diminue considérablement le temps de calcul du gradient et le schéma Padé devient performant même pour des maillages grossiers. Enfin, pour réduire les temps de simulation, la parallélisation des schémas d'ordre élevé est réalisée par une décomposition en sous domaines. L'assemblage des flux s'effectue naturellement et différents solveurs proposés par les librairies PETSC et HYPRE (solveur multigrille algébrique et méthode de Krylov préconditionnée) permettent de résoudre les systèmes linéaires issus de notre problème. / The prevention of industrial risks requires simulating turbulent dispersion of pollutants. However, the tools mostly used so far do not allow near fields treated in the case of complex geometries, and it is necessary to utilize the tools of CFD (Computational Fluid Dynamics ") more suitable but more expensive. To simulate atmospheric flows with dispersion of pollutants, the CFD models must correctly model the one hand, the effects of buoyancy, and secondly the effects of turbulence. Several approaches exist, including taking into account the effects of buoyancy and turbulence modeling, and require numerical methods adapted to the specific mathematics of each, and accurate numerical schemes to avoid pollution modeling. A formulation of high order finite volume on unstructured meshes, parallelized, is proposed to simulate the atmospheric flows with dispersion of pollutants. The use of high order schemes allow one hand to reduce the number of cells and decrease the simulation time to achieve a given accuracy, and secondly to better control the viscosity numerical schemes for simulation LES (Large Eddy Simulation), for which the numerical viscosity patterns may mask the effects of modeling. Two high-order schemes have been studied and implemented in a 3D Navier Stokes solver on unstructured mesh finite volume. We developed the first high-order scheme, corresponding to a Padé finite volume scheme, and we have extended the scheme of reconstruction polynomial Carpentier (2000) for incompressible flows. The numerical properties of the various schemes implemented in the same computer code are studied different two-dimensional test cases (calculation of diffusive and convective flow on a solution a priori, a task Gaussian convection, decay of a vortex of Taylor and driven cavity) and tri-dimensional (flow past an obstacle cubic). Particular attention has been paid to the study of the accuracy and treatment of boundary conditions. The implementation of the polynomial allows to obtain quasi identical simulation time compared to a classical upwind scheme of order 2, but with higher accuracy. The compact layout gives the best accuracy. Using a Jacobi method without calculation implied matrix to calculate the gradient, the simulation time becomes interesting only when the required accuracy is important. An alternative is the resolution of linear system by an algebraic multigrid method. This method significantly reduces the computation time of the gradient and the Padé scheme is effective even for coarse meshes. Finally, to reduce simulation time, the parallelization schemes of high order is achieved by a decomposition into subdomains. The assembly flow occurs naturally and different solvers provided by PETSc libraries and HYORE (algebraic multigrid solver and preconditioned Krylov method) used to solve linear systems from our problem. The work was to identify and determine the parameters that lead to lowest time resolution simulation. Various tests of speed-up and scale-up were used to determine the most effective and optimal parameters for solving linear systems in parallel from our problem. The results of this work have been the subject of a communication in an international conference "Parallel CFD 2008" and an article submitted to "International Journal for Numerical Methods in Fluids" (Analysis of high-order finite volume schemes for the incompressible Navier Stokes equations)
18

Solution of algebraic problems arising in nuclear reactor core simulations using Jacobi-Davidson and multigrid methods

Havet, Maxime 10 October 2008 (has links)
The solution of large and sparse eigenvalue problems arising from the discretization of the diffusion equation is considered. The multigroup<p>diffusion equation is discretized by means of the Nodal expansion Method (NEM) [9, 10]. A new formulation of the higher order NEM variants revealing the true nature of the problem, that is, a generalized eigenvalue problem, is proposed. These generalized eigenvalue problems are solved using the Jacobi-Davidson (JD) method<p>[26]. The most expensive part of the method consists of solving a linear system referred to as correction equation. It is solved using Krylov subspace methods in combination with aggregation-based Algebraic Multigrid (AMG) techniques. In that context, a particular<p>aggregation technique used in combination with classical smoothers, referred to as oblique geometric coarsening, has been derived. Its particularity is that it aggregates unknowns that<p>are not coupled, which has never been done to our<p>knowledge. A modular code, combining JD with an AMG preconditioner, has been developed. The code comes with many options, that have been tested. In particular, the instability of the Rayleigh-Ritz [33] acceleration procedure in the non-symmetric case has been underlined. Our code has also been compared to an industrial code extracted from ARTEMIS. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
19

Modélisation numérique du chauffage par induction de pièces à géométrie complexe / Numerical modelling of induction heating for complex geometrical parts

Klonk, Steffen 16 December 2013 (has links)
Le chauffage par induction électromagnétique est un procédé efficace permettant de chauffer directement une zone d'épaisseur contrôlée sous la surface de pièces métalliques en vue de les tremper. Cette thèse présente un modèle mathématique couplé électromagnétique/thermique et des approches numériques pour modéliser le procédé. Le modèle électromagnétique est basé sur une formulation en potentiel vecteur magnétique. Les courants de source sont imposés à l'aide d'une formulation en potentiel scalaire électrique permettant de modéliser des inducteurs de forme géométrique arbitraire. Le problème du transfert de chaleur est modélisé à l'aide de l'équation classique de diffusion de la chaleur. Le modèle électromagnétique est entièrement transitoire, afin de permettre l'introduction des effets non linéaires. La discrétisation spatiale est basée sur une approche éléments d'arêtes en utilisant un domaine global air/pièce/inducteur. Le système linéaire d'équations issu de la formulation implicite est creux et défini semi-positif ; il possède un noyau de taille importante. Il est démontré qu'un préconditionneur basé sur une méthode multigrille algébrique construit conjointement avec un solveur du type Krylov réduit substantiellement le temps de calcul du problème électromagnétique par rapport aux méthodes classiques de solution et peut être très efficace pour le calcul parallèle. Des exemples d'application pour le traitement thermique d'un pignon et pour un vilebrequin automobile sont présentés. Le traitement thermique des surfaces des pièces aux géométries complexes nécessite l'introduction d'un mouvement relatif de la pièce et de l'inducteur pour assurer un traitement homogène de la surface. Une nouvelle méthode est proposée, basée sur une représentation discrète d'une fonction level set du mouvement de l'inducteur qui peut être utilisée pour générer des maillages éléments finis conformes dans le cadre d'une configuration lagrangienne. / Electromagnetic induction heating is an efficient process allowing to directly heat up a prescribed area beneath the surface of metallic workpieces to enable quenching. This work presents a mathematical model for the coupled electromagnetic/heat transfer process as well as numerical solution methods. The electromagnetic model is based on a magnetic vector potential formulation. The source currents are prescribed using a voltage potential formulation enabling the modelling of arbitrary inductor geometries. The heat transfer problem is modelled using the classical heat diffusion equation. The electromagnetic model is fully transient, in order to allow the introduction of non-linear effects. The space discretisation is based on an edge finite element approach using a global domain including air, workpiece and inductor. The resulting linear system of equations of the implicit formulation is sparse and semi-definite, including a large kernel. It is demonstrated that a preconditioner based on the auxiliary space algebraic multigrid method in connection with a Krylov solver substantially reduces the solution time of the electromagnetic problem in comparison to classical solution methods and can be effectively applied in parallel. Applications for the heat treatment of a gearwheel and for an automotive crankshaft are presented. The surface heat treatment of complex geometrical parts requires the introduction of a relative movement of workpiece and inductor to ensure a homogeneous surface treatment. A novel method is proposed, which is based on a discrete level set representation of the inductor motion that can be used to generate conforming finite element meshes in a Lagrangian setting.
20

Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human Brain

Wolters, Carsten H. 28 November 2004 (has links)
The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG. / Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\'uckstr\'ome im leitf\'ahigen Gewebe des Kopfes, die sog. . Die Rekonstruktion der Dipolquellen wird das genannt. Dessen L\'osung erfordert die wiederholte Berechnung des {\em Vorw\'arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\'ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\'olkerung betroffen sind und f\'ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\'ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\'aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\'angender Zentren im Gehirn, z.B.~des prim\'ar-mo\-to\-ri\-schen, des prim\'ar-au\-di\-to\-rischen oder prim\'ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\'onnten L\'ahmungen, H\'or- und Sensibilit\'atsst\'orungen vermieden werden. Dazu werden \'uber akustische oder sensorische Reize charakteristische Signale evoziert und \'uber Summationstechniken sichtbar gemacht. Durch das L\'osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\'uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\'ange im Gehirn und die Aufdeckung der aktivierten Areale w\'ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\'osung des Vorw\'artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\'adel, die Zerebrospinalfl\'ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\'ahigkeiten besitzen. Der menschliche Sch\'adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\'ahige spongi\'ose Schicht wird von zwei stark isolierenden Schichten, den \'au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\'adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\'adel demnach eine richtungsabh\'angige oder {\em anisotrope} Leitf\'ahigkeit mit einem gemessenen Verh\'altnis von bis zu 1 zu 10. F\'ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \'ahnlichen Verh\'altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\'ahigkeit der WM nicht-invasiv in gen\'ugender Aufl\'osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\'ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \'uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\'urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\'ankte Mobilit\'at \'uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\'atze f\'ur die L\'osung des Vor\-w\'arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\'oht sich die Komplexit\'at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\'aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \'ublicherweise drei Schichten, die die Kopfhaut, den Sch\'adel und das Gehirn repr\'asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\'achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\'ur isotrop leitf\'ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\'aten eingehen zu k\'onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\'ahigkeits-Anisotropien n\'otig und in welchen F\'allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\'onnen komplexe FE-Vorw\'artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\'ur inverse Quellrekonstruktionen in den Anwendungen zu gen\'ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \'Offnungen im Sch\'adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\'aten wie L\'asionen im Gehirn oder die Sutura des Sch\'adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\'assigbaren Einfluss auf das EEG/MEG-Vorw\'arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\'at zweier ausgew\'ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\'adel-Anisotropie nach. Insbesondere f\'ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\'at auf Sch\'adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\'assigbaren Einfluss auf die EEG/MEG-Vorw\'artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\'osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\'onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\'atz\-liche Annahmen \'uber die Quellen sind dementsprechend unerl\'asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\'arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\'oglichst genau erkl\'art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\'osung nimmt und die Algorithmen stabil in Bezug auf eine \'Ubersch\'atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\'onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\'o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\'a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \'uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\'a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\'ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\'adelkante \'uber ein Gl\'atten und Aufblasen der segmentierten Hirnoberfl\'ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\'atzte. \'Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\'ucksichtigung der MR-Inhomogenit\'aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\'adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\'attete Spongiosaoberfl\'ache darstellt und somit ein Abgreifen der Leitf\'ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\'oglicht. Die Eigenvektoren der WM-Tensoren wurden \'uber Ganzkopf-DT-MRT gemessen. Sch\'adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\'a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\'oste FE-Modellierung} des EEG/ MEG-Vorw\'artsproblems. Zun\'achst wurde ein \'Uberblick \'uber die Theorie gegeben und die praktische Realisierung der sp\'ater eingesetzten hochaufgel\'osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\'utzpunkte zur Gl\'attung an Gewebekanten nutzen, vorteilhaft sind zu herk\'ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\'ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\'osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\'osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\'oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\'ur das Verfahren der konjugierten Gradienten konnte f\'ur hochaufgel\'oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \'Uber\-blick \'uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\'asentiert. Es wurde zun\'achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\'uhrt. F\'ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\'arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\'ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\'urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\'uber einem sog. {\em Kal\-man-Gl\'atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\'at} durchgef\'uhrt. Der erste Teil bezog sich dabei auf das Vorw\'arts\-problem, wo die Resultate im Einklang mit der verf\'ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\'adelanisotropie einen nicht-vernachl\'assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\'o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\'ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\'ahigkeits\'anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\'usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\'achlich tangential orientierten oberfl\'achennahen Quelle besonders sensitiv gegen\'uber einer 1 zu 10 Sch\'adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\'adel re\-la\-tiv d\'unn) zu tief und im parietalen und okzipitalen Bereich (Sch\'adel relativ dick) zu oberfl\'achennah lokalisiert wurden, scheint eine Approximation der Sch\'adelanisotropie in BE-Modellen \'uber eine Anpassung des skalaren Sch\'adelleitf\'ahigkeitswertes nicht m\'oglich zu sein. Obwohl bei Vernachl\'assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\'ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24$^$ und einer mehr als zweifach untersch\'atzten Quellst\'arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\'ur die Rekonstruktion der vier tangentialen oberfl\'achennahen Dipole, welche als Aktivit\'atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\'adel\-anisotropie als vernachl\'assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\'ur alle getesteten inversen Verfahren stark verf\'alscht. Anisotropie verschob das Aktivit\'ats\-zentrum von $L_1$ und $L_2$ Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung.

Page generated in 0.4703 seconds