Spelling suggestions: "subject:"kolver"" "subject:"golver""
211 |
Development Of A General Purpose Flow Solver For Euler EquationsShende, Nikhil Vijay 07 1900 (has links) (PDF)
No description available.
|
212 |
LU-SGS Implicit Scheme For A Mesh-Less Euler SolverSingh, Manish Kumar 07 1900 (has links) (PDF)
Least Square Kinetic Upwind Method (LSKUM) belongs to the class of mesh-less method that solves compressible Euler equations of gas dynamics. LSKUM is kinetic theory based upwind scheme that operates on any cloud of points. Euler equations are derived from Boltzmann equation (of kinetic theory of gases) after taking suitable moments. The basic update scheme is formulated at Boltzmann level and mapped to Euler level by suitable moments. Mesh-less solvers need only cloud of points to solve the governing equations. For a complex configuration, with such a solver, one can generate a separate cloud of points around each component, which adequately resolves the geometric features, and then combine all the individual clouds to get one set of points on which the solver directly operates. An obvious advantage of this approach is that any incremental changes in geometry will require only regeneration of the small cloud of points where changes have occurred. Additionally blanking and de-blanking strategy along with overlay point cloud can be adapted in some applications like store separation to avoid regeneration of points. Naturally, the mesh-less solvers have advantage in tackling complex geometries and moving components over solvers that need grids. Conventionally, higher order accuracy for space derivative term is achieved by two step defect correction formula which is computationally expensive. The present solver uses low dissipation single step modified CIR (MCIR) scheme which is similar to first order LSKUM formulation and provides spatial accuracy closer to second order. The maximum time step taken to march solution in time is limited by stability criteria in case of explicit time integration procedure. Because of this, explicit scheme takes a large number of iterations to achieve convergence. The popular explicit time integration schemes like four stages Runge-Kutta (RK4) are slow in convergence due to this reason. The above problem can be overcome by using the implicit time integration procedure. The implicit schemes are unconditionally stable i.e. very large time steps can be used to accelerate the convergence. Also it offers superior robustness. The implicit Lower-Upper Symmetric Gauss-Seidel (LU-SGS) scheme is very attractive due to its low numerical complexity, moderate memory requirement and unconditional stability for linear wave equation. Also this scheme is more efficient than explicit counterparts and can be implemented easily on parallel computers. It is based on the factorization of the implicit operator into three parts namely lower triangular matrix, upper triangular matrix and diagonal terms. The use of LU-SGS results in a matrix free implicit framework which is very economical as against other expensive procedures which necessarily involve matrix inversion. With implementation of the implicit LU-SGS scheme larger time steps can be used which in turn will reduce the computational time substantially. LU-SGS has been used widely for many Finite Volume Method based solvers. The split flux Jacobian formulation as proposed by Jameson is most widely used to make implicit procedure diagonally dominant. But this procedure when applied to mesh-less solvers leads to block diagonal matrix which again requires expensive inversion. In the present work LU-SGS procedure is adopted for mesh-less approach to retain diagonal dominancy and implemented in 2-D and 3-D solvers in matrix free framework.
In order to assess the efficacy of the implicit procedure, both explicit and implicit 2-D solvers are tested on NACA 0012 airfoil for various flow conditions in subsonic and transonic regime. To study the performance of the solvers on different point distributions two types of the cloud of points, one unstructured distribution (4074 points) and another structured distribution (9600 points) have been used. The computed 2-D results are validated against NASA experimental data and AGARD test case. The density residual and lift coefficient convergence history is presented in detail. The maximum speed up obtained by use of implicit procedure as compared to explicit one is close to 6 and 14 for unstructured and structured point distributions respectively. The transonic flow over ONERA M6 wing is a classic test case for CFD validation because of simple geometry and complex flow. It has sweep angle of 30° and 15.6° at leading edge and trailing edge respectively. The taper ratio and aspect ratio of the wing are 0.562 and 3.8 respectively. At M∞=0.84 and α=3.06° lambda shock appear on the upper surface of the wing. 3¬D explicit and implicit solvers are tested on ONERA M6 wing. The computed pressure coefficients are compared with experiments at section of 20%, 44%, 65%, 80%, 90% and 95% of span length. The computed results are found to match very well with experiments. The speed up obtained from implicit procedure is over 7 for ONERA M6 wing. The determination of the aerodynamic characteristics of a wing with the control surface deflection is one of the most important and challenging task in aircraft design and development. Many military aircraft use some form of the delta wing. To demonstrate the effectiveness of 3-D solver in handling control surfaces and small gaps, implicit 3-D code is used to compute flow past clipped delta wing with aileron deflection of 6° at M∞ = 0.9 and α = 1° and 3°. The leading edge backward sweep is 50.4°. The aileron is hinged from 56.5% semi-span to 82.9% of semi-span and at 80% of the local chord from leading edge. The computed results are validated with NASA experiments
|
213 |
A Numerical Study of Droplet Dynamics in Viscoelastic FlowsArun, Dalal Swapnil January 2016 (has links) (PDF)
The polymers are integral part of vast number of products used in day to day life due to their anomalous viscoelastic behaviour. The remarkable flow behaviour exhibited by the polymeric fluids including rod climbing, extrudate swell, tube-less siphon, viscoelastic jet, elastic recoil and sharkskin instability is attributed to the complex microstructures in the polymeric liquids that arise due to the interactions of long chain polymer molecules with each other and with the surrounding fluid particles. The significance of polymer in transportation, packaging, pharmaceutical, chemical, biomedical, textiles, food and polymer processing industries highlights the requirement to comprehend the complex rheology of polymeric fluids.
First, we investigate the flow features exhibited by different shear thinning vis-coelastic fluids in rectangular cavities over a wide range of depth to width ratio. We have developed a viscoelastic flow solver in order to perform numerical simulations of highly elastic flow of viscoelastic fluids. In particular, we discuss the simulations of flows of constant viscosity Boger and shear thinning viscoelastic fluids in the complex flow problems using different constitutive equations. The effects of elasticity and inertia on the flow behaviour of two shear thinning vis-coelastic fluids modeled using Giesekus and linear PTT constitutive equations in rectangular cavities is studied. The size of the primary eddies and critical aspect ratio over which the corner eddies merge to yield a second primary eddy in deep cavities is discussed. We demonstrate that the flow in the shallow and deep cavities can be characterized using Weissenberg number, defined based on the shear rate, and Deborah number, specified based on the convective time scale, respectively. The study of flow in driven cavities is important in understanding of the mixing process during synthesis of blends and composites.
Next, we study two phase polymeric flow in confined geometries. Nowadays, polymer processing industries prefer to develop newer polymer with the desired material properties mechanically by mixing and blending of different polymer components instead of chemically synthesizing fresh polymer. The microstructure of blends and emulsions following drop deformation, breakup and coalescence during mixing determines its macroscopic interfacial rheology. We developed a two phase viscoelastic flow solver using volume conserving sharp interface volume-of-fluid (VOF) method for studying the dynamics of single droplet subjected to the complex flow fields.
We investigated the effects of drop and matrix viscoelasticity on the motion and deformation of a droplet suspended in a fully developed channel flow. The flow behaviour exhibited by Newtonian-Newtonian, viscoelastic-Newtonian, Newtonian-viscoelastic and viscoelastic-viscoelastic drop-matrix systems is presented. The difference in the drop dynamics due to presence of constant viscosity Boger fluid and shear thinning viscoelastic fluid is represented using FENE-CR and linear PTT constitutive equations, respectively. The presence of shear thinning viscoelastic fluid either in the drop or the matrix phase suppresses the drop deformation due to stronger influence of matrix viscoelasticity as compared to the drop elasticity. The shear thinning viscoelastic drop-matrix system further restricts the drop deformation and it displays non-monotonic de-formation. The constant viscosity Boger fluid droplet curbs the drop deformation and exhibits flow dynamics identical to the shear thinning viscoelastic droplet, thus indicating that the nature of the drop viscoelasticity has little influence on the flow behaviour. The matrix viscoelasticity due to Boger fluid increases drop deformation and displays non-monotonic deformation. The drop deformation is further enhanced in the case of Boger fluid in viscoelastic drop-matrix system. Interestingly, the pressure drop due to the presence of viscoelastic drop in a Newtonian matrix is lower than the single phase flow of Newtonian fluid. We also discuss the effects of inertia, surface tension, drop to matrix viscosity ratio and the drop size on these drop-matrix systems.
Finally, we investigate the emulsion rheology by studying the motion of a droplet in the square lid driven cavity flow. The viscoelastic effects due to constant viscosity Boger fluid and shear thinning viscoelastic fluid are illustrated using FENECR and Giesekus rheological relations, respectively. The presence of viscoelasticity either in drop or matrix phase boosts the drop deformation with the drop viscoelasticity displaying intense deformation. The drop dynamics due to the droplet viscoelasticity is observed to be independent of the nature of vis-coelastic fluid. The shear thinning viscoelastic matrix has a stronger influence on the drop deformation and orientation compared to the Boger fluid matrix. The different blood components, cells and many materials of industrial importance are viscoelastic in nature. Thus, the present study has significant applications in medical diagnostics, drug delivery, manufacturing and processing industries, study of biological flows, pharmaceutical research and development of lab-on-chip devices.
|
214 |
Stratégies de génération de tests à partir de modèles UML/OCL interprétés en logique du premier ordre et système de contraintes. / Test generation strategies from UML/OCL models interpreted with first order logic constraints systemCantenot, Jérôme 13 November 2013 (has links)
Les travaux présentés dans cette thèse proposent une méthode de génération automatique de tests à partir de modèles.Cette méthode emploie deux langages de modélisations UML4MBT et OCL4MBT qui ont été spécifiquement dérivées d’ UML et OCL pour la génération de tests. Ainsi les comportements, la structure et l’état initial du système sont décrits au travers des diagrammes de classes, d’objets et d’états-transitions.Pour générer des tests, l’évolution du modèle est représente sous la forme d’un système de transitions. Ainsi la construction de tests est équivalente à la découverte de séquences de transitions qui relient l’´état initial du système à des états validant les cibles de test.Ces séquences sont obtenues par la résolution de scénarios d’animations par des prouveurs SMT et solveurs CSP. Pour créer ces scénarios, des méta-modèles UML4MBT et CSP4MBT regroupant formules logiques et notions liées aux tests ont été établies pour chacun des outils.Afin d’optimiser les temps de générations, des stratégies ont été développé pour sélectionner et hiérarchiser les scénarios à résoudre. Ces stratégies s’appuient sur la parallélisation, les propriétés des solveurs et des prouveurs et les caractéristiques de nos encodages pour optimiser les performances. 5 stratégies emploient uniquement un prouveur et 2 stratégies reposent sur une collaboration du prouveur avec un solveur.Finalement l’intérêt de cette nouvelle méthode à été validée sur des cas d’études grâce à l’implémentation réalisée. / This thesis describes an automatic test generation process from models.This process uses two modelling languages, UML4MBT and OCL4MBT, created specificallyfor tests generation. Theses languages are derived from UML and OCL. Therefore the behaviours,the structure and the initial state of the system are described by the class diagram, the objectdiagram and the state-chart.To generate tests, the evolution of the model is encoded with a transition system. Consequently,to construct a test is to find transition sequences that rely the initial state of the system to thestates described by the test targets.The sequence are obtained by the resolution of animation scenarios. This resolution is executedby SMT provers and CSP solvers. To create the scenario, two dedicated meta-models, UML4MBTand CSP4MBT have been established. Theses meta-models associate first order logic formulas withthe test notions.7 strategies have been developed to improve the tests generation time. A strategy is responsiblefor the selection and the prioritization of the scenarios. A strategy is built upon the properties ofthe solvers and provers and the specification of our encoding process. Moreover the process canalso be paralleled to get better performance. 5 strategies employ only a prover and 2 make theprover collaborate with a solver.Finally the interest of this process has been evaluated through a list of benchmark on variouscases studies.
|
215 |
REAL-TIME TRAJECTORY OPTIMIZATION BY SEQUENTIAL CONVEX PROGRAMMING FOR ONBOARD OPTIMAL CONTROLBenjamin M. Tackett (5930891) 04 August 2021 (has links)
<div>Optimization of atmospheric flight control has long been performed on the ground, prior to mission flight due to large computational requirements used to solve non-linear programming problems. Onboard trajectory optimization enables the creation of new reference trajectories and updates to guidance coefficients in real time. This thesis summarizes the methods involved in solving optimal control problems in real time using convexification and Sequential Convex Programming (SCP). The following investigation provided insight in assessing the use of state of the art SCP optimization architectures and convexification of the hypersonic equations of motion[ 1 ]–[ 3 ] with different control schemes for the purposes of enabling on-board trajectory optimization capabilities.</div><div>An architecture was constructed to solve convexified optimal control problems using direct population of sparse matrices in triplet form and an embedded conic solver to enable rapid turn around of optimized trajectories. The results of this show that convexified optimal control problems can be solved quickly and efficiently which holds promise in autonomous trajectory design to better overcome unexpected environments and mission parameter changes. It was observed that angle of attack control problems can be successfully convexified and solved using SCP methods. However, the use of multiple coupled controls is not guaranteed to be successful with this method when they act in the same plane as one another. The results of this thesis demonstrate that state of the art SCP methods have the capacity to enable onboard trajectory optimization with both angle of attack control and bank angle control schemes.</div><div><br></div>
|
216 |
Stabilita zpětně-vazebních řízení dynamických systémů s časovým zpožděním / Stability of Time Delay Feedback Controls of Dynamical SystemsLovas, David January 2020 (has links)
Tato diplomová práce pojednává o stabilitě zpětně-vazebných řízení dynamických systémů s časovým zpozděním, speciálně řízení mechanických oscilátorů. Dva základní druhy řízení jsou užity v lineárních systémech. Dále je zde ukázána synchronizace dvouprvkových systémů užitím zpětně-vazebných řízení. Práce se také zabývá funkcí v MATLABu pro řešení zpožděných diferenciálních rovnic.
|
217 |
Redukce nedeterministických konečných automatů / Reduction of the Nondeterministic Finite AutomataProcházka, Lukáš January 2011 (has links)
Nondeterministic finite automaton is an important tool, which is used to process strings in many different areas of programming. It is important to try to reduce its size for increasing programs' effectiveness. However, this problem is computationally hard, so we need to search for new techniques. Basics of finite automata are described in this work. Some methods for their reduction are then introduced. Usable reduction algorithms are described in greater detail. Then they are implemented and tested. The test results are finally evaluated.
|
218 |
Efficient Solvers for the Phase-Field Crystal Equation: Development and Analysis of a Block-PreconditionerPraetorius, Simon 08 December 2015 (has links)
A preconditioner to improve the convergence properties of Krylov subspace solvers is derived and analyzed in this work. This method is adapted to linear systems arising from a finite-element discretization of a phase-field crystal equation.
|
219 |
Efficient Numerical Methods For Chemotaxis And Plasma Modulation Instability StudiesNguyen, Truong B. 08 August 2019 (has links)
No description available.
|
220 |
Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human BrainWolters, Carsten H. 28 November 2004 (has links)
The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG. / Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\'uckstr\'ome im leitf\'ahigen Gewebe des Kopfes, die sog. . Die Rekonstruktion der Dipolquellen wird das genannt. Dessen L\'osung erfordert die wiederholte Berechnung des {\em Vorw\'arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\'ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\'olkerung betroffen sind und f\'ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\'ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\'aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\'angender Zentren im Gehirn, z.B.~des prim\'ar-mo\-to\-ri\-schen, des prim\'ar-au\-di\-to\-rischen oder prim\'ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\'onnten L\'ahmungen, H\'or- und Sensibilit\'atsst\'orungen vermieden werden. Dazu werden \'uber akustische oder sensorische Reize charakteristische Signale evoziert und \'uber Summationstechniken sichtbar gemacht. Durch das L\'osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\'uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\'ange im Gehirn und die Aufdeckung der aktivierten Areale w\'ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\'osung des Vorw\'artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\'adel, die Zerebrospinalfl\'ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\'ahigkeiten besitzen. Der menschliche Sch\'adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\'ahige spongi\'ose Schicht wird von zwei stark isolierenden Schichten, den \'au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\'adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\'adel demnach eine richtungsabh\'angige oder {\em anisotrope} Leitf\'ahigkeit mit einem gemessenen Verh\'altnis von bis zu 1 zu 10. F\'ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \'ahnlichen Verh\'altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\'ahigkeit der WM nicht-invasiv in gen\'ugender Aufl\'osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\'ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \'uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\'urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\'ankte Mobilit\'at \'uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\'atze f\'ur die L\'osung des Vor\-w\'arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\'oht sich die Komplexit\'at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\'aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \'ublicherweise drei Schichten, die die Kopfhaut, den Sch\'adel und das Gehirn repr\'asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\'achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\'ur isotrop leitf\'ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\'aten eingehen zu k\'onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\'ahigkeits-Anisotropien n\'otig und in welchen F\'allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\'onnen komplexe FE-Vorw\'artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\'ur inverse Quellrekonstruktionen in den Anwendungen zu gen\'ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \'Offnungen im Sch\'adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\'aten wie L\'asionen im Gehirn oder die Sutura des Sch\'adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\'assigbaren Einfluss auf das EEG/MEG-Vorw\'arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\'at zweier ausgew\'ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\'adel-Anisotropie nach. Insbesondere f\'ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\'at auf Sch\'adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\'assigbaren Einfluss auf die EEG/MEG-Vorw\'artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\'osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\'onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\'atz\-liche Annahmen \'uber die Quellen sind dementsprechend unerl\'asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\'arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\'oglichst genau erkl\'art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\'osung nimmt und die Algorithmen stabil in Bezug auf eine \'Ubersch\'atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\'onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\'o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\'a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \'uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\'a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\'ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\'adelkante \'uber ein Gl\'atten und Aufblasen der segmentierten Hirnoberfl\'ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\'atzte. \'Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\'ucksichtigung der MR-Inhomogenit\'aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\'adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\'attete Spongiosaoberfl\'ache darstellt und somit ein Abgreifen der Leitf\'ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\'oglicht. Die Eigenvektoren der WM-Tensoren wurden \'uber Ganzkopf-DT-MRT gemessen. Sch\'adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\'a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\'oste FE-Modellierung} des EEG/ MEG-Vorw\'artsproblems. Zun\'achst wurde ein \'Uberblick \'uber die Theorie gegeben und die praktische Realisierung der sp\'ater eingesetzten hochaufgel\'osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\'utzpunkte zur Gl\'attung an Gewebekanten nutzen, vorteilhaft sind zu herk\'ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\'ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\'osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\'osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\'oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\'ur das Verfahren der konjugierten Gradienten konnte f\'ur hochaufgel\'oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \'Uber\-blick \'uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\'asentiert. Es wurde zun\'achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\'uhrt. F\'ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\'arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\'ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\'urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\'uber einem sog. {\em Kal\-man-Gl\'atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\'at} durchgef\'uhrt. Der erste Teil bezog sich dabei auf das Vorw\'arts\-problem, wo die Resultate im Einklang mit der verf\'ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\'adelanisotropie einen nicht-vernachl\'assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\'o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\'ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\'ahigkeits\'anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\'usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\'achlich tangential orientierten oberfl\'achennahen Quelle besonders sensitiv gegen\'uber einer 1 zu 10 Sch\'adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\'adel re\-la\-tiv d\'unn) zu tief und im parietalen und okzipitalen Bereich (Sch\'adel relativ dick) zu oberfl\'achennah lokalisiert wurden, scheint eine Approximation der Sch\'adelanisotropie in BE-Modellen \'uber eine Anpassung des skalaren Sch\'adelleitf\'ahigkeitswertes nicht m\'oglich zu sein. Obwohl bei Vernachl\'assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\'ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24$^$ und einer mehr als zweifach untersch\'atzten Quellst\'arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\'ur die Rekonstruktion der vier tangentialen oberfl\'achennahen Dipole, welche als Aktivit\'atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\'adel\-anisotropie als vernachl\'assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\'ur alle getesteten inversen Verfahren stark verf\'alscht. Anisotropie verschob das Aktivit\'ats\-zentrum von $L_1$ und $L_2$ Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung.
|
Page generated in 0.0488 seconds