• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 121
  • 31
  • 22
  • 14
  • 9
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 236
  • 46
  • 43
  • 33
  • 32
  • 30
  • 29
  • 25
  • 24
  • 22
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Design, Fabrication, and Characterization of Nano-Photonic Components Based on Silicon and Plasmonic Material

Liu, Liu January 2006 (has links)
Size reduction is a key issue in the development of contemporary integrated photonics. This thesis is mainly devoted to study some integrated photonic components in sub-wavelength or nanometric scales, both theoretically and experimentally. The possible approaches to reduce the sizes or to increase the functionalities of photonic components are discussed, including waveguides and devices based on silicon nanowires, photonic crystals, surface plasmons, and some near-field plasmonic components. First, some numerical methods, including the finite-difference time-domain method and the full-vectorial finite-difference mode solver, are introduced. The finite-difference time-domain method can be used to investigate the interaction of light fields with virtually arbitrary structures. The full-vectorial finite-difference mode solver is mainly used for calculating the eigenmodes of a waveguide structure. The fabrication and characterization technologies for nano-photonic components are reviewed. The fabrications are mainly based on semiconductor cleanroom facilities, which include thin film deposition, electron beam lithography, and etching. The characterization setups with the end-fire coupling and the vertical grating coupling are also described. Silicon nanowire waveguides and related devices are studied. Arrayed waveguide gratings with 11nm and 1.6nm channel spacing are fabricated and characterized. The dimension of these arrayed waveguide gratings is around 100 μm, which is 1--2 order of magnitude smaller than conventional silica based arrayed waveguide gratings. A compact polarization beam splitter employing positive/negative refraction based on a photonic crystal of silicon pillars is designed and demonstrated. Extinction ratio of ~15dB is achieved experimentally in a wide wavelength range. Surface plasmon waveguides and devices are analyzed theoretically. With surface plasmons the light field can be confined in a sub-wavelength dimension. Some related photonic devices, e.g., directional couplers and ring resonators, are studied. We also show that some ideas and principles of microwave devices, e.g., a branch-line coupler, can be borrowed for building corresponding surface plasmon based devices. Near-field plasmonic components, including near-field scanning optical microscope probes and left handed material slab lenses, are also analyzed. Some novel designs are introduced to enhance the corresponding systems. / QC 20100908
162

CONTRIBUTION METHODOLOGIQUE A LA CONCEPTION SOUS CONTRAINTES DE DISPOSITIFS ELECTROMAGNETIQUES

Coutel, Coralie 20 October 1999 (has links) (PDF)
Ce travail s'intéresse à la conception sous contraintes de dispositifs électromagnétiques à l'aide de modèles analytiques. Après avoir présenté le contexte de conception en génie électrique, et les problèmes inhérents au dimensionnement sous contraintes, notamment celui des systèmes d'équations implicites, l'étude présente une nouvelle architecture orientée objet pour le dimensionnement à l'aide de modèles analytiques. L'objectif est de créer un environnement souple et modulaire pour manipuler les équations analytiques de façon à utiliser toute l'information qu'elles contiennent. On veut par exemple ré-orienter le modèle étudié ou calculer les dérivées partielles symboliques des paramètres de sortie, ceci afin d'effectuer de la propagation de contraintes, du solver ou de l'optimisation sous contraintes. Un prototype informatique implantè est présenté.
163

Algorithm Design and Analysis for Large-Scale Semidefinite Programming and Nonlinear Programming

Lu, Zhaosong 24 June 2005 (has links)
The limiting behavior of weighted paths associated with the semidefinite program (SDP) map $X^{1/2}SX^{1/2}$ was studied and some applications to error bound analysis and superlinear convergence of a class of primal-dual interior-point methods were provided. A new approach for solving large-scale well-structured sparse SDPs via a saddle point mirror-prox algorithm with ${cal O}(epsilon^{-1})$ efficiency was developed based on exploiting sparsity structure and reformulating SDPs into smooth convex-concave saddle point problems. An iterative solver-based long-step primal-dual infeasible path-following algorithm for convex quadratic programming (CQP) was developed. The search directions of this algorithm were computed by means of a preconditioned iterative linear solver. A uniform bound, depending only on the CQP data, on the number of iterations performed by a preconditioned iterative linear solver was established. A polynomial bound on the number of iterations of this algorithm was also obtained. One efficient ``nearly exact' type of method for solving large-scale ``low-rank' trust region subproblems was proposed by completely avoiding the computations of Cholesky or partial Cholesky factorizations. A computational study of this method was also provided by applying it to solve some large-scale nonlinear programming problems.
164

Development Of A Two-dimensional Navier-stokes Solver For Laminar Flows Using Cartesian Grids

Sahin, Serkan Mehmet 01 March 2011 (has links) (PDF)
A fully automated Cartesian/Quad grid generator and laminar flow solver have been developed for external flows by using C++. After defining the input geometry by nodal points, adaptively refined Cartesian grids are generated automatically. Quadtree data structure is used in order to connect the Cartesian cells to each other. In order to simulate viscous flows, body-fitted quad cells can be generated optionally. Connectivity is provided by cut and split cells such that the intersection points of Cartesian cells are used as the corners of quads at the outmost row. Geometry based adaptation methods for cut, split cells and highly curved regions are applied to the uniform mesh generated around the geometry. After obtaining a sufficient resolution in the domain, the solution is achieved with cellcentered approach by using multistage time stepping scheme. Solution based grid adaptations are carried out during the execution of the program in order to refine the regions with high gradients and obtain sufficient resolution in these regions. Moreover, multigrid technique is implemented to accelerate the convergence time significantly. Some tests are performed in order to verify and validate the accuracy and efficiency of the code for inviscid and laminar flows.
165

Experimental And Theoretical Studies On Jet Acoustics

Pundarika, G 12 1900 (has links)
A systematic research on aeroacoustics conducted around the world for the last few decades has revealed various inherent characteristics of the jet noise radiation. However, a lot more needs to be done for the theoretical as well as experimental predictions of various jet noise features based on actual flow details. The work reported in the present thesis is an attempt in this direction. A critical study of existing literature on jet noise shows that none of the general wave equations lends itself easily for predictions of all the jet noise features. It is shown that while LighthilPs classical acoustic analogy approach, with some reasonable approximations, can be used to yield most of the information needed by the engineers, the convected wave equations of Phillips and Lilley are required to study the acoustic radiation in what has come to be known as "Refraction valley" or "Cone of relative silence". The characteristics of the sound field of underexpanded cold jet impingement flows were studied by measuring the noise emanating from two convergent nozzles of throat diameter 2.5 mm and 5 mm each and a convergent - divergent nozzle of exit diameter of 6.49 mm, when the jet impinges on a flat plate kept perpendicular to the direction of the jet. The measurements were conducted upstream of the nozzle over an extensive envelope of jet operating conditions such as chamber stagnation pressure, mass flow rate through the nozzle and diameter of the nozzle. The source strength at the jet boundary was obtained by measuring acoustic pressure amplitude close to the jet contour assuming it as locally cylindrical. Particular attention was focussed on backward projection of the sound field on to a cylindrical surface. This is the application of acoustic holography to study the sound radiation in the audio frequency region. With the help of FFT and software developed for this purpose, the theoretical predictions using data from several cylindrical surfaces were compared. A detailed analysis of noise radiation from a cold sonic and supersonic free jet was also carried out. The experimental work involved the measurement of noise field from a 2.5 mm, 5 mm convergent and a convergent - divergent nozzle of exit diameter of 6.49 mm and area ratio 1.687 for designed Mach number of two. The experimental setup consisted essentially of a pressure chamber made of mild steel, designed to withstand 50 bar pressure. This chamber is a cylinder with dia 0.421 m and length 0.85 m. The nozzles were made of mild steel. Compressed air approximately at room temperature is supplied to the nozzle via a control valve. The measuring and recording instruments consists of B & K Microphones, Preamplifiers, Conditioning amplifier and a Mediator, which measure a Sound Pressure Level at a point. The nozzles were operated at pressure ratio upto 25 bar. The noise signal was processed through 12 channel data acquisition system. Acoustic pressure and SPL were" calculated using theoretical relations and software developed. Using this software Fast Fourier Transformations of raw signal was obtained from 20 Hz to 20 kHz. Also constant SPL contour graphs were obtained. Source strength distribution at the jet boundary has been obtained by the principle of acoustic holography. Experimental values are closely matching with the results obtained by acoustic holography. The percentage error for acoustic pressure and SPL were less than 12%. The experimental results were used to obtain the source distribution in terms of gross jet parameters.
166

Motion Optimistion Of Plunging Airfoil Using Swarm Algorithm

Arjun, B S 09 1900 (has links)
Micro Aerial Vehicles (MAVs) are battery operated, remote controlled miniature flying vehicles. MAVs are required in military missions, traffic management, hostage situation surveillance, sensing, spying, scientific, rescue, police and mapping applications. The essential characteristics required for MAVs are: light weight, maneuverability, ease of launch in variety of conditions, ability to operate in very hostile environments, stealth capabilities and small size. There are three main classes of MAVs : fixed, rotary and flapping wing MAV’s. There are some MAVs which are combinations of these main classes. Each class has its own advantage and disadvantage. Different scenarios may call for different types of MAV. Amongst the various classes, flapping wing class of MAVs offer the required potential for miniaturisation and maneuverability, necessitating the need to understand flapping wing flight. In the case of flapping winged flight, the thrust required for the vehicle flight is obtained due to the flapping of the wing. Hence for efficient flapping flight, optimising the flap motion is necessary. In this thesis work, an algorithm for motion optimisation of plunging airfoils is developed in a parallel framework. An evolutionary optimisation algorithm, PSO (Particle Swarm Optimisation), is coupled with an unsteady flow solver to develop a generic motion optimisation tool for plunging airfoils. All the unsteady flow computations in this work are done with the HIFUN1 code, developed in–house in the Computational Aerodynamics Laboratory, IISc. This code is a cell centered finite volume compressible flow solver. The motion optimisation algorithm involves starting with a population of motion curves from which an optimal curve is evolved. Parametric representation of curves using NURBS is used for efficient handling of the motion paths. In the present case, the motion paths of a plunging NACA 0012 airfoil is optimised to give maximum flight efficiency for both inviscid and laminar cases. Also, the present analysis considers all practically achievable plunge paths, si- nusoidal and non–sinusoidal, with varying plunge amplitudes and slopes. The results show promise, and indicate that the algorithm can be extended to more realistic three dimension motion optimisation studies.
167

Development Of A Navier-stokes Solver For Multi-block Applications

Erdogan, Erinc 01 September 2004 (has links) (PDF)
A computer code is developed using finite volume technique for solving steady twodimensional and axisymmetric compressible Euler and Navier-Stokes equations for internal flows by &ldquo / multi-block&rdquo / technique. For viscous flows, both laminar and turbulent flow properties can be used. Explicit one step second order accurate Lax-Wendroff scheme is used for time integration. Inviscid solutions are verified by comparing the results of test cases of a support project which was supported by ONERA/France for Turkey T-108, named &ldquo / 2-D Internal Flow Applications for Solid Propellant Rocket Motors&rdquo / . For laminar solutions, analytical flat plate solution is used for planar case and theoretical pipe flow solution is used for axisymmetric case for verification. Prandtl turbulent flow analogy is used in a flat plate solution to verify the turbulent viscosity calculation. The test cases solved with single-block code are compared with the ones solved with multi-block technique to verify the multi-block algorithm and good similarity is observed between single-block solutions and multi-block solutions. For the burning simulation of propellant of Solid Propellant Rocket Motors, injecting boundary is used. Finally, a segmented solid propellant rocket motor case is solved to show the multi-block algorithm&rsquo / s flexibility in solving complex geometries.
168

Three-dimensional Design And Analysis Of A Compressor Rotor Blade

Ozgur, Cumhur 01 August 2005 (has links) (PDF)
Three-dimensional design and three-dimensional CFD analysis of a compressor rotor stage are performed. The design methodology followed is based on a mean line analysis and a radial equilibrium phase. The radial equilibrium is established at a selected number of radii. NACA 65 series airfoils are selected and stacked according to the experimental data available. The CFD methodology applied is based on a three-dimensional, finite difference, compressible flow Euler solver that includes the source terms belonging to rotational motion. The accuracy of the solver is shown by making use of two different test cases. The CFD solution of the designed geometry predicts the static pressure rises and flow turning angles to a good degree of accuracy.
169

Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human Brain

Wolters, Carsten H. 28 November 2004 (has links) (PDF)
The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG. / Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\"uckstr\"ome im leitf\"ahigen Gewebe des Kopfes, die sog. {\em Sekund\"arstr\"ome}. Die Rekonstruktion der Dipolquellen wird das {\em EEG/MEG inverse Problem} genannt. Dessen L\"osung erfordert die wiederholte Berechnung des {\em Vorw\"arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\"ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\"olkerung betroffen sind und f\"ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\"ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\"aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\"angender Zentren im Gehirn, z.B.~des prim\"ar-mo\-to\-ri\-schen, des prim\"ar-au\-di\-to\-rischen oder prim\"ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\"onnten L\"ahmungen, H\"or- und Sensibilit\"atsst\"orungen vermieden werden. Dazu werden \"uber akustische oder sensorische Reize charakteristische Signale evoziert und \"uber Summationstechniken sichtbar gemacht. Durch das L\"osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\"uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\"ange im Gehirn und die Aufdeckung der aktivierten Areale w\"ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\"osung des Vorw\"artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\"adel, die Zerebrospinalfl\"ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\"ahigkeiten besitzen. Der menschliche Sch\"adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\"ahige spongi\"ose Schicht wird von zwei stark isolierenden Schichten, den \"au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\"adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\"adel demnach eine richtungsabh\"angige oder {\em anisotrope} Leitf\"ahigkeit mit einem gemessenen Verh\"altnis von bis zu 1 zu 10. F\"ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \"ahnlichen Verh\"altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\"ahigkeit der WM nicht-invasiv in gen\"ugender Aufl\"osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\"ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \"uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\"urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\"ankte Mobilit\"at \"uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\"atze f\"ur die L\"osung des Vor\-w\"arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\"oht sich die Komplexit\"at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\"aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \"ublicherweise drei Schichten, die die Kopfhaut, den Sch\"adel und das Gehirn repr\"asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\"achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\"ur isotrop leitf\"ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\"aten eingehen zu k\"onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\"ahigkeits-Anisotropien n\"otig und in welchen F\"allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\"onnen komplexe FE-Vorw\"artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\"ur inverse Quellrekonstruktionen in den Anwendungen zu gen\"ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \"Offnungen im Sch\"adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\"aten wie L\"asionen im Gehirn oder die Sutura des Sch\"adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\"assigbaren Einfluss auf das EEG/MEG-Vorw\"arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\"at zweier ausgew\"ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\"adel-Anisotropie nach. Insbesondere f\"ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\"at auf Sch\"adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\"assigbaren Einfluss auf die EEG/MEG-Vorw\"artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\"osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\"onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\"atz\-liche Annahmen \"uber die Quellen sind dementsprechend unerl\"asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\"arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\"oglichst genau erkl\"art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\"osung nimmt und die Algorithmen stabil in Bezug auf eine \"Ubersch\"atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\"onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\"o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\"a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \"uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\"a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\"ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\"adelkante \"uber ein Gl\"atten und Aufblasen der segmentierten Hirnoberfl\"ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\"atzte. \"Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\"ucksichtigung der MR-Inhomogenit\"aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\"adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\"attete Spongiosaoberfl\"ache darstellt und somit ein Abgreifen der Leitf\"ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\"oglicht. Die Eigenvektoren der WM-Tensoren wurden \"uber Ganzkopf-DT-MRT gemessen. Sch\"adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\"a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\"oste FE-Modellierung} des EEG/ MEG-Vorw\"artsproblems. Zun\"achst wurde ein \"Uberblick \"uber die Theorie gegeben und die praktische Realisierung der sp\"ater eingesetzten hochaufgel\"osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\"utzpunkte zur Gl\"attung an Gewebekanten nutzen, vorteilhaft sind zu herk\"ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\"ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\"osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\"osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\"oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\"ur das Verfahren der konjugierten Gradienten konnte f\"ur hochaufgel\"oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \"Uber\-blick \"uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\"asentiert. Es wurde zun\"achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\"uhrt. F\"ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\"arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\"ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\"urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\"uber einem sog. {\em Kal\-man-Gl\"atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\"at} durchgef\"uhrt. Der erste Teil bezog sich dabei auf das Vorw\"arts\-problem, wo die Resultate im Einklang mit der verf\"ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\"adelanisotropie einen nicht-vernachl\"assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\"o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\"ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\"ahigkeits\"anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\"usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\"achlich tangential orientierten oberfl\"achennahen Quelle besonders sensitiv gegen\"uber einer 1 zu 10 Sch\"adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\"adel re\-la\-tiv d\"unn) zu tief und im parietalen und okzipitalen Bereich (Sch\"adel relativ dick) zu oberfl\"achennah lokalisiert wurden, scheint eine Approximation der Sch\"adelanisotropie in BE-Modellen \"uber eine Anpassung des skalaren Sch\"adelleitf\"ahigkeitswertes nicht m\"oglich zu sein. Obwohl bei Vernachl\"assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\"ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24$^{\circ}$ und einer mehr als zweifach untersch\"atzten Quellst\"arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\"ur die Rekonstruktion der vier tangentialen oberfl\"achennahen Dipole, welche als Aktivit\"atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\"adel\-anisotropie als vernachl\"assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\"ur alle getesteten inversen Verfahren stark verf\"alscht. Anisotropie verschob das Aktivit\"ats\-zentrum von $L_1$ und $L_2$ Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung.
170

Encodage Efficace des Systèmes Critiques pour la Vérificaton Formelle par Model Checking à base de Solveurs SAT / Effective Encoding of Critical Systems for SAT-Based Model Checking.

Baud-Berthier, Guillaume 20 September 2018 (has links)
Le développement de circuits électroniques et de systèmes logiciels critiques pour le ferroviaire ou l’avionique, par exemple, demande à être systématiquement associé à un processus de vérification formelle permettant de garantir l’exhaustivité des tests. L’approche formelle la plus répandue dans l’industrie est le Model Checking. Le succès de son adoption provient de deux caractéristiques : (i) son aspect automatique, (ii) sa capacité à produire un témoin (un scénario rejouable) lorsqu’un comportement indésirable est détecté, ce qui fournit une grande aide aux concepteurs pour corriger le problème. Néanmoins, la complexité grandissante des systèmes à vérifier est un réel défi pour le passage à l’échelle des techniques existantes. Pour y remédier, différents algorithmes de model checking (e.g., parcours symbolique des états du système, interpolation), diverses méthodes complémentaires (e.g., abstraction,génération automatique d’invariants), et de multiples procédures de décision(e.g., diagramme de décision, solveur SMT) sont envisageables.Dans cette thèse, nous nous intéressons plus particulièrement à l’induction temporelle.Il s’agit d’un algorithme de model checking très utilisé dans l’industrie pour vérifier les systèmes critiques. C’est également l’algorithme principal de l’outil développé au sein de l’entreprise Safe River, entreprise dans laquelle cette thèse a été effectuée. Plus précisément, l’induction temporelle combine deux techniques :(i) BMC (Bounded Model Checking), une méthode très efficace pour la détection debugs dans un système (ii) k-induction, une méthode ajoutant un critère de terminaison à BMC lorsque le système n’admet pas de bug. Ces deux techniques génèrent des formules logiques propositionnelles pour lesquelles il faut en déterminer la satisfaisabilité.Pour se faire, nous utilisons un solveur SAT, c’est-à-dire une procédure de décision qui détermine si une telle formule admet une solution.L’originalité des travaux proposés dans cette thèse repose en grande partie sur la volonté de renforcer la collaboration entre le solveur SAT et le model checker.Nos efforts visent à accroître l’interconnexion de ces deux modules en exploitant la structure haut niveau du problème. Nous avons alors défini des méthodes profitant de la structure symétrique des formules. Cette structure apparaît lors du dépliage successif de la relation de transition, et nous permet de dupliquer les clauses ou encore de déplier les transitions dans différentes directions (i.e., avant ou arrière). Nous avons aussi pu instaurer une communication entre le solveur SAT et le model checker permettant de : (i) simplifier la représentation au niveau du model checker grâce à des informations déduites par le solveur, et (ii) aider le solveur lors de la résolution grâce aux simplifications effectuées sur la représentation haut niveau. Une autre contribution importante de cette thèse est l’expérimentation des algorithmes proposées. Cela se concrétise par l’implémentation d’un model checker prenant en entrée des modèles AIG (And-Inverter Graph) dans lequel nous avons pu évaluer l’efficacité de nos différentes méthodes. / The design of electronic circuits and safety-critical software systems in railway or avionic domains for instance, is usually associated with a formal verification process. More precisely, test methods for which it is hard to show completeness are combined with approaches that are complete by definition. Model Checking is one of those approaches and is probably the most prevalent in industry. Reasons of its success are mainly due to two characteristics, namely: (i) its fully automatic aspect, and (ii) its ability to produce a short execution trace of undesired behaviors, which is very helpful for designers to fix the issues. However, the increasing complexity of systems to be verified is a real challenge for the scalability of existing techniques. To tackle this challenge, different model checking algorithms (e.g., symbolic model checking, interpolation), various complementary methods (e.g., abstraction, automatic generation of invariants) and multiple decision procedures (e.g., decision diagram, SMT solver) can be considered. In this thesis, we particularly focus on temporal induction. It is a model checking algorithm widely used in the industry to check safety-critical systems. This is also the core algorithm of the tool developed within SafeRiver, company in which this thesis was carried out. More precisely, temporal induction consists of a combination of BMC (Bounded Model Checking) and k-induction. BMC is a very efficient bugfinding method. While k-induction adds a termination criterion to BMC when the system does not admit bugs. These two techniques generate formulas for which it is necessary to determine their satisfiability. To this end, we use a SAT solver as a decision procedure to determine whether a propositional formula has a solution. The main contribution of this thesis aims to strengthen the collaboration between the SAT solver and the model checker. The improvements proposed mainly focus on increasing the interconnections of these two modules by exploiting the high-level structure of the problem.We have therefore defined several methods taking advantage of the symmetrical structure of the formulas. This structure emerges during the successive unfolding of the transition relation, and allows us to duplicate clauses or even unroll the transitions in different directions (i.e., forward or backward). We also established a communication between the solver and the model checker, which has for purpose to: (i) simplify the model checker representation using the information inferred by the solver, and (ii) assist the solver during resolution with simplifications performed on the high-level representation. Another important contribution of this thesis is the empirical evaluation of the proposed algorithms on well-established benchmarks. This is achieved concretely via the implementation of a model checker taking AIG (And-Inverter Graph) as input, from which we were able to evaluate the effectiveness of our algorithms.

Page generated in 0.0363 seconds