51 |
Independent component analysis of evoked potentials for the classification of psychiatric patients and normal controls / Ανάλυση ανεξάρτητων συνιστώσων προκλητών δυναμικών για ταξινόμηση ψυχιατρικών ασθενών και υγιών μαρτύρωνΚοψαύτης, Νικόλαος Ι. 18 February 2009 (has links)
The last twenty years presented increased interest for the study of cerebral processes caused by external events (stimuli). One of the most significant endogenous components of Evoked Potentials is the P600 component. The P600 component may be defined as the most positive peak in the time window between 500 and 800 msec after an eliciting stimulus. This component is thought to reflect the response selection stage of information processing. P600 component is usually less pronounced compared to other components, such as the N100 or the P300. Frequently the P600 component appears as a not-easily discernible secondary peak overlying the ascending negative-going slope of the P300 waveform. In our study we used ERP data from various groups of patients and healthy controls. Patients were recruited from the outpatient university clinic of Eginition Hospital of the University of Athens. The controls were recruited from hospital staff and local volunteer groups. The aim of the study is the implementation of classification systems for these groups, using P600 features. This is usually not achieved well using as features the ERPs amplitude and latency. So for that reason, in our study, we want to extract new features using advanced techniques for processing the original ERPs, such as the Independent Component Analysis (ICA) method. However as a precursor of ICA, is considered the Principal Component Analysis (PCA) method, which we used for comparison reasons to ICA.
In the application of ICA we achieve the decomposition of the recorded signals in ICs, supposing temporally independent components and propose ICs selection techniques in order to recompose the P600 component. The next stage was the use of a classification method based on the features extracted using the original data, data extracted through PCA processing and ICA-processed data. First we applied Kolmogorov-Smirnov test to check the normality of the distribution of the features, then we used the Logistic Regression method for classification and finally we have done two implementations of classification using Probabilistic Neural Networks. The first implementation was done with the creation of 15 features from the P600 peak amplitudes from the subjects’ data and the second implementation was done with the creation of four meta-features from the subjects’ P600 amplitude data.
The results show that the application of ICA, combined with the logistic regression classification technique, provides notable improvement, compared to the classification performance based on the original ERPs. The main merit of the application is that classification is based on single parameters, i.e. amplitude of the P600 component, or its latency or its termination latency, which are directly related to the brain mechanisms related to ERP generation and pathological processes. / Τα τελευταία 20 χρόνια παρουσιάζεται αυξημένο ενδιαφέρον για την μελέτη εγκεφαλικών επεξεργασιών που προκλήθηκαν από εξωτερικά γεγονότα (ερέθισμα). Ένα από τα πιο σημαντικά ενδογενή συστατικά των Προκλητών Δυναμικών είναι το συστατικό P600. Το συστατικό P600 μπορεί να οριστεί σαν η πιο θετική αιχμή στο χρονικό διάστημα μεταξύ 500 και 800 msec μετά από ένα εκλυτικό ερέθισμα. Το συστατικό αυτό θεωρείται ότι απεικονίζει το στάδιο επιλογής απόκρισης της επεξεργασίας πληροφορίας. Το συστατικό P600 είναι συνήθως λιγότερο έντονο συγκρίνοντας το με άλλα συστατικά, όπως το N100 ή το P300. Συχνά το συστατικό P600 εμφανίζεται ως μια δυσδιάκριτη δεύτερη αιχμή, επικαλύπτοντας την ανοδική αρνητική κλίση της κυματομορφής του P300. Στη μελέτη μας χρησιμοποιήσαμε δεδομένα ΠΔ από ποικίλες ομάδες ασθενών και υγιών μαρτύρων. Οι ασθενείς συλλέχθησαν από τη πανεπιστημιακή κλινική του Αιγηνήτειου Νοσοκομείου του Πανεπιστημίου Αθηνών. Οι υγιείς συλλέχθησαν από το προσωπικό του νοσοκομείου και ομάδες εθελοντών. Ο σκοπός της μελέτης είναι η εφαρμογή συστημάτων ταξινόμησης για αυτές τις ομάδες, χρησιμοποιώντας χαρακτηριστικά του P600. Αυτό συνήθως δεν επιτυγχάνεται καλά χρησιμοποιώντας σαν χαρακτηριστικά το πλάτος και τον λανθάνοντα χρόνο των ΠΔ. Για αυτό το λόγο, στην μελέτη μας, θέλουμε να εξάγουμε νέα χαρακτηριστικά χρησιμοποιώντας προηγμένες τεχνικές για επεξεργασία των αρχικών ΠΔ, όπως τη μέθοδο Ανάλυσης Ανεξαρτήτων Συνιστωσών (ICA). Εντούτοις ως πρόδρομο της ICA, θεωρείται η μέθοδος Ανάλυσης Κύριων Συνιστωσών (PCA), την οποία χρησιμοποιήσαμε για συγκριτικούς λόγους με την ICA.
Στην εφαρμογή της ICA προχωρήσαμε στην αποσύνθεση των καταγραφόμενων σημάτων σε Ανεξάρτητες Συνιστώσες και διερευνήσαμε τρεις τεχνικές επιλογής ανεξαρτήτων συνιστωσών μέσω των οποίων επανασυνθέσαμε το συστατικό P600. Το επόμενο βήμα ήταν η χρήση μεθόδου ταξινόμησης βασισμένης στα χαρακτηριστικά που εξάχθηκαν χρησιμοποιώντας τα αρχικά δεδομένα, τα δεδομένα με επεξεργασία PCA και τα δεδομένα με επεξεργασία ICA. Πρώτα εφαρμόσαμε το τεστ Kolmogorov-Smirnov για τον έλεγχο της κανονικότητας της κατανομής των χαρακτηριστικών, μετά χρησιμοποιήσαμε τη μέθοδο Λογαριθμικής Παλινδρόμησης (Logistic Regression) για ταξινόμηση και τελικά πραγματοποιήσαμε δύο εφαρμογές ταξινόμησης χρησιμοποιώντας Πιθανοκρατικά Νευρωνικά Δίκτυα (Probabilistic Neural Networks). Η πρώτη εφαρμογή έγινε με την δημιουργία 15 χαρακτηριστικών από τα πλάτη των αιχμών του P600 από τα δεδομένα των ομάδων και η δεύτερη εφαρμογή έγινε με την δημιουργία τεσσάρων μετά-χαρακτηριστικών από τα δεδομένα των πλατών των ομάδων.
Τα αποτελέσματα δείχνουν ότι η εφαρμογή της ICA, συνδυασμένη με την τεχνική ταξινόμησης λογαριθμικής παλινδρόμησης, παρέχει αξιοσημείωτη βελτίωση, συγκριτικά με την απόδοση ταξινόμησης βάση των αρχικών ΠΔ. Η κύρια αξία της εφαρμογής είναι ότι η ταξινόμηση πετυχαίνει ποσοστά μεγαλύτερα του 80% βασιζόμενη σε μία μόνο κάθε φορά παράμετρο, π.χ. το πλάτος του συστατικού P600, ή τον λανθάνοντα χρόνο του ή τον λανθάνοντα χρόνο τερματισμού του, οι οποίες σχετίζονται άμεσα με τους μηχανισμούς του εγκεφάλου σχετικούς με την παραγωγή ΠΔ και τις παθολογικές διαδικασίες.
|
52 |
Ανάλυση ηλεκτροεγκεφαλογραφικού σήματος με εφαρμογές στην επιληψία και τις μαθησιακές δυσκολίες / Electroencephalographic signal analysis with applications in epilepsy and learning difficulties.Γιαννακάκης, Γιώργος 29 June 2007 (has links)
Σκοπός αυτής της διπλωματικής εργασίας είναι η εξαγωγή γνώσης και χρήσιμων συμπερασμάτων για το σχετικά αδιερεύνητο θέμα της διάγνωσης των μαθησιακών δυσκολιών. Χρησιμοποιήθηκαν δεδομένα καταγραφής ηλεκτροεγκεφαλογραφημάτων ηρεμίας και εγκεφαλικών προκλητών δυναμικών υγιών και ατόμων με μαθησιακές δυσκολίες, τα οποία συλλέχθηκαν στο εργαστήριο Ψυχοφυσιολογίας του Αιγινητείου Νοσοκομείου. Από την ανάλυση αυτών των σημάτων προσδιορίστηκαν παράμετροι (π.χ συγκεκριμένες κορυφώσεις) που διαφοροποιούν στατιστικά τα άτομα με μαθησιακές δυσκολίες σε σχέση με τους υγιείς. Παράλληλα, εξετάστηκαν παράμετροι από την κλασική θεωρία βιοσημάτων όπως η ενέργεια και οι χαρακτηριστικοί ρυθμοί. Τέλος, επιλύθηκε το αντίστροφο πρόβλημα της ηλεκτροεγκεφαλογραφίας ώστε να βρεθούν οι ρευματικές πηγές που προκαλούν τα αντίστοιχα σήματα στην επιφάνεια του κεφαλιού. Από τις πηγές αυτές επιδιώχθηκε ο προσδιορισμός περιοχών του εγκεφάλου που πιθανώς να είναι υπεύθυνες για την εμφάνιση μαθησιακών δυσκολιών. / The present thesis aims at the extraction of knowledge and useful conclusions for the relatively uninvestigated phenomenon of learning difficulties. Patients and healthy controls were evaluated by a computerized version of the digit span Wechsler test and EEG/ERP signals were recorded from 15 scalp electrodes based on the international 10-20 system of electroencephalography. The phenomenon was investigated via processing and analysis of EEG/ERP signals of healthy and persons with learning difficulties. Some features were extracted from these signals that statistically differentiate these two groups. Furthermore, features from classical theory of biosignals such as energy and characteristic rhythms were investigated. Finally, the so-called electroencephalography inverse problem was solved in order to define the internal current sources. The localization of such sources in the brain aimed at defining brain regions that are potentially responsible for learning difficulties.
|
53 |
Návrh digitálního dvojčete CNC obráběcího stroje / Design of digital twinn of CNC machine toolStaněk, Václav January 2019 (has links)
The Master’s thesis deals with design of digital twins of machine tools and application of designed procedure on a case study – digital twin of the machine tool MCV 754 Quick. In the first part are described current roles of digital twins in the field of machine tools and also hardware and software options for creating them. Software and hardware tools by Siemens (Mechatronics Concept Designer and SIMIT) are used for the case study. The complex procedure of creating the digital twin is designed in the second part, starting with preparation of a model, ending with the virtual commissioning of the machine tool MCV 754 Quick. The procedure is described in detail, including preparation of 3D model of the machine tool, assignment of physical properties and joints, preparation of PLC, connection all the elements of the whole system: Sinumerik – SIMIT – Mechatronics Concept Designer and controlling the twin via CNC automation system. Output of the thesis is the virtually commissioned machine tool, capable of being controlled by Sinumerik 840D sl. This is the first step in development of the full-fledged digital twin of machine tool, which can be used for testing the functionality and capability of this new technology in industry.
|
54 |
"In nomine sanctae et individuae Trinitatis". Débats théologiques et enjeux politiques dans le royaume franc à la veille du couronnement impérial de l'an 800.Close, Florence 04 June 2007 (has links)
Cette étude tend à étayer deux hypothèses :
1. La dévotion chrétienne à la Trinité Dieu un en trois Personnes doit sa fortune en Occident continental à la promotion qui lui a été réservée par l'Eglise carolingienne sous l'influence d'Alcuin.
2. Les débats théologiques à forte connotation trinitaire de la fin du 8e siècle, la querelle des images, la condamnation de ladoptianisme et la défense du filioque ont retenu lattention de Charlemagne, lont sensibilisé au danger que représentaient les divergences doctrinales pour lunité politique du royaume et lont finalement convaincu dassumer personnellement une part de la mission de prédication dévolue aux clercs.
Ce travail se veut une histoire de la théologie franque ; une synthèse qui mette en exergue la subtile influence de la connaissance de Dieu sur la politique internationale de la fin du 8e siècle. Il propose une mise au point sur la place réellement dévolue au roi des Francs dans les débats théologiques et dans la propagation de la doctrine chrétienne à lheure de lunification du royaume, ainsi quune analyse des conséquences politiques et ecclésiologiques de l'adhésion franque à la position doctrinale de lévêque de Rome.
Lenquête menée sur le rôle dévolu à Charlemagne dans les débats théologiques souvre sur un retour aux fondements religieux de la monarchie carolingienne. Au vu des conclusions les plus récentes relatives à lhistoriographie franque de la seconde moitié du 8e et du premier quart du 9e siècle, cette étude tend à rejeter catégoriquement lidée du sacre de Pépin par Boniface en 751. Elle propose de voir dans lonction conférée, en 754, par le pape Etienne II à Pépin et à ses deux fils la symbolique dune protection spirituelle accordée à la veille dun départ en campagne contre les Lombards. Les actes des conciles carolingiens attestent quaucun roi des Francs ne se prononça en matière doctrinale avant la dernière décennie du 8e siècle. Charlemagne ne peut revendiquer le titre de théologien ; jamais, dailleurs, il na prétendu être lautorité doctrinale de lOccident. Largement influencé par Alcuin, il sest, néanmoins, peu à peu imposé comme un roi prédicateur (rex praedicator).
La chronologie de la querelle adoptianiste met en exergue linterpénétration des trois débats théologiques dès la fin de lété 792. Ces controverses éclatèrent à la veille de lan 800 qui devait, selon les calculs de Bède le Vénérable, coïncider avec lavènement du « Temps de lEglise » fixé en lan 6000 (AM). Ce contexte millénariste a probablement contribué à exacerber les querelles. Contrairement à ce qui a longtemps été affirmé, ladoptianisme ne peut être assimilé à lhérésie du patriarche dAntioche Nestorius qui, au début du 5e siècle, distinguait deux Personnes dans le Christ. Ladoptianisme est une tentative de sauvegarde du monothéisme trinitaire. Les théologiens espagnols de la fin du 8e siècle portaient laccent sur lhumanité du Christ, qualifié dadopté, comme instrument de la Rédemption, en distinguant la mission de lHomme-Jésus de celle du Verbe. Les Francs et la papauté nont pas compris ou pas voulu comprendre que, dans ce modèle christologique, les termes adoptivus et adoptio n'ont pas d'équivalence avec ceux d'assumptus ou d'assumptio. Ils ont refusé dadmettre que le terme adoption désigne le résultat de la kénose fait que le Verbe se soit vidé de sa divinité pour se remplir dhumanité plutôt que la création dun lien artificiel de filiation.
Cette recherche concède au concile de Ratisbonne (792) une place bien plus grande que celle qui lui est traditionnellement réservée dans lhistoire tant politique que religieuse du royaume franc ; sans le synode de Ratisbonne, celui de Francfort (794) naurait pu être ce quil a été : le haut lieu de la manifestation des compétences des théologiens carolingiens.
La méthode de réfutation des hérésies utilisée en Francia durant la dernière décennie du 8e siècle révèle lattachement des théologiens carolingiens à la tradition scripturaire, patristique et conciliaire garantie par lautorité romaine. Ces querelles témoignent du souci de Charlemagne dimposer son Eglise parmi les plus hautes instances doctrinales en soulignant toute la faiblesse de linterprétation orientale ou byzantine des écritures. Le roi entendait incontestablement affranchir définitivement lEglise franque de lautorité théologique de lempereur dOrient, seul domaine dans lequel Byzance pouvait encore prétendre prévaloir contre lOccident. Les campagnes franques déradication de la doctrine adoptianiste dans le Sud de lEurope furent brutalement interrompues à la suite des tractations diplomatiques menées, à la cour franque, par les ambassades du roi des Asturies en vue denrayer les ambitions expansionnistes carolingiennes dans la péninsule ibérique. Ces événements offrent une autre preuve de la récupération des questions doctrinales à des fins politiques. Ces querelles contribuèrent au renouvellement et au développement de la pensée théologique en Occident. Elles dynamisèrent le processus de formation des prêtres et encouragèrent lenseignement et la mémorisation du Credo trinitaire en gage dadhésion à la foi chrétienne, premier critère dappartenance à lEmpire franc et chrétien, né le 25 décembre 800.
|
55 |
Contributions à la vérification formelle d'algorithmes arithmétiques / Contributions to the Formal Verification of Arithmetic AlgorithmsMartin-Dorel, Erik 26 September 2012 (has links)
L'implantation en Virgule Flottante (VF) d'une fonction à valeurs réelles est réalisée avec arrondi correct si le résultat calculé est toujours égal à l'arrondi de la valeur exacte, ce qui présente de nombreux avantages. Mais pour implanter une fonction avec arrondi correct de manière fiable et efficace, il faut résoudre le «dilemme du fabricant de tables» (TMD en anglais). Deux algorithmes sophistiqués (L et SLZ) ont été conçus pour résoudre ce problème, via des calculs longs et complexes effectués par des implantations largement optimisées. D'où la motivation d'apporter des garanties fortes sur le résultat de ces pré-calculs coûteux. Dans ce but, nous utilisons l'assistant de preuves Coq. Tout d'abord nous développons une bibliothèque d'«approximation polynomiale rigoureuse», permettant de calculer un polynôme d'approximation et un intervalle bornant l'erreur d'approximation à l'intérieur de Coq. Cette formalisation est un élément clé pour valider la première étape de SLZ, ainsi que l'implantation d'une fonction mathématique en général (avec ou sans arrondi correct). Puis nous avons implanté en Coq, formellement prouvé et rendu effectif 3 vérifieurs de certificats, dont la preuve de correction dérive du lemme de Hensel que nous avons formalisé dans les cas univarié et bivarié. En particulier, notre «vérifieur ISValP» est un composant clé pour la certification formelle des résultats générés par SLZ. Ensuite, nous nous sommes intéressés à la preuve mathématique d'algorithmes VF en «précision augmentée» pour la racine carré et la norme euclidienne en 2D. Nous donnons des bornes inférieures fines sur la plus petite distance non nulle entre sqrt(x²+y²) et un midpoint, permettant de résoudre le TMD pour cette fonction bivariée. Enfin, lorsque différentes précisions VF sont disponibles, peut survenir le phénomène de «double-arrondi», qui peut changer le comportement de petits algorithmes usuels en arithmétique. Nous avons prouvé en Coq un ensemble de théorèmes décrivant le comportement de Fast2Sum avec double-arrondis. / The Floating-Point (FP) implementation of a real-valued function is performed with correct rounding if the output is always equal to the rounding of the exact value, which has many advantages. But for implementing a function with correct rounding in a reliable and efficient manner, one has to solve the ``Table Maker's Dilemma'' (TMD). Two sophisticated algorithms (L and SLZ) have been designed to solve this problem, relying on some long and complex calculations that are performed by some heavily-optimized implementations. Hence the motivation to provide strong guarantees on these costly pre-computations. To this end, we use the Coq proof assistant. First, we develop a library of ``Rigorous Polynomial Approximation'', allowing one to compute an approximation polynomial and an interval that bounds the approximation error in Coq. This formalization is a key building block for verifying the first step of SLZ, as well as the implementation of a mathematical function in general (with or without correct rounding). Then we have implemented, formally verified and made effective 3 interrelated certificates checkers in Coq, whose correctness proof derives from Hensel's lemma that we have formalized for both univariate and bivariate cases. In particular, our ``ISValP verifier'' is a key component for formally verifying the results generated by SLZ. Then, we have focused on the mathematical proof of ``augmented-precision'' FP algorithms for the square root and the Euclidean 2D norm. We give some tight lower bounds on the minimum non-zero distance between sqrt(x²+y²) and a midpoint, allowing one to solve the TMD for this bivariate function. Finally, the ``double-rounding'' phenomenon can typically occur when several FP precision are available, and may change the behavior of some usual small FP algorithms. We have formally verified in Coq a set of results describing the behavior of the Fast2Sum algorithm with double-roundings.
|
56 |
Ανάπτυξη ολοκληρωμένου συστήματος εκτίμησης της πυκνότητας του μαστού από εικόνες μαστογραφίαςΧατζηστέργος, Σεβαστιανός 05 December 2008 (has links)
Αντικείμενο της παρούσας εργασία είναι ο υπολογισμός και η ταξινόμηση, με βάση το σύστημα, BIRADS της πυκνότητας του μαστού από εικόνες μαστογραφίας. Στα πλαίσια της προσπάθειας αυτής αναπτύχθηκε ολοκληρωμένο υπολογιστικό σύστημα σε γραφικό περιβάλλον ως λογισμικό πακέτο, σε γλώσσα Visual C++ .NET . Το υπολογιστικό αυτό σύστημα δέχεται σαν είσοδο εικόνες μαστογραφίας σε οποιοδήποτε από τα δημοφιλή bitmap format εικόνων όπως jpeg και tiff καθώς και DICOM αρχεία. Η λειτουργία του μπορεί να χωριστεί σε τρία στάδια: το στάδιο της προεπεξεργασίας, το στάδιο απομόνωσης της περιοχής του μαστού και το στάδιο καθορισμού της πυκνότητας του μαστού. Στο πρώτο στάδιο παρέχονται μια σειρά από στοιχειώδη εργαλεία επεξεργασίας εικόνας όπως εργαλεία περιστροφής, αποκοπής και αλλαγής αντίθεσης . Επιπρόσθετα παρέχεται η δυνατότητα Ανισοτροπικού Φιλτραρίσματος της εικόνας. Στο δεύτερο στάδιο γίνεται η απομόνωση της περιοχής του μαστού είτε απευθείας από τον χρήστη είτε αυτόματα με χρήση των ιδιοτήτων του μονογονικού (monogenic) σήματος για την αφαίρεση του παρασκηνίου (background) καθώς και κυματιδίων Gabor για τον διαχωρισμού του θωρακικού μυός. Στο τρίτο στάδιο παρέχεται η δυνατότητα ταξινόμησης της πυκνότητας του μαστού από τον χρήστη με τον καθορισμό κατάλληλου κατωφλίου των επιπέδων γκρίζου της εικόνας αλλά και η δυνατότητα αυτόματης ταξινόμησης της πυκνότητας του μαστού κατά BIRADS με χρήση Δομικών Στοιχείων Υφής (textons) και της τεχνικής pLSA. Όλες οι παραπάνω λειτουργίες παρέχονται μέσω μίας κατά το δυνατόν φιλικότερης προς τον χρήστη διεπαφής. / The present thesis aims at the classification of breast tissue according to BIRADS system based on texture features. To this end an integrated software system was developed in visual C ++. The system takes as inputs pictures in most of the popular bitmap formats like .jpeg and .till as well as DICOM. The functionality of the system is provided by three modules: (a) pre-processing module, (b) breast segmentation module and (c) the breast tissue density classification module. In the pre-processing module a set tools for image manipulation (rotation, crop, gray level adjustment) are available which are accompanied by the ability to perform anisotropic filtering to the input image. In the second module, the user has the ability to interactively define the actual borders of the breast or ask the system to perform it automatically. Automatic segmentation is a two step procedure; in the first step breast tissue is separated from its background by using the characteristics of monogenic signals, while in the second step the pectoral muscle region is subtracted using Gabor wavelets. In the density classification module the user can either ask for a calculation of breast density based on user-defined grey level threshold or perform an automatic BIRADS-based classification using texture characteristics in conjunction with Probabilistic Latent Semantic Analysis (pLSA) algorithm. Special emphasis was given to the development of a functional and user-friendly interface.
|
57 |
Contributions à la vérification formelle d'algorithmes arithmétiquesMartin-Dorel, Erik 26 September 2012 (has links) (PDF)
L'implantation en Virgule Flottante (VF) d'une fonction à valeurs réelles est réalisée avec arrondi correct si le résultat calculé est toujours égal à l'arrondi de la valeur exacte, ce qui présente de nombreux avantages. Mais pour implanter une fonction avec arrondi correct de manière fiable et efficace, il faut résoudre le "dilemme du fabricant de tables" (TMD en anglais). Deux algorithmes sophistiqués (L et SLZ) ont été conçus pour résoudre ce problème, via des calculs longs et complexes effectués par des implantations largement optimisées. D'où la motivation d'apporter des garanties fortes sur le résultat de ces pré-calculs coûteux. Dans ce but, nous utilisons l'assistant de preuves Coq. Tout d'abord nous développons une bibliothèque d'"approximation polynomiale rigoureuse", permettant de calculer un polynôme d'approximation et un intervalle bornant l'erreur d'approximation à l'intérieur de Coq. Cette formalisation est un élément clé pour valider la première étape de SLZ, ainsi que l'implantation d'une fonction mathématique en général (avec ou sans arrondi correct). Puis nous avons implanté en Coq, formellement prouvé et rendu effectif 3 vérifieurs de certificats, dont la preuve de correction dérive du lemme de Hensel que nous avons formalisé dans les cas univarié et bivarié. En particulier, notre "vérifieur ISValP" est un composant clé pour la certification formelle des résultats générés par SLZ. Ensuite, nous nous sommes intéressés à la preuve mathématique d'algorithmes VF en "précision augmentée" pour la racine carré et la norme euclidienne en 2D. Nous donnons des bornes inférieures fines sur la plus petite distance non nulle entre sqrt(x²+y²) et un midpoint, permettant de résoudre le TMD pour cette fonction bivariée. Enfin, lorsque différentes précisions VF sont disponibles, peut survenir le phénomène de "double-arrondi", qui peut changer le comportement de petits algorithmes usuels en arithmétique. Nous avons prouvé en Coq un ensemble de théorèmes décrivant le comportement de Fast2Sum avec double-arrondis.
|
58 |
Μελέτη προτύπων ιατρικής φυσικής μέσω της επίλυσης προβλημάτων μαθηματικής νευροφυσιολογίαςΓιαπαλάκη, Σοφία 13 March 2009 (has links)
Η Ηλεκτροεγκεφαλογραφία (ΗΕΓ) και η Μαγνητοεγκεφαλογραφία (ΜΕΓ) αποτελούν δύο από τις πλέον ευρέως χρησιμοποιούμενες μη επεμβατικές μεθόδους μελέτης της λειτουργίας του ανθρώπινου εγκεφάλου, κατά τις οποίες καταγράφονται εξωτερικά του κρανίου, το ηλεκτρικό και το μαγνητικό πεδίο, που οφείλονται στη διέργεση εγκεφαλικών νευρώνων. Oι κύριες βιοηλεκτρικές πηγές των πεδίων που καταγράφονται σ’ αυτά, είναι ομάδες νευρώνων, που προτυποποιούνται με ένα ηλεκτρικό δίπολο.
Αρχικά επιλέγεται το πλέον ρεαλιστικό πρότυπο των τριών φλοιών. Δηλαδή ως αγωγός θεωρείται ολόκληρο το κρανίο, συμπεριλαμβανομένου του δέρματος, των κρανιακών οστών, του εγκεφαλονωτιαίου υγρού και του εγκεφαλικού ιστού – περιοχές διαφορετικής ηλεκτρικής αγωγιμότητας – και υπολογίζεται το ηλεκτρικό δυναμικό και το μαγνητικό πεδίο, επιλύεται δηλαδή τόσο το ευθύ πρόβλημα ΗΕΓ, όσο και το αντίστοιχο ΜΕΓ, στη σφαιρική και στην ελλειψοειδή γεωμετρία. Το δεύτερο πρότυπο αφορά στην επίλυση του ευθέος προβλήματος ΗΕΓ για την περίπτωση όπου ο εγκεφαλικός ιστός θεωρηθεί ως ένα σφαιρικός αγωγός, στο εσωτερικό του οποίου βρίσκεται είτε ομόκεντρα μια σφαιρική περιοχή υγρού, οπότε χρησιμοποιείται για την επίλυση το σφαιρικό σύστημα συντεταγμένων, είτε έκκεντρα, οπότε χρησιμοποιείται αντίστοιχα το δισφαιρικό. Τέλος, ως αγωγός θεωρείται μια ομογενής σφαίρα, περίπτωση όπου η ακριβής και πλήρης αναλυτική λύση για το πρόβλημα του Βιομαγνητισμού είναι γνωστή. Η συνεισφορά όμως της διατριβής για το πρότυπο αυτό είναι στη δημιουργία χρήσιμων εργαλείων για την μετατροπή των αναπτυγμάτων των λύσεων σε σειρές, στις αντίστοιχες κλειστές μορφές μέσω της άθροισης των σειρών, καθώς και στην εξαγωγή συμπερασμάτων σχετικά με το αντίστροφο πρόβλημα ΗΕΓ, τα οποία προκύπτουν από τη γραφική επεξεργασία της κλειστής λύσης του ηλεκτρικού δυναμικού, όπως αυτή προέκυψε από τη μέθοδο των ειδώλων. / Electroenchephalography (EEG) and Magnetoenchephalophy (MEG) are common non
invansive methods for studying the function of the human brain. Considering that the
data of the generated electric potential (Electroencephalogram) and the magnetic field
(Magnetoenchephalogram), takes place on or in the surrounding the head, the entire head,
including the skin, the bones, the cerebrospinal fluid and the cerebral, regions which are
characterizing by different electric conductivity are including. For this model, the direct
Bioelectromagnetism problem is solved in both spherical and ellipsoidal geometry. Specifically,
the leading terms of the electric potential in the exterior of the conductor and
everywhere in the interior, as well as the leading quadrupolic term of the multipole expansion
of the exterior magnetic induction field in the ellipsoidal geometry, are obtained.
The reduction of the the ellipsoidal results to the corresponding spherical case, which has
brought up useful conclusions concerning these two geometrical models, is also presented.
The direct EEG problem is described, for the case where the entire cerebral is considered
as a spherical conductor, which surrounds a fluid spherical region of different conductivity.
When the two spherical regions are concentric, the problem is solved with the spherical
geometry, but when these are eccentric the problem is solved with the bispherical geometry.
Finally, the exact and complete analytic solution for the forward EEG problem is produced
by the Image Theory for the homogeneous spherical conductor and is elaborated
graphically. In particular, some electric potential distributions are produced on the surface
of the spherical brain, where the equipotential curves are represented by circles. Considering
these distributions, a parametric analysis of the position and the orientation o the
moment dipole is accomplished for the current dipole that has considered in this thesis.
Consequently, when the source is near the surface, the orientation of the moment is directed
vertically to the zero equipotential circle to the increase potential, since the position
vector of the source tends to become vertical to the maximum equipotential curves. The
existence of special position and orientation of the source, for which the contribution in the external magnetic field is zero - and for the spherical case, where the position and the
orientation of the sources are parallel - corresponds to parallel equipotential curves.
|
Page generated in 0.0271 seconds