• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 23
  • Tagged with
  • 109
  • 53
  • 47
  • 29
  • 18
  • 17
  • 17
  • 17
  • 16
  • 16
  • 14
  • 12
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Ανάπτυξη συστήματος υποστήριξης ιατρικών αποφάσεων μέσω δικτύων πεποίθησης για την πρόγνωση ασθενών με κρανιοεγκεφαλικές κακώσεις

Σακελλαρόπουλος, Γεώργιος 14 April 2010 (has links)
- / -
102

Semantic annotation system for medical images / Σύστημα περιγραφής ιατρικών εικόνων με σημασιολογικά κριτήρια

Κόλιας, Βασίλειος 10 August 2011 (has links)
Nowadays,hospitals are equipped with high resolution medical imaging systems such as MRI, CT that help the radiologists to make more accurate diagnosis. However these systems cannot give any information of the explicit content that is on the image pixels. The vast amount of images that are produced in hospitals is processed mainly by the medical domain users. Even systems such as PACS cannot retrieve images with anatomical or disease-­‐related criteria. The integrating of semantic web technologies in health care can provide a solution. The benefits for the semantic web technologies are owed to the core element of the semantic web, which is the ontology. The ontology sets strict relationships between its entities. The main goal of this thesis is to design and develop an online approach for Semantic Annotation and Retrieval of Medical Images. The architecture of the proposed system is based on a service oriented approach that enables the expandability of the system by integrating new features such as image processing algorithms to perform Computer Aided Diagnosis (CAD) tasks and to make queries with low -­‐ level image characteristics. Also the adopting of such an approach for the architecture allows to add new reference ontologies to the system without redesigning the core architecture. The ontology framework of the system includes (a) three reference ontologies, namely the Foundational Model of Anatomy (FMA) for the anatomy annotation, the International Classification of Disease (ICD-­‐10) for the disease annotation and the RadLex for the radiological findings and (b) an application ontology that connects the medical document with the concepts of the medical ontologies (FMA, ICD-­‐10, Radlex) and it also contains information about patient, hospital and image modality. Part of application ontology information is extracted from the DICOM header. In the context of the current thesis, the system was used to annotate and retrieve several medical images. The proposed online approach for annotation and retrieval of medical images system can enable the interoperability between different Health Information Systems (HIS) and can constitute a tool for discovering the hidden knowledge in medical image data. / -
103

Αιτιογνωστική και προγνωστική ανάλυση απουσιών σε κοόρτη εργαζομένων στη βιομηχανία / Causative and prognostic analysis of sickness absence in a cohort of employees in heavy industry

Μερεκούλιας, Γεώργιος 05 February 2015 (has links)
Σκοπός της διατριβής ήταν η διερεύνηση του φαινομένου της απουσίας (για λόγους υγείας) από την εργασία στον ιδιωτικό τομέα και ιδίως στη βαριά βιομηχανία, και τη πιθανή επίδραση στην ικανότητα εργασίας. Η παρούσα διδακτορική διατριβή στηρίχτηκε κυρίως στη μελέτη του αρχείου αναρρωτικών αδειών (μιας κοόρτης) εργαζομένων σε ένα από τα μεγαλύτερα ναυπηγεία της χώρας, καθώς και στις ετήσιες στατιστικές αναφορές του Ιδρύματος Κοινωνικών Ασφαλίσεων (ΙΚΑ) της τελευταίας 20ετίας. Τα χαμηλά επίπεδα απουσιασμού ασθενείας στον ιδιωτικό τομέα στην Ελλάδα επιβεβαιώθηκαν από τη μελέτη που έγινε στα πλαίσια αυτής της διατριβής, αν και τα αποτελέσματα υποδεικνύουν ότι ο απουσιασμός ασθενείας στην Ελλάδα είναι ελαφρώς μεγαλύτερος από ότι υποδείκνυαν οι πρόσφατες διεθνείς συγκριτικές μελέτες. Το ποσοστό απουσιασμού (Absenteeism rate) βρέθηκε περίπου 2.5%, από τα χαμηλότερα στην Ευρώπη. Παρόλα αυτά, επειδή περιλαμβάνει τον εργάσιμο χρόνο που διαφέρει από χώρα σε χώρα, δεν χρησιμοποιείται συχνά στις μελέτες αν και ίσως είναι ο πιο έγκυρος δείκτης απουσιασμού. Η μέση διάρκεια απουσίας για κάθε εργαζόμενο ανά έτος ήταν 5.8 ημέρες( μέγιστη τιμή 8 ημέρες προς το τέλος της περιόδου μελέτης) με ένα αντίστοιχο μέσο όρο που ξεπερνούσε κατά πολύ τις 10 ημέρες στην υπόλοιπη Ευρώπη. Ενδιαφέρον εύρημα αποτελεί το γεγονός ότι οι μικρής διάρκειας απουσίες (<4 ημέρες) αντιστοιχούσαν στο 25% της συνολικής διάρκειας των απουσιών, κάτι που μέχρι τώρα δεν μπορούσε να υπολογιστεί από τα εθνικά στατιστικά δεδομένα του ΙΚΑ. Κατά τη μελέτη των δεδομένων του ΙΚΑ τις δυο τελευταίες δεκαετίες, βρέθηκε μια κυματοειδής πορεία του απουσιασμού, επιδεικνύοντας πτωτική πορεία μέχρι τα τέλη τις δεκαετίας του 1990, σε συμφωνία με τις προηγούμενες μελέτες και εν συνεχεία μια ανοδική πορεία, αν και μέχρι το τέλος της περιόδου μελέτης τα επίπεδα παρέμειναν χαμηλότερα από τα αρχικά. Σίγουρα οι παρατηρήσεις αυτής της μελέτης χρήζουν περαιτέρω διερεύνησης, καθώς ο χαμηλός απουσιασμός μόνο μερικώς μπορεί να αποδοθεί στα χαμηλά επίπεδα αποζημίωσης μισθού σε περίπτωση αναρρωτικής άδειας ή τα υψηλά ποσοστά ανεργίας. Βασικός σκοπός πρέπει πάντα να είναι η διατήρηση και προώθηση της καλής υγείας των εργαζομένων, μέσω όσο το δυνατόν καλύτερων εργασιακών συνθηκών. Καθώς τόσο οι εργασιακές συνθήκες όσο και η υγεία των εργαζομένων είναι σε μια δυναμική κατάσταση, χρειάζονται εργαλεία παρακολούθησης. Η μέτρηση του απουσιασμού ασθενείας είναι ένας παράγοντας που πάντα θα πρέπει να εκτιμάται από τον ιατρό εργασίας και τον εργοδότη, χρησιμοποιώντας τους διάφορους δείκτες που έχουν καθιερωθεί. Σαν συμπληρωματικό εργαλείο παρακολούθησης προτείνεται η χρήση του Δείκτη Ικανότητας Εργασίας (Work Ability Index), που είναι ένα ερωτηματολόγιο, το οποίο σταθμίστηκε στα Ελληνικά και εκτιμά γενικά τη λειτουργική ικανότητα των εργαζομένων, όντας άμεσα συνδεδεμένο με τον απουσιασμό ασθενείας. Η ελληνική έκδοση του Δείκτη Ικανότητας Εργασίας έδειξε ικανοποιητικές ψυχομετρικές ιδιότητες και συνοχή, και μπορεί να αποτελέσει μια αξιόπιστη εναλλακτική επιλογή στα εργαλεία αξιολόγησης της ικανότητας εργασίας σε ατομικό και ομαδικό επίπεδο. Ο παράγοντας Bradford είναι ένας ακόμα δείκτης που η προγνωστική του δύναμη όσον άφορα το βραχυπρόθεσμο απουσιασμό φάνηκε σε αυτή τη μελέτη. Προτείνεται επίσης η χρήση και των δυο αυτών δεικτών με την μορφή ενός νέου δείκτη (Δείκτης Πρόβλεψης Πιθανής Απουσίας), για την ανίχνευση εργαζομένων και τομέων εργασίας με αυξημένη πιθανότητα απουσίας για λογούς υγείας τα αμέσως επόμενα χρόνια. Στα πλαίσια της στάθμισης έγινε επίσης φανερό το πρότυπο νοσηρότητας του πληθυσμού των ναυπηγείων, όπου κυριαρχούν οι μυοσκελετικές και αναπνευστικές παθήσεις μαζί με το τραύμα, ενώ τη μεγαλύτερη επίδραση στην ικανότητα εργασίας φαίνεται να έχουν οι καρδιαγγειακές και ψυχικές παθήσεις. Αναδείχτηκε επίσης η υποδιάγνωση των ψυχικών παθήσεων, που είναι ένα γενικότερο πρόβλημα στην Ελλάδα. Οι ραδιοτεχνίτες και οι φλογοχειριστές φαίνονται να εμφανίζουν τα μεγαλύτερα επίπεδα απουσιασμού. Οι παράγοντες που βρέθηκαν να συσχετίζονται θετικά με αυξημένα επίπεδα απουσιασμού είναι η μικρή ηλικία, οι χειρωνακτικές εργασίες, το χαμηλό επίπεδο εκπαίδευσης και η εργασιακή εμπειρία άνω των 3 ετών. Συμπερασματικά, χρειάζονται περαιτέρω μελέτες για να κατανοηθεί πλήρως ο απουσιασμός ασθενείας, σε όλους τους εργασιακούς τομείς και βεβαίως εκπαίδευση του ιατρικού προσωπικού στο θέμα της χορήγησης αναρρωτικών αδειών, όπου θα βοηθούσε η χρήση εργαλείων όπως αυτά που μελετήθηκαν σε αυτή τη διατριβή(πχ Disability Guidelines), και ήδη βρίσκουν εφαρμογή σε άλλες χώρες. / The aim of this study was to estimate the levels and analyse sickness absence in the private sector in Greece, using shipyard and national insurance data. Field data were collected in a cohort of shipyard employees in the period between 1999 and 2006. In addition, national sickness absenteeism data (compensated days) of employees insured at the Social Insurance Institute (IKA, the largest insurance scheme in Greece) were retrieved from the Institute’s annual statistical reports for the period 1987-2006. Low levels of sickness absence in the private sector in Greece have been confirmed by this study, although the findings show that sickness absence in Greece is slightly higher than what the recent international comparative studies indicate. The absenteeism rate was 2.5%, which is one of the lowest in Europe. Nevertheless, due to the fact that it involves working hours which differ from one country to another, it is not often used in the studies despite being the most valid indicator of absence. The average duration of absence for every employee per year was 5.8 days (maximum number was 8 days towards the end of the study). In Europe, the average number of days of sickness absence exceeded 10 days. An interesting finding is the fact that short period absences (<4 days) constituted 25% of the total duration of absences, which could not be calculated until now by the national statistical data of the Social Insurance Institute (IKA). While studying the data of IKA of the last two decades, a sinusoidal-like trend was recorded regarding absenteeism. Declining trend by the end of the 1990s was observed, in accordance with previous studies and then an increasing trend, although at the end of the study period the levels remained lower than those at the beginning. Further research is needed concerning the observations of this study since the low absenteeism levels can only be partially attributed to the low compensation rate in case of sick-leave or to the high levels of unemployment. The primary objective should always be health preservation and promotion of the employees by means of the best possible working conditions. As both working conditions and employees’ health are dynamic situations, monitoring tools are required. Sickness absence should always be monitored by the occupational health physician as well as the employer, using the various established tools. The use of Work Ability Index is recommended as an additional monitoring tool. It is a questionnaire, directly linked to sickness absence, which generally evaluates the employees’ functional ability. The Greek version of Work Ability Index displayed satisfactory psychometric properties and consistency thus constituting an appropriate option for evaluating work ability in both individual and population-based settings. The Bradford factor is another index whose prognostic strength concerning short-term absenteeism was evident in this study. The use of both these tools in the form of one new index (Sickness Absence Probability Factor) is also recommended in order to identify employees and work areas with an increased tendency for sickness absence. During the validation process, the morbidity pattern of the shipyard population also became obvious. Musculoskeletal, respiratory diseases as well as trauma are most prevalent, whereas cardiovascular and mental diseases seem to have the biggest impact on work ability. The underdiagnosis of mental diseases was also revealed, which is a general problem in Greece. Radiomen and flame-cutters seem to have the highest levels of absence, while the factors which were found to be positively linked to high levels of absenteeism are young age, manual labor, low educational level and working experience over 3 years. In conclusion, further research is necessary to fully describe and understand the phenomenon of sickness absence in various work fields. Medical staff training in the area of issuing sick-leave is essential and has already been implemented in other countries. Tools, like the ones studied in this dissertation should be utilized.
104

Quality control of PET camera for small animal imaging / Έλεγχος ποιότητας κάμερας PET για απεικόνιση μικρών ζώων

Ευθυμίου, Νικόλαος 06 February 2009 (has links)
- / The term Molecular Imaging (MI) can be broadly defined as the in vivo characterization and measurement of biological processes at the cellular and molecular level. In contradistinction to “classical” diagnostic imaging, it sets forth to probe the molecular abnormalities that are the basis of disease rather than to image the end effects of these molecular alterations. The underlying biology represents a new arena for many researchers. A number of technological challenges such as signal amplification, data and image processing and efficient imaging strategies, provide a fast growing scientific domain. Positron Emission Tomography (PET), Magnetic Resonance Imaging (MRI), Single Photon Emission Tomography (SPECT) and optical imaging are the main tools of clinical molecular imaging. Nuclear medicine techniques (SPECT and PET) are key players in MI. New radiopharmaceutical products are currently being developed, in order to increase the specificity and sensitivity of existing imaging techniques. Small animal imaging is the main tool for the evaluation of those derivatives, especially in dynamic in vivo studies. In this, preclinical part, high resolution and high sensitivity imaging equipment is necessary; as a result a number of such prototypes have been developed worldwide and some of them are commercialized. However, there cost is usually not affordable for small or medium size laboratories. In this work a low cost dual head PET camera, suitable for high resolution small animal studies has been developed. It is the result of the collaboration between Jefferson lab and Technological Educational Institute of Athens (TEI) and is currently evaluated in Institute of Radioisotopes and Radiodiagnostic Products (IRRP), in “Demokritos” Center. The system has a field of view of 5x5cm and is based on 2 H8500 position sensitive photomultiplier tubes (PSPMTs), coupled to two LSO crystals with 2.5x2.5mm pixel size. Then an FPGA based data acquisition system and proper data reconstruction system collect events, sort coincidences and produce images. The DAQ board consists of 16-channel DAQ modules installed on a USB2 carrier. Each channel is an independent acquisition system consisting of traditional analog pulse processing, FPGA analog control, and FPGA signal processing. After acquisition and processing, channel data are assembled into event blocks for readout by the carrier board. Application specific tasks are performed in JAVA using the Kmax interface. The GUI was designed to be easy-to-use. In order to further analyze images and process the results proper algorithms were developed in MATLAB and ImageJ. Systems evaluation has been carried out using FDG. Point sources have been used for systems calibration. Capillaries with 1.1mm inner diameter were imaged and used for resolution calculation. Finally a mouse injected with 100μCi of FDG was imaged. Spatial resolution has been measured using thin capillaries (1.1mm inner diameter) and found equal to 3,5mm in planar mode. This lower limit is determined by LSO pixels size (2.5×25mm2). Simulation studies have shown that resolution lower than 2mm will be achieved in tomographic mode. Mice injected with FDG are presented. Brain and heart are clearly imaged. Currently, a rotating base is constructed, in order to upgrade the system to a tomographic PET. PET results will be presented as well. In addition, IRRP and TEI are working on new radiopharmaceuticals based on Cu-64. It must be stated that PET market opened in Greece four years ago; This system is the first working small PET prototype in Greece and it initiates national preclinical PET research.
105

Experimental evaluation of single-crystal and granular scintillators in medical imaging detectors : application in an experimental prototype imaging system / Πειραματική αξιολόγηση μονοκρυσταλλικών και κοκκώδους μορφής σπινθηριστών σε ανιχνευτές ιατρικής απεικόνισης : εφαρμογή σε πειραματικό πρωτότυπο απεικονιστικό σύστημα

Δαυίδ, Ευστράτιος 20 October 2010 (has links)
The aim of the present thesis is to evaluate fast scintillator materials, in both single-crystal and powder form, for possible usage in dedicated gamma ray imaging applications as well as in X-ray imaging techniques, requiring high frame rates. Powder scintillators are traditionally used in conventional X-ray imaging due to their property to produce high resolution images. This is because laterally directed optical photons, originating from the point of X-ray interaction, are strongly attenuated by light scattering effects on powder grains. This property however is their principal drawback for routine Nuclear Medicine applications. In these applications, photon counting accuracy rather than spatial resolution is required and to this aim high transparency crystals are used. In the present study we have tried to estimate whether the use of powder phosphors can improve the image quality in a dedicated gamma-ray system where spatial resolution than sensitivity is of primary significance. Evaluation was performed in thin and thick phosphor layers easily produced in the laboratory. In addition we present a low cost solution – consisting of a thick continuous powder scintillator screen – for use in dedicated high resolution small gamma imager. The advantages and disadvantages of proposed powder detector performance were compared to two standard 3 x 3 x 5mm3 and 2 x 2 x 3mm3 pixellated CsI:Tl scintillator detector configurations. System performance in terms of system sensitivity, system spatial resolution, energy resolution and linear energy response were measured at energy of 140 keV for close-proximity nuclear emission imaging. All measurements were carried out in photon counting mode in planar imaging configuration. The investigation was divided into two parts: Fast powder scintillators: In this part, powder scintillator screens of LSO:Ce, YAG:Ce and GOS:Pr were prepared in various coating thicknesses. Measurements concerning determination of emission spectra and absolute luminescence efficiency were carried out under X-ray excitation from 22 to 140 kV. Related parameters giving informations on luminescence and intrinsic properties of the phosphors such as X-ray luminescence efficiency, quantum detection efficiency, energy absorption efficiency and intrinsic conversion efficiency were also examined. Low cost and high resolution detector module: The goal of this part was to propose and evaluate a low cost solution for detector module – consisting of a thick continuous powder scintillator screen – for use in dedicated high resolution small gamma imagers. For the latter purpose, we examined the performance of the aforementioned fast powder scintillators in the form of thick screens easily produced in the laboratory. System performance in terms of system sensitivity, system spatial resolution, energy resolution and linear energy response were measured and compared for two standard 3 x 3 x 5mm3 and 2 x 2 x 3mm3 pixellated CsI:Tl. / Ο σκοπός της παρούσας διατριβής είναι η αποτίμηση φθοριζόντων υλικών υψηλής απόκρισης, τόσο σε κρυσταλλική όσο και σε κοκκώδη μορφή για πιθανή χρησιμοποίησή τους σε συγκεκριμένους τύπους ανιχνευτικών συστημάτων Πυρηνικής Ιατρικής όπως επίσης σε συστήματα απεικόνισης με ακτίνες Χ που απαιτούν πολύ γρήγορες λήψεις ιατρικής εικόνας. Τα φθορίζοντα υλικά κοκκώδους μορφής χρησιμοποιούνται ευρύτατα στην απεικόνιση με ακτίνες-Χ λόγω της υψηλής διακριτικής ικανότητας που μπορεί να επιτευχθεί. Στην παρούσα διατριβή μελετήθηκε κατά πόσο η χρήση νέων, γρήγορων φθοριζόντων υλικών κοκκώδους μορφής μπορεί να βελτιώσει την απόδοση συγκεκριμένων τύπων ανιχνευτικών συστημάτων Πυρηνικής Ιατρικής (π.χ. dedicated small nuclear imagers), στα οποία η διακριτική ικανότητα του συστήματος είναι πιο σημαντική από την ευαισθησία. Η αποτίμηση έγινε σε φθορίζοντα μεγάλου πάχους που παρασκευάστηκαν στο εργαστήριο. Επιπρόσθετα στην παρούσα διατριβή παρουσιάζεται η εφαρμογή ενός χαμηλού κόστους συμπαγούς ανιχνευτικού υλικού κοκκώδους μορφής σε ένα εξειδικευμένο σύστημα Πυρηνικής Ιατρικής. Γίνεται συστηματική μελέτη και εκτενής αναφορά στα πλεονεκτήματα και τα μειονεκτήματα αυτού του συστήματος. Τα αποτελέσματα συγκρίνονται με αντίστοιχα αποτελέσματα που ελήφθησαν με χρήση διακριτοποιημένων σπινθηριστών τύπου CsI:Tl, μεγέθους 3 x 3 x 5mm3 και 2 x 2 x 3 mm3. Η απόδοση του συστήματος ως προς την ευαισθησία (sensitivity), τη χωρική διακριτική ικανότητα (spatial resolution) και την ενεργειακή διακριτική ικανότητα (energy resolution) αποτιμήθηκε για ενέργεια 140 keV, που αντιστοιχεί στην ενέργεια του ισοτόπου 99mTc που χρησιμοποιείται ευρύτατα σε εξετάσεις Πυρηνικής Ιατρικής. Η πειραματική μελέτη χωρίστηκε σε δύο μέρη: Φθορίζοντα υλικά κοκκώδους μορφής: Στο πρώτο μέρος της παρούσας διδακτορικής διατριβής μελετήθηκαν τα φθορίζοντα υλικά κοκκώδους μορφής LSO:Ce, YAG:Ce και GOS:Pr σε διάφορα πάχη και για μεγάλη κλίμακα ενεργειών (Υψηλή τάση λυχνίας ακτίνων-Χ από 22 kV έως 140 kV). Ανιχνευτής χαμηλού κόστους και υψηλής διακριτικής ικανότητας: Ο τελικός στόχος της παρούσας διατριβής ήταν η κατασκευή ενός ενιαίου ανιχνευτή, βασισμένου σε σπινθηριστή κοκκώδους μορφής, χαμηλού κόστους και υψηλής διακριτικής ικανότητας, κατάλληλου για χρήση σε εξειδικευμένα συστήματα Πυρηνικής Ιατρικής. Για το σκοπό αυτό μελετήθηκε η συμπεριφορά των υλικών κοκκώδους μορφής LSO:Ce, YAG:Ce και GOS:Pr υπό διέγερση ακτίνων γάμμα με ισότοπο Τεχνητίου (99mTc), ενέργειας 140 keV, που χρησιμοποιείται ευρύτατα στην Πυρηνική Ιατρική. Τα υλικά αυτά υπό την μορφή ενιαίου, μεγάλου πάχους ( ≥2mm) και διαμέτρου (9 cm), συμπαγούς ανιχνευτή αξιολογήθηκαν με τεχνικές απεικόνισης μονού φωτονίου (single photon counting mode).
106

Αποδοτική οργάνωση και διαχείριση πολυδιάστατων αντικειμένων για την ανακάλυψη γνώσης

Κροτοπούλου, Αικατερίνη 11 January 2011 (has links)
Ο σκοπός αυτής της διατριβής είναι η ανεύρεση μεθόδων αποδοτικής οργάνωσης και διαχείρισης πολυδιάστατων αντικειμένων (multi-dimensional objects) προκειμένου να ανακαλυφθεί χρήσιμη γνώση. Αρχική αφορμή για αυτή τη μελέτη αποτέλεσαν οι ανάγκες μιας απαιτητικής εφαρμογής με σκοπό τη χαρτογράφηση του ανθρώπινου εγκεφάλου προκειμένου να εντοπιστούν επιληπτικές εστίες. Οι απαιτήσεις Αναπαράστασης και Διαχείρισης των Δεδομένων του Εγκεφάλου, έφεραν στην επιφάνεια δύο κεντρικά ερευνητικά προβλήματα: - Τις ιδιαιτερότητες των πολύπλοκων, μη-ομοιογενών, δικτυακών μερικές φορές, τρισδιάστατων αντικειμένων (τμημάτων του εγκεφάλου – brain objects). - Την ανάγκη για αποτελεσματική διαχείριση-χρήση γνωστών αλλά και παραγόμενων εξαρτήσεων δεδομένων και γνώσης (data and knowledge dependencies), η οποία μπορεί να αναβαθμίσει την απόδοση και τη δυναμική της εφαρμογής. Το μεγαλύτερο μέρος της μελέτης που αφορούσε αυτό το πρόβλημα, οδήγησε σε : - Διερεύνηση θεμάτων ανεύρεσης ομοιοτήτων (similarity search). Καθώς η συγκεκριμένη περιοχή διαθέτει μεγάλο εύρος εφαρμογών αλλά και ανοικτών προβλημάτων, αποτέλεσε τελικά μεγάλο μέρος της παρούσας διατριβής. Δεδομένου ότι πολλά από τα γεωμετρικά χαρακτηριστικά των δεδομένων αλλά και από τις εξαρτήσεις γνώσης που αφορούν τον ανθρώπινο εγκέφαλο, συναντώνται – καθ’ολοκληρία ή τμηματικά – σε πλήθος σύγχρονων πολυμεσικών (multimedia) εφαρμογών, τα παραπάνω προβλήματα εντάσσονται στα βασικά προβλήματα της έρευνας του τομέα των Βάσεων Δεδομένων. Επικεντρώνοντας την έρευνά στα παραπάνω προβλήματα, καταλήξαμε: • στον ορισμό νέων ευέλικτων τύπων δεδομένων, εννοιών και μοντέλων καθώς και εργαλείων και μεθόδων ταξινόμησης δεδομένων και γνώσης (βάση δεδομένων BDB και μοντέλα 3D-IFO και MITOS) οι οποίες οργανώνουν πιο ευέλικτα και αποδοτικά τα δεδομένα μας, με τρόπους που όχι μόνο κάνουν την πρόσβασή τους ευκολότερη αλλά αξιοποιούν παράλληλα τις ‘κρυμμένες’ μεταξύ τους σχέσεις για την άντληση επιπλέον γνώσης. • στον ορισμό νέων μεθόδων και δέντρων αναζήτησης, για : o τον αποδοτικό εντοπισμό τμηματικών ομοιοτήτων (partial similarity) ανάμεσα σε πολυδιάστατα αντικείμενα (Lui k-n-match και INTESIS) o την εξάλειψη της μεγάλης πτώσης της απόδοσης των δέντρων με την αύξηση των διαστάσεων των αντικειμένων (‘dimensionality curse’) (δομή Digenis). o την ανεύρεση χαρακτηριστικών/διαστάσεων με παρόμοια εξέλιξη στην πορεία του χρόνου – για πολυδιάστατα κυρίως αντικείμενα – με σκοπό τη μελέτη πιθανής αλληλεπίδρασής τους. Γενικά, η παρούσα μελέτη αποτελείται από δύο βασικά μέρη, τα οποία αναφέρονται σε δύο περιοχές με μεγάλη αλληλεπίδραση:  Τη Μοντελοποίηση σε Πολυμεσικές Βάσεις Δεδομένων  Την Αναζήτηση Ομοιοτήτων ανάμεσα σε Πολυδιάστατα Αντικείμενα Στο πρώτο κεφάλαιο αρχικά παρουσιάζεται το πρόβλημα της χαρτογράφησης του ανθρώπινου εγκεφάλου για τον εντοπισμό επιληπτικών εστιών, απ’όπου εγείρονται τα πρώτα προβλήματα αναπαράστασης και οργάνωσης τριδιάστατων αντικειμένων πολύπλοκης δομής και λειτουργικών σχέσεων και εξαρτήσεων μεταξύ τους. Σε μια πρώτη προσέγγιση προτείνεται το λογικό μοντέλο BDB (Brain Data Base) όπου εισάγονται νέοι τύποι οντοτήτων. Εδώ, ιδιαίτερο ενδιαφέρον παρουσιάζει η προσθήκη της ιεραρχικής διάταξης στο Σχεσιακό Μοντέλο, προκειμένου οι περιοχές του εγκεφάλου να οργανωθούν με βάση την πιθανότητα εμφάνισης επιληπτικής εστίας έτσι ώστε να βελτιώνονται στατιστικά οι χρόνοι ανάκτησής τους. Στη συνέχεια, η μελέτη επεκτείνεται σε άλλα – επόμενης γενιάς - είδη μοντέλων. Πιο συγκεκριμένα, οι ανάγκες της εφαρμογής μελετώνται με βάση ένα Σημαντικό (semantic model) - το μοντέλο IFO - και ένα Αντικειμενοστραφές Μοντέλο (object oriented model), με αποτέλεσμα τη δημιουργία των μοντέλων 3D-IFO και MITOS αντίστοιχα. Στο 3D-IFO εισήχθησαν νέοι τύποι δεδομένων προκειμένου να υποστηριχθούν αποδοτικά τα ιδιαίτερα δεδομένα μας καθώς και νέοι τελεστές για την καλύτερη διαχείριση των σύνθετων δεδομένων. Επιπλέον, εισήχθη ένας νέος constructor και ένα κατάλληλο πεδίο για την υποστήριξή του, προκειμένου να υποστηριχτεί η αναπαράσταση της διάταξης των μερών του εγκεφάλου με βάση κάποιο κριτήριο έτσι ώστε να διευκολυνθεί η μελλοντική απλή και συνδυαστική ανάκτηση πληροφορίας. Τέλος το αντικειμενοστραφές μοντέλο MITOS, εισάγει πάλι ένα νέο μοντέλο δεδομένων (MITOS Data Model - MDM) το οποίο συνεργάζεται με μία νέα γλώσσα ερωτημάτων (MITOS Query Language - MQL). Το μοντέλο MITOS εισάγει διάφορες καινοτομίες οι οποίες εξυπηρετούν μια περισσότερο εκφραστική και έξυπνη αναπαράσταση και διαχείριση πολυδιάστατων δεδομένων και γνώσης. Η μία από αυτές τις καινοτομίες είναι ο ορισμός ενός ακόμη βασικού χαρακτηριστικού των αντικειμένων (object characteristic), της σχέσης τους με το περιβάλλον, απεγκλωβίζοντάς την από την κατάσταση ή τη συμπεριφορά, όπου αποδυναμώνεται σαν έννοια. Η δεύτερη καινοτομία του MITOS η οποία αφορά την MQL σχετίζεται με την εισαγωγή ‘κλειδιού’ στους κανόνες (rules). Η διερεύνηση αυτής της δυνατότητας – η ιδέα προέρχεται από το χώρο των Βάσεων Δεδομένων – οδηγεί πράγματι σε ένα είδος κλειδιού, κατά την έννοια που θα μπορούσε να έχει στις Βάσεις Γνώσης και η οποία δεν μπορεί να είναι ακριβώς ίδια με την αντίστοιχη των Βάσεων Δεδομένων, λόγω των ειδοποιών διαφορών των δύο Βάσεων. Στο δεύτερο κεφάλαιο μελετάται η αναζήτηση ενός ελάχιστα διερευνημένου είδους ομοιότητας ανάμεσα σε πολυδιάστατα κυρίως αντικείμενα, της τμηματικής ομοιότητας (partial similarity). Η τμηματική ομοιότητα σε αντίθεση με τον ιδιαίτερα διερευνημένο τύπο της πλήρους ομοιότητας (full similarity), αναφέρεται σε πραγματικές ομοιότητες οι οποίες δεν είναι πλήρεις. Κι αυτό συμβαίνει γιατί ένα πολύ συνηθισμένο σενάριο κατά τη διερεύνηση ομοιοτήτων είναι το ακόλουθο: Συνήθως η ανεύρεση πλήρους ομοιότητας βασίζεται σε υπολογισμό αποστάσεων, όπως η Ευκλείδεια απόσταση, οι οποίες είναι συνάρτηση όλων των διαστάσεων των εμπλεκομένων αντικειμένων. Όταν λοιπόν υπάρχουν διαστάσεις με μεγάλες διαφορές, ακόμη κι αν είναι λίγες, αυξάνουν αρκετά την υπολογιζόμενη απόσταση έτσι ώστε οι αποστάσεις τέτοιων αντικειμένων που στην πραγματικότητα μπορεί να είναι όμοια, να καταλήγουν να έχουν μεγάλες τιμές και συνεπώς να μην ανιχνεύεται η ομοιότητά τους (π.χ. όμοια αντικείμενα με πολύ διαφορετικό χρώμα). Από την άλλη πλευρά, για αντικείμενα τα οποία διαφέρουν λίγο σε κάθε διάσταση (π.χ. λίγο διαφορετικό χρώμα, σχήμα, προσανατολισμό κ.λ.π.) και καταλήγουν να είναι στην πραγματικότητα συνολικά πολύ διαφορετικά, η υπολογιζόμενη μεταξύ τους απόσταση έχει μικρή τιμή, οπότε ανιχνεύονται σαν όμοια, χωρίς να είναι. Οι περισσότερες εργασίες οι οποίες έχουν μελετήσει την τμηματική ομοιότητα, έχουν εστιάσει σε γεωμετρικά δεδομένα. Η εργασία που επεκτείνεται σε πολυδιάστατα αντικείμενα γενικά, είναι η εργασία των Koudas et al., (VLDB 2006) και έχει οδηγήσει σε αξιόλογα αποτελέσματα στο θέμα της τμηματικής ομοιότητας. Εισάγει τις αποδοτικές μεθόδους k-n-match και frequent k-n-match, οι οποίες επιστρέφουν k αντικείμενα, όμοια με τα δοθέντα όχι σε όλες αλλά σε n διαστάσεις, αποφεύγοντας έτσι εκείνες τις λίγες διαστάσεις με τις μεγάλες διαφορές, οι οποίες οδηγούν σε παραπλανητικά αποτελέσματα. Παρόλ’αυτά αυτές οι μέθοδοι κρύβουν κάποιες αδυναμίες οι οποίες τελικά οδηγούν είτε σε ανεύρεση πλήρους ομοιότητας (όταν τελικά ληφθούν υπ’όψιν όλα τα n), είτε σε μία κατά περίπτωση μόνο (και σχεδόν τυχαία) ανίχνευση τμηματικής ομοιότητας (με τα κατάλληλα n’s τα οποία δεν πρέπει να είναι ούτε πολύ μεγάλα ούτε πολύ μικρά, αλλά δεν ορίζονται από κάποιο τύπο ή μέθοδο). Βασιζόμενοι σ’ αυτές τις μεθόδους, προτείνουμε δύο νέες τεχνικές οι οποίες όπως αποδεικνύεται μπορούν να εντοπίσουν πραγματικές τμηματικές ομοιότητες. Η πρώτη, η Lui k-n-match, επιτυγχάνει τον κατά προσέγγιση εντοπισμό των κατάλληλων n’s για τα k-n-matches, με τη βοήθεια της αλληλεπίδρασης με το χρήστη και του ελέγχου των αποδεκτών προτάσεων των k-n-matches. Πιο συγκεκριμένα, μέσω της μεθόδου k-n-match, προτείνεται για κάθε n ένα σύνολο αντικειμένων πιθανά όμοιων με το δεδομένο αντικείμενο του ερωτήματος (query object) . Ο χρήστης φιλτράρει αυτό το σύνολο, επιλέγοντας εκείνα τα αντικείμενα που θεωρεί πραγματικά όμοια με το δεδομένο. Αυτή η διαδικασία συνεχίζεται μέχρι αφού το n γίνει μεγαλύτερο από το ήμισυ των διαστάσεων των αντικειμένων, υπάρξει σύνολο προτεινόμενων αντικειμένων από το οποίο ο χρήστης δεν επιλέγει κανένα ως όμοιο . Μ’αυτόν τον τρόπο επιτυγχάνεται μεγαλύτερη εγκυρότητα των αποτελεσμάτων (λόγω της εμπλοκής του χρήστη) με περιορισμένο ταυτόχρονα αριθμό εκτελούμενων k-n-matches. Η δεύτερη μέθοδος (INTESIS) βασίζεται στην εξής παρατήρηση: στην ουσία όταν δύο αντικείμενα μοιάζουν αυτό συνήθως σημαίνει ότι μοιάζουν στα περισσότερα χαρακτηριστικά τους, καθένα από τα οποία αναπαριστάται και αντιπροσωπεύεται από ένα σύνολο (μικρό συνήθως) διαστάσεων-πεδίων του αντικειμένου. Εάν λοιπόν οριστεί από τους ειδικούς κάθε εφαρμογής αυτή η αντιστοιχία χαρακτηριστικών και διαστάσεων - δημιουργώντας υποσύνολα διαστάσεων - τότε μπορούν να συμβούν διαδοχικά τα παρακάτω: α) Να γίνει έλεγχος πλήρους ομοιότητας σε κάθε τέτοιο υποσύνολο διαστάσεων β) Να οργανωθούν αυτά τα υποσύνολα σε ισάριθμα ιεραρχικά δέντρα για την εύκολη και αποδοτική διαχείρισή τους. Η επιπλέον απλούστευση αυτής της επιλογής έγκειται στο ότι δεδομένου ότι τα εν λόγω υποσύνολα διαστάσεων θα είναι μικρά, είναι πολύ εύκολη η επιλογή δέντρου γι’ αυτά, αφού σχεδόν όλα τα ιεραρχικά δέντρα έχουν μεγάλη απόδοση όταν πρόκειται για μικρό αριθμό διαστάσεων. Συνεπώς ο αναλυτής της κάθε εφαρμογής μπορεί να χρησιμοποιήσει όποιο τέτοιο δέντρο κρίνει εκείνος σαν καλύτερο ( Το R*-tree είναι η δική μας πρόταση). Τελικά, για να ολοκληρωθεί η διαδικασία πρέπει να έχει οριστεί ένας ελάχιστος αριθμός απαιτούμενων όμοιων χαρακτηριστικών προκειμένου να θεωρηθούν δύο αντικείμενα όμοια. Για την αξιολόγηση αυτής της μεθόδου, πρέπει αρχικά να σημειωθεί ότι αναφέρεται σε συνολικό αριθμό διαστάσεων μικρότερο του 100 και συνεπώς σε σχετικά μικρό αριθμό δέντρων. Όπως είναι φανερό, σε μονο-επεξεργαστικό σύστημα οι τελικοί χρόνοι απόκρισης είναι το άθροισμα των χρόνων κάθε δέντρου. Λαμβάνοντας υπ’όψιν το ότι τα δέντρα λόγω του μικρού αριθμού διαστάσεων που αντιστοιχούν στο καθένα έχουν πολύ καλές αποδόσεις, βγαίνει εύκολα το συμπέρασμα ότι ο εκάστοτε τελικός χρόνος απόκρισης της μεθόδου - όντας ένα μικρό πολλαπλάσιο των πολύ μικρών χρόνων προσπέλασης των δέντρων - είναι αρκετά χαμηλός. Με δεδομένο ότι η χρήση κάθε δέντρου δεν προϋποθέτει την χρήση κάποιου άλλου πριν ή μετά, οι αναζητήσεις σε κάθε δέντρο μπορούν να γίνονται παράλληλα. Συνεπώς σε πολυεπεξεργαστικό σύστημα, ο συνολικός χρόνος απόδοσης μπορεί να μειωθεί σημαντικά, φτάνοντας μέχρι και το χρόνο που απαιτείται μόνο για αναζήτηση σε ένα δέντρο (όταν υπάρχουν τόσοι επεξεργαστές όσα και δέντρα). Φυσικά, εάν λάβει κανείς υπ’όψιν του ότι η τμηματική ομοιότητα αποτελεί ένα ιδιαίτερα απαιτητικό είδος τότε όχι μόνο οι χρόνοι απόκρισης σε πολυεπεξεργαστικό σύστημα αλλά και εκείνοι του συστήματος ενός επεξεργαστή, αποτελούν ικανοποιητικές αποδόσεις. Το τρίτο κεφάλαιο μελετά τη δυνατότητα δημιουργίας μιας νέας δομής η οποία δε θα ‘υποφέρει’ από τη μεγάλη πτώση της απόδοσης των δέντρων με την αύξηση των διαστάσεων των αντικειμένων (‘dimensionality curse’) ενώ ταυτόχρονα θα εξασφαλίζει καλή απόδοση και σε μικρό αριθμό διαστάσεων. Οι μέχρι τώρα μελέτες έχουν καταλήξει στο εξής συμπέρασμα: Τα γνωστά διαδεδομένα δέντρα αναζήτησης (είτε πρόκειται για δέντρα οργανωμένα βάση κατανομής χώρου (space partitioning) είτε για δέντρα βάση κατανομής δεδομένων (data partitioning)) αποδίδουν πολύ καλύτερα σε μικρό αριθμό διαστάσεων ενώ όσο αυτός ο αριθμός αυξάνει - ειδικά από 10 και πάνω – η απόδοση χειροτερεύει δραματικά. Το VA-File (σχήμα προσέγγισης διανύσματος) από την άλλη πλευρά - το οποίο είναι ένας απλός πίνακας-αρχείο γεωμετρικών προσεγγίσεων των αντικειμένων - με την αύξηση των διαστάσεων αποδίδει καλύτερα στην αναζήτηση ομοιοτήτων αλλά παρουσιάζει χαμηλή απόδοση σε μικρό αριθμό διαστάσεων. Προκειμένου να ξεπεραστεί αυτή η καθοριστική εξάρτηση της απόδοσης από το πλήθος των διαστάσεων των προς διαχείριση αντικειμένων, προτείνουμε τη νέα υβριδική δομή Digenis, η οποία παντρεύει τη λογική των δέντρων αναζήτησης με κείνη των VA αρχείων. Πιο συγκεκριμένα, ορίζεται και χρησιμοποιείται ένα στατικό παραμετροποιημένο δέντρο (δέντρο Digenis) σε εννοιολογικό επίπεδο ενώ σε φυσικό επίπεδο χρησιμοποιείται το αρχείο Digenis το οποίο κατασκευάζεται με βάση το δέντρο. Με αυτή τη συσχέτιση επιτυγχάνεται αναζήτηση σε μικρό μόνο μέρος του αρχείου κατά τη διαδικασία ανεύρεσης ομοιοτήτων ανάμεσα σε αντικείμενα πολλών αλλά και λίγων διαστάσεων, γεγονός που δίνει γενικότητα και ευελιξία στη μέθοδο. Πιο συγκεκριμένα, για το σχηματισμό του δέντρου, αρχικά ορίζονται οι οικογένειες αντικειμένων, οι οποίες αποτελούνται από αντικείμενα με μικρή απόσταση (βάση ενός προκαθορισμένου από τον εκάστοτε αναλυτή ορίου fl) και αντιπροσωπεύονται από το ‘μέσο’ αντικείμενο της οικογένειας (εάν δεν υπάρχει δημιουργείται για αυτό το ρόλο και μόνο). Κάθε κόμβος του δέντρου αντιπροσωπεύει-φιλοξενεί μία τέτοια οικογένεια. Το είδος των αποστάσεων που χρησιμοποιείται είναι η πλέον διαδεδομένη απόσταση, η Ευκλείδεια απόσταση, για την οποία ισχύει και η τριγωνική ανισότητα στην οποία θα βασιστεί μεγάλο μέρος της μεθόδου. Επίσης ένα δεύτερο όριο απόστασης (Lt) ορίζεται – από τον αναλυτή πάλι - σαν όριο με βάση το οποίο δύο αντικείμενα μπορούν να θεωρηθούν όμοια. Το δέντρο Digenis τελικά χτίζεται έχοντας ρίζα την πιο ‘κεντρική’ οικογένεια της περιοχής των αντικειμένων και κόμβους-παιδιά της τις ch πιο γειτονικές της οικογένειες, κάθε μία από αυτές έχει παιδιά της τις ch πιο γειτονικές της οικογένειες κ.ο.κ. Η δεδομένη ισχύ της τριγωνικής ανισότητας ανάμεσα στις Ευκλείδειες αποστάσεις των αντικειμένων-οικογενειών, αποδεικνύεται ένα χρήσιμο θεώρημα βάση του οποίου καθιστάται εφικτή η ασφαλής εξαίρεση μεγάλου μέρους του δέντρου από τους ελέγχους ομοιότητας, κατευθύνοντας τον τελικό έλεγχο σε μία μικρή περιοχή του. Αυτή η ανάλυση της αναζήτησης μέσα στο δέντρο είναι πολύ χρήσιμη σε ό,τι αφορά τη χρήση του αρχείου Digenis, όπου εκεί πραγματοποιείται η πραγματική αναζήτηση (φυσικό επίπεδο). Το αντίστοιχο αρχείο Digenis στο φυσικό επίπεδο σχηματίζεται εάν αντιστοιχίσουμε σε κάθε του εγγραφή έναν κόμβο του δέντρου, ξεκινώντας από τη ρίζα του δέντρου και περνώντας από κάθε επίπεδο, από αριστερά προς τα δεξιά. Με αυτή την αντιστοίχηση, μπορούν πολύ εύκολα να χρησιμοποιηθούν οι τεκμηριωμένες τεχνικές εύκολου, ασφαλούς και γρήγορου αποκλεισμού περιοχών. Ο απολογισμός της μεθόδου (θεωρητικά αλλά και πειραματικά) περιλαμβάνει θετικές και αρνητικές όψεις. Θετικές όψεις: • Το αρχείο έχει πολύ καλή απόδοση όταν διαχειριζόμαστε αντικείμενα πολλών διαστάσεων. Αυτό ήταν αναμενόμενο αφού το αρχείο λειτούργησε σαν ένα είδος VA αρχείου, όπου το ζητούμενο ήταν η δημιουργία συμπαγών γεωμετρικών προσεγγίσεων. Κι αυτό γιατί και η χρήση των οικογενειών επέφερε μία πρώτη ‘συμπίεση’ των δεδομένων αλλά και η προ-τακτοποίηση των αντικειμένων μέσω της εννοιολογικής χρήσης του δέντρου οδήγησε σε ένα είδος ομαδοποίησης γειτονικών αντικειμένων σε γειτονικές περιοχές. • Το αρχείο έχει επίσης καλές επιδόσεις και όταν διαχειριζόμαστε αντικείμενα λίγων διαστάσεων. Αυτό συμβαίνει γιατί σε σχέση με το αρχείο VA είναι αναμενόμενα καλύτερο αφού βασίζεται σε δενδρική διάταξη, ενώ για τον ίδιο λόγο είναι ανταγωνιστικό και των παραδοσιακών ιεραρχικών δέντρων. Αρνητικές όψεις: • Η στατικότητα στον ορισμό του αριθμού(ch) των παιδιών ανά κόμβο του δέντρου, δημιουργεί προβλήματα στην κατασκευή του, γιατί συνήθως οι πραγματικά όμοιες οικογένειες μπορεί είναι περισσότερες ή λιγότερες από ch. Αντιμετώπιση: Αν είναι περισσότερες, τοποθετούνται στο σύνολο των παιδιών οι ch κοντινότερες (με μικρότερες αποστάσεις από τον γονέα). Αν είναι λιγότερες, τότε ορίζεται ένα σχετικό όριο παιδιών και γεμάτων κόμβων στο δέντρο, πάνω από το οποίο τα παιδιά τοποθετούνται κανονικά στο δέντρο και οι υπόλοιποι κόμβοι μέχρι να συμπληρωθεί ο αριθμός παιδιών ch, συμπληρώνεται με κενούς κόμβους. Όταν όμως ο αριθμός των παιδιών μιας οικογένειας και οι υπόλοιποι γεμάτοι κόμβοι στο δέντρο είναι κάτω από αυτό το όριο, το αντίστοιχο προς δημιουργία δέντρο αποκόπτεται και δημιουργείται νέο μικρότερο δέντρο - με μικρότερο ch – ενώ το αρχικό δέντρο αναδιατάσσεται. Συνεπώς η τελική εφαρμογή μπορεί να περιλαμβάνει περισσότερα του ενός αρχεία Digenis, τα οποία κατά την αναζήτηση προσπελαύνονται από το μεγαλύτερο προς το μικρότερο, μέχρι να βρεθεί ομοιότητα (εάν υπάρχει). • Μπορεί να υπάρχουν απομακρυσμένες οικογένειες – να μη συνδέονται με καμία άλλη – οι οποίες δεν μπορούν να ενταχθούν σε κανένα δέντρο. Αντιμετώπιση: Δημιουργείται ένα Αρχείο Απομακρυσμένων (‘remote’ αρχείο) στο οποίο τοποθετούνται σειριακά οι απομακρυσμένες οικογένειες. Κατά την αναζήτηση αυτό το αρχείο προσπελαύνεται πρώτο, γιατί εφόσον εν γένει θα φιλοξενεί λίγες οικογένειες, η αναζήτηση σ’ αυτό θα είναι γρήγορη. Εάν υπάρχει ομοιότητα μεταξύ του αντικειμένου του ερωτήματος (query) και κάποιας οικογένειας του αρχείου, τότε έχει αποφευχθεί όλη η αναζήτηση στα δέντρα ενώ εάν πάλι δεν υπάρχει τέτοια ομοιότητα, λόγω του μικρού μεγέθους του αρχείου, η χρονική επιβάρυνση είναι σχεδόν αμελητέα. Στο τελευταίο κεφάλαιο εξετάζεται ένα είδος δυναμικής αναζήτησης ομοιότητας, το οποίο ασχολείται με τις χρονικές ακολουθίες όχι των ίδιων των αντικειμένων αλλά των πεδίων (χαρακτηριστικών) τους. Δηλαδή αυτό που ανιχνεύεται είναι το κατά πόσο μοιάζει η εξέλιξη δύο χαρακτηριστικών στο χρόνο, πληροφορία που μπορεί να σταθεί πολύ χρήσιμη σε πολλά είδη εφαρμογών (ιατρικές, οικονομικές, επιστημονικές γενικά, κλπ). Χρησιμοποιώντας ένα παράδειγμα ιατρικών δεδομένων που αφορούν ορμόνες, με τη βοήθεια της προτεινόμενης μεθόδου (Chiron) εντοπίζονται με αποδοτικό τρόπο όμοια ε / The subject of this dissertation is the invention of methods which assure effective organization and management of multi-dimensional objects in order to achieve knowledge discovery. The initial target behind this study was the needs of a demanding application intending to map the human brain in order to help the localization of epileptic foci. During the corresponding research, the Representation and Management needs of human brain data raised two core research problems:  The representation peculiarity of the composite, non-uniform, network structured three-dimensional objects(brain objects), and  The needs for effective management-use of known and derived data and knowledge dependencies, which can upgrade the application performance and dynamics. The most important part of our relative research, leaded to the: o Investigation of similarity search aspects. As this research area has great application and open problem width, it constitutes a great part of this dissertation. Taking into account that the certain geometrical and knowledge dependency features of human brain data are common – all or part of them - in many modern multimedia applications, the above problems are included in the basic Data Base research problems. Focusing our research in the above problems, we lead up to the:  Definition of new flexible data types, concepts, models, tools and data and knowledge ordering methods (Data Base BDB and models 3D-IFO and MITOS) which organize our data more flexibly and effectively, using methods that not only assure easier data access but also exploit their ‘hidden’ relationships and dependencies for more knowledge discovery.  Definition of new search trees and methods for: o Effective detection of partial similarity among multi-dimensional objects ( Lui k-n-match και INTESIS). o Obliteration of the high performance fall which occurs in similarity trees as dimensionality increases (‘dimensionality curse’) (Digenis structure ). o Detection of object features/attributes/properties (dimensions) which have similar course in the time course – for multi-dimensional objects mostly – aiming at the study and detection of possible interaction among them (Chiron proposal ). Generally, this dissertation consists of two basic parts, which refer to two research areas with great interaction: • The Multi-Dimensional Data Base Modelling • The Similarity Search among Multi-Dimensional objects. Ιn the first chapter, the problem of human brain mapping for the localization of epileptic foci is discussed. This problem raises issues related to the peculiarities of the representation and the organization of three dimensional objects with complex structures/shapes and functional dependencies and relationships among them (brain objects). In the beginning, the logical model BDB (Brain Data Base) is proposed as a first approach, introducing new entity types. In the corresponding study, a very interesting proposal is the introduction of hierarchical ordering in the Relational Model in order to organize the brain areas according to their frequencies of epileptic foci presence, improving statistically the corresponding response times. In the following, the needs of the application are studied in the basis of a Semantic – IFO model - and of an Object-oriented Model, resulting in the definition of the 3D-IFO and the MITOS (Model for the Intelligent Three-dimensional Object Support) model, respectively. In the framework of 3D-IFO model, new data types and new operators have been introduced, in order to achieve effective representation and better management of the complex brain objects. Additionally, a new constructor and the suitable attribute for its support have been introduced, in order to effectively represent the ordering among brain parts, based on a certain criterion, thus facilitating combined data retrieval. In the end, the object-oriented model MITOS, introduces a new data model (MITOS Data Model – MDM) which cooperates with an intelligent knowledge base approach (MITOS Query Language – MQL). MITOS model introduces many novelties which serve a more expressive and intelligent representation and management of multi-dimensional data and knowledge. One of these novelties constitutes the definition of one more basic object characteristic (in object-oriented theory), the relationship with the environment, releasing it from the situation or the behaviour, where its concept and representation weakens. The second MITOS novelty concerns MQL and is related to the introduction of the concept of ‘key’ in the rules area. The extension of this potentiality – the idea comes from Data Base area – leads in fact to a kind of a key, with a meaning that it could have in Knowledge Bases and can not be exactly the same with that in Data Bases, because of the specific distinctions of these two Bases. The subject of the second chapter is the detection of a least investigated similarity kind among multi-dimensional objects, the partial similarity. Partial similarity refers to similarities which are not full but they really exist. It is difficult to capture them using common techniques based on similarity functions (e.g. Euclidian distance) because these functions are affected by the whole set of object dimensions. Thus, when the objects are similar but ‘very different’ in few dimensions (e.g. very different colour and size) then the corresponding calculated functions (distances) will have very high values because of these few high dissimilarities and the similarity result will be negative while the objects will actually be similar. On the other hand, when between two objects there are low dissimilarities in most dimensions, they are actually dissimilar but the resultant function will have low value, so the dissimilar objects will be discerned as similar. In both cases, the common full similarity detection methods are not reliable. The few studies that have investigated partial similarity, have mostly focused on geometric data. The study which is extended to multi-dimensional objects in general and has led to significant results in partial similarity, is presented in a paper of Koudas and al., in VLDB 2006. It introduces the effective methods k-n-match and frequent k-n-match, which result in k objects being similar to the given ones not in all their dimensions but at least in n ones, avoiding in this way those few very dissimilar dimensions –if any- which lead to false results. Nonetheless, these methods have some weaknesses which finally result either in full similarity (when finally, in frequent k-n-match, all n’s are taken into account) or in an occasional partial similarity detection (with the suitable n’s, which should not be very high or very low, without having however any type or method to calculate the ‘best’ n’s). Based on these methods, we propose two techniques which can provably detect real partial similarities. The first of them, Lui k-n-match, succeeds in the approximate specification of the suitable n’s for the k-n-matches, based on human-computer interaction and on the suitable checks of the similar objects that k-n-matches propose. More precisely, using k-n-match, for each n a set with objects possibly similar to the given one (query object), is proposed. The user filters this set and decides which objects of the proposed set are really similar to the given one. This procedure continues until the point where, while n has become larger than d/2* , the user does not select any object as similar from the proposed object set. In this way, the results are more reliable and valid (because of human-computer interaction) while in parallel the number of the executed k-n-matches are remarkably reduced. The second partial similarity detection method (INTESIS) is based on the following observation: when two objects are similar, it usually means that they are similar in most of their characteristics. In data bases, each of object characteristic is represented by a set (usually small) of features-attributes(dimensions). Thus, if this correspondence between a characteristic and a set of attributes is defined by the developer of each application - creating dimension subsets – then the following can be successively done: a) A full similarity detection for each dimension subset b) Organization of these subsets in the corresponding hierarchical trees for their easy and effective management. The additional simplification of this choice derives from the fact that as long as the dimension subsets are small, the selection of the corresponding tree will be a very easy task, while almost all hierarchical trees have high performance for low dimensionalities. Consequently, the developer of each application can use the hierarchical tree that he/she considers as best (our proposition is R*-tree). Finally, in order to complete the procedure, the application developer has to define which is the minimum number of the requisite similar characteristics that indicate partial similarity, for the particular application. For the evaluation of the method, first of all, it is necessary to mention that it refers to a total number of dimensions less than 100 and consequently to a relatively small number of trees. As it is obvious, the final response time in a uniprocessor system is the sum of the response times of each tree. Taking into account that the number of dimensions which correspond to each tree is small, these trees have very good response times and consequently the total response time is low enough. While the use of each tree does not presuppose the use of another tree before or after it, the search in each tree can be performed in parallel. Therefore, in a multi-processing system, the total response time can be considerably reduced, achieving to reach the time needed for only one tree (when the number of processors is equal to the number of trees). Furthermore, bearing in mind that partial similarity forms a very demanding similarity search kind, not only the response times in multi-processing systems but those times in a uniprocessor system constitute satisfying performances. The third chapter studies the potentiality of defining a new structure which does not ‘suffer’ from ‘dimensional curse’, while it assures good performance for low dimensionalities too. The latest studies have resulted in the following: Although the known similarity trees (either based on space partitioning or on data partitioning perform effectively in cases of low dimensionality, their performance generally degrades as dimensionality increases (especially for more than 10 dimensions). On the other hand, VA-File constitutes a simple approximate method (it is a simple array-file of object geometric approximations) which manages to outperform any other similarity search method at high dimensionality but it has low performance for low dimensionality. In order to overcome this determinant dependence between the performance and the dimensionality of a data-object set, we propose the new hybrid structure called Digenis, which marries the logic of similarity trees with VA-Files logic. More precisely, a static parametric tree (Digenis tree) is defined in conceptual level while the Digenis file, based on Digenis tree, is used in physical level. Using this correlation, a) the similarity search procedure is located in a small part of the file, excluding most dissimilar objects from the search and b) the method is used effectively for both low and high dimensional objects, preserving generality and flexibility. The first necessary definition for Digenis proposal is related to the object families. They consist of objects having a small distance among them (based on a certain limit fl defined from the analyst, in each case) and they are represented by the ‘mean’ object of the family (if it does not exist, it is created just for this role). Each object family is hosted in a node of Digenis tree. The distance which is used is the most spread one, the Euclidian distance, for which the triangle inequality – where the method is mainly based - stands. Additionally, a second distance limit (Lt) is defined – from the analyst- which forms the limit used to conclude if two objects are similar or not. Finally, the root of the Digenis tree is the most ‘centered’ family in the total object area and the nodes being the children of it are its ch nearest families-nodes. The children of each of them are its ch nearest families, and so on. The triangle inequality which stands among the Euclidian distances of the object-families, is proved to be a very useful Theorem for the safe check exclusion of a great part of the tree , leading to a final check in a small tree area. The search analysis of the tree is very helpful for the use of Digenis file, where the real search is performed (physical level). The corresponding Digenis file in the physical level is created if each tree node composes a record of the file, beginning from the tree root and passing from each level, from left to right. Using this correspondence, the proved Digenis tree techniques of easy, safe and quick exclusion of Digenis record areas can be used. The (theoretical and experimental) evaluation of the method results in the detection of certain advantages and disadvantages of it. Advantages:  The file has very good performance for high dimensionalities. This was expected because the file works as a kind of VA-File, where the records are compact geometric approximations. This matters because both the use of object families achieves a first data ‘compression’ and the pre-arrangement of the objects via the conceptual use of the tree lead to a kind of grouping of neighboring objects in neighboring areas.  The file has also good performance for low dimensionality, because in comparison to VA-File, it is expectably better while it is based on a tree structure. For the same reason, Digenis file is competitive to the classic hierarchical similarity trees. Drawbacks:  The fact that the number of children for each node is statically defined as ch in each application is a disadvantage for the construction of the tree, because usually the really similar families may be more or less than ch. Confrontation: If the similar families of a node are more than ch, then only the ch closest to the family are placed as its children, in the next level. If they are less than ch, then a limit of children and full nodes in the tree is defined. When this limit is overcome, the nodes-children are normally placed in the tree and the rest nodes –until ch-th one – remain empty. When however the number of the children of a family and of the full nodes in the tree, are less than this limit, the corresponding subtree is separated, creating a new smaller tree – with smaller ch – while the initial tree is reorganized. Consequently, the final application may include more than one Digenis tree, which are accessed from the bigger to the smaller, until the similarity is found (if any).  Perhaps there are remote areas of object families – without any connection with other families – which can not be included in any other tree. Confrontation: A file including sequentially the remote families (called ‘remote’ file’) is created. During the similarity search, this file is the first which is accessed because while it usually hosts a few families, the search will be quick enough. If a similarity is detected (among the query object and a family in the file), then the search in the trees will be avoided while if no similarity exists, the time overhead of the file search is almost negligible, because of its size. In the last chapter, a new kind of dynamic similarity search is investigated. It is related with the time streams not of the objects themselves but of their properties/attributes/dimensions. In other words, what is detected is whether the courses of two or more properties resemble. This kind of information can be very useful for several kinds of applications (medical, financial, scientific in general, e.t.c). Using medical data related to hormonal tests as an example, we prove that, based on our method Chiron, the hormones which are developed in the same way are accurately and effectively detected. More precisely, new objects (property course objects or Chiron objects) which encode the variations of each property in certain time intervals, are defined and organized in a tree (Chiron tree). The way these objects are defined, their differences and the Chiron tree itself make its navigation and the detection of similar Chiron objects – and consequently of properties which are developed in a similar way - a quick and easy procedure. This is achieved via the distribution of the Chiron objects in the Chiron tree according to the number of the different digits that exist among them. In this way, when we search in the Chiron tree for objects similar to a given one, a simple and compact algorithm is used, which avoids a vast amount of useless checks among very different objects. Generally, the method is promising enough because it poses new problems for investigation, like the statistical analysis of its results, the search for objects that are developed in a reverse way, the management of time shifts among the property course objects and the Chiron tree optimization.
107

Τεχνολογία γνώσης πλαισίου και μοντελοποίηση χρηστών σε διάχυτα συστήματα

Παναγιωτακόπουλος, Θεόδωρος 21 December 2011 (has links)
Σήμερα, βρισκόμαστε ήδη στο στάδιο μετάβασης από τις παραδοσιακές επιτραπέζιες υπολογιστικές τεχνολογίες στα διάχυτα (ubiquitous) υπολογιστικά περιβάλλοντα που θα μας υποστηρίζουν σχεδόν σε κάθε καθημερινή μας λειτουργία ή δραστηριότητα. Παράλληλα, υπάρχει μία αυξανόμενη τάση για τοποθέτηση του χρήστη στο κέντρο των υπηρεσιών. Αυτό σημαίνει ότι οι υπηρεσίες θα προσαρμόζονται με βάση το στενό και ευρύτερο περιβάλλον διαβίωσης (context), τις ανάγκες και τις προτιμήσεις των χρηστών. Δύο από τις βασικότερες έννοιες στις οποίες βασίζεται η προσφορά διάχυτων εξατομικευμένων υπηρεσιών είναι η γνώση πλαισίου (context awareness) και η μοντελοποίηση χρηστών (user modeling). Η έλευση του διάχυτου υπολογισμού και η χρησιμοποίηση της διάχυτης μοντελοποίησης χρηστών (ubiquitous user modeling) έχει δημιουργήσει νέες προσδοκίες και προκλήσεις για την παροχή εξατομικευμένων υπηρεσιών σε πολλούς τομείς εφαρμογών μεταξύ των οποίων είναι και ο τομέας της υγείας. Η ιατρική αντιμετώπιση αλλάζει πλέον κατεύθυνση και γίνεται προστατευτική, προληπτική και εύκολα προσεγγίσιμη (π.χ. στη δουλειά, στο σπίτι, κλπ.), συνοδευόμενη από συνεχή και εμμένουσα παροχή υψηλής ποιότητας εξατομικευμένης ιατρικής συμβουλής και υποστήριξης. Οι σύγχρονες ιατρικές υπηρεσίες αναμένονται να είναι διαθέσιμες κάθε στιγμή, 7 ημέρες την εβδομάδα και να παρέχονται με έναν εξατομικευμένο τρόπο ώστε να απευθύνονται στις ιδιαίτερες ανάγκες και απαιτήσεις κάθε ατόμου. Η παρούσα διατριβή πραγματεύεται μία μεθοδολογία παροχής διάχυτων υπηρεσιών σε εξελιγμένα τηλεπικοινωνιακά δίκτυα που συνδυάζει τη γνώση πλαισίου, τη μοντελοποίηση χρηστών και τα κοινωνικά δίκτυα (social networks). Η μεθοδολογία αυτή εφαρμόστηκε στον ιατρικό χώρο και ειδικότερα στις διαταραχές άγχους. Πιο συγκεκριμένα, στη διατριβή καθορίστηκαν πλήρως οι παράμετροι πλαισίου που σχετίζονται άμεσα με τις διαταραχές άγχους και προτάθηκε ένα μοντέλο πλαισίου που βασίζεται σε οντολογίες. Επίσης, μελετήθηκε η δομή και οι τεχνικές κατασκευής και ανανέωσης των μοντέλων χρηστών, ενώ μελετήθηκε η χρήση των κοινωνικών δικτύων για την παροχή ιατρικής φροντίδας και οι ρόλοι των μελών τους στις διαταραχές άγχους. Τέλος, προτάθηκε η αρχιτεκτονική ενός συστήματος γνώσης πλαισίου που ενσωματώνει τις ανωτέρω τεχνολογίες, τμήμα του οποίου αναπτύχθηκε, υλοποιήθηκε και αξιολογήθηκε από επαγγελματίες ιατρούς. Κατά την εφαρμογή της παραπάνω μεθοδολογίας στις διαταραχές άγχους αναπτύχθηκε η εφαρμογή PerMed που αποτελεί ένα εργαλείο αρχειοθέτησης και επεξεργασίας των προσωπικών πληροφοριών των ασθενών και τέσσερις υπηρεσίες που στοχεύουν στην υποστήριξη της θεραπείας των διαταραχών άγχους. Οι τρεις εστιάζουν στην ανακάλυψη πιθανών συσχετίσεων στα δεδομένα πλαισίου, ενώ η τέταρτη στοχεύει στην πρόβλεψη του άγχους που θα παρουσιάσει ένας ασθενής σε ένα δεδομένο πλαίσιο. Τα σχόλια που λάβαμε από επαγγελματίες ψυχιάτρους είναι αρκετά ενθαρρυντικά και ευελπιστούμε ότι η προτεινόμενη προσέγγιση θα αποτελέσει ένα ισχυρό εργαλείο υποστήριξης της θεραπείας των διαταραχών άγχους. / Today, we are already on the transition from the traditional desktop-based computing technologies towards ubiquitous computing environments that will enfold us in almost all our daily situations and activities. Simultaneously, there exists an increased tendency of putting the user into the center of service delivery. This means that the services in the ubiquitous environments should be adapted to the context, the needs and the preferences of users. Two of the key-concepts, based on which the delivery of ubiquitous personalized services is realized, are context-awareness and user modeling. The emergence of ubiquitous computing and ubiquitous user modeling has created new expectations and challenges for the delivery of personalized services in a considerable amount of application domains, among which is the healthcare domain. Healthcare provision changes direction becoming protective, proactive and more reachable (e.g. at home or at work), accompanied by continuous and persistent provision of personalized high-quality health advice and assistance. Modern healthcare services are expected to be available around the clock, seven days a week and delivered in a personalized manner addressing the specific needs and preferences of each individual. The present dissertation presents a methodology of providing ubiquitous services at advanced telecommunication networks, which combines context-awareness, user modeling and social networks. This methodology was implemented in the healthcare domain and more specifically in anxiety disorders. In particular, in this dissertation, the contextual aspects that are directly associated with anxiety disorders were defined and an ontology-based context model was proposed. In addition, the user models’ structure was determined and the techniques for the processing of their content were developed. Furthermore, the use of social networks in anxiety disorders and the role of their members were studied. Finally, the architecture of a context-aware system that integrates all the above technologies was proposed, a part of which was developed, implemented and evaluated by professional psychiatrists. During the implementation of the proposed methodology in anxiety disorders, the PerMed application that provides medical experts with a tool for archiving and processing the patient’s personal data and four treatment supportive services were developed. The three of them focus on the discovery of possible associations between the patient’s contextual data and the last service aims at predicting the stress level a patient might suffer from, in a given context. The feedback received from expertized psychiatrists was very encouraging and we hope that the proposed approach will constitute a powerful treatment supportive tool for anxiety disorders.
108

Μοντελοποίηση ανοιχτής αρχιτεκτονικής για επικοινωνία ιατρικών απεικονιστικών εξετάσεων με βάση το πρωτόκολλο WADO του DICOM

Κουτελάκης, Γεώργιος 25 January 2010 (has links)
Η διατριβή εισάγει μια νέα ανοιχτή αρχιτεκτονική για επικοινωνία ιατρικών απεικονιστικών εξετάσεων, η οποία παρουσιάζεται μέσω ενός νέου PACS-ιστού που εστιάζει στην τηλεακτινολογία. Η προτεινόμενη αρχιτεκτονική είναι βασισμένη στις αρχές της επέκτασης ιστού του DICOM που είναι η υπηρεσία/πρωτόκολλο WADO (Πρόσβαση μέσω Ιστού σε Επίμονα Στοιχεία Εξέτασης DICOM). Η αρχιτεκτονική ενσωματώνει υπηρεσίες DICOM και κοινές υπηρεσίες Διαδικτύου (βασισμένες στον ιστό, στο FTP, και στο ηλεκτρονικό ταχυδρομείο). Η διατριβή επίσης επεκτείνει την δυνατότητα πρόσβασης της WADO σε ολόκληρη την ιεραρχία DICOM (Ασθενής, Διαγνωστική Εξέταση, Σειρά Εξέτασης και Στοιχείο Εξέτασης). Η επέκταση της WADO καλείται WADA (Πρόσβαση μέσω Ιστού σε Συστήματα Αρχειοθέτησης DICOM). Σε αντιδιαστολή με τη WADO, η WADA περιλαμβάνει ένα πρόσθετο εσωτερικό μηχανισμό αναζήτησης και υποστηρίζει την υποβολή ιατρικής διάγνωσης. Το σύνολο των προτεινόμενων υπηρεσιών υποστηρίζει την εκτεταμένη πρόσβαση και είναι ενσωματωμένο σε μια δομή τριών επιπέδων (πελάτη, εξυπηρετητή και δεδομένων) που εξασφαλίζει ευελιξία πρόσβασης, κινητικότητα χρηστών και ενισχυμένη ασφάλεια δεδομένων. Η πλευρά των εξυπηρετητών της αρχιτεκτονικής παρέχει διεπαφές των υπηρεσιών μέσω ιστού και διασφαλισμένο χώρο προσωρινής αποθήκευσης που καλείται Περιοχές Χρηστών. Η παρούσα διατριβή μελετά επίσης υποδομή υπολογιστικού πλέγματος για την αρχιτεκτονική του PACS-ιστού και ένα συνεργατικό σχήμα μεταξύ PACS και RIS για ολοκληρωμένη διαχείριση απεικονιστικών εξετάσεων μέσω ιστού. Η προτεινόμενη αρχιτεκτονική υλοποιήθηκε πιλοτικά κυρίως με τεχνολογίες βασισμένες σε Java και προϊόντα συμβατά με πρότυπα. Η υλοποιημένη αρχιτεκτονική αξιολογήθηκε από μηχανικούς σε συνεργασία με ιατρούς. / The dissertation introduces a new open architecture for medical imaging communication illustrating a novel web Picture Archiving and Communication System (PACS), which focuses on teleradiology. The proposed architecture is based on the concept of the web extension of Digital Imaging and Communication in Medicine (DICOM) that is the Web Access to DICOM Persistent Objects (WADO) protocol/service. The architecture integrates DICOM services and common Internet services (based on web, FTP, and e-mail). The dissertation also extends WADO access capability to the whole DICOM hierarchy (Patient, Study, Series and Object). The extended WADO is called Web Access to DICOM Archives (WADA). WADA, as opposed to WADO, includes an extra internal query mechanism and support of medical reports submission. The whole of the proposed services support the extended access and are integrated into a three-tier structure (client, server and data tiers) which ensures flexibility in access, user mobility and enhanced data security. The server site of the architecture provides service interfaces through web and invulnerable space for temporary storage, called as User Domains. This dissertation also studies a computing grid infrastructure for the web PACS architecture and a cooperative scheme between PACS and Radiology Information System (RIS) for integrated administration of imaging examinations through web. The proposed architecture is pilot implemented using mainly Java-based technologies and standard-compliant products. Τhe implemented architecture is evaluated by engineers in collaboration with doctors.
109

Μέθοδοι διάγνωσης με βάση προηγμένες τεχνικές επεξεργασίας και ταξινόμησης δεδομένων. Εφαρμογές στη μαιευτική / Advanced data processing and classification techniques for diagnosis methods. Application in obstetrics

Γεωργούλας, Γεώργιος Κ. 13 February 2009 (has links)
Αντικείμενο της διατριβής ήταν η ανάπτυξη υπολογιστικών μεθόδων διάγνωσης και εκτίμησης της κατάστασης της υγείας του εμβρύου. Οι προτεινόμενες μεθοδολογίες αναλύουν και εξάγουν πληροφορίες από το σήμα της ΕΚΣ καθώς το συγκεκριμένο σήμα αποτελεί ένα από τα λιγοστά διαθέσιμα εργαλεία για την εκτίμηση της οξυγόνωσης του εμβρύου και της αξιολόγησης της κατάστασης της υγείας του κατά τη διάρκεια του τοκετού. Για την αξιολόγηση των μεθόδων εξετάστηκε η συσχέτιση της Εμβρυϊκής Καρδιακής Συχνότητας (ΕΚΣ) με βραχυπρόθεσμες αξιόπιστες ενδείξεις για την κατάσταση του εμβρύου και πιο συγκεκριμένα χρησιμοποιήθηκε η συσχέτιση της τιμής του pH του αίματος του εμβρύου η οποία αποτελεί μια έμμεση ένδειξη για την ανάπτυξη υποξίας κατά τη διάρκεια του τοκετού. Στα πλαίσια της διατριβής χρησιμοποιήθηκε για πρώτη φορά η μέθοδος της ανάλυσης σε ανεξάρτητες συνιστώσες για την εξαγωγή χαρακτηριστικών από το σήμα της ΕΚΣ. Επίσης προτάθηκαν και χρησιμοποιήθηκαν Κρυφά Μοντέλα Markov σε μια προσπάθεια να «συλληφθεί» η χρονική εξέλιξη του φαινομένου της μεταβολής της κατάστασης του εμβρύου. Επιπλέον προτάθηκαν νέα χαρακτηριστικά εξαγόμενα με τη χρήση του Διακριτού Μετασχηματισμού Κυματιδίου. Με χρήση μιας υβριδική μέθοδος, που βασίζεται στη χρήση εξελικτικής γραμματικής «κατασκευάστηκαν» νέα χαρακτηριστικά παραγόμενα από τα χαρακτηριστικά που είχαν ήδη εξαχθεί με συμβατικές μεθόδους. Επιπρόσθετα στα πλαίσια της διατριβής χρησιμοποιήθηκαν για πρώτη φορά (και η μόνη μέχρι στιγμής) μηχανές διανυσμάτων υποστήριξης για την ταξινόμηση και προτάθηκε και χρησιμοποιήθηκε για πρώτη φορά η μέθοδος βελτιστοποίησης με σμήνος σωματιδίων για τη ρύθμιση των παραμέτρων τους. Τέλος προτάθηκε και χρησιμοποιήθηκε για πρώτη φορά η μέθοδος βελτιστοποίησης με σμήνος σωματιδίων για την εκπαίδευση μιας νέας οικογένειας νευρωνικών δικτύων, των νευρωνικών δικτύων κυματιδίου. Μέσα από τα πειράματα τα οποία διεξήγαμε καταφέραμε να δείξουμε ότι τα δεδομένα της ΕΚΣ διαθέτουν σημαντική πληροφορία η οποία με τη χρήση κατάλληλων προηγμένων μεθόδων επεξεργασίας και ταξινόμησης μπορεί να συσχετιστεί με την τιμή του pH του εμβρύου, κάτι το οποίο θεωρούνταν ουτοπικό στη δεκαετία του 90. / This Dissertation dealt with the development of computational methods for the diagnosis and estimation of fetal condition. The proposed methods analyzed and extracted information from the Fetal Heart Rate (FHR) signal, since this is one of the few available tools for the estimation of fetal oxygenation and the assessment of fetal condition during labor. For the evaluation of the proposed methods the correlation of the FHR signal with short term indices were employed and to be more specific, its correlation with the pH values of fetal blood, which is an indirect sign of the development of fetal hypoxia during labor. In the context of this Dissertation, Independent Component Analysis (ICA) for feature extraction from the FHR signal was used for the first time. Moreover we used Hidden Markov Models in an attempt to “capture” the evolution in time of the fetal condition. Furthermore, new features based on the Discrete Wavelet Transform were proposed and used. Using a new hybrid method based on grammatical evolution new features were constructed based on already extracted features by conventional methods. Moreover, for the first (and only) time, Support Vector Machine (SVM) classifiers were employed in the field of FHR processing and the Particle Swarm Optimization (PSO) method was proposed for tuning their parameters. Finally, a new family of neural networks, the Wavelet Neural Networks (WNN) was proposed and used, trained using the PSO method. By conducting a number of experiments we managed to show that the FHR signal conveys valuable information, which by the use of advanced data processing and classification techniques can be associated with fetal pH, something which was not regarded feasible during the 90’s.

Page generated in 0.03 seconds