• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 418
  • 20
  • 1
  • Tagged with
  • 443
  • 358
  • 67
  • 66
  • 65
  • 45
  • 43
  • 42
  • 42
  • 34
  • 32
  • 30
  • 30
  • 29
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Energy efficiency in manufacturing systems / Ενεργειακή αποδοτικότητα συστημάτων παραγωγής

Φυσικόπουλος, Απόστολος 07 July 2015 (has links)
Objective of the present work is the deep study of the manufacturing systems in terms of energy efficiency. Manufacturing enterprises have to reduce energy consumption for both cost saving and environmental friendliness, finding new ways to produce more with less. As a first step, clear definitions for the energy efficiency are provided, in order to successfully include this significant key performance indicator into the manufacturing decision-making attributes. These definitions are used in order to develop a generalized and holistic approach towards manufacturing energy efficiency. The basic element of the approach is the division of energy efficiency definition and study into four manufacturing levels, namely process, machine, production line, and factory. Process-level definitions are provided for the majority of manufacturing processes. A machine-level study indicates and solves difficulties, generated by the workpiece geometry, and points out the interaction with the process level through factors, such as the process time. Moreover, machine tool peripherals are responsible for a significant portion of the consumed energy. Classification of the machine peripherals, based on the dependence of their consumption on process variables, is required. Studies made on the production line and factory levels show that energy efficiency, at these levels, is heavily dependent on production planning and scheduling and can be improved through the appropriate utilization of machines, with the inclusion of shutdown and eco-modes. All the methods developed for each of the manufacturing levels are verified with appropriate case studies. Moreover, a holistic case study is presented, showing that many of the difficulties towards the optimization of energy efficiency can be dealt with successfully, using the proposed generalized approach. The implementation of the method in a software platform is presented. The tool is industrially evaluated using three case studies from three different industrial sectors (i.e. aeronautics, automotive and household). The evaluation of the presented case studies clearly reveals the usefulness and efficiency of the suggested approach validating its applicability to real industrial environments. This prototype information technology decision support tool can assist the manufacturing sector towards energy and eco-efficiency, within the context of a multi-objective optimization procedure, incorporating traditional metrics (i.e. time, cost, flexibility and quality), interacting with the machine monitoring systems. / Αντικείμενο της παρούσας διατριβής είναι η μελέτη της ενεργειακής αποδοτικότητας των συστημάτων παραγωγής. Η αύξηση της ενεργειακής αποδοτικότητας, προσφέρει μείωση του κόστους παραγωγής και των βλαβερών επιπτώσεων στο περιβάλλον. Αρχικά, παρέχονται ορισμοί για την ενεργειακή αποδοτικότητα, προκειμένου να συμπεριληφθεί και αυτός o σημαντικός δείκτης στα συνήθη κριτήρια λήψης αποφάσεων (δηλαδή το χρόνο, το κόστος, την ευελιξία και την ποιότητα). Οι ορισμοί αυτοί χρησιμοποιούνται για την ανάπτυξη μιας γενικευμένης και ολιστικής μεθοδολογίας ως προς την αύξηση της ενεργειακής αποδοτικότητας στα συστήματα παραγωγής. Το βασικό στοιχείο της μεθόδου είναι ο διαχωρισμός του ορισμού της ενεργειακής απόδοσης και της μελέτης του σε τέσσερα ιεραρχικά επίπεδα, ξεκινώντας από την διεργασία, τη εργαλειομηχανή, τη γραμμή παραγωγής και την μονάδα παραγωγής. Ορισμοί στο επίπεδο της διεργασίας, παρέχονται για την πλειονότητα των κατηγοριών των μηχανουργικών διεργασιών. Στο επίπεδο της εργαλειομηχανής μελετώνται οι διαφορές που προκύπτουν από την γεωμετρία του προϊόντος, και επισημαίνονται οι αλληλεπιδράσεις με το επίπεδο της διεργασίας μέσω παραγόντων, όπως ο χρόνος διεργασίας. Επιπλέον, αποδεικνύεται ότι τα περιφερειακά των εργαλειομηχανών είναι υπεύθυνα για ένα σημαντικό μέρος της καταναλισκόμενης ενέργειας. H ενεργειακή κατάταξη των περιφερειακών των εργαλειομηχανών, με βάση την εξάρτηση της κατανάλωσης τους από παραμέτρους της διεργασίας, είναι απαραίτητη. Μελέτες στα επίπεδο της γραμμής παραγωγής και της μονάδας παραγωγής, δείχνουν ότι η ενεργειακή αποδοτικότητα εξαρτάται σε μεγάλο βαθμό από τον χρονοπρογραμματισμό της παραγωγής και μπορεί να βελτιωθεί με την κατάλληλη αξιοποίηση των εργαλειομηχανών, συμπεριλαβαίνοντας τον τερματισμό της λειτουργιάς αυτών ή τη χρήση οικολογικών λειτουργιών (eco-modes). Όλες οι μέθοδοι που αναπτύχθηκαν για τα επίπεδα παραγωγής επαληθεύονται με μελέτες εφαρμογής. Για την υλοποίηση της μεθόδου αναπτύχθηκε λογισμικό το οποίο αξιολογήθηκε σε τρεις διαφορετικούς βιομηχανικούς τομείς με σημαντικά αποτελέσματα. Αυτό το πρωτότυπο εργαλείο υποστήριξης αποφάσεων μπορεί να βοηθήσει στην μείωση της ενεργειακής κατανάλωσης χρησιμοποιώντας πολύ-παραγοντική βελτιστοποίηση, λαμβάνοντας υπόψιν την ενεργειακή αποδοτικότητα μαζί με τα συνήθη κριτήρια λήψης αποφάσεων αλληλοεπιδρώντας με τα συστήματα παρακολούθησης των εργαλειομηχανών.
372

Αρχιτεκτονική συστημάτων για την [sic] διεξαγωγή εργαστηριακών πειραμάτων μέσω Διαδικτύου με έμφαση στην ψηφιακή επεξεργασία σήματος και εικόνας / System architecture for the conduction of internet accessible laboratory experiments focused on digital signal and image processing

Καλαντζόπουλος, Αθανάσιος 06 April 2015 (has links)
Το αντικείμενο της διδακτορικής διατριβής αφορά στην ανάπτυξη μιας ευέλικτης και επεκτάσιμης αρχιτεκτονικής που θα αξιοποιηθεί στον σχεδιασμό συστημάτων για την διεξαγωγή πειραμάτων από απόσταση. Τα συστήματα αυτά αναφέρονται ως RLs (Remote Laboratories) και επιτρέπουν στους χρήστες να χειρίζονται απομακρυσμένα τον διαθέσιμο εργαστηριακό εξοπλισμό με σκοπό την διεξαγωγή πειραμάτων. Στην διεθνή βιβλιογραφία έχουν καταγραφεί σημαντικές ερευνητικές προσπάθειες που σχετίζονται με την ανάπτυξη RLs σε διάφορα γνωστικά αντικείμενα. Όμως ακόμη και σήμερα δεν έχει υιοθετηθεί από την επιστημονική κοινότητα κάποια κοινά αποδεκτή αρχιτεκτονική για την ανάπτυξη RLs. Αρχικά προτείνεται μια αρχιτεκτονική για την ανάπτυξη RLs η οποία ονομάζεται ARIAL (Architecture of Internet Accessible Laboratories) η οποία είναι ανεξάρτητη από το γνωστικό αντικείμενο των υποστηριζόμενων από απόσταση πειραμάτων. Η συγκεκριμένη αρχιτεκτονική είναι επίσης ανεξάρτητη τόσο από το υλικό (hardware) όσο και από το λογισμικό (software) που θα αξιοποιηθεί για την ανάπτυξη ενός RL. Η ARIAL αποτελείται από δύο δομικά στοιχεία, τον MWS (Main Web Server) και το WS (WorkStation). Ο MWS αναλαμβάνει κυρίως την διαχείριση των χρηστών και των διαθέσιμων WSs. Ενώ τα WSs που συνήθως βρίσκονται σε πολλαπλότητα, αναλαμβάνουν αποκλειστικά την διεξαγωγή των υποστηριζόμενων από απόσταση πειραμάτων. Η επικοινωνία μεταξύ του MWS και των WSs επιτυγχάνεται μέσω μιας βάσης δεδομένων που επιτρέπει την πρόσβαση μέσω διαδικτύου. Επομένως, τα WSs μπορούν να εγκατασταθούν σε οποιαδήποτε γεωγραφική τοποθεσία επιτρέποντας την ανάπτυξη ομοσπονδιακών RLs. Όμως το σημαντικότερο χαρακτηριστικό της προτεινόμενης αρχιτεκτονικής το οποίο συμβάλει αποφασιστικά στην βιωσιμότητα ενός RL, είναι η υποστήριξη από απόσταση πειραμάτων που έχουν σχεδιαστεί και υλοποιηθεί από τους χρήστες. Με στόχο την επιβεβαίωση της ARIAL προτείνεται ένα RL στην ψηφιακή επεξεργασία σήματος με DSPs που ονομάζεται R-DSP Lab (Remote Digital Signal Processors Laboratory). Το R-DSP Lab παρέχει στους χρήστες την δυνατότητα είτε να διεξάγουν ένα από τα προκαθορισμένα από απόσταση πειράματα είτε να επιβεβαιώσουν την ορθή λειτουργία μιας DSP εφαρμογής που ανέπτυξαν οι ίδιοι. Το συγκεκριμένο RL επιτρέπει επίσης την ανάπτυξη από απόσταση πειραμάτων από τους χρήστες. Στην περίπτωση αυτή οι χρήστες εκτός από την DSP εφαρμογή που επιθυμούν, θα πρέπει να υλοποιήσουν και το GUI (Graphical User Interface) που αναλαμβάνει τον απομακρυσμένο έλεγχο της παραπάνω DSP εφαρμογής. Κατά την διεξαγωγή οποιουδήποτε από τα παραπάνω απόσταση πειράματα οι χρήστες μέσω μιας κατάλληλα σχεδιασμένης ιστοσελίδας έχουν την δυνατότητα να ελέγχουν απομακρυσμένα τα διαθέσιμα εργαστηριακά όργανα. Στην συνέχεια προτείνεται ένα RL στην ψηφιακή επεξεργασία εικόνας με DSPs που ονομάζεται R-DImPr Lab (Remote Digital Image Processing Laboratory). Το συγκεκριμένο RL επιτρέπει την επιβεβαίωση μιας DSP εφαρμογής που αναπτύχθηκε από τον χρήστη αξιοποιώντας το API (Application Program Interface) του R-DImPr Lab. Η DSP εφαρμογή αναλαμβάνει την ψηφιακή επεξεργασία εικόνων που λαμβάνονται από τον διαθέσιμο αισθητήρα εικόνας. Κατά την διεξαγωγή του από απόσταση πειράματος ο χρήστης μέσω της ιστοσελίδας του RL αφού επιλέξει τις ρυθμίσεις του αισθητήρα εικόνας, έχει την δυνατότητα να παρατηρήσει τόσο στην αρχική όσο και στην επεξεργασμένη εικόνα. Με σκοπό την διεύρυνση των δυνατοτήτων του R-DimPr Lab σχεδιάστηκε και αναπτύχθηκε ένα σύστημα επεξεργασίας εικόνας με DSPs το οποίο παρέχει στους χρήστες την δυνατότητα να διεξάγουν από απόσταση πειράματα ελέγχοντας απομακρυσμένα, τόσο την λειτουργία της αντίστοιχης DSP εφαρμογής όσο και την θέση του αισθητήρα εικόνας. Ο έλεγχος της θέσης του αισθητήρα εικόνας επιτυγχάνεται μέσω ενός μηχανισμού κίνησης που βασίζεται σε δύο βηματικούς κινητήρες και επιτρέπει την περιστροφή του αισθητήρα εικόνας σε δύο άξονες. Επιπρόσθετα, διερευνείται η δυνατότητα ανάπτυξης από απόσταση πειραμάτων στην ψηφιακή επεξεργασία εικόνας με DSPs από τους χρήστες αξιοποιώντας το R-DSP Lab. Τέλος, προτείνεται ένα RL στην αρχιτεκτονική των υπολογιστών που επιτρέπει στους χρήστες να προγραμματίσουν σε assembly μια από τις δύο διαθέσιμες CPUs (Central Processing Units). Κατά την διαδικασία επιβεβαίωσης, αρχικά φορτώνεται στο FPGA (Field Programmable Gate Array) της διαθέσιμης αναπτυξιακής πλατφόρμας η υλοποίηση του συστήματος που βασίζεται στην επιλεγμένη CPU. Στην συνέχεια μέσω του GUI της ιστοσελίδας του προτεινόμενου RL, οι χρήστες έχουν την δυνατότητα να παρατηρήσουν βήμα προς βήμα τις μικρο-λειτουργίες που λαμβάνουν χώρα στην επιλεγμένη CPU κατά την εκτέλεση του προγράμματος. / The subject of this Ph.D. dissertation deals with the development of a flexible and expandable architecture which will be exploited in the design of systems for the conduction of remote experiments. These systems are referred as RLs (Remote Laboratories) and allow the users to handle remotely the available laboratory equipment in order to perform remote experiments. Significant scientific efforts which deal with the development of RLs in several cognitive fields, have been documented in the international literature. However, even today a commonly accepted architecture for the development of RLs has not been adopted by the scientific community. At the beginning, an architecture for the development of RLs which is called ARIAL (ARchitecture of Internet Accessible Laboratories) and is independent of the cognitive field of the supported remote experiments, is proposed. This architecture is also independent of both the hardware and the software which will be utilized for the development of the corresponding RL. The ARIAL consists of two structural elements, the MWS (Main Web Server) and the WS (WorkStation). The MWS undertakes the management of the users and the available WSs. Each one of the multiple WSs is exclusively responsible for the conduction of the supported remote experiments. The communication between the MWS and the WSs is achieved through an internet accessible database. Therefore, the WSs can be installed in any geographic location allowing the development of federal RLs. However, the most important feature of the proposed architecture which contributes decisively to the sustainability of a RL, is the support of remote experiments designed and implemented by the users. In order to confirm the ARIAL, this Ph.D. dissertation also proposes a RL in digital signal processing with DSPs which is called R-DSP Lab (Remote Digital Signal Processors Laboratory). The R-DSP Lab provides the users with the ability either to perform one of the predefined remote experiments or to confirm the operation of a DSP application which is developed by them. In addition, the proposed RL allows the development of remote experiments by the users. In this case, the users implement offline both the desired DSP application and the GUI (Graphical User Interface) which undertakes the remote control of the above DSP application. During the conduction of the above remote experiments, the users are able to remote control the available laboratory instruments through a carefully designed web page. Subsequently, a RL in digital image processing with DSPs which is called R-DImPr Lab (Remote Digital Image Processing Laboratory), is also proposed. This RL allows the verification of a DSP application developed by the user utilizing the API (Application Program Interface) of R-DImPr Lab. The DSP application undertakes the digital process of images which are captured by the available image sensor. During the conduction of the remote experiment, the user through the web page of the proposed RL, selects the parameters of the image sensor and observes both the original and the processed image. In order to expand the features of the R-DImPr Lab, a digital image processing system based on DSPs was designed and developed. This system allows the users to perform remote experiments by controlling remotely both the DSP application and the position of the image sensor. The control of the image sensor’s position is achieved through a motion actuator which is based on two stepper motors and allows the rotation of the image sensor in two axes. In addition, this Ph.D. dissertation explores the possibility of the development of remote experiments in digital image processing with DSPs by the users utilizing the features of the R-DSP Lab. Finally, a RL in computer architecture which allows the users to program in assembly language one of the two available CPUs (Central Processing Units), is proposed. During the verification process, the implementation of the system which is based on the selected CPU, is loaded into the FPGA (Field Programmable Gate Array) of the available development platform. The users through the GUI of the proposed RL’s web page, are able to observe the micro-operations which take place in the selected CPU during the step by step program execution.
373

Μελέτη περιβαλλοντικών και γεωλογικών παραμέτρων στη θέση του νέου λιμένα Αιγίου με χρήση γεωγραφικών συστημάτων πληροφοριών (GIS)

Σουλιώτη, Σωτηρία 04 December 2008 (has links)
Η παρούσα εργασία μελετά τις περιβαλλοντικές και γεωλογικές παραμέτρους στη θέση κατασκευής του νέου λιμένα της πόλης του Αιγίου. Για την μελέτη αυτή, σημαντικό ρόλο έπαιξε η χρήση των Γεωγραφικών Συστημάτων Πληροφοριών (GIS) και ειδικότερα του προγράμματος ArcGIS έκδοση 9, με το οποίο αναλύθηκαν και εκτιμήθηκαν οι διάφορες παράμετροι που επιλέχθησαν, αυξάνοντας έτσι την αποτελεσματικότητα των μεθοδολογιών και συγκροτώντας ταυτόχρονα μία πολύτιμη τράπεζα δεδομένων για τη θαλάσσια περιοχή κατασκευής του λιμένα. Παρουσιάζονται δηλαδή τα αποτελέσματα μιας θαλάσσιας γεωφυσικής έρευνας που έλαβε χώρα στην παράκτια ζώνη του Αιγίου. Ο σκοπός της είναι διττός καθώς επιχειρείται να δοθούν λύσεις και απαντήσεις σε δύο σημαντικά ερωτήματα: α) στον εντοπισμό των επικινδυνοτήτων της περιοχής και β) στην ποσοτική ανάλυση των γεωφυσικών μεθόδων. Το μέγεθος της εργασίας εκτείνεται σε τέσσερα κεφάλαια στα οποία περιγράφονται αναλυτικά η όλη διαδικασία που ακολουθήθηκε καθώς και τα αποτελέσματα και συμπεράσματα που προέκυψαν για τον πυθμένα του λιμένα, από τις μετρήσεις και αναλύσεις που έγιναν μέσω των τομογραφιών. Πρέπει να τονιστεί ότι αφετηρία για τις οποιεσδήποτε μελέτες έγιναν, αποτέλεσαν οι αρχικοί χάρτες του προγράμματος Autocad καθώς και οι τομογραφίες που είχαν ληφθεί από τον τομογράφο υποδομής πυθμένα 3.5KHz. Έτσι στο πρώτο κεφάλαιο, γίνεται μία περιγραφή των γεωφυσικών μεθόδων που χρησιμοποιούνται για την κατασκευή θαλάσσιων τεχνικών έργων. Επίσης γίνεται αναφορά στις γεωλογικές και ανθρωπογενείς επικινδυνότητες από τις οποίες επηρεάζεται ο πυθμένας και οι οποίες μπορεί να προκαλέσουν βλάβες στα τεχνικά έργα μέσω των φορτίων που εξασκούν σε αυτά. Στο κεφάλαιο αυτό αναφέρονται και τα όργανα που χρησιμοποιούνται για την εφαρμογή των μεθόδων αυτών, όπως είναι οι τομογράφοι, οι ηχοβολιστές πλευρικής σάρωσης και τα κατευθυνόμενα βαθυσκάφη. Το δεύτερο κεφάλαιο της διπλωματικής εργασίας αναφέρεται στη θέση που βρίσκεται η περιοχή που μελετάται και στα γεωλογικά φαινόμενα που χαρακτηρίζουν αυτή. Το τρίτο κεφάλαιο αφορά στις μεθοδολογικές προσεγγίσεις που εφαρμόστηκαν για α) την αποτύπωση της βυθομετρίας και της μορφολογίας του πυθμένα, β) τον προσδιορισμό της υποδομής και του πάχους των σύγχρονων επιφανειακών ιζημάτων, γ) τον υπολογισμό της κλίσης των υποεπιφανειακών στρωμάτων και δ) τον εντοπισμό πιθανών γεωλογικών επικινδυνοτήτων, όπως ρηγμάτων, κατολισθητικών φαινόμενων και αέριων υδρογονανθράκων στου πόρους των ιζημάτων. Επίσης αναφέρεται το μεθοδολογικό σχήμα ανάλυσης και επεξεργασίας των αναλογικών καταγραφών με βάση την ποσοτικοποίηση των αναλογικών καταγραφών του τομογράφου υποδομής πυθμένα και την εφαρμογή της πολυδιάστατης στατιστικής ανάλυση όπως της Παραγοντικής Ανάλυσης (Factor Anlysis) και της ανάλυσης Επιφανειών Τάσης (Trend Surface Analysis). Τέλος, το τέταρτο και τελευταίο κεφάλαιο της εργασίας αυτής, αφορά τα αποτελέσματα και τα συμπεράσματα που προέκυψαν από τις παραπάνω αναλύσεις. Λαμβάνοντας υπόψη τις επιφανειακές κατανομές της βυθομετρίας τόσο του πυθμένα και των υποεπιφανειακών οριζόντων όσο και των άλλων παραμέτρων που μετρήθηκαν, αλλά και τα αποτελέσματα της παραγοντικής ανάλυσης, επιχειρείται η εξαγωγή συμπερασμάτων για την κατανόηση των όσων αναφέρθηκαν και μετρήθηκαν στην εργασία αυτή. / The present master thesis examines the environmental and geologic parameters of the new harbour site in the city of Aegio. In this research the Geographic Information Systems (GIS) played a major role and more specifically the software ArcGIS version 9, which was used to analyze and evaluate the various parameters, increasing thus the methodology effectiveness and at the same time creating a valuable data bank concerning the sea area of the harbour site. In the research below are presented the results of a marine geophysical survey that took place in the coastal region of Aegio. The object of this survey is double, as it attempts to provide answers and solutions to two substantial questions: a) the localization of the areas risks and b) the quantitative analysis of the geophysical techniques. The research is extended in four chapters, in which it is detailed the whole process followed as well as the results and the conclusions arising from the seafloor of the harbour, from the measurements and the analysis done through the tomographies. We should point out that the starting point of our research were the original maps of the Autocad as well as the tomographies taken from the subbottom profiler 3.5 KHz In the first chapter, we describe the geophysical techniques used for the construction of the sea technical works. It is also mentioned the geologic and anthropogenic risk which affects the seafloor and could damage the works due to the pressure put on them. There are also mentioned the instruments used for the implementation of these techniques, such as the subbottom profilers, side scan sonars and the bathyscaphes. The second chapter is dedicated to the location of the region and its typical geologic phenomena. The third chapter is about the methods we implemented for: a) the plotting of the seafloor bathymetry and morphology, b) the definition of the substructure and the thickness of the contemporary superficial sediments, c) the estimation of the gradient of the sub-superficial beds and d) the detection of possible geological risks, such as faultings, landslides and hydrocarbon gases in the sediments pores. It is also mentioned the methodological plan used for the analysis and the processing of the analogue recordings on the basis of the quantification of the subbottom profilers analogue recordings and the application of the multidimensional statistical analysis, such as the Factor Analysis and the Trend Surface Analysis . Finally in the fourth chapter of this master thesis are included the results and the conclusions that arose from the aforementioned analysis. Taking into account the superficial distribution of the bathymetry of the seafloor and of the sub-superficial horizons as well as of the other parameters counted, but also the results of the factor analysis, we attempted to arrive at a conclusion in order to make more intelligible what has been mentioned in this master thesis.
374

Αναλυτική καταγραφή των διαδικασιών νοσηλείας ασθενών ασφαλισμένων σε διαφορετικούς ασφαλιστικούς οργανισμούς και αναφορά στις μεθόδους ανίχνευσης απάτης στα ασφαλιστικά ταμεία

Σαββοπούλου, Ευφροσύνη 17 February 2009 (has links)
Ο μεγάλος αριθμός των ταμείων Κύριας και Επικουρικής Ασφάλισης, η έλλειψη στοιχειώδους οργάνωσης και αρχειοθέτησης των ιατρικών πράξεων, των κλινικών δεδομένων και των συναλλαγών των ασθενών με τα Νοσοκομεία σε σχέση με τους ασφαλιστικούς τους φορείς, η απουσία ενιαίου ιατρικού φακέλου καθώς και η έλλειψη ενιαίας κωδικοποίησης των δράσεων και συναλλαγών που αφορούν την Υγεία ως προς το ασφαλιστικό πρόβλημα, καθιστούν τα ασφαλιστικά Ταμεία στην Ελλάδα ανοχύρωτα μπροστά την έξαρση της απάτης προς αυτά. Το πρόβλημα της εξαπάτησης των Ασφαλιστικών Φορέων αποτελεί θέμα μείζονος οικονομικής σπουδαιότητας στον τομέα της Υγείας, διότι οδηγεί σε οικονομικό μαρασμό τα Ταμεία και καθιστά ελλιπείς τις παροχές τους στους ασφαλισμένους. Από τις πιο βασικές αιτίες που οδηγούν σε εξαπάτηση των ασφαλιστικών φορέων είναι οι διαδικασίες υπερτιμολόγησης ιατρικών πράξεων(upcoding), η ύπαρξη ανεπαρκών ή πλήρως απόντων εγγράφων πιστοποίησης των αναγκαίων ιατρικών πράξεων, κοστολόγηση μη παρασχεθέντων ιατρικών υπηρεσιών, πώληση φαρμάκων από τους δικαιούχους ασφαλισμένους, κατάχρηση φαρμάκων, ακατάλληλη κωδικοποίηση, κ.ά. Ενδεικτικά αναφέρουμε ότι το ποσοστό των διαδικασιών υπερτιμολόγησης ιατρικών πράξεωνpcoding) στις ΗΠΑ κυμαίνεται σε 7-13%.Η τεχνολογία με σύγχρονες λύσεις φαίνεται να μπορ να χειριστεί το πρόβλημα επαρκώς, καθότι σε πολλές ευρωπαϊκές χώρες και στις ΗΠΑ, έχει αρχίσει να αποδίδει καρπούς. Το διαθέσιμο λογισικό εντοπίζει το αίτημα που φέρεται να είναι υπερτιμημένο, αναλύοντας ηλεκτρονικούς φακέλους λογαριασμών νοσοκομείων. Το λογισμικό αναγνωρίζει περιπτώσεις υπερτιμογησης ιατρικών πράξεων(upcoding) συνήθως μετά τη πληρωμή. Μεγάλο μέρος του διαθέσιμου λογισμικού είναι προς πώληση “off-the-shelf”, έτοιμο προς εγκατάσταση και χρήση με τον ελάχιστο επενδυτικό χώρο και χρόνο. Η αποδοτικόττα ενός προϊόντος λογισμικού μετράται ως προς δυοδιαστάσεις εκφραζόμενες ως ποσοστά, αναφερόμενες ως ευαισθησία και συγκεκριμενοποίηση. Η ευαισθησία μετρά το βαθμό στον οποίο το λογισμικό αναγνωρίζει όλες τις περιπτώσεις υπερκοστολόγησης ή άλλων περιπτώσεων απάτης. Η συγκεκριμενοποίηση μετρά την επάρκεια του λογισμικού, δηλαδή το βαθμό στον οποίο το λογισμικό αναγνωρίζει μόνον εκείνες τις περιπτώσεις που υπερτιμολοήθηκαν ή που γενικότερα κατά άλλον τρόπο έφεραν απάτη. Για την αύξηση της ευαισθησίας το λογισμικό πρέπει να συμπεριλάβει περιπτώσεις που δεν έφεραν απάτη (false positives). Για να πετύχει αύξηση της συγκεκριμενοποίησης , το λογισμικό ρισκάρει την απώλεια κάποιων περιπτώσεων που πραγματικά έφεραν απάτη (false negatives).Τα δεδομένα για κάθε εισαγωγή και παραμονή σε νοσοκομείο περιλαμβάνουν κωδικούς διάγνωσης, διαδικασίας, δημογραφικά, στοιχεία εισαγωγής-εξαγωγής ασθενών ,κοστολόγηση ιατρικών πράξεων. Αυτά συνήθως συνιστούν και τα χρησιμοποιούμενα προς επεξεργασία δεδομένα από το εκάστοτε λογισμικό. Απαιτείται μια ενιαία διεθνής βάση δεδομένων με τις καταγραφόμενες περιπτώσεις απάτης, μια διακρατική δυνατότητα μετακίνησης πληροφοριών, εκτενής πληροφόρηση των πολιτών και διαρκής ανατροφοδότηση των αποτελεσμάτων. Εξειδικευμένο προσωπικό με την υπευθυνότητα διεξαγωγής εσωτερικών ελέγχων δεν υφίσταται πάντοτε. Ωστόσο έχει διαπιστωθεί ότι όταν υπάρχουν δυναμικές προ-δράσεις και έλεγχοι τότε τα πράγματα είναι σαφώς καλύτερα στον τομέα της πρόληψης της απάτης. Ως απαραίτητα μέτρα καταστολής και αντιμετώπισης της απάτης θεωρούνται η καθιέρωση κοινών κατευθυντήριων γραμμών και οι δυναμικοί έλεγχοι με κατάλληλο λογισμικό. Βασική προϋπόθεση ωστόσο είναι η απρόσκοπτη και διαρκής συνεργασία όλων των εμπλεκόμενων φορέων( Υπουργεία Υγείας, Απασχόλησης και Δικαιοσύνης), η σύζευξη και με άλλα μέτρα –δράσεις κατά της απάτης, τόσο σε επίπεδο νομοθεσίας όσο σε επίπεδο κουλτούρας ώστε να εισαχθεί και να αξιοποιηθεί στην ελληνική πραγματικότητα η υπάρχουσα καινοτόμος τεχνολογία. Η βασική ιδέα πίσω από το χρησιμοποιούμενο λογισμικό είναι η τεχνολογία εκμάθησης μηχανών. Ο Επαγωγικός Λογικός Προγραμματισμός (ILP), αναπτύσσει λογισμικό βασισμένο σε τεχνικές εξόρυξης γνώσης από τεράστιες βάσεις δεδομένων και σε εκμάθηση μέσω εμπειρίας. Παρόλο που το επίπεδο αυτοματοποίηση είναι ψηλό, η εμπλοκή του ανθρώπινου παράγοντα θεωρείται σημαντική. Η ILP χρησιμοποιεί αλγόριθμους ανάλυσης σχέσεων ανάμεσα στις συναλλαγές και μπορεί να αναπαριστά εικονικά οτιδήποτε θέλει κάποιος ως μαθηματική συνάρτηση. Η γνώση του τρόπου δράσης των ατόμων που διαπράττουν την απάτη δεν μπορεί να είναι πάντα πλήρως διαθέσιμη, λόγω της εναλλασσόμενης φύσης της απάτης ,ωστόσο απαιτείται μια στοιχειώδης γνώση αυτών των «ύποπτων» δράσεων προκειμένου να κωδικοποιηθούν και να χρησιμοποιηθούν γιαεύρεση και καθοδήγηση του είδους των προτύπων που αναζητώνται κάθε φορά από το λογισμικό. / -
375

Δομές δεδομένων για τη διαχείριση συμβολοσειρών και για τη διαχείριση πληροφορίας σε δικτυοκεντρικά πληροφοριακά συστήματα

Παναγής, Ιωάννης-Δαμαστιανός 03 March 2009 (has links)
Οι Δομές Δεδομένων είναι ένας από τους σημαντικότερους και ιστορικότερους κλάδους της Επιστήμης των Υπολογιστών, με συνεχή εξέλιξη από τη δεκαετία του εβδομήντα μέχρι σήμερα, παρέχοντας λύσεις σε θεμελιώδη προβλήματα σε ταξινόμηση, οργάνωση, διαχείριση και αναζήτηση πληροφορίας. Παράλληλα, η ανάπτυξη σύγχρονων κλάδων της Επιστήμης των Υπολογιστών όπως τα Σύγχρονα, Δικτυοκεντρικά Πληροφοριακά Συστήματα και η Βιοπληροφορική, έφερε μαζί της την έκρηξη των δεδομένων. Η ανάγκη αποδοτικής διαχείρισης της παρεχόμενης πληροφορίας καθίσταται έτσι πιο επιτακτική από ποτέ. Στα πλαίσια αυτής της διατριβής αναγνωρίζοντας την ανάγκη για αποδοτική διαχείριση πληροφορίας σε όλα τα επίπεδα, παρουσιάζουμε τη μελέτη και την πρόταση λύσεων σε σύγχρονα προβλήματα στους χώρους: της Διαχείρισης Συμβολοσειρών, της Αναδιοργάνωσης Δικτυακών Τόπων, της Ανακάλυψης Web Services με υποστήριξη χαρακτηριστικών Ποιότητας Υπηρεσίας και της Προσωποποιημένης Ανάκτησης Πληροφορίας στο Διαδίκτυο. Σε αυτή την κατεύθυνση, στον τομέα της Διαχείρισης Συμβολοσειρών, παραθέτουμε αλγορίθμους σε θεμελιώδη προβλήματα στο χώρο της διαχείρισης Σταθμισμένων Ακολουθιών (weighted sequences), όπως ταίριασμα προτύπου, εύρεση επαναληπτικών δομών, και συνεχίζουμε δίνοντας απλοποιητικές αλλά βέλτιστες λύσεις σε προβλήματα περιοδικοτήτων σε συνήθεις συμβολοσειρές, όπως τα προβλήματα εύρεσης όλων των καλυμμάτων μιας συμβολοσειράς, εύρεσης της περιόδου μιας συμβολοσειράς και εύρεσης όλων των φύτρων μιας συμβολοσειράς. Στην Αναδιοργάνωση Δικτυακών Τόπων, παραθέτουμε δυο διαφορετικές μετρικές για την αποτίμηση της αντικειμενικής αξίας των ιστοσελίδων του κάθε ιστοτόπου. Αυτές οι μετρικές παραλλάζουν τις προσβάσεις που δέχεται κάποια ιστοσελίδα με τρόπο που καταδεικνύει την αντικειμενική αξία της ιστοσελίδας. Από πειραματική αποτίμηση των μετρικών, προκύπτει ότι παρέχουν ακριβή πληροφόρηση για τα σημεία του δικτυακού τόπου που χρήζουν αναδιοργάνωσης. Στη συνέχεια δίνουμε μια μέθοδο για τον εντοπισμό σημαντικών τμημάτων μεγαλύτερου μεγέθους στο δικτυακό τόπο και παρουσιάζουμε μια σειρά μεθόδων τόσο σε τεχνικό όσο και θεωρητικό επίπεδο για την αναδιοργάνωση ενός δικτυακού τόπου. Στον τομέα της Ανακάλυψης Web Services, εξετάζουμε την Ανακάλυψη που πληροί περιορισμούς ως προς την παρεχόμενη Ποιότητα Υπηρεσίας. Αρχικά, παρουσιάζονται δυο απλές μέθοδοι για την καταχώριση χαρακτηριστικών ποιότητας υπηρεσίας επεκτείνοντας υπάρχοντα πρότυπα υλοποίησης Web Service. Στη συνέχεια παρουσιάζουμε έναν αλγόριθμο για την ανακάλυψη του σεναρίου εκτέλεσης μιας ακολουθίας (workflow) από συνεχόμενες Web Services, που ελαχιστοποιεί το συνολικό χρόνο εκτέλεσης. Μια σειρά από ευριστικές μεθόδους παρουσιάζονται επίσης, για την υλοποίηση σε πρακτικό επίπεδο του προτεινόμενου αλγορίθμου, οι οποίες αποτιμούνται πειραματικά. Τέλος, στον τομέα της Προσωποποιημένης Ανάκτησης Πληροφορίας στο Διαδίκτυο εξετάζουμε διαφορετικές τεχνικές προσωποποίησης των αποτελεσμάτων των μηχανών αναζήτησης. Η πρώτη τεχνική εφαρμόζει μετα-κατηγοριοποίηση των αποτελεσμάτων και παρουσίασή τους ανάλογα με τη σειρά ενδιαφέροντος του χρήστη ως προς τις κατηγορίες των αποτελεσμάτων. Η δεύτερη τεχνική, βασίζει την προσωποποίηση στην έμμεση απεικόνιση των ενδιαφερόντων χρήστη στις κατηγορίες του Open Directory Project, επεκτείνει μια τεχνική που έχει πρόσφατα προταθεί, τους ιδεατούς κόμβους συσχέτισης κατηγοριών, και χτίζει πολλαπλά επίπεδα ιδεατών κόμβων για την επίτευξη πιο εκλεπτυσμένης προσωποποίησης. Κλείνοντας, παρουσιάζουμε την επέκταση της λογικής της μεθόδου προσωποποίησης για την κατασκευή εστιασμένων συλλεκτών. / Data Structures is one of the most important and most historical sectors of Computer Science, being under continuous development since the seventies. Data Structuring has offered solutions to fundamental problems in sorting, organising, and retrieving information. Meanwhile, the development of the modern fields of Computer Science such as Modern, Net-centric Information Systems and Bioinformatics has signalled a data blow-up. Therefore, the need for efficient information management has become a necessity. In this Thesis, having recognized the need for efficient information management at every level, we present a study and solutions to contemporary problems in the areas of: String Processing, Website Reorganization, Web Service retrieval with support for Quality of Service characteristics, and Personalized Information Retrieval on the Web. In the area of String Processing, we present algorithms for solving fundamental problems in Weighted Sequence Processing, such as Pattern Matching, Repetitive Structures Detection and we continue by giving simplifying yet optimal solutions to periodicity problems in ordinary sequences, namely detecting all covers in a sequence, detecting the period of a sequence and detecting all the seeds of a sequence. In the area of Website Reorganization, we present two different metrics for evaluation of the objective importance of each website's pages. These metrics modify the accesses each page receives in order to present the actual page importance. We have seen from the experimental evaluation of those metrics that they provide accurate information about the areas inside the website in need of reorganization. Furthermore, we present a method to detect larger important parts inside the website and we present methods for website reorganisation both from a technical and from a theoretical viewpoint. In the area of Web Service Retrieval we are coping with retrieval under constraints for the provided Quality of Service (QoS). Firstly, we present two simple methods to register QoS information by extending existing Web Service protocols. Secondly, we present an algorithm to discover the execution scenario for a sequence of contiguous Web Services that minimizes the total execution time. A series of heuristics to implement the above algorithm is also presented. We also present an extensive experimental evaluation of those heuristics. Ultimately, we present different personalization techniques for personalized Web Information Retrieval. The first technique, applies post-categorization of search engine results and presents them according to user preferences with respect to the results' categories. The second technique is based on implicit mapping of user preferences to the categories of the Open Directory Project, it extends a recently proposed technique, namely virtual nodes for associating categories, and builds multiple layers of nodes to achieve more elaborate personalization. Finally, we present the extension of personalization methods in order to build focused crawlers.
376

Βελτιστοποίηση διεργασιών υπό περιοδική λειτουργία

Δερμιτζάκης, Ιωάννης 19 August 2009 (has links)
Το Πι-κριτήριο των Bittanti et al. (1973) έχει χρησιμοποιηθεί εκτενώς σε εφαρμογές με στόχο την πρόβλεψη ενδεχόμενης βελτίωσης της απόδοσης ενός μη γραμμικού συστήματος υπό περιοδική είσοδο. Το κριτήριο όμως έχει τοπική ισχύ και περιορίζεται σε περιοδικές διαταραχές μικρού πλάτους. Η παρούσα εργασία αναπτύσσει μια μέθοδο προσδιορισμού διορθώσεων υψηλότερης τάξης στο πι-κριτήριο, προερχόμενη από βασικά αποτελέσματα της θεωρίας κεντρικής πολλαπλότητας (Center Manifold theory). Η προτεινόμενη μέθοδος βασίζεται στην επίλυση της μερικής διαφορικής εξίσωσης της κεντρικής πολλαπλότητας με χρήση δυναμοσειρών. Το τελικό αποτέλεσμα της προτεινόμενης προσέγγισης είναι ο κατά προσέγγιση υπολογισμός του δείκτη απόδοσης υπό μορφή σειράς, η οποία παρέχει ακριβή αποτελέσματα σε μεγαλύτερα εύρη. Η προτεινόμενη μέθοδος εφαρμόζεται σε έναν συνεχή αντιδραστήρα πλήρους ανάδευσης (CSTR), όπου στόχος είναι η μεγιστοποίηση της παραγωγής του επιθυμητού προϊόντος. Κατασκευάστηκε αλγόριθμος που προβλέπει την μόνιμη κατάσταση στην οποία καταλήγει ένα σύστημα απομάκρυνσης αζώτου που αποτελείται από αντιδραστήρα εμβολικής ροής και δεξαμενή δευτεροβάθμιας καθίζησης με ανακύκλωση. Με χρήση υπολογιστικού μοντέλου βασιζόμενο στο ASM3 υπολογίστηκαν οι μόνιμες καταστάσεις αυτού του συστήματος για ένα εύρος καταστάσεων λειτουργίας. Βρέθηκαν οι βέλτιστες τιμές των βαθμών ελευθερίας για την ελαχιστοποίηση του συνολικού αερισμού και για την ελαχιστοποίηση του συνολικού αζώτου στην απορροή. Και στις δύο περιπτώσεις στις βέλτιστες μόνιμες καταστάσεις παρατηρήθηκε έκπλυση των Nitrobacter δηλαδή παράκαμψη της παραγωγής των νιτρικών. / The frequency-dependent Pi criterion of Bittanti et al. (1973) has been used extensively in applications to predict potential performance improvement under periodic forcing in a nonlinear system. The criterion, however, is local in nature and is limited to periodic forcing functions of small magnitude. The present work develops a method to determine higher-order corrections to the pi criterion, derived from basic results of Center Manifold theory. The proposed method is based on solving the Center Manifold partial differential equation via power series. The end result of the proposed approach is the approximate calculation of the performance index in the form of a series expansion, which provides accurate results under larger amplitudes. The proposed method is applied to a continuous stirred tank reactor, where the yield of the desired product must be maximized. An algorithm was constructed, that predicts the steady state of a nitrogen removal system consisting of a plug flow reactor and a secondary clarifier with recycle. Using a numerical model based on ASM3 and a grid of degrees of freedom, the steady states of this system were calculated. The optimal values for minimizing the total aeration were found, as well as those for minimizing the total nitrogen exit flow. In both cases the Nitrobacter bacteria were washed out thus indicating the bypassing of nitrate production.
377

Μοντελοποίηση και έλεγχος βιομηχανικών συστημάτων

Δεληγιάννης, Βασίλειος 19 October 2009 (has links)
Κύριος στόχος της παρούσας διατριβής ήταν να συμβάλλει στην συστηματοποίηση του έργου του Ηλεκτρολόγου Μηχανικού όταν αναλύει, μοντελοποιεί και σχεδιάζει τον έλεγχο ενός βιομηχανικού συστήματος. Για την μοντελοποίηση βιομηχανικών συστημάτων έχουν προταθεί διάφορες μέθοδοι, όπως τα δίκτυα Petri και όλες οι μορφές αυτομάτων ελέγχου. Τα αυτόματα αποτέλεσαν την βάση για την δημιουργία μιας νέας μεθόδου μοντελοποίησης στα πλαίσια της παρούσας διατριβής. Τα Γενικευμένα Αυτόματα (Global Automata), όπως ονομάστηκε η νέα μέθοδος, δανείζονται χαρακτηριστικά από τις διάφορες προϋπάρχουσες μορφές αυτομάτων, ενώ εισαγάγουν νέες παραμέτρους μοντελοποίησης ώστε να καλύψουν τις όποιες ανάγκες των σύγχρονων βιομηχανικών συστημάτων. Βάσει της μεθόδου αναπτύχθηκαν διάφορα εργαλεία με στόχο την αύξηση της δύναμης μοντελοποίησης της. Το πρώτο εργαλείο περιλαμβάνει μια συστηματοποιημένη τεχνική συγχώνευσης καταστάσεων ενός μοντέλου και αποσκοπεί στον περιορισμό της υπέρμετρης αύξησης του γράφου καταστάσεων, ο οποίος σε περιπτώσεις μεγάλων συστημάτων μπορεί να φτάσει τις δεκάδες χιλιάδες καταστάσεις. Το δεύτερο εργαλείο που αναπτύχθηκε, αποτελεί την σύνθεση αυτομάτων με στόχο την δημιουργία ενός νέου αυτομάτου που έχει την ίδια ακριβώς συμπεριφορά με τα αρχικά. Η σύνθεση επιτρέπει την δημιουργία μοντέλου ακόμα και ενός συστήματος υψηλής πολυπλοκότητας, μέσω σύνθεσης των μοντέλων όλων των υποσυστημάτων του. Τέλος, τα γενικευμένα αυτόματα επιτρέπουν την δημιουργία ιεραρχικών μοντέλων που αποτελούνται από πλήθος αυτομάτων ιεραρχικά δομημένων. Σε αυτή την περίπτωση το αυτόματο του ανωτέρου επιπέδου έχει τον ρόλο του επόπτη-συντονιστή και τροφοδοτεί τα αυτόματα του κατώτερου επιπέδου με δεδομένα, τιμές αναφοράς κτλ. Αναφορικά με τον προγραμματισμό των βιομηχανικών ελεγκτών που θα επωμιστούν τον έλεγχο της διεργασίας παρουσιάζονται δύο εργαλεία παραγωγής κώδικα από ένα γενικευμένο αυτόματο. Το πρώτο εργαλείο παρουσιάζει συστηματικά τα βήματα μετατροπής ενός αυτομάτου σε εκτελέσιμο κώδικα μιας γλώσσας προγραμματισμού υψηλού επιπέδου. Η χρησιμότητα είναι σημαντική κατά την διάρκεια εξομοίωσης ενός μοντέλου και επαλήθευσης της ορθής λειτουργίας του ελεγκτή, αλλά όχι μόνο. Οι σύγχρονες βιομηχανίες είναι εξοπλισμένες με Σταθμούς Εποπτικού Έλεγχου και Συλλογής Πληροφοριών (SCADA) οι οποίοι στην πλειονότητά τους φέρουν ενσωματωμένη δυνατότητα εκτέλεσης κώδικα σε μια γλώσσα υψηλού επιπέδου. Με εκτέλεση του παραγόμενου, από το εργαλείο, κώδικα σε λογισμικό SCADA, μπορεί να επιτευχθεί και έλεγχος του συστήματος. Βέβαια, ο επικρατέστερος τύπος ελεγκτή παραμένει το Προγραμματιζόμενος Λογικός Ελεγκτής, λόγω των ιδιαίτερων χαρακτηριστικών που διαθέτει και υπερισχύει συγκριτικά με τις εναλλακτικές προσεγγίσεις. Η υλοποίηση των γενικευμένων αυτομάτων σε PLC επιτυγχάνεται μέσω του δεύτερου εργαλείου, το οποίο δημιουργήθηκε με βάση το διεθνές πρότυπο IEC 61131-3 και περιγράφει όλα τα συστηματικά βήματα που πρέπει να ακολουθήσει ο μηχανικός για να υλοποιήσει την στρατηγική ελέγχου, που εμπεριέχει ένα γενικευμένο αυτόματα, σε ένα PLC. Το πρότυπο IEC 61131-3 περιλαμβάνει ένα σύνολο πέντε γλωσσών και το εργαλείο σύνθεσης τις περιλαμβάνει όλες δίνοντας κατάλληλες κατευθύνσεις υλοποίησης με βάση τα ιδιαίτερα χαρακτηριστικά της καθεμιάς. Η παρουσίαση των γενικευμένων αυτομάτων και των εργαλείων που αναπτύχθηκαν ολοκληρώνεται μέσω παραδειγμάτων χρήσης. Οι παρουσιαζόμενες εφαρμογές αποτελούν είτε θεωρητικά συστήματα για επεξήγηση, είτε πραγματικές εφαρμογές υλοποιημένες ως εργαστηριακές διατάξεις ή ως πραγματικά συστήματα παραγωγής. / In this work Global Automata are introduced as a new method offering the convenience of modelling various types of industrial systems without any restrictions on systems properties. Their structure has common characteristics with several types of automata, such as the control graph with a finite set of states and transitions between those states. Global automata can be used for modelling hybrid systems handling both discrete and real valued variables combining flow, invariant and guard conditions from hybrid automata, with clock constraints and delayed inputs from timed and PLC automata. In addition, new modelling parameters as reset table at each transition and hierarchical classification of executable events at each state are introduced. Application independence derives from the fact that they are a super-set of every other type of automata and hence are less application depended compared to any of them. Based on Global Automata some tools were developed in order to increase their modelling power. First tool is the ability of state aggregation which generally means the merging of two or more states in order to produce a new super-state. State aggregation is a powerful tool to avoid state space expansion. The second developed tool is automata composition and is mainly used in cases where ad-hoc modelling is not a practical solution, since it allows the construction of large system model using simple models of all system’s components. Finally, global automata allow the development of hierarchical models, consisting of two or more automata. In such case, the automaton of the higher level has the role of supervisor feeding the automata of lower level with data, reference values etc. Two implementation tools for programming industrial controllers are also presented. The first tool is a synthesis tool for translating a global automaton into executable code of a programming language (i.e. C, Matlab). Tool usage is important for simulation and verification but is not limited on this. Contemporary industrial systems are equipped with Supervisory Control and Data Acquisition Systems (SCADA), which have embedded functions of running code. Consequently, an industrial system modelled as a global automaton can be controlled by the executable code running in a SCADA station. But, in industry the dominant controller is the Programmable Logic Controller, which is a special aim computer suitably built for the application control tasks. The IEC 61131-3 Programming Norm describes all the well-known languages for programming PLCs and the second tool is a synthesis tool for implementing global automata in PLCs based on this programming norm. Global automata as a modelling method and all the above mentioned tools are illustrated through representative examples. The presented examples are either theoretical or real systems implemented in the laboratory or even real production systems.
378

Μελέτη ιζηματογενών διεργασιών και τεκτονικών δομών στον Κορινθιακό κόλπο, με τη χρήση γεωφυσικών μεθόδων. / Study of sedimentary processes and tectonic structures in the Gulf of Corinth, using marine geophysical methods.

Στεφάτος, Αριστοφάνης 22 June 2007 (has links)
Η παρούσα διδακτορική διατριβή βασίζεται στην ανάλυση ενός ευρύ φάσματος δεδομένων θαλάσσιας σεισμικής ανάκλασης (μονο-κάναλα και πολυ-κάναλα) με στόχο την μελέτη της γεωτεκτονικής δομής, και των μηχανισμών που ελέγχουν τις ιζηματογενείς διεργασίες πλήρωσης της λεκάνης του Κορινθιακού κόλπου, του πλέον ενεργού τμήματος της ευρύτερης Κορινθιακής τάφρου, και ενός από τα ταχύτερα διανοιγώμενα τμήματα ηπειρωτικού φλοιού παγκοσμίως. Πιο συγκεκριμένα η διατριβή ασχολείται με: (1) την αναγνώριση και λεπτομερή χαρτογράφηση των υποθαλάσσιων ρηγμάτων του Κορινθιακού κόλπου και τη σύνδεσή τους με τις τεκτονικές και σεισμολογικές παρατηρήσεις στην ευρύτερη Κορινθιακή τάφρο, (2) τη διερεύνηση του βάθους του γεωλογικού υποβάθρου και της δομής του Κορινθιακού κόλπου, (3) τη μελέτη των ενεργών ιζηματογενών διεργασιών και της επίδρασης της ενεργού τεκτονικής στους μηχανισμούς διασποράς και απόθεσης ιζημάτων. Η διατριβή αποτελείται από εννέα (9) κεφάλαια. Στο πρώτο κεφάλαιο (1), επιχειρείται μια σύντομη βιβλιογραφική ανασκόπηση των έως σήμερα δημοσιευμένων εργασιών σχετικά με την τάφρο του Κορινθιακού. Ακολουθούν δύο σύντομα κεφάλαια, το κεφάλαιο 2 όπου προσδιορίζεται και περιγράφεται γεωγραφικά η περιοχή ερευνών και το κεφάλαιο 3 όπου αναπτύσσεται η μεθοδολογία της παρούσας μελέτης. Στο κεφάλαιο 4 παρουσιάζεται μια συνολική, ευρείας κλίμακας μελέτη των υποθαλάσσιων ρηγμάτων του Κορινθιακού κόλπου και παρουσιάζεται η χαρτογράφηση τους. Στο τέλος του κεφαλαίου ακολουθεί μια εκτενής συζήτηση γύρω από την σημασία των ευρημάτων της παρούσας έρευνας σε σχέση με τις υπάρχουσες δημοσιεύσεις. Στο κεφάλαιο 5, παρουσιάζονται τα συλλεγμένα δεδομένα της πολυ-κάναλης σεισμικής ανάκλασης που επέτρεψε την σεισμική απεικόνιση της τεκτονικής τάφρου έως και το βάθος του αλπικού υποβάθρου. Ακολουθεί το κεφάλαιο 6 όπου αναλύονται διεξοδικά οι κύριες ιζηματογενείς διεργασίες στο δυτικό Κορινθιακό κόλπο και συσχετίζονται με τη λεπτομερή τεκτονική χαρτογράφηση της περιοχής. Στο τέλος του κεφαλαίου 6, παρατίθεται επιπλέον η αξιολόγηση των βασικών μοντέλων ταξινόμησης των ιζηματογενών συστημάτων βαθιάς θάλασσας με βάση τα ευρήματα της διατριβής για το δυτικό Κορινθιακό κόλπο. Στο τέλος καθενός από τα κεφάλαια 4, 5 και 6 πραγματοποιείται σύνθεση των αποτελεσμάτων και αναπτύσσεται συζήτηση ως προς την σημασία των παρουσιαζόμενων ευρημάτων της έρευνας. Στο κεφάλαιο 7 επιχειρείται μία σύντομη περίληψη και ανακεφαλαίωση των βασικότερων συμπερασμάτων της διατριβής,. Στο κεφάλαιο 8 γίνεται παράθεση της χρησιμοποιημένης βιβλιογραφίας, ενώ το κεφάλαιο 9 αποτελεί μια σύντομη σύνοψη της διατριβής στην αγγλική γλώσσα. Τέλος, στο παράρτημα Ι παρατίθενται τα βασικά στοιχεία και χαρακτηριστικά του ερευνητικού πλόα του ωκεανογραφικού σκάφους R/V Maurice Ewing που πραγματοποιήθηκε στο Κορινθιακό κόλπο το καλοκαίρι του 2001, για την συλλογή πολυ-κάναλων δεδομένων σεισμικής ανάκλασης χρησιμοποιώντας ένα σύστημα που περιελάμβανε ένα συνδυασμό από τις μεγαλύτερες σεισμικές πηγές και συστοιχίες υδροφώνων σε παγκόσμιο επίπεδο. / The seismic reflection surveys over one of the most active and rapidly extending regions in the world, the Gulf of Corinth, have revealed that the gulf is a complex asymmetric graben whose geometry varies significantly along its length. A total of 104 offshore faults were recognized on the seismic sections and a detailed map of the offshore faults has been produced. The offshore fault map of the Gulf of Corinth, shows that a major fault system of nine distinct faults limits the basin to the south. The northern Gulf appears to be undergoing regional subsidence and is affected by an antithetic major fault system consisting of ten faults. All these major faults have been active during the Quaternary. Uplifted coastlines along their footwalls, growth fault patterns and thickening of sediment strata toward the fault planes indicate that some of these offshore faults on both sides of the graben are active up to present. Our data ground-truth recent models and provides actual observations of the distribution of variable deformation rates in the Gulf of Corinth. Furthermore they suggest that the offshore faults should be taken into consideration in explaining the high extension rates and the uplift scenarios of the northern Peloponnesos coast. The observed coastal uplift appears to be the result of the cumulative effect of deformation accommodated by more than one fault and therefore, average uplift rates deduced from raised fossil shorelines, should be treated with caution when used to infer individual fault slip rates. Multi-channel seismic reflection data, over the western part of the Gulf of Corinth, image the whole sediment package and the alpine basement. The thickness of the sediments in the west Gulf of Corinth ranges between 1000 ms and 1386 ms, increasing towards the east. The deep seismic sections image a great number of faults most of which sole against the basement reflection. The vast majority of intrabasinal faults do not cut throw the surface sediments. These faults terminate at the base of a 200 ms thick surface sediment layer and therefore they are very difficult to recognize in the high resolution single channel seismic sections. The multi channel seismic sections in the west Gulf of Corinth verify a polarity shift of the graben’s asymmetry to the north. A major south dipping fault running along the axis of the basin, displaces both the whole sediment pile and the alpine basement showing a total throw of 580 ms. Further north, along the north slope, a tectonic horst displaces the alpine basement. This evidence suggest that at least one south dipping major fault should be included in the models trying to explain the proposed high deformation rates deduced from GPS surveys. The compilation of the very high resolution seismic reflection profiles collected over the last two decades in the western Gulf of Corinth; provides insights to the sedimentary processes of the fastest spreading sector of the Corinth rift. At best these seismic profiles image the uppermost 400 meters of the sedimentary column, which, considering the minimum and maximum proposed sedimentation rates corresponds to the last 200 ka of the rifts evolution. Seismic profiles reveal a total of 29 north and south dipping faults. These faults produce seafloor escarpments, with heights ranging between 100 m and 400 m. Strata thickening towards the fault planes suggest syn-sedimentary fault activity while in some cases absence of specific correlative reflections from the hangingwall block, suggest finite displacement that exceeds 480 m. Average fault orientation suggests an E-W trending structural grain with some NW-SE faults. Faults located close to the Gulf’s margin constitute the major basin bounding structures that produce accommodation space for the synrift sedimentation. Along the south margin these faults exhibit a right stepping configuration, which is also reflected on the coastline’s shape. In-between successive bounding faults well developed transfer zones are formed. These relay ramps constitute extensive gently dipping slopes that control drainage through river course diversion. Offshore sedimentation in front of the relay ramps builds thick strike-elongated base of slope aprons. The base of slope apron consists of a succession of sand and mud turbidites. Well-developed U-shape channels run through the apron surface. These channels are considerably wide and deep (up to 650 m wide and 100 m deep) showing a more or less stabilized subaqueous drainage network. A basin axis parallel fault in the middle of the basin cuts through the surface sediments and separates basin deposits into a south and a north sector. A 10.7 km long, 210 - 910 m wide and 40 – 60 m deep trubidite channel is nested along the fault trace of this intrabasinal fault. This axial channel is intersected by the lateral channel network that drains the adjacent south slope, serving as the terminal conduit fro the subaqueous drainage network. This pattern produces a highly effective transport network that allows for the coarse grained sediments to reach the deepest part of the Gulf of Corinth. Hangingwall sediments along both the north and the south margin exhibit progressive strata thickening towards the faults that define the basin plain - slope contact. Tilted sediment layers occupying the hangingwalls show an increase of tilt angles with depth, suggesting listric geometry for these faults. Along the south margin this sediment tilt is even more evident and appears to exert a control on the gravitational sediment mass movement deposition. Along the north margin, a tectonic horst running along the shelf-edge produces a structural barrier that traps land-derived clastic sediments within the shelf zone. The north-dipping fault of this horst acts as the master fault for the Eratini sub-basin, a secondary half-graben structure that hosts a 262 ms thick sediment pile. This study demonstrates that the western Gulf of Corinth is a pre-dominantly tectonically controlled depositional system with unstable boundaries. Minor to meso-scale drainage systems enter the Gulf along the fault controlled basin margins, providing the basin with a significant clastic sediment load. The seismic facies analysis resulted in the identification of five different depositional systems along the base of slope and the basin plain. Base of slope fans, a base of slope delta-fed apron, a major turbidite channel running along the axis of the basin plain, typical basin plain deposits, moat graben deposits adjacent to a major fault and an area dominated by high energy shallow channels and chutes, constitute the sedimentation pattern of the Western Gulf of Corinth. The interplay between the river courses and active faulting controls sediment availability along the basin margins. Dependent on the availability of allocthonous sediments and the prevailing sedimentary processes on the seafloor, the southern basin margin has been separated into a series of constructional and destructional type depositional systems. Active tectonic deformation along the basin margins and within the basin floor provides the necessary metastable conditions and the high energy potential for coarse grained sediment transport to high water depths. Furthermore active faulting exerts the primary control on both sediment transport pathways and the respective facies distribution pattern. This active sedimentation pattern offers an excellent opportunity to test the applicability of deep water sediment deposition systems. Indeed, the classification models proposed by Reading & Richards, 1994 and Richards et al., 1998, were tested in the western Gulf of Corinth. The models were proven quite consistent to the observations although our data show that actual sediment deposition systems are much more complicated. Seismic reflection profiling is a vital tool in assessing basin-formation and structural architectures. The seismic reflection surveys in the Gulf of Corinth demonstrate the effectiveness and importance of the methods in answering vital questions concerning the structure of the submerged sector of the Corinth rift. Seismic facies analysis combined with the application of sediment depositional system analysis offer a highly efficient and rapid technique for the delineation, characterization and prediction of the established sedimentation processes and their deposits. The results of this study would refine the existing tectono-sedimentary facies prediction models, which are broadly utilized in the oil industry.
379

Ανάλυση ηλεκτροεγκεφαλογραφικού σήματος με εφαρμογές στην επιληψία και τις μαθησιακές δυσκολίες / Electroencephalographic signal analysis with applications in epilepsy and learning difficulties.

Γιαννακάκης, Γιώργος 29 June 2007 (has links)
Σκοπός αυτής της διπλωματικής εργασίας είναι η εξαγωγή γνώσης και χρήσιμων συμπερασμάτων για το σχετικά αδιερεύνητο θέμα της διάγνωσης των μαθησιακών δυσκολιών. Χρησιμοποιήθηκαν δεδομένα καταγραφής ηλεκτροεγκεφαλογραφημάτων ηρεμίας και εγκεφαλικών προκλητών δυναμικών υγιών και ατόμων με μαθησιακές δυσκολίες, τα οποία συλλέχθηκαν στο εργαστήριο Ψυχοφυσιολογίας του Αιγινητείου Νοσοκομείου. Από την ανάλυση αυτών των σημάτων προσδιορίστηκαν παράμετροι (π.χ συγκεκριμένες κορυφώσεις) που διαφοροποιούν στατιστικά τα άτομα με μαθησιακές δυσκολίες σε σχέση με τους υγιείς. Παράλληλα, εξετάστηκαν παράμετροι από την κλασική θεωρία βιοσημάτων όπως η ενέργεια και οι χαρακτηριστικοί ρυθμοί. Τέλος, επιλύθηκε το αντίστροφο πρόβλημα της ηλεκτροεγκεφαλογραφίας ώστε να βρεθούν οι ρευματικές πηγές που προκαλούν τα αντίστοιχα σήματα στην επιφάνεια του κεφαλιού. Από τις πηγές αυτές επιδιώχθηκε ο προσδιορισμός περιοχών του εγκεφάλου που πιθανώς να είναι υπεύθυνες για την εμφάνιση μαθησιακών δυσκολιών. / The present thesis aims at the extraction of knowledge and useful conclusions for the relatively uninvestigated phenomenon of learning difficulties. Patients and healthy controls were evaluated by a computerized version of the digit span Wechsler test and EEG/ERP signals were recorded from 15 scalp electrodes based on the international 10-20 system of electroencephalography. The phenomenon was investigated via processing and analysis of EEG/ERP signals of healthy and persons with learning difficulties. Some features were extracted from these signals that statistically differentiate these two groups. Furthermore, features from classical theory of biosignals such as energy and characteristic rhythms were investigated. Finally, the so-called electroencephalography inverse problem was solved in order to define the internal current sources. The localization of such sources in the brain aimed at defining brain regions that are potentially responsible for learning difficulties.
380

Βελτιστοποίηση και αυτοματοποίηση τεχνικών μεταγλώττισης μέσω μοντελοποίησης σε επαναπροσδιοριζόμενα συστήματα / Compiler optimization techniques for reconfigurable systems

Δημητρουλάκος, Γρηγόρης 24 October 2007 (has links)
Το αντικείμενο που πραγματεύεται η παρούσα διδακτορική διατριβή σχετίζεται με την ανάπτυξη βελτιστοποιητικών τεχνικών μεταγλώττισης για επαναπροσδιοριζόμενα ολοκληρωμένα συστήματα γενικού και ειδικού σκοπού. Στόχος είναι η βελτιστοποίηση της εκτέλεσης των εφαρμογών ως προς την ταχύτητα, την επιφάνεια ολοκλήρωσης και την κατανάλωση ισχύος. Αυτό επιτυγχάνεται με την εισαγωγή πρωτότυπων τεχνικών μεταγλώττισης αλλά και από την ανεύρεση βέλτιστων αρχιτεκτονικών. Η αυτοματοποίηση των μεθοδολογιών επιτυγχάνεται με την ανάπτυξη εργαλείων βελτιστοποίησης που υλοποιούν την μεθοδολογία μεταγλώττισης. Τα πειράματα έδειξαν γρήγορο προσδιορισμό βέλτιστων λύσεων και σημαντικές βελτιώσεις στην ταχύτητα, επιφάνεια ολοκλήρωσης και κατανάλωση ισχύος για μια σειρά από εφαρμογές ψηφιακής επεξεργασίας σήματος. / The research material that is presented in this PhD Phesis is related with developement of compilation techniques for reconfigurable systems and application specific integrated circuits. The objective is the optimization of the execution of the applications in terms of speed area and power consumption in these architectures. This is achieved by developing original compiling techniques and efficient architecture instances. Moreover, one of the fundamental objectives of this thesis is the automation of these techniques for fast solution determination. Experiments showed that applications are executed faster while keeping the area and power overhead low. The experiments are based on a set of Digital Signal Processing applications.

Page generated in 0.0464 seconds