• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • Tagged with
  • 18
  • 15
  • 9
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Ανάπτυξη βάσης δεδομένων αρχέγονων αιμοποιητικών κυττάρων και στατιστική ανάλυση βασικών παραμέτρων

Ματσάγγος, Σπύρος 03 August 2009 (has links)
Οι βάσεις δεδομένων αποτελούν πλέον επιτακτική ανάγκη στην οργάνωση, αποθήκευση, γρήγορη ανάκτηση δεδομένων, αλλά και στην εξαγωγή συμπερασμάτων μέσα από διαδικασίες στατιστικής επεξεργασίας, στα πλαίσια της αξιοποίησης και επεξεργασίας του τεράστιου όγκου πληροφορίας που ήδη υπάρχει αλλά και εξακολουθεί να παράγεται με εξαιρετικά γρήγορους ρυθμούς, μεταξύ άλλων στην ιατροβιολογική έρευνα και εν προκειμένω στο πεδίο των λήψεων και των μεταμοσχεύσεων αρχέγονων αιμοποιητικών κυττάρων. Στη βάση δεδομένων που σχεδιάστηκε και αναπτύχθηκε σύμφωνα με το σχεσιακό μοντέλο βάσεων, χρησιμοποιήθηκε λειτουργικό σύστημα Ubuntu 8.04 LTS Server Edition, ο MySQL server 5.0.51b ως το Σύστημα Διαχείρισης της Βάσης (RDBMS), Apache HTTP server edition 2.2.9 ως εξυπηρετητής φιλοξενίας της βάσης για τις ανάγκες πρόσβασης της από το δίκτυο και η εφαρμογή phpMyAdmin και συγκεκριμένα η έκδοση 2.11.7.1, ως το τελικό εργαλείο διαχείρισης της βάσης. Η γλώσσα προγραμματισμού Python επίσης αποτέλεσε σημαντικό εργαλείο για την κατασκευή scripts που χρειάστηκαν, προκειμένου να καταστούν συμβατά και να εισαχθούν στη βάση, τα αρχεία που υπήρχαν καταγεγραμμένα από τις μονάδες λήψεων και μεταμοσχεύσεων αρχέγονων αιμοποιητικών κυττάρων του Πανεπιστημιακού Νοσοκομείου του Ρίου Πατρών, αρχεία που αποτέλεσαν το πρωτογενές υλικό δοκιμών της σωστής λειτουργίας της βάσης αλλά και τα δεδομένα για την εξαγωγή στατιστικών συμπερασμάτων με απώτερο σκοπό την βελτιστοποίηση των διαδικασιών φαρμακευτικής κινητοποίησης για την συλλογή των κυττάρων, συλλογής, επεξεργασίας του προϊόντος και μεταμόσχευσης. / The databases constitute nowadays imperative tool for the organization, storage, rapid data recovery and statistical analysis in the field of the modern managing and exploitation of the huge volume of information that already exists and continues to be produced extremely fast. The databases are extremely useful in the management of bioinformation of medicine and biology both in daily diagnostics as well as research. The present study is concentrated in the application of databases in the blood stem cells collections and transplantations. The database was designed and developed according to the relational model databases, the Ubuntu 8.04 LTS Server Edition used as operating system, the MySQL server 5.0.51b as the DataBase Management System (RDBMS), Apache HTTP server edition 2.2.9 as server, hosting the basic access needs through the network and phpMyAdmin version 2.11.7.1, as the final windowed environment, database management tool. The Python programming language was also an important tool for the construction of scripts needed to convert, optimize and import in the database the files that were recorded by blood stem cells collection and transplantation units of the University Hospital of Patras in Rio, records that firstly constituted the raw material for testing the proper functioning of the database and on the other hand, the data for statistical conclusions with a view to the optimization of donor’s pharmaceutical mobilization, the cell collection procedure and the process of the transplantation.
2

Ανάπτυξη βάσης δεδομένων κατολισθήσεων στον ελληνικό χώρο

Μπλιώνα, Μαρία 23 July 2008 (has links)
Σκοπός της εργασίας αυτής είναι η ανάπτυξη μιας σύγχρονης και ευέλικτης Βάσης Δεδομένων, όπου θα καταγράφονται όλα τα κατολισθητικά φαινόμενα του Ελλαδικού χώρου με τρόπο τέτοιο ώστε να είναι εφικτή η γρήγορη και εύκολη ανάκτηση και επεξεργασία των πληροφοριών. Οι πληροφορίες αποτυπώνονται με χωρικά δεδομένα ώστε να μπορούν εύκολα να διαχειριστούν με Γεωγραφικά Συστήματα Πληροφοριών. Για να δημιουργηθεί αυτή η Βάση, χρειάστηκε να γίνει εκ νέου σύνταξη και αναθεώρηση βάσει σύγχρονων προδιαγραφών του στατιστικού απογραφικού δελτίου των κατολισθήσεων. Το απογραφικό δελτίο περιλαμβάνει όλες τις παραμέτρους που υπεισέρχονται στο πρόβλημα και αφορούν τη λιθολογική σύσταση, τη δομή, τη γεωμετρία και το υδρογεωλογικό καθεστώς της ευρύτερης και της ασταθούς περιοχής. Επίσης, περιλαμβάνει τα αίτια, το έναυσμα, τις επιπτώσεις και τα μέτρα προστασίας – θεραπείας των κατολισθητικών φαινομένων. Συγκεντρώθηκαν στοιχεία για 397 συνολικά κατολισθήσεις, που έγιναν κατά τη χρονική περίοδο 1998 – 2003 και έπληξαν τον ευρύτερο Ελλαδικό χώρο. Στα στοιχεία έγινε στατιστική επεξεργασία και αξιολόγηση, με στόχο τόσο τον έλεγχο της αξιοπιστίας της Βάσης όσο και την εξαγωγή κάποιων ενδεικτικών συμπερασμάτων για το μηχανισμό γένεσης και εκδήλωσης των φαινομένων, καθώς και την εκτίμηση της κατανομής των κατολισθήσεων σε σχέση με τα γεωλογικά – τεχνικογεωλογικά δεδομένα. Η πρώτη καταχώρηση 397 κατολισθητικών φαινομένων στη Βάση Δεδομένων έδειξε ότι αυτή μπορεί να συνεισφέρει σημαντικά στη σύνταξη χαρτών ζωνών επικινδυνότητας για κατολίσθηση στον Ελλαδικό χώρο. Τα στοιχεία αυτά βρίσκονται σαν Τεχνικές Εκθέσεις στο αρχείο της Δ/νσης Τεχνικής Γεωλογίας του ΙΓΜΕ. Η Βάση Δεδομένων σχεδιάστηκε με το λογισμικό Microsoft Access και στη συνέχεια έγινε καταχώρηση των πληροφοριών των απογραφικών δελτίων που καλύπτουν την παραπάνω χρονική περίοδο. / The aim of this essay is the development of a contemporary and flexible Database in which all the Greek landslides will be recorded in a way that the data retrieval and processing will be fast and easy. All the information is stamped by territorial data in order to be handed out with Geographical Information Systems (GIS). For the creation of this Database was necessary to revise the Statistical Inventory Card according to contemporary specifications. This Statistical Inventory Card includes all the parameters that enter into the problem such as lithology, geometry and hydrogeology of the unstable area. It also concludes the causes, triggers, consequences and protection measures of a landslide. Clues have been gathered for 397 landslides that happened the period 1998-2003 and hit the greater Greek region. The clues were statistical processed and analysed in order to extract some indicational conclusions for the landslides’ genesis and demonstration mechanism as long as the evaluation of the landslides’ allocation according to geological data. This first registration of the 397 landslides shows that this particular Database can significantly contribute to the editing of hazard zonation maps which are related to landslides in Greek territory. All the clues that are included in the Database are taken from technical essays that exist in the landslides’ file in the Institute of Geological and Mineral Research (IGME). The Database was designed with Microsoft Access software and then was filled with all the above information for the period 1998-2003 as was already referred.
3

Σχεδίαση και υλοποίηση βάσης δεδομένων για την αξιολόγηση εκπαιδευτικού λογισμικού

Κοκοσαλάκη, Μαρίνα 26 August 2008 (has links)
- / -
4

Μελέτη των παλαιοωκεανογραφικών συνθηκών στη Μεσόγειο τα τελευταία 18000 χρόνια: εφαρμογή γεωγραφικών συστημάτων πληροφοριών σε μικροπαλαιοντολογικές αναλύσεις / Study of oceanografik conditions in Mediterranean Sea the last 18000 years: application of geographic systems of information in mikropalaiontologikal analyses.

Θωμόπουλος, Κωνσταντίνος 25 July 2008 (has links)
Η παρούσα εργασία εξυπηρετεί δύο βασικούς σκοπούς. Αφενός τη δημιουργία μιας βάσης δεδομένων που θα επιτρέπει την άντληση συγκεντρωτικών πληροφοριών που αφορούν την κατανομή και διακύμανση των κυριοτέρων πλαγκτονικών τρηματοφόρων καθώς και των τιμών του οξυγόνου δ18Ο στη Μεσόγειο θάλασσα τα τελευταία 18000 χρόνια. Αφετέρου αποσκοπεί στη χωροχρονική επεξεργασία των δεδομένων με αποτέλεσμα την απεικόνιση της απόκρισης της Μεσογείου σε κλιματικές μεταβολές. / The present work serves two basic aims. On one side the creation of a data base that will allow centralized information that concerns the distribution and fluctuation of the mainer plagktonik foraminifera as well as prices of oxygen d18O in Mediterranean Sea the last 18000 years. It also aims in the chorochronikal treatment of data with result the depiction of the reaction of Mediterranean sea in climatic changes.
5

Εφαρμογές και τεχνικές εξόρυξης και οπτικοποίησης γνώσης σε βιοϊατρικά δεδομένα

Μερίδου, Δέσποινα 08 May 2013 (has links)
Η οπτικοποίηση των δεδομένων (data visualization) αποτελεί τη διαδικασία αναπαράστασης αφαιρετικών ή επιστημονικών δεδομένων με τη μορφή εικόνας, η οποία μπορεί να συμβάλει στην καλύτερη και βαθύτερη κατανόηση της σημασίας των δεδομένων και των μεταβλητών ή των μονάδων που συνιστούν τα δεδομένα αυτά. Λόγω των τεράστιων και συνεχώς αυξανόμενων ποσοτήτων και πηγών πληροφορίας, η ανάγκη για οπτικοποίηση είναι μεγάλη. Εφαρμόζοντας διάφορα μέσα οπτικοποίησης, η μελέτη των δεδομένων γίνεται πιο αποδοτική: τα δεδομένα εξετάζονται μαζικά και γρήγορα. Επίσης, η οπτικοποίηση των δεδομένων συμβάλλει στην ουσιαστική κατανόηση ενός ορισμένου προβλήματος και μπορεί να οδηγήσει στην ανακάλυψη νέων εννοιών και λύσεων. Η τεχνική της οπτικοποίησης δεδομένων βρίσκει ιδιαίτερη εφαρμογή στον τομέα της Βιοπληροφορικής. Συγκεκριμένα, η οπτικοποίηση εφαρμόζεται σε δεδομένα αλληλουχιών, γονιδιωμάτων, μακρομοριακών δομών, συστημικής βιολογίας, μαγνητικής τομογραφίας, κλπ. Η πρόσφατη και ολοένα μεγαλύτερη πρόοδος στη διαθεσιμότητα δεδομένων και στις μεθόδους ανάλυσης έχει δημιουργήσει νέες ευκαιρίες για τους ερευνητές, έτσι ώστε αυτοί να είναι σε θέση να βελτιώσουν τις μεθόδους καταγραφής νόσων σε εθνικό ή τοπικό επίπεδο. Η HELPIDA (HELlenic ePIdemiological DAtabase) αποτελεί την πρώτη προσπάθει καταγραφής ενός μεγάλου αριθμού επιδημιολογικών μελετών από τον χώρο της ελλάδας, συνδυασμού αυτών με γεωγραφικές και στατιστικές παραμέτρους και οπτικοποίησης των αποτελεσμάτων με σκοπό την εξόρυξη πολύτιμης πληροφορίας. Σε ό,τι αφορά την πρώτη έκδοσή της, η HELPIDA αναπτύχθηκε με τη χρήστη των γλωσσών προγραμματισμού ASP.NET και Visual C#. Στην εργασία αυτή, παρουσιάζεται η δεύτερη έκδοση της HELPIDA, η οποία σχεδιάστηκε με τη βοήθεια του εργαλείου Microsoft Lightswitch και εμπλουτίστηκε με γραφήματα και οπτικοποιήσεις δεδομένων. Εφαρμόζοντας ορισμένα εργαλεία οπτικοποίησης, στοχεύουμε στον χαρακτηρισμό της HELPIDA ως ένα πολύτιμο εργαλείο στον τομέα της Δημόσιας Υγείας και ελπίζουμε ότι θα χρησιμοποιηθεί από ερευνητές σε ακαδημαϊκό επίπεδο αλλά και σε άλλους τομείς. / Data visualization is the study of the visual representation of data, meaning "information that has been abstracted in some schematic form, including attributes or variables for the units of information". The ability to visualize the implications of data is as old as humanity itself. Yet due to the vast quantities, sources, and sinks of data being pumped around our global economy at an ever increasing rate, the need for superior visualization is great and growing. Data visualization is efficient: vast quantities of data are processed in a simple and quick manner. Furthermore, visualizations can help an analyst or a group achieve more insight into the nature of a problem and discover new understanding. Data Visualization is often applied in the field of Bioinformatics. Specifically, software tools are used for the visualization of sequences, genomes, alignments, phylogenies, macromolecular structures, systems biology, microscopy, and magnetic resonance imaging data. HELPIDA (HELlenic ePIdemiological DAtabase) is the first attempt to register a large number of epidemiological studies from Greece, to combine them with geographical and statistical parameters and to visualize the results in order to mine valuable information. As fas as the first version of the application is concerned, HELPIDA was developed using the programming languages ASP.NET and Visual C#. In this thesis, the second version of HELPIDA, which was designed using the tool Microsoft Lightswitch and was enhanced with charts and data visualizations, is presented. Being enhanced with certain data visualization tools, HELPIDA is aiming at being used as an invaluable tool for Public Health decisions and we hope that it will be exploited by decision makers in academic and political level.
6

Web 2.0. : Μελέτη και ανάλυση των αρχών, τεχνολογιών, προτύπων σχεδίασης και εφαρμογών του Web της επόμενης γενιάς. / Study and analysis of principles, technologies, design patterns and applications of the new generation’s Web.

Βελαώρα, Αναστασία 26 September 2007 (has links)
Η έννοια του «Web2.0.» χρησιμοποιήθηκε για πρώτη φορά σε ένα συνέδριο για την ανταλλαγή ιδεών μεταξύ του εκδοτικού οίκου O’ Reilly και του Medialive International. Μέσα από αυτή τη σύσκεψη έγινε φανερό ότι το Web είναι πιο σημαντικό από ποτέ, με εντυπωσιακές νέες εφαρμογές και ιστότοπους, που κάνουν την εμφάνισή τους ολοένα και συχνότερα. Μισό χρόνο μετά, ο όρος Web2.0. έχει ξεκάθαρα λάβει χώρα, με περισσότερες από 9,5 εκατομμύρια αναφορές στη μηχανή αναζήτησης Google. Πιο συγκεκριμένα, το νέο Web αλλάζει επειδή αλλάζει η νοοτροπία των δημιουργών των ιστότοπων, των προγραμματιστών αλλά και των απλών χρηστών. Το Web2.0. είναι περισσότερο δημοκρατικό. Ο ρόλος των ισχυρών, παραδοσιακών δημιουργών και «εκδοτών» περιεχομένου αποδυναμώνεται. Η αλληλεπίδραση των χρηστών με το περιεχόμενο και άλλους χρήστες εντείνεται. Η νέα χρήση των ήδη υπαρχουσών τεχνολογιών και εργαλείων δίνει καινούριες διαστάσεις και προστιθέμενη αξία στο περιεχόμενο. Οι λέξεις «υλικό» και «λογισμικό» περνάνε σε δεύτερη μοίρα ενώ μια νέα, καθολική πλατφόρμα είναι αυτή που αναδεικνύεται. Ο νέος Παγκόσμιος Ιστός που ακούει στο όνομα Web2.0. ενθαρρύνει τη συμμετοχή των χρηστών και την παραγωγή ενός πλουσιότερου, πιο σύγχρονου και δυναμικότερου περιεχομένου. Προσφέρει σε όλους τους χρήστες του το ρόλο του δημιουργού και του εκδότη αφού ταυτόχρονα με τους web developers, και οι απλοί χρήστες είναι σε θέση να δημιουργούν χρησιμοποιώντας τη θέληση και τη φαντασία τους. Παράλληλα με τη διαμόρφωση του περιεχομένου, διαφόρων μορφών, όπως κείμενο, ήχος, εικόνα, βίντεο, στους χρήστες επαφίεται και η κατηγοριοποίηση, η αξιολόγηση και η κατάταξη του περιεχομένου, όπως για παράδειγμα ποια είδηση θεωρείται από αυτούς ως η περισσότερο σημαντική. Το Web2.0 αναφέρεται σε ένα σύνολο νέων δικτυακών υπηρεσιών, οι οποίες επιτρέπουν στους χρήστες να συνεργάζονται και να ανταλλάζουν δεδομένα online, με πιο αποδοτικό τρόπο σε σχέση με αυτόν που προσφέρανε οι παλιότερες υπηρεσίες. Η ειδοποιός διαφορά είναι ότι οι νέες υπηρεσίες παρέχουν στο χρήστη μια εμπειρία που πλησιάζει περισσότερο σε αυτή που έχει όταν εργάζεται στον προσωπικό του υπολογιστή. Με άλλα λόγια, οι εφαρμογές του Web2.0. μοιάζουν με τις εφαρμογές desktop. Επιπλέον, οι νέοι δικτυακοί τόποι είναι κατά κανόνα «δυναμικοί» και περισσότερο αλληλεπιδραστικοί, διαφέροντας από το «στατικό» Web1.0. Το Web2.0. είναι συμβατό με οποιοδήποτε λειτουργικό σύστημα κι αν χρησιμοποιεί ο εκάστοτε χρήστης. Μια εφαρμογή πλοήγησης του Διαδικτύου (web browser) (οποιαδήποτε κι αν είναι αυτή) αρκεί για να συμμετέχει ένα χρήστης στο νέο, πιο ζωντανό και εκπληκτικό Διαδίκτυο. Επιπρόσθετα, το Web2.0. είναι εκτός από πλούσιο και «ελαφρύ». Πολλές από τις εφαρμογές του έχουν σχεδιαστεί για να «τρέχουν» γρήγορα, χωρίς να «βαραίνουν» τους πόρους του συστήματος. Τέλος, το λογισμικό και το υλικό δεν απασχολούν πλέον τους προγραμματιστές στον ίδιο βαθμό με το παρελθόν, αφού το περιεχόμενο, η διαμόρφωση και η αξιοποίησή του είναι τα θέματα στα οποία επικεντρώνεται κυρίως το ενδιαφέρον. Η παρούσα μεταπτυχιακή διπλωματική εργασία μελετά τις αρχές που το Web2.0. πρεσβεύει, τα πρότυπα σχεδιασμού που ακολουθούνται, τις τεχνικές και τεχνολογίες που χρησιμοποιούνται, τις ικανότητες που πρέπει να έχουν οι εταιρείες κατασκευής λογισμικού και εφαρμογών προκειμένου να θεωρούνται ότι ακολουθούν τα πρότυπα του Web2.0. Επιπλέον, παρουσιάζονται οι βασικότερες Web2.0. εφαρμογές, οι οποίες είτε πρόκειται για καινοτόμα στοιχεία, είτε αποτελούν νέες εκδόσεις των ήδη Web1.0. υπαρχουσών εφαρμογών, με τις οποίες και συγκρίνονται. Τελικά, παρουσιάζονται μια σειρά από ιστοτόπους, ελληνικούς και ξένους, στους οποίους γίνεται φανερή η επίδραση και παρουσία του Web2.0., ενώ παράλληλα προτείνεται η χρήση συγκεκριμένωνWeb2.0. στοιχείων και τεχνολογιών ανάλογα με την κατηγορία και το είδος του ιστοτόπου. Ωστόσο, υπάρχει και ένα μεγάλο ποσοστό που αντιμετωπίζει το Web2.0. με επιφυλακτικότητα. Ενώ κάποιοι το θεωρούν μια καινοτομία, κάποιοι άλλοι το θεωρούν μια χωρίς νόημα λέξη, που αποσκοπεί στην επικράτηση στην αγορά και την αύξηση των κερδών, των εφαρμογών και υπηρεσιών που φέρονται ως αντιπρόσωποι του όρου. Η παρούσα εργασία έχει ως σκοπό να παρουσιάσει αντικειμενικά και αμερόληπτα τη νέα γενιά του Διαδικτύου και αφήνει στον αναγνώστη να βγάλει τα δικά του συμπεράσματα για το τι τελικά είναι το Web2.0. και ποια είναι η αξία του. / The concept of “Web2.0” began with a conference brainstorming session between O’ Reilly and MediaLive International. In the year and a half since, the term “Web2.0” had clearly taken hold, with more than 9.5 million citations in Google. In the new generation of Web, users are treated as co-developers. They obtain the role of author and publisher and use their willingness and imagination to add value and create the content of the web. Leverage customer-self service and algorithmic data management are used in order to reach out to the entire web, to the edges and not just the centre. As a result, the new projects can be seen to have a natural architecture of participation. In some cases, the service automatically gets better the more people use it. Moreover, Web2.0 era software is delivered as a service, not as a product. That leads to an end of the software release cycle. Furthermore, the Web2.0 mindset is good at re-use. When commodity components are abundant, developers can create value simply by assembling them in novel or effective ways. The purpose of this master thesis is to analyse the principles that Web2.0. advocate, the techniques and technologies that are used, the core competencies of Web2.0. companies, the design patterns, the new applications and projects. Its target is to recommend which of the Web2.0’ components should be used in each case, depending on the needs, the requirements and the kind of the website or application. However, there’s still a huge amount of disagreement about just what Web2.0 means, with some people decrying it as a meaningless marketing buzzword, and others accepting it as the new conventional wisdom. This thesis presents Web2.0 impartially, letting readers to decide what is Web2.0 and its value.
7

Εφαρμογές ΓΠΣ και αποτελεσματικότητα δικτυού ΑΤΜ τραπεζών / GIS applications and efficiency of ATM banks

Σταθόπουλος, Χρήστος 01 October 2008 (has links)
Η τεράστια και ραγδαία ανάπτυξη στην επιστήμη και στην τεχνολογία σε αυτήν την υφήλιο, τέτοια όπως τα ΓΣΠ και η δορυφορική ψηφιακή χαρτογράφηση οφείλεται στην επιτακτική ανάγκη της ανάπτυξης των χωρών να την προλάβουν και να την αξιοποιήσουν. Η χρήση της τεχνολογίας των ΓΣΠ είναι ουσιώδης, καθώς εξελίσσεται σε ένα από τα καλύτερα και γρηγορότερα εργαλεία ως προς την αξιοποίηση των παραγωγικών πόρων και βοηθά στην απόφαση υποστήριξης της διαδικασίας. Τα ΓΣΠ χρησιμοποιούν την τεχνολογία των ηλεκτρονικών χαρτών δημιουργώντας αλληλεπίδραση με πολύ-επίπεδους χάρτες έτσι ώστε να βρεθούν βέλτιστες λύσεις για τα προβλήματα. Συνδυάζει χωρικά και μη-χωρικά δεδομένα για να κατασκευάσει πληροφορίες που μπορούν εύκολα να αναλυθούν από αυτούς που παίρνουν αποφάσεις. Χρησιμοποιώντας την τεχνολογία των ΓΣΠ έχουμε ένα ισχυρό εργαλείο για την επίτευξη του σχεδιασμού αφού ο ψηφιακός χάρτης θα μπορούσε να χρησιμοποιηθεί στην εύρεση καλύτερων τοποθεσιών για διαφορετικούς σκοπούς όπως στις τράπεζες, στα ΑΤΜ, στα νέα σχολεία, εστιατόρια κτλ. Η εργασία συζητά τα κριτήρια που χρησιμοποιήθηκαν στη στατική ανάλυση και επίσης αναφέρεται στην επιτυχία της GIS ανάλυσης στο να προτείνει τοποθεσίες για τα ΑΤΜ. / The huge and rapid advancement in science and technology in this globe such as GIS and Satellite digital mapping makes it a must for developing countries to catch-up and utilize it. Usage of GIS-technology is essential, as it is becoming one of the better and faster tools to manage resources and helps in the decision support process .A GIS uses electronic mapping technology in producing interactive multi-layer maps so that queries are set to find optimal solutions for problems. It combines spatial and non-spatial data to construct visualized information that can be easily analyzed by decision makers.Using GIS technology is a powerful tool to help in planning since the digital map could be used in defining best positions for different purposes such as banks, ATMs, new schools, restaurant, etc. The paper discusses the criteria used in the spatial analysis, and also, reports on the success of the resultant GIS analysis to suggest proper locations for ATM’s.
8

Ανάπτυξη μεθόδων ανάκτησης εικόνας βάσει περιεχομένου σε αναπαραστάσεις αντικειμένων ασαφών ορίων / Development of methods for content-based image retrieval in representations of fuzzily bounded objects

Καρτσακάλης, Κωνσταντίνος 11 March 2014 (has links)
Τα δεδομένα εικόνων που προκύπτουν από την χρήση βιο-ιατρικών μηχανημάτων είναι από την φύση τους ασαφή, χάρη σε μια σειρά από παράγοντες ανάμεσα στους οποίους οι περιορισμοί στον χώρο, τον χρόνο, οι παραμετρικές αναλύσεις καθώς και οι φυσικοί περιορισμοί που επιβάλλει το εκάστοτε μηχάνημα. Όταν το αντικείμενο ενδιαφέροντος σε μια τέτοια εικόνα έχει κάποιο μοτίβο φωτεινότητας ευκρινώς διαφορετικό από τα μοτίβα των υπόλοιπων αντικειμένων που εμφανίζονται, είναι εφικτή η κατάτμηση της εικόνας με έναν απόλυτο, δυαδικό τρόπο που να εκφράζει επαρκώς τα όρια των αντικειμένων. Συχνά ωστόσο σε τέτοιες εικόνες υπεισέρχονται παράγοντες όπως η ανομοιογένεια των υλικών που απεικονίζονται, θόλωμα, θόρυβος ή και μεταβολές στο υπόβαθρο που εισάγονται από την συσκευή απεικόνισης με αποτέλεσμα οι εντάσεις φωτεινότητας σε μια τέτοια εικόνα να εμφανίζονται με έναν ασαφή, βαθμωτό, «μη-δυαδικό» τρόπο. Μια πρωτοπόρα τάση στην σχετική βιβλιογραφία είναι η αξιοποίηση της ασαφούς σύνθεσης των αντικειμένων μιας τέτοιας εικόνας, με τρόπο ώστε η ασάφεια να αποτελεί γνώρισμα του εκάστοτε αντικειμένου αντί για ανεπιθύμητο χαρακτηριστικό: αντλώντας από την θεωρία ασαφών συνόλων, τέτοιες προσεγγίσεις κατατμούν μια εικόνα με βαθμωτό, μη-δυαδικό τρόπο αποφεύγοντας τον μονοσήμαντο καθορισμό ορίων μεταξύ των αντικειμένων. Μια τέτοια προσέγγιση καταφέρνει να αποτυπώσει με μαθηματικούς όρους την ασάφεια της θολής εικόνας, μετατρέποντάς την σε χρήσιμο εργαλείο ανάλυσης στα χέρια ενός ειδικού. Από την άλλη, το μέγεθος της ασάφειας που παρατηρείται σε τέτοιες εικόνες είναι τέτοιο ώστε πολλές φορές να ωθεί τους ειδικούς σε διαφορετικές ή και αντικρουόμενες κατατμήσεις, ακόμη και από το ίδιο ανθρώπινο χέρι. Επιπλέον, το παραπάνω έχει ως αποτέλεσμα την οικοδόμηση βάσεων δεδομένων στις οποίες για μια εικόνα αποθηκεύονται πολλαπλές κατατμήσεις, δυαδικές και μη. Μπορούμε με βάση μια κατάτμηση εικόνας να ανακτήσουμε άλλες, παρόμοιες τέτοιες εικόνες των οποίων τα δεδομένα έχουν προέλθει από αναλύσεις ειδικών, χωρίς σε κάποιο βήμα να υποβαθμίζουμε την ασαφή φύση των αντικειμένων που απεικονίζονται; Πως επιχειρείται η ανάκτηση σε μια βάση δεδομένων στην οποία έχουν αποθηκευτεί οι παραπάνω πολλαπλές κατατμήσεις για κάθε εικόνα; Αποτελεί κριτήριο ομοιότητας μεταξύ εικόνων το πόσο συχνά θα επέλεγε ένας ειδικός να οριοθετήσει ένα εικονοστοιχείο μιας τέτοιας εικόνας εντός ή εκτός ενός τέτοιου θολού αντικειμένου; Στα πλαίσια της παρούσας εργασίας προσπαθούμε να απαντήσουμε στα παραπάνω ερωτήματα, μελετώντας διεξοδικά την διαδικασία ανάκτησης τέτοιων εικόνων. Προσεγγίζουμε το πρόβλημα θεωρώντας ότι για κάθε εικόνα αποθηκεύονται στην βάση μας περισσότερες της μίας κατατμήσεις, τόσο δυαδικής φύσης από ειδικούς όσο και από ασαφείς από αυτόματους αλγορίθμους. Επιδιώκουμε εκμεταλλευόμενοι το χαρακτηριστικό της ασάφειας να ενοποιήσουμε την διαδικασία της ανάκτησης και για τις δυο παραπάνω περιπτώσεις, προσεγγίζοντας την συχνότητα με την οποία ένας ειδικός θα οριοθετούσε το εκάστοτε ασαφές αντικείμενο με συγκεκριμένο τρόπο καθώς και τα ενδογενή χαρακτηριστικά ενός ασαφούς αντικειμένου που έχει εξαχθεί από αυτόματο αλγόριθμο. Προτείνουμε κατάλληλο μηχανισμό ανάκτησης ο οποίος αναλαμβάνει την μετάβαση από τον χώρο της αναποφασιστικότητας και του ασαφούς στον χώρο της πιθανοτικής αναπαράστασης, διατηρώντας παράλληλα όλους τους περιορισμούς που έχουν επιβληθεί στα δεδομένα από την πρωταρχική ανάλυσή τους. Στην συνέχεια αξιολογούμε την διαδικασία της ανάκτησης, εφαρμόζοντας την νέα μέθοδο σε ήδη υπάρχον σύνολο δεδομένων από το οποίο και εξάγουμε συμπεράσματα για τα αποτελέσματά της. / Image data acquired through the use of bio-medical scanners are by nature fuzzy, thanks to a series of factors including limitations in spatial, temporal and parametric resolutions other than the physical limitations of the device. When the object of interest in such an image displays intensity patterns that are distinct from the patterns of other objects appearing together, a segmentation of the image in a hard, binary manner that clearly defines the borders between objects is feasible. It is frequent though that in such images factors like the lack of homogeneity between materials depicted, blurring, noise or deviations in the background pose difficulties in the above process. Intensity values in such an image appear in a fuzzy, gradient, “non-binary” manner. An innovative trend in the field of study is to make use of the fuzzy composition of objects in such an image, in a way in which fuzziness becomes a characteristic feature of the object instead of an undesirable trait: deriving from the theory of fuzzy sets, such approaches segment an image in a gradient, non-binary manner, therefore avoiding to set up a clear boundary between depicted objects. Such approaches are successful in capturing the fuzziness of the blurry image in mathematical terms, transforming the quality into a powerful tool of analysis in the hands of an expert. On the other hand, the scale of fuzziness observed in such images often leads experts towards different or contradictory segmentations, even drawn by the same human hand. What is more, the aforementioned case results in the compilation of image data bases consisting of multiple segmentations for each image, both binary and fuzzy. Are we able, by segmenting an image, to retrieve other similar such images whose segmented data have been acquired by experts, without downgrading the importance of the fuzziness of the objects depicted in any step involved? How exactly are images in such a database storing multiple segmentations of each retrieved? Is the frequency with which an expert would choose to either include or exclude from a fuzzy object a pixel of an image, a criterion of semblance between objects depicted in images? Finally, how able are we to tackle the feature of fuzziness in a probabilistic manner, thus providing a valuable tool in bridging the gap between automatic segmentation algorithms and segmentations coming from field experts? In the context of this thesis, we tackle the aforementioned problems studying thoroughly the process of image retrieval in a fuzzy context. We consider the case in which a database consists of images for which exist more than one segmentations, both crisp, derived by experts’ analysis, and fuzzy, generated by segmentation algorithms. We attempt to unify the retrieval process for both cases by taking advantage of the feature of fuzziness, and by approximating the frequency with which an expert would confine the boundaries of the fuzzy object in a uniform manner, along with the intrinsic features of a fuzzy, algorithm-generated object. We propose a suitable retrieval mechanism that undertakes the transition from the field of indecisiveness to that of a probabilistic representation, at the same time preserving all the limitations imposed on the data by their initial analysis. Next, we evaluate the retrieval process, by implementing the new method on an already existing data-set and draw conclusions on the effectiveness of the proposed scheme.
9

Τα ελληνικά ενδημικά χλωριδικά στοιχεία του εθνικού πάρκου Χελμού - Βουραϊκού : βάση δεδομένων (χαρτογράφηση με χρήση Γεωγραφικών Συστημάτων Πληροφοριών και συσχετισμός με τους τύπους οικοτόπων της Οδηγίας 92/43/ΕΟΚ)

Μακρή, Δήμητρα 07 July 2015 (has links)
Το εθνικό Πάρκο Χελμού – Βουραϊκού βρίσκεται στη βόρεια Πελοπόννησο, η έκταση του είναι περίπου 544,4 Km2 και περιλαμβάνει τέσσερεις (4) Ειδικές Ζώνες Διατήρησης (Ε.Ζ.Δ.) του δικτύου Natura 2000 και 21 τύπους οικοτόπων, εκ των οποίων, δύο (2) αποτελούν οικότοπους προτεραιότητας της Οδηγίας 92/43/ΕΟΚ. Αρχικά η παρούσα εργασία, καταγράφει τα ελληνικά ενδημικά χλωριδικά στοιχεία του Εθνικού Πάρκου, τα οποία ανέρχονται σε 136 taxa, 33 εκ των οποίων είναι ενδημικά της Πελοποννήσου και από αυτά, τα 6 είναι τοπικά ενδημικά. Στη συνέχεια επιχειρεί την συσχέτιση των ελληνικών ενδημικών taxa με τους τύπους οικοτόπων της Οδηγίας 92/43/ΕΟΚ, σύμφωνα με τη θέση όπου έχει αναφερθεί η παρουσία τους εντός της περιοχής μελέτης, καθώς και με τις Ειδικές Ζώνες Διατήρησης του δικτύου Natura 2000 και τις περιοχές προστασίας του Εθνικού Πάρκου όπως ορίζονται στην ΚΥΑ 40390/01-10-2009. Παράλληλα, γίνεται ανάλυση της υψομετρικής κατανομής των μελετώμενων taxa και διερευνώνται οι φυτογεωγραφικές σχέσεις του Χελμού με τα όρη της Πελοποννήσου και της Στερεάς Ελλάδας και της περιοχής μελέτης με τις υπόλοιπες φυτογεωγραφικές περιοχές της Ελλάδας. Επισημάνονται τα χλωριδικά στοιχεία που κατατάσσονται σε κάποια κατηγορία εξαφάνισης ή βρίσκονται σε καθεστώς προστασίας, ο συνολικός αριθμός των οποίων είναι 54 taxa. Τέλος, δημιουργείται βάση δεδομένων που περιλαμβάνει για κάθε taxon, τις συνώνυμες ονομασίες του, την περιγραφή του βιοτόπου και το εύρος των υψομέτρων στα οποία απαντάται, την εμφάνισή του σε άλλες φυτογεωγραφικές περιοχές, εκτός της Πελοποννήσου, την βιομορφή του, το καθεστώς προστασίας, την κατηγορία επικινδυνότητας εξαφάνισης στην οποία κατατάσσεται, τον οικότοπο, την Ειδική Ζώνη Διατήρησης και την Ζώνη Προστασίας του Εθνικού Πάρκου στην οποία βρίσκεται. Στη βάση δεδομένων περιλαμβάνεται, επίσης, για όσα taxa βρέθηκε σχετική πληροφορία, η γεωγραφική τους θέση στην περιοχή μελέτης καθώς και οι παρατηρήσεις των μελετητών που τα συνέλεξαν σε κάθε θέση συλλογής. / The Chelmos - Vouraikos National Park is located in northern Peloponnese, covers about 544,4 Km2 and includes four (4) Special Areas of Conservation (SAC) of Natura 2000 network and 21 habitat types, of which, two (2) are priority habitats according to Directive 92/43/EEC. Initially, this thesis catalogues the Greek endemic floristic elements of the National Park, which numbers 136 taxa, 33 of them are endemic to the area under study and six local endemics. Furthermore, it attempts to correlate the Greek endemic taxa with the habitat types of Directive 92/43/EEC, the Special Areas of Conservation of Natura 2000 network and the conservation zones of National Park, as defined in Joint Ministerial Decision 40390/01-10-2009. At the same time, it is carried out an analysis of taxa’s altitudinal distribution and the phytogeographical relationships between Chelmos and the mountains of Peloponnese and Central Greece as well as among the study area and other phytogeographical regions of Greece are investigated. The floristcs elements under the threat of extinction or under protection status are highlighted, the number of which is 54 taxa. Finally, a database is contracted, that includes for each taxon, synonyms, habitat description, altitude range, presents in other phytogeographical regions, except for the Peloponnese, life form, protection status, category of extinction risk, habitat type, the Special Areas of Conservation and the conservation zones of National Park, where it has been referred. The database includes, also, when the information exists, the geographical location and the observations of researchers who have collected it within the area under study.
10

Ανάκτηση λογοτύπων

Κούλης, Χρήστος 14 December 2009 (has links)
Στην παρούσα εργασία γίνεται μια προσπάθεια οπτικής ανάκτησης λογοτύπων με σκοπό την οργάνωσή τους για μετέπειτα χρήση τους σε περιπτώσεις αναζήτησης ομοίων λογοτύπων από χρήστες. Η μελέτη γίνεται με χρήση μεθόδων και εργαλείων τα οποία είτε έχουν σχεδιαστεί για αυτό το σκοπό είτε έχουν ληφθεί από άλλα κομμάτια του τομέα αναγνώρισης προτύπων. Πιο συγκεκριμένα χρησιμοποιούνται οι μεθοδολογίες: α. Angular Radial Transform (ART) που ορίζεται στο MPEG-7 πρωτόκολλο. β. Ένας αλγόριθμος σύγκρισης σχημάτων ως κατανομές ιστογραμμάτων που τον ονομάζουμε Angular Radial Histogram (ARH) και περιγράφεται σε δημοσίευση που αφορά την αναγνώριση σχημάτων. γ. Μια μεθοδολογία που εκμεταλλεύεται τον αλγόριθμο DCT και την συμπιεσμένη φύση των αρχείων εικόνων - λογοτύπων στο σημερινό web για γρήγορη αναζήτηση η οποία έχει χρησιμοποιηθεί για οργάνωση βάσεων γενικών εικόνων. δ. Μια μεθοδολογία στηριγμένη στα φίλτρα Gabor και το WW-Test η οποία έχει εφαρμοστεί με αρκετά καλά αποτελέσματα σε πεδιά αναγνώρισης προτύπων. Η έρευνα γίνεται σε τρεις (νεοκατασκευασμένες) βάσεις λογοτύπων όπου τα αποτελέσματα φαίνεται να είναι θετικά ειδικά για την τελευταία μεθοδολογία. / In this work, four different algorithms are used in the field of logos retrieval, in an efford to organize logos databases that can be handful in cases where users may need to retrieve similar logos. The algorithms that are used are a. Angular Radial Transform (ART) which is defiend in MPEG-7, b. An algorithm that compairs logos outlines called sas Angular Radial Histogram which has been proposed for general shape matching procedures, c. An algorithm based on the well known DCT and the compression nature of the very common JPEG protocol, d. An algorithm based on Gabor filters for feature extraction and the Wald-Wolfowitz for feature comparisons, which gave very good results. The tests took place on three different logos database which were constructed for this purpose.

Page generated in 0.0371 seconds