11 |
Σύστημα αυτόματης αναγνώρισης διακριτής ομιλίας βασισμένο σε φωνήματα και προσαρμογή του σε συνεχή ομιλίαΤσοπάνογλου, Αναστάσιος 06 October 2009 (has links)
- / -
|
12 |
Αποκωδικοποίηση, διεμπλοκή και κατανομή δεδομένων σε συστήματα αποθήκευσης πληροφοριών με χρήση πολλαπλών πεδίωνΒαρσάμου, Μαρία 19 January 2011 (has links)
Τη σημερινή εποχή, οι απαιτήσεις για αποθηκευτικές συσκευές που προσφέρουν πολύ υψηλές πυκνότητες σε εξαιρετικά μικρό μέγεθος και ταυτόχρονα υποστηρίζουν μεγάλες ταχύτητες στην ανταλλαγή δεδομένων, διαρκώς αυξάνουν. Ένα νέο πεδίο έρευνας ασχολείται με τη δυνατότητα εκμετάλλευσης των τεχνικών Μικροσκοπίας Ατομικής Δύναμης (AFM) για τη δημιουργία συσκευών ικανών να αποθηκεύουν δεδομένα με πολύ μεγαλύτερη πυκνότητα σε σχέση με τις συμβατικές συσκευές. Οι τεχνικές AFM χρησιμοποιούν μικροσκοπικές ακίδες, διαστάσεων μερικών νανομέτρων, με πολύ αιχμηρές άκρες, για να παρατηρούν και να τροποποιούν επιφάνειες σε ατομικό επίπεδο. Για την επίτευξη υψηλού ρυθμού εγγραφής και ανάγνωσης δεδομένων, χρησιμοποιούνται ηλεκτρομηχανικά συστήματα πολύ μικρής κλίμακας (Micro-electro-mechanical-systems, MEMS) αποτελούμενα από ακίδες που λειτουργούν παράλληλα. Κάθε ακίδα είναι προσαρμοσμένη σε έναν κατάλληλο βραχίονα και η συνολική διάταξη ονομάζεται probe. Κάθε probe εκτελεί λειτουργίες εγγραφής/ανάγνωσης/διαγραφής σε μια αφιερωμένη περιοχή του μέσου αποθήκευσης, η οποία ονομάζεται πεδίο αποθήκευσης.
Στη διεθνή βιβλιογραφία έχουν προταθεί και μελετηθεί πειραματικά πολλές μέθοδοι εγγραφής και ανάγνωσης. Μια από αυτές είναι η θερμομηχανική μέθοδος αποθήκευσης, όπου η ψηφιακή πληροφορία αποθηκεύεται μέσω του φυσικού μηχανισμού δημιουργίας ή μη κοιλωμάτων διαμέτρου μερικών νανομέτρων σε πολυμερή υλικά με την χρήση ακίδας αντίστοιχων διαστάσεων. Η παρουσία (απουσία) κοιλωμάτων αντιστοιχεί στο λογικό '1' ('0'). Τα δεδομένα του χρήστη αποθηκεύονται με τη μορφή ακολουθιών κοιλωμάτων. Για την εγγραφή και την ανάγνωση των δεδομένων, το μέσο αποθήκευσης κινείται με σταθερή ταχύτητα σε σχέση με τη διάταξη των probes. Η κίνηση αυτή επιτυγχάνεται με χρήση ενός ηλεκτρομηχανικού συστήματος οδήγησης, το οποίο ελέγχεται από ένα σερβομηχανισμό. Κατά τη διάρκεια της εγγραφής/ανάγνωσης των δεδομένων, η κίνηση των probes πρέπει να γίνεται με μεγάλη ακρίβεια, καθώς όσο αυξάνουν οι αποκλίσεις σε σχέση με την κίνηση αναφοράς, ο ρυθμός των σφαλμάτων αυξάνεται με μη γραμμικό τρόπο.
Εκτός από τον ενδογενή θερμικό θόρυβο και το θόρυβο κβαντισμού, αιτίες που μπορεί να προκαλέσουν αποκλίσεις στην κίνηση των probes είναι η μηχανική βλάβη της ακίδας ή κάποιο 'ξένo' σωματίδιο στο μέσο, οπότε σε αυτή την περίπτωση τα λάθη περιορίζονται σε ένα μόνο πεδίο. Μία άλλη αιτία τέτοιων αποκλίσεων είναι η εφαρμογή εξωτερικών διαταραχών στο ηλεκτρομηχανικό σύστημα οδήγησης η οποία μεταφράζεται σε διαταραχή στην κίνηση όλων των ακίδων, προκαλώντας έτσι την εμφάνιση λαθών σε όλα τα πεδία. Κατά συνέπεια, τα συστήματα αυτά είναι επιρρεπή σε λάθη ριπής.
Στα συστήματα αποθήκευσης, τα δεδομένα του χρήστη λαμβάνονται με τη μορφή sectors σταθερού μεγέθους. Το γεγονός της όμοιας και ταυτόχρονης κίνησης όλων των probes, έχει οδηγήσει στην υιοθέτηση της τακτικής τα δεδομένα ενός sector να μοιράζονται σε ισόποσα μέρη ίσα με το πλήθος των πεδίων. Για την αντιμετώπιση των λαθών ριπής χρησιμοποιείται ένας συνδυασμός μη-δυαδικών κωδίκων διόρθωσης λαθών RS και κατάλληλων κυκλωμάτων διεμπλοκής που μετασχηματίζουν τα δεδομένα του χρήστη πριν αποθηκευτούν στο μέσο. Κάθε sector χωρίζεται σε κωδικολέξεις, ανάλογα με τα χαρακτηριστικά του κώδικα RS. Όμως, ανάλογα με τις παραμέτρους του συστήματος μπορεί να μην είναι εφικτή η τοποθέτηση του ίδιου αριθμού δεδομένων σε όλα τα πεδία. Σε αυτές τις περιπτώσεις, στα πεδία όπου υπάρχει κενό χρησιμοποιείται κατάλληλος αριθμός συμπληρωματικών συμβόλων (padding) που αποτελούνται από μηδενικά, μειώνοντας σημαντικά την αποδοτικότητα αποθήκευσης της συσκευής, ειδικά για μεγάλο αριθμό πεδίων. Στο πλαίσιο της διδακτορικής διατριβής προτάθηκε ένας βέλτιστος τρόπος κατανομής των δεδομένων του χρήστη που εξαλείφει τα συμπληρωματικά σύμβολα, μεγιστοποιώντας έτσι τη δυνατότητα αποθήκευσης της συσκευής και αυξάνοντας πάρα πολύ τη χωρητικότητα του συστήματος σε σχέση με τις μέχρι σήμερα γνωστές διαδικασίες.
Στο πλαίσιο της διδακτορικής διατριβής μελετήθηκε επίσης το θέμα της αξιοπιστίας ενός συστήματος αποθήκευσης πολλαπλών πεδίων. Το γεγονός ότι τα συστήματα αυτά είναι επιρρεπή στην εμφάνιση λαθών ριπής καθιστά κρίσιμη τη μελέτη της αξιοπιστίας ενός τέτοιου συστήματος για όλες τις περιπτώσεις λαθών που μπορεί να εμφανιστούν και να διερευνηθεί η επίδραση των διαφόρων παραμέτρων του συστήματος, όπως ο αριθμός των πεδίων αποθήκευσης, το μέγεθος του sector και ο ρυθμός του κώδικα, στη διορθωτική ικανότητα του συστήματος, ώστε να εκτιμηθεί ο βέλτιστος συνδυασμός τους.
Στην περίπτωση των συστημάτων αποθήκευσης, ως αξιοπιστία ορίζεται η πιθανότητα να διαβαστεί σωστά ο sector. Για τον λόγο αυτόν, αναπτύχθηκε το σύνολο των μαθηματικών μοντέλων και σχέσεων που επιτρέπουν τον υπολογισμό της πιθανότητας αυτής όταν στο σύστημα εμφανίζονται τόσο τυχαία λάθη όσο και λάθη ριπής σε ένα πεδίο αποθήκευσης ή σε όλα τα πεδία ταυτόχρονα.
Ιδιαίτερη βαρύτητα δόθηκε στη μοντελοποίηση των λαθών ριπής που εμφανίζονται ταυτόχρονα σε όλα τα πεδία αποθήκευσης, εξαιτίας της εφαρμογής εξωτερικών επιταχύνσεων στο ηλεκτρομηχανικό σύστημα κίνησης, καθώς αυτή είναι η κύρια αιτία που μπορεί να οδηγήσει σε αποτυχία το σύστημα. Αναπτύχθηκε ένα πλήρες μοντέλο καναλιού λαθών ριπής που συσχετίζει την απόκλιση θέσης με την πιθανότητα εμφάνισης λαθών στα δεδομένα που είναι αποθηκευμένα στα πολλαπλά πεδία. Με βάση πειραματικές μετρήσεις περιγράφεται η επίδραση της διαταραχής στο κανάλι ανάγνωσης, ενώ ταυτόχρονα μοντελοποιούνται με τη χρήση διεργασιών Markov τα λάθη ριπής που εμφανίζονταισε επίπεδο συμβόλου στα διάφορα πεδία εξαιτίας της συγκεκριμένης διαταραχής. Είναι έτσι δυνατή η σε βάθος μελέτη του φυσικού μηχανισμού που εισάγει τα λάθη ριπής στα πολλαπλά πεδία, της συσχέτισης των λαθών που εμφανίζονται ταυτόχρονα στα διαφορετικά πεδία, όπως επίσης και της επίδρασης των εξωτερικών διαταραχών στη διορθωτική ικανότητα των διαδικασιών αποκωδικοποίησης.
Η μελέτη της συσχέτισης των λαθών ριπής που επηρεάζουν ταυτόχρονα τα δεδομένα σε όλα τα πεδία αποθήκευσης οδήγησε στην ανάπτυξη μιας μεθόδου που εκμεταλλεύεται το χαρακτηριστικό της παράλληλης λειτουργίας των πεδίων και τη δυνατότητα επέκτασης της διορθωτικής ικανότητας των κωδίκων RS, όταν είναι γνωστή η θέση κάποιων από τα λάθη. Τα λάθη αυτά ονομάζονται erasures και η χρήση τους μπορεί να βελτιώσει την αξιοπιστία των διαδικασιών αποκωδικοποίησης χωρίς να αυξηθεί η πλεονάζουσα πληροφορία στο σύστημα. Η προτεινόμενη μέθοδος εφαρμόζεται στην περίπτωση που η διαταραχή είναι τέτοια ώστε να οδηγεί τη διαδικασία διόρθωσης λαθών σε αποτυχία αλλά τουλάχιστον μία κωδικολέξη διορθώθηκε σωστά οπότε οι θέσεις των λαθών της είναι γνωστές. Με βάση τις γνωστές θέσεις λαθών, εκτιμάται η πιθανότητα να υπάρχει λάθος στα σύμβολα των ίδιων θέσεων στα άλλα πεδία, τα οποία όμως ανήκουν σε κωδικολέξεις που δεν ήταν δυνατό να διορθωθούν αρχικά. Τα σύμβολα με τις μεγαλύτερες πιθανότητες τίθενται ως erasures και ένας δεύτερος γύρος αποκωδικοποίησης εκτελείται. Τα αποτελέσματα για την απόδοση της μεθόδου δείχνουν ότι υπάρχει μεγάλη βελτίωση στη διορθωτική ικανότητα του συστήματος.
Συγκεντρωτικά, η παρούσα διατριβή ασχολήθηκε με τη βελτιστοποίηση της κατανομής δεδομένων σε συστήματα αποθήκευσης πληροφορίας πολλαπλών πεδίων, τη μοντελοποίηση των διαφόρων τύπων λαθών που εμφανίζονται σε τέτοια συστήματα, την ανάλυση της αξιοπιστίας των διαδικασιών αποκωδικοποίησης και διεμπλοκής δεδομένων και την πρόταση μεθόδων για τη βελτίωσή της. / Nowadays, the need for storage devices that offer very high densities at extremely small size and, at the same time, support very high data rates, is constantly increasing. A new research area investigates whether the Atomic Force Microscopy (AFM) techniques that use nanometer-sharp tips for imaging and investigating the structure of materials down to the atomic scale, can be exploited to create data storage devices capable of storing data with much higher density than conventional devices. To achieve high data read/write rates, micro-electro-mechanical-systems (MEMS) with arrays of probes operating simultaneously are used, with each probe performing read/write/erase operations in a dedicated storage field.
Several methods of probe-based data recording have been proposed and experimentally studied. One such method is the thermomechanical one, where digital information is stored by forming nanometer-scale indentations in thin polymer films. The presence or absence of indentations corresponds to logical ones or zeros, respectively. The user data are stored in the form of sequences of indentations. For writing and reading data, the storage medium is moved at a constant velocity underneath the array of probes. This movement is achieved using a MEMS-based microscanner with X/Y motion capability. During the read/write operations, the movement of the probes must be extremely precise, since even the slightest deviations from the reference movement increase the data error rate in a non-linear way. Apart from the intrinsic thermal and quantization noise, other causes that result to deviations in the movement of the probes, are, among others, a mechanical failure of a tip or a dust particle on the polymer medium. In these cases burst errors appear in a single field.
Another severe error condition is observed when an external disturbance is applied to the system. In this case, all probes are affected simultaneously by the same statistical characteristics, leading to the occurrence of burst errors in all fields. Consequently, these storage systems are prone to burst errors.
In storage systems, user data are usually exchanged in the form of fixed-size sectors. Due to the simultaneous movement of all probes, the technique of partitioning the user data sector into equal parts, each of which is stored in a different field, is usually applied. To deal with burst errors, a combination of non-binary Reed-Solomon (RS) error correction codes and appropriate interleaving circuits is used. So, initially each sector is divided into a number of codewords, depending on the characteristics of the RS code. However, depending on the system parameters it may not be possible to allocate the same number of data in all storage fields. In such a case, the gaps are filled with zero padding symbols, reducing the storage efficiency of the device, especially when the number of fields is large. The thesis proposes an optimal data allocation method that eliminates the unnecessary information, and therefore maximizes the storage efficiency of the device and increases at the same time the system capacity compared with the hitherto known processes.
The thesis also studies the reliability of a probe-based storage device with multiple fields. The fact that these systems are prone to burst errors makes it critical to study their reliability for all possible cases of errors that may occur and investigate the effect of the various system parameters, such as the number of storage fields, the sector size and the RS code rate, on the error correction capability of the system, so that the optimal combination is determined. Regarding storage systems, the reliability is defined as the probability of correct sector retrieval. For that reason, the necessary mathematical models have been developed and the equations have been specified, which allow the calculation of the correct sector retrieval probability when the system is affected by all types of errors, namely random errors and burst errors, either in a single storage field or in all fields simultaneously.
Particular focus was placed on the modeling of burst errors that occur simultaneously in all storage fields, due to the application of external disturbances to the entire system, which is the main source of errors that can lead the system to failure. A complete burst errors channel model has been developed, which describes the correlation between the deviations in the movement of the probes and the probability of error appearance in the data stored in the multiple fields. Based on experimental data, the effect of the disturbance on the reading channel is described, while the burst errors that appear consequently in the symbols stored in the various fields are modeled using Markov processes. It is thus possible to study thoroughly the physical mechanism that introduces burst errors in the multiple storage fields, the correlation of the errors that occur simultaneously in the different fields, as well as the impact of the level of the external disturbances on the error correction capability of the decoding scheme.
The study of the correlation among the burst errors that appear in all storage fields due to external disturbances led to the development of a new method that exploits the simultaneous operation of the probes and the possibility to extend the error correction capability of the RS codes, when the position of a number of errors, called erasures, is known, and improves the reliability of the decoding procedures without increasing the redundancy used in the system. The proposed method is applicable when the disturbance is such that it leads to a sector retrieval failure but at least one codeword was properly corrected and the positions of its errors are revealed. Based on the known error locations, an estimate of the probability that the symbols that lie at the same positions in the other fields, but belong to non-decodable codewords, are in error is produced. Then, a second decoding iteration that employs the additional information is executed. The results regarding the performance of the method show that there is a big improvement in the error correction capability of the system.
In summary, the thesis deals with the optimization of the data allocation method in storage systems that use multiple fields that operate simultaneously, the modeling of the different types of errors that occur in such systems, the analysis of the reliability of the decoding and data interleaving procedures and finally, the introduction of new methods that improve their effectiveness.
|
13 |
Υλοποίηση κωδικοποιητή πηγής τύπου ADPCM στον επεξεργαστή σήματος TMS320C6711 / ADPCM source coding implementation in the TMS320C6711 digital signal processorΑλεξανδρόπουλος, Γεώργιος 21 March 2011 (has links)
Στα πλαίσια αυτής της διπλωματικής εργασίας υλοποιήθηκε η σύσταση G.721 της International Telecommunication Union (ITU-CCITT) η οποία περιγράφει την προσαρμοστική διαφορική παλμοκωδική διαμόρφωση (Adaptive Differential Pulse Code Modulation-ADPCM) για κανάλια 32 Kbps με συχνότητα δειγματοληψίας 8 KHz. Η διαμόρφωση αυτή χρησιμοποιείται για συμπίεση δεδομένων σε πραγματικό χρόνο, ιδίως φωνής, κατά τη μετάδοση σε ένα τηλεπικοινωνιακό κανάλι. Πρόκειται για μια από τις παλαιότερες τεχνικές κωδικοποίησης φωνής, η οποία εκμεταλλεύεται την υψηλή συσχέτιση των φωνητικών σημάτων παρέχοντας υψηλή απόδοση.
Η υλοποίηση πραγματοποιήθηκε στην αναπτυξιακή κάρτα C6211/C6711 DSK, πυρήνας της οποίας είναι ο ψηφιακός επεξεργαστής σήματος κινητής υποδιαστολής TMS320C6711 της Texas Instruments. Ένα από τα βασικά χαρακτηριστικά της οικογένειας TMS320 στην οποία αυτός ανήκει είναι η προχωρημένη Very Long Instruction Word (VLIW) αρχιτεκτονική, VelociTITM, η οποία παρέχει υψηλό παραλληλισμό πολλών βαθμίδων για την εκτέλεση πολλών εντολών στη διάρκεια ενός ωρολογιακού κύκλου. Η υψηλή απόδοση αυτού του επεξεργαστή, η ύπαρξη μετατροπέων A/D και D/A που εξασφαλίζουν την εύκολη είσοδο και έξοδο πραγματικών σημάτων, η ύπαρξη ενός πλήρους συνόλου αναπτυξιακών εργαλείων λογισμικού για εύκολο προγραμματισμό (Code Composer Studio v.1.23) κι η εύκολη διασύνδεση της αναπτυξιακής κάρτας με προσωπικό υπολογιστή, μέσω της παράλληλης θύρας επικοινωνιών, την καθιστούν ένα ισχυρό εργαλείο για την ανάπτυξη εφαρμογών της ψηφιακής επεξεργασίας σημάτων, της επεξεργασίας και συμπίεσης φωνής, τηλεπικοινωνιακών εφαρμογών κ.ά.
Η εργασία αυτή δομείται σε τρία κεφάλαια. Στο 1ο κεφάλαιο περιγράφονται τα βασικά χαρακτηριστικά του επεξεργαστή TMS320C6711, στο 2ο κεφάλαιο, η σύσταση G.721 και στο 3ο περιγράφεται η υλοποίηση του αλγορίθμου μαζί με τις πειραματικές μετρήσεις και τα συμπεράσματα. Τέλος, στο παράρτημα, παρατίθενται όλοι οι χρησιμοποιούμενοι κώδικες που αφορούν τον αλγόριθμο και την αναπαράσταση των αποτελεσμάτων. / Recommendation G.721 of the International Telecommunication Union (ITU-CCITT) that describes Adaptive Differential Pulse Code Modulation (ADPCM) for 32 Kbps channels with 8 KHz sampling frequency has been implemented within the framework of this diploma thesis. This modulation is utilized for real-time data compression, especially voice data, during transmission in telecommunications channels. It is one of the oldest well-known voice coding techniques that exploits high correlation inherit in speech signals and provides high performance.
The implementation of ADPCM voice coding has been carried out in the C6211/C6711 Digital signal processing Starter Kit (DSK), which core processor is the floating point Digital Signal Processor (DSP) TMS320C6711 of Texas Instruments. This processor belongs to the TMS320 DSP family which one of the main characteristics is the advanced Very Long Instruction Word (VLIW) architecture, VelociTITM. The latter architecture provides high multistage parallelism for executing many commands during a clocking cycle. DSK’s easy connection with personal computers through the parallel communications port, DSP’s TMS320C6711 high performance, the existence of A/D and D/A converters that ensure simple input and output of real signals and the supporting of solid software development tools for easy programming (Code Composer Studio v.1.23) render DSK a powerful tool for implementing digital signal processing applications, speech processing and compression, telecommunications applications etc.
This thesis is structured in three chapters. In Chapter 1, the basic characteristics of DSP TMS320C6711 are presented, whereas in Chapter 2, recommendation G.721 is described. The implementation of ADPCM source coding is presented in Chapter 3 along with several simulation results and conclusions. In the appendix, all source files are included.
|
14 |
Αρχιτεκτονικές για LDPC αποκωδικοποιητέςΔιακογιάννης, Αρτέμιος 16 June 2011 (has links)
Ένα από τα βασικά μειονεκτήματα που παρουσιάζει ο σχεδιασμός και η υλοποίηση LDPC αποκωδικοποιητών είναι η μεγάλη πολυπλοκότητα που παρουσιάζεται σε επίπεδο υλικού εξαιτίας της εσωτερικής διασύνδεσης των μονάδων επεξεργασίας δεδομένων.H αρχιτεκτονική που επιτυγχάνει το μέγιστο επίπεδο παραλληλότητας και κατά συνέπεια είναι πολύ αποδοτική όσον αφορά την ταχύτητα αποκωδικοποίησης, δεν χρησιμοποιείται συχνά εξαιτίας της πολυπλοκότητας του υλικού λόγω των πολλαπλών κυκλωμάτων διασύνδεσης που απαιτεί. Στην παρούσα διπλωματική εργασία προτείνεται μια νέα αρχιτεκτονική για το δίκτυο διασύνδεσης ενώ παράλληλα έχει υλοποιηθεί και ένας αλγόριθμος για την αποδοτική τοποθέτηση των επεξεργαστικών μονάδων σε αυτό το δίκτυο. Επίσης έχει μελετηθεί και η επίδραση μειωμένης μετάδοσης πληροφορίας σε κάθε επανάληψη του αλγορίθμου αποκωδικοποίησης.Το περιβάλλον που χρησιμοποιήθηκε για την εξομοίωση και την παραγωγή των αποτελεσμάτων είναι η πλατφόρμα της Matlab. Η προτεινόμενη αρχιτεκτονική υλοποιήθηκε και εξομοιώθηκε σε κώδικες LDPC που αποτελούν μέρος του προτύπου DVB - S2 (Digital Video Broadcasting).Το συγκεκριμένο πρότυπο, εκτός των άλλων, καθορίζει και τις προδιαγραφές των κωδίκων LDPC που χρησιμοποιούνται κατά την κωδικοποίηση και αποκωδικοποίηση δεδομένων σε συστήματα ψηφιακής δορυφορικής μετάδοσης. Τα αποτελέσματα των εξομοιώσεων σχετίζονται με την πολυπλοκότητα της προτεινόμενης αρχιτεκτονικής σε υλικό αλλά και της απόδοσης (ταχύτητα αποκωδικοποίησης) και συγκρίνονται με την βασική πλήρως παράλληλη αρχιτεκτονική. / One of the main disadvantages of the design and implementation of LDPC decoders is the
great complexity presented at the hardware level because of the internal interconnection of
processing units. The fully parallel architecture that achieves the maximum level of
parallelism and hence is very efficient in terms of speed decoding is not used often
because of the hardware complexity due to the multiple interface circuits required.
This MSc thesis proposes a new architecture for the network interface and also introduces
an algorithm for the efficient placement of the processing units in this network. In addition
to that, a modified version of the decoding algorithm has been implemented. The relative
advantage of this algorithm is that in each iteration only a percentage of the processing
units exchange information with each other. That approach further reduces the hardware
complexity and power usage.
The environment used to simulate and produce the results is Matlab. The proposed
architecture is implemented and simulated in LDPC codes that are part of the standard
DVB - S2 (Digital Video Broadcasting). This standard, among other things, determines
the specifications of the LDPC codes used in the channel encoding and decoding process
in digital satellite transmission systems. The results of the simulations related to the
complexity of the proposed architecture in hardware and performance (decoding speed)
are compared with the fully parallel architecture.
|
15 |
Ολοκληρωμένα πληροφοριακά συστήματα στο χώρο της υγείας και υλοποίηση του προτύπου XDS-MSΚαρβούνη, Περσεφόνη 19 January 2011 (has links)
Οι σύγχρονες τάσεις στο χώρο των υπηρεσιών Υγείας απαιτούν αναβάθμιση των προσφερόμενων υπηρεσιών με ταυτόχρονο εξορθολογισμό του κόστους των. Τη λύση αυτή είναι σε θέση να δώσουν συστήματα μηχανοργάνωσης των Μονάδων παροχής υπηρεσιών υγείας. Ένα ολοκληρωμένο πληροφοριακό σύστημα υγείας (ΟΠΣΥ) είναι το πληροφοριακό σύστημα εκείνο που συμβάλει στην ενοποίηση, συστηματική παρακολούθηση, διαχείριση και έλεγχο των δεδομένων (οικονομικά, επιχειρησιακά, οργανωτικά καθώς και ιατρικά δεδομένα) ενός νοσοκομείου ή, γενικά μιας μονάδας υγείας, με σκοπό την αναβάθμιση της ποιότητας των υπηρεσιών την αναδιοργάνωση των εσωτερικών διεργασιών και την εξυπηρέτηση του πολίτη. Είναι δε σημαντικός ο ρόλος του όσον αφορά τη διάχυση και αξιοποίηση της ιατρικής πληροφορίας για ερευνητικούς και στατιστικούς σκοπούς αλλά και όσον αφορά με τη χρήση νέων τεχνολογιών πληροφορικής κι επικοινωνιών από τους ιατρούς, νοσηλευτές και διοικητικό και λοιπό προσωπικό ενός νοσοκομείου.
Στόχος της μεταπτυχιακής διπλωματικής αυτής εργασίας είναι η παρουσίαση των θεμάτων διαλειτουργικότητας και ανταλλαγής δεδομένων μεταξύ Πληροφοριακών Συστημάτων στο χώρο της Υγείας, ένα αντικείμενο που αποτελεί σημαντικό παράγοντα επιτυχίας και αξιοποίησης των Πληροφοριακών Υποδομών αυτών από τους επαγγελματίες Υγείας. Στις εισαγωγικές ενότητες αναλύεται η σημερινή κατάσταση στο χώρο της πληροφορικής υγείας και παρουσιάζονται τα χαρακτηριστικά των σύγχρονων ΟΠΣΥ, χρησιμοποιώντας μάλιστα ως παράδειγμα ένα εμπορικό προϊόν (το λογισμικό medico//s). Στη συνέχεια παρουσιάζονται οι κωδικοποιήσεις που χρησιμοποιούνται στα συστήματα αυτά, με ιδιαίτερη μνεία στην ελληνική μετάφραση της κωδικοποίησης ICD-10 απο το Υπουργείο Υγείας. Επίσης γίνεται ειδική αναφορά και αναλυτική παρουσίαση με παραδείγματα στο διεθνές πρωτόκολλο επικοινωνίας HL7.
Στα επόμενα κεφάλαια παρουσιάζεται το πρότυπο XDS-MS, ένα πρότυπο ιατρικών εγγράφων που υπηρετεί τους σκοπούς της διαλειτουργικότητας. Αναλύονται τα περιεχόμενα του εγγράφου αλλά και η δομή της όλης υλοποίησης ώστε το έγγραφο να μπορεί να διαμοιράζεται μεταξύ των επαγγελματιών υγείας. Για τις ανάγκες της εργασίας αυτής παρουσιάζεται το πρότυπο για τις συνόψεις νοσηλείας σύμφωνα με την αρχιτεκτονική ιατρικών εγγράφων (CDA) του HL7, τόσο όπως έχει τυποποιηθεί για την υποστήριξης Αγγλόφωνων νοσοκομείων/κειμένων αλλά και όπως είναι δυνατόν να προσαρμοστεί στις ανάγκες των Ελληνικών μονάδων Υγείας και της Ελληνικής γλώσσας. Στο πλαίσιο της παρούσας εργασίας, συγκεντρώθηκαν και παρατίθενται επίσης πρότυπα ιατρικών εγγράφων απο ελληνικά νοσοκομεία που χρησιμοποιούν ΟΠΣΥ. Επίσης, προτείνονται μελλοντικές επεκτάσεις και βελτιώσεις στο ερευνητικό αντικείμενο αυτό όπως αυτές προκύπτουν από την διεθνή βιβλιογραφία. Τέλος στο Παράρτημα της εργασίας παρουσιάζονται αναλυτικά οι κώδικες των εγγράφων CDA. / With advances in technology, the health care system requires an amelioration of services offered, as well as cost control. The solution is given by Integrated Health Information Systems (IHIS), a discipline at the intersection of information science, computer science, and health care that deals with the resources, devices, and methods required to optimize the acquisition, storage, retrieval, and use of information in health and biomedicine. Health informatics tools include not only computers but also clinical guidelines, formal medical terminologies, and information and communication systems. It is applied to the areas of nursing, clinical care, pharmacy, etc.
The Cross-Enterprise Sharing of Medical Summary (XDS-MS) Integration Profile, a profile based on the HL7 Clinical Document Architecture (CDA) standard, defines the appropriate standards for document transmission and a minimum set of "record entries" that should be forwarded or made available to subsequent care provider(s) during specific transfer of care scenarios. In addition, this integration profile needs to define the utilization requirements/options for the receiving entity in order to ensure that the "care context" of the sending entity is appropriately maintained following the information transfer.
So in this thesis there is an analysis of IHIS, with the paradigm of the medico//s software, as well as a presentation of coding systems in Heath Care Informatics. There are mentioned several systems, among which is found the HL7 one, analyzed by specific examples, and also the ICH-10. As for the latter there is a presentation of its greek translation as by the greek Ministry of Health. In the following chapters there is the description of the XDS-MS profile, both in its (english) version and the greek “translation”. In addition, there is a collection of medical documents by greek hospitals that use IHIS.
|
16 |
Ανάλυση επιπτώσεων αριθμητικών προσεγγίσεων σε επαναληπτικούς αποκωδικοποιητές για γραμμικούς κώδικες διόρθωσης σφαλμάτωνΑστάρας, Στέφανος 21 February 2015 (has links)
Σε αυτή την εργασία μελετάμε τους αλγορίθμους που χρησιμοποιούνται
στην αποκωδικοποίηση των LDPC, με έμφαση στους κώδικες του
προτύπου 802.11n. Αντιμετωπίζουμε τις δυσκολίες που αντιμετωπίζουν
στην υλοποίηση στο υλικό, κυρίως στην εκτέλεση αριθμητικών πράξεων,
και προτείνουμε πρακτικές λύσεις. Χρησιμοποιώντας τα αποτελέσματα
εκτενών εξομοιώσεων, καταλήγουμε στις βέλτιστες παραμέτρους που θα
έχουν οι προτεινόμενες υλοποιήσεις. / In this thesis, we study the LDPC decoding algorithms, with emphasis on the 802.11n standard codes. We tackle the hardware implementation difficulties, especially those related to arithmetic computations, and propose practical solutions. Leveraging the results of extensive simulations, we find the optimal parameters of the proposed implementations.
|
17 |
Ανάπτυξη αρχιτεκτονικών διπλού φίλτρου και FPGA υλοποιήσεις για το H.264 / AVC deblocking filterΚαβρουλάκης, Νικόλαος 07 June 2013 (has links)
Αντικείμενο της παρούσας διπλωματικής εργασίας είναι η παρουσίαση και η μελέτη ενος εναλλακτικού σχεδιασμού του deblocking φίλτρου του προτύπου κωδικοποίησης βίντεο Η.264. Αρχικά επεξηγείται αναλυτικά ο τρόπος λειτουργίας του φίλτρου και στη συνέχεια προτείνεται ένας πρωτοποριακός σχεδιασμός με χρήση pipeline πέντε σταδίων. Ο σχεδιασμός παρουσιάζει σημαντικά πλεονεκτήματα στον τομέα της ταχύτητας (ενδεικτικά εμφανίζεται βελτιωμένη απόδοση στην συχνότητα λειτουργίας και στο throughput). Αυτό πιστοποιήθηκε από μετρήσεις που έγιναν σε συγκεκριμένα fpga και επαλήθευσαν τα θεωρητικά συμπεράσματα που είχαν εξαχθεί. / The standard H.264 (or else MPEG-4 part 10) is nowadays the most widely used standard in the area of video coding as it is supported by the largest enterprises in the internet (including Google, Apple and Youtube). Its most important advantage over the previous standards is that it achieves better bitrate without falling in terms of quality.
A crucial part of the standard is the deblocking filter which is applied in each macroblock of a frame so that it reduces the blocking distortion. The filter accounts for about one third of the computational requirements of the standard, something which makes it a really important part of the filtering process.
The current diploma thesis presents an alternative design of the filter which achieves better performance than the existing ones. The design is based in the use of two filters (instead of one used in current technology) and moreover, in the application of a pipelined design in each filter. By using a double filter, exploitation of the independence which exists in many parts of the macroblock is achieved. That is to say, it is feasible that different parts of it can be filtered at the same time without facing any problems. Furthermore, the use of the pipeline technique importantly increases the throughput. Needless to say, in order for the desired result to be achieved, the design has to be made really carefully so that the restrictions imposed by the standard will not be failed. The use of this alternative filter design will result in an important raise in the performance. Amongst all, the operating frequency, the throughput and the quality of the produced video will all appear to be considerably risen. It also needs to be mentioned that the inevitable increase of the area used (because of the fact that two filters are used instead of one) is not really important in terms of cost.
The structure of the thesis is described in this paragraph. In chapter 1 there is a rather synoptic description of the H.264 standard and the exact position of the deblocking filter in the whole design is clarified. After that, the algorithmic description of the filter follows (Chapter 2). In this chapter, all the parameters participating in the filter are presented in full detail as well as the equations used during the process. In the next chapter (chapter 3), the architecture chosen for the design is presented. That is to say, the block diagram is presented and explained, as well as the table of timings which explains completely how the filter works. The pipelining technique applied in the filter is also analyzed and justified in this chapter. In the next chapter (chapter 4), every structural unit used in the current architecture is analyzed completely and its role in the whole structure is presented. Finally, in chapter 5, the results of the measurements made in typical fpgas of Altera and Xilinx are presented. The results are shown in table format whereas for specific parameters diagrams were used so that the improved performance of the current design compared to the older ones that are widely used, becomes evident.
|
18 |
Αναλυτική καταγραφή των διαδικασιών νοσηλείας ασθενών ασφαλισμένων σε διαφορετικούς ασφαλιστικούς οργανισμούς και αναφορά στις μεθόδους ανίχνευσης απάτης στα ασφαλιστικά ταμείαΣαββοπούλου, Ευφροσύνη 17 February 2009 (has links)
Ο μεγάλος αριθμός των ταμείων Κύριας και Επικουρικής Ασφάλισης, η έλλειψη στοιχειώδους οργάνωσης και αρχειοθέτησης των ιατρικών πράξεων, των κλινικών δεδομένων και των συναλλαγών των ασθενών με τα Νοσοκομεία σε σχέση με τους ασφαλιστικούς τους φορείς, η απουσία ενιαίου ιατρικού φακέλου καθώς και η έλλειψη ενιαίας κωδικοποίησης των δράσεων και συναλλαγών που αφορούν την Υγεία ως προς το ασφαλιστικό πρόβλημα, καθιστούν τα ασφαλιστικά Ταμεία στην Ελλάδα ανοχύρωτα μπροστά την έξαρση της απάτης προς αυτά. Το πρόβλημα της εξαπάτησης των Ασφαλιστικών Φορέων αποτελεί θέμα μείζονος οικονομικής σπουδαιότητας στον τομέα της Υγείας, διότι οδηγεί σε οικονομικό μαρασμό τα Ταμεία και καθιστά ελλιπείς τις παροχές τους στους ασφαλισμένους.
Από τις πιο βασικές αιτίες που οδηγούν σε εξαπάτηση των ασφαλιστικών φορέων είναι οι διαδικασίες υπερτιμολόγησης ιατρικών πράξεων(upcoding), η ύπαρξη ανεπαρκών ή πλήρως απόντων εγγράφων πιστοποίησης των αναγκαίων ιατρικών πράξεων, κοστολόγηση μη παρασχεθέντων ιατρικών υπηρεσιών, πώληση φαρμάκων από τους δικαιούχους ασφαλισμένους, κατάχρηση φαρμάκων, ακατάλληλη κωδικοποίηση, κ.ά. Ενδεικτικά αναφέρουμε ότι το ποσοστό των διαδικασιών υπερτιμολόγησης ιατρικών πράξεωνpcoding) στις ΗΠΑ κυμαίνεται σε 7-13%.Η τεχνολογία με σύγχρονες λύσεις φαίνεται να μπορ να χειριστεί το πρόβλημα επαρκώς, καθότι σε πολλές ευρωπαϊκές χώρες και στις ΗΠΑ, έχει αρχίσει να αποδίδει καρπούς. Το διαθέσιμο λογισικό εντοπίζει το αίτημα που φέρεται να είναι υπερτιμημένο, αναλύοντας ηλεκτρονικούς φακέλους λογαριασμών νοσοκομείων. Το λογισμικό αναγνωρίζει περιπτώσεις υπερτιμογησης ιατρικών πράξεων(upcoding) συνήθως μετά τη πληρωμή. Μεγάλο μέρος του διαθέσιμου λογισμικού είναι προς πώληση “off-the-shelf”, έτοιμο προς εγκατάσταση και χρήση με τον ελάχιστο επενδυτικό χώρο και χρόνο. Η αποδοτικόττα ενός προϊόντος λογισμικού μετράται ως προς δυοδιαστάσεις εκφραζόμενες ως ποσοστά, αναφερόμενες ως ευαισθησία και συγκεκριμενοποίηση. Η ευαισθησία μετρά το βαθμό στον οποίο το λογισμικό αναγνωρίζει όλες τις περιπτώσεις υπερκοστολόγησης ή άλλων περιπτώσεων απάτης. Η συγκεκριμενοποίηση μετρά την επάρκεια του λογισμικού, δηλαδή το βαθμό στον οποίο το λογισμικό αναγνωρίζει μόνον εκείνες τις περιπτώσεις που υπερτιμολοήθηκαν ή που γενικότερα κατά άλλον τρόπο έφεραν απάτη. Για την αύξηση της ευαισθησίας το λογισμικό πρέπει να συμπεριλάβει περιπτώσεις που δεν έφεραν απάτη (false positives). Για να πετύχει αύξηση της συγκεκριμενοποίησης , το λογισμικό ρισκάρει την απώλεια κάποιων περιπτώσεων που πραγματικά έφεραν απάτη (false negatives).Τα δεδομένα για κάθε εισαγωγή και παραμονή σε νοσοκομείο περιλαμβάνουν κωδικούς διάγνωσης, διαδικασίας, δημογραφικά, στοιχεία εισαγωγής-εξαγωγής ασθενών ,κοστολόγηση ιατρικών πράξεων. Αυτά συνήθως συνιστούν και τα χρησιμοποιούμενα προς επεξεργασία δεδομένα από το εκάστοτε λογισμικό. Απαιτείται μια ενιαία διεθνής βάση δεδομένων με τις καταγραφόμενες περιπτώσεις απάτης, μια διακρατική δυνατότητα μετακίνησης πληροφοριών, εκτενής πληροφόρηση των πολιτών και διαρκής ανατροφοδότηση των αποτελεσμάτων. Εξειδικευμένο προσωπικό με την υπευθυνότητα διεξαγωγής εσωτερικών ελέγχων δεν υφίσταται πάντοτε. Ωστόσο έχει διαπιστωθεί ότι όταν υπάρχουν δυναμικές προ-δράσεις και έλεγχοι τότε τα πράγματα είναι σαφώς καλύτερα στον τομέα της πρόληψης της απάτης. Ως απαραίτητα μέτρα καταστολής και αντιμετώπισης της απάτης θεωρούνται η καθιέρωση κοινών κατευθυντήριων γραμμών και οι δυναμικοί έλεγχοι με κατάλληλο λογισμικό. Βασική προϋπόθεση ωστόσο είναι η απρόσκοπτη και διαρκής συνεργασία όλων των εμπλεκόμενων φορέων( Υπουργεία Υγείας, Απασχόλησης και Δικαιοσύνης), η σύζευξη και με άλλα μέτρα –δράσεις κατά της απάτης, τόσο σε επίπεδο νομοθεσίας όσο σε επίπεδο κουλτούρας ώστε να εισαχθεί και να αξιοποιηθεί στην ελληνική πραγματικότητα η υπάρχουσα καινοτόμος τεχνολογία. Η βασική ιδέα πίσω από το χρησιμοποιούμενο λογισμικό είναι η τεχνολογία εκμάθησης μηχανών. Ο Επαγωγικός Λογικός Προγραμματισμός (ILP), αναπτύσσει λογισμικό βασισμένο σε τεχνικές εξόρυξης γνώσης από τεράστιες βάσεις δεδομένων και σε εκμάθηση μέσω εμπειρίας. Παρόλο που το επίπεδο αυτοματοποίηση είναι ψηλό, η εμπλοκή του ανθρώπινου παράγοντα θεωρείται σημαντική. Η ILP χρησιμοποιεί αλγόριθμους ανάλυσης σχέσεων ανάμεσα στις συναλλαγές και μπορεί να αναπαριστά εικονικά οτιδήποτε θέλει κάποιος ως μαθηματική συνάρτηση. Η γνώση του τρόπου δράσης των ατόμων που διαπράττουν την απάτη δεν μπορεί να είναι πάντα πλήρως διαθέσιμη, λόγω της εναλλασσόμενης φύσης της απάτης ,ωστόσο απαιτείται μια στοιχειώδης γνώση αυτών των «ύποπτων» δράσεων προκειμένου να κωδικοποιηθούν και να χρησιμοποιηθούν γιαεύρεση και καθοδήγηση του είδους των προτύπων που αναζητώνται κάθε φορά από το λογισμικό. / -
|
19 |
Τεχνολογίες ηλεκτροακουστικών συστημάτων για απευθείας αναπαραγωγή και ασύρματη μετάδοση ψηφιακών ηχητικών σημάτωνΤάτλας, Νικόλαος-Αλέξανδρος 20 February 2009 (has links)
Στη Διδακτορική Διατριβή αναλύονται ζητήματα που αφορούν την ασύρματη
μετάδοση καθώς και την απευθείας εκπομπή ψηφιακών ηχητικών σημάτων με
σκοπό την βελτιστοποίηση των τεχνικών αυτών. Ως προς τo σκέλος της
ασύρματης μετάδοσης, η διατριβή εστιάστηκε σε δίκτυο WLAN με υποστήριξη
QoS. Για την μελέτη του συστήματος διεξήχθησαν δοκιμές χρησιμοποιώντας
πρωτότυπη πλατφόρμα που επιτρέπει την μετατροπή ηχητικών ροών για την
εισαγωγή τους και εξαγωγή τους σε εφαρμογή εξομοίωσης δικτύου ώστε να
αξιολογηθεί η πιστότητα ηχητικής αναπαραγωγής. Η ανάλυση του συστήματος
οδήγησε στην ανάπτυξη πρωτότυπης τεχνικής για τον συγχρονισμό διακριτών
καναλιών αναπαραγωγής, που μπορεί να εφαρμοστεί με χρήση τυπικού υλικού
WLAN καθώς και πρωτότυπου αλγορίθμου για την συγκάλυψη ακουστών
παραμορφώσεων που ενδεχομένως εισάγονται κατά τη μετάδοση. Επίσης, στη
διατριβή εισάγονται αποτελέσματα με νέες μεθόδους που σχετίζονται με τη
μελέτη Μοναδιαίων Συστοιχιών Ψηφιακής Εκπομπής που οδηγούνται από
σήμα Σίγμα-Δέλτα ενός ψηφίου, όπως στο πρότυπο DSD. Η προσέγγιση
βασίζεται σε πρωτότυπο αλγόριθμο αντιστοίχησης ροής ενός ψηφίου σε
στοιχεία ακουστικής εκπομπής και παρουσιάζει σημαντικά πλεονεκτήματα, ως
προς την επιτυγχανόμενη πιστότητα και κατευθυντικότητα, όσο και στην
δυνατότητα υλοποίησης. Ο σχεδιασμός και η λειτουργία πρωτοτύπου
ψηφιακού ηχείου Σίγμα-Δέλτα τεκμηριώνουν τη θεωρητική ανάλυση ενώ οι
μετρήσεις που ελήφθησαν από την κατασκευή βρίσκονται σε αντιστοιχία με τις
αναμενόμενες από αντίστοιχες εξομοιώσεις, αλλά διάφοροι πρακτικοί
περιορισμοί οδηγούν σε ηχητική πιστότητα κατώτερη της αναμενόμενης. / The dissertation analyzes issues concerning the wireless transmission and the
direct emission of digital audio signals, in order to optimize these techniques.
Regarding the wireless transmission, the dissertation focuses on the WLAN
family of networks, supporting QoS. In order to study the system, trials were conducted using a novel platform that allows the conversion of audio streams
for them to be imported an exported from a network simulation application,
facilitating the final audio playback fidelity estimation. The above analysis led
to the development of a prototype technique for the synchronization of
discreet reproduction channels that can be implemented using typical WLAN
hardware, as well as a prototype algorithm for concealing audible distortion
that might be added during the transmission. Moreover, results using new
methods relating to the study of Unary Digital Transmission Arrays driven by
one-bit Delta-Sigma signals, as in the DSD standard, are introduced in the
dissertation. The approach is based on a prototype algorithm for mapping a
one-bit stream to the acoustic transmission elements and exhibits important
advantages, namely increased fidelity and improved directivity, as well as
ease of implementation. The design and operation of the prototype digital
Delta-Sigma speaker substantiates the theoretical analysis, while the
measurements obtained from the device are in accordance with what
expected from respective simulations. However, various practical limitations
lead to lower than expected acoustic fidelity.
|
20 |
Επαναληπτική αποκωδικοποίηση χωροχρονικών κωδικών (space-time codes) σε συστήματα ορθογώνιας πολυπλεξίας φερουσών: αναπαράσταση δεδομένων και πολυπλοκότηταΑγγελόπουλος, Aπόστολος 06 August 2007 (has links)
Η χρήση πολλαπλών κεραιών παίζει πλέον ένα πολύ σημαντικό ρόλο στη βελτίωση των ραδιοτηλεπικοινωνιών. Για το λόγο αυτό, ο τομέας των τηλεπικοινωνιακών συστημάτων πολλαπλών κεραιών μετάδοσης – λήψης (συστήματα ΜΙΜΟ) βρίσκεται στο προσκήνιο της ασύρματης έρευνας. Πρόσφατα, αποτελέσματα ερευνών έδειξαν ότι υπάρχει δυνατότητα αύξησης της χωρητικότητας στα ασύρματα τηλεπικοινωνιακά συστήματα χρησιμοποιώντας τεχνικές διαφοροποίησης μεταξύ πομπού – δέκτη (antenna diversity), δηλαδή δημιουργίας πολλαπλών ανεξάρτητων καναλιών ανάμεσα τους.
Στην παρούσα εργασία μελετούνται τεχνικές κωδικοποίησης που εκμεταλλεύονται τη χωρική διαφοροποίηση κάνοντας χρήση χωροχρονικών κωδικών (space – time coding). Η μελέτη εστιάζεται στη χρήση χωροχρονικών κωδικών ανά μπλοκ από την πλευρά του πομπού, εξαιτίας της απλότητας υλοποίησης τους καθώς και της ικανότητας υποστήριξης πολλαπλών κεραιών από τη πλευρά του σταθμού βάσης. Η ανάλυσή τους γίνεται με βάση την εφαρμογή τους σε συστήματα που χρησιμοποιούν διαμόρφωση με πολυπλεξία ορθογώνιων φερουσών (OFDM). Η διαμόρφωση αυτή επιλέχθηκε γιατί υποστηρίζει υψηλούς ρυθμούς δεδομένων στα ασύρματα συστήματα και δείχνει άριστη συμπεριφορά σε κανάλια με επιλεκτική παραμόρφωση στη συχνότητα.
Στη συνέχεια μελετώνται αλγόριθμοι επαναληπτικής αποκωδικοποίησης, δίνοντας έμφαση σε ένα ευρέως διαδεδομένο αλγόριθμο, τον Μέγιστο εκ των Υστέρων (MAP). Αναλύονται διεξοδικά τα βήματα του, καθώς και διάφορες τροποποιήσεις – βελτιστοποιήσεις του. Οι επαναληπτικοί αλγόριθμοι αποκωδικοποίησης αποτελούν πλέον ένα πολύ ισχυρό εργαλείο για την αποκωδικοποίηση Forward Error Correction κωδικοποιήσεων με χρήση συνελικτικών κωδικών, προσδίδοντας στα συστήματα αποδόσεις κοντά στο όριο του Shannon.
Τέλος, πραγματοποιούνται κατάλληλες υλοποιήσεις που προέκυψαν από το συνδυασμό των εν λόγω αλγορίθμων επαναληπτικής αποκωδικοποίησης με τους χωροχρονικούς κώδικες ανά μπλοκ πάνω σε ένα σύστημα κεραιών με χρήση OFDM. Γίνεται σύγκριση της απόδοσης των συστημάτων αυτών με βάση την αντίστοιχη υλοποίηση του εκάστοτε αλγορίθμου επαναληπτικής αποκωδικοποίησης και μελετούνται σε βάθος διάφορες τροποποιήσεις που μπορούν δεχθούν με κριτήριο τη χαμηλή πολυπλοκότητα υλοποίησης. Για την αξιολόγηση της απόδοσης, γίνεται μία περαιτέρω σύγκριση με χρήση αναπαράστασης σταθερής υποδιαστολής και εξάγονται σειρά συμπερασμάτων από τις πειραματικές μετρήσεις που προέκυψαν. / The use of multiple antennas is an essential issue in telecommunications, nowadays. So, multiple input – multiple output systems (MIMO) has attracted a lot of attention in wireless research. Lately, it has been shown that it can be an improvement in the capacity of wireless communication systems by using antenna diversity, that’s different independent channels between transmitter and receiver.
In this thesis, we study coding techniques that exploit space diversity by using space – time codes. Particularly, we focus on space – time block coding (STBC) from the transmitter’s point of view, because of the simplicity of its implementation and the ability to support multiple antennas at the base stations. The analysis is based on the systems that use Orthogonal Frequency Division Multiplexing Systems (OFDM). This technique was chosen because it can support high data rates and it behaves very well in a frequency selective fading channel.
Moreover, we study iterative decoding algorithms and we focus on a very well known algorithm, the Maximum A Posteriori (MAP). There, we analyze its steps and its modifications and improvements. The iterative decoding algorithms are a cornerstone on decoding Forward Error Correction codes, such as Convolutional codes, almost reaching the Shannon limit.
Finally, there are different kinds of implementations using suitable iterative decoding algorithms in concatenation with space – time block coding with antennas and ODFM. We compare the performance of the corresponding systems and investigate the complexity trying to maintain it in a low level. For a thorough investigation, we also use fixed point arithmetic in these implementations.
|
Page generated in 0.0622 seconds