11 |
On the pertinence of a numerical transmission model for neural information / Sur la pertinence d'un modèle de transmission numérique pour l'information neuronaleTiganj, Zoran 08 November 2011 (has links)
Dans cette thèse, nous utilisons un ensemble d’outils avancés de mathématiques et de méthodes de traitement des signaux pour relever trois problèmes importants en neurosciences: détection de potentiels d’action, tri des potentiels d’action et codage neuronal. A partir d’enregistrements extracellulaires, nous avons tout d’abord abordé la question de la détection de potentiels d’action. Les potentiels d’action sont explicitement présents (comme des irrégularités) dans les dérivées distributionnelles du signal neuronal. Ce phénomène est alors abordé comme un problème de détection de point de changement. Nous utilisons le calcul opérationnel qui permet d’une part d’acquérir une structure pratique pour traiter de telles dérivées distributionnelles, et d’autre part de caractériser la présence d’un point de changement à un moment bien précis. Après avoir développé l’analyse de potentiels d’action, nous abordons le problème de leur tri. Nous avons développé un algorithme simple de tri pour les cas où les enregistrements multi-canaux sont disponibles. L’algorithme utilise alors une application itérative de l’ICA et une technique de déflation au sein de deux boucles imbriquées. Finalement, nous discutons des propriétés du codage neuronal. Nous étudions si la nature du code neuronal est discrète ou continue. Par ailleurs, si elle est discrète, nous cherchons à savoir si les éléments du code sont tirés d’un alphabet fini. Nous abordons particulièrement le schéma de codage de la position des impulsions, faisant ainsi un lien entre la théorie de la communication et le codageneuronal. / In this thesis we bring together advanced mathematical tools and signalprocessing methods to address three very important problems in neuroscience:neural action potential (spike) detection, neural spike sorting and directlyneural coding. Starting from extracellular neural recordings, we first address the question of spike detection. The spike time occurrences appear (as irregularities) explicitly inthe distributional derivatives of the neural signal. The problem is seen as a change point detection problem. Using operational calculus, which provides a convenient framework to handle such distributional derivatives, we characterize the time occurrence of a spike by an explicit formula. After spike detection we address the spike sorting problem. We developed a simple algorithm for a case when multi-channel recordings are available. The algorithm uses an iterative application of ICA and a deflation technique in two nested loops. In each iteration of the external loop, the spiking activity of one neuron is singled out and then deflated from the recordings. The internal loop implements a sequence of ICA and spike detection for removing the noise and all the spikes that are not coming from the targeted neuron. Finally, we discuss on properties of the neural code. We investigate whether the nature of the neural code is discrete or continuous. Moreover, if it is discrete, whether the elements of the code are drawn from a finitealphabet. We particularly address pulse-position coding scheme, making alink between communication theory and neural code.
|
12 |
Quantum information and entropyIbinson, Ben January 2008 (has links)
No description available.
|
13 |
Cavity mode entanglement in relativistic quantum informationFriis, Nicolai January 2013 (has links)
A central aim of the field of relativistic quantum information (RQI) is the investigation of quantum information tasks and resources taking into account the relativistic aspects of nature. More precisely, it is of fundamental interest to understand how the storage, manipulation, and transmission of information utilizing quantum systems are influenced by the fact that these processes take place in a relativistic spacetime. In particular, many studies in RQI have been focused on the effects of non-uniform motion on entanglement, the main resource of quantum information protocols. Early investigations in this direction were performed in highly idealized settings that prompted questions as to the practical accessibility of these results. To overcome these limitations it is necessary to consider quantum systems that are in principle accessible to localized observers. In this thesis we present such a model, the rigid relativistic cavity, and its extensions, focusing on the effects of motion on entanglement and applications such as quantum teleportation. We study cavities in (1+1) dimensions undergoing non-uniform motion, consisting of segments of uniform acceleration and inertial motion of arbitrary duration that allow the involved velocities to become relativistic. The transitions between segments of different accelerations can be sharp or smooth and higher dimensions can be incorporated. The primary focus lies in the Bogoliubov transformations of the quantum fields, real scalar fields or Dirac fields, confined to the cavities. The Bogoliubov transformations change the particle content and the occupation of the energy levels of the cavity. We show how these effects generate entanglement between the modes of the quantum fields inside a single cavity for various initial states. The entanglement between several cavities, on the other hand, is degraded by the non-uniform motion, influencing the fidelity of tasks such as teleportation. An extensive analysis of both situations and a setup for a possible simulation of these effects in a table-top experiment are presented.
|
14 |
JBIG2 fax στάνταρντ για κωδικοποίηση κειμένου / JBIG2 fax standard for word codingΓεωργιόπουλος, Σταύρος 14 September 2007 (has links)
Οι τρόποι κωδικοποίησης κειμένου για Fax καθορίζονται από το πρωτόκολλο «Facsimile Coding Schemes and Coding Control Functions for Group 4 Facsimile Apparatus» ITU-T Recommendation T.6 και το στάνταρντ JBIG2. Στη διπλωματική αναλύονται όλες οι λεπτομέρειες του στάνταρντ JBIG2, πολλές από τις οποίες δεν είναι σαφώς καθορισμένες στο στάνταρντ. Περιλαμβάνονται οι μέθοδοι για κωδικοποίηση κειμένου και bi-level (binary) εικόνων. Αναφέρονται οι σχετικές μεθοδολογίες, όπως η μέθοδος αναγνώρισης προτύπων και αντικατάστασης (pattern-matching and substitution, PM&S). / The word coding methods for fax applications are defined with the use of «Facsimile Coding Schemes and Coding Control Functions for Group 4 Facsimile Apparatus» ITU-T Recommendation T.6 protocol and JBIG2 standard. All details concerning the JBIG2 standard are thoroughly analyzed throughout this thesis, many of which are not clearly defined in the standard itself. Methods for word and bi-level images coding are included. We also focus on techniques like the pattern-matching and substitution, PM&S method.
|
15 |
A single-photon source for quantum networkingDilley, Jerome Alexander Martin January 2012 (has links)
Cavity quantum electrodynamics (cavity QED) with single atoms and single photons provides a promising route toward scalable quantum information processing (QIP) and computing. A strongly coupled atom-cavity system should act as a universal quantum interface, allowing the generation and storage of quantum information. This thesis describes the realisation of an atom-cavity system used for the production and manipulation of single photons. These photons are shown to exhibit strong sub-Poissonian statistics and indistinguishability, both prerequisites for their use in realistic quantum systems. Further, the ability to control the temporal shape and internal phase of the photons, as they are generated in the cavity, is demonstrated. This high degree of control presents a novel mechanism enabling the creation of arbitrary photonic quantum bits.
|
16 |
Μηχανές ανάπτυξης διαδικτυακών πυλών και συστήματα διαχείρισης περιεχομένου / Portal engines and content management systemsΒαρδάκης, Μιχαήλ 17 September 2007 (has links)
Σε αυτή την διπλωματική εργασία πραγματευόμαστε το αντικείμενο της αυτοματοποιημένης ανάπτυξης διαδικτυακών πυλών. Σχεδόν κάθε ιστοτόπος μπορεί να κατασκευαστεί είτε εξολοκλήρου με την συγγραφή κώδικα από την αρχή είτε με την χρησιμοποίηση ενός συστήματος διαχείρισης περιεχομένου (Content Management System – CMS).
Στην εργασία αυτή μελετήσαμε τα συστήματα αυτά και αναλύσαμε μερικά από τα δημοφιλέστερα ανοιχτού κώδικα (open source) συστήματα. Κάνουμε μια συγκριτική αξιολόγηση αυτών όχι μόνο βάσει των χαρακτηριστικών τους αλλά χρησιμοποιώντας τα για την ανάπτυξη διαδικτυακών κόμβων εμπλουτισμένων με όλα τα σύγχρονα χαρακτηριστικά. Σκοπός είναι να δούμε στην πράξη τα πλεονεκτήματα και μειονεκτήματα των συστημάτων αυτών καθώς και να αναλύσουμε πότε αξίζει να τα χρησιμοποιούμε και πότε αξίζει η υλοποίηση ενός ισοτόπου με την συγγραφή κώδικα από την αρχή.
Η εργασία αυτή ολοκληρώνεται με την υλοποίηση μιας ολοκληρωμένης, σύγχρονης διαδυκτυακής πύλης χρησιμοποιώντας ένα από τα συστήματα CMS που μελετήσαμε. / -
|
17 |
Reflection and hyper-programming in persistent programming systemsKirby, Graham N. C. January 1992 (has links)
In an orthogonally persistent programming system, data is treated in a manner independent of its persistence. This gives simpler semantics, allows the programmer to ignore details of long-term data storage and enables type checking protection mechanisms to operate over the entire lifetime of the data. The ultimate goal of persistent programming language research is to reduce the costs of producing software. The work presented in this thesis seeks to improve programmer productivity in the following ways: • by reducing the amount of code that has to be written to construct an application; • by increasing the reliability of the code written; and • by improving the programmer’s understanding of the persistent environment in which applications are constructed. Two programming techniques that may be used to pursue these goals in a persistent environment are type-safe linguistic reflection and hyper-programming. The first provides a mechanism by which the programmer can write generators that, when executed, produce new program representations. This allows the specification of programs that are highly generic yet depend in non-trivial ways on the types of the data on which they operate. Genericity promotes software reuse which in turn reduces the amount of new code that has to be written. Hyper-programming allows a source program to contain links to data items in the persistent store. This improves program reliability by allowing certain program checking to be performed earlier than is otherwise possible. It also reduces the amount of code written by permitting direct links to data in the place of textual descriptions. Both techniques contribute to the understanding of the persistent environment through supporting the implementation of store browsing tools and allowing source representations to be associated with all executable programs in the persistent store. This thesis describes in detail the structure of type-safe linguistic reflection and hyper-programming, their benefits in the persistent context, and a suite of programming tools that support reflective programming and hyper-programming. These tools may be used in conjunction to allow reflection over hyper-program representations. The implementation of the tools is described.
|
18 |
Ανάλυση σημάτων για τον υπολογισμό της φράκταλ διάστασης σε συνδυασμό με NARMAX μοντέλαΠαγανιά, Δήμητρα-Δέσποινα 01 October 2012 (has links)
Στην παρούσα διπλωματική υλοποιήθηκε ένα προγραμματιστικό περιβάλλον σε Matlab το οποίο θα μας επιτρέπει να αναλύσουμε σήματα (χρονοσειρές) με δύο τεχνικές: (Ι) με την τεχνική της εμβάπτισης του σήματος σε χώρους φάσεων υψηλών διαστάσεων με σκοπό τον υπολογισμό της φράκταλ (μορφοκλασματικής) διάστασης του ελκυστή που παράγεται στο χώρο φάσεων, χρησιμοποιώντας το θεώρημα εμβάπτισης του Takens και τη μέθοδο Grassberger & Procaccia, και (ΙΙ) με μοντελοποίηση του σήματος με τη μέθοδο NARMAX, ενσωματώνοντας Extended Kalman Filters και τη Θεωρία Διαμελισμού του Λαϊνιώτη για την εύρεση της τάξης (βαθμού πολυπλοκότητας) των NARMAX μοντέλων.
Σκοπός της διπλωματικής είναι η σύγκριση των αντίστοιχων αποτελεσμάτων για διάφορες κατηγορίες σημάτων, με σκοπό να διαπιστωθεί κατά πόσο η φράκταλ διάσταση του σήματος σχετίζεται με την τάξη των NARMAX μοντέλων του σήματος. / In this thesis, we implemented in Matlab, a programming environment which allows us to analyze signals (time series) with two techniques: (I) with the technique of immersion of the signal in high-dimensional phase space to calculate the fractal dimension of the attractor generated in phase space, using the theorem of Takens and the method of Grassberger & Procaccia, and (II) signal modeling method NARMAX, incorporating Extended Kalman Filters and the Laynioti partition theorem for finding the degree of complexity of NARMAX models.
The aim of the thesis is the comparison of the results for various categories of signals, in order to determine if the fractal dimension of the signal is associated with the degree of complexity of NARMAX models of the signal.
|
19 |
Υλοποίηση της μεθόδου παραγοντοποίησης ακεραίων αριθμών number field sieve σε παράλληλο υπολογιστικό περιβάλλον / Implementation of the integer factorization algorithm number field sieve (NFS) on parallel computersΜπακογιάννης, Χρήστος 21 September 2010 (has links)
Η διείσδυση των υπολογιστών, τόσο στα σπίτια μας, όσο και κυρίως στις επιχειρήσεις, κατά τα τελευταία χρόνια, καθώς επίσης και ο συνεχώς αυξανόμενος ρυθμός χρήσης του διαδικτύου, έχουν καταστήσει την ανάγκη για ασφαλείς ηλεκτρονικές επικοινωνίες και συναλλαγές κάτι παραπάνω από επιτακτική. Ένα από τα κυρίαρχα, σήμερα, συστήματα ασφαλούς ανταλλαγής δεδομένων είναι ο αλγόριθμος RSA, η ασφάλεια του οποίου βασίζεται στο γεγονός ότι είναι πολύ δύσκολο να παραγοντοποιήσουμε έναν «μεγάλο» αριθμό στους πρώτους παράγοντές του. Ο RSA αλγόριθμος θεωρείται αρκετά ασφαλής, αν βέβαια χρησιμοποιούμε κατάλληλο, για τα σημερινά δεδομένα, μέγεθος κλειδιού. Παρόλα αυτά, σε περίπτωση που βρεθεί κάποιος αποδοτικός αλγόριθμος που να μπορεί σε «λογικό» χρόνο να παραγοντοποιήσει οποιονδήποτε μεγάλο ακέραιο, τότε αυτομάτως η ασφάλεια του αλγορίθμου αυτού έχει παραβιαστεί και θα πρέπει να στραφούμε σε εναλλακτικές μεθόδους προστασίας της πληροφορίας.
Ο πιο αποδοτικός σήμερα αλγόριθμος παραγοντοποίησης μεγάλων ακεραίων είναι ο Number Field Sieve. Η έρευνα που έχει γίνει πάνω σε αυτόν τον αλγόριθμο, έχει οδηγήσει σε σημαντική πρόοδο και έχει καταστήσει, πλέον, εφικτή την παραγοντοποίηση ακεραίων που υπό άλλες προϋποθέσεις θα απαιτούσε χιλιάδες χρόνια από cpu time σε supercomputers. Αν και ακόμη και σήμερα υπάρχουν αρκετά σημεία που θα μπορούσαν να βελτιωθούν στον αλγόριθμο, κάνοντάς τον ακόμη πιο αποδοτικό, ωστόσο η πολυπλοκότητά του αποτρέπει αρκετούς να ασχοληθούν με την βελτίωσή του. Με την εργασία αυτή θα προσπαθήσουμε αρχικά να διασαφηνίσουμε όλες τις πληροφορίες που απαιτούνται για την σωστή κατανόηση της λειτουργίας του αλγορίθμου. Θα γίνει λεπτομερής περιγραφή των διαφόρων βημάτων του αλγορίθμου και θα δοθεί αναλυτικό παράδειγμα παραγοντοποίησης. Τέλος, θα παρουσιαστεί η παράλληλη υλοποίησή του αλγορίθμου, η οποία μπορεί να εκτελεστεί τόσο σε supercomputer, όσο και σε cluster υπολογιστών που επικοινωνούν μεταξύ τους με χρήση του MPI. / The recent advances in computer science, in combination with the proliferation of computers in home and businesses and the explosive growth rate of the internet transactions, have increased the needs for secure electronic communications. One of the dominant systems of secure data transactions is the RSA algorithm. RSA’ s security relies on the fact that it is computationally difficult to factor a “large” integer into its component prime integers. RSA is considered secure as long as we use proper key length. However, if an efficient algorithm is developed that can factor any arbitrarily large integer in a “reasonable” amount of time, then the whole security of the algorithm will be broken, and we will have to use alternative methods to secure our systems.
Today, the fastest known method for factoring large integers is the General Number Field Sieve algorithm. Research and development of the algorithm has enabled the factorization of integers that were once thought to require thousands of years of CPU time to accomplish. While there are still many possible optimizations that could increase the algorithm’s efficiency, however the complexity of the algorithm prevents many researchers from attempting to improve it. In this master thesis we present the information needed to understand the principles upon which the algorithm is based. The discrete steps of the algorithm are described in full detail, as well as a detailed factorization example, in order to enlighten the way each step works. Finally a parallel implementation is presented, able to be executed on a supercomputer or a computer cluster, with the use of MPI.
|
20 |
Αποκωδικοποιητής μέγιστης πιθανοφάνειας για κώδικες LDPC και υλοποίηση σε FPGAΜέρμιγκας, Παναγιώτης 07 June 2013 (has links)
Στο πρώτο μέρος της παρούσας Διπλωματικής Εργασίας εισάγονται οι βασικές έννοιες της Θεωρίας Κωδικοποίησης και των Τηλεπικοινωνιακών Συστημάτων. Για τη διόρθωση λαθών στην περίπτωση της μετάδοσης μέσω ενός θορυβώδους καναλιού εφαρμόζεται κωδικοποίηση καναλιού με Γραμμικούς Μπλοκ Κώδικες, και πιο συγκεκριμένα Κώδικες Χαμηλής Πυκνότητας Ελέγχου Ισοτιμίας (Low-Density Parity-Check Codes, LDPC). Ορίζεται η μαθηματική περιγραφή των κωδίκων αυτών και διατυπώνονται σχετικοί ορισμοί και θεωρήματα. Επίσης, διατυπώνεται το κριτήριο Μέγιστης Πιθανοφάνειας, στο οποίο βασίζεται η ανάπτυξη του αντίστοιχου αποκωδικοποιητή. Το δεύτερο μέρος περιλαμβάνει την εξομοίωση του αποκωδικοποιητή Μέγιστης Πιθανοφάνειας στο λογισμικό και την υλοποίησή του σε FPGA, στις περιπτώσεις όπου χρησιμοποιούνται Soft ή Hard είσοδοι στον αποκωδικοποιητή. Ακόμη, παρουσιάζεται η Αρχιτεκτονική του αποκωδικοποιητή και η Μεθοδολογία Σχεδίασής του. Παρουσιάζονται βελτιώσεις στη σχεδίαση του αποκωδικοποιητή που οδηγούν σε μείωση της απαιτούμενης επιφάνειας στο υλικό. Τα αποτελέσματα που προκύπτουν από τις μετρήσεις των δύο υλοποιήσεων συγκρίνονται με την περίπτωση αποκωδικοποιητή βασισμένο σε επαναλήψεις και εξάγονται τα διαγράμματα ρυθμού σφαλμάτων bit και τα αντίστοιχα συμπεράσματα. / In the first part of this thesis, the basic principles of Coding Theory and Communication Systems are introduced. In order to correct errors in the case of transmission through a noisy channel, channel coding with Linear Block Codes is applied, and more specifically Low-Density Parity-Check (LDPC) codes. The mathematical description of such codes is defined and useful definitions and theorems are specified. In addition, the Maximum Likelihood (ML) criterion is specified, on which the development of the relevant decoder is based. The second part consists of the simulation of the ML decoder in software and its hardware implementation on FPGA, in the cases where either Soft or Hard information is used as the decoder's input. Furthermore, the decoder's Architecture and the Design Methodology used are presented. Improvements concerning the implementation of the decoder are introduced, which lead to a reduction in the required area on chip. The experimental results of the two implementations are compared to the case of the iterative decoder and the Bit Error Rate plots are produced, as well as the appropriate conclusions.
|
Page generated in 0.1062 seconds