• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 41
  • 31
  • Tagged with
  • 111
  • 111
  • 27
  • 17
  • 12
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Νέες τεχνικές στην πραγματοποίηση κυκλωμάτων της ψηφιακής επεξεργασίας σημάτων

Πεκμεστζής, Κ. Ζ. 19 August 2010 (has links)
- / -
12

Μελέτη ad-hoc δικτύων και ηλεκτρομαγνητικής κάλυψης σε τούνελ

Ζωγράφος, Γεώργιος 09 May 2012 (has links)
Η διπλωµατική αυτή εργασία έχει στόχο αρχικά μια σύντομη μελέτη των ad hoc ασύρματων δικτύων και έπειτα τη μελέτη της ηλεκτροµαγνητικής κάλυψης σε ένα τούνελ ώστε να μπορούν να λειτουργούν τα παραπάνω δίκτυα και την προσοµοίωση του. Γίνεται μια αναφορά στα φαινόµενα που εµφανίζονται κατά τη διάδοση των ηλεκτροµαγνητικών κυµάτων σε τούνελ και η συµπεριφορά του µεγέθους της εξασθένησης συναρτήσει της συχνότητας και της απόστασης από την πηγή εκποµπής. Επίσης περιγράφονται τα χαρακτηριστικά και οι βασικοί µηχανισµοί διάδοσης σε περιβάλλον τούνελ. Στην προσοµοίωση χρησιμοποιείται ως μοντέλο το τούνελ του µετρό της Αθήνας και παρουσιάζονται τα διαγράµµατα των αποτελεσµάτων. / This thesis aims originally a short study of ad hoc wireless networks and then study the electromagnetic coverage in a tunnel so they can operate these networks and simulation. It refers to the phenomena occurring during the propagation of electromagnetic waves in a tunnel and the behavior of the magnitude of the attenuation versus frequency and distance from the emitter. It also describes the characteristics and propagation mechanisms in a main tunnel environment. In the simulation model is used as the tunnel of the Athens metro and presented diagrams of the results.
13

Ταυτοποίηση μη γραμμικών συστημάτων υψηλής τάξης : μία προσέγγιση βασισμένη στις σειρές Volterra

Καλογερίας, Διονύσιος 21 December 2012 (has links)
Είναι γνωστό ότι η ανάγκη για την ταυτοποίηση συστηµάτων εµφανίζεται σε πολλά προβλήµατα του ευρύτερου κλάδου της Επεξεργασίας Σηµάτων. Υπάρχουν πολλές εφαρµογές, στις οποίες είτε σήµατα προκύπτουν λόγω µη γραµµικών ϕαινοµένων, είτε σήµατα υπόκεινται σε µη γραµµική επεξεργασία. Παραδείγµατα τέτοιων εφαρµογών αποτελούν η µη γραµµική ακύρωση ηχούς, η εξίσωση καναλιών, η µοντελοποίηση ϕωνής, η προσαρµοστική ακύρωση ϑορύβου και η βελτίωση εικόνας. Σε τέτοιες περιπτώσεις, η ταυτοποίηση συστηµάτων χρησιµοποιώντας γραµµικά µοντέλα είναι εντελώς ακατάλληλη για τη µοντελοποίηση των αντιστοίχων ϕαινοµένων/διαδικασιών και τόσο η χρήση µη γραµµικών µοντέλων όσο και η ανάπτυξη σχετικών µεθόδων ταυτοποίησης είναι απαραίτητες. Στα πλαίσια της εν λόγω διπλωµατικής εργασίας, ϑα ασχοληθούµε µε το πρόβληµα της ταυτοποίησης µη γραµµικών συστηµάτων υψηλής τάξης µη γραµµικότητας, τα οποία επιδέχονται ανάπτυξη σε ισοδύναµες Σειρές Volterra. Αρχικά, ϑα ασχοληθούµε µε την ντετερµινιστική ταυτοποίηση µίας ειδικής µορφής διακριτού χρόνου πολυωνυµικών µη γραµµικών συστηµάτων, τα οποία περιγράφονται µέσω του λεγόµενου µοντέλου Volterra - Hammerstein. Πιο συγκεκριµένα, ϑα παρουσιάσουµε και ϑα αναλύσουµε µία σχετικά νέα µέθοδο ταυτοποίησης, η οποία βασίζεται στη διέγερση του υπό µελέτη συστήµατος χρησιµοποιώντας χρονικά µεταβαλλόµενα αρµονικά σήµατα πεπερασµένης διάρκειας, τα επονοµαζόµενα chirps, τα οποία διαθέτουν ορισµένες ενδιαφέρουσες χρονοσυχνοτικές ιδιότητες. Επιπλέον, παρουσιάζουµε καινούργια και ενδιαφέροντα αποτελέσµατα. Στη συνέχεια, εισάγουµε και αναλύουµε διεξοδικά το ϑεµελιώδες πρόβληµα της βέλτιστης στοχαστικής ταυτοποίησης συστηµάτων Volterra διακριτού χρόνου υπό την έννοια του ελάχιστου µέσου τετραγωνικού σφάλµατος, καθώς και το αντίστοιχο πρόβληµα της βέλτιστης ταυτοποίησης συστηµάτων Volterra διακριτού χρόνου υπό την έννοια των ελαχίστων τετραγώνων. Επιπλέον, ϑα επικεντρωθούµε στη διατύπωση των προαναφερθέντων προβληµάτων ελτιστοποίησης πάνω σε ισοδύναµους ορθοκανονικούς χώρους σηµάτων εισόδου. Ακόµα, εξετάζουµε αναλυτικά το πρόβληµα της βέλτιστης αναδροµικής και προσαρµοστικής ταυτοποίησης χρονικά µεταβλητών συστηµάτων Volterra διακριτού χρόνου υπό την έννοια του ελάχιστου µέσου τετραγωνικού σφάλµατος, µέσω του δηµοφιλούς ϕίλτρου Kalman. Χρησιµοποιώντας τη σχέση µίας ειδικής µορφής του ϕίλτρου Kalman µε τον εξίσου δηµοφιλή αλγόριθµο των εκθετικά σταθµισµένων αναδροµικών ελαχίστων τετραγώνων, αναπτύσσουµε προσαρµοστικά ϕίλτρα µε βελτιωµένες ικανότητες εντοπισµού. Τέλος, δοκιµάζουµε και συγκρίνουµε τις παραπάνω µεθόδους µέσω πειραµάτων και χρησιµοποιώντας δεδοµένα, τα οποία προέρχονται από περιβάλλοντα εξοµοίωσης. Επίσης, εξετάζουµε και συγκρίνουµε τη συµπεριφορά των µεθόδων υπό την επίδραση εξωτερικών διαταραχών µέτρησης στα αντίστοιχα σήµατα εξόδου. / -
14

Διαχωρισμός ακουστικών σημάτων που διαδίδονται στο ανθρώπινο σώμα με τη μέθοδο ανάλυσης σε ανεξάρτητες συνιστώσες

Δημόπουλος, Γεώργιος 08 January 2013 (has links)
Στην εργασία αυτή πραγματοποιείται μελέτη και εφαρμογή της μεθόδου ανάλυσης ανεξάρτητων συνιστωσών. Αφού παρουσιαστούν οι τεχνικές της μεθόδου και τα μαθηματικά μοντέλα που χρησιμοποιεί εξετάζεται η εξαγωγή ερμηνεύσιμων σημάτων που αντιστοιχούν στον καρδιακό ρυθμό και την αναπνοή. Ο κύριος αλγόριθμος που χρησιμοποιείται για το διαχωρισμό των σημάτων είναι ο FastICA. / -
15

Κατασκευή συστήματος ανίχνευσης σημάτων ακουστικής εκπομπής σε μικροϋπολογιστικό σύστημα χαμηλού κόστους

Σιαηλή Μπακούρη, Δήμητρα 01 February 2013 (has links)
Η εξέλιξη των ενσωματωμένων συστημάτων οδήγησε στη δημιουργία μικροϋπολογιστικών συστημάτων χαμηλού κόστους τα οποία είναι ικανά να καταγράφουν, να αποθηκεύουν και να επεξεργάζονται σήματα Ακουστικής Εκπομπής. Η μέθοδος Ακουστικής Εκπομπής είναι μία από τις μεθόδους Μη Καταστροφικού Ελέγχου με την οποία μπορεί να ελεγχθεί η κατάσταση ενός αντικειµένου, ενός υλικού ή ενός συστήµατος χωρίς να βλάπτεται η κατασκευαστική του αρτιότητα και η µελλοντική του χρησιµότητα και χωρίς να πραγµατοποιείται διακοπή ή βλάβη της δυνατότητας παροχής υπηρεσιών τους. Όταν σε οποιοδήποτε υλικό δηµιουργούνται µηχανικές ταλαντώσεις, χωρίς εξωτερική διέγερση, λόγω αστοχίας του υλικού, το παραγόµενο κύµα τάσης διαδίδεται και είναι δυνατόν να ανιχνευτεί µέσω της χρήσης κατάλληλων αισθητήρων. Το κύµα στον αισθητήρα µετατρέπεται σε ηλεκτρικό σήµα, το οποίο ψηφιοποιείται και οδηγείται σε κατάλληλα διαµορφωµένο σύστηµα καταγραφής και ανάλυσης δεδοµένων. Η μαθηματική επεξεργασία του σήματος αυτόυ προκειμένου να μετρηθεί, να φιλτραριστεί, να ψηφιοποιηθεί και να μπορούν να παραχθούν συμπεράσματα για την κατάσταση του υλικού, τη φύση και τη θέση της ενδεχόμενης βλαβης λέγεται Ψηφιακή Επεξεργασία Σήματος. Οι αλγόριθμοι για την ψηφιακή επεξεργασία των σημάτων τρέχουν σε ενσωματωμένα συστήματα, όπως ο μικροελεγκτής ADuC 7020 με τον οποίο πραγματοποίθηκε η παρούσα διπλωματική εργασία. Ο κατάλληλος προγραμματισμός του μικροελεγκτή για τη συγκεκριμένη λειτουργία είναι το κύριο κομμάτι που μας απασχόλησε. Η εν λόγω εργασία χωρίζεται σε 4 κεφάλαια. Το πρώτο κεφάλαιο περιλαμβάνει μία γενική επισκόπηση των μεθόδων μη καταστροφικού ελέγχου και μία πιο αναλυτική περιγραφή της μεθόδου της Ακουστικής Εκπομής, του συστήματος καταγραφής τέτοιων δεδομένων και των σήµατα Ακουστικής Εκποµπής. Το δεύτερο κεφάλαιο αποσαφηνίζονται οι βασικές έννοιες των μικροεπεξεργαστών, των μικροϋπολογιστών, των μικροελεγκτών και των Ενσωματωμένων Συστήμάτων. Επίσης γίνεται μία βασική περιγραφή του υλικού πού χρησιμοποιήθηκε για την εκπόνηση της εργασίας: της οικογένειας μικροεπεξεργαστών ARΜ και του ARM7TDMI, της οικογένεια μικροελεγκτών ADuC702X και του ADuC7020 και της αναπτυξιακή συσκευή της Olimex για τον Aduc7020 της ADUC-MT7020. Επιπλέον, γίνεται και ανάλυση των στοιχειωδών χαρακτηριστικών του περιβάλλοντος μVision της Keil που μας επιτρέπει να προγραμματίσουμε το υλικό μας, αλλά και να κάνουμε προσομοιώσεις χωρίς το υλικό και τα προβλήματα του πραγματικού κόσμου. Το τρίτο κεφάλαιο αφορά την Ψηφιακή Επεξεργασία Σήματος και ότι αυτή περιλαμβάνει, δηλαδή την αναλογική σε ψηφιακή μετατροπή, την επεξεργασία με ψηφιακά φίλτρα, την επεξεργασία στο πεδίο της συχνότητας, τους αντίστοιχους αλγόριθμους και τον αλγόριθμο GOERTZEL ο οποίος εν προκειμένω χρησιμοποιήθηκε. Το τέταρτο κεφάλαιο πραγματεύεται την επεξεργασία σημάτων με τον ADuC7020, τον προγραμματισμό του καθώς και τον προγραμματισμό των περιφερειακών του. Δίνονται παραδείγματα εφαρμογών με αλγόριθμους κατάλληλους για την μέθοδο της ακουστικής εκπομπής μαζί με τα αντίστοιχα αποτελέσματα πειραματικών μετρήσεων σε υλικό και στον προσομοιωτή και τα αντίστοιχα συμπεράσματα. Τέλος δίνονται ολόκληρα τα προγράμματα των εφαρμογών στο παράρτημα. Σημειώνουμε εδώ πως ο προγραμματισμός του μικροελεγκτή και των περιφερειακών του έγινε σε γλώσσα προγραμματισμού C. / The evolution of embedded systems has led to the creation of low cost microcomputer systems which are able to record, store and process acoustic emission signals. The Acoustic Emission method is one of the non-destructive testing methods by which we can control the state of an object, material or system without damaging the constructional integrity and future usefulness and without interrupt or damage their ability to provide services. When in any material mechanical vibrations are generated without external stimulation, due to failure of the material, the output tension wave propagates and can be detected through the use of appropriate sensors. The wave of the sensor is converted into an electrical signal, which is digitized and driven in an appropriately configured system for recording and analyzing data. The mathematical processing of those signals to be measured, filtered, digitized and be able to give us conclusions about the state of the material, the nature and location of any damage called Digital Signal Processing. The algorithms for digital signal processing are running in embedded systems like the microcontroller ADuC 7020 which we used in this thesis. Proper programming of microcontroller for this function is the main piece that occupied us. This paper is divided into 4 chapters. The first chapter provides an overview of the methods of non-destructive testing and a more detailed description of the method of Acoustic Emission, the recording system such data and the Acoustic Emission signals. The second chapter clarifies the basic concepts of microprocessors, microcomputers, microcontrollers and embedded systems. Also is a basic description of the hardware we used for our work: family of microprocessor ARM and ARM7TDMI, family of microcontrollers ADuC702X and ADuC7020 and development device for Olimex Aduc7020, the ADUC-MT7020. Moreover, there is an analysis of the elementary characteristics of the Keil environment μVision wich allows us to programme our material, but also to do simulations without the hardware and the problems of the real world. The third chapter deals with the Digital Signal Processing and that this includes, that is the analog to digital conversion, processing with digital filters, processing in the frequency domain, the corresponding algorithms and algorithm GOERTZEL which in this case was used. The fourth chapter deals with the processing of signals in the ADuC7020, its programming and the programming of peripherals. Examples are given of applications with suitable algorithms for the method of acoustic emission accompanied by the corresponding results of experimental measurements in hardware and in the simulator and the corresponding conclusions. Finally the whole application programs are given in the annex. We note here that the programming of microcontroller and peripherals became in programming language C.
16

Ψυχοακουστικό test για τη μελέτη ανακλάσεων με έμφαση στα ακουστικά / Psychoacoustic test for the studying of reflections with emphasis on headphones

Σύρος, Λουκάς 07 June 2013 (has links)
Στην παρούσα διπλωματική εργασία πραγματοποιείται ένα ψυχοακουστικό test για την μελέτη διαφορετικών τρόπων ισοστάθμισης και τοποθέτησης των ακουστικών για διαφορετικούς χώρους. Μελετάται η υποκειμενική επίδραση τριών παραμέτρων, αυτών της απόστασης, της αντήχησης και της ποιότητας για κάθε διαφορετική τοποθέτηση και δωμάτιο. Σε αυτό το πλαίσιο αναλύονται τα αποτελέσματα και συγκρίνονται με βάση αυτά που έχουν ήδη πραγματοποιηθεί σε διάφορες μελέτες. / --
17

Fusion de données AIS et radar pour la surveillance maritime / Fusion of AIS and radar data for maritime surveillance

Manzoni Vieira, Fábio 30 November 2017 (has links)
Dans le domaine de la surveillance maritime, les systèmes coopératifs d’identification et de positionnements tels que l’AIS (Automatic Identification System) sont souvent couplés à des systèmes d’observation de navires non coopératifs comme les Radars à Synthèse d’Ouverture (RSO). Dans ce contexte, la fusion des données AIS et Radar peut améliorer la détection de certains navires et d’identifier éventuels scénarii de surveillance. Le premier chapitre introduit les systèmes et détaille la structure des données AIS et Radar ainsi que le traitement du signal utilisé. Le deuxième chapitre présente l’apport potentiel de l’utilisation conjointe des données brutes Radar et AIS pour la détection de navires à l’aide d’un test basé sur le rapport des vraisemblances maximales (test GLRT). Bien que les performances soient encourageantes, la mise en pratique du détecteur en temps-réel semble compliquée. Le troisième chapitre présente une alternative sous-optimale qui explore les données brutes Radar et une carte des positions de bateaux provenant de l’AIS. Contrairement au chapitre deux, en plus de la détection simultanée par l’AIS et radar, les cas où seul l’un des systèmes détecte un objet peuvent maintenant être distinguées. Le problème est formalisé par deux tests d’hypothèses binaires successifs. Le test proposé est moins sensible à la proximité et à la densité des navires qu’un détecteur radar classique. Le quatrième chapitre présente le simulateur développé pour tester les algorithmes sur différents scénarii de surveillance, à savoir un scénario de piraterie sur un navire civil, un transbordement illégal et une navigation dans un environnement dense. / In the maritime surveillance domain, cooperative identification and positioning systems such as AIS (Automatic Identification System) are often coupled with non-cooperative systems for ship observation such as Synthetic Aperture Radar (SAR). In this context, the fusion of AIS and Radar data can improve the detection of certain vessels and possible identify some maritime surveillance scenarios. The first chapter introduces both AIS and Radar systems, details the data structure as well as the related signal processing. The second chapter presents the potential contribution of the joint use of raw Radar and AIS data for the detection of vessels using a generalized likelihood ratio test (GLRT). Although the performance is encouraging, in practice the implementation in real-time of the detector seems complicated. As alternative, the third chapter presents a suboptimal detection method that explores Radar raw data and a positioning map of vessels obtained from the AIS system. Differently from chapter two, in addition to the simultaneous detection by both AIS and radar, the cases where only one of the systems detects an object can now be distinguished. The problem is formalized by two successive binary hypotheses test. The results suggests that the proposed detector is less sensitive to the proximity and density of ships than a conventional radar detector. The fourth chapter presents the simulator developed to test the algorithms on different surveillance scenarios, namely a civilian ship piracy scenario, an illegal cargo transhipment and a scenario of navigation in a dense environment.
18

Processus alpha-stables pour le traitement du signal / Alpha-stable processes for signal processing

Fontaine, Mathieu 12 June 2019 (has links)
En traitement du signal audio, le signal observé est souvent supposé être égal à la somme des signaux que nous souhaitons obtenir. Dans le cadre d'une modélisation probabiliste, il est alors primordial que les processus stochastiques préservent leur loi par sommation. Le processus le plus employé et vérifiant cette stabilité est le processus gaussien. Comparé aux autres processus α - stables vérifiant la même stabilité, les processus gaussiens ont la particularité d'admettre des outils statistiques facilement interprétables comme la moyenne et la covariance. L'existence de ces moments permet d'esquisser des méthodes statistiques en séparation des sources sonores (SSS) et plus généralement, en traitement du signal. La faiblesse de ces processus réside néanmoins dans l'incapacité à s'écarter trop loin de leurs moyennes. Cela limite la dynamique des signaux modélisables et peut provoquer des instabilités dans les méthodes d'inférence considérées. En dépit de non-existence d'une forme analytique des densités de probabilités, les processus α - stables jouissent de résultats non valables dans le cas gaussien. Par exemple, un vecteur α - stable non-gaussien admet une représentation spatiale unique. En résumé, le comportement d'une distribution multivariée α - stable est contrôlé par deux opérateurs. Une mesure dite «spectrale» informant sur l'énergie globale venant de chaque direction de l'espace et un vecteur localisant le centroïde de sa densité de probabilité. Ce mémoire de thèse introduit différents modèles α - stables d’un point de vue théorique et les développe dans plusieurs directions. Nous proposons notamment une extension de la théorie de filtrage α - stable monocanal au cas multicanal. En particulier, une nouvelle représentation spatiale pour les vecteurs α - stables est adoptée. Nous développons en outre un modèle de débruitage où le bruit et la parole découlent de distributions α - stables mais ayant un exposant caractéristique α différent. La valeur d' α permet de contrôler la stationnarité de chaque source. Grâce à ce modèle hybride, nous avons également déduit une explication rigoureuse sur des filtrages de Wiener heuristiques esquissés dans les années 80. Une autre partie de ce manuscrit décrit en outre comment la théorie α - stable permet de fournir une méthode pour la localisation de sources sonores. En pratique, elle nous permet d'en déduire si une source est active à un endroit précis de l'espace. / It is classic in signal processing to model the observed signal as the sum of desired signals. If we adopt a probabilistic model, it is preferable that law of the additive processes is stable by summation. The Gaussian process notoriously satisfies this condition. It admits useful statistical operators as the covariance and the mean. The existence of those moments allows to provide a statistical model for SSS. However, Gaussian process has difficulty to deviate from its mean. This drawback limits signal dynamics and may cause unstable inference methods. On the contrary, non-Gaussian α - stable processes are stable under addition, and permit the modeling of signals with considerable dynamics. For the last few decades, α -stable theory have raised mathematical challenges and have already been shown to be effective in filtering applications. This class of processes enjoys outstanding properties, not available in the Gaussian case. A major asset for signal processing is the unique spatial representation of a multivariate α - stable vector, controlled by a so-called spectral measure and a deterministic vector. The spectral measure provides information on the global energy coming from all space directions while the vector localizes the centroid of the probability density function. This thesis introduces several α -stables models, with the aim of extending them in several directions. First, we propose an extension of single-channel α - stable filtering theory to a multichannel one. In particular, a novel spatial representation for α - stable vectors is proposed. Secondly, we develop α - stable models for denoising where each component could admit a different α . This hybrid model provides a rigorous explanation of some heuristic Wiener filters outlined in the 1980s. We also describe how the α - stable theory yields a new method for audio source localization. We use the spectral measure resulting from the spatial representation of α - stable vectors. In practice, it leads to determine whether a source is active at a specific location. Our work consisted in investigating the α -stable theory for signal processing and developing several models for a wide range of applications. The models introduced in this thesis could also be extend to more signal processing tasks. We could use our mutivariate α - stable models to dereverberation or SSS. Moreover, the localization algorithm is implementable for room geometry estimation.
19

La programmation DC et DCA en analyse d'image : acquisition comprimée, segmentation et restauration / DC programming and DCA in image processing : compressed sensing, segmentation and restoration

Nguyen, Thi Bich Thuy 11 December 2014 (has links)
L’image est une des informations les plus importantes dans la vie. Avec le développement rapide des dispositifs d’acquisition d’images numériques par exemple les appareils photo numériques, les caméras de téléphones, les appareils d’imagerie médicale ou les dispositifs d’imagerie satellite..., les besoins de traitement et d’analyse des images sont de plus en plus croissants. Ils concernent les problèmes de l’acquisition, du stockage des images, de l’amélioration ou de l’information d’extraction d’une image,... Dans cette thèse, nous étudions le traitement et l’analyse des problèmes: acquisition comprimée, apprentissage de dictionnaire et débruitage d’images, segmentation d’images. La méthode que nous décrivons se base sur les approches d’optimisation déterministe, nommées la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution des problèmes d’analyse d’images cités précédemment. 1. Acquisition comprimée: une technique de traitement du signal pour acquérir et reconstruire un signal respectant les limites traditionnelles du théorème d’échantillonnage de Nyquist–Shannon, en trouvant la solution la plus parcimonieuse d’un système linéaire sous-déterminé. Cette méthode apporte la parcimonie ou la compressibilité du signal lorsqu’il est représenté dans une base ou un dictionnaire approprié qui permet au signal entier d’être déterminé à partir de certains mesures relatives. Dans cette thématique, nous nous intéressons à deux problèmes. Le premier est de trouver la représentation parcimonieuse d’un signal. Le second est la récupération du signal à partir de ses mesures compressées sur une base incohérente ou un dictionnaire. Les deux problèmes ci-dessus conduisent à résoudre un problème d’optimisation non convexe. Nous étudions trois modèles avec quatre approximations pour ces problèmes. Des algorithmes appropriés basés sur la programmation DC et DCA sont présentés. 2. Apprentissage du dictionnaire: Nous avons vu la puissance et les avantages de la représentation parcimonieuse des signaux dans l’acquisition comprimée. La représentation parcimonieuse d’un signal entier dépend non seulement des algorithmes de représentation mais aussi de la base ou du dictionnaire qui sont utilisés dans la représentation. Ainsi conduit un problème critique et les autres applications d’une manière naturelle. Au lieu d’utiliser une base fixe, comme wavelets (ondelettes) ou Fourier, on peut apprendre un dictionnaire, la matrice D, pour optimiser la représentation parcimonieuse d’une large classe de signaux donnés. La matrice D est appelée le dictionnaire appris. Pour ce problème, nous avons proposé un algorithme efficace basé sur DCA qui comprend deux étapes: la première étape - codage parcimonieux; le seconde étape - dictionnaire mis à jour. Une application de ce problème, débruitage d’images, est également considérée. 3. Segmentation d’images: il s’agit de partitionner une image numérique en segments multiples (ensembles des pixels). Le but de la segmentation est de simplifier et/ou de modifier la représentation d’une image en une forme qui est plus significative et plus facile à analyser. Nous avons développé une méthode efficace pour la segmentation d’images via le clustering flou avec la pondération de variables. Nous étudions également une application médicale qui est le problème de comptage de cellules. Nous proposons une combinaison de phase de segmentation et des opérations morphologiques pour compter automatiquement le nombre de cellules. Notre approche donne des résultats prometteurs dans la comparaison avec l’analyse manuelle traditionnelle en dépit de la densité cellulaire très élevée / Image is one of the most important information in our lives. Along with the rapid development of digital image acquisition devices such as digital cameras, phone cameras, the medical imaging devices or the satellite imaging devices..., the needs of processing and analyzing images is more and more demanding. It concerns with the problem of image acquiring, storing, enhancing or extracting information from an image,... In this thesis, we are considering the image processing and analyzing problems including: compressed sensing, dictionary learning and image denoising, and image segmentation. Our method is based on deterministic optimization approach, named the DC (Difference of Convex) programming and DCA (Difference of Convex Algorithms) for solving some classes of image analysis addressed above. 1. Compressed sensing is a signal processing technique for efficiently acquiring and reconstructing a signal, which is breaking the traditional limits of sampling theory of Nyquist–Shannon by finding solutions to underdetermined linear systems. This takes advantage of the signal’s sparseness or compressibility when it is represented in a suitable basis or dictionary, which allows the entire signal to be determined from few relative measurements. In this problem, we are interested in two aspects phases. The first one is finding the sparse representation of a signal. The other one is recovering the signal from its compressed measurements on an incoherent basis or dictionary. These problems lead to solve a NP–hard nonconvex optimization problem. We investigated three models with four approximations for each model. Appropriate algorithms based on DC programming and DCA are presented. 2. Dictionary learning: we have seen the power and the advantages of the sparse representation of signals in compressed sensing. Finding out the sparsest representation of a set of signals depends not only on the sparse representation algorithms but also on the basis or the dictionary used to represent them. This leads to the critical problems and other applications in a natural way. Instead of using a fixed basis such as wavelets or Fourier, one can learn the dictionary, a matrix D, to optimize the sparsity of the representation for a large class of given signals (data). The matrix D is called the learned dictionary. For this problem, we proposed an efficient DCA based algorithm including two stages: sparse coding and dictionary updating. An application of this problem, image denoising, is also considered. 3. Image segmentation: partitioning a digital image into multiple segments (sets of pixels). The goal of segmentation is to simplify and/or change the representation of an image into a form that is more meaningful and easier to analyze. We have developed an efficient method for image segmentation via feature weighted fuzzy clustering model. We also study an application of image segmentation for cell counting problem in medicine. We propose a combination of segmentation phase and morphological operations to automatically count the number of cells. Our approach gives promising results in comparison with the traditional manual analysis in despite of the very high cell density
20

Étude d'algorithmes de poursuite du signal GNSS permettant d'améliorer le positionnement en environnement urbain / New adaptive tracking loop algorithm for reliable positioning in harsh environment

Bin Syed Mohd Dardin, Syed Mohd Fairuz 19 June 2015 (has links)
Cette activité de recherche concerne le domaine de la navigation par satellite qui utilise lessystèmes GNSS (Global Navigation Satellite Systems). Elle vise à améliorer les performances globalesd’un système de navigation, c’est à dire la robustesse, la disponibilité et l’intégrité d’un récepteurutilisant les signaux GNSS pour élaborer sa position et sa vitesse. L’enjeu est important et on noteque les représentations des nouveaux signaux proposés pour GPS et GALILEO visent à diminuer lacorrélation entre les signaux, faciliter la poursuite de ces signaux en abaissant le niveau des seuils depoursuite, réduire l’effet des interférences. La navigation basée sur les signaux GNSS reste toutefoisdépendante du canal de propagation et est particulièrement affectée en cas réflexion, réfraction,diffraction, diffusion, et de blocage du signal émis par le satellite. Il en résulte une dégradationimportante des performances en environnement urbain. L’objectif de cette recherche est ainsi deproposer, d’analyser et de caractériser des architectures de récepteur robuste, permettantd’adresser efficacement le problème de la navigation dans des environnements difficiles où le signalGNSS est affecté par de fortes perturbations. De nombreux travaux de recherche visant à améliorer les performances des algorithmes de poursuite du signal au sein d’un récepteur ont été conduites, en particulier pour adresser leproblème de cette poursuite dans des environnements difficiles, en présence de multi-trajets. Lesapproches les plus connues traitent le signal de post-corrélation. Ainsi l’utilisation de corrélateursétroits permet de réduire l’impact des multi-trajets générant un retard important. De même destechniques utilisant un banc de corrélateurs pour estimer les paramètres des multi-trajets ont étéétudiées. La présence de multi-trajets demeure toutefois une importante source d’erreur pour desrécepteurs opérant en environnement urbain. L’amélioration des performances des récepteurs dansce contexte reste un enjeu important et de nombreuses études sont conduites en vue d’améliorer ladisponibilité, la robustesse, la fiabilité et l’intégrité de ces récepteurs. Le principal objectif de cette thèse est de proposer une architecture de poursuite adaptive exploitant des techniques de poursuite vectorielle (Vector Tracking Loop – VTL). Les récepteurs conventionnels utilisent une architecture directe où une poursuite scalaire du signal (Scalar TrackingLoop – STL) est réalisée en amont du navigateur. Cette architecture n’utilise pas les informationsélaborées par le navigateur pour améliorer les performances de la poursuite. Au contrairel’architecture vectorielle permet à la poursuite de bénéficier de la connaissance de la position et dela vitesse estimées par le récepteur. Il peut en résulter une dégradation de la poursuite lorsque le navigateur ne sait pas isoler une mesure contaminée. Cet architecture rend donc les performances d’un canal très dépendantes des mesures utilisées par le navigateur, et donc en particulier des autres canaux. L’approche qui est explorée ici vise à combiner les approches de poursuite STL et VTL pour améliorer les performances des récepteurs en environnement urbain, dans un contexte multiconstellation. / Present research activities in the field of Global Navigation Satellite Systems (GNSS) aim atenhancing the overall navigation performance by providing better and more robust navigationsignals compared the ones available today. These GNSS signals are designed to provide betterimproved cross-correlation protection, lower tracking thresholds and reduced susceptibility tonarrow band interferences. However navigation based on GNSS signals remains sensitive topropagation impairments such as reflection, refraction, diffraction and scattering, and sometimesblockage of the line of sight signals. These effects are especially important in urban environment.Therefore, a better and more robust receiver design and implementation is crucial to meet anappropriate navigation performance using GNSS signals. Improving signal tracking algorithms inside the receiver is an attractive approach. This is particularly true in the case of urban environments where interference and multipath severely degrade the performance of the GPS positioning. Despite the many efforts of performance enhancement, multipath still remains as the dominant source of error and the limiting factor for many applications. Consequently improving the performance of a receiver in multipath environment is a great challenge and many studies are carried out to satisfy the above requirements in term of availability, reliability and integrity. The main goal of this PhD thesis is to propose a new adaptive tracking algorithm based on vector tracking loop (VTL) approach. Currently, the conventional technique (i.e., Scalar Tracking Loop (STL)) is implemented in a forward-only strategy which doesn’t exploit the position, velocity and time (PVT) solution provided by the Navigation System (NS). Standard VTL on the other hand, suffers from measurements contamination from the exploitation of PVT provided by the NS. This adaptiveapproach will take advantage of both tracking methods for providing reliable measurements in amulti-constellation context.

Page generated in 0.3957 seconds