• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 61
  • 35
  • 25
  • 17
  • 12
  • 11
  • 7
  • 7
  • 7
  • 4
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 393
  • 153
  • 115
  • 101
  • 83
  • 79
  • 74
  • 61
  • 57
  • 56
  • 41
  • 39
  • 38
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Semantic Classification And Retrieval System For Environmental Sounds

Okuyucu, Cigdem 01 October 2012 (has links) (PDF)
The growth of multimedia content in recent years motivated the research on audio classification and content retrieval area. In this thesis, a general environmental audio classification and retrieval approach is proposed in which higher level semantic classes (outdoor, nature, meeting and violence) are obtained from lower level acoustic classes (emergency alarm, car horn, gun-shot, explosion, automobile, motorcycle, helicopter, wind, water, rain, applause, crowd and laughter). In order to classify an audio sample into acoustic classes, MPEG-7 audio features, Mel Frequency Cepstral Coefficients (MFCC) feature and Zero Crossing Rate (ZCR) feature are used with Hidden Markov Model (HMM) and Support Vector Machine (SVM) classifiers. Additionally, a new classification method is proposed using Genetic Algorithm (GA) for classification of semantic classes. Query by Example (QBE) and keyword-based query capabilities are implemented for content retrieval.
372

Compressed Domain Processing of MPEG Audio

Anantharaman, B 03 1900 (has links)
MPEG audio compression techniques significantly reduces the storage and transmission requirements for high quality digital audio. However, compression complicates the processing of audio in many applications. If a compressed audio signal is to be processed, a direct method would be to decode the compressed signal, process the decoded signal and re-encode it. This is computationally expensive due to the complexity of the MPEG filter bank. This thesis deals with processing of MPEG compressed audio. The main contributions of this thesis are a) Extracting wavelet coefficients in the MPEG compressed domain. b) Wavelet based pitch extraction in MPEG compressed domain. c) Time Scale Modifications of MPEG audio. d) Watermarking of MPEG audio. The research contributions starts with a technique for calculating several levels of wavelet coefficients from the output of the MPEG analysis filter bank. The technique exploits the toeplitz structure which arises when the MPEG and wavelet filter banks are represented in a matrix form, The computational complexity for extracting several levels of wavelet coefficients after decoding the compressed signal and directly from the output of the MPEG analysis filter bank are compared. The proposed technique is found to be computationally efficient for extracting higher levels of wavelet coefficients. Extracting pitch in the compressed domain becomes essential when large multimedia databases need to be indexed. For example one may be interested in listening to a particular speaker or to listen to male female audio segments in a multimedia document. For this application, pitch information is one of the very basic and important features required. Pitch is basically the time interval between two successive glottal closures. Glottal closures are accompanied by sharp transients in the speech signal which in turn gives rise to a local maxima in the wavelet coefficients. Pitch can be calculated by finding the time interval between two successive maxima in the wavelet coefficients. It is shown that the computational complexity for extracting pitch in the compressed domain is less than 7% of the uncompressed domain processing. An algorithm for extracting pitch in the compressed domain is proposed. The result of this algorithm for synthetic signals, and utterances of words by male/female is reported. In a number of important applications, one needs to modify an audio signal to render it more useful than its original. Typical applications include changing the time evolution of an audio signal (increase or decrease the rate of articulation of a speaker),or to adapt a given audio sequence to a given video sequence. In this thesis, time scale modifications are obtained in the subband domain such that when the modified subband signals are given to the MPEG synthesis filter bank, the desired time scale modification of the decoded signal is achieved. This is done by making use of sinusoidal modeling [I]. Here, each of the subband signal is modeled in terms of parameters such as amplitude phase and frequencies and are subsequently synthesised by using these parameters with Ls = k La where Ls is the length of the synthesis window , k is the time scale factor and La is the length of the analysis window. As the PCM version of the time scaled signal is not available, psychoacoustic model based bit allocation cannot be used. Hence a new bit allocation is done by using a subband coding algorithm. This method has been satisfactorily tested for time scale expansion and compression of speech and music signals. The recent growth of multimedia systems has increased the need for protecting digital media. Digital watermarking has been proposed as a method for protecting digital documents. The watermark needs to be added to the signal in such a way that it does not cause audible distortions. However the idea behind the lossy MPEC encoders is to remove or make insignificant those portions of the signal which does not affect human hearing. This renders the watermark insignificant and hence proving ownership of the signal becomes difficult when an audio signal is compressed. The existing compressed domain methods merely change the bits or the scale factors according to a key. Though simple, these methods are not robust to attacks. Further these methods require original signal to be available in the verification process. In this thesis we propose a watermarking method based on spread spectrum technique which does not require original signal during the verification process. It is also shown to be more robust than the existing methods. In our method the watermark is spread across many subband samples. Here two factors need to be considered, a) the watermark is to be embedded only in those subbands which will make the addition of the noise inaudible. b) The watermark should be added to those subbands which has sufficient bit allocation so that the watermark does not become insignificant due to lack of bit allocation. Embedding the watermark in the lower subbands would cause distortion and in the higher subbands would prove futile as the bit allocation in these subbands are practically zero. Considering a11 these factors, one can introduce noise to samples across many frames corresponding to subbands 4 to 8. In the verification process, it is sufficient to have the key/code and the possibly attacked signal. This method has been satisfactorily tested for robustness to scalefactor, LSB change and MPEG decoding and re-encoding.
373

Τα δικαιώματα πνευματικής ιδιοκτησίας στην ψηφιακή εποχή: ζητήματα προστασίας και διαχείρισης. Ένα πρότυπο σύστημα ψηφιακής διαχείρισης των πνευματικών δικαιωμάτων. / Intellectual property rights in the digital age: protection and management. an innovative digital rights management system.

Μεϊδάνης, Δημήτριος 17 September 2007 (has links)
Καθώς η Κοινωνία της Πληροφορίας αναπτύσσεται με ταχύτατους ρυθμούς, οι τεχνολογικές κατακτήσεις από το χώρο της επιστήμης των υπολογιστών και τηλεπικοινωνιών, αποτελούν σημαντικό κεφάλαιο σε αρκετούς επιμέρους τομείς του κοινωνικού βίου, ανάμεσα στους οποίους είναι και ο Πολιτισμός. Η πολιτισμική ποικιλομορφία του υπάρχοντος υλικού και η διάθεση για αξιοποίηση της επιπρόσθετης εκπαιδευτικής του αξίας, σε συνδυασμό με την απαίτηση για διάσωση των πρωτότυπων έργων, συνθέτει ένα πολύπλοκο τεχνολογικό πρόβλημα με νομικές και κοινωνικές προεκτάσεις. Η διαδικασία της ψηφιοποίησης και η δημιουργία μιας νέας άυλης ηλεκτρονικής υπόστασης για τα έργα πολιτισμού, γεννά νέες δυνατότητες αλλά παράλληλα θέτει νέους περιορισμούς. Η έμπνευση και η δημιουργικότητα των καλλιτεχνών εκφράζεται με τα πνευματικά δικαιώματα, η προστασία και η διαχείριση των οποίων αποτελεί το αντικείμενο της διπλωματικής εργασίας. Το σύνολο των πνευματικών δικαιωμάτων και ο τρόπος που αυτά ορίζονται, δεσμεύονται, εγείρονται και μεταβιβάζονται, μεταβάλλεται ριζικά καθώς περνάμε από την πραγματική αναλογική μορφή στην άυλη ψηφιακή απεικόνιση. Στην παρούσα διπλωματική εργασία, ορίζονται οι διάφοροι τύποι δικαιωμάτων πνευματικής ιδιοκτησίας και αποσαφηνίζονται οι δεσμεύσεις και οι περιορισμοί που προκύπτουν από αυτά συναρτήσει της Διεθνούς,της Ευρωπαϊκής και της Ελληνικής Νομοθεσίας. Επίσης, καθορίζεται η ενδεικτική διαδικασία που πρέπει να ακολουθηθεί από μια οντότητα (πολύ συχνά από έναν πολιτιστικό οργανισμό) για την εκκαθάριση των δικαιωμάτων των έργων που κατέχει, κατά τη διαδικασία της Ψηφιοποίησης με σκοπό την προβολή τους στο Διαδίκτυο. Σε δεύτερη φάση, μελετάται το ευρύ φάσμα των τεχνολογικών μέσων, τα οποία μπορούν να χρησιμοποιηθούν για την προστασία των πνευματικών δικαιωμάτων που δεσμεύουν τους ψηφιακούς πόρους, παράλληλα με κάποιο κατάλληλα επιλεγμένο σύνολο μεταδεδομένων. Ιδιαίτερο τμήμα της εργασίας, αποτελούν τα συστήματα ψηφιακής διαχείρισης των πνευματικών δικαιωμάτων (DRMs). Πραγματοποιείται αναλυτική παρουσίαση των προτεινόμενων προτύπων που πρέπει να ακολουθούν τα συστήματα αυτά, όσον αφορά την αναπαράσταση και μοναδική αναγνώριση των δεδομένων, αλλά και την αναπαράσταση των δικαιωμάτων μέσων των γλωσσών περιγραφής πνευματικών δικαιωμάτων. Τέλος, παρουσιάζονται, η αρχιτεκτονική, οι βασικές λειτουργίες και η υλοποίηση ενός πρότυπου συστήματος διαχείρισης πνευματικών δικαιωμάτων για ψηφιακές εικόνες. / As Information Society is rapidly developing, technological conquests in computer science and telecommunications are becoming a very important part in many areas of social life, including Culture. The diversity of the cultural material and the intention of utilizing the added educational value, combined with the demand for preservation of the original works, compose a complex technological problem with legal and social extensions. The inspiration and creativity of the artists are expressed by Intellectual Property Rights – IPR, the protection and management of which is the subject of this thesis. The set of rights as well as the way they are specified, rised, binded and assigned changes while we pass from the analog to the materialess digital display. In this thesis we define the several types of Intellectual Property Rights and clarify the engagements and restrictions that result from them in connection with the International, European and National legislation. We also define the process that an entity (usually a cultural organization) must follow in order to clear the rights of the works it owns, during a digitization process which will lead to publication on the Internet. In the second part we study the technological solutions that can be used for the protection of IPR in parallel with a suitable metadata set. A special part of the thesis is the study of Digital Rights Management Systems – DRMs. We analytically present the standards on which modern DRMs must be based on in terms of identification and declaration of digital resources, as well as the representation of rights through rights expression languages. Finally we present the architecture, basic functionality and realization of a new Digital Rights Management System for digital images.
374

Elaboration de nanoparticules fonctionnelles : applications comme agents de contraste en IRM

Maurizi, Lionel 03 December 2010 (has links) (PDF)
Les nanoparticules d'oxyde de fer de structure spinelle ouvrent de nombreuses voies dans le domaine biomédical. Parmi les applications possibles, les propriétés superparamagnétiques des cristallites d'une dizaine de nanomètres permettent de les utiliser pour le diagnostic médical, notamment en Imagerie par Résonance Magnétique (IRM).Ce travail a consisté à élaborer des suspensions colloïdales de nanoparticules de magnétite ou de maghémite (nommées USPIO pour Ultrasmall SuperParamagnetic Iron Oxide) compatibles avec les conditions physiologiques (pH = 7,4 et [NaCl] = 0,15 M).Par co-précipitation classique, des USPIO, de taille de cristallites de 8 nm, de surface spécifique de 110 m².g-1 et agrégés en assemblages d'environ 20 nm ont été obtenus. Pour stabiliser ces nano-objets, deux voies ont été explorées. Des agents électrostatiques (acide citrique et DMSA) ont modifié la charge nette de surface des oxydes de fer. La stabilisation stérique a également été explorée par greffage de méthoxy-PEG couplés à des fonctions silanes (mPEG-Si). Par combinaison de mPEG2000-Si et de DMSA, des suspensions stables ont également été obtenues. De plus, les fonctions thiols apportées par le DMSA et présentes à la surface des agrégats se trouvent protégées de leur oxydation naturelle par l'encombrement stérique des chaînes de polymère (la formation de ponts disulfures est évitée). La post-fonctionnalisation de ces nanoparticules via ces fonctions thiols est alors possible plusieurs semaines après leur synthèse. Ce concept a été validé par post-greffage d'un fluorophore (0,48 RITC/nm²) pour la détection in vitro en microscopie à fluorescence.En parallèle de cette étude en " batch ", des nanoparticules d'oxyde de fer ont été synthétisées en continu à l'aide d'un procédé hydrothermal pouvant s'étendre au domaine eau supercritique. En voie hydrothermale classique, des USPIO stabilisés par des ions citrates ont été obtenus en continu. Grâce aux propriétés physicochimiques de l'eau supercritique, la co-précipitation de magnétite a été possible sans l'utilisation de base.La cytotoxicité et l'internalisation cellulaire de ces USPIO ont été évaluées sur trois modèles cellulaires (macrophages RAW, hépatocytes HepG2 et cardiomyocytes) et les efficacités comme agents de contraste en IRM de ces nanoparticles ont été mesurées sur gel et sur modèle murin et comparées à un agent de contraste commercial à base d'oxyde de fer. Les nanohybrides étudiés n'ont pas présenté de cytotoxicité et ont développé des pouvoirs contrastants comparables à l'agent commercial. La biodistribution hépatique des nanoparticules couplées au mPEG-Si a été retardée de plus de 3 heures ouvrant la voie à des détections spécifiques.
375

Synthèse Matérielle Haut Niveau des Programmes Flot de Donnée RVC

Jerbi, Khaled 30 November 2012 (has links) (PDF)
L'évolution des algorithmes de traitement de la vidéo a impliqué l'apparition de plusieurs standards. Ces standards présentent plusieurs algorithmes communs. Cependant, il n'est pas facile de réutiliser ces algorithmes à cause du monolithisme des codes. Pour résoudre ces problèmes, la communauté ISO/IEC MPEG a créé le standard " Reconfigurable Video Coding " (RVC) basé sur le principe que les algorithmes peuvent être définis sous la forme d'une librairie de composants séparés suivant le modèle de calcul flot de données. Ainsi, les composants sont normalisés au lieu du décodeur entier. Un programme flot de données peut être décrit comme un graphe orienté dont les sommets représentent les process (acteurs) à exécuter et les arcs représentent les FIFOs de communication entre ces processes. Les informations échangées dans les FIFOs s'appellent des jetons. Ce concept fait en sorte que les process sont totalement indépendants les uns des autres et c'est seulement la présence de jetons dans les FIFOs qui est responsable du déclanchement d'un process. Pour traduire ce modèle de calcul en une description fonctionnelle, un langage spécifique appelé CAL Actor Language (CAL) est considéré dans ce travail. Ce langage est standardisé par la norme MPEG-RVC sous le nom RVC-CAL. Le standard RVC est supporté par une infrastructure complète pour concevoir et compiler le RVC-CAL en implémentations matérielles et logicielles mais les compilateurs hardware existants présentent plusieurs limitations essentiellement pour la validation et la compilation de certaines structures haut niveau du langage RVC-CAL. Pour la validation, nous proposons une méthodologie fonctionnelle qui permet la validation des algorithmes dans toutes les étapes du flow de conception. Nous montrons dans ce document l'impact important de cette méthodologie sur la réduction du temps de conception. Concernant les limitations de la compilation hardware, nous introduisons une transformation automatique que nous avons intégrée dans le cœur d'un compilateur du langage RVC-CAL appelé Orcc (Open RVC-CAL Compiler). Cette transformation détecte les structures non supportées par les compilateurs hardware et réalise les changements nécessaires dans la représentation intermédiaire de Orcc pour obtenir un code synthétisable tout en conservant le comportement global de l'acteur. Cette transformation a résolu le plus important goulot d'étranglement de la génération hardware à partir des programmes flow de données. Pour évaluer nos méthodologies, nous avons appliqué la vérification fonctionnelle sur plusieurs applications de traitement d'image et de vidéo et nous avons appliqué la génération matérielle automatique sur le décodeur MPEG-4 part 2 Simple Profile et le codec d'images fixes LAR et nous proposons des études comparatives pour ces deux contextes applicatifs.
376

Machine virtuelle universelle pour codage vidéo reconfigurable

Gorin, Jérôme 22 November 2011 (has links) (PDF)
Cette thèse propose un nouveau paradigme de représentation d'applications pour les machines virtuelles, capable d'abstraire l'architecture des systèmes informatiques. Les machines virtuelles actuelles reposent sur un modèle unique de représentation d'application qui abstrait les instructions des machines et sur un modèle d'exécution qui traduit le fonctionnement de ces instructions vers les machines cibles. S'ils sont capables de rendre les applications portables sur une vaste gamme de systèmes, ces deux modèles ne permettent pas en revanche d'exprimer la concurrence sur les instructions. Or, celle-ci est indispensable pour optimiser le traitement des applications selon les ressources disponibles de la plate-forme cible. Nous avons tout d'abord développé une représentation " universelle " d'applications pour machine virtuelle fondée sur la modélisation par graphe flux de données. Une application est ainsi modélisée par un graphe orienté dont les sommets sont des unités de calcul (les acteurs) et dont les arcs représentent le flux de données passant au travers de ces sommets. Chaque unité de calcul peut être traitée indépendamment des autres sur des ressources distinctes. La concurrence sur les instructions dans l'application est alors explicite. Exploiter ce nouveau formalisme de description d'applications nécessite de modifier les règles de programmation. A cette fin, nous avons introduit et défini le concept de " Représentation Canonique et Minimale " d'acteur. Il se fonde à la fois sur le langage de programmation orienté acteur CAL et sur les modèles d'abstraction d'instructions des machines virtuelles existantes. Notre contribution majeure qui intègre les deux nouvelles représentations proposées, est le développement d'une " Machine Virtuelle Universelle " (MVU) dont la spécificité est de gérer les mécanismes d'adaptation, d'optimisation et d'ordonnancement à partir de l'infrastructure de compilation Low-Level Virtual Machine. La pertinence de cette MVU est démontrée dans le contexte normatif du codage vidéo reconfigurable (RVC). En effet, MPEG RVC fournit des applications de référence de décodeurs conformes à la norme MPEG-4 partie 2 Simple Profile sous la forme de graphe flux de données. L'une des applications de cette thèse est la modélisation par graphe flux de données d'un décodeur conforme à la norme MPEG-4 partie 10 Constrained Baseline Profile qui est deux fois plus complexe que les applications de référence MPEG RVC. Les résultats expérimentaux montrent un gain en performance en exécution de deux pour des plates-formes dotées de deux cœurs par rapport à une exécution mono-cœur. Les optimisations développées aboutissent à un gain de 25% sur ces performances pour des temps de compilation diminués de moitié. Les travaux effectués démontrent le caractère opérationnel et universel de cette norme dont le cadre d'utilisation dépasse le domaine vidéo pour s'appliquer à d'autres domaine de traitement du signal (3D, son, photo...)
377

Μελέτη ανάκτησης σχημάτων με χρήση διεργασιών διάχυσης

Καστανιώτης, Δημήτρης 14 February 2012 (has links)
Η παρούσα εργασία ασχολείται με την ανάκτηση σχήματος. Πιο συγκεκριμένα επικεντρώνεται σε επίπεδα (δισδιάστατα) σχήματα τα οποία είναι μη άκαμπτα και έχουν υποστεί κάμψη ή μεταβάλλονται εξαιτίας της παρουσίας κάποιας άρθρωσης. Τέτοια εύκαμπτα σχήματα συναντάμε καθημερινά στη φύση όπως για παράδειγμα τους μικροοργανισμούς μέχρι και τον ίδιο τον άνθρωπο. Τα κριτήρια ομοιότητας μεταξύ των σχημάτων που χρησιμοποιούνται εδώ είναι Intrinsic. Τέτοια κριτήρια μπορεί κανείς να εξάγει δημιουργώντας ένα τελεστή διάχυσης. Οι τελεστές διάχυσης μπορούν να διατυπωθούν με πολλούς τρόπους. Στην παρούσα εργασία βασιζόμαστε στην πιθανολογική προσέγγιση δημιουργώντας ένα τελεστή (Μητρώο Markov) ενώ ταυτόχρονα λαμβάνουμε ένα τυχαίο περίπατο στα δεδομένα. Ο τελεστής αυτός επιπλέον έχει το πλεονέκτημα ότι μπορεί να προσεγγίσει τον τελεστή Laplace-Beltrami ασχέτως της πυκνότητας δειγματοληψίας των δεδομένων. Ορίζεται λοιπόν ως Απόσταση Διάχυσης η απόσταση δύο σημείων. Η απόσταση αυτή είναι μικρότερη όσο περισσότερα μονοπάτια συνδέουν τα δύο σημεία. Η φασματική ανάλυση του μητρώου αυτού μας επιτρέπει να αναπαραστήσουμε τα δεδομένα μας σε ένα νέο χώρο με σαφή μετρική απόσταση την Ευκλείδεια χρησιμοποιώντας τις ιδιοτιμές και τα ιδιοδιανύσματα που προκύπτουν. Επιπλέον η Ευκλείδεια απόσταση στο νέο χώρο ισούται με την απόσταση Διάχυσης στον αρχικό χώρο. Ο συνδυασμός των φασματικών ιδιοτήτων του μητρώου Διάχυσης με τις Markov διεργασίες οδηγεί σε μία ανάλυση των δεδομένων σε πολλές κλίμακες. Αυτό ισοδυναμεί με το να προχωρήσουμε τον τυχαίο περίπατο μπροστά. Από τις απεικονίσεις αυτές μπορούμε να εξάγουμε ιστογράμματα κατανομής αποστάσεων. Έτσι για κάθε σχήμα και για κάθε κλίμακα λαμβάνουμε ένα ιστόγραμμα κατανομής αποστάσεων. Συνεπώς δύο σχήματα μπορεί να βρίσκονται πολύ κοντά σε μία κλίμακα χρόνου ενώ να βρίσκονται πολύ μακριά σε μία άλλη κλίμακα. Συγκεκριμένα εδώ παραθέτουμε την άποψη η απόσταση των σχημάτων συνδέεται άμεσα με την κλίμακα- χρόνο. Μελετώνται οι ιδιότητες των μικρών, μεσαίων και μεγάλων κλιμάκων κυρίως ως προς τα γεωμετρικά χαρακτηριστικά που μπορούν να περιγράψουν και κατά συνέπεια την ικανότητα να εξάγουν αποδοτικούς περιγραφείς των σχημάτων. Η συνεισφορά της παρούσας Διπλωματικής Εργασίας είναι διπλή: A. Προτείνεται για πρώτη φορά μία νέα μέθοδος κατά την οποία αξιοποιούνται οι ιδιότητες των διαφορετικών κλιμάκων της διεργασίας Διάχυσης που αναφέραμε. Ονομάζουμε τη μέθοδο αυτή Weighted Multiscale Diffusion Distance -WMDD. B. Τα αποτελέσματα που παρουσιάζονται φέρνουν την μέθοδο αυτή στην κορυφή για τις συγκεκριμένες βάσεις σχημάτων (MPEG-7 και KIMIA 99). / This thesis focuses explicitly at shape retrieval applications. More precisely concentrates in planar shapes that are non-rigid, meaning that they might have been articulated or bended. These non-rigid shapes appear in humans’ life like for example bacteria and also the same the human body. The shape pair wise similarity criteria are intrinsic. Such similarity criteria one can take through a Diffusion Operator. Diffusion Operators can be defined in many ways. In this thesis we concern only in the probabilistic interpretation of Diffusion Operators. Thus by constructing a Diffusion Operator we also construct a random Walk on data. This operator converges to the Laplace-Beltrami even if the sampling density of the data is not uniform. Through this framework the Diffusion Distance between two points is defined. This distance gets smaller as much more paths are connecting two points. Spectral decomposition if this diffusion kernel allows us to map, re-represent our data using the eigenvectors and the eigenvalues in a new space with the property of embedding with an explicit metric. These maps are called Diffusion Maps and have the property that diffusion distance in the initial space equals the Euclidean distance in the embedding space. A combination of spectral properties of a Markov matrix with Markov Processes leads to a multiscale analysis. This corresponds to running the random walk forward. From these embeddings we can extract histograms of distributions of distances. Thus for every shape and every scale we have one histogram. Therefore two shapes may be close in one scale but not in another one. The contribution of this Thesis is twofold: A. For first time a new method where the properties of different scales as studied in order to take the advantage of the most discriminative times/ steps of the diffusion process that we described above. We called this method Weighted Multiscale Diffusion Distance- WMDD. B. The results presented here bring our method to the state of the art for the MPEG- and KIMIA 99 databases.
378

Liquid Organic Electrolytes: Blends of Low Molecular Weight Methoxyoligooxyethylene (MPEGs)/LiTFSI Salt

Alshahrani, Rasha 15 December 2017 (has links)
Blends containing methoxyoligooxyethyleneglycol (MPEGs) (MW 350 and 550) and bis(trifluoromethane)sulfonimide lithium (LiTFSI) salt were prepared by solution blending process using tetrahydrofuran (THF) as a solvent. The ionic conductivity of the blends of different compositions were determined at four temperatures i.e. 25°C, 40°C, 60°C and 70°C. A maximum ionic conductivity value of 3.9x10-3 S cm-1 at 25°C was obtained for the blends containing MPEG-350 at an ethylene oxide to lithium salt ratio of 1:10. The ionic conductivity increases with increasing temperature and shows that the ion transport is aided by the segmental motion of the MPEG chains. 7Li NMR spectroscopy was used to study the nature and dynamics of the salt clusters in the blends
379

Descrição e proposição de uma solução de IPTV / Description and proposal of an end-to-end IPTV solution

Magri, Marcus Pereira 21 August 2007 (has links)
Orientador: Yuzo Iano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-08T18:54:47Z (GMT). No. of bitstreams: 1 Magri_MarcusPereira_M.pdf: 3808381 bytes, checksum: e208495d1dffda0491764c4092da7246 (MD5) Previous issue date: 2007 / Resumo: O objetivo deste trabalho é tanto estudar quanto analisar uma solução de IPTV (TV por IP). Tal serviço está emergindo nas operadoras de telecomunicações de todo o mundo. Essa solução está sendo bem aceita e mudando radicalmente a visão de negócios dos provedores de telecomunicações em todo o mundo. Consumidores finais vão demandar serviços personalizados através de múltiplos dispositivos, incluindo canais de TV, conteúdo sob demanda, TV interativa, comunicações de vídeo e de voz, música, compartilhamento de fotos e arquivos e jogos on-line. Esses são alguns dos serviços de usuário final, entregues de forma transparente e combinada. Isso tudo requer mudanças inovadoras nas operadoras de telecomunicações, desde uma nova arquitetura de rede, com qualidade de serviço fim-a-fim, confiabilidade, gerência, e segurança. Contribui-se com uma descrição detalhada de como arquitetar essa solução, cobrindo todos os desafios para se implementar um sistema de IPTV, descrevendo-se todos os componentes e serviços da solução, e também qual seria a evolução natural dessa solução. É também parte de nossa contribuição a proposição de algumas melhorias para reduzir o tempo de troca de canal, além de sugestões para se implementar uma solução de inserção de comercial e de inserção de legenda. Palavras-chave: Codificação de imagem, Imagem, IPTV, Triple Play, STB, VOD, IGMP / Abstract: This works concerns the study and the analysis of an IPTV solution (Internet Protocol Television). This kind of service is emerging in the Telco all over the world and its good acceptance is radically changing the business vision of the telecommunications providers. Final consumers will demand personalized services using multiple devices including TV channels, video-on-demand, interative TV, video and voice communications, music, photo and file sharing and online games. All these services require novelties and changes at the telecoms field embracing new network architecture using P2P service quality, reliability, customer management and security. The contribution of this work concerns a detailed description of how to design the solution for these challenges, how to implement a new IPTV system describing all the components and services that have to be provided. The natural evolution of this approach is also considered. Additionally, this work proposes new solutions to reduce the channel zapping time and to insert commercials and subtitles. Keywords: Image coding, Imaging, IPTV, Triple Play, STB, VOD, IGMP, MPEG, H.264, Multicast, MPEG-2 TS, RTSP, Middleware, DRM / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
380

Restaurace signálu s omezenou okamžitou hodnotou s použitím psychoakustického modelu / Restoration of signals with limited instantaneous value using a psychoacoustic model

Beňo, Tomáš January 2019 (has links)
The master's thesis deals with the restoration of audio signals that have been damaged by clipping. Used methods are based on sparse representations of signals. The introduction of the thesis explains the issue of clipping and mentions the list of already existing methods that solve declipping, which are followed by the thesis. In the next chapter, the necessary theory of sparse representations and the proximal algorithms is described, including specific representatives from the category of convex optimization problems. The thesis contains declipping algorithm implemented in Matlab software environment. Chosen method for solving the task uses the Condat algorithm or Generic proximal algorithm for convex optimization and solves minimization of sum of three convex functions. The result of the thesis is five versions of algorithm and three of them have implemented psychoacoustic model for results improvement. For each version has been found optimal setting of parameters. The restoration quality results are evaluated using objective measurements like SDR and PEMO-Q and also using subjective listening test.

Page generated in 0.046 seconds