• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 10
  • 10
  • 7
  • 6
  • 5
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 92
  • 30
  • 29
  • 26
  • 22
  • 20
  • 20
  • 12
  • 11
  • 11
  • 10
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Implementation of a protocol and channel coding strategy for use in ground-satellite applications

Wiid, Riaan 03 1900 (has links)
Thesis (MScEng)--Stellenbosch University, 2012. / ENGLISH ABSTRACT: A collaboration between the Katholieke Universiteit van Leuven (KUL) and Stellenbosch University (SU), resulted in the development of a satellite based platform for use in agricultural sensing applications. This will primarily serve as a test platform for a digitally beam-steerable antenna array (SAA) that was developed by KUL. SU developed all flight - and ground station based hardware and software, enabling ground to flight communications and interfacing with the KUL SAA. Although most components had already been completed at the start of this M:Sc:Eng: project, final systems integration was still unfinished. Modules necessary for communication were also outstanding. This project implemented an automatic repeat and request (ARQ) strategy for reliable file transfer across the wireless link. Channel coding has also been implemented on a field programmable gate array (FPGA). This layer includes an advanced forward error correction (FEC) scheme i.e. a low-density parity-check (LDPC), which outperforms traditional FEC techniques. A flexible architecture for channel coding has been designed that allows speed and complexity trade-offs on the FPGA. All components have successfully been implemented, tested and integrated. Simulations of LDPC on the FPGA have been shown to provide excellent error correcting performance. The prototype has been completed and recently successfully demonstrated at KUL. Data has been reliably transferred between the satellite platform and a ground station, during this event. / AFRIKAANSE OPSOMMING: Tydens ’n samewerkingsooreenkoms tussen die Katholieke Universiteit van Leuven (KUL) en die Universiteit van Stellenbosch (US) is ’n satelliet stelsel ontwikkel vir sensor-netwerk toepassings in die landbou bedryf. Hierdie stelsel sal hoofsaaklik dien as ’n toetsmedium vir ’n digitaal stuurbare antenna (SAA) wat deur KUL ontwikkel is. Die US het alle hardeware en sagteware komponente ontwikkel om kommunikasie d.m.v die SAA tussen die satelliet en ’n grondstasie te bewerkstellig. Sedert die begin van hierdie M:Sc:Ing: projek was die meeste komponente alreeds ontwikkel en geïmplementeer, maar finale stelselsintegrasie moes nog voltooi word. Modules wat kommunikasie sou bewerkstellig was ook nog uistaande. Hierdie projek het ’n ARQ protokol geïmplementeer wat data betroubaar tussen die satelliet en ’n grondstasie kon oordra. Kanaalkodering is ook op ’n veld programmeerbare hekskikking (FPGA) geïmplementeer. ’n Gevorderde foutkorrigeringstelsel, naamlik ’n lae digtheids pariteit toetskode (LDPC), wat tradisionele foutkorrigeringstelsels se doeltreffendheid oortref, word op hierdie FPGA geïmplementeer. ’n Kanaalkoderingsargitektuur is ook ontwikkel om die verwerkingspoed van data en die hoeveelheid FPGA logika wat gebruik word, teenoor mekaar op te weeg. Alle komponente is suksesvol geïmplementeer, getoets en geïntegreer met die hele stelsel. Simulasies van LDPC op die FPGA het uistekende foutkorrigeringsresultate gelewer. ’n Werkende prototipe is onlangs voltooi en suksesvol gedemonstreer by KUL. Betroubare data oordrag tussen die satelliet en die grondstasie is tydens hierdie demonstrasie bevestig.
62

Propostas de procedimentos para o estabelecimento de metas de qualidade do serviço de distribuição de energia elétrica. / Proposals of procedures for setting targets for power distribution service quality.

González Pérez, Jenny Paola 06 March 2012 (has links)
Este trabalho apresenta uma análise crítica da metodologia usada no PRODIST 2010, e propostas alternativas para a fixação de metas e tarifas em função da qualidade do serviço. Todas as análises se sustentam em estudos estatísticos dos dados de interrupções nos anos 2007 e 2008 de 6 empresas distribuidoras de energia com diferentes características de DEC, FEC, número de usuários e número de conjuntos. A primeira proposta chamada de Tarifa Única Meta Única (TAMU) propõe a mesma meta de qualidade do serviço para todos os usuários de um mesmo nível de tensão. Na proposta se fixou como critério geral que 10% dos usuários pior atendidos de um nível de tensão devem ser ressarcidos por má qualidade do serviço. Para alcançar esse objetivo as metas dos níveis de tensão de cada empresa foram fixadas a partir dos seus histogramas de frequência acumulada dos indicadores individuais dos usuários. Esse procedimento garante que a percentagem de usuários ressarcidos seja igual em todos os níveis de tensão das empresas. Os resultados obtidos no cálculo da multa média por usuário ressarcido conservam uma coerência justa com a piora dos indicadores coletivos (isto não acontece no PRODIST), onde as concessionárias que apresentaram os piores desempenhos pagariam uma multa média maior por usuário. A segunda proposta descreve uma metodologia de tarifas diferenciadas por descontos (TARDIF). Nessa metodologia os DIC dos usuários de um mesmo nível de tensão foram classificados em 5 intervalos múltiplos de sua média coletiva (DEC). Os últimos 3 intervalos de classificação correspondem aos usuários que tiveram a pior qualidade do serviço no ano. Para esses usuários foram definidos descontos tarifários que compensariam os prejuízos no seguinte ano. Nos resultados obtidos, as multas médias dos usuários ressarcidos conservam a relação com a média de atendimento e com a dispersão dos dados, sendo o último o critério mais dominante. / This work presents a review of the methodology used in PRODIST 2010, and alternative proposals for setting targets and rates depending on quality of service (QoS). All analysis are supported in statistical interruption data studies of 6 electricity distribution companies (EDC) between 2007 and 2008 with different characteristics of DEC, FEC, number of users and sets. The first proposal called Single Rate - Single Goal (TAMU in Portuguese) proposes the same goal of QoS to all same voltage level users. This proposal sets as a general criterion that 10% of users with worst voltage level attendance must be compensated for getting poor QoS. In order to achieve this goal, the top voltage levels of each company were determined from its cumulative frequency histograms of the user individual indicators value. This procedure guarantees the same percentage of users compensated in all EDC voltage levels. The results obtained by calculating the average penalty per user refunded maintain a fairly consistent with deterioration of collective indicators values (this does not happen in PRODIST 2010), where EDC with worst performances will pay a higher average penalty per user. The second proposal describes a different discount rate methodology (TARDIF in Portuguese). In this methodology, the DIC of users with same voltage level were classified into five intervals of its collective average (DEC). The last three classification intervals correspond to users who have had the worst QoS in the year. For these users were defined discount rates that would compensate the losses next year. In the obtained results, the average penalties of refunded users maintain the relationship between the average attendance and the data scattering, being the last one the most dominant criterion.
63

Propostas de procedimentos para o estabelecimento de metas de qualidade do serviço de distribuição de energia elétrica. / Proposals of procedures for setting targets for power distribution service quality.

Jenny Paola González Pérez 06 March 2012 (has links)
Este trabalho apresenta uma análise crítica da metodologia usada no PRODIST 2010, e propostas alternativas para a fixação de metas e tarifas em função da qualidade do serviço. Todas as análises se sustentam em estudos estatísticos dos dados de interrupções nos anos 2007 e 2008 de 6 empresas distribuidoras de energia com diferentes características de DEC, FEC, número de usuários e número de conjuntos. A primeira proposta chamada de Tarifa Única Meta Única (TAMU) propõe a mesma meta de qualidade do serviço para todos os usuários de um mesmo nível de tensão. Na proposta se fixou como critério geral que 10% dos usuários pior atendidos de um nível de tensão devem ser ressarcidos por má qualidade do serviço. Para alcançar esse objetivo as metas dos níveis de tensão de cada empresa foram fixadas a partir dos seus histogramas de frequência acumulada dos indicadores individuais dos usuários. Esse procedimento garante que a percentagem de usuários ressarcidos seja igual em todos os níveis de tensão das empresas. Os resultados obtidos no cálculo da multa média por usuário ressarcido conservam uma coerência justa com a piora dos indicadores coletivos (isto não acontece no PRODIST), onde as concessionárias que apresentaram os piores desempenhos pagariam uma multa média maior por usuário. A segunda proposta descreve uma metodologia de tarifas diferenciadas por descontos (TARDIF). Nessa metodologia os DIC dos usuários de um mesmo nível de tensão foram classificados em 5 intervalos múltiplos de sua média coletiva (DEC). Os últimos 3 intervalos de classificação correspondem aos usuários que tiveram a pior qualidade do serviço no ano. Para esses usuários foram definidos descontos tarifários que compensariam os prejuízos no seguinte ano. Nos resultados obtidos, as multas médias dos usuários ressarcidos conservam a relação com a média de atendimento e com a dispersão dos dados, sendo o último o critério mais dominante. / This work presents a review of the methodology used in PRODIST 2010, and alternative proposals for setting targets and rates depending on quality of service (QoS). All analysis are supported in statistical interruption data studies of 6 electricity distribution companies (EDC) between 2007 and 2008 with different characteristics of DEC, FEC, number of users and sets. The first proposal called Single Rate - Single Goal (TAMU in Portuguese) proposes the same goal of QoS to all same voltage level users. This proposal sets as a general criterion that 10% of users with worst voltage level attendance must be compensated for getting poor QoS. In order to achieve this goal, the top voltage levels of each company were determined from its cumulative frequency histograms of the user individual indicators value. This procedure guarantees the same percentage of users compensated in all EDC voltage levels. The results obtained by calculating the average penalty per user refunded maintain a fairly consistent with deterioration of collective indicators values (this does not happen in PRODIST 2010), where EDC with worst performances will pay a higher average penalty per user. The second proposal describes a different discount rate methodology (TARDIF in Portuguese). In this methodology, the DIC of users with same voltage level were classified into five intervals of its collective average (DEC). The last three classification intervals correspond to users who have had the worst QoS in the year. For these users were defined discount rates that would compensate the losses next year. In the obtained results, the average penalties of refunded users maintain the relationship between the average attendance and the data scattering, being the last one the most dominant criterion.
64

Adaptations inter-couches pour la diffusion des services vidéo sans fil

Djama, Ismail 10 November 2008 (has links) (PDF)
L'un des défis majeurs dans la convergence des réseaux et des services vers la technologie IP est le maintien de la qualité de service (QoS) des flux audio/vidéo transmis sur des réseaux sans fil pour des utilisateurs mobiles et hétérogènes. Dans cet environnement, les services multimédia doivent faire face à plusieurs inconvénients engendrés par le manque de fiabilité d'un canal sans fil et son partage par plusieurs utilisateurs. Ces inconvénients sont accentués par l'hétérogénéité des terminaux de réception (capacité de décodage, espace de stockage, résolution d'affichage, etc.) qui doivent recevoir, décoder et afficher les flux multimédia.<br />Afin d'assurer un accès universel aux services n' importe où, n'importe quand et en utilisant n'importe quel terminal d'accès, les applications multimédia de nouvelle génération doivent interagir avec leur environnement pour, d'une part, informer les réseaux sous-jacents de leur besoins en QoS, et d'autre part, adapter dynamiquement leurs services en fonction des terminaux de réception et des variations intempestives des conditions de transmission. <br />Dans ce contexte, nous proposons un nouveau système pour la transmission des flux audio/vidéo sur les réseaux 802.11 basé sur l'approche Cross-layer. Ce nouveau système, appelé XLAVS (Cross Layer Adaptive Video Streaming), communique activement avec l'ensemble des couches réseaux ainsi que le récepteur final pour déterminer l'adaptation optimale qui permet d'optimiser la QoS des flux audio/vidéo. <br />Nos contributions se focalisent principalement sur les adaptations Cross-layer mises en œuvre par le XLAVS. Ces contributions sont organisées en deux grandes catégories : les adaptations ascendantes exécutées au niveau applicatif et les adaptations descendantes exécutées au niveau MAC 802.11.<br />Dans la première catégorie, notre apport s'articule au tour de : (1) l'adaptation dynamique du débit vidéo en fonction du débit physique disponible dans le réseau 802.11 et (2) l'adaptation conjointe du taux de redondance FEC et du débit vidéo contrôlée par la puissance du signal et les taux de perte. <br />Dans la deuxième catégorie, nous proposons deux mécanismes Cross-layer au niveau MAC 802.11 : (1) une fragmentation 802.11 adaptative pour trouver un compromis entre les pertes de paquets et l'overhead introduit par les couches 802.11 et (2) un groupage des images vidéo au niveau MAC pour permettre au flux vidéo d'avoir un accès au canal 802.11 proportionnel à son débit.
65

Transmission robuste et fiable du multimédia sur Internet

Ramos Ramos, Víctor Manuel 07 December 2004 (has links) (PDF)
Dans cette thèse, nous proposons des modèles pour évaluer les performances des applications multimédias temps-réel. De plus, nous proposons un modèle pour les protocoles de type AIMD. Le premier sujet étudié est un mécanisme de correction d'erreurs (FEC). Premièrement, nous utilisons une file d attente M/M/1/K pour modéliser le réseau. Nous considérons que la qualité de la voix varie linéairement par rapport au taux de redondance de la FEC. La redondance du i-ème paquet est portée dans le paquet i+f. Notre analyse montre que, même pour le cas f->inf, ce mécanisme n'améliore pas la qualité de l'audio. Deuxièmement, nous modélisons notre système par une file M/G/1/K. Nous considérons deux aspects qui peuvent contribuer à améliorer la qualité de l'audio: (a) multiplexer l'audio avec un flux exogène, et (b) des fonctions d'utilité non-linéaires. Sous ces contraintes, on montre qu il est possible d'améliorer la qualité de l'audio avec la méthode FEC étudiée. Le deuxième sujet traité concerne les mécanismes de contrôle du délai de diffusion. Nous proposons un ensemble d'algorithmes de moyenne mobile permettant de contrôler le taux de pertes dans une session audio. Les performances de nos algorithmes ont été évaluées et comparées grâce à des traces réelles. Le troisième sujet abordé concerne les protocoles de type AIMD. Nous proposons un modèle analytique, prenant en compte la variabilité du délai. Notre modèle utilise des équations de différences stochastiques. Il fournit une expression close pour le débit et pour la taille de la fenêtre. Nous montrons, par analyse et par simulation, qu'une augmentation de la variabilité du délai améliore les performances d'un protocole AIMD.
66

Large Scale Content Delivery applied to Files and Videos

Neumann, Christoph 14 December 2005 (has links) (PDF)
Le multicast fiable est certainement la solution la plus efficace pour la distribution de contenu via un<br />tres grand nombre (potentiellement des millions) de recepteurs. Dans cette perspective les protocoles<br />ALC et FLUTE, standardises via l'IETF (RMT WG), ont ete adoptes dans 3GPP/MBMS et dans le<br />DVB-H IP-Datacast dans les contextes des reseaux cellulaires 3G.<br />Ce travail se concentre sur le multicast fiable et a comme requis principal le passage l'echelle massif<br />en terme de nombre de clients. Cette these se base sur les solutions proposees via l'IETF RMT WG.<br />Ces protocoles de multicast fiable sont construit autour de plusieurs briques de base que nous avons<br />etudie en detail:<br />* La brique Forward Error Correction (FEC) :<br />Nous examinons la classe de codes grands blocs Low Density Parity Check (LDPC). Nous concevons<br />des derivees de ces codes, et les analysons en detail. Nous en concluons que les codes<br />LDPC et leur implementation ont des performances tres prometteuses, surtout si ils sont utilisees<br />avec des fichiers de taille importante.<br />* La brique controle de congestion :<br />Nous examinons le comportement dans la phase de demarrage de trois protocoles de controle de<br />congestion RLC, FLID-SL, WEBRC. Nous demontrons que la phase de demarrage a un grand<br />impact sur les performances de telechargement.<br />Cette these a aussi plusieurs contributions au niveau applicatif:<br />* Extensions de FLUTE :<br />Nous proposons un mecanisme permettant d'agreger plusieurs fichiers dans le protocole FLUTE.<br />Ceci ameliore les performance de transmission.<br />* Streaming video :<br />Nous proposons SVSoA, une solution de streaming base sur ALC. Cette approche beneficie de<br />tout les avantages de ALC en terme de passage a l'echelle, controle de congestion et corrections<br />d'erreurs.<br /><br />Mots cles : Multicast fiable, FLUTE, ALC, codes correcteur d'erreurs, Forward Error Correction<br />(FEC), Low Density Parity Check (LDPC) Codes, diffusion de contenu
67

Codes AL-FEC hautes performances pour les canaux à effacements : variations autour des codes LDPC

Cunche, Mathieu 01 March 2010 (has links) (PDF)
Nous assistons au développement rapide des solutions de diffusion de contenus sur des systèmes, où en plus des traditionnelles corruptions de l'information dans les couches basses, se pose le problème des pertes de paquets d'informations. Le besoin de fiabiliser ces systèmes de transmission a conduit à l'émergence de codes correcteurs d'effacements, qui grâce à l'ajout d'informations redondantes, permettent de reconstruire l'information perdue. Dans cette thèse nous abordons le problème de la conception de codes à effacements ayant de bonnes capacités de correction et dont les algorithmes de décodage possèdent une complexité permettant d'atteindre des débits élevés. Pour cela, nous avons choisi de travailler conjointement sur les codes et sur leur implémentation au sein d'un codec logiciel, et plus particulièrement sur les algorithmes de décodage. La première partie de nos travaux montre que des solutions basées sur les codes “Low-Density Parity-Check” (LDPC) permettent d'obtenir d'excellents résultats. En particulier lorsque ces codes sont décodés avec un décodeur hybride IT/ML qui permet d'obtenir des capacités de corrections proches de l'optimal, tout en conservant une complexité acceptable. De plus, nous montrons que grâce à l'utilisation de codes LDPC structurés la complexité du décodage ML peut être largement réduite. Nous étudions ensuite le développement de systèmes combinant un code à effacements et des fonctionnalités cryptographiques. Les systèmes résultants permettent de réduire la complexité globale du système tout en garantissant un niveau de sécurité élevé. Finalement, nous présentons une technique de tolérance aux fautes basée sur des codes correcteurs pour des applications de multiplications matricielles. Cette technique nous permet de construire un système de calcul distribué sur plateforme P2P tolérant efficacement aussi bien les pannes franches que les erreurs malicieuses.
68

Low-density Parity-Check decoding Algorithms / Low-density Parity-Check avkodare algoritm

Pirou, Florent January 2004 (has links)
<p>Recently, low-density parity-check (LDPC) codes have attracted much attention because of their excellent error correcting performance and highly parallelizable decoding scheme. However, the effective VLSI implementation of and LDPC decoder remains a big challenge and is a crucial issue in determining how well we can exploit the benefits of the LDPC codes in the real applications. In this master thesis report, following a error coding background, we describe Low-Density Parity-Check codes and their decoding algorithm, and also requirements and architectures of LPDC decoder implementations.</p>
69

Scalable Video Transport over IP Networks

Fan, Dian 04 August 2010 (has links)
With the advances in video compression and networking techniques, the last ten years have witnessed an explosive growth of video applications over the Internet. However, the service model of the current best-effort network was never engineered to handle video traffic and, as a result, video applications still suffer from varying and unpredictable network conditions, in terms of bandwidth, packet loss and delay. To address these problems, a lot of innovative techniques have been proposed and researched. Among them, scalable video coding is a promising one to cope with the dynamics of the available bandwidth and heterogeneous terminals. This work aims at improving the efficacy of scalable video transport over IP networks. In this work, we first propose an optimal interleaving scheme combined with motion-compensated fine granularity scalability video source coding and unequal loss protection schemes, under an imposed delay constraint. The network is modeled as a packet-loss channel with random delays. The motion compensation prediction, ULP allocation and the depth of the interleaver are jointly optimized based on the network status and the delay constraint. We then proceed to investigate the multiple path transport technique. A unified approach which incorporates adaptive motion compensation prediction, multiple description coding and unequal multiple path allocation, is proposed to improve both the robustness and error resilience property of the video coding and transmission system, while the delivered video quality is improved simultaneously. To analytically investigate the efficacy of error resilient transport schemes for progressively encoded sources, including unequal loss protection, best-effort and FEC transport schemes, we develop evaluation and optimization approaches for these transport schemes. In this part of the work, the network is modeled as an M/D/1/K queue, and then a comprehensive queueing analysis is provided. Armed with these results, the efficacy of these transport schemes for progressively encoded sources are investigated and compared.
70

Low-density Parity-Check decoding Algorithms / Low-density Parity-Check avkodare algoritm

Pirou, Florent January 2004 (has links)
Recently, low-density parity-check (LDPC) codes have attracted much attention because of their excellent error correcting performance and highly parallelizable decoding scheme. However, the effective VLSI implementation of and LDPC decoder remains a big challenge and is a crucial issue in determining how well we can exploit the benefits of the LDPC codes in the real applications. In this master thesis report, following a error coding background, we describe Low-Density Parity-Check codes and their decoding algorithm, and also requirements and architectures of LPDC decoder implementations.

Page generated in 0.4093 seconds