• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 194
  • 124
  • 81
  • Tagged with
  • 413
  • 193
  • 159
  • 156
  • 155
  • 152
  • 145
  • 145
  • 144
  • 81
  • 79
  • 62
  • 57
  • 53
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

A contribution to the evaluation and optimization of networks reliability

Rebaiaia, Mohamed-Larbi 18 April 2018 (has links)
L’évaluation de la fiabilité des réseaux est un problème combinatoire très complexe qui nécessite des moyens de calcul très puissants. Plusieurs méthodes ont été proposées dans la littérature pour apporter des solutions. Certaines ont été programmées dont notamment les méthodes d’énumération des ensembles minimaux et la factorisation, et d’autres sont restées à l’état de simples théories. Cette thèse traite le cas de l’évaluation et l’optimisation de la fiabilité des réseaux. Plusieurs problèmes ont été abordés dont notamment la mise au point d’une méthodologie pour la modélisation des réseaux en vue de l’évaluation de leur fiabilités. Cette méthodologie a été validée dans le cadre d’un réseau de radio communication étendu implanté récemment pour couvrir les besoins de toute la province québécoise. Plusieurs algorithmes ont aussi été établis pour générer les chemins et les coupes minimales pour un réseau donné. La génération des chemins et des coupes constitue une contribution importante dans le processus d’évaluation et d’optimisation de la fiabilité. Ces algorithmes ont permis de traiter de manière rapide et efficace plusieurs réseaux tests ainsi que le réseau de radio communication provincial. Ils ont été par la suite exploités pour évaluer la fiabilité grâce à une méthode basée sur les diagrammes de décision binaire. Plusieurs contributions théoriques ont aussi permis de mettre en place une solution exacte de la fiabilité des réseaux stochastiques imparfaits dans le cadre des méthodes de factorisation. A partir de cette recherche plusieurs outils ont été programmés pour évaluer et optimiser la fiabilité des réseaux. Les résultats obtenus montrent clairement un gain significatif en temps d’exécution et en espace de mémoire utilisé par rapport à beaucoup d’autres implémentations. Mots-clés: Fiabilité, réseaux, optimisation, diagrammes de décision binaire, ensembles des chemins et coupes minimales, algorithmes, indicateur de Birnbaum, systèmes de radio télécommunication, programmes. / Efficient computation of systems reliability is required in many sensitive networks. Despite the increased efficiency of computers and the proliferation of algorithms, the problem of finding good and quickly solutions in the case of large systems remains open. Recently, efficient computation techniques have been recognized as significant advances to solve the problem during a reasonable period of time. However, they are applicable to a special category of networks and more efforts still necessary to generalize a unified method giving exact solution. Assessing the reliability of networks is a very complex combinatorial problem which requires powerful computing resources. Several methods have been proposed in the literature. Some have been implemented including minimal sets enumeration and factoring methods, and others remained as simple theories. This thesis treats the case of networks reliability evaluation and optimization. Several issues were discussed including the development of a methodology for modeling networks and evaluating their reliabilities. This methodology was validated as part of a radio communication network project. In this work, some algorithms have been developed to generate minimal paths and cuts for a given network. The generation of paths and cuts is an important contribution in the process of networks reliability and optimization. These algorithms have been subsequently used to assess reliability by a method based on binary decision diagrams. Several theoretical contributions have been proposed and helped to establish an exact solution of the stochastic networks reliability in which edges and nodes are subject to failure using factoring decomposition theorem. From this research activity, several tools have been implemented and results clearly show a significant gain in time execution and memory space used by comparison to many other implementations. Key-words: Reliability, Networks, optimization, binary decision diagrams, minimal paths set and cuts set, algorithms, Birnbaum performance index, Networks, radio-telecommunication systems, programs.
302

Wireless optoelectronic interface enabling brain fiber photometry in live animal models

Noormohammadi Khiarak, Mehdi 23 April 2019 (has links)
La biophotométrie sur fibre est une technique puissante utilisée en neuroscience pour surveiller les fluctuations dynamiques des niveaux de calcium en corrélation avec des événements neuronaux, tels que la génération de potentiel d’action, l’exocytose de neurotransmetteurs, des modifications de la plasticité synaptique et la transcription de gènes dans les structures cérébrales profondes d’animaux de laboratoire vivants. Cette approche permet également d’étudier la corrélation entre les processus neuronaux et le comportement de modèles animaux vivants afin de percer les mystéres du cerveaux et de nombreuses maladies comme la maladie d’Alzheimer. Les appareils de biophotométrie sur fibre de table classiques utilisent une fibre optique attachée pour émettre de la lumière et récupérer les signaux de fluorescence, ce qui présente un risque de rupture, de contrainte et de blessure potentielle. Ces systèmes sont également encombrants et nécessitent des tensions de fonctionnement élevées. Par conséquent, leur utilité dans les études sur des animaux vivants est limitée. Le but de ce projet est de mettre en place une interface neuronale optique sans fil pour effectuer la détection de fluorescence avec des modèles animaux vivants sans restreindre leurs mouvements ni induire de stress dû au câble. Nous avons conçu un système de biophotométrie par fibre optique sans fil légère et compacte pour une utilisation chronique basée sur un capteur de fluorescence CMOS (Complementary Metal-Oxide- Semiconductor) intégré offrant une sensibilité élevée, une plage dynamique élevée et une consommation d’énergie très faible. Le système de biophotométrie à fibre présenté incorpore tous les aspects d’un système de biophotométrie à fibres englobé dans un sans fil. Les principales contributions de ce travail ont été rapportées dans neuf conférences et trois articles de journaux publiés ou soumis, ainsi que dans une divulgation d’invention. Les mesures de biophotométrie en fluorescence nécessitent un appareil de laboratoire à large plage dynamique (DR) et à haute sensibilité. Cependant, il est souvent très difficile de mesurer avec précision les petites variations de fluorescence en présence de bruit et d’autofluorescence de tissu de fond élevée. Une contribution importante de ce travail concerne le développement de biocapteurs optoélectroniques CMOS intégrés sur mesure et de circuits de traitement permettant de détecter les signaux de fluorescence très faibles et de les convertir en codes numériques de haute précision, afin de construire des dispositifs de détection du cerveau montables sur la tête de souris de laboratoire, très compacts et légers. Nous avons conçu une première puce de biocapteur CMOS haute précision offrant une plage de tension de fonctionnement basse, une basse consommation, une haute sensibilité et une gamme dynamique élevée basée sur une architecture basse tension intégrant un circuit frontal à détection différentielle avec heure [sigma delta] modulation avec un amplificateur de transconductance capacitif différentiel (ATCCD). / Ce nouveau système offre une mise en oeuvre simplifiée ainsi qu’une architecture à faible consommation utilisant une stratégie de partage du matériel. La détection différentielle et les photodiodes factices avec le ATCCD permettent d’atteindre une sensibilité élevée en supprimant les dark current de la photodiode, en utilisant un petit condensateur d’intégration dans le ATCCD. Les résultats de mesure sont présentés pour le capteur de biophotométrie proposé, fabriqué avec une technologie CMOS de 0.18 mm, consommant 41 mWd’une tension d’alimentation de 1.8 V, tout en atteignant une gamme dynamique maximale de 86 dB, une bande passante de 50 Hz, une sensibilité de 24 mV/nW et un courant minimum détectable de 2.6-pArms à un taux d’échantillonnage de 20 kS/s. Un autre défi critique pour un système de photométrie à fibre pour petits animaux concerne la gestion de la consommation de courant importante nécessaire à la source de lumière d’excitation pour fournir une puissance de sortie de lumière suffisante au tissu afin de déclencher la fluorescence. Par conséquent, des impulsions lumineuses d’excitation courtes doivent être utilisées par rapport à la période d’échantillonnage du signal de fluorescence (>10 ms), afin de réduire la consommation de courant moyenne et d’allonger la durée de vie de la batterie. Pour répondre à cette exigence critique, nous avons amélioré notre conception avec un deuxième prototype de biocapteur utilisant de nouvelles techniques de circuit pour offrir une sensibilité élevée et une plage dynamique élevée avec un temps de conversion réduit permettant l’utilisation d’impulsions lumineuses à cycle de fonctionnement réduit et de consommation faible. Le biocapteur est basé sur un convertisseur analogique-numérique (CAN) à comptage étendu, et un convertisseur analogique-numérique de premier ordre SD, dont le fonctionnement est synchronisé avec les impulsions lumineuses d’excitation. Le biocapteur présente une gamme dynamique de 104 dB à un temps de conversion de 3 % de la période d’échantillonnage du signal de fluorescence et réduit la consommation électrique de la DEL de 97 %. Un dernier aspect critique concerne la flexibilité du biocapteur pour effectuer des tests fiables in vivo. Réaliser un test pratique in vivo nécessite d’ajuster la sensibilité du biocapteur et la puissance de sortie de la DEL du biocapteur afin de s’adapter à différents niveaux de fluorescence et différents environnements physiologiques à l’intérieur des tissus de l’animal vivant. Ainsi, nous avons conçu un troisième biocapteur incorporant une sensibilité et un temps de conversion programmables afin d’optimiser la consommation d’énergie de DEL et de permettre un très faible facteur de fonctionnement excitation/détection. Cette toute nouvelle architecture de capteurs utilise un CAN à temps discret [sigma delta] avec une technique de double échantillonnage numérique corrélée permettant la détection de photocourants inférieurs à 1 pArms. Cette conception a été utilisée comme module de base pour développer un prototype de headstage sans fil. Nous avons mis en place et testé in vitro avec succès ce système de biophotométrie à fibre, qui comprend la puce de biocapteur proposée, avec une tranche de cerveau de souris exprimant GCaMP6, un indicateur de calcium génétiquement codé. / Fiber biophotometry is a powerful technique in neuroscience to monitor the dynamic fluctuations in calcium levels correlated with neural events, such as action potential generation, exocytosis of neurotransmitters, changes in synaptic plasticity, and gene transcription in deep brain structures in live laboratory animals. This approach allows studying the correlation between neuronal processes and the behavior of live animal models in order to learn more about the brain function and its associated diseases. Conventional bench-top fiber biophotometry apparatus use a tethered optical fiber to deliver light and to retrieve fluorescence signals, which involves risk of breakage, stress, and potential injury. These systems are also bulky and require high operating voltages. Therefore, their usefulness to conduct studies with live animals is limited. The goal of this project is to implement a wireless optical neural interface to perform fluorescence sensing with live animal models without restraining their movement or inducing stress due to cable tethering. We designed a lightweight and compact size wireless fiber biophotometry headstage for chronic utilization based on a custom integrated Complementary Metal-Oxide-Semiconductor (CMOS) fluorescence sensor providing high-sensitivity, high-dynamic range, and very low-power consumption. The presented head-mountable fiber biophotometry system incorporates all aspects of a conventional tethered fiber-based biophotometry system encompassed into a wireless headstage. The main contributions of this work were reported in nine conferences and three journal papers published or submitted, and in one invention disclosure. Fluorescence biophotometry measurements require wide dynamic range (DR) and high-sensitivity laboratory apparatus. But, it is often very challenging to accurately resolve the small fluorescence variations in presence of noise and high background tissue autofluorescence. An important contribution of this work concerns the development of custom integrated CMOS optoelectronic biosensors and processing circuits to detect very weak fluorescence signals, and to convert them into high-precision digital codes, for building very compact and lightweight head-mountable brain sensing devices for laboratory mice. We first designed a high-precision CMOS biosensor chip providing low operating voltage, low-power, high-sensitivity, and high-dynamic range based on a low-voltage architecture that embeds a differential sensing front-end circuitry with a continuous-time [sigma delta] modulation with a differential capacitive transconductance amplifier (DCTIA). This novel system offers a simplified implementation as well as a low-power architecture leveraging a hardware sharing strategy. Differential sensing and dummy photodiodes with the DCTIA enables to achieve high-sensitivity by suppressing the photodiode dark currents and using a small integration capacitor in the DCTIA. Measurement results are presented for the proposed biophotometry sensor fabricated in a 0.18-mm CMOS technology, consuming 41 mW from a 1.8-V supply voltage, while achieving a peak dynamic range of 86 dB over a 50-Hz input bandwidth, a sensitivity of 24 mV/nW and a minimum detectable current of 2.46-pArms at a 20-kS/s sampling rate. / Another critical challenge for a head-mountable fiber photometry system is when handling the large current consumption needed for the excitation light source to provide sufficient light output power to the tissue in order to trigger fluorescence. Hence, short excitation light pulses must be used, relative to the sampling period of the fluorescence signal (>10 ms), in order to decrease the average current consumption, and extend the battery lifetime. To address this critical requirement, we improved our design with a second biosensor prototype using novel circuit techniques to provide high-sensitivity and a high-dynamic range with a short conversion time to allow the utilization of low-duty cycle light pulses and low-power consumption. The biosensor is based on an extended counting ADC, first-order [sigma delta] and single slope ADC, whose operation is synchronized with the excitation light pulses. The biosensor presents a high-dynamic range of 104 dB at a conversion time of 3 % of the fluorescence signal sampling period and decreases the power consumption of the excitation light source by 97%. A last critical aspect concerns the flexibility of the biosensor to perform reliable tests in-vivo. Performing a practical test in-vivo requires to adjust the biosensor sensitivity and the excitation light source output power of the biosensor to adapt to different fluorescence levels and different physiological environments inside the live animal tissues. Thus, we designed a third biosensor incorporating a programmable sensitivity and a programmable conversion time to optimize the excitation light power consumption, and to enable very low excitation/sensing duty cycle. This completely new sensor architecture utilizes a discrete time SD ADC with digital correlated double sampling technique enabling detection of low photocurrents as low as 1 pArms. This design was used as a core module to develop a wireless head-mountable optical headstage prototype. We have implemented and sucessfully tested this fiber photometry headstage, which includes the proposed biosensor chip, in-vitro with a mouse brain slice expressing GCaMP6, a genetically encoded calcium indicator.
303

L'imputabilité des services de renseignement au Canada : le Service canadien du renseignement de sécurité et le Centre de la sécurité des télécommunications

Breton, Julie 11 April 2018 (has links)
Ce mémoire analyse l'imputabilité du Service canadien de renseignement de sécurité et du Centre de la sécurité des télécommunications selon le modèle développé par les chercheurs Hans Born et Ian Leigh. Ce modèle comporte quatre niveaux d'analyse : le contrôle exercé au sein du service de renseignement, le rôle de l'exécutif dans le contrôle des services de renseignement, le rôle du Parlement dans la révision des services de renseignement et le rôle des entités indépendantes d'examen. Pour chacun de ces niveaux d'analyse, on retrouve un certain nombre d'indicateurs selon lesquels le niveau d'imputabilité du Service canadien du renseignement de sécurité et du Centre de la sécurité des télécommunications est analysé.
304

Auto-diagnostic actif dans les réseaux de télécommunications

Hounkonnou, Carole 12 July 2013 (has links) (PDF)
Les réseaux de télécommunications deviennent de plus en plus complexes, notamment de par la multiplicité des technologies mises en oeuvre, leur couverture géographique grandissante, la croissance du trafic en quantité et en variété, mais aussi de par l' évolution des services fournis par les opérateurs. Tout ceci contribue à rendre la gestion de ces réseaux de plus en plus lourde, complexe, génératrice d'erreurs et donc coûteuse pour les opérateurs. On place derrière le terme réseaux autonomiques l'ensemble des solutions visant à rendre la gestion de ce réseau plus autonome. L'objectif de cette thèse est de contribuer à la réalisation de certaines fonctions autonomiques dans les réseaux de télécommunications. Nous proposons une stratégie pour automatiser la gestion des pannes tout en couvrant les différents segments du réseau et les services de bout en bout déployés au-dessus. Il s'agit d'une approche basée modèle qui adresse les deux difficultés du diagnostic basé modèle, à savoir: a) la façon d'obtenir un tel modèle, adapté à un réseau donné à un moment donné, en particulier si l'on souhaite capturer plusieurs couches et segments réseau et b) comment raisonner sur un modèle potentiellement énorme, si l'on veut gérer un réseau national par exemple. Pour répondre à la première diffculté, nous proposons un nouveau concept : l'automodélisation, qui consiste d'abord à construire les différentes familles de modèles génériques, puis à identifier à la volée les instances de ces mod èles qui sont déployées dans le réseau géré. La seconde diffculté est adressée grâce à un moteur d'auto-diagnostic actif, basé sur le formalisme des réseaux Bayesiens et qui consiste à raisonner sur un fragment du modèle du réseau qui est augmenté progressivement en utilisant la capacite d'automodélisation: des observations sont collectées et des tests réalisés jusqu'à ce que les fautes soient localisées avec précision. Cette approche de diagnostic actif a été expérimentée pour réaliser une gestion multi-couches et multi-segments des alarmes dans un reseau IMS (IP Multimedia Subsystem).
305

Garantie de la qualité de service et évaluation de performance des réseaux de télécommunications

Tomasik, Joanna 04 January 2012 (has links) (PDF)
Notre recherche porte sur des méthodes pour garantir la QoS dans les réseaux filaires classiques, optiques, ad hoc et le réseau global Internet au niveau des domaines. Afin de valider les méthodes proposées, nous créons des modèles à partir des outils de la théorie des files d'attente. Nous étudions les méthodes analytiques et les méthodes numériques afin de traiter les générateurs de chaînes de Markov. Nous utilisons également dans nos études la simulation à évènements discrets. Le travail sur le réseau inter-domaine a nécessité le développement d'un outil pour la génération de topologies aléatoires avec une hiérarchie correspondant à celle observée dans l'Internet.
306

De l'impact d'une décision locale et autonome sur les systèmes de transport intelligent à différentes échelles / The impact of local and autonomous decision on intelligent transport systems at different scales

Lebre, Marie-Ange 25 January 2016 (has links)
Cette thèse présente des applications véhiculaires à différentes échelles : de la petite qui permet d'effectuer des tests réels de communication et de service ; à des plus grandes incluant plus de contraintes mais permettant des simulations sur l'ensemble du réseau. Dans ce contexte nous soulignons l'importance d'avoir et de traiter des données réelles afin de pouvoir interpréter correctement les résultats. A travers ces échelles nous proposons différents services utilisant la communication V2V et V2I. Nous ne prétendons pas prendre le contrôle du véhicule, notre but est de montrer le potentiel de la communication à travers différents services. La petite échelle se focalise sur un service à un feu de circulation permettant d'améliorer les temps de parcours et d'attente, et la consommation en CO2 et en carburant. La moyenne échelle se situant sur un rond-point, permet grâce à un algorithme décentralisé, d'améliorer ces mêmes paramètres, mais montre également qu'avec une prise de décision simple et décentralisée, le système est robuste face à la perte de paquet, à la densité, aux comportements humains ou encore aux taux d'équipement. Enfin à l'échelle d'une ville, nous montrons que grâce à des décisions prises de manière locale et décentralisée, avec seulement un accès à une information partielle dans le réseau, nous obtenons des résultats proches des solutions centralisées. La quantité de données transitant ainsi dans le réseau est considérablement diminuée. Nous testons également la réponse de ces systèmes en cas de perturbation plus ou moins importante tels que des travaux, un acte terroriste ou une catastrophe naturelle. Les modèles permettant une prise de décision locale grâce aux informations délivrées autour du véhicule montrent leur potentiel que se soit avec de la communication avec l'infrastructure V2I ou entre les véhicules V2V. / In this thesis we present vehicular applications across different scales: from small scale that allows real tests of communication and services; to larger scales that include more constraints but allowing simulations on the entire network. In this context, we highlight the importance of real data and real urban topology in order to properly interpret the results of simulations. We describe different services using V2V and V2I communication. In each of them we do not pretend to take control of the vehicle, the driver is present in his vehicle, our goal is to show the potential of communication through services taking into account the difficulties outlined above. In the small scale, we focus on a service with a traffic light that improves travel times, waiting times and CO2 and fuel consumption. The medium scale is a roundabout, it allows, through a decentralized algorithm, to improve the same parameters. It also shows that with a simple and decentralized decision-making process, the system is robust to packet loss, density, human behavior or equipment rate. Finally on the scale of a city, we show that local and decentralized decisions, with only a partial access to information in the network, lead to results close to centralized solutions. The amount of data in the network is greatly reduced. We also test the response of these systems in case of significant disruption in the network such as roadworks, terrorist attack or natural disaster. Models, allowing local decision thanks to information delivered around the vehicle, show their potential whatsoever with the V2I communication or V2V.
307

Optimisation du partage de ressources pour les réseaux cellulaires auto-organisés / Radio resource sharing optimisation for self-organized networks

Garcia, Virgile 30 March 2012 (has links)
Cette thèse s'intéresse aux problèmes d'allocations des ressources et de puissance dans les réseaux cellulaires de quatrième génération (4G). Pour faire face à la demande continuellement croissante en débit des utilisateurs mobiles, les opérateurs n'ont d'autre choix que de densifier leurs infrastructures d'accès au réseau radio (RAN), afin de maximiser l'utilisation de la bande passante disponible dans l'espace. Un des défis de cette nouvelle architecture est la coexistence de nombreuses cellules voisines et la gestion des interférences co-canal qu'elles génèrent entre elles. De telles contraintes ont amené la communauté scientifique à s'intéresser aux réseaux auto-organisés et auto-optimisés (SON), qui permettent aux réseaux de s'optimiser localement via des décisions décentralisées (sans planification statique). L'intérêt principal de tels réseaux est le passage à l'échelle des algorithmes distribués et la possibilité de s'adapter dynamiquement à de nouveaux environnements. Dans cette optique, nous proposons l'étude de deux problèmes d'allocation de ressources. La première partie de cette thèse se concentre sur l'optimisation de l'usage des ressources, dans un contexte de transmission coordonnée par plusieurs stations de base (CoMP). Les performances de la coordination de stations de base sont évaluées, selon le critère de capacité uniforme, ainsi que le compromis entre l'efficacité spectrale et l'équité entre les utilisateurs. Nous proposons également une méthode généralisée et distribuée de sélection de l'ensemble de stations en coopération, afin d'optimiser le compromis efficacité-équité. Dans une seconde partie, nous nous intéressons à l'optimisation de l'allocation des ressources et de puissance, dans le but de minimiser la consommation électrique du réseau. Nous présentons deux algorithmes dont les décisions sont décentralisées. Le premier est basé sur une optimisation stochastique (via l'échantillonneur de Gibbs) et permet une optimisation globale du système. Le second quant à lui est basé sur l'adaptation de la théorie du contrôle et utilise des modèles prédictifs et la poursuite de cibles pour allouer les ressources et les puissances dans un contexte de canaux et d'interférences dynamiques. Dans de nombreux cas, plusieurs objectifs concurrents sont à considérer pour évaluer les performances d'un réseau (capacité totale, équité, consommation électrique, etc.). Dans le cadre de cette thèse, nous nous efforçons à présenter les résultats sous la forme de compromis multi-objectifs. / This thesis focuses on resources and power allocation problem in the fourth generation (4G) of cellular networks. To face the continuous growth of mobile users capacity requirements, operators need to densify their radio access network (RAN) infrastructure, to maximize the use of the available bandwidth in space. One of the major issues of this new architecture is the proximity of many base stations (BS) and the management of the interference they generate on each other's cell. Such constraints makes scientific community focus on Self-Optimized, Self-Organized Networks (SON) that allow network elements to optimize them-selves through decentralized decisions (no static network planning is required). A major interest of SON is their capability to scale to large and non-organized networks, as well as being able to adapt them-selves dynamically, by using distributed algorithms. In this context, this thesis proposes the study of two resource allocation problems. The first part of this thesis focuses on the optimisation of resource sharing, in the context of coordinated multi-points transmissions (CoMP). Performances of BS coordination are evaluated, using the uniform capacity criterion, as well as the trade-off between total capacity and fairness among users. We also propose a generalized and distributed method to select the set of coordination of BS, to optimize the capacity-fairness trade-off. In the second part of this thesis, we focus on optimizing the transmit power and resource allocation, in order to reduce electric consumption. We present two distributed algorithms: the first one is based on a stochastic optimisation (using Gibbs sampling), and tries to reach the global optimum state through decentralized decision. The second one is based on control theory, and uses target tracking as well as model predictive control to allocate resources and power in a dynamic channel scenario. In many cases, trade-offs are to be maid between opposite objectives when evaluating network performances (total throughput, fairness, energy consumption, etc.). In this thesis, we present most of the network performances using multi-objectives evaluations.
308

Modeling future all-optical networks without buffering capabilities

De Vega Rodrigo, Miguel 27 October 2008 (has links)
In this thesis we provide a model for a bufferless optical burst switching (OBS) and an optical packet switching (OPS) network. The thesis is divided in three parts. <p><p>In the first part we introduce the basic functionality and structure of OBS and OPS networks. We identify the blocking probability as the main performance parameter of interest. <p><p>In the second part we study the statistical properties of the traffic that will likely run through these networks. We use for this purpose a set of traffic traces obtained from the Universidad Politécnica de Catalunya. Our conclusion is that traffic entering the optical domain in future OBS/OPS networks will be long-range dependent (LRD). <p><p>In the third part we present the model for bufferless OBS/OPS networks. This model takes into account the results from the second part of the thesis concerning the LRD nature of traffic. It also takes into account specific issues concerning the functionality of a typical bufferless packet-switching network. The resulting model presents scalability problems, so we propose an approximative method to compute the blocking probability from it. We empirically evaluate the accuracy of this method, as well as its scalability. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
309

Approches paramétriques pour le codage audio multicanal

Lapierre, Jimmy January 2007 (has links)
Résumé : Afin de répondre aux besoins de communication et de divertissement, il ne fait aucun doute que la parole et l’audio doivent être encodés sous forme numérique. En qualité CD, cela nécessite un débit numérique de 1411.2 kb/s pour un signal stéréo-phonique. Une telle quantité de données devient rapidement prohibitive pour le stockage de longues durées d’audio ou pour la transmission sur certains réseaux, particulièrement en temps réel (d’où l’adhésion universelle au format MP3). De plus, ces dernières années, la quantité de productions musicales et cinématographiques disponibles en cinq canaux et plus ne cesse d’augmenter. Afin de maintenir le débit numérique à un niveau acceptable pour une application donnée, il est donc naturel pour un codeur audio à bas débit d’exploiter la redondance entre les canaux et la psychoacoustique binaurale. Le codage perceptuel et plus particulièrement le codage paramétrique permet d’atteindre des débits manifestement inférieurs en exploitant les limites de l’audition humaine (étudiées en psychoacoustique). Cette recherche se concentre donc sur le codage paramétrique à bas débit de plus d’un canal audio. // Abstract : In order to fulfill our communications and entertainment needs, there is no doubt that speech and audio must be encoded in digital format. In"CD" quality, this requires a bit-rate of 1411.2 kb/s for a stereo signal. Such a large amount of data quickly becomes prohibitive for long-term storage of audio or for transmitting on some networks, especially in real-time (leading to a universal adhesion to the MP3 format). Moreover, throughout the course of these last years, the number of musical and cinematographic productions available in five channels or more continually increased.In order to maintain an acceptable bit-rate for any given application, it is obvious that a low bit-rate audio coder must exploit the redundancies between audio channels and binaural psychoacoustics. Perceptual audio coding, and more specifically parametric audio coding, offers the possibility of achieving much lower bit-rates by taking into account the limits of human hearing (psychoacoustics). Therefore, this research concentrates on parametric audio coding of more than one audio channel.
310

Amélioration de codecs audio standardisés avec maintien de l'interopérabilité

Lapierre, Jimmy January 2016 (has links)
Résumé : L’audio numérique s’est déployé de façon phénoménale au cours des dernières décennies, notamment grâce à l’établissement de standards internationaux. En revanche, l’imposition de normes introduit forcément une certaine rigidité qui peut constituer un frein à l’amélioration des technologies déjà déployées et pousser vers une multiplication de nouveaux standards. Cette thèse établit que les codecs existants peuvent être davantage valorisés en améliorant leur qualité ou leur débit, même à l’intérieur du cadre rigide posé par les standards établis. Trois volets sont étudiés, soit le rehaussement à l’encodeur, au décodeur et au niveau du train binaire. Dans tous les cas, la compatibilité est préservée avec les éléments existants. Ainsi, il est démontré que le signal audio peut être amélioré au décodeur sans transmettre de nouvelles informations, qu’un encodeur peut produire un signal amélioré sans ajout au décodeur et qu’un train binaire peut être mieux optimisé pour une nouvelle application. En particulier, cette thèse démontre que même un standard déployé depuis plusieurs décennies comme le G.711 a le potentiel d’être significativement amélioré à postériori, servant même de cœur à un nouveau standard de codage par couches qui devait préserver cette compatibilité. Ensuite, les travaux menés mettent en lumière que la qualité subjective et même objective d’un décodeur AAC (Advanced Audio Coding) peut être améliorée sans l’ajout d’information supplémentaire de la part de l’encodeur. Ces résultats ouvrent la voie à davantage de recherches sur les traitements qui exploitent une connaissance des limites des modèles de codage employés. Enfin, cette thèse établit que le train binaire à débit fixe de l’AMR WB+ (Extended Adaptive Multi-Rate Wideband) peut être compressé davantage pour le cas des applications à débit variable. Cela démontre qu’il est profitable d’adapter un codec au contexte dans lequel il est employé. / Abstract : Digital audio applications have grown exponentially during the last decades, in good part because of the establishment of international standards. However, imposing such norms necessarily introduces hurdles that can impede the improvement of technologies that have already been deployed, potentially leading to a proliferation of new standards. This thesis shows that existent coders can be better exploited by improving their quality or their bitrate, even within the rigid constraints posed by established standards. Three aspects are studied, being the enhancement of the encoder, the decoder and the bit stream. In every case, the compatibility with the other elements of the existent coder is maintained. Thus, it is shown that the audio signal can be improved at the decoder without transmitting new information, that an encoder can produce an improved signal without modifying its decoder, and that a bit stream can be optimized for a new application. In particular, this thesis shows that even a standard like G.711, which has been deployed for decades, has the potential to be significantly improved after the fact. This contribution has even served as the core for a new standard embedded coder that had to maintain that compatibility. It is also shown that the subjective and objective audio quality of the AAC (Advanced Audio Coding) decoder can be improved, without adding any extra information from the encoder, by better exploiting the knowledge of the coder model’s limitations. Finally, it is shown that the fixed rate bit stream of the AMR-WB+ (Extended Adaptive Multi-Rate Wideband) can be compressed more efficiently when considering a variable bit rate scenario, showing the need to adapt a coder to its use case.

Page generated in 0.1216 seconds