• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 193
  • 123
  • 81
  • Tagged with
  • 411
  • 193
  • 159
  • 156
  • 155
  • 152
  • 145
  • 145
  • 144
  • 81
  • 79
  • 61
  • 57
  • 53
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Transport des données et gestion de la congestion dans l'Internet de demain : du contrôle à l'anarchie

Lochin, Emmanuel 20 October 2011 (has links) (PDF)
Le monde du transport est en pleine révolution conceptuelle. Bien qu'ayant assisté au cours de ces dernières années à la naissance de nouveaux contrôles de congestion, dont certains ont été déployés de façon virale, l'universalité d'une solution protocolaire n'existe toujours pas. Plusieurs travaux s'accordent sur le fait que la couche transport a grandement besoin d'évoluer et les nouveaux défis engendrés par l'évolution des réseaux et usages de l'Internet ont pris le pas sur le problème originel de l'effondrement des ressources que devait prévenir le contrôle de congestion de la couche transport. Certains remettent d'ailleurs en question le découpage du modèle OSI et proposent de restructurer complétement la couche transport ; d'autres soulignent l'obsolescence du concept d'effondrement du réseau ou considèrent l'équité comme un critère irréaliste et impraticable. C'est dans ce contexte que cette habilitation explore plusieurs solutions protocolaires pour la couche transport, principalement pour le monde du best-effort, en partant des réseaux à QoS jusqu'aux réseaux anarchiques. Le principal problème de la couche transport n'est pas qu'elle doit évoluer : c'est comment la faire évoluer, c'est-à-dire, sans avoir à convaincre les concepteurs de systèmes d'exploitation. Aussi, nous étudions des approches qui ne rentreraient pas sous la tutelle de ces derniers et qui resteraient, autant que possible, indépendantes d'un déploiement de mécanisme collaboratif dans le coeur du réseau.
182

Un Eco-système de Médias Réseaux basé sur la Conscience du Contexte, du Réseau et du Contenu à destination de l'Internet Media du Futur

Négru, Daniel 05 December 2013 (has links) (PDF)
La tendance et l'absolu nécessité d'aujourd'hui est de construire l'Internet du futur. De nombreuses actions de recherche sont menées dans ce sens et la plupart d'entre elles décrivent le domaine des médias comme l'un des plus prédominants et essentiels à prendre en considération. En effet, le contenu média est déjà dominant sur Internet et ne cesse d'augmenter alors que l'architecture actuelle n'avait pas été construite avec les médias en tête. La diffusion efficace de contenu multimédia devient maintenant une évolution nécessaire non seulement pour plaire aux utilisateurs finaux, mais aussi pour révéler de nouvelles opportunités d'affaires pour tous les acteurs de la chaîne de valeur. Dans cette thèse, nous proposons une nouvelle architecture pour l'avenir des réseaux de médias Internet, centrée autour du concept d'une approche collaborative gagnant-gagnant entre tous les acteurs. Le "Networked Media écosystème" que nous nous efforçons de construire permettra de nouvelles fonctionnalités et des avantages pour toutes les parties prenantes, essentiellement grâce à l'innovation basée sur la prise de conscience qu'il permet et leurs résultats en termes d'amélioration de la qualité et de l'adaptation. L'approche proposée repose sur: (1) une couche Home-Box virtuelle, qui d'une part prend en compte le Contexte et le Réseau au niveau de l'Application afin de permettre un système de diffusion de contenu efficace et, d'autre part, fournit des informations pour mettre en œuvre la conscience du contenu au niveau du Réseau; (2) une couche réseau basée sur le Contenu (CAN), dont le rôle est d'examiner les informations relatives au contenu transporté et de prendre les mesures appropriées, en plus de fournir de l'information aux couches supérieures. L'architecture proposée n'a pas seulement été conçue et simulée, mais aussi mise en œuvre et validée par le projet européen nommé ALICANTE. Ce projet a permis de fournir des résultats intéressants et a ouvert la voie à des évolutions et des orientations futures de la recherche dans le domaine des Réseaux de Média.
183

Plan de connaissance pour les réseaux sémantiques : application au contrôle d'admission

Ammar, Doreid 07 December 2012 (has links) (PDF)
Depuis quelques années, il y a un réel changement dans les usages des réseaux en termes d'applications véhiculées ainsi que dans leur nombre. On voit apparaître de plus en plus d'applications contraintes en termes de délai, comme par exemple la téléphonie sur IP, ainsi que d'applications gourmandes en ressources comme par exemple le Srteaming Video. La croissance en volume de ces applications copmmence à poser des problèmes de congestion dasn les réseaux filiares et sans fil. Les opérateurs réseaux doivent être capables d'absorber ces changements de trafic, de faire face à cette demande de plus en plus intensive en bande passante et de fournir une bonne qualité (QoS) aux applications. Cela nécessite des mécanismes intellignets en termes d'ordonnancement et de gestion des files d'attente, de contrôle d'admission, de contrôle de débit et/ou de routage. L'objectif initial de cette thèse étati d'aboutir à la conception d'une nouvelle architecture de traitement et de gestion du trafic et de la qualité de service pour le contrôle d'admission. Plus précisément nous présentons une nouvelle solution pour le contrôle d'admission qui repose sur l'élaboration en continu d'un plan de connaissance et sur la modélisatio automatique du comportement d'un lien réseau par une file d'attente monoserveur. Norte solution doit permettre d'offrir une garantie probabiliste d'un paramètre de performance QoS qui peut être le délai d'attente moyen des paquets dans le buffer du lien ou le taux de perte. Nous avons évalué les performances de notre nouveau contro^le d'admission par simulation en considérant diverses conditions possibles de trafic. Lers résultats obtenus indiquent que la solution proposée permet d'atteindre un contrôle d'admission ni trop conservateur, ni trop permissif. En outre, notre solution offre l'avantage de se baser uniquement sur une connaisssance acquise au cours du temps et permet ainsi de s'affranchir d'un paramétrage compliqué des paramètres comme c'est le cas pour les solutions classiques de contrôle d'admission
184

Enjeux de conception des architectures GPGPU : unités arithmétiques spécialisées et exploitation de la régularité

Collange, Sylvain 30 November 2010 (has links) (PDF)
Les processeurs graphiques (GPU) actuels offrent une importante puissance de calcul disponible à faible coût. Ce fait a conduit à détourner leur emploi pour réaliser du calcul non graphique, donnant naissance au domaine du calcul généraliste sur processeur graphique (GPGPU). Cette thèse considère d'une part des techniques logicielles pour tirer parti de l'ensemble des opérateurs arithmétiques spécifiques aux GPU dans le cadre du calcul scientifique, et d'autre part des adaptations matérielles aux GPU afin d'exécuter plus efficacement les applications généralistes. En particulier, nous identifions la régularité parallèle comme une opportunité d'optimisation des architectures parallèles, et exposons son potentiel par la simulation d'une architecture GPU existante. Nous considérons ensuite deux alternatives permettant d'exploiter cette régularité. D'une part, nous mettons au point un mécanisme matériel dynamique afin d'améliorer l'efficacité énergétique des unités de calcul. D'autre part, nous présentons une analyse statique opérée à la compilation permettant de simplifier le matériel dédié au contrôle dans les GPU.
185

Towards flexible QoS provisioning for inter-provider services

Bertrand, Gilles 08 December 2009 (has links) (PDF)
The issue of providing Quality of Service (QoS) in the Internet is becoming more and more important because of two phenomena: (1) the growth of the value added services that require QoS (e.g., VPNs, IPTV) and (2) network convergence towards a unified IP-based architecture, for voice, image and data services. In this context, the limitations of existing QoS technologies emerge: it is currently difficult for an operator to guarantee that its network can offer a specific level of service. Furthermore, it is hard to ensure a consistent treatment of end-to-end QoS-sensitive flow that cross networks controlled by several operators. Indeed, the control on such traffic flows is shared between all the traversed operators. In the thesis, we have studied these issues. Specifically, we have addressed the problems of routing and dynamic traffic engineering at inter-domain level. We have proposed several algorithmic solutions to compute paths subject to multiple performance constraints. Analytical studies and simulations show that our algorithms are efficient and scalable. Finally, we have integrated our solutions into an architecture that is under ongoing standardization by the IETF and we have studied the protocol adaptations required for the deployment of our algorithms. Our work represents an important step towards more effective inter-domain traffic management in traffic engineered networks
186

Analyse et génération de signaux dans les boucles optiques à décalage de fréquence : analogie spatiale et nouveaux concepts d'auto-imagerie / Signal analysis and generation in optical frequency shifting loops : spatial analogy and new self-imaging concepts

Schnebelin, Côme 01 October 2018 (has links)
Les techniques de génération et de traitement des signaux souffrent des limitations intrinsèques des systèmes électroniques : bande passante limitée, sensibilité aux interférences électromagnétiques, encombrement et coût. Au contraire, les systèmes optiques s’affranchissent naturellement de ces contraintes et sont potentiellement très attractifs pour la génération et le traitement des signaux. Au cours de cette thèse, nous avons étudié un système optique original utilisé pour la photonique micro-onde : les boucles à décalage de fréquence.Les propriétés temporelles de ces boucles présentent un parallèle frappant avec certaines propriétés de l’effet Talbot en optique spatiale. Cette dualité s’est révélée particulièrement riche au cours de ce travail, car elle nous a conduits à démontrer de nombreuses propriétés à la fois en optique temporelle dans les boucles à décalage de fréquence, mais aussi en optique spatiale dans des montages simples de diffraction.Nous avons ainsi mis en évidence la possibilité de calculer analogiquement la transformée de Fourier et la transformée de Fourier fractionnaire d’un signal arbitraire, avec une très bonne résolution spectrale. Ceci nous a permis de mesurer le taux de « chirp » d’un signal à modulation linéaire de fréquence, ou d’améliorer le rapport signal sur bruit de certains signaux. Nous avons également montré la possibilité de générer des trains d’impulsions avec un taux de répétition ajustable, et de faire de la mise en forme spectrale de haute résolution, en amplitude et en phase. Ce résultat permet de générer des signaux arbitraires optiques ou radiofréquences, avec des bandes passantes de plusieurs dizaines de GHz et des durées pouvant aller jusqu’à plusieurs dizaines de ns.La richesse de la dualité entre l’optique spatiale et les boucles à décalage de fréquence nous a conduits à réinterpréter un certain nombre de propriétés de l’effet Talbot (formation des images, auto-réparation des images de Talbot) et à proposer des concepts nouveaux, tels que le contrôle des images de Talbot (période et taille) ou l’amplification d’image. / Signal generation and processing techniques suffer from intrinsic limitations of electronic systems: limited bandwidth, sensitivity to electromagnetic interference, bulk and cost. On the contrary, optical systems naturally overcome these constraints and are potentially very attractive for the generation and processing of signals. During this thesis, we studied an original optical system used for microwave photonics: frequency shifting loops.The temporal properties of these loops have a strong link with some properties of the Talbot effect in spatial optics. This duality has been successful during this work, because it led us to demonstrate many properties both in time optics in the frequency shifting loops, and in spatial optics with simple diffraction setup.We have thus demonstrated the possibility of analogically calculating the Fourier transform and the fractional Fourier transform of an arbitrary signal, with a very good spectral resolution. This allowed us to measure the "chirp" rate of a linearly frequency modulated signal, or to improve the signal-to-noise ratio of some signals. We have also shown the possibility to generate pulse trains with an adjustable repetition rate, and to make spectral shaping of high resolution, in amplitude and phase. This result has been used to generate arbitrary optical or radiofrequency signals with bandwidths of several tens of GHz and durations of up to several tens of ns.The properties of the duality between spatial optics and frequency shifting loops led us to reinterpret a number of properties of the Talbot effect (image formation, self-healing of Talbot images) and to propose new concepts, such as control of Talbot images (period and size) or image amplification.
187

Digital predistortion and equalization of the non-linear satellite communication channel / Prédistorsion numérique et turbo-égalisation du canal de communication par satellite non-linéaire

Deleu, Thibault 14 November 2014 (has links)
In satellite communications, non-linear interference is created by the non-linear power amplifier aboard the satellite. Even in the case of a memoryless power amplifier, the channel is a non-linear system with memory due to the presence of linear filters on ground and aboard the satellite. The non-linear interference degrades the system performance, especially when considering high-order modulations or in case of several signals being amplified by the same power amplifier. In this thesis, we have proposed algorithms at the transmitter and at the receiver to digitally compensate this interference. In particular, a new predistortion algorithm has been proposed, which significantly improves state-of-the-art algorithms. Since the complexity of this algorithm is an issue, low-complexity algorithms have also been proposed and achieve almost the same performance as the initial algorithm. We have also proposed joint predistortion and turbo-equalization algorithms to further improve the system performance. / En communications par satellite, de l’interférence non-linéaire est créée par l’amplificateur de puissance non-linéaire à bord du satellite. Même si l’amplificateur peut être considéré comme sans mémoire, le canal est malgré tout un système non-linéaire avec mémoire de par la présence de filtres linéaires au sol ou à bord du satellite. L'interférence non-linéaire dégrade les performances du système, en particulier lorsqu’on considère des modulations d’ordre élevé ou plusieurs signaux amplifiés par le même amplificateur de puissance. Dans cette thèse, nous avons proposé des algorithmes à l’émetteur et au récepteur pour compenser numériquement cette interférence. En particulier, nous avons proposé un nouvel algorithme de prédistorsion qui améliore de façon significative les algorithmes de l’état-de-l’art. La complexité de l’algorithme étant très élevée, nous avons proposé des algorithmes de plus faible complexité atteignant pratiquement les mêmes performances par rapport à l’algorithme initial. Nous avons aussi proposé des algorithmes de prédistorsion et d’égalisation conjointes, permettant d'atteindre des performances plus élevées qu'avec la prédistorsion seule. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
188

Donner à voir, permettre d’agir. L’invention de l’interactivité graphique et du concept d’utilisateur en informatique et en télécommunications en France (1961-1990) / Give a view, allow to act. The invention of the graphical interactivity and user concept in computer science and telecommunications France (1961-1990)

Thierry, Benjamin G. 10 December 2013 (has links)
A la fin des années 1950, l’informatique n’a pas d’utilisateur. Elle a des clients, des concepteurs et des serviteurs, mais son utilisation n’a pas donné lieu à la mise en place d’une relation directe entre l’individu et la machine. C’est la parcellisation des tâches qui constitue la réponse principale à la complexité de fonctionnement des calculateurs. Ce n’est que durant la décennie 1960 qu’apparaît la nécessité d’équiper les premiers professionnels dont l’activité nécessite une utilisation personnelle de la puissance de traitement de l’ordinateur. Cette apparition est historiquement située dans le giron de l’aviation civile et fait naître dans le même mouvement les réflexions pionnières de l’ergonomie de l’informatique sur le rôle des interfaces dans la compréhension et l’utilisation du dispositif par son usager. L’informatique trouve alors l’occasion d’une accélération de sa diffusion et les dispositifs interactifs se multiplient. De la bureautique qui commence à envahir les bureaux à la télématique qui incarne une véritable « interactivité à la française » jusqu’à la micro-informatique qui voit triompher un régime d’interactivité américain organisé autour des icones, menus déroulants et de la souris, cette thèse de doctorat se propose d’éclairer la naissance et le rôle des interfaces graphiques et du concept d’utilisateur dans le développement des dispositifs interactifs en informatique et en télécommunications en France. / In the late 1950s, the computer has no user. Computing has customers, designers and servants, but its use has not resulted in the establishment of a direct relationship between the individual and the machine. It was only during the 1960s that appeared the need to equip the first professionals to use of the processing power of the computer. This appearance is historically situated in the civil aviation adminstration and created the first reflections in ergonomics on the role of interfaces in the understanding and use of the device by the user. The computer then finds the opportunity to accelerate its diffusion. From office automation to microcomputing via telematics wich represents a french way for interactivity, this doctoral thesis aims to explain the birth and the role of graphical user interfaces and user concept in the development of interactive devices in french computing and telecommunications.
189

Better regulation for convergence of the telecommunications and video industries / Une meilleure régulation pour la convergence des industries des télécommunications et de la vidéo

Diaz pines lópez de los mozos, Agustín 09 September 2016 (has links)
La thèse compare des approches de politique publique en France, le Royaume Uni et les Etats Unis sur la convergence des services de télécommunications et de télévision-vidéo et formule des recommandations de politique publique. Elle commence par des changements évidents que la convergence projette sur tout l’écosystème TIC et explique comment elle permet de changer la relation entre les opérateurs de télécom et les fournisseurs de contenu. La thèse propose de nouvelles idées dans plusieurs domaines de connaissance liées à la convergence des télécoms et télévision-vidéo, tels que les effets verticaux, les offres groupées, la neutralité du réseau et le rôle des fournisseurs OTT. D’un côté, elle formule des recommandations très précises sur le traitement futur de ces aspects dans le nouvel environnement convergent et, de l’autre côté, fournit un panorama général qui essaie de capter les tendances les plus importantes du phénomène de convergence.Le chapitre introductif formule la question de recherche et les sous-questions. Il établit également la raison pour laquelle ces questions sont pertinentes ainsi que la méthode à utiliser. Le Chapitre 2 sur les développements historiques, décrit les cadres réglementaires et de la concurrence présents et passés, par rapport à la concurrence dans les télécoms et la télévision-vidéo, dans les trois pays.Le Chapitre 3 sur les effets verticaux fournit une analyse comparée des décisions de régulation et du droit de la concurrence dans les services télévision payante et de la vidéo. Il va au delà de l’analyse des décisions des concentrations et inclut toutes les décisions de régulation et antitrust pertinentes de 1996 à 2015. Même si le chapitre couvre aussi une revue de la théorie économique sur les effets verticaux, appliquée aux marchés de la vidéo, il essaie d’identifier les différentes approches des autorités dans l’application de la théorie économique.Le Chapitre 4 porte sur les offres groupées 3-play et 4-play. La première partie se focalise sur la perception des consommateurs des offres groupées. Le chapitre utilise un modèle de prix hédoniques des offres 3-play et 4-play dans les trois pays. Un effort particulier a été fait pour développer des indicateurs de qualité plus sophistiqués pour le composant télévision payante. La deuxième partie porte sur les incitations des entreprises pour vendre des offres groupées en fonction de leurs indicateurs financiers principaux. Cette partie fournit une analyse préliminaire des incitations des opérateurs à fournir des offres groupées.Le Chapitre 5 sur la neutralité du réseau présente les éléments principaux du débat sur la neutralité du réseau. Un chapitre indépendant sur la neutralité se justifie par: i) la pertinence globale du débat sur la neutralité du réseau, ii) l’importance croissante de la fourniture des services de vidéo sur l’Internet, et iii) la condition de la neutralité du réseau comme lien entres les opérateurs de télécom et les fournisseurs de contenu.Le chapitre 6 regarde un des aspects les plus distinctifs de la convergence des services de télécom et de la vidéo: l’émergence des fournisseurs de vidéo online (over-the-top) qui ne sont pas issus des acteurs traditionnels de l’industrie de la télévision ou de la vidéo. La thèse, comme la plupart des autorités de la concurrence, a une perception positive du rôle des OTT comme moteurs de la concurrence et propose que leur développement soit privilégié. Le chapitre essaie d’identifier les barrières principales pour le développement des OTT.Le chapitre final (chapitre 7) résume les conclusions de la thèse et formule des recommandations de politiques publiques, que les pays sont encouragés à évaluer. Ces recommandations résument le contenu des autres chapitres et rajoutent des détails supplémentaires sur les changements législatifs et institutionnels que seraient nécessaires pour les mettre en oeuvre. / This dissertation compares public policy approaches in France, the United Kingdom and the Untied States in relation to convergence between telecommunications and television/video services and puts forward policy recommendations. It starts from the evident changes that convergence is spreading throughout the ICT ecosystem and how it is changing the relationship between telecommunication operators and content providers. The dissertation provides new thinking in a number of areas relating to convergence of telecommunications and television/video services, such as vertical effects, bundling behaviour, network neutrality or the role of OTT video providers. The dissertation aims, on one hand, at formulating very precise recommendation as to how these aspects should be treated in the new convergent environment and, on other hand, at provider a comprehensive view that captures the big picture of the convergence phenomenon.The introductory chapter formulates the research question and sub-questions, why these questions are relevant and the methodology used and Chapter 2 on historical developments describes past and current policy and regulatory frameworks, in relation to competition in telecommunication and television/video services, in the three countriesChapter 3 on vertical effects provides a comparative analysis of competition law and regulatory decision in relation to competition in pay-television/video services. It not only contains merger decisions but also all the relevant regulatory and antitrust decisions between 1996 and 2015. While this chapter also includes to some extent a review of state-of-the-art economic theory on vertical effects, applied to video markets, it aims at identifying the different approaches taken by the authorities in applying economic theory.Chapter 4 addresses bundling of telecommunication and video services, in particular 3-play and 4-play bundles. The first section focuses on customers’ perception of bundled services. This has been modelled through a hedonic price analysis of 3- and 4-play bundles in the three countries. A significant effort has been made to develop more sophisticated quality indicators for this component. The second section focuses on firms’ incentives to sell 3-play communication bundles as a function of their main financial indicators. This section contains a preliminary analysis of operators’ incentives to bundle.Chapter 5 on network neutrality presents the main elements of the network neutrality debate. A standalone chapter on network neutrality is justified based on: i) the global relevance of the network neutrality debate, ii) its importance for the delivery of video services over the Internet and iii) network neutrality’s nature of conceptual link between video and communication services.Chapter 6 examines one of distinctive aspects of convergence of video and telecommunication services: the emergence of online (or over-the-top) video providers which do not come from the traditional television or video industry. This dissertation, as most competition authorities, welcomes the role of OTTs as competition promoters and suggests that the development of these players should be incentivised.The final chapter (Chapter 7) summarises the dissertation’s conclusions and formulates policy recommendations, for countries to consider. These recommendations summarise the content of the rest of the chapters and provide additional details on the legislative and institutional changes that would be needed to implement them.
190

Review and analysis of institutional and regulatory frameworks for fixed Next Generation Access networks / Revue et analyse des cadres institutionnels et réglementaires pour les réseaux fixes à très haut débit

Materia, Francesco 20 December 2017 (has links)
Aujourd’hui, l’usage des données lié aux services et contenus proposés sur Internet est en croissance continue et les opérateurs de télécommunications font face à une demande croissante en connectivité. Dans ce contexte, il est indispensable que la transition vers les réseaux très haut débit soit gérée de manière efficace afin de préserver, voire incrémenter, le niveau de concurrence sur le marché ainsi que maximiser l’investissement efficace au bénéfice des consommateurs à travers une combinaison appropriée de différentes formes de concurrence, de différentes technologies et d’investissement à la fois privé et public. Si accompagnée de manière efficace, cette transition peut représenter une grande opportunité pour les marchés des télécommunications européens, les transformant en marchés modernes et concurrentiels et permettant à la régulation ex ante de se retirer progressivement. Nous passons en revue les cadres institutionnels et réglementaires pour les réseaux d’accès fixes de nouvelle génération implémentés en France, Allemagne, Italie, Royaume-Uni et Espagne. A partir d’un modèle de concurrence calibré, nous simulons l’évolution des marchés à horizon 2050 et analysons dans quelle mesure ces cadres paraissent efficaces afin de restituer les meilleurs résultats pour le secteur et pour les consommateurs. Les résultats de notre modèle calibré suggèrent que, afin d’obtenir des meilleurs résultats en terme de bien-être total de long-terme, dans des proportions plus ou moins grandes, certains ajustements pourraient être introduits dans les cadres institutionnels et réglementaires considérés.Nous formulons ainsi, pour chacun des pays analysés, des recommandations visant à accélérer la couverture en très haut débit et à améliorer le niveau de concurrence. / Today, data usage driven by content and service providers over the Internet is constantly increasing and telecoms operators are expected to meet an increasing demand for connectivity. In this context, it is vital that the transition between legacy and ultrabroadband networks is properly managed in order both to preserve or improve the state of competition in the market and to maximize efficient investment to the benefit of consumers through an appropriate combination of different forms of competition, of different technologies and of private and public investment. If properly accompanied, the transition from legacy to next generation access networks can represent a major opportunity for the current European telecommunications markets, definitively transforming them into competitive and modern markets and allowing ex ante regulation to progressively step-back.We review the institutional and regulatory frameworks for fixed next generation access networks currently implemented in France, Germany, Italy, United Kingdom and Spain. Based on a calibrated competition model, we simulate market evolution up to 2050 and appraise to what extent these frameworks seem effective in order to achieve the best long-term results both for the industry and for consumers. The results of our calibrated model suggest that, to a greater or lesser extent, some adjustments might be introduced in the above-mentioned frameworks in order to achieve better outcomes in terms of total welfare in the long run. For each of the countries reviewed, we formulate policy recommendations aimed to accelerate NGA coverage and to improve the state of competition in ultrabroadband.

Page generated in 0.4121 seconds