• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 192
  • 123
  • 80
  • Tagged with
  • 409
  • 193
  • 159
  • 156
  • 155
  • 152
  • 145
  • 145
  • 144
  • 81
  • 79
  • 61
  • 57
  • 53
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Passive optical network (PON) monitoring using optical coding technology

Rad, Mohammad M. 17 April 2018 (has links)
Les réseaux optiques passifs (PON) semblent être la technologie gagnante et ultime du futur pour les "fibres jusqu'au domicile" ayant une haute capacité. L'écoute de contrôle de ce genre de système est nécessaire pour s'assurer un niveau de qualité de service prédéterminé pour chaque client. En outre, l'écoute de contrôle réduit considérablement les dépenses en capital et de fonctionnement (CAPEX et OPEX), tant pour le fournisseur du réseau que les clients. Alors que la capacité des PON est croissante, les gestionnaires de réseau ne disposent pas encore d'une technologie efficace et appropriée pour l'écoute de contrôle des réseaux de capacité aussi élevée. Une variété de solutions a été proposée. Toutes ces dernières solutions ne sont pas pratiques à cause de leur faible capacité (nombre de clients), d'une faible évolutivité, d'une grande complexité et des défis technologiques. Plus important encore, la technologie souhaitable pour l'écoute de contrôle devrait être rentable car le marché des PON est très sensible aux coûts. Dans cette thèse, nous considérons l'application de la technologie du codage optique passif (OC) comme une solution prometteuse pour l'écoute de contrôle centralisée d'un réseau optique ramifié tels que les réseaux PON. Dans la première étape, nous développons une expression pour le signal détecté par l'écoute de contrôle et étudions ses statistiques. Nous trouvons une nouvelle expression explicite pour le rapport signal utile/signal brouillé (SIR) comme outil de mesure métrique de performance. Nous considérons cinq distributions PON géographiques différentes et étudions leurs effets sur l'SIR pour l'écoute de contrôle d'OC. Dans la prochaine étape, nous généralisons notre modèle mathématique et ses expressions pour le contrôle des signaux détectés par un détecteur quadratique et des paramètres réalistes. Nous évaluons ensuite les performances théoriques de la technologie basée sur l'écoute de contrôle selon le rapport signal/bruit (SNR), le rapport signal/bruit plus coefficient d'interférence (SNIR), et la probabilité de fausse alarme. Nous élaborons l'effet de la puissance d'impulsion transmise, la taille du réseau et la cohérence de la source lumineuse sur le rendement des codes unidimensionnels (ID) et bidimensionnels (2D) de l'écoute de contrôle d'OC. Une conception optimale est également abordée. Enfin, nous appliquons les tests de Neyman-Pearson pour le récepteur de notre système d'écoute de contrôle et enquêtons sur la façon dont le codage et la taille du réseau affectent les dépenses de fonctionnement (OPEX) de notre système d'écoute de contrôle. Malgré le fait que les codes ID et 2D fournissent des performances acceptables, elles exigent des encodeurs avec un nombre élevé de composants optiques : ils sont encombrants, causent des pertes, et ils sont coûteux. Par conséquent, nous proposons un nouveau schéma de codage simple et plus approprié pour notre application de l'écoute de contrôle que nous appelons le codage périodique. Par simulation, nous évaluons l'efficacité de l'écoute de contrôle en terme de SNR pour un PON employant cette technologie. Ce système de codage est utilisé dans notre vérification expérimentale de l'écoute de contrôle d'OC. Nous étudions expérimentalement et par simulation, l'écoute de contrôle d'un PON utilisant la technologie de codage périodique. Nous discutons des problèmes de conception pour le codage périodique et les critères de détection optimale. Nous développons également un algorithme séquentiel pour le maximum de vraisemblance avec une complexité réduite. Nous menons des expériences pour valider notre algorithme de détection à l'aide de quatre encodeurs périodiques que nous avons conçus et fabriqués. Nous menons également des simulations de Monte-Carlo pour des distributions géographiques de PON réalistes, avec des clients situés au hasard. Nous étudions l'effet de la zone de couverture et la taille du réseau (nombre d'abonnés) sur l'efficacité de calcul de notre algorithme. Nous offrons une borne sur la probabilité pour un réseau donné d'entraîner l'algorithme vers un temps exorbitant de surveillance du réseau, c'est à dire le délai d'attente de probabilité. Enfin, nous soulignons l'importance du moyennage pour remédier aux restrictions budgétaires en puissance/perte dans notre système de surveillance afin de supporter de plus grandes tailles de réseaux et plus grandes portées de fibres. Ensuite, nous mettrons à niveau notre dispositif expérimental pour démontrer un m PON avec 16 clients. Nous utilisons un laser à modulation d'exploitation directement à 1 GHz pour générer les impulsions sonde. Les données mesurées par le dispositif expérimental est exploité par l'algorithme de MLSE à détecter et à localiser les clients. Trois déploiements PON différents sont réalisés. Nous démontrons une surveillance plus rigoureuse pour les réseaux ayant une répartition géographique à plusieurs niveaux. Nous étudions aussi le budget de la perte de notre dispositif de soutien plus élevés de capacités du réseau. Enfin, nous étudions le budget total admissible de la perte d'exploitation du système de surveillance dans la bande de fréquences à 1650 nm en fonction des spécifications de l'émetteur/récepteur. En particulier, la limite totale de la perte de budget est représentée en fonction du gain de l'amplicateure de transimpédance (TIA) et le résolution de la conversion analogique-numérique (ADC). Par ailleurs, nous enquêtons sur le compromis entre la distance portée et la capacité (taille de fractionnement au niveau du noeud distant) dans notre système de suivi.
32

Equalization of Non-linear Satellite Communication Channels using Echo State Networks

Bauduin, Marc 28 October 2016 (has links)
Satellite communication system designers are continuously struggling to improve the channel capacity. A critical challenge results from the limited power available aboard the satellite.Because of this constraint, the onboard power amplifier must work with a small power supply which limits its maximum output power. To ensure a sufficient Signal-to-Noise power Ratio (SNR) on the receiver side, the power amplifier must work close to its saturation point. This is power efficient but unfortunately adds non-linear distortions to the communication channel. The latters are very penalizing for high order modulations.In the literature, several equalization algorithms have been proposed to cope with the resulting non-linear communication channel. The most popular solution consists in using baseband Volterra series in order to build non-linear equalization filters. On the other hand, the Recurrent Neural Networks (RNNs), which come from the artificial neural network field, are also interesting candidates to generate such non-linear filters. But they are difficult to implement in practice due to the high complexity of their training. To simplify this task, the Echo State Network (ESN) paradigm has been proposed. It has the advantage of offering performances similar to classical RNNs but with a reduced complexity.The purpose of this work is, first, to compare this solution to the state-of-the-art baseband Volterra filters. We show that the classical ESN is able to reach the same performances, evaluated in terms of Bit Error Rate (BER), and has similar complexity. Secondly, we propose a new design for the ESN which achieves a strong reduction in complexity while conserving a similar BER.To compensate for the channel, the literature proposes to adapt the coefficients of these equalizers with the help of a training sequence in order to recover the transmitted constellation points. We show that, in such a case, the usual symbol detection criterion, based on Euclidean distances, is no longer optimal. For this reason, we first propose a new detection criterion which meets the Maximum Likelihood (ML) criterion. Secondly, we propose a modification of the equalizers training reference points in order to improve their performances and make the detection based on Euclidean distances optimal again. This last solution can offer a significant reduction of the BER without increasing the equalization and detection complexity. Only the new training reference points must be evaluated.In this work, we also explore the field of analog equalizers as different papers showed that the ESN is an interesting candidate for this purpose. It is a promising approach to reduce the equalizer complexity as the digital implementation is very challenging and power-hungry, in particular for high bandwidth communications. We numerically demonstrate that a dedicated analog optoelectronic implementation of the ESN can reach the state-of-the-art performance of digital equalizers. In addition, we show that it can reduce the required resolution of the Analog-to-Digital Converters (ADCs).Finally, a hardware demonstration of the digital solutions is proposed. For this purpose, we build a physical layer test bench which depicts a non-linear communication between two radios. We show that if we drive the transmitter power amplifier close to its saturation point, we can improve the communication range if the non-linear distortions are compensated for at the receiver. The transmitter and the receiver are implemented with Software Defined Radios (SDRs). / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
33

Proposition et vérification formelle de protocoles de communications temps-réel pour les réseaux de capteurs sans fil

Mouradian, Alexandre 18 November 2013 (has links) (PDF)
Les RCsF sont des réseaux ad hoc, sans fil, large échelle déployés pour mesurer des paramètres de l'environnement et remonter les informations à un ou plusieurs emplacements (nommés puits). Les éléments qui composent le réseau sont de petits équipements électroniques qui ont de faibles capacités en termes de mémoire et de calcul ; et fonctionnent sur batterie. Ces caractéristiques font que les protocoles développés, dans la littérature scientifique de ces dernières années, visent principalement à auto-organiser le réseau et à réduire la consommation d'énergie. Avec l'apparition d'applications critiques pour les réseaux de capteurs sans fil, de nouveau besoins émergent, comme le respect de bornes temporelles et de fiabilité. En effet, les applications critiques sont des applications dont dépendent des vies humaines ou l'environnement, un mauvais fonctionnement peut donc avoir des conséquences catastrophiques. Nous nous intéressons spécifiquement aux applications de détection d'événements et à la remontée d'alarmes (détection de feu de forêt, d'intrusion, etc), ces applications ont des contraintes temporelles strictes. D'une part, dans la littérature, on trouve peu de protocoles qui permettent d'assurer des délais de bout en bout bornés. Parmi les propositions, on trouve des protocoles qui permettent effectivement de respecter des contraintes temporelles mais qui ne prennent pas en compte les spécificités des RCsF (énergie, large échelle, etc). D'autres propositions prennent en compte ces aspects, mais ne permettent pas de garantir des bornes temporelles. D'autre part, les applications critiques nécessitent un niveau de confiance très élevé, dans ce contexte les tests et simulations ne suffisent pas, il faut être capable de fournir des preuves formelles du respect des spécifications. A notre connaissance cet aspect est très peu étudié pour les RcsF. Nos contributions sont donc de deux types : * Nous proposons un protocole de remontée d'alarmes, en temps borné, X-layer (MAC/routage, nommé RTXP) basé sur un système de coordonnées virtuelles originales permettant de discriminer le 2-voisinage. L'exploitation de ces coordonnées permet d'introduire du déterminisme et de construire un gradient visant à contraindre le nombre maximum de sauts depuis toute source vers le puits. Nous proposons par ailleurs un mécanisme d'agrégation temps-réel des alarmes remontées pour lutter contre les tempêtes de détection qui entraînent congestion et collision, et donc limitent la fiabilité du système. * Nous proposons une méthodologie de vérification formelle basée sur les techniques de Model Checking. Cette méthodologie se déroule en trois points, qui visent à modéliser de manière efficace la nature diffusante des réseaux sans fil, vérifier les RCsF en prenant en compte la non-fiabilité du lien radio et permettre le passage à l'échelle de la vérification en mixant Network Calculus et Model Checking. Nous appliquons ensuite cette méthodologie pour vérifier RTXP.
34

Analysis and exploitation of mobile traffic datasets / Analyse et exploitation de données de trafic mobile

Naboulsi, Diala 24 September 2015 (has links)
Les équipements mobiles deviennent une partie intégrale de notre vie numérique. Ces équipements interagissent avec l'infrastructure des réseaux cellulaires et leur activité est enregistrée pour des buts de facturation et monitoring sous forme de données de trafic mobile. Les travaux menés dans cette thèse se focalisent sur le potentiel que portent ces données pour l'amélioration des réseaux cellulaires futurs. D'une part, on montre que les données mobiles permettent de construire des profils spatio-temporels typiques de l'utilisation des réseaux cellulaires en environnement urbain. Cette analyse permet aussi la détection des comportements atypiques dans le réseau qui sont liés à des événements spéciaux. D'autre part, on montre que les données mobiles constituent un élément méthodologique important pour l'évaluation des solutions réseaux. Dans ce sens, on propose un mécanisme pour réduire la consommation énergétique des infrastructures cellulaires, en contrôlant la puissance sur le réseau d'accès à différents moments de la journée, tout en assurant la couverture géographique du réseau. On exploite aussi ces données pour évaluer les gains apportés par une nouvelle architecture de réseau d'accès, basée sur la virtualisation d'une partie du réseau et sa centralisation dans un cloud. Nos résultats montrent que cette architecture est bénéfique du point de vue des messages de signalisation, notamment pour les utilisateurs mobiles. / Mobile devices are becoming an integral part of our everyday digitalized life. In 2014, the number of mobile devices, connected to the internet and consuming traffic, has even exceeded the number of human beings on earth. These devices constantly interact with the network infrastructure and their activity is recorded by network operators, for monitoring and billing purposes. The resulting logs, collected as mobile traffic datasets, convey important information concerning spatio-temporal traffic dynamics, relating to large populations with millions of individuals. The thesis sheds light on the potential carried by mobile traffic datasets for future cellular networks. On one hand, we target the analysis of these datasets. We propose a usage patterns characterization framework, capable of defining meaningful categories of mobile traffic profiles and classifying network usages accordingly. On the other hand, we exploit mobile traffic datasets to evaluate two dynamic networking solutions. First, we focus on the reduction of energy consumption over typical Radio Access Networks (RAN). We introduce a power control mechanism that adapts the RAN's power configuration to users demands, while maintaining a geographical coverage. We show that our scheme allows to significantly reduce power consumption over the network infrastructure. Second, we study the problem of topology management of future Cloud-RAN (C-RAN). We propose a mobility-driven dynamic association scheme of the C-RAN components, which takes into account users traffic demand. The introduced strategy is observed to lead to important savings in the network, in terms of handovers.
35

La concurrence sur le marché des télécommunications au Costa Rica : le défi de l'ouverture sur la base de l'expérience française / The telecommunication market's competition in Costa Rica : the challenge of the opening up according to the French experience

Solano Ortiz, Sergio David 03 December 2013 (has links)
Le Traité de Libre-échange avec l'Amérique Centrale et les États-Unis (CAFTA), approuvé à la suite d'un référendum populaire en octobre 2007, a été l'accélérateur d'un processus de libéralisation du secteur des télécommunications au Costa Rica, très similaire à celui vécu par la France. Le nouveau cadre juridique introduit une réforme du droit de la concurrence malheureusement applicable qu'au seul secteur des télécommunications. Le droit général repose encore sur les mêmes bases de la loi de 1994, qui comporte des lacunes critiquables. L'autorité de régulation des télécommunications sera responsable du contrôle de la concurrence dans le secteur, au détriment des compétences de l'autorité générale. De l'analyse comparée, il ressort un très grand parallélisme en dépit d'un retard notable dans le cas du Costa Rica. La présente étude met en évidence les atouts et les inconvénients des mécanismes de contrôle de la concurrence existant au Costa Rica, en faisant le point dans le secteur des télécommunications. Au vu de l'expérience française et communautaire, de nombreux efforts sont encore nécessaires pour aboutir à une législation qui est aujourd'hui encore loin d'être en pleine maturité. La forte présence d'entreprises multinationales sur le marché centroaméricain, et l'absence de mécanismes de contrôle quant aux stratégies anticoncurrentielles au niveau régional représentent un nouvel enjeu pour la mise en place d'un environnement concurrentiel. L’Accord d'Association entre l'Union Européenne et l'Amérique Centrale (AACUE) doit servir de base pour le développement d'un droit régional de la concurrence, selon le modèle communautaire. / The Central America Free Trade Agreement with the United States (CAFTA), approved after popular referendum in October 2007, has sped up the liberalisation process of the telecommunications sector in Costa Rica, very much like in France before. The new juridical framework introduces a competition right reform, unfortunately only applicable to the telecommunications sector. The general law is still based on the 1994 law, which has questionable drawbacks. The telecommunications regulation authority will be in charge of monitoring competition in the sector, at the expense of the competences of the general authority. According to a comparative analysis there is a striking parallelism despite a significant delay in the case of Costa Rica. This study highlights the pros and cons of the competition monitoring tools existing in Costa Rica, by taking stock in the telecommunications sector. ln the light of the French and community experience, numerous efforts are still needed to lead to a legislation that is still far today from being full y mature. The strong presence of multinational companies on the Central American market and the absence of monitoring tools regarding the anti-competitive strategies on the regional level constitute a new challenge for setting up a competitive environment. The Association Agreement between the European Union and Central America should serve as a basis for the development of a regional competition right, according to the community law.
36

Télécommunications domotiques efficaces en termes de consommation d’énergie. / Energy efficient Telecommunication for home Automation

Masmoudi, Raouia 01 December 2015 (has links)
Le spectre électromagnétique est une ressource limitée dont l'usage doit être optimisé. Plusieurs travaux actuels visent à améliorer l'utilisation des fréquences radio en exploitant les méthodes de traitement intelligent du signal : la radio cognitive. Cette thèse se place dans ce contexte. Concrètement, nous considérons un problème d'allocation conjointe de spectre et de puissance dans un système radio cognitif (CR) composé de plusieurs utilisateurs secondaires (SUs) et primaires (PUs). L'objectif est d'optimiser l'efficacité énergétique des SUs tout en garantissant des niveaux d'interférences maximales imposés par la présence des PUs. Nous analysons des métriques d'efficacité énergétique en utilisant un cadre unificateur basé sur des outils d'optimisation convexe multi-critères. Les métriquesque nous étudions sont : la maximisation de débit avec pénalité sur l'interférence créée, le ratio débit puissance totale et la minimisation de puissance sous contrainte de débit pour concevoir un système de communications efficace en termes de consommation. Nous approfondissons ensuite l'étude de la métrique de minimisation de puissances sous contraintes de débits minimaux aux SUs et d'interférences maximales aux PUs. Étant donné la nature opposée de ces contraintes, nous étudions d'abord la faisabilité du problème et nous proposons des conditions nécessaires et des conditions suffisantes pour l'existence d'une solution. Le défi principal réside dans la non-convexité du problème d'allocation conjointe de spectre et de puissance en raison du paramètre discret d'ordonnancement des SUs. Afin de surmonter ce challenge, nous utilisons une technique de relaxation de Lagrange pour résoudre un problème convexe. Nous prouvons que les solutions discrètes du problème relaxé sont les solutions du problème initial. Lorsqu'une solution existe, nous proposonsun algorithme itératif basé sur la méthode de sous-gradient pour calculer la solution optimale. Nous montrons que le scheduling optimal est plus efficace comparé avec d'autres allocations de spectre classiques (e.g. entrelacée, blockwise). Dans le cas particulier de deux bandes orthogonales et un SU unique, nous proposons une solution analytique qui ne nécessite pas d'algorithme itératif. / The radio spectrum is a limited resource which must be used in an optimal way. Recent works in the literature aim to improve the use of radio frequencies by exploiting intelligent techniques from signal processing, such as the cognitive radio paradigm. In this thesis, we study a joint spectrum scheduling and power allocation problem in a Cognitive Radio (CR) system composed of several secondary users (SUs) and primary users (PUs). The objective is to optimize the energy efficiency of the SUs while guaranteeing that the interference created to the PUs is kept below a maximum tolerated level. We analyze energy efficiency metrics in wireless communications using a common unifying framework based on convex multi-criteria optimization tools, which includes the three of the most popular energyefficiency metrics in the literature : weighted difference between overall achievable rate and power consumption, the ratio between the overall rate and consumed power and overall consumed power under minimum rate constraint. Then, we further focus on the study of the opportunistic power minimization problem over several orthogonal frequency bands under constraints on the minimum Quality of Service (QoS) and maximum interference to the PUs. Given the opposing nature of these constraints, we first study the feasibility of the problem and we provide sufficient conditions and necessary conditions that guarantee the existence of a solution. The main challenge lies in the non-convexity of the joint spectrum and power allocation problem due to the discrete spectrum scheduling parameter of SUs. To overcome this issue, we use a Lagrangian relaxation technique to solve a convexproblem. We prove that the discrete solutions of the relaxed problem are the solutions of the initial problem. When a solution exists, we propose an iterative algorithm based on subgradient method to compute an optimal solution. We show that the optimal scheduling is more efficient compared to other conventional spectrum allocations (e.g. interlaced, blockwise). In the particular case of two orthogonal bands and an unique SU, we provide an analytical solution that does not require an iterative algorithm.
37

Design and prototyping of indoor positioning systems for Internet-of-Things sensor networks

Shakoori Moghadam Monfared, Shaghayegh 04 January 2021 (has links) (PDF)
Accurate indoor positioning of narrowband Internet-of-Things (IoT) sensors has drawn more attention in recent years. The introduction of Bluetooth Low Energy (BLE) technology is one of the latest developments of IoT and especially applicable for Ultra-Low Power (ULP) applications. BLE is an attractive technology for indoor positioning systems because of its low-cost deployment and reasonable accuracy. Efficient indoor positioning can be achieved by deducing the sensor position from the estimated signal Angle-of-Arrival (AoA) at multiple anchors. An anchor is a base station of known position and equipped with a narrowband multi-antenna array. However, the design and implementation of indoor positioning systems based on AoA measurements involve multiple challenges. The first part of this thesis mainly addresses the impact of hardware impairments on the accuracy of AoA measurements. In practice, the subspace-based algorithms such as Multiple Signal Classification (MUSIC) suffer from sensitivity to array calibration errors coming from hardware imperfections. A detailed experimental implementation is performed using a Software Defined Radio (SDR) platform to precisely evaluate the accuracy of AoA measurements. For this purpose, a new Over-the-Air (OTA) calibration method is proposed and the array calibration error is investigated. The experimental results are compared with the theoretical analysis. These results show that array calibration errors can cause some degrees of uncertainty in AoA estimation. Moreover, we propose iterative positioning algorithms based on AoA measurements for low capacity IoT sensors with high accuracy and fair computational complexity. Efficient positioning accuracy is obtained by iterating between the angle and position estimation steps. We first develop a Data-Aided Maximum a Posteriori (DA- MAP) estimator based on the preamble of the transmitted signal. DA-MAP estimator relies on the knowledge of the transmitted signal which makes it impractical for narrowband communications where the preamble is short. For this reason, a Non-Data- Aided Maximum a Posteriori (NDA-MAP) estimator is developed to improve the AoA accuracy. The iterative positioning algorithms are therefore classified as Data-Aided Iterative (DA-It) and Non-Data-Aided Iterative (NDA-It) depending on the knowledge of the transmitted signal that is used for estimation. Both numerical and experimental analyses are carried out to evaluate the performance of the proposed algorithms. The results show that DA-MAP and NDA-MAP estimators are more accurate than MUSIC. The results also show that DA-It comes very close to the performance of the optimal approach that directly estimates the position based on the observation of the received signal, known as Direct Position Estimation (DPE). Furthermore, the NDA-It algorithm significantly outperforms the DA-It because it can use a much higher number of samples; however, it needs more iterations to converge. In addition, we evaluate the computational savings achieved by the iterative schemes compared to DPE through a detailed complexity analysis. Finally, we investigate the performance degradation of the proposed iterative algorithms due to the impact of multipath and NLOS propagation in indoor environments. Therefore, we develop an enhanced iterative positioning algorithm with an anchor selection method in order to identify and exclude NLOS anchors. The numerical results show that applying the anchor selection strategy significantly improves the positioning accuracy in indoor environments. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
38

Consommateur, client, citoyen : l'usager dans les nouvelles régulations des services de réseaux. Les cas de l'eau, de l'électricité et des télécommunications en France

Pflieger, Géraldine 19 September 2003 (has links) (PDF)
Depuis le début des années 1990, l'ouverture à la concurrence, les nouvelles normes réglementaires et la transformation du rôle de l'État et des collectivités locales ont mis en cause les modèles historiques de régulation des services d'eau, d'électricité et de télécommunications, en accordant une place centrale à la relation marchande. En parallèle, les entreprises se sont lancées dans de profondes réformes organisationnelles afin de promouvoir de nouvelles logiques commerciales et gestionnaires et de renforcer le degré de prise en compte des attentes des clients. En se fondant sur une démarche de sociologie politique, l'objet de la thèse est d'étudier comment les nouvelles stratégies et pratiques des acteurs du système de régulation État, collectivités locales, autorités de régulation, entreprises, associations de consommateurs tendent à modifier le statut de l'usager. Pour cela, une grille d'analyse a été élaborée grâce à la construction de trois figures théoriques de l'utilisateur : le consommateur, le client et le citoyen. Les résultats soulignent que les réformes et les mutations des services de réseaux entraînent une domination de la figure du consommateur. Le passage de l'usager au consommateur s'illustre par la prégnance croissante du référentiel consumériste : vérité des prix, évaluation des performances, standards de qualité, dispositifs de protection du consommateur individuel. Cependant, la domination du consommateur ne se traduit pas par une exclusion des enjeux de citoyenneté. Certes, les problématiques de cohésion socio-territoriale ne sont pratiquement plus présentes parmi les revendications des usagers, alors quelles constituaient le cœur du modèle de service public bâti après-guerre. Mais de nouveaux enjeux émergent parfois rapidement autour de deux thématiques : la transparence de gestion des services urbains et la protection de l'environnement.
39

Essais d'Économie des Télécommunications

Saavedra Valenzuela, Claudia 30 September 2010 (has links) (PDF)
Cette thèse contribue à trois sujets en économie de la réglementation des télécommunications. Le premier chapitre examine le débat autour de la réglementation de la neutralité des réseaux. Il étudie les conséquences d'une réglementation dans laquelle un fournisseur de contenus « indispensables » est disposé à conclure des accords d'investissement conjoint avec des fournisseurs d'accès à Internet. Le deuxième chapitre est consacré à l'investissement sur les réseaux de nouvelle génération dans un environnement réglementé et dans lequel les retours sur investissement sont incertains. Il illustre comment les contrats d'accès avec des clauses d'engagement peuvent être plus efficaces que de simples tarifs d'accès basés sur l'utilisation. Le troisième chapitre analyse l'investissement lorsque le progrès technique est endogène. Il étudie le processus dynamique d'innovation dans un marché où les n entreprises peuvent réinvestir leurs bénéfices présents pour réduire leurs coûts futurs. Il développe un jeu différentiel pour capter les effets dynamiques et décrit les conséquences de la concurrence imparfaite sur le progrès technique.
40

La société de l’information déstabilise-t-elle l’Etat-Nation ? Analyse comparative du développement des nouvelles technologies de l’information et de la communication dans l’âge de la mondialisation

Arena, Gianmatteo 28 October 2004 (has links)
La société de l’information déstabilise-t-elle l’Etat-Nation ? Analyse comparative du développement des nouvelles technologies de l’information et de la communication dans l’âge de la mondialisation Partant du constat que le concept “Société de l’Information” est souvent utilisé dans des contextes et des situations très différents, qui ne présentent guère de traits communs, ce travail abouti à une interprétation de ce concept, qui permette de la redimensionner au lieu d’en faire un mythe, comme cela arrive trop souvent. La “Société de l’Information”, malgré son rôle innovant et unificateur qui outrepasse même les barrières étatiques, est confrontée au poids de l’Etat-Nation dans sa conception la plus restrictive. Nous considérons cette analyse comme une réflexion nécessaire dans une période où le défi technologique est particulièrement chargé d’un rôle politique.

Page generated in 0.5366 seconds