• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 47
  • 6
  • Tagged with
  • 113
  • 113
  • 58
  • 24
  • 22
  • 19
  • 19
  • 19
  • 17
  • 17
  • 16
  • 15
  • 15
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

How do the metabolites, GTP and (p)ppGpp, simultaneously control the occurrence of translational errors and resource allocation in bacteria? / Comprendre comment les métabolites, GTP et (p)ppGpp, contrôlent simultanément l'apparition d'erreurs traductionnelles et l'allocation des ressources chez les bactéries

Baudier, Claire 02 July 2018 (has links)
Bien que divers mécanismes coopèrent pour empêcher les erreurs lors de la synthèse des protéines chez les bactéries, des erreurs traductionnelles de type « frameshift » (ETFs) ou « faux-sens » peuvent avoir lieu. En particulier, les ETFs ont été détectées à de faibles niveaux lors de la phase de croissance exponentielle et à des niveaux plus élevés durant la phase de croissance stationnaire chez Escherichia coli et Bacillus subtilis. Ces observations ont conduit les chercheurs à revoir le rôle de la "réponse stringente" dans la survenue des ETFs, qui constitue l’un des mécanismes clé de l'adaptation bactérienne aux changements nutritionnels. Elle découle de l'interaction entre un ribosome en cours de traduction et la protéines RelA/SpoT ce qui permet de détecter les ARNs de transfert (ARNts) non chargés et résulte en la production d'une molécule appelée (p)ppGpp . Dans une souche mutante relA incapable de synthétiser le (p)ppGpp, les ETFs sont fortement augmentées.Dans ce contexte, notre objectif principal a été de revisiter le rôle de la réponse stringente dans le contrôle des erreurs traductionnelles et de clarifier le rôle des deux métabolites antagonistes GTP et (p)ppGpp. Par exemple, le GTP stimule l'initiation de la traduction (en ciblant le facteur d'initiation IF2) alors que le (p)ppGpp inhibe l'initiation de la traduction (en rentrant en concurrence avec le GTP pour se fixer sur IF2).A cette fin, nous avons utilisé le modèle des bactéries à Gram positif B. subtilis, conçu trois systèmes rapporteurs distincts pour détecter les ETFs et construit une souche incapable de synthétiser du (p)ppGpp (appelée "(p)ppGpp0"). Nous avons observé qu'au cours de la croissance dans des milieux pauvres, les ETFs augmentent en l'absence de (p)ppGpp durant la phase exponentielle et que, contrairement à la souche sauvage, la souche (p)ppGpp0 présente un pic d’ETFs en milieu riche pendant la transition à la phase stationnaire. En contrôlant les niveaux intracellulaires de GTP dans la souche (p)ppGpp0, nous avons montré que l'abondance de GTP est le facteur qui déclenche l'apparition des ETFs. Néanmoins, après une "faible" induction de la biosynthèse du GTP conduisant à des taux de croissance sous-optimaux, le niveau d’ETFs forme toujours un pic lors de la transition vers la phase stationnaire, ce qui montre que le mode d'action du (p)ppGpp pour prévenir l'apparition des ETFs ne repose pas uniquement sur son action inhibitrice de la biosynthèse du GTP. Nous nous sommes alors concentrés sur l'effet inhibiteur du (p)ppGpp sur IF2 et avons mimé son action en injectant des drogues connues pour inhiber l'initiation de la traduction. Nous avons ainsi démontré qu'en réduisant l'initiation de la traduction lors de l'épuisement des aminoacyl-ARNts, la souche "(p)ppGpp0" est capable de contrôler de façon optimale le taux d’ETFs lors de la transition vers la phase stationnaire.Dans une deuxième partie, nous avons étudié comment la transcription et la traduction sont affectées par les variations du niveau de GTP et de (p)ppGpp. Nous avons observé que les gènes possédant un "+1" de transcription (TSS, « transcription start site ») composé de deux guanines (gènes artificiels et ARNs ribosomaux) ont vu leur taux de transcription positivement corrélés au taux de croissance à l'inverse des gènes possédant un TSS composé de deux adénines. Cette différence est encore plus prononcée pour la souche (p)ppGpp0 cultivée en milieu riche lors de l'ajout de guanosine (ce qui conduit à un niveau élevé de GTP).En conclusion, nous avons démontré que le (p)ppGpp contrôle le niveau d'erreurs traductionnelles lors de la croissance en régime permanent en abaissant les niveaux de GTP et lors d’un changement nutritionnel en inhibant spécifiquement l'initiation de la traduction, assurant une allocation parcimonieuse des ressources au sein de la bactérie. / Even though diverse mechanisms cooperate to prevent protein synthesis errors in bacteria, missense and translational frameshift errors (TFEs) can occur . In particular, TFEs were detected at low levels in the exponential growth phase and at higher levels in the stationary phase in both Escherichia coli and Bacillus subtilis. This observation led researchers to revisit the role of the “stringent response” in the occurrence of TFEs since it is the key mechanism involved in the bacterial adaptation to nutritional downshifts. It relies on the interaction between the RelA/SpoT proteins and the translating ribosomes, which leads to the detection of uncharged tRNAs and to the production of an alarmone called (p)ppGpp. In a relA mutant strains unable to synthesize (p)ppGpp, translational errors are highly increased.In this context, the main goal of our work was to revisit the role of the stringent response in the translational error control and to clarify the role of the two key, antagonistic metabolites GTP and (p)ppGpp. Indeed, while GTP enhances translation initiation (targeting the initiation factor IF2) and elongation (targeting the elongation factor EF-Tu) , (p)ppGpp inhibits GTP biosynthesis (reducing the enzyme activity of Gmk, HprT and GuaB) and translation initiation (competing with GTP on IF2).For this purpose, we used the Gram positive model bacterium B. subtilis, designed three distinct reporter systems to detect TFEs and built a strain unable to synthesize (p)ppGpp (called “(p)ppGpp0”). We observed that during growth in poor media TFEs were increased in the absence of (p)ppGpp in the exponential phase (i.e. steady-state growth) and that by contrast to the wild type, the (p)ppGpp0 strain exhibited a TFE burst during the transition in rich medium to the stationary phase. By controlling intracellular levels of GTP in the (p)ppGpp0 strain, we showed that GTP abundance is the trigger factor of TFEs occurrence. Nevertheless, upon a "weak" induction of GTP biosynthesis leading to sub-optimal growth rates, the TFEs rate still peaked during the transition to the stationary phase, which demonstrated that the mode of action of (p)ppGpp to prevent TFEs occurrence did not only rely on its inhibition of GTP biosynthesis. We then focused on the (p)ppGpp inhibitory effect on IF2 and mimicked its action by injecting drugs known to inhibit translation initiation. Hence, we demonstrated that by reducing translation initiation (injecting drugs) upon aminoacyl-tRNAs depletion (p)ppgGp0 wild-strain type cells is are able to optimally control the rate of TFEs in the transition to the stationary phase. The same conclusion is obtained even in presence of a high GTP level.In a second part, we studied how transcription and translation are affected by variations in GTP and (p)ppGpp abundances. We observed that genes possessing a transcription start site (TSS) made of two guanines were more importantly transcribed at higher growth rates than genes possessing a TSS made of two adenines. This difference was even more pronounced for (p)ppGpp0 strains grown in rich medium upon guanosine addition (leading to a high level of GTP). Moreover, the ribosomal RNAs (rrns; for which the TSS is a guanine) synthesis level seemed to be positively correlated to GTP levels during exponential growth in poor and rich media as observed by the modulation of GTP biosynthesis.In conclusion, we demonstrated that (p)ppGpp controls the occurrence of translational errors during steady-state growth by decreasing GTP levels and during a nutritional downshift by specifically inhibiting translation initiation ensuring a parsimonious , which also globally affects resource allocation.
72

Approche multi-agents pour les problèmes de partage / A multiagent approach for resource sharing problems

Damamme, Jonathan 12 December 2016 (has links)
Cette thèse porte sur le problème d'allocation de ressource décentralisée, sans argent, où les agents n'ont qu'une connaissance partielle sur le système. L'approche de la thèse sera d'utiliser des échanges locaux, plus exactement des swaps, c'est-à-dire des échanges bilatéraux où chaque agent donne une ressource en échange d'un autre. Le travail se divise en deux parties. La première se concentre sur les problèmes de house market, avec une approche très simple et les agents travaillent sans les connaissances. Le but sera de montrer qu'elle a quand même une performance honorable. Je mettrais en valeur notamment que l'algorithme s'en sort bien par rapport à ceux de la littérature. Et je montrerais même que dans le domaine unimodal, l'algorithme est Pareto-optimal. La deuxième se présente dans une situation plus générale, et où le mécanisme présenté est divisée en 3 parties : protocole de contact, protocole de négociation, et conditions d'arrêt. chaque partie a plusieurs variantes. Je les décrirais et je les testerais expérimentalement. / This thesis covers distributed resources allocation setting, without money balance, where agents have limited knowledge of the system. This thesis will use local swaps, i.e. bilateral deals, where one resource is exchanged for another. This work is divided in two parts. The first part focus the house market, with a very simple mechanism and agents don't use knowledge. The aim will to show that it has however good performances. For this, I will compare the algorithm with those of literature. I will also prove that in the single-peaked domains, this mechanism is Pareto-optimal. The second part examines a general framework. The mechanism contains three sub-protocols : contact protocol, negotiation protocols, and stop conditions. Each protocol will be described and experimented.
73

Cost-efficient resource allocation for green distributed clouds / Allocation de ressources pour un cloud green et distribué

Ahvar, Ehsan 09 January 2017 (has links)
L'objectif de cette thèse est de présenter de nouveaux algorithmes de placement de machines virtuelles (VMs) à fin d’optimiser le coût et les émissions de carbone dans les Clouds distribués. La thèse se concentre d’abord sur la rentabilité des Clouds distribués, et développe ensuite les raisons d’optimiser les coûts ainsi que les émissions de carbone. La thèse comprend deux principales parties: la première propose, développe et évalue les algorithmes de placement statiques de VMs (où un premier placement d'une VM détient pendant toute la durée de vie de la VM). La deuxième partie propose des algorithmes de placement dynamiques de VMs où le placement initial de VM peut changer dynamiquement (par exemple, grâce à la migration de VMs et à leur consolidation). Cette thèse comprend cinq contributions. La première contribution est une étude de l'état de l'art sur la répartition des coûts et des émissions de carbone dans les environnements de clouds distribués. La deuxième contribution propose une méthode d'allocation des ressources, appelée NACER, pour les clouds distribués. L'objectif est de minimiser le coût de communication du réseau pour exécuter une tâche dans un cloud distribué. La troisième contribution propose une méthode de placement VM (appelée NACEV) pour les clouds distribués. NACEV est une version étendue de NACER. Tandis que NACER considère seulement le coût de communication parmi les DCs, NACEV optimise en même temps les coûts de communication et de calcul. Il propose également un algorithme de cartographie pour placer des machines virtuelles sur des machines physiques (PM). La quatrième contribution présente une méthode de placement VM efficace en termes de coûts et de carbone (appelée CACEV) pour les clouds distribués verts. CACEV est une version étendue de NACEV. En plus de la rentabilité, CACEV considère l'efficacité des émissions de carbone pour les clouds distribués. Pour obtenir une meilleure performance, la cinquième contribution propose une méthode dynamique de placement VM (D-CACEV) pour les clouds distribués. D-CACEV est une version étendue de notre travail précédent, CACEV, avec des chiffres supplémentaires, une description et également des mécanismes de migration de VM en direct. Nous montrons que notre mécanisme conjoint de réallocation-placement de VM peut constamment optimiser à la fois le coût et l'émission de carbone dans un cloud distribué / Virtual machine (VM) placement (i.e., resource allocation) method has a direct effect on both cost and carbon emission. Considering the geographic distribution of data centers (DCs), there are a variety of resources, energy prices and carbon emission rates to consider in a distributed cloud, which makes the placement of VMs for cost and carbon efficiency even more critical and complex than in centralized clouds. The goal of this thesis is to present new VM placement algorithms to optimize cost and carbon emission in a distributed cloud. It first focuses on cost efficiency in distributed clouds and, then, extends the goal to optimization of both cost and carbon emission at the same time. Thesis includes two main parts. The first part of thesis proposes, develops and evaluates static VM placement algorithms to reach the mentioned goal where an initial placement of a VM holds throughout the lifetime of the VM. The second part proposes dynamic VM placement algorithms where the initial placement of VMs is allowed to change (e.g., through VM migration and consolidation). The first contribution is a survey of the state of the art on cost and carbon emission resource allocation in distributed cloud environments. The second contribution targets the challenge of optimizing inter-DC communication cost for large-scale tasks and proposes a Network-Aware Cost-Efficient Resource allocation method, called NACER, for distributed clouds. The goal is to minimize the network communication cost of running a task in a distributed cloud by selecting the DCs to provision the VMs in such a way that the total network distance (hop count or any reasonable measure) among the selected DCs is minimized. The third contribution proposes a Network-Aware Cost Efficient VM Placement method (called NACEV) for Distributed Clouds. NACEV is an extended version of NACER. While NACER only considers inter-DC communication cost, NACEV optimizes both communication and computing cost at the same time and also proposes a mapping algorithm to place VMs on Physical Machines (PMs) inside of the selected DCs. NACEV also considers some aspects such as heterogeneity of VMs, PMs and switches, variety of energy prices, multiple paths between PMs, effects of workload on cost (energy consumption) of cloud devices (i.e., switches and PMs) and also heterogeneity of energy model of cloud elements. The forth contribution presents a Cost and Carbon Emission-Efficient VM Placement Method (called CACEV) for green distributed clouds. CACEV is an extended version of NACEV. In addition to cost efficiency, CACEV considers carbon emission efficiency and green distributed clouds. It is a VM placement algorithm for joint optimization of computing and network resources, which also considers price, location and carbon emission rate of resources. It also, unlike previous contributions of thesis, considers IaaS Service Level Agreement (SLA) violation in the system model. To get a better performance, the fifth contribution proposes a dynamic Cost and Carbon Emission-Efficient VM Placement method (D-CACEV) for green distributed clouds. D-CACEV is an extended version of our previous work, CACEV, with additional figures, description and also live VM migration mechanisms. We show that our joint VM placement-reallocation mechanism can constantly optimize both cost and carbon emission at the same time in a distributed cloud
74

Modeling and mining business process variants in cloud environments / Modélisation et fouille de variants de procédés d'entreprise dans les environnements cloud

Yongsiriwit, Karn 23 January 2017 (has links)
De plus en plus les organisations adoptent les systèmes d'informations sensibles aux processus basés sur Cloud en tant qu'un environnement pour gérer et exécuter des processus dans le Cloud dans l'objectif de partager et de déployer leurs applications de manière optimale. Cela est particulièrement vrai pour les grandes organisations ayant des succursales opérant dans des différentes régions avec des processus considérablement similaires. Telles organisations doivent soutenir de nombreuses variantes du même processus en raison de la culture locale de leurs succursales, de leurs règlements, etc. Cependant, le développement d'une nouvelle variante de processus à partir de zéro est sujet à l'erreur et peut prendre beaucoup du temps. Motivés par le paradigme "la conception par la réutilisation", les succursales peuvent collaborer pour développer de nouvelles variantes de processus en apprenant de leurs processus similaires. Ces processus sont souvent hétérogènes, ce qui empêche une interopérabilité facile et dynamique entre les différentes succursales. Une variante de processus est un ajustement d'un modèle de processus afin de s'adapter d'une façon flexible aux besoins spécifiques. De nombreuses recherches dans les universités et les industries visent à faciliter la conception des variantes de processus. Plusieurs approches ont été développées pour aider les concepteurs de processus en recherchant des modèles de processus métier similaires ou en utilisant des modèles de référence. Cependant, ces approches sont lourdes, longues et sujettes à des erreurs. De même, telles approches recommandent des modèles de processus pas pratiques pour les concepteurs de processus qui ont besoin d'ajuster une partie spécifique d'un modèle de processus. En fait, les concepteurs de processus peuvent mieux développer des variantes de processus ayant une approche qui recommande un ensemble bien défini d'activités à partir d'un modèle de processus défini comme un fragment de processus. Les grandes organisations multi-sites exécutent les variantes de processus BP dans l'environnement Cloud pour optimiser le déploiement et partager les ressources communes. Cependant, ces ressources Cloud peuvent être décrites en utilisant des différents standards de description des ressources Cloud ce qui empêche l'interopérabilité entre les différentes succursales. Dans cette thèse, nous abordons les limites citées ci-dessus en proposant une approche basée sur les ontologies pour peupler sémantiquement une base de connaissance commune de processus et de ressources Cloud, ce qui permet une interopérabilité entre les succursales de l'organisation. Nous construisons notre base de connaissance en étendant les ontologies existantes. Ensuite, nous proposons une approche pour exploiter cette base de connaissances afin de supporter le développement des variantes BP. De plus, nous adoptons un algorithme génétique pour allouer d'une manière optimale les ressources Cloud aux BPs. Pour valider notre approche, nous développons deux preuves de concepts et effectuons des expériences sur des ensembles de données réels. Les résultats expérimentaux montrent que notre approche est réalisable et précise dans des cas d'utilisation réels / More and more organizations are adopting cloud-based Process-Aware Information Systems (PAIS) to manage and execute processes in the cloud as an environment to optimally share and deploy their applications. This is especially true for large organizations having branches operating in different regions with a considerable amount of similar processes. Such organizations need to support many variants of the same process due to their branches' local culture, regulations, etc. However, developing new process variant from scratch is error-prone and time consuming. Motivated by the "Design by Reuse" paradigm, branches may collaborate to develop new process variants by learning from their similar processes. These processes are often heterogeneous which prevents an easy and dynamic interoperability between different branches. A process variant is an adjustment of a process model in order to flexibly adapt to specific needs. Many researches in both academics and industry are aiming to facilitate the design of process variants. Several approaches have been developed to assist process designers by searching for similar business process models or using reference models. However, these approaches are cumbersome, time-consuming and error-prone. Likewise, such approaches recommend entire process models which are not handy for process designers who need to adjust a specific part of a process model. In fact, process designers can better develop process variants having an approach that recommends a well-selected set of activities from a process model, referred to as process fragment. Large organizations with multiple branches execute BP variants in the cloud as environment to optimally deploy and share common resources. However, these cloud resources may be described using different cloud resources description standards which prevent the interoperability between different branches. In this thesis, we address the above shortcomings by proposing an ontology-based approach to semantically populate a common knowledge base of processes and cloud resources and thus enable interoperability between organization's branches. We construct our knowledge base built by extending existing ontologies. We thereafter propose an approach to mine such knowledge base to assist the development of BP variants. Furthermore, we adopt a genetic algorithm to optimally allocate cloud resources to BPs. To validate our approach, we develop two proof of concepts and perform experiments on real datasets. Experimental results show that our approach is feasible and accurate in real use-cases
75

Auction-based dynamic resource orchestration in cloud-based radio access networks / Mécanismes d'enchères pour l'orchestration dynamique des ressources dans le cloud-RAN

Morcos, Mira 23 January 2019 (has links)
La densification de réseau à l'aide de petites cellules massivement déployées sur les zones macro-cellules, représente une solution prometteuse pour les réseaux mobiles 5G avenir pour faire face à l'augmentation du trafic mobile. Afin de simplifier la gestion de l'hétérogène du réseau d'accès radio (Radio Access Network RAN) qui résulte du déploiement massif de petites cellules, des recherches récentes et des études industrielles ont favorisé la conception de nouvelles architectures de RAN centralisés appelés comme Cloud-RAN (C-RAN), ou RAN virtuel (V-RAN), en incorporant les avantages du cloud computing et Network Functions Virtualization (NFV). Le projet de DynaRoC vise l'élaboration d'un cadre théorique de l'orchestration de ressources pour les C-RAN et dériver les limites de performance fondamentaux ainsi que les arbitrages entre les différents paramètres du système, et la conception de mécanismes d'orchestration de ressources dynamiques sur la base des conclusions théoriques à atteindre un équilibre de performance souhaité, en tenant compte des différents défis de conception. Le doctorant va étudier les mécanismes d'optimisation des ressources novatrices pour favoriser le déploiement de C-RAN, améliorer leur performance exploitant la technologie Network Functions Virtualization / Network densification using small cells massively deployed over the macro-cell areas, represents a promising solution for future 5G mobile networks to cope with mobile traffic increase. In order to simplify the management of the heterogeneous Radio Access Network (RAN) that results from the massive deployment of small cells, recent research and industrial studies have promoted the design of novel centralized RAN architectures termed as Cloud-RAN (C-RAN), or Virtual RAN (V-RAN), by incorporating the benefits of cloud computing and Network Functions Virtualization (NFV). The DynaRoC project aims at (1) developing a theoretical framework of resource orchestration for C-RAN and deriving the fundamental performance limits as well as the tradeoffs among various system parameters, and (2) designing dynamic resource orchestration mechanisms based on the theoretical findings to achieve a desired performance balance, by taking into account various design challenges. The PhD student will investigate innovative resource optimization mechanisms to foster the deployment of C-RANs, improving their performance exploiting the enabling Network Functions Virtualization technology
76

Allocation des Ressources pour la Gestion Dynamique du Spectre dans les Réseaux Ad hoc Clustérisés / Resources Allocation for Dynamic Spectrum Management in Clustered Ad hoc Networks

Gaveau, Jérôme 11 July 2018 (has links)
L’objectif de cette thèse concerne l’allocation des canaux fréquentiels dans les réseaux ad hoc organisés en clusters. Les terminaux du réseau sont assemblés localement en clusters afin de garder les avantages des réseaux ad hoc tout en réduisant la quantité de signalisation nécessaire à son fonctionnement. Dans chaque cluster, un chef de cluster (CH en anglais) est désigné parmi les terminaux dont le rôle est de gérer localement les ressources ainsi que les communications. Un des problèmes concerne l'allocation des bandes de fréquence de manière distribuée à chaque cluster pour leur permettre d'opérer correctement. Les fréquences sont une ressource rare ce qui implique que plusieurs clusters sont amenés à utiliser les mêmes et donc à interférer entre eux. Le CH base ses décisions sur une fonction d'utilité qui prend en compte des mesures de performance des communications. Ces dernières peuvent être perturbées à cause des diverses variations dynamiques auxquels sont soumis les réseaux ad hoc. Parmi les algorithmes d'apprentissage distribués, nous avons identifié des méthodes basées sur le paradigme "d'essais erreur'' (TE en anglais) comme des solutions potentielles. Ces algorithmes ont la particularité d'avoir des propriétés de convergence globale intéressantes bien que le problème soit non coopératif.Dans un premier temps, nous avons étudié la convergence théorique de ces algorithmes en réalisant des approximations de chaînes de Markov dans des cas particuliers. Ensuite, nous avons montré théoriquement et numériquement que le principal défaut des approches TE est leur sensibilité aux variations aléatoires de la mesure d'utilité. Nous avons donc proposé des solutions, avec des preuves théoriques à l’appui, pour adapter ces algorithmes aux cas où l'utilité serait perturbée par des phénomènes aléatoires. Enfin, nous avons analysé de manière plus approfondie l’influence des évanouissements de Rayleigh sur les statistiques de l’utilité. / This thesis deals with the fully distributed allocation of channels in clustered ad hoc networks. Nodes are gathered locally into clusters in order to keep the advantage of the no infrastructure of ad hoc networks, and to reduce the amount of signalling. In each cluster a node is elected as the Clustered Head (CH) whose role is to manage the resources and the transmissions locally. One of the major problem is to allocate in a distributed way spectrum bands to the clusters in order to make them able to operate. Bandwidth is a scarce resource which implies that several clusters may use the same frequency and hence interfere among each other. The CH realizes the frequency allocation based on a utility function that uses measurements as inputs. These measurements are possibly disturbed due to the wide variety of dynamic changes that face ad hoc networks. Among the distributed learning algorithms, we have identified approaches based on "trial and error'' (TE) paradigm that could solve the channel allocation problem. These approaches possess very attractive global convergence behavior despite the non-cooperativeness of the problem and thus in a broad class of games.First, based on a specific utility model, we analyse the performance of these algorithms using Markov chains approximations in order to reduce numerical computations complexity. Then, we assess theoretically and numerically that a drawback of TE algorithms is their sensitivity to disturbances. We propose modifications with supporting theoretical proofs in order to adapt the TE algorithms to disturbances of the utility. Furthermore, we study the impact of Rayleigh fading on the utility by deriving its probability density function (pdf) in various contexts.
77

Multihoming in heterogeneous wireless networks / Le multihoming dans les réseaux sans fil hétérogènes

Dandachi, Ghina 21 July 2017 (has links)
Les réseaux mobiles de la cinquième génération (5G) sont conçus pour introduire de nouveaux services nécessitant des débits de données extrêmement hauts et une faible latence. 5G sera un changement de paradigme qui comprend des réseaux hétérogènes densifiés, des réseaux d'accès radio virtualisés, des fréquences porteuses à ondes millimétrées et des densités de périphériques très élevées. Cependant, contrairement aux générations précédentes, 5G sera un réseau holistique, intégrant n'importe quelle nouvelle technologie radio avec les technologies LTE et WiFi existant. Dans ce contexte, on se concentre sur de nouvelles stratégies d'allocation de ressources capables de bénéficier du multihoming dans le cas d'accès double au réseau. On modélise ces algorithmes au niveau du flux et analyse leurs performances en termes de débit, de stabilité du système et d'équité entre différentes catégories d'utilisateurs. On se concentre tout d'abord sur le multihoming dans les réseaux hétérogènes LTE/WiFi. On considère les allocations centrées sur le réseau où un planificateur central effectue des allocations d'équité proportionnelle (PF) locale et globale pour différentes classes d'utilisateurs, utilisateurs individuels (single-homed) et multi-domiciliés (multihomed). Par rapport à un modèle de référence sans multihoming, on montre que les deux stratégies améliorent la performance et la stabilité du système, au détriment d'une plus grande complexité pour la stratégie PF globale. On étudie également les stratégies d'allocation centrées sur l'utilisateur, dans lesquelles les utilisateurs multihomed décident la partition de la demande d'un fichier en utilisant soit la maximisation du débit crête, soit la stratégie assistée par réseau. On montre que cette dernière stratégie maximise le débit moyen dans l'ensemble du réseau. On montre également que les stratégies centrées sur le réseau permettent d'obtenir des débits de données plus élevés que ceux centrés sur l'utilisateur. Ensuite, on se concentre sur les réseaux d'accès radio virtuels (V-RAN) et en particulier sur l'allocation de multi-ressources. On étudie la faisabilité de la virtualisation sans diminuer ni la performance des utilisateurs, ni la stabilité du système. On considère un réseau hétérogène 5G composé de cellules LTE et mm-wave afin d'étudier comment les réseaux hauts fréquence peuvent augmenter la capacité du système. On montre que la virtualisation du réseau est réalisable sans perte de performance lors de l'utilisation de la stratégie « dominant resource fairness » (DRF). On propose une stratégie d'allocation en deux phases (TPA) qui montre un indice d'équité plus élevé que DRF et une stabilité du système plus élevée que PF. On montre également des gains importants apportés par l'adoption des fréquences mm-wave au lieu de WiFi. Finalement, on considère l'efficacité énergétique et compare les stratégies DRF et TPA avec une stratégie éconergétique basée sur l'algorithme de Dinklebach. Les résultats montrent que la stratégie éconergétique dépasse légèrement DRF et TPA à charge faible ou moyenne en termes de débit moyen plus élevé avec une consommation d'énergie comparable, alors qu'elle les surpasse à une charge élevée en termes de consommation d'énergie moins élevée. Dans ce cas de charge élevée, DRF surpasse TPA et la stratégie éconergétique en termes de débit moyen. En ce qui concerne l'indice d'équité de Jain, TPA réalise l'indice d'équité le plus élevé parmi d'autres stratégies / Fifth generation mobile networks (5G) are being designed to introduce new services that require extreme broadband data rates and utlra-reliable latency. 5G will be a paradigm shift that includes heterogeneous networks with densification, virtualized radio access networks, mm-wave carrier frequencies, and very high device densities. However, unlike the previous generations, it will be a holistic network, tying any new 5G air interface and spectrum with the currently existing LTE and WiFi. In this context, we focus on new resource allocation strategies that are able to take advantage of multihoming in dual access settings. We model such algorithms at the flow level and analyze their performance in terms of flow throughput, system stability and fairness between different classes of users. We first focus on multihoming in LTE/WiFi heterogeneous networks. We consider network centric allocations where a central scheduler performs local and global proportional fairness (PF) allocations for different classes of users, single-homed and multihomed users. By comparison with a reference model without multihoming, we show that both strategies improve system performance and stability, at the expense of more complexity for the global PF. We also investigate user centric allocation strategies where multihomed users decide the split of a file using either peak rate maximization or network assisted strategy. We show that the latter strategy maximizes the average throughput in the whole network. We also show that network centric strategies achieve higher data rates than the user centric ones. Then, we focus on Virtual Radio Access Networks (V-RAN) and particularly on multi-resource allocation therein. We investigate the feasibility of virtualization without decreasing neither users performance, nor system's stability. We consider a 5G heterogeneous network composed of LTE and mm-wave cells in order to study how high frequency networks can increase system's capacity. We show that network virtualization is feasible without performance loss when using the dominant resource fairness strategy (DRF). We propose a two-phase allocation (TPA) strategy which achieves a higher fairness index than DRF and a higher system stability than PF. We also show significant gains brought by mm-wave instead of WiFi. Eventually, we consider energy efficiency and compare DRF and TPA strategies with a Dinklebach based energy efficient strategy. Our results show that the energy efficient strategy slightly outperforms DRF and TPA at low to medium load in terms of higher average throughput with comparable power consumption, while it outperforms them at high load in terms of power consumption. In this case of high load, DRF outperforms TPA and the energy efficient strategy in terms of average throughput. As for Jain's fairness index, TPA achieves the highest one
78

Planification et dimensionnement des réseaux optiques de longues distances

Jarray, Abdallah 02 1900 (has links)
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau. / The research project focuses on the design and planning problems of long distance optical networks also called OWANs (Optical Wide Area Networks) or "backbone". These are networks that carry aggregate flows in circuit switching mode. OWAN networks connect sites with optical fibers, cross-connected by optical and/or electric switches/routers. OWAN networks are meshed throughout a country or continent and allow the transit of data at very high speed. In the first part of the thesis, we are interested in the design problem of agile optical networks. The problem of agility is motivated by the growing of bandwidth demand and by the dynamic pattern of client traffic. Equipment deployed by network operators must allow greater reconfigurability and scalability to manage the complexity of connections among clients and deal with a dynamic traffic pattern. Often, the problem of network design is to provide the required bandwidth to grant a given traffic pattern. Here, we seek to choose the best nodal configuration with the agility level that can guarantee the optimal network resource provisioning. We will also study two other types of problems that can face a network operator. The first problem is the network resource provisioning. Once the network architecture design is chosen, the remaining question is : How to resize and optimize the architecture to meet the agility level required to grant any demand. The definition of the network provisioning scheme is a complex optimization problem. It consists of defining a set of optical paths, choosing the routes followed by them, and their assigned wavelengths, so as to optimize the solution quality with respect to some network metrics. Moreover, we need to define the best design strategy adapted to the dynamic traffic pattern. The second problem is to optimize the capital investment cost (CAPEX) and the operational expenses (OPEX) of the selected optical transport architecture. In the case of the design architecture considered in this thesis, the CAPEX includes the routing cost, the installation cost and the commissioning service cost for all required network equipment in end connections and intermediate nodes. OPEX correspond to expenses related to the operation of the transport network. Given the symmetrical nature and the exponential number of variables in most mathematical formulations developed for these types of problems, we particularly explored solving approaches based on a column generation algorithm and greedy heuristics which adapt well to these types of modeling and large scale mathematical models. A comparative study of several provisioning strategies and solution algorithms on different traffic and OWAN network instances show that the minimum network cost is obtained in two cases : An anticipative dimensioning strategy combined with a column generation solution combined with a rounding off heuristic in the context of no disturbance or possible disturbance of previously granted connections. Also, a good repartition of used network resources (MSPPs, PXC and wavelengths) is observed with the scenarios using a myopic strategy and a column generation solution approach. The results obtained from this thesis also show that a considerable saving in CAPEX and OPEX costs are possible in the case of an intelligent allocation and heteregenous distribution of network resources through network nodes compared with the classical architecture that adopts a uniform architecture using the same configuration in all nodes. Indeed, we demonstrated that it is possible to reduce the number of PXCs (Photonic Switches) while satisfying the traffic matrix and keeping the overall cost of provisioning network unchanged compared to what is happening in a classic architecture. This implies a substantial reduction in network CAPEX and OPEX costs. In our experiments with various network and traffic instances, we show that a careful dimensioning and location of the nodal equipment can save up to 65% of network expenses.
79

The moral difference between premature infants and neonates compared to older patients

Janvier, Annie January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
80

Trois essais sur l'économie de la migration / Three essays on the economics of migration

Seror, Marlon 04 December 2017 (has links)
Une des marques du développement est la résorption du décalage entre la distribution spatiale de l’activité économique et celle de la population. Cette thèse étudie les conséquences d’une telle résorption sous l’effet de la migration ou d’une redistribution géographique de l’activité économique. Le premier chapitre s’intéresse à la relation entre migrants internationaux et foyers d’origine. Il met en lumière l’importance, pour les envois de fonds et les investissements, des croyances des migrants et de l’asymétrie d’information, aggravée par la distance, entre migrants et destinataires de ces envois. Le deuxième chapitre explore la transformation de l’économie d’accueil sous l’effet d’un afflux de migrants venus des campagnes en ville, en Chine. Il mesure d’abord leur impact sur le marché du travail à destination, puis examine comment ils affectent l’allocation des facteurs de production et les contraintes rencontrées par les entreprises sur les marchés du travail et du capital. Le troisième chapitre étudie l’impact sur le long terme d’un vaste programme d’industrialisation réalisé en Chine, et montre un retour de fortune. Ce renversement est imputé aux distorsions introduites sur le marché du travail local par la présence de grands complexes manufacturiers. Ce chapitre met en évidence le rôle de la migration pour surmonter ces imperfections et amener l’étape ultérieure de la transformation structurelle : le passage de l’industrie lourde à la production de biens de consommation et de services. / A key characteristic of the process of economic development is the shrinking spatial mismatch between economic activity and population. This thesis analyzes what happens when this spatial mismatch is reduced, as people’s places of residence and work or the geographical distribution of economic activity is altered. Chapter I deals with the relationship between international migrants and their households of origin. It sheds light on the importance for remittances and investments of migrants' beliefs and the information asymmetry between remittance senders and recipients that distance aggravates. Chapter II explores the transformation of the receiving economy due to an influx of rural-to-urban migrants in China. It first quantifies the effect of immigrants on the labor market at destination, and then investigates their impact on the reallocation of production factors and factor-market constraints faced by urban firms. Chapter III focuses on the long-term impact of a large industrialization plan in China. It reveals a reversal pattern due to the distortions in local labor markets induced by the presence of big plants. It highlights the role of migration in overcoming such imperfections and in bringing about the later stage of structural transformation—from heavy industry to consumption goods and services.

Page generated in 0.1276 seconds