• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 62
  • 28
  • Tagged with
  • 154
  • 154
  • 142
  • 142
  • 142
  • 142
  • 142
  • 140
  • 139
  • 20
  • 19
  • 17
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Étude régionale des crues éclair de l'arc méditerranéen français ; élaboration de méthodologies de transfert à des bassins versants non jaugés

Garambois, Pierre-André 23 November 2012 (has links) (PDF)
D'un point de vue climatique la région méditerranéenne est propice aux évènements pluvio-orageux intenses, particulièrement en automne. Ces pluies s'abattent sur des bassins versants escarpés. La promptitude des crues ne laisse qu’un temps très court pour la prévision. L'amplitude de ces crues dépend de la grande variabilité des pluies et des caractéristiques des bassins versants. Les réseaux d'observations ne sont habituellement pas adaptés à ces petites échelles spatiales et l'intensité des événements affecte souvent la fiabilité des données quand elles existent d'où l'existence de bassin non jaugés. La régionalisation en hydrologie s'attache à la détermination de variables hydrologiques aux endroits où ces données manquent. L'objectif de cette thèse est de contribuer à poser les bases d’une méthodologie adaptée à la transposition des paramètres d'un modèle hydrologique distribué dédié aux crues rapides de bassins versants bien instrumentés à des bassins versants non jaugés, et ce sur une large zone d’étude. L'outil utilisé est le modèle hydrologique distribué MARINE [Roux et al., 2011] dont l'une des originalités est de disposer d'un modèle adjoint permettant de mener à bien des calibrations et des analyses de sensibilité spatio-temporelles qui servent à améliorer la compréhension des mécanismes de crue et à l'assimilation de données en temps réel pour la prévision. L'étude des sensibilités du modèle MARINE aborde la compréhension des processus physiques. Une large gamme de comportements hydrologiques est explorée. On met en avant quelques types de comportements des bassins versants pour la région d'étude [Garambois et al., 2012a]. Une sélection des évènements de calibration et une technique de calibration multi évènements aident à l'extraction d'un jeu de paramètres par bassin versant. Ces paramétrisations sont testées sur des évènements de validation. Une méthode de décomposition de la variance des résultats conduit aux sensibilités temporelles du modèle à ses paramètres. Cela permet de mieux appréhender la dynamique des processus physiques rapides en jeu lors de ces crues [Garambois et al., 2012c]. Les paramétrisations retenues sont transférées à l'aide de similarités hydrologiques sur des bassins versants non jaugés, à des fins de prévision opérationnelle.
2

Mobility Management in New Internet Architectures

Tantayakul, Kuljaree 17 September 2018 (has links) (PDF)
The software integration with new network architectures via Software-Defined Networking (SDN) axis appears to be a major evolution of networks. While this paradigm was primarily developed for easy network setup, its ability to integrate services has also to be considered. Thus, the mobility service for which solutions have been proposed in conventional architectures by defining standardized protocols should be rethought in terms of SDN service. Mobile devices might use or move in SDN network. In this thesis, we proposed a new mobility management approach which called "SDN-Mobility" and has shown that SDN can be implemented without IP mobility protocol for providing mobility like as Proxy Mobile IPv6 (PMIPv6) that is the solution adopted by 3GPP, with some performance gain. However, PMIPv6 and SDN-Mobility have some packets loss during Mobile Node (MN) handover. Thus, in this thesis, we proposed a new paradigm based on caching function to improve the quality of transfer during handover. Caching policy cooperates with SDN controller for automatic buffering of the data during the handover. We proposed two caching policies that are compared through a performance analysis regarding the quality of transfer for the user and for the operator. This thesis also presented that SDN-Mobility with caching policy can be applied easily for mobility management in heterogeneous network architectures able to integrate the future Internet based on the Information-Centric Networking (ICN).
3

Improving energy efficiency of virtualized datacenters

Nitu, Vlad-Tiberiu 28 September 2018 (has links) (PDF)
Nowadays, many organizations choose to increasingly implement the cloud computing approach. More specifically, as customers, these organizations are outsourcing the management of their physical infrastructure to data centers (or cloud computing platforms). Energy consumption is a primary concern for datacenter (DC) management. Its cost represents about 80% of the total cost of ownership and it is estimated that in 2020, the US DCs alone will spend about $13 billion on energy bills. Generally, the datacenter servers are manufactured in such a way that they achieve high energy efficiency at high utilizations. Thereby for a low cost per computation all datacenter servers should push the utilization as high as possible. In order to fight the historically low utilization, cloud computing adopted server virtualization. The latter allows a physical server to execute multiple virtual servers (called virtual machines) in an isolated way. With virtualization, the cloud provider can pack (consolidate) the entire set of virtual machines (VMs) on a small set of physical servers and thereby, reduce the number of active servers. Even so, the datacenter servers rarely reach utilizations higher than 50% which means that they operate with sets of longterm unused resources (called 'holes'). My first contribution is a cloud management system that dynamically splits/fusions VMs such that they can better fill the holes. This solution is effective only for elastic applications, i.e. applications that can be executed and reconfigured over an arbitrary number of VMs. However the datacenter resource fragmentation stems from a more fundamental problem. Over time, cloud applications demand more and more memory but the physical servers provide more an more CPU. In nowadays datacenters, the two resources are strongly coupled since they are bounded to a physical sever. My second contribution is a practical way to decouple the CPU-memory tuple that can simply be applied to a commodity server. Thereby, the two resources can vary independently, depending on their demand. My third and my forth contribution show a practical system which exploit the second contribution. The underutilization observed on physical servers is also true for virtual machines. It has been shown that VMs consume only a small fraction of the allocated resources because the cloud customers are not able to correctly estimate the resource amount necessary for their applications. My third contribution is a system that estimates the memory consumption (i.e. the working set size) of a VM, with low overhead and high accuracy. Thereby, we can now consolidate the VMs based on their working set size (not the booked memory). However, the drawback of this approach is the risk of memory starvation. If one or multiple VMs have an sharp increase in memory demand, the physical server may run out of memory. This event is undesirable because the cloud platform is unable to provide the client with the booked memory. My fourth contribution is a system that allows a VM to use remote memory provided by a different rack server. Thereby, in the case of a peak memory demand, my system allows the VM to allocate memory on a remote physical server.
4

Reconfigurable navigation receiver for space applications

Dion, Arnaud 30 September 2014 (has links) (PDF)
The orbit of a satellite around the earth is constantly disturbed by various factors, such as variations in the gravitational field and the solar wind pressure. The drift of the satellite position can compromise the mission, and even lead to a crash or a fall in the atmosphere. The station-keeping operations therefore consist in performing an accurate measurement of the satellite trajectory and then in using its thrusters to correct the drift. The conventional solution is to measure the position with the help of a ground based radar. This solution is expensive and does not allow to have the satellite position permanently: the trajectory corrections are therefore infrequent. A positioning and autonomous navigation system using constellations of navigation satellites, called Global Navigation Satellite System (GNSS), allows a significant reduction in design and operational maintenance costs. Several studies have been conducted in this direction and the first navigation systems based on GPS receivers, are emerging. A receiver capable of processing multiple navigation systems, such as GPS and Galileo, would provide a better service availability. Indeed, Galileo is designed to be compatible with GPS, both in terms of signals and navigation data. Continuous knowledge of the position would then allow a closed loop control of the station keeping. Initially, we defined what the specifications of a multi-mission space receiver are. Indeed, the constraints on such a receiver are different from those for a receiver located on the surface of the Earth. The analysis of these constraints, and the performance required of a positioning system, is necessary to determine the specifications of the future receiver. There are few studies on the subject. Some of them are classified; others have, in our view, an analytical bias that distorts the determination of specifications. So we modeled the system: GNSS and receivers satellite orbits, radio frequency link. Some parameters of this link are not given in the specification or manufacturers documents. Moreover, the available theoretical data are not always relevant for realistic modeling. So we had to assess those parameters using the available data. The model was then used to simulate various scenarios representing future missions. After defining analysis criteria, specifications were determined from the simulation results. Calculating a position of a satellite navigation system involves three main phases. For each phase, there are several possible algorithms, with different performance characteristics, the circuit size or the computation load. The development of new applications based on navigation also drives the development of new adapted algorithms. We present the principle for determining a position, as well as GPS and Galileo navigation signals. From the signal structure, we explain the phases of the demodulation and localization. Through the use of GPS and Galileo constellations, standard algorithms achieve the performance required for space applications. However, these algorithms need to be adapted, thus some parts were specifically designed. In order to validate the choice of algorithms and parameters, we have simulated the various operating phases of the receiver using real GPS signals. Finally, impact and prospects are discussed in the conclusion.
5

Bayesian fusion of multi-band images : A powerful tool for super-resolution

Wei, Qi 24 September 2015 (has links) (PDF)
Hyperspectral (HS) imaging, which consists of acquiring a same scene in several hundreds of contiguous spectral bands (a three dimensional data cube), has opened a new range of relevant applications, such as target detection [MS02], classification [C.-03] and spectral unmixing [BDPD+12]. However, while HS sensors provide abundant spectral information, their spatial resolution is generally more limited. Thus, fusing the HS image with other highly resolved images of the same scene, such as multispectral (MS) or panchromatic (PAN) images is an interesting problem. The problem of fusing a high spectral and low spatial resolution image with an auxiliary image of higher spatial but lower spectral resolution, also known as multi-resolution image fusion, has been explored for many years [AMV+11]. From an application point of view, this problem is also important as motivated by recent national programs, e.g., the Japanese next-generation space-borne hyperspectral image suite (HISUI), which fuses co-registered MS and HS images acquired over the same scene under the same conditions [YI13]. Bayesian fusion allows for an intuitive interpretation of the fusion process via the posterior distribution. Since the fusion problem is usually ill-posed, the Bayesian methodology offers a convenient way to regularize the problem by defining appropriate prior distribution for the scene of interest. The aim of this thesis is to study new multi-band image fusion algorithms to enhance the resolution of hyperspectral image. In the first chapter, a hierarchical Bayesian framework is proposed for multi-band image fusion by incorporating forward model, statistical assumptions and Gaussian prior for the target image to be restored. To derive Bayesian estimators associated with the resulting posterior distribution, two algorithms based on Monte Carlo sampling and optimization strategy have been developed. In the second chapter, a sparse regularization using dictionaries learned from the observed images is introduced as an alternative of the naive Gaussian prior proposed in Chapter 1. instead of Gaussian prior is introduced to regularize the ill-posed problem. Identifying the supports jointly with the dictionaries circumvented the difficulty inherent to sparse coding. To minimize the target function, an alternate optimization algorithm has been designed, which accelerates the fusion process magnificently comparing with the simulation-based method. In the third chapter, by exploiting intrinsic properties of the blurring and downsampling matrices, a much more efficient fusion method is proposed thanks to a closed-form solution for the Sylvester matrix equation associated with maximizing the likelihood. The proposed solution can be embedded into an alternating direction method of multipliers or a block coordinate descent method to incorporate different priors or hyper-priors for the fusion problem, allowing for Bayesian estimators. In the last chapter, a joint multi-band image fusion and unmixing scheme is proposed by combining the well admitted linear spectral mixture model and the forward model. The joint fusion and unmixing problem is solved in an alternating optimization framework, mainly consisting of solving a Sylvester equation and projecting onto a simplex resulting from the non-negativity and sum-to-one constraints. The simulation results conducted on synthetic and semi-synthetic images illustrate the advantages of the developed Bayesian estimators, both qualitatively and quantitatively.
6

Analyse de performance et de stabilité des réseaux de télécommunication

Junier, Aurore 16 December 2013 (has links) (PDF)
Dans cette thèse nous avons tout d'abord abordé le problème de la stabilité des réseaux. Dans ce but, nous avons premièrement développé une méthode temps-réelle définissant des indicateurs de stabilités pour un flux quelconque de messages observé. Puis, nous nous sommes intéressé au cas particulier des flux d'alarmes, qui constituent actuellement un enjeu pour les réseaux du futur. Une méthode créant un graphe statistique de corrélation des alarmes fut développée. Nous avons montré que l'utilisation de la méthode précédente est très utile. Dans un second temps nous avons abordé les problèmes de paramétrisation des réseaux. Nous avons exploré une piste visant à représenter le comportement du protocole OSPF par un réseau de Petri temporisé. Alors, une heuristique à été crée afin de définir, le mieux possible certains paramètres du protocole modulant les arrivées de messages dans le réseau. Nous avons utilisé la simulation de réseau de Petri afin d'observer l'effet de l'heuristique sur le comportement du protocole OSPF. Finalement, nous avons étudié, à l'aide de la théorie du Network Calculus, les politiques de services à priorités fixes. Nous avons défini un programme linéaire, qui étant donné une paramétrisation des arrivées de message et des services, calcule une borne maximale du délai d'un flux observé dans un réseau de topologie quelconque.
7

Sur la modélisation des réseaux de communication sans fil en utilisant les processus ponctuels non-poisson

Nguyen, Tien Viet 09 January 2013 (has links) (PDF)
La géométrie stochastique est un outil puissant pour modéliser des grands réseaux sans fil avec une grande variation de la position des nœuds. Dans ce cadre, une hypothèse courante est que l'emplacement des nœuds forme une réalisation d'un processus ponctuel de Poisson (PPP). En utilisant les résultats disponibles concernant la transformée de Laplace du processus bruit de grenaille associé à des PPPs, on peut obtenir des solutions de forme fermée des métriques de performance de réseau telles que la probabilité d'accès au médium (MAP), la probabilité de couverture (COP) et de la densité spatiale de débit (SDT). Cependant, dans de nombreux déploiements de réseaux sans fil, il y a un mécanisme de détection des porteuses(CS) pour empêcher nœuds qui sont trop proches les uns des autres de transmettre en même temps. Dans ces réseaux, le processus des nœuds qui transmettent simultanément à tout moment ne forme plus une réalisation d'un PPP, ce qui rend l'analyse des performances des réseaux dans ces cas, un problème difficile. L'objectif de cette thèse est d'étudier ce problème dans deux directions. Dans la première direction, nous proposons un cadre complet de la géométrie stochastique qui utilise des processus ponctuels avec exclusion pour modéliser des transmetteurs dans différents types de réseaux sans fil avec un mécanisme de CS. Les réseaux considérés sont les réseaux à accès multiple en cherchant à détecter une porteuse (Carrier Sensing Multiple Access-CSMA) avec un mécanisme de détection (CS) parfait, les réseaux de radio-communications cognitifs où les utilisateurs secondaires utilisent la détection de porteuse pour détecter les utilisateurs principaux et les réeseaux CSMA avec un CS imparfait. Pour les deux premiers cas, nous dérivons des approximations des métriques de performances principales de réseau, c'est-à-dire la MAP, la COP et la SDT. Pour le dernier cas, nous donnons des bornes sur la densité spatiale critique des nœuds où CSMA commence à se comporter comme ALOHA (c'est-à-dire le processus de des nœuds qui transmettent simultanément dans le réseau forme une réalisation d'un PPP). Bien que ce phénomène ait été étudié auparavant par simulations, aucun résultat d'analyse n'a été connu à de notre connaissance. Dans la seconde direction, nous étudions la distribution processus ponctuel s' associés avec les classique Matérn modèles de type II et type III [Matérn 68]. Ce sont les deux modèles utilisés pour modéliser les réseaux CSMA avec un CS parfait. Bien que ces modèles aient été introduits il y a longtemps et qu'ils aient de nombreuses applications dans de nombreuses disciplines, la distribution de leurs processus ponctuels associés et la transformation de Laplace des processus bruit de grenaille correspondant est encore un problème ouvert. Nous montrons ici que la fonctionnelle génératrice des probabilités de ces processus ponctuels, lorsqu'elle est correctement paramétrée, est la solution unique de certain système d'équations différentielles. Grace à l'utilisation de ce système d'équations, on peut obtenir une borne inférieure et une borne supérieure de ces fonctionnelle. Ce résultat peut ensuite être appliqué au cadre de la géométrie stochastique mentionnée ci-dessus pour mieux connecter les cadres d'analyse mathématiques et les déploiements de réseaux pratiques.
8

Propagation d'une position dans les réseaux connectés

Chelly, Magda Lilia 07 July 2011 (has links) (PDF)
Les systèmes de positionnement ont connu un progrès indéniable. Actuellement, la précision atteint quelques centimètres sous certaines conditions : espace ouvert, ciel dégagé, technique très spécifique, etc. Néanmoins, le problème du positionnement dans un environnement intérieur demeure persistant : les trajets multiples qui compliquent les modèles de propagation, l'atténuation, etc. Différents systèmes ont vu le jour, utilisant des technologies telles que l'UWB, le WiFi ou l'Infrarouge. Ces systèmes apportent des résultats de positionnement intéressants, atteignant l'ordre du mètre. Cette précision reste liée à certaines contraintes : une infrastructure, une technologie utilisée, une calibration, une technique de calcul, etc. Afin de réduire toutes ces contraintes, nous proposons une nouvelle approche de positionnement. Notre approche utilise tous les équipements réseaux présents dans un environnement. Elle se base sur deux étapes fondamentales : l'étude de visibilité et l'élaboration de liens géographiques. L'étude de visibilité permet d'obtenir les équipements visibles par un équipement. Nous avons exposé plusieurs modèles de visibilité et nous avons effectué une comparaison des résultats. L'élaboration de liens géographiques permet de construire un graphe géographique tridimensionnel reliant tous les équipements de l'environnement. Ce graphe nous permet de visualiser la répartition des équipements et d'estimer les positions géographiques de chaque équipement. Pour la mise en œuvre de notre approche, nous avons développé un simulateur sous Matlab. Le simulateur élaboré évalue d'abord le nombre d'équipements visibles. Il estime les distances séparant cet équipement de chaque équipement visible. Enfin, il construit un graphe géographique et calcul les positions géographiques. Des résultats de simulations sont présentés pour valider notre approche qui permet d'aboutir à un système capable d'opérer, sans aucune infrastructure additionnelle, un positionnement dans un environnement intérieur et extérieur
9

Adaptation de contexte basée sur la Qualité d'Expérience dans les réseaux Internet du Futur

Cherif, Wael 19 June 2013 (has links) (PDF)
Pour avoir une idée sur la qualité du réseau, la majorité des acteurs concernés (opérateurs réseau, fournisseurs de service) se basent sur la Qualité de Service (Quality of Service). Cette mesure a montré des limites et beaucoup d'efforts ont été déployés pour mettre en place une nouvelle métrique qui reflète, de façon plus précise, la qualité du service offert. Cette mesure s'appelle la qualité d'expérience (Quality of Experience). La qualité d'expérience reflète la satisfaction de l'utilisateur par rapport au service qu'il utilise. Aujourd'hui, évaluer la qualité d'expérience est devenu primordiale pour les fournisseurs de services et les fournisseurs de contenus. Cette nécessité nous a poussés à innover et concevoir des nouvelles méthodes pour estimer la QoE. Dans cette thèse, nous travaillons sur l'estimation de la QoE (1) dans le cas des communications Voix sur IP et (2) dans le cas des services de diffusion Vidéo sur IP. Nous étudions les performances et la qualité des codecs iLBC, Speex et Silk pour la VoIP et les codecs MPEG-2 et H.264/SVC pour la vidéo sur IP. Nous étudions l'impact que peut avoir la majorité des paramètres réseaux, des paramètres sources (au niveau du codage) et destinations (au niveau du décodage) sur la qualité finale. Afin de mettre en place des outils précis d'estimation de la QoE en temps réel, nous nous basons sur la méthodologie Pseudo-Subjective Quality Assessment. La méthodologie PSQA est basée sur un modèle mathématique appelé les réseaux de neurones artificiels. En plus des réseaux de neurones, nous utilisons la régression polynomiale pour l'estimation de la QoE dans le cas de la VoIP.
10

Mouvements Autonomes : vers la Créativité dans les Réseaux sans fil

Razafindralambo, Tahiry 05 December 2013 (has links) (PDF)
La mobilité est le caractère ou la propriété d'un objet qui a une capacité ou une possibilité de se mouvoir ou d'être mû. Elle caractérise toutes choses qui changent rapidement de forme, d'aspect ou qui est instable, variable ou fluctuant dans le temps et l'espace. L'introduction de la mobilité dans les réseaux a marqué une étape dans la description et la mise en place de systèmes communicants devant tenir compte de la mobilité d'une ou plusieurs entités composant ce système. L'évolution des paradigmes de communication actuels montre qu'il est de plus en plus difficile de concevoir un système de communication intégrant l'utilisateur final sans parler de mobilité. A partir du moment où l'on considère que la mobilité existe dans les réseaux qu'elle soit physique comme par exemple avec déplacement physique d'une entité ou logique avec le déplacement d'une ressource ou d'un service, les communications dans ces réseaux doivent tenir compte de cette mobilité. Les protocoles de communications doivent donc prendre en compte l'instabilité, la variabilité et la fluctuation imposées par la mobilité de certaines entités composants le réseau. C'est ainsi que beaucoup de protocoles de communications, surtout les protocoles pour les réseaux ad hoc, ont été conçus et évalués pour et selon leur résistance à la mobilité comme préconisé par Corson et Macker dans la RFC 2501. Au début des années 2000, des travaux montrent que la mobilité n'a pas que des inconvénients en soulignant que la mobilité permet d'augmenter la capacité, la sécurité et les zones couvertes. Ces articles et bien d'autres soulèvent deux points importants: (i) L'apport de la mobilité décrite dans ces articles concernent des services ou des fonctionnalités de niveau application si l'on s'en réfère au modèle OSI et (ii) la mobilité considérée est une mobilité subie par des entités composant le réseau. Les deux points soulevés précédemment seront abordés suivant différents angles ici. Par rapport au premier point les résultats que je montre ici considèrent deux aspects. Le premier aspect se concentre sur les apports de la mobilité au niveau application et plus spécifiquement au niveau de la couverture dans les réseaux de capteurs. Le deuxième aspect considère l'utilisation de la mobilité comme une primitive de réseau et utilise celle-ci pour augmenter les performances de la pile protocolaire. Concernant ces deux points et contrairement à la majorité des travaux de la littérature, la mobilité considérée est une mobilité contrôlée. Cet aspect permet entre autre de contrôler ou d'anticiper l'instabilité, la variabilité et la fluctuation du réseau mais aussi de maîtriser la couverture et la topologie dans les réseaux de capteurs. L'utilisation de la mobilité contrôlée pour les applications de réseau de capteurs et pour augmenter la qualité de service de la pile protocolaire sont les deux contributions qui sont abordés ici. Dans ce cadre, des algorithmes exploitant la mobilité contrôlée sont conçues et des propriétés sur ses algorithmes sont prouvées. De plus, des évaluations sur des plate-formes de robots mobiles montrent la faisabilité des ces algorithmes dans un cadre réel.

Page generated in 0.1391 seconds