• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 98
  • 31
  • 20
  • 13
  • 7
  • 6
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 223
  • 47
  • 39
  • 38
  • 30
  • 29
  • 29
  • 28
  • 25
  • 24
  • 23
  • 21
  • 21
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Optimal Integrated Dynamic Traffic Assignment and Signal Control for Evacuation of Large Traffic Networks with Varying Threat Levels

Nassir, Neema January 2013 (has links)
This research contributes to the state of the art and state of the practice in solving a very important and computationally challenging problem in the areas of urban transportation systems, operations research, disaster management, and public policy. Being a very active topic of research during the past few decades, the problem of developing an efficient and practical strategy for evacuation of real-sized urban traffic networks in case of disasters from different causes, quickly enough to be employed in immediate disaster management scenarios, has been identified as one of the most challenging and yet vital problems by many researchers. More specifically, this research develops fast methods to find the optimal integrated strategy for traffic routing and traffic signal control to evacuate real-sized urban networks in the most efficient manner. In this research a solution framework is proposed, developed and tested which is capable of solving these problems in very short computational time. An efficient relaxation-based decomposition method is proposed, implemented for two evacuation integrated routing and signal control model formulations, proven to be optimal for both formulations, and verified to reduce the computational complexity of the optimal integrated routing and signal control problem. The efficiency of the proposed decomposition method is gained by reducing the integrated optimal routing and signal control problem into a relaxed optimal routing problem. This has been achieved through an insight into intersection flows in the optimal routing solution: in at least one of the optimal solutions of the routing problem, each street during each time interval only carries vehicles in at most one direction. This property, being essential to the proposed decomposition method, is called "unidirectionality" in this dissertation. The conditions under which this property exists in the optimal evacuation routing solution are identified, and the existence of unidirectionality is proven for: (1) the common Single-Destination System-Optimal Dynamic Traffic Assignment (SD-SODTA) problem, with the objective to minimize the total time spent in the threat area; and, (2) for the single-destination evacuation problem with varying threat levels, with traffic models that have no spatial queue propagation. The proposed decomposition method has been implemented in compliance with two widely-accepted traffic flow models, the Cell Transmission Model (CTM) and the Point Queue (PQ) model. In each case, the decomposition method finds the optimal solution for the integrated routing and signal control problem. Both traffic models have been coded and applied to a realistic real-size evacuation scenario with promising results. One important feature that is explored is the incorporation of evacuation safety aspects in the optimization model. An index of the threat level is associated with each link that reflects the adverse effects of traveling in a given threat zone on the safety and health of evacuees during the process of evacuation. The optimization problem is then formulated to minimize the total exposure of evacuees to the threat. A hypothetical large-scale chlorine gas spill in a high populated urban area (downtown Tucson, Arizona) has been modeled for testing the evacuation models where the network has varying threat levels. In addition to the proposed decomposition method, an efficient network-flow solution algorithm is also proposed to find the optimal routing of traffic in networks with several threat zones, where the threat levels may be non-uniform across different zones. The proposed method can be categorized in the class of "negative cycle canceling" algorithms for solving minimum cost flow problems. The unique feature in the proposed algorithm is introducing a multi-source shortest path calculation which enables the efficient detection and cancellation of negative cycles. The proposed method is proven to find the optimal solution, and it is also applied to and verified for a mid-size test network scenario.
52

Contributions à l'estimation de quantiles extrêmes. Applications à des données environnementales

El Methni, Jonathan 07 October 2013 (has links) (PDF)
Cette thèse s'inscrit dans le contexte de la statistique des valeurs extrêmes. Elle y apporte deux contributions principales. Dans la littérature récente en statistique des valeurs extrêmes, un modèle de queues de distributions a été introduit afin d'englober aussi bien les lois de type Pareto que les lois à queue de type Weibull. Les deux principaux types de décroissance de la fonction de survie sont ainsi modélisés. Un estimateur des quantiles extrêmes a été déduit de ce modèle mais il dépend de deux paramètres inconnus, le rendant inutile dans des situations pratiques. La première contribution de cette thèse est de proposer des estimateurs de ces paramètres. Insérer nos estimateurs dans l'estimateur des quantiles extrêmes précédent permet alors d'estimer des quantiles extrêmes pour des lois de type Pareto aussi bien que pour des lois à queue de type Weibull d'une façon unifiée. Les lois asymptotiques de nos trois nouveaux estimateurs sont établies et leur efficacité est illustrée sur des données simulées et sur un jeu de données réelles de débits de la rivière Nidd se situant dans le Yorkshire en Angleterre. La seconde contribution de cette thèse consiste à introduire et estimer une nouvelle mesure de risque appelé Conditional Tail Moment. Elle est définie comme le moment d'ordre a>0 de la loi des pertes au-delà du quantile d'ordre p appartenant à ]0,1[ de la fonction de survie. Estimer le Conditional Tail Moment permet d'estimer toutes les mesures de risque basées sur les moments conditionnels telles que la Value-at-Risk, la Conditional Tail Expectation, la Conditional Value-at-Risk, la Conditional Tail Variance ou la Conditional Tail Skewness. Ici, on s'intéresse à l'estimation de ces mesures de risque dans le cas de pertes extrêmes c'est-à-dire lorsque p tend vers 0 lorsque la taille de l'échantillon augmente. On suppose également que la loi des pertes est à queue lourde et qu'elle dépend d'une covariable. Les estimateurs proposés combinent des méthodes d'estimation non-paramétrique à noyau avec des méthodes issues de la statistique des valeurs extrêmes. Le comportement asymptotique de nos estimateurs est établi et illustré aussi bien sur des données simulées que sur des données réelles de pluviométrie provenant de la région Cévennes-Vivarais.
53

Quelques contributions à la Théorie univariée des Valeurs Extrêmes et Estimation des mesures de risque actuariel pour des pertes à queues lourdes

Deme, El Hadji 05 June 2013 (has links) (PDF)
Cette thèse est divisée en cinq chapitres auxquels s'ajoutent une introduction et une conclusion. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Dans le deuxième chapitre, nous considérons un processus statistique dépendant d'un paramétre continu tau et dont chaque marge peut être considérée comme un estimateur de Hill généralis.. Ce processus statistique permet de discriminer entièrement les domaines d'attraction des valeurs extrêmes. La normalité asymptotique de ce processus statistiquea été seulement donnée pour tau > 1/2. Nous complétons cette étude pour 0 < tau< 1/2, en donnant une approximation des domaines de Gumbel et de Fréchet. Des études de simulations effectuées avec le logiciel " R ", permettent de montrer la performance de ces estimateurs. Comme illustration, nous proposons une application de notre méthodologie aux données hydrauliques. Dans le troisième chapitre, nous étendons l'étude du processus statistique précédent dans un cadre fonctionnel. Nous proposons donc un processus stochastique dépendant d'une fonctionnelle positive pour obtenir une grande classe d'estimateurs de l'indice des valeurs extrêmes dont chaque estimateur est une marge d'un seul processus stochastique. L'étude théorique de ces processus stochastiques que nous avions menée, est basée sur la théorie moderne de convergence vague fonctionnelle. Cette dernière permet de gérer des estimateurs plus complexes sous forme de processus stochastiques. Nous donnons les distributions asymptotiques fonctionnelles de ces processus et nous montrons que pour certaines classes de fonctions, nous avons un comportement asymptotique non Gaussien et qui sera entièrement caractérisé. Dans le quatrième chapitre, on s'intéresse à l'estimation du paramètre du second ordre. Notons que ce paramètre joue un rôle très important dans le choix adaptatif du nombre optimal de valeurs extrêmes utilisé lors de l'estimation de l'indice des valeurs extrêmes. L'estimation de ce paramètre est également utilisée pour la réduction du biais des estimateurs de l'indice de queue et a reçu une grande attention dans la littérature des valeurs extrêmes .Nous proposons une simple et générale approche pour estimer le paramètre du second ordre, permettant de regrouper un grand nombre d'estimateurs. Il est montré que les estimateurs cités précedemment peuvent être vus comme des cas particuliers de notre approche. Nous tirons également parti de notre formalisme pour proposer de nouveaux estimateurs asymptotiquement Gaussiens du paramètre du second ordre. Finalement, certains estimateurs sont comparés tant du point de vue asymptotique que performance sur des échantillons de tailles finies. Comme illustration, nous proposons une application sur des données d'assurance. Dans le dernier chapitre, on s'intéresse aux mesures de risque actuariel pour des phénomènes capables d'engendrer des pertes financières très importantes (ou phenomènes extrêmes c'est-à-dire à des risques dont on ne sait pas si le système d'assurance sera capable de les supporte). De nombreuses mesures de risque ou principes de calcul de la prime ont été proposés dans la littérature actuarielle. Nous nous concentrons sur la prime de risque-ajustée. Jones et Zitikis (2003) ont donné une estimation de cette dernière basée sur la distribution empirique et ont établi sa normalité asymptotique sous certaines conditions appropriées, et qui ne sont pas souvent remplies dans le cas des distributions à queues lourdes. Ainsi, nous regardons ce cadre là et nous considérons une famille d'estimateurs de la prime de risque-ajustée basée sur l'approche de la théorie des valeurs extrêmes. Nous établissons leur normalité asymptotique et nous proposons également une approche de réduction de biais pour ces estimateurs. Des études de simulation permettent d'apprécier la qualité de nos estimateurs. Comme illustration, nous proposons une application sur des données d'assurance.
54

Écologie alimentaire et dynamique de populations du labbe à longue queue (Stercorarius longicaudus) à Alert, Île d'Ellesmere, Nunavut

Julien, Jean-Rémi 18 April 2018 (has links)
Les échanges d'énergie et de nutriments entre écosystèmes sont des processus fondamentaux dans la dynamique et la stabilité des réseaux trophiques, mais leurs rôles demeurent peu connus. Dans ce contexte, nous avons tenté d'évaluer l'impact d'une source de nutriments allochtones d'origine anthropique sur une population de prédateurs aviaires. Notre aire d'étude est située à Alert (83° N, 62° W), île d'Ellesmere, où le rejet des eaux usées de la station militaire fournit une nourriture relativement stable pour le labbe à longue queue (Stercorarius longicaudus). Nous avons utilisé la technique d'analyse des isotopes stables ([delta]¹³C et [delta]¹⁵N) pour caractériser le régime alimentaire de cette population et évaluer la contribution de cette source de nourriture anthropique. Nous avons aussi mesuré certains paramètres reproducteurs afin d'évaluer l'impact de cette source de nourriture anthropique sur ceux-ci. Nous avons découvert que la nourriture acquise au rejet des eaux usées représente une part significative du régime alimentaire des labbes et que sa contribution est plus élevée lors d'une année de faible abondance en lemming comparativement à une année de forte abondance pour les individus reproducteurs. Également, la densité de nids de labbes lors d'une année de faible abondance en lemmings à Alert était plus élevée qu'à d'autres sites comparables sans source de nourriture d'origine humaine. Ces résultats suggèrent que l'utilisation d'une ressource allochtone d'origine anthropique représente un subside qui soutient la population de labbes à ce site. Un objectif secondaire était d'estimer la survie apparente du labbe à longue queue et d'examiner l'effet des variations annuelles des lemmings sur le taux de survie. Les analyses ont été basées sur 336 individus adultes marqués avec des bagues de métal et de couleurs pendant 11 ans. L'analyse a confirmé la présence de deux groupes dans notre population à l'étude, soit des oiseaux locaux et des individus de passage représentant 18 % de la population. Nous avons estimé le taux de survie apparente (corrigé pour la perte de marqueurs auxiliaires) des oiseaux locaux à 0.91 (± 0.04 SE), ce qui est comparable à des estimés similaires obtenus pour d'autres espèces d'oiseaux marins. Nous avons détecté une tendance pour une diminution du taux de survie apparente des oiseaux nouvellement marqués (première classe d'âge) lors des années d'abondance de lemmings. Nous suggérons que cet effet puisse être une conséquence d'une augmentation de l'émigration permanente en raison de la capture d'un plus grand nombre d'oiseaux de passage attirés par la forte abondance en lemming lors de ces années.
55

INTERNET CONGESTION CONTROL: COMPLETE STABILITY REGION FOR PI AQM AND BANDWIDTH ALLOCATION IN NETWORKED CONTROL

Al-Hammouri, Ahmad Tawfiq January 2008 (has links)
No description available.
56

SENSITIVITY OF QUEUE ESTIMATES TO THE SIZE OF THE TIME INTERVAL USED TO AGGREGATE TRAFFIC VOLUME DATA

Shrestha, Sajan 19 May 2015 (has links)
No description available.
57

Increasing productivity in software testing : Visualizing and managingarbitrarily structured messages and message queues to increase productivity andusability

Pedersen, Jakob January 2015 (has links)
This thesis investigates how data sources, message queues, and messages can be generalized in such way that it allows for easy configuration and setup in a frontend visualization application. It also includes increasing the productivity of the application testers and the usability of the user interface. An analysis of one of Dewire’s test tools gave insightful information to identify what was needed in the proof-of-concept application and resulted in a list of requirements. The information gained from Dewire also indicated what technologies to use and resulted in a research phase. Different design proposals were presented and one was chosen to be implemented. An agile approach was chosen as method for the implementation phase to emphasize flexibility. It was set to be iterative and in close communication with people at Dewire. The implementation resulted in a proof-of-concept application with a GUI that allows user to configure data sources, message queues and messages. The messages are uploaded in XML format and the GUI allows for modification through HTML forms which mir-rors the XML files. The user is also able to send these messages as JMS mes-sages. Responses to these JMS messages are also shown in the GUI and saved in a database. The results suggest that accomplishing the common task to select a connection tree and send a message takes 45% less time in the proof-of-concept application compared to Dewire’s tool. To accomplish the common task to alter a message and send it takes 79% less time in the proof-of-concept appli-cation compared to Dewire’s tool. The results also suggest that theory of com-puter-human interaction have been applied during the implementation to ac-complisha usable UI. It is assessed that data sources, message queues and mes-sage can be easy configured in a GUI. Further, it is assessed that the productivi-ty has been increased compared to the former tool used.
58

Cross-layer design for OFDMA wireless networks with finite queue length based on game theory

Nikolaros, Ilias G. January 2014 (has links)
In next generation wireless networks such as 4G- LTE and WiMax, the demand for high data rates, the scarcity of wireless resources and the time varying channel conditions has led to the adoption of more sophisticated and robust techniques in PHY such as orthogonal frequency division multiplexing (OFDM) and the corresponding access technique known as orthogonal frequency division multiplexing access (OFDMA). Cross-layer schedulers have been developed in order to describe the procedure of resource allocation in OFDMA wireless networks. The resource allocation in OFDMA wireless networks has received great attention in research, by proposing many different ways for frequency diversity exploitation and system’s optimization. Many cross-layer proposals for dynamic resource allocation have been investigated in literature approaching the optimization problem from different viewpoints i.e. maximizing total data rate, minimizing total transmit power, satisfying minimum users’ requirements or providing fairness amongst users. The design of a cross-layer scheduler for OFDMA wireless networks is the topic of this research. The scheduler utilizes game theory in order to make decisions for subcarrier and power allocation to the users with the main concern being to maintain fairness as well as to maximize overall system’s performance. A very well known theorem in cooperative game theory, the Nash Bargaining Solution (NBS), is employed and solved in a close form way, resulting in a Pareto optimal solution. Two different cases are proposed. The first one is the symmetric NBS (S-NBS) where all users have the same weight and therefore all users have the same opportunity for resources and the second one, is the asymmetric NBS (A-NBS), where users have different weights, hence different priorities where the scheduler favours users with higher priorities at expense of lower priority users. As MAC layer is vital for cross-layer, the scheduler is combined with a queuing model based on Markov chain in order to describe more realistically the incoming procedure from the higher layers.
59

Queueing models for capacity changes in cellular networks

2013 December 1900 (has links)
With the rapid development of cellular communication techniques, many recent studies have focused on improving the quality of service (QoS) in cellular networks. One characteristic of the systems in cellular networks, which can have direct impact on the system QoS, is the fluctuation of the system capacity. In this thesis, the QoS of systems with capacity fluctuations is studied from two perspectives: (1) priority queueing systems with preemption, and (2) the M/M/~C/~C system. In the first part, we propose two models with controlled preemption and analyze their performance in the context of a single reference cell that supports two kinds of traffic (new calls and handoff calls). The formulae for calculating the performance measures of interest (i.e., handoff call blocking probability, new call blocking and dropping probabilities) are developed, and the procedures for solving optimization problems for the optimal number of channels required for each proposed model are established. The proposed controlled preemption models are then compared to existing non-preemption and full preemption models from the following three perspectives: (i) channel utilization, (ii) low priority call (i.e., new calls) performance, and (iii) flexibility to meet various constraints. The results showed that the proposed controlled preemption models are the best models overall. In the second part, the loss system with stochastic capacity, denoted by M/M/~C/~C, is analyzed using the Markov regenerative process (MRGP) method. Three different distributions of capacity interchange times (exponential, gamma, and Pareto) and three different capacity variation patterns (skip-free, distance-based, and uniform-based) are considered. Analytic expressions are derived to calculate call blocking and dropping probabilities and are verified by call level simulations. Finally, numerical examples are provided to determine the impact of different distributions of capacity interchange times and different capacity variation patterns on system performance.
60

Towards Controlling Latency in Wireless Networks

Bouacida, Nader 24 April 2017 (has links)
Wireless networks are undergoing an unprecedented revolution in the last decade. With the explosion of delay-sensitive applications in the Internet (i.e., online gaming and VoIP), latency becomes a major issue for the development of wireless technology. Taking advantage of the significant decline in memory prices, industrialists equip the network devices with larger buffering capacities to improve the network throughput by limiting packets drops. Over-buffering results in increasing the time that packets spend in the queues and, thus, introducing more latency in networks. This phenomenon is known as “bufferbloat”. While throughput is the dominant performance metric, latency also has a huge impact on user experience not only for real-time applications but also for common applications like web browsing, which is sensitive to latencies in order of hundreds of milliseconds. Concerns have arisen about designing sophisticated queue management schemes to mitigate the effects of such phenomenon. My thesis research aims to solve bufferbloat problem in both traditional half-duplex and cutting-edge full-duplex wireless systems by reducing delay while maximizing wireless links utilization and fairness. Our work shed lights on buffer management algorithms behavior in wireless networks and their ability to reduce latency resulting from excessive queuing delays inside oversized static network buffers without a significant loss in other network metrics. First of all, we address the problem of buffer management in wireless full-duplex networks by using Wireless Queue Management (WQM), which is an active queue management technique for wireless networks. Our solution is based on Relay Full-Duplex MAC (RFD-MAC), an asynchronous media access control protocol designed for relay full-duplexing. Compared to the default case, our solution reduces the end-to-end delay by two orders of magnitude while achieving similar throughput in most of the cases. In the second part of this thesis, we propose a novel design called “LearnQueue” based on reinforcement learning that can effectively control the latency in wireless networks. LearnQueue adapts quickly and intelligently to changes in the wireless environment using a sophisticated reward structure. Testbed results prove that LearnQueue can guarantee low latency while preserving throughput.

Page generated in 0.1049 seconds