• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 99
  • 13
  • 9
  • 7
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 166
  • 166
  • 97
  • 73
  • 62
  • 58
  • 35
  • 28
  • 26
  • 23
  • 21
  • 21
  • 20
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Performance Analysis of the Datagram Congestion Control Protocol DCCP for Real-Time Streaming Media Applications

Jero, Samuel C. 25 September 2013 (has links)
No description available.
162

On Risk Management of Electrical Distribution Systems and the Impact of Regulations

Wallnerström, Carl Johan January 2008 (has links)
The Swedish electricity market was de-regulated in 1996, followed by new laws and a new regulation applied to the natural monopolies of electrical distribution systems (EDS). These circumstances have motivated distribution systems operators (DSOs) to introduce more comprehensive analysis methods. The laws, the regulation and additional incentives have been investigated within this work and results from this study can be valuable when developing risk methods or other quantitative methods applied to EDS. This tendency is not unique for Sweden, the results from a comparative study of customer outage compensation laws between Sweden and UK is for example included. As a part of investigating these incentives, studies of the Swedish regulation of customer network tariffs have been performed which provide valuable learning when developing regulation models in different countries. The Swedish regulatory model, referred to as the Network Performance Assessment Model (NPAM), was created for one of the first de-regulated electricity markets in the world and has a unique and novel approach. For the first time, an overall presentation of the NPAM has been performed including description of the underlying theory as a part of this work. However, the model has been met by difficulties and the future usage of the model is uncertain. Furthermore, the robustness of the NPAM has been evaluated in two studies with the main conclusion that the NPAM is sensitive toward small variations in input data. Results from these studies are explained theoretically investigating algorithms of the NPAM. A pre-study of a project on developing international test systems is presented and this ongoing project aims to be a useful input when developing risk methods. An application study is included with the approach to systematically describe the overall risk management process at a DSO including an evaluation and ideas of future developments. The main objective is to support DSOs in the development of risk management, and to give academic reference material to utilize industry experience. An idea of a risk management classification has been concluded from this application study. The study provides an input to the final objective of a quantitative risk method. / QC 20101125
163

Quadri-dimensional approach for data analytics in mobile networks

Minerve, Mampaka Maluambanzila 10 1900 (has links)
The telecommunication market is growing at a very fast pace with the evolution of new technologies to support high speed throughput and the availability of a wide range of services and applications in the mobile networks. This has led to a need for communication service providers (CSPs) to shift their focus from network elements monitoring towards services monitoring and subscribers’ satisfaction by introducing the service quality management (SQM) and the customer experience management (CEM) that require fast responses to reduce the time to find and solve network problems, to ensure efficiency and proactive maintenance, to improve the quality of service (QoS) and the quality of experience (QoE) of the subscribers. While both the SQM and the CEM demand multiple information from different interfaces, managing multiple data sources adds an extra layer of complexity with the collection of data. While several studies and researches have been conducted for data analytics in mobile networks, most of them did not consider analytics based on the four dimensions involved in the mobile networks environment which are the subscriber, the handset, the service and the network element with multiple interface correlation. The main objective of this research was to develop mobile network analytics models applied to the 3G packet-switched domain by analysing data from the radio network with the Iub interface and the core network with the Gn interface to provide a fast root cause analysis (RCA) approach considering the four dimensions involved in the mobile networks. This was achieved by using the latest computer engineering advancements which are Big Data platforms and data mining techniques through machine learning algorithms. / Electrical and Mining Engineering / M. Tech. (Electrical Engineering)
164

Application of Information Theory and Learning to Network and Biological Tomography

Narasimha, Rajesh 08 November 2007 (has links)
Studying the internal characteristics of a network using measurements obtained from endhosts is known as network tomography. The foremost challenge in measurement-based approaches is the large size of a network, where only a subset of measurements can be obtained because of the inaccessibility of the entire network. As the network becomes larger, a question arises as to how rapidly the monitoring resources (number of measurements or number of samples) must grow to obtain a desired monitoring accuracy. Our work studies the scalability of the measurements with respect to the size of the network. We investigate the issues of scalability and performance evaluation in IP networks, specifically focusing on fault and congestion diagnosis. We formulate network monitoring as a machine learning problem using probabilistic graphical models that infer network states using path-based measurements. We consider the theoretical and practical management resources needed to reliably diagnose congested/faulty network elements and provide fundamental limits on the relationships between the number of probe packets, the size of the network, and the ability to accurately diagnose such network elements. We derive lower bounds on the average number of probes per edge using the variational inference technique proposed in the context of graphical models under noisy probe measurements, and then propose an entropy lower (EL) bound by drawing similarities between the coding problem over a binary symmetric channel and the diagnosis problem. Our investigation is supported by simulation results. For the congestion diagnosis case, we propose a solution based on decoding linear error control codes on a binary symmetric channel for various probing experiments. To identify the congested nodes, we construct a graphical model, and infer congestion using the belief propagation algorithm. In the second part of the work, we focus on the development of methods to automatically analyze the information contained in electron tomograms, which is a major challenge since tomograms are extremely noisy. Advances in automated data acquisition in electron tomography have led to an explosion in the amount of data that can be obtained about the spatial architecture of a variety of biologically and medically relevant objects with sizes in the range of 10-1000 nm A fundamental step in the statistical inference of large amounts of data is to segment relevant 3D features in cellular tomograms. Procedures for segmentation must work robustly and rapidly in spite of the low signal-to-noise ratios inherent in biological electron microscopy. This work evaluates various denoising techniques and then extracts relevant features of biological interest in tomograms of HIV-1 in infected human macrophages and Bdellovibrio bacterial tomograms recorded at room and cryogenic temperatures. Our approach represents an important step in automating the efficient extraction of useful information from large datasets in biological tomography and in speeding up the process of reducing gigabyte-sized tomograms to relevant byte-sized data. Next, we investigate automatic techniques for segmentation and quantitative analysis of mitochondria in MNT-1 cells imaged using ion-abrasion scanning electron microscope, and tomograms of Liposomal Doxorubicin formulations (Doxil), an anticancer nanodrug, imaged at cryogenic temperatures. A machine learning approach is formulated that exploits texture features, and joint image block-wise classification and segmentation is performed by histogram matching using a nearest neighbor classifier and chi-squared statistic as a distance measure.
165

Evaluación y Modelado de Redes Oportunistas

Chancay Garcia, Leonardo Javier 29 July 2019 (has links)
[ES] La disponibilidad y el rendimiento de las actuales tecnologías inalámbricas como WiFi o 4G, pueden tener serios problemas de congestión y propagación, especialmente en espacios muy concurridos, o bien ser inaccesibles en sitios remotos o con baja densidad de personas. La utilización de las Redes Oportunistas en este tipo de escenarios puede ser la solución a estos problemas. Estas redes se basan en la oportunidad de intercambiar mensajes utilizando algún tipo de tecnología de comunicación directa entre dispositivos móviles como son Bluetooth o WiFi. El rendimiento de las Redes Oportunistas depende principalmente de la movilidad de los nodos y los protocolos de enrutamiento utilizados, siendo estos últimos los encargados de decidir como son intercambiados los mensajes cuando un contacto ocurre, intentando encontrar la mejor ruta para que un mensaje alcance su destino. Por otra parte, la eficiencia de la difusión en estas redes está ligada especialmente a la movilidad de los usuarios y al comportamiento humano. Entonces, para el análisis y la evaluación del rendimiento de las Redes Oportunistas es necesario considerar tanto los aspectos técnicos relacionados con los protocolos de encaminamiento, como los aspectos de la movilidad humana. Esta tesis doctoral se centra principalmente en evaluar la diseminación de la información usando redes oportunistas en escenarios urbanos, en los que existen diferentes densidades y tasas de renovación de personas, es decir, con usuarios que puedan entrar y salir del escenario evaluado. Dado que la existencia de este tipo de trazas reales es muy limitada, en esta tesis se plantea la generación de este tipo de trazas de forma sintética. Para ello, mediante el uso de un simulador de movilidad peatonal, se han generado trazas realistas de movilidad con diferentes grados de densidad y tasas de renovación de usuarios con el objeto de evaluar diferentes aspectos de la difusión de mensajes en las Redes Oportunistas. El análisis de las características temporales y espaciales de estas trazas generadas refleja el realismo de los escenarios que se han considerado. Además, los experimentos relativos a la difusión de mensajes realizados con estas trazas, confirman que la tasa de renovación tiene un gran impacto en el rendimiento de los protocolos, lo que es particularmente evidente cuando el tamaño de los mensajes es mayor. Por otra parte, también se ha realizado el estudio, utilizando en este caso trazas reales, de la difusión de información a través de las Redes Oportunistas Vehiculares. Ya que de la misma manera la movilidad de estos vehículos está ligada al comportamiento humano, nos hemos centrado en la diseminación de la información en determinadas horas del día dependiendo del número de vehículos en circulación, debido a que este aspecto tiene un gran impacto en el reenvío de datos. Los resultados de estos experimentos confirman que los dos principales factores que afectan a la difusión de información son el grado de movilidad y el tamaño de mensaje. Aunque es bien sabido que al aumentar la densidad de nodos aumenta la velocidad de difusión, mostramos que, al mantener la densidad de nodos fija, las tasas de renovación más altas hacen que la relación de entrega disminuya. Además, descubrimos que la relación entre el tamaño del mensaje y la duración del contacto también es un factor clave, lo que demuestra que la transmisión de los mensajes grandes puede llevar a un rendimiento general muy bajo. Basándonos en todo lo expuesto anteriormente, se ha propuesto una mejora al protocolo Epidemic, a la que hemos denominado EpidemicX2, que se basa en la fragmentación de los datos a ser enviados con el fin de aprovechar la corta duración de los contactos para aumentar así la posibilidad de su entrega. Este protocolo es particularmente efectivo para la difusión de los mensajes grandes. Los resultados muestran que la tasa de entrega se increment / [CA] La disponibilitat i el rendiment de les actuals tecnologies sense fil com WiFi o 4G, poden tindre seriosos problemes de congestió i propagació, especialment en espais molt concorreguts, o bé ser inaccessibles en llocs remots o amb baixa densitat de persones. La utilització de les Xarxes Oportunistes en este tipus d'escenaris pot ser la solució a estos problemes. Estes xarxes es basen en l'oportunitat d'intercanviar missatges utilitzant algun tipus de tecnologia de comunicació directa entre dispositius mòbils com són Bluetooth o WiFi. El rendiment de les Xarxes Oportunistes depén principalment de la mobilitat dels nodes i els protocols d'enrutamiento utilitzats, sent estos últims els encarregats de decidir com són intercanviats els missatges quan un contacte ocorre, intentant trobar la millor ruta perquè un missatge abast el seu destí. D'altra banda, l'eficiència de la difusió en estes xarxes està lligada especialment a la mobilitat dels usuaris i al comportament humà. Llavors, per a l'anàlisi i l'avaluació del rendiment de les Xarxes Oportunistes és necessari considerar tant els aspectes tècnics relacionats amb els protocols d'acarrerament, com els aspectes de la mobilitat humana. Esta tesi doctoral se centra principalment a avaluar la disseminació de la informació usant xarxes oportunistes en escenaris urbans, en els que hi ha diferents densitats i taxes de renovació de persones, és a dir, amb usuaris que puguen entrar i eixir de l'escenari avaluat. Atés que l'existència d'este tipus de traces reals és molt limitada, en esta tesi es planteja la generació d'este tipus de traces de forma sintètica. Per a això, per mitjà de l'ús d'un simulador de mobilitat de vianants, s'han generat traces realistes de mobilitat amb diferents graus de densitat i taxes de renovació d'usuaris amb l'objecte d'avaluar diferents aspectes de la difusió de missatges en les Xarxes Oportunistes. L'anàlisi de les característiques temporals i espacials d'estes traces generades reflectix el realisme dels escenaris que s'han considerat. A més, els experiments relatius a la difusió de missatges realitzats amb estes traces, confirmen que la taxa de renovació té un gran impacte en el rendiment dels protocols, la qual cosa és particularment evident quan la grandària dels missatges és major. D'altra banda, també s'ha realitzat l'estudi, utilitzant en este cas traces reals, de la difusió d'informació a través de les Xarxes Oportunistes Vehiculares. Ja que de la mateixa manera la mobilitat d'estos vehicles està lligada al comportament humà, ens hem centrat en la disseminació de la informació en determinades hores del dia depenent del nombre de vehicles en circulació, pel fet que este aspecte té un gran impacte en el reexpedició de dades. Els resultats d'estos experiments confirmen que els dos principals factors que afecten la difusió d'informació són el grau de mobilitat i la grandària de missatge. Encara que és ben sabut que a l'augmentar la densitat de nodes augmenta la velocitat de difusió, mostrem que, al mantindre la densitat de nodes fixa, les taxes de renovació més altes fan que la relació d'entrega disminuïsca. A més, descobrim que la relació entre la grandària del missatge i la duració del contacte també és un factor clau, la qual cosa demostra que la transmissió dels missatges grans pot portar a un rendiment general molt davall. Basant-nos en tot el que exposa anteriorment, s'ha proposat una millora al protocol Epidemic, a la que hem denominat EpidemicX2, que es basa en la fragmentació de les dades a ser enviats a fi d'aprofitar la curta duració dels contactes per a augmentar així la possibilitat del seu entrega. Este protocol és particularment efectiu per a la difusió dels missatges grans. Els resultats mostren que la taxa d'entrega s'incrementa, el temps mitjana en l'entrega es reduïx, sense un substancial increment en termes de sobrecàrrega. / [EN] The availability and performance of current wireless technologies such as WiFi or 4G, can have severe problems of congestion and information diffusion, especially in crowded spaces, or, on the other side, be inaccessible in places with a low density of people. The use of Opportunistic Networks in these types of scenarios can be a solution to these problems. These networks are based on the opportunity to exchange messages using some type of direct communication technology between nearby mobile devices such as Bluetooth or WiFi. The performance of these networks depends mainly on the mobility of the nodes and the routing protocols used. The goal of these protocols is to decide how messages are exchanged when a pair of nodes are in contact, trying to find the best route for a message to reach its destination. The efficiency of the diffusion in these networks is related mainly to the mobility of users and human behaviour. Therefore, for the analysis and evaluation of the performance of the Opportunistic Networks, it is necessary to consider both the technical aspects related to the routing protocols, as well as the aspects of human mobility. This thesis mainly focuses on evaluating the dissemination of information using Opportunistic Networks in urban scenarios, in which there are different densities and renewal rates of people, that is, with users who can enter and leave the evaluated scenario. Given that the existence of this type of real traces is very limited, this thesis proposes the generation of realistic traces. For this, through the use of a pedestrian mobility simulator, realistic traces of mobility have been defined with different degrees of density and renewal rates of users to evaluate different aspects of the Opportunistic Network with this approach. The analysis of the temporal and spatial characteristics of these generated traces reflects the realism of the scenarios that have been considered. The experiments related to the diffusion of messages made with these traces, confirm that the renewal rate has a high impact on the performance of the protocols, which is particularly evident when the message size is longer. Furthermore, considering vehicular scenarios, a study has also been carried out using real traces, following the same methodology to evaluate the dissemination of information. Since in the same way the mobility of these vehicles is linked to human behaviour, we have focused on the dissemination of information at certain times of the day depending on the number of vehicles in circulation, since this aspect has a significant impact on data diffusion. The results of all these experiments show that the diffusion of contents is affected mainly by two factors: degree of mobility and message size. Although it is well known that increasing the density of nodes increases the speed of diffusion, we show that, by maintaining the density of fixed nodes, the higher renewal rates cause the delivery ratio to decrease. In addition, we discovered that the relationship between message size and contact duration is also a key factor, showing that large messages can lead to very reduced overall performance. Based on these results, an improvement to the Epidemic protocol has been proposed, called EpidemicX2, which is based on the fragmentation of the data to be sent in order to take advantage of the short duration of the contacts. This protocol is particularly effective for the dissemination of large messages. The results show that the delivery rate increases, the average time in the delivery is reduced, without a substantial increase in terms of overload. / Finalmente, quiero agradecer a la República del Ecuador junto con la “Secretaría de Educación Superior, Ciencia y Tecnología e Innovación” - SENESCYT, por su programa de apoyo y financiar mis estudios. / Chancay Garcia, LJ. (2019). Evaluación y Modelado de Redes Oportunistas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/124339
166

Jämförelse av cache-tjänster: WSUS Och LanCache / Comparison of cache services: WSUS and LanCache

Shammaa, Mohammad Hamdi, Aldrea, Sumaia January 2023 (has links)
Inom nätverkstekniken och datakommunikationen råder idag en tro på tekniken nätverkscache som kan spara data för att senare kunna hämta hem det snabbare. Tekniken har genom åren visat att den effektivt kan skicka den önskade data till sina klienter. Det finns flera cache-tjänster som använder tekniken för Windows-uppdateringar. Bland dessa finns Windows Server Update Services (WSUS) och LanCache. På uppdrag från företaget TNS Gaming AB jämförs dessa tjänster med varandra under examensarbetet. Nätverkscache är ett intressant forskningsområde för framtida kommunikationssystem och nätverk tack vare sina fördelar. Likaså är uppgiften om att jämföra cache-tjänsterna WSUS och LanCache intressant i och med det öppnar upp insikt om vilken tjänst är bättre för företaget eller andra intressenter. Både forskningsområdet och uppgiften är viktiga och intressanta när användare vill effektivisera användningen av internetanslutningen och bespara nätverksresurser. Därmed kan tekniken minska nedladdningstiden. Till det här arbetet besvaras frågor om vilken nätverksprestanda, resursanvändning och administrationstid respektive cache-tjänst har, och vilken cache-tjänst som lämpar sig bättre för företagets behov. I arbetet genomförs experiment, som omfattar tre huvudmättningar, och följs av en enfallstudie. Syftet med arbetet är att med hjälp av experimentets mätningar få en jämförelse mellan WSUS och LanCache. Resultatet av arbetet utgör sedan ett underlag för det framtida lösningsvalet. Resultaten består av två delar. Den första visar att båda cache-tjänsterna bidrar till kortare nedladdningstider. Den andra är att LanCache är bättre än WSUS när det gäller nätverksprestanda och resursanvändning, samt mindre administrationstid jämfört med WSUS. Givet resultat dras slutsatsen att LanCache är cache-tjänsten som är mest lämpad i det här fallet. / In the field of network technology and data communication, there is a current belief in the technology of network caching, which can store data to later retrieve it more quickly. Over the years, this technology has proven its ability to efficiently deliver the desired data to its clients. There are several caching services that utilize this technology for Windows updates, among them are Windows Server Update Services (WSUS) and LanCache. On behalf of the company TNS Gaming AB, these services are compared to each other in this thesis. Network caching is an interesting area of research for future communication systems and networks due to its benefits. Likewise, the task of comparing the cache services WSUS and LanCache is interesting as it provides insights into which service is better suited for the company or other stakeholders. Both the research area and the task are important and intriguing when users seek to streamline the use of their internet connection and conserve network resources. Thus, the technology can reduce download times. For this work, questions about the network performance, resource usage, and administration time of each cache service are answered, as well as which cache service that is better suited to the company's needs. The work involves conducting experiments, including three main measurements, followed by a single case study. The purpose of the work is to compare WSUS and LanCache using the measurements from the experiment. The outcome of the work then forms a basis for future solution choice. The results consist of two parts. The first shows that both cache services contribute to shorter download times. The second is that LanCache outperforms WSUS in terms of network performance and resource usage, and also requires less administration time than WSUS. Given the results, the conclusion is drawn that LanCache is the most suitable caching service in this case.

Page generated in 0.1069 seconds