• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 326
  • 92
  • 70
  • 52
  • 34
  • 31
  • 16
  • 9
  • 8
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • Tagged with
  • 804
  • 340
  • 131
  • 125
  • 124
  • 117
  • 100
  • 69
  • 68
  • 65
  • 63
  • 62
  • 60
  • 60
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
471

Suitability of the NIST Shop Data Model as a Neutral File Format for Simulation

Harward, Gregory Brent 07 July 2005 (has links)
Due to the successful application in internet related fields, Extensible Markup Language (XML) and its related technologies are being explored as a revolutionary software file format technology used to provide increased interoperability in the discrete-event simulation (DES) arena. The National Institute of Standards and Technology (NIST) has developed an XML-based information model (XSD) called the Shop Data Model (SDM), which is used to describe the contents of a neutral file format (NFF) that is being promoted as a means to make manufacturing simulation technology more accessible to a larger group of potential customers. Using a two step process, this thesis evaluates the NIST SDM information model in terms of its ability to encapsulate the informational requirements of one vendor's simulation model information conceptually and syntactically in order to determine its ability to serve as an NFF for the DES industry. ProModel Corporation, a leading software vendor in the DES industry since 1988, serves as the test case for this evaluation. The first step in this evaluation is to map the contents of ProModel's information model over to an XML schema file (XSD). Next, the contents of this new XSD file are categorized and compared to the SDM information model in order to evaluate compatibility. After performing this comparison, observations are made in relation to the challenges that simulation vendors might encounter when implementing the proposed NIST SDM. Two groups of limitations are encountered which cause the NIST SDM to support less than a third of the ProModel XSD elements. These two groups of limitations are: paradigm differences between the two information models and limitations posed due to the incomplete status of the NIST SDM specification. Despite these limitations, this thesis shows by comparison that XML technology does not pose any limitation which would invalidate its ability to syntactically represent a common information model or associated XML NFF. While only 28% of the ProModel element are currently supported by the SDM, appropriate changes to the SDM would allow the information model to serve as a foundation upon which a common information model and neutral file format for the DES industry could be built using XML technologies.
472

Energy Consumption Optimizations for 5G networks

Tran, Martina January 2019 (has links)
The importance of energy efficiency has grown alongside awareness of climate change due to the rapid increase of greenhouse gases. With the increasing trend regarding mobile subscribers, it is necessary to prevent an expansion of energy consumption via mobile networks. In this thesis, the energy optimization of the new radio access technology called 5G NR utilizing different sleep states to put base stations to sleep when they are not transmitting data is discussed. Energy savings and file latency with heterogeneous and super dense urban scenarios was evaluated through simulations with different network deployments. An updated power model has been proposed and the sensitivity of the new power model was analyzed by adjusting wake-up time and sleep factors. This showed that careful implementation is necessary when adjusting these parameter settings, although in most cases it did not change the end results by much. Since 5G NR has more potential in energy optimization compared to the previous generation mobile network 4G LTE, up to 4 sleep states was implemented on the NR base stations and one idle mode on LTE base stations. To mitigate unnecessary sleep, deactivation timers are used which decides when to put base stations to sleep. Without deactivation timers, the delay could increase significantly, while with deactivation timers the delay increase would only be a few percent. Up to 42.5% energy could be saved with LTE-NR non-standalone deployment and 72.7% energy with NR standalone deployment compared to LTE standalone deployment, while minimally impacting the delay on file by 1%.
473

Numerical accuracy of variable-density groundwater flow and solute transport simulations

Woods, Juliette Aimi. January 2004 (has links) (PDF)
"January 14, 2004" Includes bibliographical references (leaves 201-213)
474

Data Surveillance: Theory, Practice & Policy

Clarke, Roger Anthony, Roger.Clarke@xamax.com.au January 1997 (has links)
Data surveillance is the systematic use of personal data systems in the investigation or monitoring of the actions or communications of one or more persons. This collection of papers was the basis for a supplication under Rule 28 of the ANU's Degree of Doctor of Philosophy Rules. The papers develop a body of theory that explains the nature, applications and impacts of the data processing technologies that support the investigation or monitoring of individuals and populations. Literature review and analysis is supplemented by reports of field work undertaken in both the United States and Australia, which tested the body of theory, and enabled it to be articulated. The research programme established a firm theoretical foundation for further work. It provided insights into appropriate research methods, and delivered not only empirically-based descriptive and explanatory data, but also evaluative information relevant to policy-decisions. The body of work as a whole provides a basis on which more mature research work is able to build.
475

Numerical Accuracy of Variable-Density Groundwater Flow and Solute Transport Simulations

Woods, Juliette January 2004 (has links)
The movement of a fluid and solute through a porous medium is of great practical interest because this describes the spread of contaminants through an aquifer. Many contaminants occur at concentrations sufficient to alter the density of the fluid, in which case the physics is typically modelled mathematically by a pair of coupled, nonlinear partial differential equations. There is disagreement as to the exact form of these governing equations. Codes aiming to solve some version of the governing equations are typically tested against the Henry and Elder benchmark problems. Neither benchmark has an analytic solution, so in practice they are treated as exercises in inter code comparison. Different code developers define the boundary conditions of the Henry problem differently, and the Elder problems results are poorly understood. The Henry, Elder and some other problems are simulated on several different codes, which produce widely-varying results. The existing benchmarks are unable to distinguish which code, if any, simulates the problems correctly, illustrating the benchmarks' limitations. To determine whether these discrepancies might be due to numerical error, one popular code, SUTRA, is considered in detail. A numerical analysis of a special case reveals that SUTRA is numerically dispersive. This is confirmed using the Gauss pulse test, a benchmark that does have an analytic solution. To further explain inter code discrepancies, a testcode is developed which allows a choice of numerical methods. Some of the methods are based on SUTRA's while others are finite difference methods of varying levels of accuracy. Simulations of the Elder problem reveal that the benchmark is extremely sensitive to the choice of solution method: qualitative differences are seen in the flow patterns. Finally, the impact of numerical error on a real-world application, the simulation of saline disposals, is considered. Saline disposal basins are used to store saline water away from rivers and agricultural land in parts of Australia. Existing models of disposal basins are assessed in terms of their resemblance to real fieldsite conditions, and in terms of numerical error. This leads to the development of a new model which aims to combine verisimilitude with numerical accuracy. / Thesis (Ph.D.)--School of Mathematical Sciences (Applied Mathematics), 2004.
476

Les files et les reseaux zero-automatiques

Dao Thi, Thu Ha 03 December 2007 (has links) (PDF)
On introduit un nouveau modele de file d'attente: les files Zero-automatiques. Tout d'abord, on considere la discipline de service Premier Arrive Premier Servi. Les files 0-automatiques sont caracterisees par une salle d'attente evoluant suivant un mecanisme de marche aleatoire sur un groupe ou un monoede infini. En considerant les deux cas les plus simples et aussi extremes de files 0-automatiques, nous retrouvons la file simple M/M/1 et la G-file de Gelenbe avec clients positifs et negatifs.<br />Le resultat saillant est que toutes les files 0-automatiques ont une distribution stationnaire a forme produit et un processus de depart de Poisson. C'est un point crucial pour construire les reseaux a forme produit.<br />On considere deux modeles correspondant aux differents routages classiques: reseaux a la Jackson et reseaux a la Kelly. Dans les deux cas, on a montre que la distribution stationnaire est a forme produit et peut etre determinee explicitement. De plus, le processus de depart est Poisson.<br />Enfin, considerons les files 0-automatiques avec discipline de service Dernier Arrive Premier Servi. Dans ce cas, certaines proprietes restent vraies, mais pas toutes. On obtient des resultats interessants en comparant les zones de stabilite d'une meme file 0-automatique sous les discpilines Premier Arrive Premier Servi et Dernier Arrive Premier Servi.
477

Transport de Flux Temps Réels dans un Réseau IP<br />Mobile

Aouad, Hazar 20 January 2005 (has links) (PDF)
Dans cette thèse, nous étudions plusieurs méthodes pour la mise en place de la QoS<br />(Quality of Service) dans un réseau IP. Avant d'entamer nos travaux de recherche, nous<br />dévoilons tout d'abord les différents mécanismes de QoS que nous étudierons dans la thèse.<br />MPLS (Multi Protocol Label Switching), DiffServ (Differentiated Services) et les algorithmes<br />d'ordonnancement formeront la base du réseau coeur que nous utiliserons. En accord avec<br />plusieurs travaux, nous définissons trois classes de service à différencier dans le réseau. La<br />première classe comporte les flux voix. Elle nécessite un délai faible et une gigue réduite. Les<br />flux de "données critiques", qui requièrent un taux de perte faible et un délai borné, forme la<br />deuxième classe. La troisième classe, qui regroupe les applications telles que le transfert de<br />fichiers ou l'échange de courriers électroniques, n'exige aucune condition particulière du<br />réseau.<br />Dans un premier temps, nous modélisons les flux sortant/entrant d'un réseau mobile<br />sans fil. D'abord, nous modélisons les lois d'inter arrivée des paquets d'un flux agrégé au<br />niveau de la couche MAC (Medium Access Control) entrant au réseau UTRAN (UMTS<br />Terrestrial Radio Access Network), le réseau d'accès à l'UMTS (Universal Mobile<br />Telecommunication Service). Le protocole CDMA (Code Division Multiple Access) utilisé<br />dans ce réseau propose un accès différent en fonction de la QoS demandée. Ensuite, nous<br />déterminons la loi caractérisant l'inter arrivée des paquets sortant d'un réseau WiFi (Wireless<br />Fidelity) utilisant la couche MAC 802.11 de base. Pour ces deux réseaux, nous proposons<br />différents modèles d'agrégation de flux voix, Web, transfert de fichiers ou un multiplexage de<br />ces différentes classes. Nous mesurons l'adéquation de deux modèles de loi de distributions<br />aux traces créées. La première distribution est le processus MMPP (Markov Modulated<br />Poisson Process) qui représente un modèle Markovien. Nous expérimentons deux valeurs du<br />nombre d'états: 2 et 4. La seconde loi que nous considérons est la loi Gaussienne. Nos<br />résultats montrent que d'une part, le type des flux agrégés et d'autre part, le réseau utilisé,<br />influent tous les deux sur le modèle produit.<br />Dans un second temps, nous développons les équations qui déterminent les<br />probabilités stationnaires d'une file d'attente implémentant l'ordonnanceur GPS (Generalised<br />Processor Sharing) avec trois classes de service. En utilisant le mécanisme DiffServ pour<br />différencier les flux, nous mesurons la QoS à la sortie d'une file unique utilisant WRR<br />(Weighted Round Robin), un des algorithmes qui approximent GPS. Nous traçons alors les<br />différentes courbes de délai et de taux de perte observés à la sortie de cette file en fonction de<br />la pondération et de la charge créée par chacune des classes. Nous appliquons les différentes<br />conclusions du choix des paramètres que nous tirons d'un seul serveur à un réseau entier. De<br />plus, nous ajoutons l'ingénierie de trafic de MPLS pour quantifier le gain mesuré par chaque<br />politique. A partir de ce travail, nous avons pu généraliser nos constatations qui deviennent<br />valable aussi bien sur une file que dans un réseau.<br />Dans un troisième temps, nous développons une méthode d'adaptation dynamique du<br />routage. Nous la proposons afin de palier aux variations de la distribution du délai sur les<br />liens qui forment le chemin de bout en bout. Ce mécanisme se base sur les techniques de<br />tomographie des réseaux afin d'estimer la distribution du délai sur les différents tronçons des<br />chemins observés. Si le délai moyen sur la route utilisée reste supérieur d'un seuil ε pendant<br />un temps τ au délai moyen d'un autre chemin, le mécanisme déclenche alors la procédure de<br />modification du chemin emprunté. C'est l'utilisation du protocole MPLS associé à ce<br />mécanisme qui permet une modification souple et rapide des itinéraires.
478

Grands Réseaux Aléatoires: comportement asymptotique et points fixes

Draief, Moez 24 January 2005 (has links) (PDF)
Le théorème de Burke est un résultat classique en théorie des files d'attente. Il établit que le processus de départ d'une file M/M/1 est un processus de Poisson de même intensité que le processus des arrivées. Nous présentons des extensions de ce résultat à la file d'attente et au modèle de stockage. Nous abordons ensuite l'étude de ces systèmes en tandem et en régime transitoire. Nous prouvons que les équations qui régissent la dynamique des deux systèmes (file d'attente et modèle de stockage) sont les mêmes alors que les variables pertinentes sont différentes selon le modèle qui nous intéresse. En utilisant des analogies entre ces systèmes et l'algorithme de Robinson-Schensted-Knuth, nous donnons une preuve élégante de la propriété de symétrie de chacun des deux systèmes. Nous nous intéressons également aux corrélations entre les services des clients successifs au sein d'une période d'activité. Nous revenons par la suite au théorème de Burke que l'on peut voir comme étant un résultat de point fixe: le processus de Poisson est un point fixe pour la file d'attente avec des lois de service exponentielles. Nous prouvons des résultats de points fixes dans le cadre des grandes déviations où les variables d'entrée sont décrites par le biais de leurs fonctions de taux.
479

NFSP : Une solution de stockage distribué pour architectures grande échelle

Lombard, Pierre 10 December 2003 (has links) (PDF)
Le stockage de données utilise souvent des systèmes se caractérisant par une grande intrusivité : ceux-ci requièrent de nombreuses modifications logicielles, voire parfois même matérielles, pour être déployés et utilisés. Notre solution consiste à offrir un stockage distribué logiciel pour architectures de type grappes de nature faiblement intrusive dans la mesure où le protocole standard omni-présent du monde Unix, NFS, est utilisé. L'approche retenue se caractérise par une séparation de la gestion des méta-données et des données permettant ainsi de répartir la charge d'entrées/sorties et d'obtenir de meilleures performances. L'ajout de redondance permet aussi de disposer à moindre coût de stockage distribué encore plus performant et plus sûr. Le développement d'outils de transfert efficace inter-grappes et d'un système distribué de fichiers à plus grande échelle a permis de valider notre approche.
480

Dags att byta skiva : Paradigmskiftens påverkan på skivbolag / Time to Change Tune : Paradigms’ Affects on Record Industry

Fessé, Johan, Jessen, Anders January 2009 (has links)
<p><strong>Bakgrund:</strong> Musikindustrin har upplevt omvälvande förändringar det senaste decenniet, där skivbolagen har tappat 50 % av sin försäljning sedan år 2000. Minskningen beror till stor del på det teknologiska paradigmskifte som skett i och med digitaliseringens intåg i musikindustrin, ett intåg som förändrat marknadsvillkoren för berörda parter.</p><p><strong>Syfte: </strong>Syftet är att förstå hur marknadsledande företag påverkas och handlar under teknologiska paradigmskiften, med utgångspunkt från skivbolagsindustrin. Vidare ämnar vi undersöka vad skivbolagen har haft för roll inom musikindustrin och hur den ser ut i dag efter digitaliseringens intåg.</p><p><strong>Metod:</strong> Uppsatsen är baserad på fyra intervjuer samt en e-postkorrenspondens med personer som har upplevt industrins utveckling de senaste åren. Som komplement till intervjuerna används sekundärdata.</p><p><strong>Resultat:</strong> Skivbolagen upplevde svårigheter i och med det teknologiska paradigmskifte som digitaliseringen stod för. Skivbolagen har efter ett defensivt beteende där de motverkat förändringen börjat arbeta för att skapa affärsmodeller som är applicerbara på den digitala marknaden. Studien visar även att skivbolagen har en viktig roll i musikindustrin, då de fungerar som en samordnare för de många funktioner som är involverade i en musikproduktion.</p> / <p><strong>Background: </strong>Music industry has experienced substantial change in the last decade, in which record companies have lost 50% of its sales since the year 2000. The decrease is largely due to the technological paradigm shift that has taken place with the digitalization of the music industry. These changes have changed market conditions for existing companies.</p><p><strong>Aim:</strong> The aim of this study is to understand how market leading companies affects from and act during changes in technological paradigms with a focus on the record industry. Furthermore we will investigate the record companies’ role in the market and what their role is today after the digitalization of the market.</p><p><strong>Method:</strong> This essay is based on four interviews and one e-mail correspondence with people who have experienced the development of industry in the last decade. As complement secondary data has been used.</p><p><strong>Results:</strong> Record companies suffered difficulties due to the technological change of paradigm which was the result of digitalization. After defensive behavior the companies started to create new business models applicable on the digital market. This study also shows that record companies do have an important role in music industry as whole, as they work as a coordinator to the many functions involved in a music production.</p>

Page generated in 0.0445 seconds