• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4310
  • 2183
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 6500
  • 6494
  • 5850
  • 5652
  • 5613
  • 1815
  • 1698
  • 1688
  • 1684
  • 1683
  • 1176
  • 1157
  • 1017
  • 472
  • 435
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Representation and extraction of CASE information using a repository

Gustavsson, Henrik January 1997 (has links)
Many contemporary development environments rely on CASE tools to store and manipulate development information. To be able to integrate different tools a central place of storage called a repository is used. The content of the repository is defined by a metamodel. CDIF is a standard proposal which supports transfer between many different types of CASE tools. CDIF contains an extensive and extensible metamodel which could be used as a transfer format or as a repository metamodel. In this dissertation a set of requirements for a repository metamodel are then developed and a repository metamodel based on CDIF is defined. The representation of a contemporary CASE tool is mapped into this repository metamodel. The full semantics of the CASE information stored in the repository is then extracted using an external validation system which transfers the CASE data into natural language. An evaluation of the results against the developed requirements conclude that a repository metamodel which is very close to the CDIF metamodel will not fully meet all of these requirements without changes to the metamodel structure.
362

A Conflict Detection and Resolution Mechanism for Bounded-Delay Replication

Lundström, Johan January 1997 (has links)
One way of avoiding unpredictable delays, in a distributed real-time database, is to allow transactions to commit locally. In a system supporting local commit, and delayed propagation of updates, the replication protocol must be based on eventual consistency. In this thesis, we present a bounded-delay replication method which is based on eventual consistency. The approach used is to divide the replication protocol into three different problems; propagation, conflict detection and conflict resolution, where we focus on the conflict detection and resolution mechanism. We have evaluated different eventual consistency protocols and chosen version vectors as the base for the conflict detection algorithm. We introduce a method of separating policy and mechanism in the conflict resolution mechanism, which is based on forward recovery to avoid unnecessary computation. The protocols presented in this work are aimed to be used in the distributed active real-time database system DeeDS. We conclude that the protocol proposed can be used in DeeDS, under the assumption that no partition failures occur.
363

Överföring av program från värddator till målmiljö

Bergfeldt, Niklas January 1999 (has links)
Detta arbete tar upp olika överföringstekniker för att uppdatera ett program på en målmiljö. De tre överföringstekniker som analyseras är moduluppdelning, patchning och komprimering. En litteraturstudie har genomförts för att ta fram för- och nackdelar med de olika teknikerna och för att beskriva hur de fungerar. En praktisk applicering av överföringsteknikerna har även gjorts på ett specifikt PLC-system för att se vad dessa kan göra för uppdateringstiden i denna miljö. Resultatet av arbetet visade att moduluppdelning är att föredra i de fall där uppdelning av programmet är möjlig. Patchning är däremot mest lämpad då varje uppdatering av programmet är mycket liten och det således inte skiljer mycket mellan de olika versionerna av programmet. Komprimering är att föredra då det ofta är frågan om stora modifieringar i programmet eftersom komprimering ger en näst intill konstant vinst sett ur procentuell synvinkel, även om denna vinst endast är runt 50%.
364

Upphandling av standardsystem : en företagsstudie

Övelius, Erika January 1998 (has links)
Vid nya systeminvesteringar blir det idag allt vanligare att standardsystem väljs framför egenutveckling av ett skräddarsytt system. Införande av ett standardsystem påverkar verksamheten i lika hög grad som införande av ett egenutvecklat system gör. Det är viktigt att upphandlingsprocessen planeras och genomförs väl. I takt med att standardsystemen har utvecklats så har även forskningen på området ökat. Detta har resulterat i att ett antal modeller för upphandling av standardsystem har växt fram, dels för att underlätta arbetet med att inhandla ett standardsystem, dessutom kan en modell stärka kundens förhållande till leverantören. Arbetets främsta mål är att undersöka hur arbetsprocessen för upphandling av standardsystem går till idag. Vad anser företag är viktigt att behandla under upphandlingsprocessen, vilka likheter finns mellan företagen och vad skiljer sig åt. I rapporten beskrivs 6 olika upphandlingssituationer. Jag har valt att intervjua företag som inte har använt sig av en modell i upphandlingsprocessen. Detta för att en jämförelse skall kunna genomföras. En jämförelse av företagens upphandlingsprocess med den process som användandet av en modell skulle ge. Den modell som jag har valt att jämföra företagens upphandlingsprocess med är Standardsystem i Verksamheten (SIV-modellen). Med min undersökning som grund anser jag att företag inte nödvändigtvis behöver arbeta med en standardiserad modell vid upphandling av standardsystem. Det viktiga är att arbeta strukturerat och metodiskt och planera upphandlingsprocessen väl. Detta anser jag att i stort sett alla de intervjuade företagen har gjort. Rapporten tar därutöver även upp standardsystem i allmänhet. Vad är ett standardsystem, vilka för- och nackdelar finns det med ett inköp av ett standardsystem. Slutligen kommenterar jag vilka erfarenheter och slutsatser som kan dras utav mitt arbete.
365

Design and Vulnerability Analysis in ATM LAN Backbones

Leifsson, Egir Örn January 1998 (has links)
Many small to medium sized computer networks currently in use around the world are based on techniques allowing communications only in the 10 Mbps range. Due to the ever increasing amounts of traffic more efficient network solutions are becoming increasingly important, especially in establishment-wide backbones. ATM is a very interesting choice for network backbones, since it provides virtually seamless integration with existing LANs and a platform for future transitions into more advanced LAN environments. Since network solutions often cost a great deal of money and need to function well in order to properly support users, much thought must be put into how a particular network should be designed. This work concentrates on that problem, the design of an ATM backbone. To be more exact, an existing network infrastructure based partially on ATM LAN needs to be expanded, resulting in a new network backbone based purely on ATM LAN. When a new network has been designed it is desirable to know what its weak points are and how likely it is that service will be interrupted. For this reason a vulnerability analysis of certain elements in the ATM infrastructure has been performed. This analysis is very lightweight and easy to understand and interpret. There are several reasons for not performing a severely comprehensive analysis. For example, a lightweight analysis can be performed rapidly and is easy to maintain as the network evolves. In order to enable the analysis to be performed rapidly a method for lightweight vulnerability analysis has been constructed. The result of this work is a new ATM backbone design based on a number of ATM nodes and a natively connected router. The probability of certain failures in this structure has been calculated and recommendations for recovery from failures constructed.
366

Form Processing Program for the Institute of Freshwater Fisheries in Iceland

Steinsen, Ragnar January 1998 (has links)
Instituten för Färskvatten Fiske på Island administrerar och styr fiske i över 80 av Islands floder. Detta görs genom att för varje fisk som fångas registreras fiskens längd, tyngd, kön plus några andra attribut i en bok, som kallas för “fiskebok”. Dessa böcker skickas sedan till Institutet varje år där informationen ur böckerna manuellt registreras i en databas. Den manuella inmatningen är mycket tidskrävande och dyr för Instituten. Önskemål finns om automatisering av denna process. Lösningen som föreslås här är att skanna in fiskeböckerna, översätta den inskannade bilden till datorhanterbara symboler som sedan lagras i en databas. Detta projekt fokuserar endast på överföringsprocessen, det vill säga överföringen av bilder till symboler. I stort fanns det tre problem som behövde lösas, dels att ändra böckerna så att de skulle bli lämpliga för att överföra automatiskt, dels att hitta de fält som skulle överföras samt att överföra fälten. Det fanns två typer av fält som skulle överföras; isolerade siffror och kryss. Att se om en kryssruta är ikryssad eller inte, är kanske inte så svårt men överföring av bild av siffra till en symbol var det stora problemet i detta projekt. För att lösa detta används teknik som kallas för ”Artificiella Neurala Nätverk” eller ”ANN”. Till slut fungerade lösningen någorlunda, fälten kunde enkelt hittas och överföringen av kryssymbolerna blev helt korrekt. Överföringen av siffror blev tyvärr inte lika bra. I en undersökning visade det sig att på varje isolerad siffra så översatte det framtagna Neurala Nätverket 87% av siffrorna korrekt, och med innehållskontroll (t.ex. att det finns bara 31 dagar i månad) kunde denna siffran bli 96%. Om programmet någon gång skall sättas i bruk måste vissa delar av det förbättras, men i och med att bristerna är kända kan man säga att prototypapplikationen som gjordes kan fungera bra som bas till fortsätt arbete.
367

Prototyp för kommersiell biljettförsäljning över Internet

Svennevid, David January 1998 (has links)
Riksbiljett AB i Göteborg utvecklar heltäckande lösningar för biljettförsäljning. De ser en stor marknadspotential på detta område eftersom de system som nu finns börjar bli gamla och omoderna. Dessutom är det svårt att integrera dessa system med varandra eller med de nya försäljningskanaler som dagens teknik frambringar i form av internet, digital-tv, telefontjänster både via det fasta nätet och via GSM. För att underlätta för de företag som idag inte har något data system och för de företag som vill att Riksbiljett AB skall stå för driften av deras system, har Riksbiljett AB bestämt sig för att utveckla ett verktyg som möjliggör administration av biljetter via Internet. Riksbiljett AB använder uteslutande Microsofts produkter och man vill skapa en så plattformsoberoende applikation som det är möjligt. Därför föll valet på active server pages (ASP) som motor för hela applikationen. Genom att använda ASP kunde all exekvering ske på servern och kommunikationen med klienterna, i detta fallet webläsare, begränsas till HTML kod. På detta sätt har en prototyp tillverkats vilken Riksbiljett AB kan använda för att testa sina idéer hos kunder och för att snabbt kunna sätta upp en heltäckande webplats för kommersiell försäljning av biljetter över Internet. Det finns begränsningar med den prototyp som utvecklades vilket beror på den begränsade hård- och mjukvara som riksbiljett ställde till förfogande. För att få en applikation som skall användas i det verkliga livet bör operativsystem, webserver och databas bytas till snabbare och bättre alternativ. De avgränsningar som gjordes var nödvändiga för att arbetet skulle gå att utföra inom den satta tidsramen och har inte påverkat resultatet nämnvärt. Ett problem med detta arbete kan vara att teknikutvecklingen på detta område är enormt snabb och därför kommer de resultat som har nåtts snabbt bli omoderna.
368

Building Distributed Control Systems Using Distributed Active Real-Time Databases

Lundin, Mats January 1998 (has links)
From the field of control theory, we can see that varying communication delays in a control system may be hard or even impossible to handle. From this point of view it is preferable to have these delays bounded and as small and as possible in order to adapt the control process to them. On the other hand, in some cases delays are inevitable and must be handled by the control system. A control system may for different reasons be distributed, e.g., because of a distributed environment or severe environment demands such as heat or dust at some locations. Information in such a system will suffer from delays due to transportation from one place to another. These delays often show up in a random fashion, especially if a general network is used for transportation. Another source of delays is the system environment itself. For predictability reasons a real-time database is preferable if the delays are to be controlled. A straightforward way of handling delays in a control system is to build the system such that delays are constant, i.e., to build a time invariant system. The time from sensor reading to actuation is made constant either by adding a suitable delay to achieve a total constant delay or by using time-triggered reading and actuation. These are simple ways of controlling the delays, but may be very inefficient because worst-case execution time must always be used. Other ways of handling varying delays are by using more tolerant control algorithms. There are two suitable control models proposed by Nilsson (1998) for this purpose. The tolerant algorithm approach is assumed in this work. This thesis uses a distributed active real-time database system as a basis for building control systems. One of the main objectives is to determine how active functionality can be used to express the control system, i.e., how rules in the database can be used to express the control algorithm and for handling propagation of information. Another objective is to look at how the choice of consistency level in the database affects the result of the control system, i.e. how different consistency level affects the delays. Of interest is also to characterize what type of applications each level is suited for.
369

PREDICTION OF PROTEIN SECONDARY STRUCTURE by Incorporating Biophysical Information into Artificial Neural Networks

Alistair, Chalk January 1998 (has links)
This project applied artificial neural networks to the field of secondary structure prediction of proteins. A NETtalk architecture with a window size 13 was used. Over-fitting was avoided by the use of 3 real numbers to represent amino acids, reducing the number of adjustable weights to 840. Two alternative representations of amino acids that incorporated biophysical data were created and tested. They were tested both separately and in combination on a standard 7-fold cross-validation set of 126 proteins. The best performance was achieved using an average result from two predictions. This was then filtered and gave the following results. Accuracy levels for core structures were: Q3total accuracy of 61.3% consisting of Q3 accuracy’s of 54.0%, 38.1% & 77.0% for Helix, Strand and Coil respectively with Matthew’s correlation’s Ca = 0.34, Cb = 0.26 , Cc = 0.31. The average lengths of structures predicted were 9.8, 4.9 and 11.0, for helix, sheet and coil respectively. These results are lower than those of other methods using single sequences and localist representations. The most likely reason for this is over generalisation caused by using a small number of units.
370

Design Guidelines for Switched Ethernet and Fast Ethernet Networks

Ragnarsson, Thorvaldur January 1997 (has links)
Today's broadcast based shared media networks are beginning to be the bottleneck of computer systems in many organizations. A new networking paradigm, frame and cell switching, promises to meet the ever-increasing demands for network services. The objective of this project is to create design guidelines for designing switched network. The restriction was made to only focus on layer 2 switching in IEEE 802.3 (Ethernet) and IEEE 802.3u (Fast Ethernet) networks. Performing benchmark tests on a few different network architectures, and then comparing the results, helped forming the guidelines. In our benchmark test we had nine clients and one server. The only computer the clients communicated with was the server, where clients did not communicate with each other. The results showed that there was no benefit of using a switch as long as the server was connected to the switch at 10 Mbps. The results also showed that using switches in a wrong way could have negative effect on the throughput of the network. As expected when the switch was used in the right way, the throughput increased significantly.

Page generated in 0.1009 seconds