• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 6
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 31
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Tiered Storage Architecture for Stream Processing Systems

Song, Ao January 2022 (has links)
State management is the key component of a stateful stream processing system. Normally a stream processing system supports either an embedded state backend or an external backend. An embedded backend will store the data locally on the computing node. It is efficient to read and write but will lose the capability to scale out the system. An external backend could solve the problem but the performance will be compromised since the operations on the data have to go over the network. This project aims to find an approach combining the advantages of both embedded and external backend, a tiered storage system has been proposed to solve this issue at the cost of more storage space. The proposed solution consists of three layers, ephemeral layer, embedded layer, and external layer. The ephemeral layer and embedded layer reside on the local node while the external layer resides on an external node to make the system reconfigurable. The application will always retrieve data from the ephemeral layer first for different kinds of operations, then the embedded layer will be consulted if no result is found in the ephemeral layer, and finally the external layer will be visited. Based on this design principle, the operations in the state will be conducted locally as much as possible to be efficient. This point has been proved in the project by evaluating the performance with different key distributions. The experiments result shows the tiered storage system can provide good performance with the capability of system reconfiguration. / Tillståndshantering är nyckelkomponenten i ett tillståndsbestämt strömbehandlingssystem. Normalt stöder ett strömbehandlingssystem antingen en inbäddad tillståndsbackend eller en extern backend. En inbäddad backend kommer att lagra data lokalt på datornoden. Det är effektivt att läsa och skriva men kommer att förlora förmågan att skala ut systemet. En extern backend kan lösa problemet men prestandan kommer att äventyras eftersom operationerna på datan måste gå över nätverket. Detta projekt syftar till att hitta ett tillvägagångssätt som kombinerar fördelarna med både inbäddad och extern backend, ett lagringssystem i nivåer har föreslagits för att lösa detta problem till priset av mer lagringsutrymme. Den föreslagna lösningen består av tre lager, kortvarigt lager, inbäddat lager och externt lager. Det tillfälliga lagret och det inbäddade lagret finns på den lokala noden medan det externa lagret finns på en extern nod för att göra systemet omkonfigurerbart. Applikationen kommer alltid att hämta data från det efemära lagret först för olika typer av operationer, sedan kommer det inbäddade lagret att konsulteras om inget resultat hittas i det efemära lagret och slutligen kommer det externa lagret att besökas. Utifrån denna designprincip kommer verksamheten på staten att bedrivas lokalt så mycket som möjligt för att vara effektiv. Denna poäng har bevisats i projektet genom att utvärdera prestandan med olika nyckelfördelningar. Experimentresultatet visar att det nivåbaserade lagringssystemet kan ge bra prestanda med möjlighet till systemomkonfigurering.
2

Entwicklung eines Modelica Compiler BackEnds für große Modelle / Development of a Modelica Compiler BackEnd for Large Models

Frenkel, Jens 03 February 2014 (has links) (PDF)
Die symbolische Aufbereitung mathematischer Modelle ist eine wesentliche Voraussetzung, um die Dynamik komplexer physikalischer Systeme mit Hilfe numerischer Simulationen zu untersuchen. Deren Modellierung mit gleichungsbasierten objektorientierten Sprachen bietet gegenüber der signalflussbasierenden Modellierung den Vorteil, dass die sich aus der Mathematik und Physik ergebenden Gleichungen in ihrer ursprünglichen Form zur Modellbeschreibung verwendet werden können. Die akausale Beschreibung mit Gleichungen erhöht die Wiederverwendbarkeit der Modelle und reduziert den Aufwand bei der Modellierung. Die automatisierte Überführung der Gleichungen in Zuweisungen lässt sich theoretisch auf Modelle beliebiger Größe und Komplexität anwenden. In der praktischen Anwendung ergeben sich jedoch, insbesondere bei der automatisierten Überführung großer Modelle, mathematische Systeme mit sehr vielen Gleichungen und zeitabhängigen Variablen. Die daraus resultierenden langen Ausführungszeiten schränken die Anwendbarkeit der symbolischen Aufbereitung erheblich ein. Die vorliegende Arbeit beschreibt den Prozess der automatisierten Überführung eines Modells bis zur numerischen Simulation. Alle Teilschritte werden detailliert untersucht und bezüglich ihrer theoretischen Komplexität bewertet. Geeignete Algorithmen werden im OpenModelica Compiler umgesetzt und bezüglich ihrer Laufzeit anhand praxisrelevanter Modelle miteinander verglichen und für jeden Teilschritt die beste Implementierung ausgewählt. Dadurch konnte ein nahezu linearer Zusammenhang zwischen Modellgröße und benötigter Zeit zur Überführung erreicht werden. Zusätzlich bietet die Arbeit eine umfassende Dokumentation mit zahlreichen Empfehlungen für die Implementierung eines BackEnds eines Modelica Compilers. Dies erleichtert den Einstieg für neue Entwickler sowie die Weiterentwicklung bestehender Algorithmen. Letzteres wird durch ein modulares Konzept einer BackEnd-Pipeline unterstützt. Außerdem werden Methoden diskutiert, wie ein neues Modul innerhalb dieser Pipeline effizient getestet werden kann. / The symbolic treatment of mathematical models is essential to study the dynamics of complex physical systems by means of numerical simulations. In contrast to signal flow based approaches, modeling with equation-based and object-oriented languages has the advantage that the original equations can be used directly. The acausal description of equations increases reusability and reduces the effort for the modeller. The automated transformation of equations into assignments can in theory be applied to models of any size and complexity. In practice, however, problems arise when large models, i.e. mathematical systems with many equations and time-dependent variables, shall be transformed. Long execution times that occur limit the applicability of symbolic processing considerably. The present work describes the process of automated transformation from a model to program code which can be simulated numerically. All steps are examined in detail and evaluated in terms of its theoretical complexity. Suitable algorithms are implemented in the OpenModelica Compiler. Their execution times are compared by looking at models which are relevant to engineering. The best implementations for each sub-step are selected and combined to a Modelica Compiler BackEnd. Thus a relationship between model size and the time needed for transformation has been achieved which is mostly linear. In addition, a comprehensive discussion with numerous recommendations for the implementation of a Modelica Compiler BackEnd is given. This is supposed to help new developers as well as to facilitate the development of existing algorithms. The latter is supported by a modular concept of a BackEnd pipeline. Moreover, methods are discussed how new modules can be tested efficiently using this pipeline.
3

MATLAB*P 2.0: A unified parallel MATLAB

Choy, Ron, Edelman, Alan 01 1900 (has links)
MATLAB is one of the most widely used mathematical computing environments in technical computing. It is an interactive environment that provides high performance computational routines and an easy-to-use, C-like scripting language. Mathworks, the company that develops MATLAB, currently does not provide a version of MATLAB that can utilize parallel computing. This has led to academic and commercial efforts outside Mathworks to build a parallel MATLAB, using a variety of approaches. In a survey, 26 parallel MATLAB projects utilizing four different approaches have been identified. MATLAB*P is one of the 26 projects. It makes use of the backend support approach. This approach provides parallelism to MATLAB programs by relaying MATLAB commands to a parallel backend. The main difference between MATLAB*P and other projects that make use of the same approach is in its focus. MATLAB*P aims to provide a user-friendly supercomputing environment in which parallelism is achieved transparently through the use of objected oriented programming features in MATLAB. One advantage of this approach is that existing scripts can be run in parallel with no or minimal modifications. This paper describes MATLAB*P 2.0, which is a complete rewrite of MATLAB*P. This new version brings together the backend support approach with embarrassingly parallel and MPI approaches to provide the first complete parallel MATLAB framework. / Singapore-MIT Alliance (SMA)
4

Increasing the Efficiency of Doppler Processing and Backend Processing in Medical Ultrasound Systems

January 2013 (has links)
abstract: Ultrasound imaging is one of the major medical imaging modalities. It is cheap, non-invasive and has low power consumption. Doppler processing is an important part of many ultrasound imaging systems. It is used to provide blood velocity information and is built on top of B-mode systems. We investigate the performance of two velocity estimation schemes used in Doppler processing systems, namely, directional velocity estimation (DVE) and conventional velocity estimation (CVE). We find that DVE provides better estimation performance and is the only functioning method when the beam to flow angle is large. Unfortunately, DVE is computationally expensive and also requires divisions and square root operations that are hard to implement. We propose two approximation techniques to replace these computations. The simulation results on cyst images show that the proposed approximations do not affect the estimation performance. We also study backend processing which includes envelope detection, log compression and scan conversion. Three different envelope detection methods are compared. Among them, FIR based Hilbert Transform is considered the best choice when phase information is not needed, while quadrature demodulation is a better choice if phase information is necessary. Bilinear and Gaussian interpolation are considered for scan conversion. Through simulations of a cyst image, we show that bilinear interpolation provides comparable contrast-to-noise ratio (CNR) performance with Gaussian interpolation and has lower computational complexity. Thus, bilinear interpolation is chosen for our system. / Dissertation/Thesis / M.S. Electrical Engineering 2013
5

Uppskattningar av utvecklingsinsats för Backend as a Service’s med COCOMO II : En experimentell och komparativ studie av uppskattningar av utvecklingsinsats för BaaS-implementationer med COCOMO II. / Estimates of development effort for Backend as a Service's with COCOMO II.

Olsson, Rikard, Florén, Joacim January 2017 (has links)
With the increase of iOS applications on the market the demand and use of Backend as a Service (BaaS) providers also increase. In an early phase of the development it is beneficial for a potential application publisher to use a BaaS to quickly reach the market. Over time the provided services may be inadequate which make many BaaS users migrate to a custom developed backend. This paper intends to investigate which BaaS provider gives the least dismissed effort when making a transition to a custom developed backend with the purpose of providing basis for potential application publishers in the selection of a provider, given that a future transition to a custom backend will occur. From a population of ten providers, five were randomly selected – Firebase, Kinvey, CloudMine, Kumulos and Kii. In order to measure required effort for each provider, code that is tightly coupled to each provider’s SDK was implemented, according to provider guidelines and documentation. The implementations were measured with the COCOMO II model which gives a result in terms of required person months (PM). The measured PM of each implementation was compared. The hypothesis of the study could be rejected if the resulting PM of two implementations were disjointed. The result and analysis show difference in PM which lead to a rejection of the hypothesis. Whether the assumptions of the organization, product and project affected the results were analysed and the hypothesis was rejected regardless of these assumptions. If the organization of a potential application publisher resembles the one in the research Firebase is the recommended choice of BaaS provider.
6

FlinkNDB : Guaranteed Data Streaming Using External State

Asif, Muhammad Haseeb January 2021 (has links)
Apache Flink is a stream processing framework that provides a unified state management mechanism which, at its core, treats stream processing as a sequence of distributed transactions. Flink handles failures, re-scaling and reconfiguration seamlessly via a form of a two-phase commit protocol that periodically commits all past side effects consistently into the state backends. This involves invoking and combining checkpoints and, in time of need, redistributing the state to resume data pipelines. All the existing Flink state backend implementations, such as RocksDB, are embedded and coupled with the compute nodes. Therefore, recovery time is proportional to the state needed to be reconfigured and that can take from a few seconds to hours. If application logic is compute-heavy and Flink’s tasks are overloaded, scaling out compute pipeline means scaling out storage together with compute tasks and vice-versa because of the embedded state backends. It also introduces delays due to expensive state re-shuffle and moving large state on the wire. This thesis work proposes the decoupling of the state storage from compute to improve Flink’s scalability. It introduces the design and implementation of a new State backend, FlinkNDB, that decouples state storage from compute. Furthermore, we designed and implemented new techniques to perform snapshotting, and failure recovery to reduce the recovery time close to zero. / Apache Flink är ett strömbehandlingsramverk som tillhandahåller en enhetlig tillståndshanteringsmekanism som i sin kärna behandlar strömbehandling som en sekvens av distribuerade transaktioner. Flink hanterar fel, omskalning och omkonfigurering sömlöst via en form av ett tvåfas-engagemangsprotokoll som regelbundet begår alla tidigare biverkningar konsekvent i tillståndets backends. Detta innebär att man åberopar och kombinerar kontrollpunkter och vid behov omdistribuerar dess tillstånd för att återuppta dataledningar. Alla befintliga backendimplementeringar för Flink-tillstånd, som Rocks- DB, är inbäddade och kopplade till beräkningsnoderna. Därför är återhämtningstiden proportionell mot det tillstånd som behöver konfigureras om och det kan ta från några sekunder till timmar. Om applikationslogiken är beräkningstung och Flinks uppgifter är överbelastade, innebär utskalning av beräkningsrörledning att utskalning av lagring, tillsammans med beräkningsuppgifter och vice versa på grund av det inbäddade tillståndet i backend. Det introducerar också förseningar i förhållande till dyra tillståndsförflyttningar och flyttning av stora datamängder som upptar stora delar av bandbredden. Detta avhandlingsarbete föreslår frikoppling av tillståndslagring från beräkning för att förbättra Flinks skalbarhet. Den introducerar designen och implementeringen av ett nytt tillstånd i backend, FlinkNDB, som frikopplar tillståndslagring från beräkning. Avslutningsvis designade och implementerade vi nya tekniker för att utföra snapshotting och felåterställning för att minska återhämtningstiden till nära noll.
7

Entwicklung eines Modelica Compiler BackEnds für große Modelle

Frenkel, Jens 16 January 2014 (has links)
Die symbolische Aufbereitung mathematischer Modelle ist eine wesentliche Voraussetzung, um die Dynamik komplexer physikalischer Systeme mit Hilfe numerischer Simulationen zu untersuchen. Deren Modellierung mit gleichungsbasierten objektorientierten Sprachen bietet gegenüber der signalflussbasierenden Modellierung den Vorteil, dass die sich aus der Mathematik und Physik ergebenden Gleichungen in ihrer ursprünglichen Form zur Modellbeschreibung verwendet werden können. Die akausale Beschreibung mit Gleichungen erhöht die Wiederverwendbarkeit der Modelle und reduziert den Aufwand bei der Modellierung. Die automatisierte Überführung der Gleichungen in Zuweisungen lässt sich theoretisch auf Modelle beliebiger Größe und Komplexität anwenden. In der praktischen Anwendung ergeben sich jedoch, insbesondere bei der automatisierten Überführung großer Modelle, mathematische Systeme mit sehr vielen Gleichungen und zeitabhängigen Variablen. Die daraus resultierenden langen Ausführungszeiten schränken die Anwendbarkeit der symbolischen Aufbereitung erheblich ein. Die vorliegende Arbeit beschreibt den Prozess der automatisierten Überführung eines Modells bis zur numerischen Simulation. Alle Teilschritte werden detailliert untersucht und bezüglich ihrer theoretischen Komplexität bewertet. Geeignete Algorithmen werden im OpenModelica Compiler umgesetzt und bezüglich ihrer Laufzeit anhand praxisrelevanter Modelle miteinander verglichen und für jeden Teilschritt die beste Implementierung ausgewählt. Dadurch konnte ein nahezu linearer Zusammenhang zwischen Modellgröße und benötigter Zeit zur Überführung erreicht werden. Zusätzlich bietet die Arbeit eine umfassende Dokumentation mit zahlreichen Empfehlungen für die Implementierung eines BackEnds eines Modelica Compilers. Dies erleichtert den Einstieg für neue Entwickler sowie die Weiterentwicklung bestehender Algorithmen. Letzteres wird durch ein modulares Konzept einer BackEnd-Pipeline unterstützt. Außerdem werden Methoden diskutiert, wie ein neues Modul innerhalb dieser Pipeline effizient getestet werden kann.:1 Einleitung 1.1 Modellierung und Simulation 1.2 Gleichungsbasierte objektorientierte Modellierung und Simulation 1.3 Motivation 1.4 Ziele, Forschungsschwerpunkt und Arbeitsvorhaben 2 Modellierung und Simulation mit Modelica 2.1 Anwendersicht 2.2 Die Modelica Sprache 2.3 Das Modelica Modell 2.4 Transformation des Modells zum Simulator 2.5 Laufzeituntersuchungen eines Modelica Compiler BackEnds 3 Graphen 3.1 Graphen für Gleichungssysteme 3.2 Suchalgorithmen 3.3 Matching Algorithmen 3.4 Laufzeituntersuchungen an Matching Algorithmen mit Modelica 4 Kausalisierung 4.1 Kausalisieren von algebraischen Systemen und Systemen gewöhnlicher Differentialgleichungen erster Ordnung 4.1.1 Zuweisen 4.1.2 Sortieren 4.2 Kausalisieren von differential algebraischen Systemen 4.2.1 Pantelides Algorithmus 4.2.2 Auswahl der Zustände des Systems 4.2.3 Singuläre Systeme 5 Symbolische Optimierung 5.1 Definition und Anwendung symbolischer Optimierungen 5.2 Allgemeine symbolische Optimierung 5.2.1 Finden und Entfernen trivialer Gleichungen 5.2.2 Tearing und Relaxation 5.2.3 Inline Integration 5.2.4 Parallelisierung 5.3 Fachbereichsspezifische symbolische Optimierung 5.3.1 Relaxation O(n) für Mehrkörpersysteme 6 Umsetzung Modelica Compiler BackEnd 6.1 Konzepte für die Implementation 6.1.1 Datenstruktur 6.1.2 Teilschritte der Analyse und Optimierungsphase 6.1.3 BackEnd Pipeline 6.1.4 Kausalisierung 6.2 Testen der Implementation 7 Laufzeituntersuchung an skalierbaren Modellen 7.1 Software-Benchmark Umgebung für Modelica Compiler - ModeliMark 7.2 Modelle für Laufzeituntersuchungen 7.3 Ergebnisse 8 Zusammenfassung und Ausblick / The symbolic treatment of mathematical models is essential to study the dynamics of complex physical systems by means of numerical simulations. In contrast to signal flow based approaches, modeling with equation-based and object-oriented languages has the advantage that the original equations can be used directly. The acausal description of equations increases reusability and reduces the effort for the modeller. The automated transformation of equations into assignments can in theory be applied to models of any size and complexity. In practice, however, problems arise when large models, i.e. mathematical systems with many equations and time-dependent variables, shall be transformed. Long execution times that occur limit the applicability of symbolic processing considerably. The present work describes the process of automated transformation from a model to program code which can be simulated numerically. All steps are examined in detail and evaluated in terms of its theoretical complexity. Suitable algorithms are implemented in the OpenModelica Compiler. Their execution times are compared by looking at models which are relevant to engineering. The best implementations for each sub-step are selected and combined to a Modelica Compiler BackEnd. Thus a relationship between model size and the time needed for transformation has been achieved which is mostly linear. In addition, a comprehensive discussion with numerous recommendations for the implementation of a Modelica Compiler BackEnd is given. This is supposed to help new developers as well as to facilitate the development of existing algorithms. The latter is supported by a modular concept of a BackEnd pipeline. Moreover, methods are discussed how new modules can be tested efficiently using this pipeline.:1 Einleitung 1.1 Modellierung und Simulation 1.2 Gleichungsbasierte objektorientierte Modellierung und Simulation 1.3 Motivation 1.4 Ziele, Forschungsschwerpunkt und Arbeitsvorhaben 2 Modellierung und Simulation mit Modelica 2.1 Anwendersicht 2.2 Die Modelica Sprache 2.3 Das Modelica Modell 2.4 Transformation des Modells zum Simulator 2.5 Laufzeituntersuchungen eines Modelica Compiler BackEnds 3 Graphen 3.1 Graphen für Gleichungssysteme 3.2 Suchalgorithmen 3.3 Matching Algorithmen 3.4 Laufzeituntersuchungen an Matching Algorithmen mit Modelica 4 Kausalisierung 4.1 Kausalisieren von algebraischen Systemen und Systemen gewöhnlicher Differentialgleichungen erster Ordnung 4.1.1 Zuweisen 4.1.2 Sortieren 4.2 Kausalisieren von differential algebraischen Systemen 4.2.1 Pantelides Algorithmus 4.2.2 Auswahl der Zustände des Systems 4.2.3 Singuläre Systeme 5 Symbolische Optimierung 5.1 Definition und Anwendung symbolischer Optimierungen 5.2 Allgemeine symbolische Optimierung 5.2.1 Finden und Entfernen trivialer Gleichungen 5.2.2 Tearing und Relaxation 5.2.3 Inline Integration 5.2.4 Parallelisierung 5.3 Fachbereichsspezifische symbolische Optimierung 5.3.1 Relaxation O(n) für Mehrkörpersysteme 6 Umsetzung Modelica Compiler BackEnd 6.1 Konzepte für die Implementation 6.1.1 Datenstruktur 6.1.2 Teilschritte der Analyse und Optimierungsphase 6.1.3 BackEnd Pipeline 6.1.4 Kausalisierung 6.2 Testen der Implementation 7 Laufzeituntersuchung an skalierbaren Modellen 7.1 Software-Benchmark Umgebung für Modelica Compiler - ModeliMark 7.2 Modelle für Laufzeituntersuchungen 7.3 Ergebnisse 8 Zusammenfassung und Ausblick
8

Micro Frontends - Webbutvecklingens fallgrop eller silverkula : En jämförande kvantitativ surveyundersökning mellan Micro Frontends och monolitiska frontends

Lundberg, Mårten, Oldner, Erik January 2022 (has links)
Micro Frontends är en ny mjukvarusystemarkitektur som påstås lösa många av problemen som drabbar monolitiska frontends med stora kodbaser. Den begränsade andelen forskning som undersökt konceptet har nått motsägelsefulla slutsatser kring arkitekturens effekt i praktiken. Detta är problematiskt då många företag överväger att migrera till arkitekturen men är tveksamma, vilket motiveras av den bristande kunskapen om konceptet. Denna kvantitativa studie ämnar undersöka om utvecklare som jobbar med Micro Frontends upplever dess fördelar och nackdelar genom att jämföra deras upplevelse med utvecklare som jobbar med en monolitisk frontend. Datan samlades in genom en surveyundersökning och analyserades med statistiska metoder. Resultaten av den kvantitativa analysen visade att kodduplicering samt att hålla ett UX konsekvent är problematiska aspekter vid användandet av Micro Frontends. Studiens låga svarsfrekvens gör att dessa resultat inte anses som generaliserbara. / Micro Frontends is a new software system architecture that is said to solve many of the problems that exist in monolithic frontends with large codebases. The limited amount of research that has examined the concept have reached contradictory conclusions about the effect of the architecture in practice. This is problematic as many companies are considering migrating to the Micro Frontend architecture but are hesitant, which is motivated by the lack of knowledge about the concept. This quantitative study aims to investigate whether developers working with Micro Frontends experience its theorized advantages and disadvantages by comparing their experience with developers working with a monolithic frontend. The data were collected through a survey and analyzed using statistical methods. The results of the quantitative analysis showed that code duplication and keeping a consistent UX is problematic when using Micro Frontends. The study's low response rate however means that these results are not considered generalizable.
9

Replacing a monolithic web application with a new backend framework

Lu, Wei January 2018 (has links)
Web Technologies, particularly the web application, have become an essential component of the business world in our daily life. By utilizing the web application, it is convenient for human beings to search the information, make the payment and communicate with others through Internet. However, according to a report from the Society of Digital Agencies, 77% of companies believe that poor website user experience is a weakness for their clients, which making poor user experience the most significant weakness agencies identified. As for current monolithic web application of booking course system, all the components are tightly integrated in one module so that it is difficult to maintain and make changes for both currents functions and new functions. In addition, the algorithms of some functions are vulnerable. For example, the offer code corresponding to the one course can be used for another course that should not be on sales promotion. This thesis presents a decoupling of the monolithic architecture. The monolithic architecture composes all in one piece and implement an alternative solution for booking course system based on representational state transfer web service, spring, WordPress and bootstrap frameworks. Moreover, this thesis focuses on improving the vulnerable algorithm for the old booking system. In the end, some non-functional requirement like user experience will also be taken in consideration. In this thesis, the result proves the feasibility of the decoupling monolithic architecture by exploiting RESTful web services. / Webbtekniker, speciellt webbapplikationer, har blivit en viktig komponent för företags dagliga verksamhet. Genom att använda webbapplikationer blir det enkelt för människor att söka information, göra betalningar och kommunicera med andra på Internet. Men enligt en rapport från the Society of Digital Agencies upplever 77% av företagen att en dåligt webbupplevelse påverkar slutkunderna, vilket gör webbupplevelsen till den största påverkande faktorn som the Society of Digital Agencies har identifierat. Det existerande webbokningssystemet är en monolit, där samtliga komponenter är tätt integrerade i en modul. Denna integrerade arkitektur gör det svårt att underhålla och förändra systemet. I tillägg finns det sårbarheter i systemet, som till exempel att rabattkoder för en kurs kan användas även på andra kurser, som inte ska rabatteras. Uppsatsen presenterar en frikoppling av den integrerade strukturen för systemet. Den nya arkitekturen bygger på representational state transfer web services, spring, wordpress samt bootstrap ramverken. I tillägg förbättras även de sårbara algoritmerna i det existerande bokningssystemet. Slutligen inkluderas ickefunktionella krav på användarvänlighet. I den här avhandlingen visar resultatet att det är möjligt att avmontera monolitisk arkitektur genom att utnyttja RESTful webbtjänster.
10

Porting the GCC-Backend to a VLIW-Architecture / Portierung des GCC-Backends auf eine VLIW-Architektur

Parthey, Jan 26 July 2004 (has links) (PDF)
This diploma thesis discusses the implementation of a GCC target for the Texas Instruments TMS320C6000 DSP platform. To this end, it makes use of mechanisms offered by GCC for porting to new target architectures. GCC internals such as the handling of conditional jumps and the layout of stack frames are investigated and applied to the new architecture. / Diese Diplomarbeit behandelt die Implementierung eines GCC-Targets für die DSP-Plattform TMS320C6000 von Texas Instruments. Dazu werden Mechanismen genutzt, die GCC für die Portierung auf neue Zielplattformen anbietet. GCC-Interna, wie die Behandlung bedingter Sprünge und das Layout von Stack-Frames, werden untersucht und auf die neue Architektur angewendet.

Page generated in 0.0478 seconds