• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 87
  • 32
  • Tagged with
  • 118
  • 118
  • 118
  • 118
  • 118
  • 20
  • 18
  • 17
  • 13
  • 12
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Hardware Error Detection Using AN-Codes

Schiffel, Ute 20 May 2011 (has links)
Due to the continuously decreasing feature sizes and the increasing complexity of integrated circuits, commercial off-the-shelf (COTS) hardware is becoming less and less reliable. However, dedicated reliable hardware is expensive and usually slower than commodity hardware. Thus, economic pressure will most likely result in the usage of unreliable COTS hardware in safety-critical systems. The usage of unreliable, COTS hardware in safety-critical systems results in the need for software-implemented solutions for handling execution errors caused by this unreliable hardware. In this thesis, we provide techniques for detecting hardware errors that disturb the execution of a program. The detection provided facilitates handling of these errors, for example, by retry or graceful degradation. We realize the error detection by transforming unsafe programs that are not guaranteed to detect execution errors into safe programs that detect execution errors with a high probability. Therefore, we use arithmetic AN-, ANB-, ANBD-, and ANBDmem-codes. These codes detect errors that modify data during storage or transport and errors that disturb computations as well. Furthermore, the error detection provided is independent of the hardware used. We present the following novel encoding approaches: - Software Encoded Processing (SEP) that transforms an unsafe binary into a safe execution at runtime by applying an ANB-code, and - Compiler Encoded Processing (CEP) that applies encoding at compile time and provides different levels of safety by using different arithmetic codes. In contrast to existing encoding solutions, SEP and CEP allow to encode applications whose data and control flow is not completely predictable at compile time. For encoding, SEP and CEP use our set of encoded operations also presented in this thesis. To the best of our knowledge, we are the first ones that present the encoding of a complete RISC instruction set including boolean and bitwise logical operations, casts, unaligned loads and stores, shifts and arithmetic operations. Our evaluations show that encoding with SEP and CEP significantly reduces the amount of erroneous output caused by hardware errors. Furthermore, our evaluations show that, in contrast to replication-based approaches for detecting errors, arithmetic encoding facilitates the detection of permanent hardware errors. This increased reliability does not come for free. However, unexpectedly the runtime costs for the different arithmetic codes supported by CEP compared to redundancy increase only linearly, while the gained safety increases exponentially.
82

Computing Compliant Anonymisations of Quantified ABoxes w.r.t. EL Policies

Baader, Franz, Kriegel, Francesco, Nuradiansyah, Adrian, Peñaloza, Rafael 28 December 2021 (has links)
We adapt existing approaches for privacy-preserving publishing of linked data to a setting where the data are given as Description Logic (DL) ABoxes with possibly anonymised (formally: existentially quantified) individuals and the privacy policies are expressed using sets of concepts of the DL EL. We provide a chacterization of compliance of such ABoxes w.r.t. EL policies, and show how optimal compliant anonymisations of ABoxes that are non-compliant can be computed. This work extends previous work on privacy-preserving ontology publishing, in which a very restricted form of ABoxes, called instance stores, had been considered, but restricts the attention to compliance. The approach developed here can easily be adapted to the problem of computing optimal repairs of quantified ABoxes.
83

Planning Resource Requirements in Rail Freight Facilities by Applying Machine Learning

Ruf, Moritz 10 January 2022 (has links)
Diese Dissertation verknüpft eisenbahnbetriebswissenschaftliche Grundlagen mit Methoden aus den Disziplinen Unternehmensforschung (Operations Research) und Maschinelles Lernen. Gegenstand ist die auf den mittelfristigen Zeithorizont bezogene Ressourcenplanung von Knoten des Schienengüterverkehrs, die sogenannte taktische Planung. Diese spielt eine wesentliche Rolle für eine wirtschaftliche und qualitativ hochwertige Betriebsdurchführung. Knoten des Schienengüterverkehrs stellen neuralgische Punkte in der Transportkette von Waren auf der Schiene dar. Sie dienen der Durchführung einer Vielzahl unterschiedlicher betrieblicher Prozesse zur Sicherstellung eines definierten Outputs an Zügen in Abhängigkeit eines jeweils gegebenen Inputs. Die Bereitstellung eines zu den Betriebsanforderungen passenden Ressourcengerüsts ist Teil der taktischen Planung und hat wesentlichen Einfluss auf die Qualität der Prozesse in den Knoten, im Speziellen, sowie auf die vor- und nachgelagerte Transportdurchführung im Allgemeinen. Die Bemessung des notwendigen Personals, der Betriebsmittel und der Infrastruktur für einen Betriebstag, die sogenannte Ressourcendimensionierung, ist in der Praxis geprägt durch einen erheblichen manuellen Aufwand sowie eine große Abhängigkeit von der Datenqualität. Vor diesem Hintergrund und zur Überwindung dieser Nachteile schlägt diese Dissertation ein neues Verfahren zur Ressourcendimensionierung vor. Exemplarisch wird der Fokus auf die großen Knoten des Einzelwagenverkehrs gelegt, die sogenannten Rangierbahnhöfe. In diesen werden Eingangszüge zerlegt, Güterwagen entsprechend ihrer Ausgangsrichtung sortiert und gesammelt, sowie neue Ausgangszüge gebildet und bereitgestellt. Nach dem Stand der Technik werden für die Ressourcendimensionierung mehrere Monate bis wenige Wochen vor der Betriebsdurchführung Rangierarbeitspläne erstellt. Diese umfassen einen detaillierten Arbeitsfolgenplan inklusive Terminierung von Prozessen sowie deren Ressourcenbelegung. Die Rangierarbeitspläne bilden die Grundlage für die Ressourcenanforderung. Aufgrund sich ändernder Nebenbedingungen vor dem Betriebstag und dem stochastischen Charakter der Betriebsprozesse sowohl im Netz als auch in den Knoten können die in der taktischen Planung erstellten Rangierarbeitspläne nur begrenzt für die Durchführung verwendet werden. Als Beispiele sollen das Einlegen von Sonderzügen, Unregelmäßigkeiten bei den Transporten und Witterungsauswirkungen angeführt werden. Der betriebene Planungsaufwand begründet sich in den komplexen Zusammenhängen zwischen den Betriebsprozessen und der größtenteils fehlenden EDV-Unterstützung, was eine Ermittlung der Ressourcendimensionierung bisher erschwert. Die Folge ist eine Diskrepanz zwischen der Datenqualität als Eingangsgröße für die Planung und der Präzision des Rangierarbeitsplans als Ausgangsgröße, was als Konsequenz eine Scheingenauigkeit der Planung und unter Umständen eine Über- oder Unterdimensionierung der Ressourcen mit sich bringt. Das zeigt, dass die Planung verkürzt werden muss und neue Hilfsmittel erforderlich sind. Motiviert durch diese Diskrepanz und den neuen Möglichkeiten, die die Methoden aus den Bereichen des Operations Research und des Maschinellen Lernens bieten, stellt diese Dissertation ein neues Planungsverfahren Parabola bereit. Parabola ermittelt mit geringerem Planungsaufwand und hoher Qualität relevante Kenngrößen für die Ressourcendimensionierung in Knoten des Schienengüterverkehrs. Dies beschleunigt den taktischen Planungsprozess, reduziert Scheingenauigkeiten bei der Ressourcendimensionierung vor der Betriebsdurchführung und orientiert sich daran, wann welche Entscheidungen zuverlässig und genau zu treffen sind. Folglich wird die Detailtiefe der Planung mit der Zuverlässigkeit der Daten in Einklang gebracht. Das in der Dissertation bereitgestellte Planungsverfahren Parabola analysiert eine ausreichend große Anzahl errechneter Rangierarbeitspläne und / oder historischer Betriebsdaten. Das dabei trainierte Regressionsmodell wird anschließend zur Bestimmung des Ressourcengerüsts genutzt. Die Kalibrierung der Regressionsmodelle erfordert hinreichend viele Rangierarbeitspläne. Für deren Erzeugung wird exemplarisch am Beispiel von Rangierbahnhöfen in dieser Dissertation ein ganzheitliches mathematisches lineares Programm entwickelt, das erstmalig sämtliche für die taktische Planung eines Rangierbahnhofs relevanten Entscheidungsprobleme vom Zugeingang bis zum Zugausgang abbildet. Dieses beinhaltet die Definition der Verknüpfung zwischen Eingangs- und Ausgangszügen, sogenannter Wagenübergänge, sowie die Terminierung sämtlicher Betriebsprozesse mit ihrer Zuweisung zu örtlichen Mitarbeitern, Betriebsmitteln und Infrastruktur. Die bestehenden mathematischen Modelle in der bisherigen Literatur beschränken sich lediglich auf Teile dieses Problems. Es folgt die systematische Erzeugung von Problemstellungen, sogenannten Instanzen, zur Generierung eines repräsentativen Testpools. Die Instanzen dieses NP-schweren Problems sind für generische, exakte Lösungsverfahren in akzeptabler Zeit nicht zuverlässig lösbar. Daher wird eine maßgeschneiderte Metaheuristik, konkret ein Verfahren der Klasse Adaptive Large Neighborhood Search (ALNS), entwickelt. Diese bewegt sich durch den Lösungsraum, indem schrittweise mittels mehrerer miteinander konkurrierender Subheuristiken eine vorher gefundene Lösung erst zerstört und anschließend wieder repariert wird. Durch unterschiedliche Charakteristika der Subheuristiken und einer statistischen Auswertung ihres jeweiligen Beitrags zum Lösungsfortschritt, gelingt es der ALNS, sich an das Stadium der Lösungssuche und an die jeweilige Problemstruktur anzupassen. Die in dieser Dissertation entwickelte ALNS erzeugt für realistische Instanzen eines Betriebstages Lösungen in hoher Qualität binnen weniger Minuten Rechenzeit. Basierend auf den erzeugten Rangierarbeitsplänen wurden für die Entwicklung des Planungsverfahrens insgesamt fünf Regressionstechniken getestet, die die Ausgangsgrößen der Pläne – Bedarf an Lokomotiven, Personal und Infrastruktur – prognostizieren. Die vielversprechendsten Ergebnisse werden durch die Methoden Tree Boosting sowie Random Forest erzielt, die in über 90 % der Fälle den Ressourcenbedarf für Personale und Lokomotiven exakt und für Infrastruktur mit einer Toleranz von einem Gleis je Gleisgruppe prognostizieren. Damit ist dieses Regressionsmodell nach ausreichender Kalibrierung entsprechend örtlicher Randbedingungen geeignet, komplexere Planungsverfahren zu ersetzen. Die Regressionsmodelle ermöglichen die Abstrahierung von Mengengerüsten und Leistungsverhalten von Knoten des Schienengüterverkehrs. Daher ist beispielsweise ein konkreter Fahrplan von und zu den Knoten nicht mehr notwendige Voraussetzung für die taktische Planung in Rangierbahnhöfen. Da das Regressionsverfahren aus vielen Rangierarbeitsplänen lernt, verringert sich die Abhängigkeit von einzelnen Instanzen. Durch die Kenntnis von vielen anderen Plänen können robustere Ressourcengerüste prognostiziert werden. Neben dem in dieser Dissertation ausgearbeiteten Anwendungsfall in der taktischen Planung in Knoten des Schienengüterverkehrs, eröffnet das vorgeschlagene neue Planungsverfahren Parabola eine Vielzahl an weiteren Einsatzfeldern. Die Interpretation des trainierten Regressionsmodells erlaubt das tiefgründige Verständnis des Verhaltens von Knoten des Schienengüterverkehrs. Dies ermöglicht ein besseres Verstehen der Engpässe in diesen Knoten sowie die Identifikation relevanter Treiber der Ressourcendimensionierung. Weiter können diese Modelle bei der Erstellung von netzweiten Leistungsanforderungen Berücksichtigung finden. Mit der in dieser Dissertation erfolgten Bereitstellung von Parabola wird durch Nutzung neuartiger Methoden aus dem Operations Research und Maschinellen Lernen das Instrumentarium der eisenbahnbetriebswissenschaftlichen Verfahren und Modelle sinnvoll erweitert. / This dissertation combines the knowledge of railway operations management with methods from operations research and machine learning. It focuses on rail freight facilities, especially their resource planning at a tactical level. The resource planning plays a crucial role for economical operations at high quality. The rail freight facilities represent neuralgic points in the transport chain of goods by rail. Their task is to carry out a multitude of different operational processes to ensure a defined output of trains, depending on a given input. Providing resource requirements appropriate to the amount of work has a significant impact on the quality of the processes in the facilities in particular and on the up- and downstream transport performance in general. The correct dimensioning of resource requirements, which include the necessary staff, locomotives, and infrastructure for an operating day, is characterized by a considerable manual effort and a large dependency on the data accuracy. Against this background and to overcome these drawbacks, this dissertation proposes a new method for resource requirements. The focus is on the large facilities of single wagonload traffic, the so-called classification yards, in which inbound trains are disassembled, railcars are classified according to their outbound direction, and new outbound trains are formed. Nowadays, shunting work plans are created several months to a few weeks before operations. These operating plans comprise a detailed work sequence plan, including process scheduling, and resource allocation. The operating plans form the basis for resource requirements. Due to the changing constraints prior to operations, e.g., the addition of special trains, and the stochastic nature of the operational processes, for instance caused by weather conditions, shunting work plans can only be used for execution to a limited extent. This effort is made for planning due to the complex interdependencies between the operational processes and the predominant lack of IT support, which makes it difficult to determine resource requirements. The result is a discrepancy between the accuracy of the data as an input variable and the precision of the shunting work plan as an output variable. This leads to an illusory precision of the planning and possibly to an oversizing or undersizing of the resources. Hence, planning must be shortened and new tools are required. Motivated by this discrepancy and the new possibilities offered by methods from the _elds of operations research and machine learning, this dissertation provides a new planning method Parabola. Parabola determines with less planning effort and at high quality relevant parameters for resource requirements in rail freight facilities. This accelerates the planning process, reduces illusory precision before operations are carried out and enables decision-making with sufficient reliability due to the data accuracy. Consequently, the level of detail of the planning is harmonized with the reliability of the data. The planning procedure Parabola involves the analysis of numerous calculated operating plans and / or historical operating data. This trains a regression model that can then be used to determine the resource requirements. The calibration of the regression models requires many operating plans. For their generation, an integrated mathematical linear program is developed in this dissertation using the example of classification yards; for the first time, one program covers all relevant decision problems of tactical planning in a classification yard, from the train arrival to the train departure. This includes the definition of the connection between inbound and outbound trains, so-called railcar interchanges, as well as the scheduling of all operational processes with their assignment to local staff, locomotives, and infrastructure. All existing mathematical models in the literature are limited to parts of the problem. Thereafter follows a systematic generation of a test pool of problems named instances. The instances of this NP-hard problem cannot be reliably solved within an acceptable time frame with general-purpose solvers. Therefore, a tailored metaheuristic, namely an adaptive large neighborhood search (ALNS), is developed. It moves through the solution space by first destroying and then repairing a solution stepwise. Several competing subheuristics are available for this purpose. The ALNS combines multiple subheuristics, which have different characteristics and contribute to the solution progress, as determined by statistical evaluation. Consequently, the ALNS successfully adapts to the progress of the solution and to the problem structure. The ALNS, which is developed in this dissertation, generates high-quality solutions for realistic instances of an operating day in a few minutes of computing time. Based on the generated operating plans, five regression methods predicting the output variables of the operating plans – demand for locomotives, staff, and infrastructure – are tested. The most promising results are achieved by the methods tree boosting and random forest, which predict the resource requirements in over 90% of the cases for staff and locomotives accurately and for infrastructure with a tolerance of one track per bowl. Thus, a regression model can replace the more complex planning procedures after sufficient calibration according to local restrictions. The regression models allow the abstraction of quantity structures and performance behavior. Hence, for example, a dedicated timetable is no longer a prerequisite for tactical planning in classification yards. Since regression methods learn from many operating plans, the dependence on individual instances is reduced. By knowing many other plans, the regression model can predict robust resource requirements. In addition to the use case in tactical planning in rail freight facilities, the proposed new planning method Parabola opens a multitude of further _elds of application. By interpreting the trained regression model, the behavior of rail freight facilities can be understood in depth. Under certain circumstances, this allows a better understanding of the bottlenecks in these facilities and the relevant drivers of resource dimensioning. Furthermore, these models have potential applications in the design of network-wide performance requirements. By providing Parabola in this dissertation, the toolbox of railroad management science procedures and models is sensibly extended by using novel methods from operations research and machine learning.
84

Lastgetriebene Validierung Dienstbereitstellender Systeme

Caspar, Mirko 07 January 2014 (has links)
Mit steigender Komplexität heterogener, verteilter Systeme nehmen auch die Anforderungen an deren Validierung zu. In dieser Arbeit wird ein Konzept vorgestellt, mit dem eine bestimmte Klasse komplexer Systeme, so genannte Dienstbereitstellende Systeme, durch automatisiertes Testen validiert werden kann. Mit Hilfe heterogener Klienten, bspw. eingebetteter Systeme, wird die Systemfunktionalität getestet. Hierzu wird das zu testende System auf die nach außen zur Verfügung gestellten Dienste reduziert und die Nutzung dieser Dienste durch Klienten mit einer Last quantifiziert. Eine Validierung wird durch die Vorgabe zeitlich veränderlicher Lasten für jeden Dienst definiert. Diese Lasten werden zielgerichtet den verfügbaren Klienten zugeteilt und durch diese im zu testenden System erzeugt. Zur praktikablen Anwendung dieses Konzeptes ist eine Automatisierung des Validierungsprozesses notwendig. In der Arbeit wird die Architektur einer Testbench vorgestellt, die zum einen die Heterogenität der Klienten berücksichtigt und zum anderen Einflüsse durch die Dynamik der Klienten während der Laufzeit der Validierung ausgleicht. Das hierbei zu lösende algorithmische Problem der Dynamischen Testpartitionierung wird ebenso definiert, wie ein Modell zur Beschreibung aller notwendigen Parameter. Die Testpartitionierung kann mittels einer eigens entwickelten Heuristik in Polynomialzeit gelöst werden. Zur Bestimmung der Leistungsfähigkeit des entwickelten Verfahrens wird die Heuristik aufwendigen Untersuchungen unterzogen. Am Beispiel eines zu testenden Mobilfunknetzwerkes wird die beschriebene Testbench umgesetzt und Kernparameter mittels Simulation ermittelt. Das Ergebnis dieser Arbeit ist ein Konzept zur Systemvalidierung, das generisch auf jede Art von dienstbereitstellenden Systemen angewandt werden kann und damit zur Verbesserung des Entwicklungsprozesses von komplexen verteilten Systemen beiträgt.
85

With a new refinement paradigm towards anisotropic adaptive FEM on triangular meshes

Schneider, Rene 15 October 2013 (has links)
Adaptive anisotropic refinement of finite element meshes allows to reduce the computational effort required to achieve a specified accuracy of the solution of a PDE problem. We present a new approach to adaptive refinement and demonstrate that this allows to construct algorithms which generate very flexible and efficient anisotropically refined meshes, even improving the convergence order compared to adaptive isotropic refinement if the problem permits.:1 Introduction 2 Extension of FEM ansatz spaces 3 Optimality of the extension 4 Application 1: graded refinement 5 Application 2: anisotropic refinement in 2D 6 Numerical experiments 7 Conclusions and outlook
86

Parallel Hardware- and Software Threads in a Dynamically Reconfigurable System on a Programmable Chip

Rößler, Marko 06 December 2013 (has links)
Today’s embedded systems depend on the availability of hybrid platforms, that contain heterogeneous computing resources such as programmable processors units (CPU’s or DSP’s) and highly specialized hardware cores. These platforms have been scaled down to integrated embedded system-on-chip. Modern platform FPGAs enhance such systems by the flexibility of runtime configurable silicon. One of the major advantages that arises is the ability to use hardware (HW) and software (SW) resources in a time-shared manner. Though the ability to dynamically assign computing resources based on decisions taken at runtime is given.
87

Preemptive HW/SW-Threading by combining ESL methodology and coarse grained reconfiguration

Rößler, Marko, Heinkel, Ulrich 14 January 2014 (has links)
Modern systems fulfil calculation tasks across the hardware- software boundary. Tasks are divided into coarse parallel subtasks that run on distributed resources. These resources are classified into a software (SW) and a hardware (HW) domain. The software domain usually contains processors for general purpose or digital signal calculations. Dedicated co-processors such as encryption or video en-/decoding units belong to the hardware domain. Nowadays, a decision in which domain a certain subtask will be executed in a system is usually taken during system level design. This is done on the basis of certain assumptions about the system requirements that might not hold at runtime. The HW/SW partitioning is static and cannot adapt to dynamically changing system requirements at runtime. Our contribution to tackle this, is to combine a ESL based HW/SW codesign methodology with a coarse grained reconfigurable System on Chip architecture. We propose this as Preemptive HW/SW-Threading.
88

Demo on Network-based QoE measurement for Video streaming services

Knoll, Thomas Martin, Eckert, Marcus 12 November 2015 (has links)
Progressive download video services, such as YouTube, are responsible for a major part of the transmitted data volume in the Internet and it is expected, that they also will strongly affect mobile networks. Streaming video quality mainly depends on the sustainable throughput achieved during transmission. In order to achieve an acceptable video quality in mobile networks (with limited capacity resources), traffic engineering mechanisms have to be applied. For that, the streaming video quality needs to be measured and monitored permanently. Therefore, the video timestamps which are encoded within the payload of the TCP segments have to be extracted. For that it is necessary to decode the video within the transported payload. Algorithms for decoding Flash Video, MP4 and WebM Video have already been implemented as a demonstration implementation in support of the network based measurement contribution to SG12 by Chemnitz University for TCP encoded progressive download Internet services. In the demonstration, the derived play out buffering from the monitored traffic is being output internally. A second application is then used to graphically display the estimation result. The measurement and estimation is solely done within a measurement point of an operator network without access to the client’s end device.
89

Multi-view point cloud fusion for LiDAR based cooperative environment detection

Jähn, Benjamin, Lindner, Philipp, Wanielik, Gerd 11 November 2015 (has links)
A key component for automated driving is 360◦ environment detection. The recognition capabilities of mod- ern sensors are always limited to their direct field of view. In urban areas a lot of objects occlude important areas of in- terest. The information captured by another sensor from an- other perspective could solve such occluded situations. Fur- thermore, the capabilities to detect and classify various ob- jects in the surrounding can be improved by taking multiple views into account. In order to combine the data of two sensors into one co- ordinate system, a rigid transformation matrix has to be de- rived. The accuracy of modern e.g. satellite based relative pose estimation systems is not sufficient to guarantee a suit- able alignment. Therefore, a registration based approach is used in this work which aligns the captured environment data of two sensors from different positions. Thus their relative pose estimation obtained by traditional methods is improved and the data can be fused. To support this we present an approach which utilizes the uncertainty information of modern tracking systems to de- termine the possible field of view of the other sensor. Fur- thermore, it is estimated which parts of the captured data is directly visible to both, taking occlusion and shadowing ef- fects into account. Afterwards a registration method, based on the iterative closest point (ICP) algorithm, is applied to that data in order to get an accurate alignment. The contribution of the presented approch to the achiev- able accuracy is shown with the help of ground truth data from a LiDAR simulation within a 3-D crossroad model. Re- sults show that a two dimensional position and heading esti- mation is sufficient to initialize a successful 3-D registration process. Furthermore it is shown which initial spatial align- ment is necessary to obtain suitable registration results.
90

Extending Artemis With a Rule-Based Approach for Automatically Assessing Modeling Tasks

Rodestock, Franz 27 September 2022 (has links)
The Technische Universität Dresden has multiple e-learning projects in use. The Chair of Software Technology uses Inloop to teach students object-oriented programming through automatic feedback. In the last years, interest has grown in giving students automated feedback on modeling tasks. This is why there was an extension developed by Hamann to automate the assessment of modeling tasks in 2020. The TU Dresden currently has plans to replace Inloop with Artemis, a comparable system. Artemis currently supports the semi-automatic assessment of modeling exercises. In contrast, the system proposed by Hamann, called Inloom, is based on a rule-based approach and provides instant feedback. A rule-based system has certain advantages over a similarity-based system. One advantage is the mostly better feedback that these systems generate. To give instructors more flexibility and choice, this work tries to identify possible ways of extending Artemis with the rule-based approach Inloom. In the second step, this thesis will provide a proof of concept implementation. Furthermore, a comparison between different systems is developed to help instructors choose the best suitable system for their usecase.:Introduction, Background, Related Work, Analysis, System Design, Implementation, Evaluation, Conclusion and Future Work, Bibliography, Appendix

Page generated in 0.2177 seconds