• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 94
  • 28
  • 18
  • 12
  • 11
  • 8
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 210
  • 45
  • 38
  • 33
  • 30
  • 29
  • 22
  • 22
  • 21
  • 19
  • 18
  • 18
  • 18
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Etude des codes en graphes pour le stockage de données / Study of Sparse-Graph for Distributed Storage Systems

Jule, Alan 07 March 2014 (has links)
Depuis deux décennies, la révolution technologique est avant tout numérique entrainant une forte croissance de la quantité de données à stocker. Le rythme de cette croissance est trop importante pour les solutions de stockage matérielles, provoquant une augmentation du coût de l'octet. Il est donc nécessaire d'apporter une amélioration des solutions de stockage ce qui passera par une augmentation de la taille des réseaux et par la diminution des copies de sauvegarde dans les centres de stockage de données. L'objet de cette thèse est d'étudier l'utilisation des codes en graphe dans les réseaux de stockage de donnée. Nous proposons un nouvel algorithme combinant construction de codes en graphe et allocation des noeuds de ce code sur le réseau. Cet algorithme permet d'atteindre les hautes performances des codes MDS en termes de rapport entre le nombre de disques de parité et le nombre de défaillances simultanées pouvant être corrigées sans pertes (noté R). Il bénéficie également des propriétés de faible complexité des codes en graphe pour l'encodage et la reconstruction des données. De plus, nous présentons une étude des codes LDPC Spatiallement-Couplés permettant d'anticiper le comportement de leur décodage pour les applications de stockage de données.Il est généralement nécessaire de faire des compromis entre différents paramètres lors du choix du code correcteur d'effacement. Afin que ce choix se fasse avec un maximum de connaissances, nous avons réalisé deux études théoriques comparatives pour compléter l'état de l'art. La première étude s'intéresse à la complexité de la mise à jour des données dans un réseau dynamique établi et déterminons si les codes linéaires utilisés ont une complexité de mise à jour optimale. Dans notre seconde étude, nous nous sommes intéressés à l'impact sur la charge du réseau de la modification des paramètres du code correcteur utilisé. Cette opération peut être réalisée lors d'un changement du statut du fichier (passage d'un caractère hot à cold par exemple) ou lors de la modification de la taille du réseau. L'ensemble de ces études, associé au nouvel algorithme de construction et d'allocation des codes en graphe, pourrait mener à la construction de réseaux de stockage dynamiques, flexibles avec des algorithmes d'encodage et de décodage peu complexes. / For two decades, the numerical revolution has been amplified. The spread of digital solutions associated with the improvement of the quality of these products tends to create a growth of the amount of data stored. The cost per Byte reveals that the evolution of hardware storage solutions cannot follow this expansion. Therefore, data storage solutions need deep improvement. This is feasible by increasing the storage network size and by reducing data duplication in the data center. In this thesis, we introduce a new algorithm that combines sparse graph code construction and node allocation. This algorithm may achieve the highest performance of MDS codes in terms of the ratio R between the number of parity disks and the number of failures that can be simultaneously reconstructed. In addition, encoding and decoding with sparse graph codes helps lower the complexity. By this algorithm, we allow to generalize coding in the data center, in order to reduce the amount of copies of original data. We also study Spatially-Coupled LDPC (SC-LDPC) codes which are known to have optimal asymptotic performance over the binary erasure channel, to anticipate the behavior of these codes decoding for distributed storage applications. It is usually necessary to compromise between different parameters for a distributed storage system. To complete the state of the art, we include two theoretical studies. The first study deals with the computation complexity of data update and we determine whether linear code used for data storage are update efficient or not. In the second study, we examine the impact on the network load when the code parameters are changed. This can be done when the file status changes (from a hot status to a cold status for example) or when the size of the network is modified by adding disks. All these studies, combined with the new algorithm for sparse graph codes, could lead to the construction of new flexible and dynamical networks with low encoding and decoding complexities.
172

Methodology for knowledge-based engineering template update : focus on decision support and instances update / Méthodologie de mise-à-jour de knowledge-based engineering template : focus sur l'aide à la décision et la mise-à-jour des instances

Kuhn, Olivier 22 October 2010 (has links)
Les travaux de recherche présentés adressent des problèmes de mises à jour de knowledge-based engineering templates dans le cadre de la conception de produits. La réutilisation de connaissances de conception est devenue un avantage clé pour la compétitivité des entreprises. Le savoir faire ainsi que les bonnes pratiques peuvent être stockés au sein de templates par le biais de formules, règles, scripts, etc. Ces connaissances de conception peuvent alors être réutilisées en instanciant le template. L’instanciation résulte en la création d’une instance du template dans le contexte spécifié.Dans le cadre de produit complexes et imposants tels que des voitures ou des avions, la maintenance des templates est une tache ambitieuse. Plusieurs ingénieurs de diverses disciplines travaillent ensemble et font évoluer les templates pour augmenter leurs aptitudes ou pour corriger des problèmes. De plus, dans certains cas, les modifications faites aux templates devraient être appliquées à leurs instances afin qu’elles puissent bénéficier de ces modifications. Ces problèmes ralentissent l’adoption à grande envergure des templates au sein des entreprises. L’objectif de ce travail est de proposer une approche afin d’épauler les ingénieurs dans les tâches relatives à la mise à jour des templates.Pour traiter ces problèmes, un processus adressant les tâches relatives à la mise à jour des templates est défini. Ensuite, un framework est proposé dans le but d’aider les ingénieurs de conception au cours du processus de mise à jour, en fournissant un système d’aide à la décision ainsi qu’une stratégie de mise à jour des instances. Le premier est un système conçu pour faciliter la collaboration entre les différent experts dans le but de résoudre les problèmes liés aux templates. Le second a pour but d’élaborer une séquence de mise à jour à fin d’appliquer les modifications du template à ses instances. La séquence est calculée avec les données extraites à partir des modèles CAD et des templates. Ces données sont stockées dans une ontologie conçue spécialement à cet effet. L’ontologie est utilisée pour représenter et inférer des connaissances sur les templates, les produits et leur relations. Cela facilite la construction des séquences de mises à jour en fournissant une vue d’ensemble sur les relations entre documents, même implicites. / The present Ph.D. thesis addresses the problem of knowledge-based engineering template update in product design. The reuse of design knowledge has become a key asset for the company’s competitiveness. Knowledge-based engineering templates allow to store best practices and knowhow via formulas, rules, scripts, etc. This design knowledge can then be reused by instantiating the template. The instantiation results in the creation of an instance of the template in the specified context. In the scope of complex and large products, such as cars or aircrafts, the maintenance of knowledge-based engineering templates is a challenging task. Several engineers from various disciplines work together and make evolve the templates in order to extend their capabilities or to fix bugs. Furthermore, in some cases, the modifications applied to templates should be forwarded to their instances in order that they benefit from the changes. These issues slow down the adoption of template technologies at a large scale within companies. The objective of this work is to propose an approach in order to support engineers in the template update related tasks. In order to address these issues, a process supporting the template update related tasks is defined. Then a framework is proposed that helps design engineers during the template update process by providing a decision support system and a strategy for the update of template instances. The former is a system designed to ease the collaboration between various experts in order to solve template related problems. The latter aims at providing a sequence of updates to follow, in order to forward the templates’ modifications to their instances. This sequence is computed with data extracted from models and templates, which are stored in an ontology designed for this purpose. The ontology is used to represent and to infer knowledge about templates, products and their relations. This facilitates the construction of update sequences as it provides an efficient overview of relationships, even implicit ones.
173

強制性財務預測、盈餘操縱及股票投資報酬之實證研究 / A Research of Required Financial Forcast、Earning Manipulation and Factors Affecting Its Stock Return

廖仲協, Liao, Chung Hsieh Unknown Date (has links)
「強制性財務預測」不但規範在何種情況下須發布財務預測,同時也規範在何種狀況下須作財務預測更新。不論第一次預測或更新均需經會計師核閱。因此,「強制性財務預測」比自願性揭露要審慎得多,但其資訊成本也高。盈餘預測的準確性為其是否有用的先決條件。一個高成本的規範,如其所產生資訊的準確性不高,則其必要性便存疑。本研究首先對此一問題加以探討。實證結果顯示, 「強制性財務預測」規範下的第一次盈餘預測和 「天真模型」(Naive Model)下的盈餘預測比較,其準確性較高。由此可推論「強制性財務預測規範」對盈餘預測資訊約有用性應有助益。   「財務預測更新」會增加資訊成本,而「財務預測更新與否」係依據「預測盈餘」與將來「公告盈餘」的差距來決定。「財務第一次預測準確性」影響「預測盈餘」,而「盈餘操縱」則影響「公告盈餘」。因此,「財務第一次預測準確性」、「盈餘操縱」均與 「財務預測更新與否」有關,而且「盈餘操縱」的需要性亦受「財務第一次預測準確性」的影響。本研究以單因子多變量變異數分析對此一問題加以實證。結果顯示,「財務預測未更新組」的「財務第一次預測準確性」較高,但其「盈餘操縱」情形亦較嚴重。   受規範公司的「盈餘操縱」會影響「預測更新」成本,因而其經濟實質。投資人投資這類股票,其投資報酬的影響因素為何?本研究以「行業別股價指數變動」代表總體面及行業面因素,以「當期盈餘」代表個別公司面因素,以「盈餘操縱」代表「財務預測成本」,並以迴歸分析探討各因素對股票投資報酬的影響。實證結果顯示,「行業別股價指數變動」、「當期盈餘」、「盈餘操縱」與「股票投資報酬」均呈正相關。   「盈餘操縱」除與「財務預測更新」的資訊成本有關外,尚可能影響其他契約成本。本研究懷疑「盈餘操縱」會因「財務預測曾否更新」而有不同的目的。本研究以虛擬變數迴歸分析為工具,探討「盈餘操縱」對股價變動的影響力是否會因「財務預測更新與否」而不同?實證結果顯示,「盈餘操縱」對股價變動的影響力並不因「財務預測更新與否」而不同。   此外,「使用一般公認會計原則的經驗」應有助於相對準確性的提升。本研究實證「盈餘第一次預測準確性」的同時,額外針對這個問題加以實證,結果顯示「非新上市年度樣本」的盈餘第一次預測準確性優於「新上市年度樣本」。此一結論應能給證管會若干鼓舞,只要持續推動「強制性財務預測規範」,「盈餘預測準確性」將因受規範公司經驗的累積而提升,預測資訊約有用性會因而加強。
174

Numerical Algorithms for Optimization Problems in Genetical Analysis

Mishchenko, Kateryna January 2008 (has links)
<p>The focus of this thesis is on numerical algorithms for efficient solution of QTL analysis problem in genetics.</p><p>Firstly, we consider QTL mapping problems where a standard least-squares model is used for computing the model fit. We develop optimization methods for the local problems in a hybrid global-local optimization scheme for determining the optimal set of QTL locations. Here, the local problems have constant bound constraints and may be non-convex and/or flat in one or more directions. We propose an enhanced quasi-Newton method and also implement several schemes for constrained optimization. The algorithms are adopted to the QTL optimization problems. We show that it is possible to use the new schemes to solve problems with up to 6 QTLs efficiently and accurately, and that the work is reduced with up to two orders magnitude compared to using only global optimization.</p><p>Secondly, we study numerical methods for QTL mapping where variance component estimation and a REML model is used. This results in a non-linear optimization problem for computing the model fit in each set of QTL locations. Here, we compare different optimization schemes and adopt them for the specifics of the problem. The results show that our version of the active set method is efficient and robust, which is not the case for methods used earlier. We also study the matrix operations performed inside the optimization loop, and develop more efficient algorithms for the REML computations. We develop a scheme for reducing the number of objective function evaluations, and we accelerate the computations of the derivatives of the log-likelihood by introducing an efficient scheme for computing the inverse of the variance-covariance matrix and other components of the derivatives of the log-likelihood.</p>
175

Numerical Algorithms for Optimization Problems in Genetical Analysis

Mishchenko, Kateryna January 2008 (has links)
The focus of this thesis is on numerical algorithms for efficient solution of QTL analysis problem in genetics. Firstly, we consider QTL mapping problems where a standard least-squares model is used for computing the model fit. We develop optimization methods for the local problems in a hybrid global-local optimization scheme for determining the optimal set of QTL locations. Here, the local problems have constant bound constraints and may be non-convex and/or flat in one or more directions. We propose an enhanced quasi-Newton method and also implement several schemes for constrained optimization. The algorithms are adopted to the QTL optimization problems. We show that it is possible to use the new schemes to solve problems with up to 6 QTLs efficiently and accurately, and that the work is reduced with up to two orders magnitude compared to using only global optimization. Secondly, we study numerical methods for QTL mapping where variance component estimation and a REML model is used. This results in a non-linear optimization problem for computing the model fit in each set of QTL locations. Here, we compare different optimization schemes and adopt them for the specifics of the problem. The results show that our version of the active set method is efficient and robust, which is not the case for methods used earlier. We also study the matrix operations performed inside the optimization loop, and develop more efficient algorithms for the REML computations. We develop a scheme for reducing the number of objective function evaluations, and we accelerate the computations of the derivatives of the log-likelihood by introducing an efficient scheme for computing the inverse of the variance-covariance matrix and other components of the derivatives of the log-likelihood.
176

Erstellung von Echtzeitmotormodellen aus den Konstruktionsdaten von Verbrennungsmotoren

Kämmer, Alexander 25 January 2004 (has links) (PDF)
Motormanagement Systeme im modernen Kraftfahrzeug werden zunehmend umfangreicher und komplexer. Die Steuergeräte als zentrale Komponente dieser Systeme werden in ihrer Funktionalität durch Hard- und Software bestimmt. Sie sind das Ergebnis eines langen Entwicklungs- und Fertigungsprozesses. Fahrversuche und Versuche am Motorenprüfstand zum Test von Steuergeräten sind sehr zeit- und kostenintensiv. Eine Alternative ist der Test von Steuergeräten außerhalb ihrer realen Umgebung. Das Steuergerät wird dabei auf einem Hardware-in-the-Loop-Prüfstand betrieben. Die große Zahl von Einzelfunktionen und miteinander verknüpften Funktionen des Steuergerätes erfordert einen strukturierten und reproduzierbaren Ablauf beim Test. Diese Tests sind aber erst nach Fertigstellung eines Motorprototypen möglich, da die Parameter der vorhandenen Modelle aus den gemessenen Prüfstandsdaten ermittelt werden. Eine weitere Fragestellung zu diesem Thema bezieht sich auf die Modelltiefe: Heutige Modelle basieren auf Daten, die über einem Arbeitsspiel gemittelt werden. Untersuchungen wie z.B. der Momentanbeschleunigung von Kurbelwellen sind somit nicht möglich. Aus diesem Grund untersucht diese Arbeit Strategien im Hinblick auf den modellbasierten Test von Motormanagement Systemen. Dabei wird das Potenzial zur Zeiteinsparung bei einem neuen Motormodell großer Tiefe betrachtet.
177

Erstellung eines WMS zur Blattschnittübersicht aus CSW Metadaten / Creation of a WMS for map sheet index of CSW metadata

Knappe, Madeleine, Wunderlich, André 04 October 2010 (has links) (PDF)
Die Arbeit sollte die technische Machbarkeit der Verwendung digitaler Metadaten in Geodateninfrastrukturen aufzeigen und wenn möglich prototypisch umsetzen. Dabei sollten die Metadaten über Topographische Karten, welche in dem Metainformationssystem GeoMIS.Sachsen und über einen entsprechenden Katalogdienst (CSW) verfügbar sind, in einem Geoportal visualisiert werden. Im Ergebnis wurde ein Workflow entwickelt und umgesetzt, welcher die Metadaten automatisch abruft, die Metadaten entsprechend transformiert und abschließend die Metadaten über einen Kartendienst (WMS) für beliebige Geoportale bereitstellt. Dadurch ist es möglich die Aktualität von bereits vorhanden Kartendiensten bzw. deren Daten abzufragen. Durch die zyklische Ausführung des Prozesses auf dem Server stehen dem Nutzer jederzeit aktuelle Blattschnittübersichten zur Verfügung. Darüber hinaus steht ebenfalls ein Kartendienst für Vektordaten bereit über den die Geometriedaten und zusätzliche Sachinformationen direkt abgerufen werden können. Außerdem wird ein direkter Verweis (Link) auf den entsprechenden Metadatensatz im GeoMIS.Sachsen angegeben. Weiterhin wurde eine Transformation entwickelt, welche die im XML vorliegenden Metadaten in eine SVG überführt. Diese interaktive Blattschnittübersicht kann direkt auf Webseiten eingebunden werden. Außerdem kann aus dem SVG Format wiederum automatisiert ein PDF Dokument erstellt werden. Die Arbeit konnte nachweisen, dass zukünftig eine doppelte und getrennte Datenführung von Metadaten und Blattschnittübersichten nicht notwendig ist. Die Verwendung der IT Standardtechnologie XSLT zur Transformation von XML Daten hat sich bewährt und ermöglicht auch die Unterstützung weiterer Formate wie z.B. XHTML, KML (google) oder XCPF. Der erarbeitete Ansatz ist auch für andere Geodaten wie z.B. Luftbilder, historische Karten oder Bebauungspläne anwendbar. Durch die Visualisierung der textbasierten Metadaten war außerdem eine Qualitätssicherung der Metadaten möglich. / The work shows the technical feasibility of digital metadata within Spatial Data Infrastructures. The visualization of digital geo-metadata in geoportals was prototypical implemented. The use case was a map sheet index of topographical maps who is prepared automatically. Geo-metadata are described in the metadata information system GeoMIS.Sachsen and provided by a catalogue service (CSW). As a result a workflow was developed and implemented which calls the metadata automatically, transforms the metadata into GML and finally prepares the metadata through a web map service in geoportals. Thereby it is possible to analyze the actuality of the topographical maps through map sheet index. Because of the cyclical update of the data the map patterns are always up to date. There is also a map service for vector data (WFS) implemented which enables a user to directly retrieve additional factual information. Furthermore a direct URL to the metadataset in the GeoMIS.Sachsen is stated. Besides the GML transformation another one was developed, which converts the metadata in XML format into scalable vector graphics (SVG). This interactive map sheet index could be integrated directly on websites. It is also possible to create a PDF document automatically out of the SVG with appropriate software tools. By using the XSLT standard additional formats could also be served. For example a transformation of the XML source data into KML (Google), XHTML or XCPF is possible. This work demonstrates that there is no need for a separation of metadata and map sheet index any more. The usage of XSLT was profitable and supports a lot of formats. The workflow is also usable for other geo data like air photography, historical maps or development plans. In addition it is possible to use the workflow to visualize other metadata like resolution or prices of each map. Because of the visualization of the text based metadata a quality check of the data is possible.
178

Distributed Game Environment : A Software Product Line for Education and Research

Quan, Nguyen January 2013 (has links)
A software product line is a set of software-intensive systems that share a common, managed set of features satisfying the specific needs of a particular market segment or demand. Software product lines capitalize commonality and manage variation to reduce the time, effort, cost and complexity when creating and maintaining products in a product line. Therefore reusing core assets, software product line can address problems such as cost, time-to-market, quality, complexity of developing and maintaining variants, and need to quickly respond to market’s demands. The development of a software product line is different from conventional software development and in the area of education and research of product line there is a lack of a suitable purposefully designed and developed software product line (SPL) that can be used for educational or research purposes. In this thesis we have developed a software product line for turn-based two players distributed board games environment that can be used for educational and research purposes. The software product line supports dynamic runtime update, including games, chat, and security features, via OSGi framework. Furthermore, it supports remote gameplay via local area network and dynamic runtime activity recovery. We delivered a product configuration tool that is used to derive and configure products from the core assets based on feature selection. We have also modeled the software product line’s features and documented its requirements, architecture and user guides. Furthermore, we performed functional and integration tests of the software product line to ensure that the requirements are met according to the requirements specification prescribed by the stakeholders.
179

Funktionelle Analyse von Systemsoftware-Updatesystemen [DVB-fähiger Multimedia-Entertainment-Endgeräte] /

Knauf, Robert. Eibl, Maximilian. January 2007 (has links)
Chemnitz, Techn. Univ., Diplomarb., 2006.
180

Αξιοποίηση τεχνολογιών ανοικτού κώδικα για την ανάπτυξη εφαρμογών σημασιολογικού ιστού

Κασσέ, Παρασκευή 14 February 2012 (has links)
Τα τελευταία χρόνια υπάρχει εκθετική αύξηση του όγκου της πληροφορίας που δημοσιεύεται στο Διαδίκτυο. Καθώς όμως η πληροφορία αυτή δε συνδέεται με τη σημασιολογία της παρατηρείται δυσκολία στη διαχείρισή της και στην πρόσβαση σε αυτήν. Ο Σημασιολογικός Ιστός, λοιπόν, είναι μια ομάδα μεθόδων και τεχνολογιών που σκοπεύουν να δώσουν τη δυνατότητα στις μηχανές να κατανοήσουν τη “σημασιολογία” των πληροφοριών σχετικά με τον Παγκόσμιο Ιστό. Ο Σημασιολογικός Ιστός (Semantic Web) αποτελεί επέκταση του Παγκοσμίου Ιστού. Στο Σημασιολογικό Ιστό οι πληροφορίες εμπλουτίζονται με μεταδεδομένα, τα οποία υπακουούν σε κοινά πρότυπα και επιτρέπουν την εξαγωγή γνώσεως από την ήδη υπάρχουσα, καθώς επίσης και το συνδυασμό της υπάρχουσας πληροφορίας με στόχο την εξαγωγή συμπερασμάτων. Απώτερος στόχος του Σημασιολογικού Ιστού είναι η βελτιωμένη αναζήτηση, η εκτέλεση σύνθετων διεργασιών και η εξατομίκευση της πληροφορίας σύμφωνα με τις ανάγκες του κάθε χρήστη. Στην παρούσα διπλωματική εργασία μελετήθηκε η χρήση των τεχνολογιών του Σημασιολογικού Ιστού για τη βελτίωση της πρόσβασης σε πολιτισμικά δεδομένα. Συγκεκριμένα αρχικά έγινε εμβάθυνση στις τεχνολογίες και στις θεμελιώδεις έννοιες του Σημασιολογικού Ιστού. Παρουσιάστηκαν αναλυτικά οι βασικές γλώσσες σήμανσης: XML που επιτρέπει τη δημιουργία δομημένων εγγράφων με λεξιλόγιο καθορισμένο από το χρήστη, RDF που προσφέρει ένα μοντέλο δεδομένων για την περιγραφή πληροφοριών με τέτοιο τρόπο ώστε να είναι δυνατή η ανάγνωση και η κατανόησή τους από μηχανές. Αναφέρθηκαν, ακόμη, οι διάφοροι τρόποι σύνταξης της γλώσσας RDF καθώς και πως γίνεται αναζήτηση σε γράφους RDF με το πρωτόκολλο SPARQL. Στη συνέχεια ακολουθεί η περιγραφή της RDFS, που πρόκειται για γλώσσα περιγραφής του RDF λεξιλογίου. Έχοντας παρουσιαστεί σε προηγούμενο κεφάλαιο η έννοια της οντολογίας, γίνεται αναφορά στη σημασιολογική γλώσσα σήμανσης OWL, που χρησιμοποιείται για την έκδοση και διανομή οντολογιών στο Διαδίκτυο. Έπειτα ακολουθεί μια ανασκόπηση από επιλεγμένα έργα, ελληνικά, ευρωπαϊκά και διεθνή, των τελευταίων ετών που χρησιμοποιούν τις τεχνολογίες του Σημασιολογικού Ιστού στο τομέα του πολιτισμού και της πολιτισμικής κληρονομιάς. Τέλος στο έβδομο κεφάλαιο παρουσιάζεται μία εφαρμογή διαχείρισης αρχαιολογικών χώρων-μνημείων και μελετώνται σε βάθος οι τεχνολογίες και τα εργαλεία που χρησιμοποιήθηκαν για την υλοποίησή της. / Over the past few years there has been exponential increase of the volume of information published on the Internet. Since information is not connected to its semantics, it is difficult to manipulate and access it. Therefore, the Semantic Web consists of methods and technologies that aim to enable machines to understand information’s semantics. The Semantic Web is an extension of the World Wide Web (WWW). Specifically, information is enriched with metadata, which are subject to common standards and permit knowledge extraction from the existing one and the combination of existing information in order to infer implicit knowledge, as well. Future goals of the Semantic Web are enhanced searching, complicated processes’ execution and information personalization according to each user’s needs. This post-graduate diploma thesis researches the usage of Semantic Web technologies for the enhancement of the access to cultural data. More specifically, Semantic Web technologies and essential concepts were studied. Basic markup languages were presented analytically: XML that allows structured documents’ creation with user defined vocabulary, RDF that offers a data model for such information description that it is readable and understandable by machines. Also, various RDF syntaxes and how to search RDF graphs using SPARQL protocol were referred. Below RDFS description follows, that is a description language of RDF vocabulary. After having introduced the concept of ontology in previous chapter, the semantic markup language OWL is presented, that is used for ontology publishing and distribution on the Internet. A review of selected projects of the last years, Greek, European and international, which are characterized by the application of technologies of the Semantic Web in the sector of Culture and Cultural heritage, is presented. In the last chapter, an application that manages archaeological places- sites is presented and it is studied technologies and tools that were used for it.

Page generated in 0.0398 seconds