• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 12
  • 9
  • 1
  • Tagged with
  • 110
  • 23
  • 22
  • 12
  • 11
  • 10
  • 10
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Les revues littéraires et artistiques (1880-1900). Questions de patrimonialisation et de numérisation / Literature and art reviews (1880-1900). Questions of cultural heritage and digitization

Leu, Philipp 05 November 2016 (has links)
Travailler aujourd’hui sur un fonds numérique de revues c’est être confronté à des artefacts. Numérisées en noir et blanc, débarrassées de leurs couvertures, des pages vierges, des encarts, des publicités, des bulletins et hors-texte divers, les revues numérisées offrent souvent une physionomie très différente des documents originaux, surtout quand les fichiers numériques ont été produits à partir de reproductions antérieures (réimpressions ou microformes). Le présent travail tourne autour d’une question de méthode : quels sont les principes à retenir pour la numérisation des revues littéraires et artistiques de la fin du xixe siècle afin que l’accord subtil entre forme et contenu ne soit pas rompu lorsque les supports sont dématérialisés ?La revue littéraire et artistique s’inscrit dans la communication littéraire au croisement de traditions éditoriales hybrides. Sa matrice oscille entre le journal, le livre, l’album d’art et la revue, mobilisant et exploitant les caractéristiques de ces quatre référents. Ces référents sont ici représentés à travers un corpus de quatre périodiques : les revues françaises La Plume (1889–1914) et L’Épreuve (1894–1895), le trimestriel britannique The Yellow Book (1894–1897), et le périodique berlinois Pan (1895–1900). Ces publications déclinent l’objet revue dans trois aires culturelles, et permettent d’en explorer les spécificités ainsi que les enjeux économiques liés à son essor au sein des sociabilités littéraires et artistiques et au contact des doctrines esthétiques. Cette étude de cas débouche sur une analyse de la matérialité, de l’économie et des pratiques revuistes dans la période fin-de-siècle qui amène à s’interroger sur les implications culturelles, historiques et sociologiques de ces objets.Fragilisée par l’usage fréquent, la revue, lieu d’innovations graphiques et textuelles, est confrontée à la nécessité de la dématérialisation pour rester accessible à la recherche. L’examen de six bibliothèques numériques (Gallica, la Bibliothèque numérique de l’Université de Heidelberg, Internet Archive, The Yellow Nineties Online, le Blue Mountain Project et Jugend Wochenschrift) souligne que le numérique n’est en aucune manière une opération neutre et doit être constamment accompagné d’une approche scientifique de l’objet ouvrant à des recommandations et à de « bonnes pratiques ».Outre la question technique, toujours capitale, l’accent est mis dans cette thèse sur les procédures de numérisation en vue à la fois d’une restitution optimale de l’original et de la possibilité de disposer d’interfaces et de fonctionnalités dotant le chercheur de nouvelles approches heuristiques, permises par les nouvelles technologies, au service du patrimoine. / To work on digitized reviews today means essentially to be confronted with artefacts. Digitized in black and white, stripped of their covers, of blank pages, of inserts, advertisements, bulletins and other supplements, digital reproductions of reviews often differ greatly from the originals, especially when the electronic files have been based on previous reproductions (microforms or reprints). Our work evolves around a question of method: what principles should be followed in digitizing literature and art reviews from the end of the 19th century, in order to preserve the subtle harmony between form and content when the medium is no longer hard copy?Literature and art reviews participate in literary communication at the intersection of hybrid editorial traditions. Their matrix oscillates between newspapers, books, art albums and reviews, utilising the characteristics of these four media. We have chosen four periodicals to represent them: the French reviews La Plume (1889–1914) and L’Épreuve (1894–1895), the British quarterly The Yellow Book (1894–1897), and the Berlin periodical Pan (1895–1900). These publications articulate the different characteristics of reviews in three cultural contexts, allowing us to explore their specificities as well as the financial aspects linked to their development, in close interaction with literary and artistic social life and aesthetic doctrines. As case studies, these bear on an analysis of the materiality, of the financial and editorial practices of late 19th century reviews while questioning the historical, cultural and sociological implications of these objects.Degraded and fragile through years of use, these reviews, catalysts of textual and graphic innovation, are in urgent need of dematerialisation so as to remain accessible for future research. Close examination of six digital libraries (Gallica, the digital library of Heidelberg University, Internet Archive, The Yellow Nineties Online, the Blue Mountain Project, and Jugend Wochenschrift) underlines that digitization is in no way a neutral operation and must constantly be accompanied by scientific validation with a view to developing recommendations and "good practices".Besides technical questions of primary importance, this thesis’ focus is on digitization procedures, aiming at both optimal restitution of the originals and functional interfaces that provide the researcher with new heuristic tools, through innovative technologies, in the service of our cultural heritage.
82

Towards effective governance of information in a Brazilian agricultural research organisation

Rocha-Bello-Bertin, Patricia January 2014 (has links)
There are three different uses of the term 'information' in ordinary language: in the restricted sense, it means diverse types of material objects, such as data or documents ('information as thing'); alternatively, the term is used as in reference to the act of informing or becoming informed ('information as process'), or to equate to knowledge ('information as knowledge'). Each of these connotations represents a legitimate view of information in its own right, being equally significant to information-intensive organisations. The literature lacks studies that approach information from an integrative viewpoint, however. The purpose of this study was to explore and develop the notion of 'information governance' as an integrative, systemic approach to information in the context of research organisations. Soft Systems Methodology was used in a case study involving the Brazilian Agricultural Research Corporation. Qualitative data was gathered through in-depth interviews with researchers and information/knowledge managers, followed by a thematic, two-level analysis. From a 'macro level' of analysis (the wider Brazilian agricultural research system) it was found that, to solve increasingly complex research problems, collaborative, multidisciplinary networking is needed. On the other hand, competitive forces are continuously emanating from the systems of research steering, funds and resources' allocation, quality control, and recognition and reward. This conflict inhibits the collaborative sharing of 'information as thing' and 'as knowledge', disturbs internal communication flows and contributes to low levels of synergy and cross-departmental partnerships, ultimately affecting research outcomes. At a 'meso level' (the local practices and culture of agricultural knowledge production), different epistemic cultures were identified (named in vitro, in situ and in silico research), which respond differently to the opposing forces of collaboration and competition. Based on a deep understanding of the agricultural research system and underlying epistemic cultures, a framework for effective governance of information was developed. Action to improve the governance of information at Embrapa would involve nurturing an information culture that supports collaborative work. Given that interactions between researchers are determined by their individual pursuits and struggles, this would require a change in the corporate system of performance evaluation and reward, according to the different epistemic cultures.
83

Encyclopaedic question answering

Dornescu, Iustin January 2012 (has links)
Open-domain question answering (QA) is an established NLP task which enables users to search for speciVc pieces of information in large collections of texts. Instead of using keyword-based queries and a standard information retrieval engine, QA systems allow the use of natural language questions and return the exact answer (or a list of plausible answers) with supporting snippets of text. In the past decade, open-domain QA research has been dominated by evaluation fora such as TREC and CLEF, where shallow techniques relying on information redundancy have achieved very good performance. However, this performance is generally limited to simple factoid and deVnition questions because the answer is usually explicitly present in the document collection. Current approaches are much less successful in Vnding implicit answers and are diXcult to adapt to more complex question types which are likely to be posed by users. In order to advance the Veld of QA, this thesis proposes a shift in focus from simple factoid questions to encyclopaedic questions: list questions composed of several constraints. These questions have more than one correct answer which usually cannot be extracted from one small snippet of text. To correctly interpret the question, systems need to combine classic knowledge-based approaches with advanced NLP techniques. To Vnd and extract answers, systems need to aggregate atomic facts from heterogeneous sources as opposed to simply relying on keyword-based similarity. Encyclopaedic questions promote QA systems which use basic reasoning, making them more robust and easier to extend with new types of constraints and new types of questions. A novel semantic architecture is proposed which represents a paradigm shift in open-domain QA system design, using semantic concepts and knowledge representation instead of words and information retrieval. The architecture consists of two phases, analysis – responsible for interpreting questions and Vnding answers, and feedback – responsible for interacting with the user. This architecture provides the basis for EQUAL, a semantic QA system developed as part of the thesis, which uses Wikipedia as a source of world knowledge and iii employs simple forms of open-domain inference to answer encyclopaedic questions. EQUAL combines the output of a syntactic parser with semantic information from Wikipedia to analyse questions. To address natural language ambiguity, the system builds several formal interpretations containing the constraints speciVed by the user and addresses each interpretation in parallel. To Vnd answers, the system then tests these constraints individually for each candidate answer, considering information from diUerent documents and/or sources. The correctness of an answer is not proved using a logical formalism, instead a conVdence-based measure is employed. This measure reWects the validation of constraints from raw natural language, automatically extracted entities, relations and available structured and semi-structured knowledge from Wikipedia and the Semantic Web. When searching for and validating answers, EQUAL uses the Wikipedia link graph to Vnd relevant information. This method achieves good precision and allows only pages of a certain type to be considered, but is aUected by the incompleteness of the existing markup targeted towards human readers. In order to address this, a semantic analysis module which disambiguates entities is developed to enrich Wikipedia articles with additional links to other pages. The module increases recall, enabling the system to rely more on the link structure of Wikipedia than on word-based similarity between pages. It also allows authoritative information from diUerent sources to be linked to the encyclopaedia, further enhancing the coverage of the system. The viability of the proposed approach was evaluated in an independent setting by participating in two competitions at CLEF 2008 and 2009. In both competitions, EQUAL outperformed standard textual QA systems as well as semi-automatic approaches. Having established a feasible way forward for the design of open-domain QA systems, future work will attempt to further improve performance to take advantage of recent advances in information extraction and knowledge representation, as well as by experimenting with formal reasoning and inferencing capabilities.
84

Προηγμένες τεχνικές και αλγόριθμοι εξόρυξης γνώσης για την προσωποποίηση της πρόσβασης σε δικτυακούς τόπους / Advanced techniques and algorithms of knowledge mining from Web Sites

Γιαννακούδη, Θεοδούλα 16 May 2007 (has links)
Η προσωποποίηση του ιστού είναι ένα πεδίο που έχει κερδίσει μεγάλη προσοχή όχι μόνο στην ερευνητική περιοχή, όπου πολλές ερευνητικές μονάδες έχουν ασχοληθεί με το πρόβλημα από διαφορετικές μεριές, αλλά και στην επιχειρησιακή περιοχή, όπου υπάρχει μία ποικιλία εργαλείων και εφαρμογών που διαθέτουν ένα ή περισσότερα modules στη διαδικασία της εξατομίκευσης. Ο στόχος όλων αυτών είναι, εξερευνώντας τις πληροφορίες που κρύβονται στα logs του εξυπηρετητή δικτύου να ανακαλύψουν τις αλληλεπιδράσεις μεταξύ των επισκεπτών των ιστότοπων και των ιστοσελίδων που περιέχονται σε αυτούς. Οι πληροφορίες αυτές μπορούν να αξιοποιηθούν για τη βελτιστοποίηση των δικτυακών τόπων, εξασφαλίζοντας έτσι αποτελεσματικότερη πλοήγηση για τον επισκέπτη και διατήρηση του πελάτη στην περίπτωση του επιχειρηματικού τομέα. Ένα βασικό βήμα πριν την εξατομίκευση αποτελεί η εξόρυξη χρησιμοποίησης από τον ιστό, ώστε να αποκαλυφθεί τη γνώση που κρύβεται στα log αρχεία ενός web εξυπηρετητή. Εφαρμόζοντας στατιστικές μεθόδους και μεθόδους εξόρυξης δεδομένων στα web log δεδομένα, μπορούν να προσδιοριστούν ενδιαφέροντα πρότυπα που αφορούν τη συμπεριφορά πλοήγησης των χρηστών, όπως συστάδες χρηστών και σελίδων και πιθανές συσχετίσεις μεταξύ web σελίδων και ομάδων χρηστών. Τα τελευταία χρόνια, γίνεται μια προσπάθεια συγχώνευσης του περιεχομένου του ιστού στη διαδικασία εξόρυξης χρησιμοποίησης, για να επαυξηθεί η αποτελεσματικότητα της εξατομίκευσης. Το ενδιαφέρον σε αυτή τη διπλωματική εργασία εστιάζεται στο πεδίο της εξόρυξης γνώσης για τη χρησιμοποίηση δικτυακών τόπων και πώς η διαδικασία αυτή μπορεί να επωφεληθεί από τα χαρακτηριστικά του σημασιολογικού ιστού. Αρχικά, παρουσιάζονται τεχνικές και αλγόριθμοι που έχουν προταθεί τα τελευταία χρόνια για εξόρυξη χρησιμοποίησης από τα log αρχεία των web εξυπηρετητών. Έπειτα εισάγεται και ο ρόλος του περιεχομένου στη διαδικασία αυτή και παρουσιάζονται δύο εργασίες που λαμβάνουν υπόψη και το περιεχόμενο των δικτυακών τόπων: μία τεχνική εξόρυξης χρησιμοποίησης με βάση το PLSA, η οποία δίνει στο τέλος και τη δυνατότητα ενοποίησης του περιεχομένου του ιστού και ένα σύστημα προσωποποίησης το οποίο χρησιμοποιεί το περιεχόμενο του ιστοτόπου για να βελτιώσει την αποτελεσματικότητα της μηχανής παραγωγής προτάσεων. Αφού αναλυθεί θεωρητικά το πεδίο εξόρυξης γνώσης από τα logs μέσα από την περιγραφή των σύγχρονων τεχνικών, προτείνεται το σύστημα ORGAN-Ontology-oRiented usaGe ANalysis- το οποίο αφορά στη φάση της ανάλυσης των log αρχείων και την εξόρυξη γνώσης για τη χρησιμοποίηση των δικτυακών τόπων με άξονα τη σημασιολογία του ιστοτόπου. Τα σημασιολογικά χαρακτηριστικά του δικτυακού τόπου έχουν προκύψει με τεχνικές εξόρυξης δεδομένων από το σύνολο των ιστοσελίδων και έχουν σχολιαστεί από μία OWL οντολογία. Το ORGAN παρέχει διεπαφή για την υποβολή ερωτήσεων σχετικών με την επισκεψιμότητα και τη σημασιολογία των σελίδων, αξιοποιώντας τη γνώση για το site, όπως αναπαρίσταται πάνω στην οντολογία. Περιγράφεται διεξοδικά ο σχεδιασμός, η ανάπτυξη και η πειραματική αξιολόγηση του συστήματος και σχολιάζονται τα αποτελέσματα του. / Web personalization is a domain which has gained great momentum not only in the research area, where many research units have addressed the problem form different perspectives, but also in the industrial area, where a variety of modules for the personalization process is available. The objective is, researching the information hidden in the web server log files to discover the interactions between web sites visitors and web sites pages. This information can be further exploited for web sites optimization, ensuring more effective navigation for the user and client retention in the industrial case. A primary step before the personalization is the web usage mining, where the knowledge hidden in the log files is revealed. Web usage mining is the procedure where the information stored in the Web server logs is processed by applying statistical and data mining techniques such as clustering, association rules discovery, classification, and sequential pattern discovery, in order to reveal useful patterns that can be further analyzed. Recently, there has been an effort to incorporate Web content in the web usage mining process, in order to enhance the effectiveness of personalization. The interest in this thesis is focused on the domain of the knowledge mining for usage of web sites and how this procedure can get the better of attributes of the semantic web. Initially, techniques and algorithms that have been proposed lately in the field of web usage mining are presented. After, the role of the context in the usage mining process is introduced and two relevant works are presented: a usage mining technique based on the PLSA model, which may integrate attributes of the site content, and a personalization system which uses the site content in order to enhance a recommendation engine. After analyzing theoretically the usage mining domain, a new system is proposed, the ORGAN, which is named after Ontology-oRiented usaGe ANalysis. ORGAN concerns the stage of log files analysis and the domain of knowledge mining for the web site usage based on the semantic attributes of the web site. The web site semantic attributes have resulted from the web site pages applying data mining techniques and have been annotated by an OWL ontology. ORGAN provides an interface for queries submission concerning the average level of visitation and the semantics of the web site pages, exploiting the knowledge for the site, as it is derived from the ontology. There is an extensive description of the design, the development and the experimental evaluation of the system.
85

Ολοκλήρωση συστημάτων υποστήριξης ομαδικών αποφάσεων και διαχείρισης οργανωσιακής γνώσης / Ιntegration of group decision support and organizational knowledge management systems

Ευαγγέλου, Χριστίνα 25 June 2007 (has links)
Αυτή η διδακτορική διατριβή αφορά στην εννοιολογική και λειτουργική ολοκλήρωση των Συστημάτων Υποστήριξης Ομαδικών Αποφάσεων και Διαχείρισης Οργανωσιακής Γνώσης. Η προτεινόμενη προσέγγιση αποτελεί μια καινοτόμο προσπάθεια συγκερασμού και διεύρυνσης των δυνατοτήτων που παρέχονται από υπάρχουσες τεχνικές και των δύο παραπάνω επιστημονικών περιοχών, με στόχο τόσο την πληρέστερη κάλυψη των ολοένα αυξανόμενων αναγκών των χρηστών που εμπλέκονται σε σχετικά προβλήματα, όσο και την αποτελεσματικότερη αξιοποίηση της γνώσης ενός οργανισμού. Λαμβάνοντας υπόψη τη διατυπωμένη ανάγκη για μια ολοκληρωμένη προσέγγιση, η διατριβή επιχειρεί τη σύνθεση αρχών και τεχνικών από διάφορα πεδία έρευνας, υποστηρίζοντας ότι η διαχείριση γνώσης και η λήψη αποφάσεων δε θα πρέπει να αντιμετωπίζονται ως χωριστές διαδικασίες. Προς αυτή την κατεύθυνση, προτείνεται ένα πλαίσιο ολοκλήρωσής τους. Αναγνωρίζοντας ότι σε αυτού του είδους τα περιβάλλοντα σημαντικό ρόλο παίζει η ενεργή συμμετοχή των ληπτών αποφάσεων στις διαδικασίες διανομής της γνώσης, η προτεινόμενη προσέγγιση προτείνει επίσης ένα πλαίσιο ενίσχυσης της συμμετοχής τους στις σχετικές διαδικασίες. Το προτεινόμενο πλαίσιο ολοκλήρωσης υποστηρίζεται από ένα πρωτότυπο εργαλείο λογισμικού, το οποίο αναπτύχθηκε στα πλαίσια της διατριβής. Στο προτεινόμενο εργαλείο, η ολοκλήρωση των διαδικασιών λήψης ομαδικών αποφάσεων και διαχείρισης οργανωσιακής γνώσης επιτυγχάνεται μέσω ενός Γράφου Συζήτησης, ο οποίος απεικονίζει το διάλογο που αναπτύσσεται μεταξύ των εμπλεκομένων στη λήψη μιας απόφασης. Ο βασισμένος σε επιχειρηματολογία διάλογος δομείται και αξιολογείται βάσει κοινά αποδεκτών Πλαισίων Λήψης Αποφάσεων και Μηχανισμών Αξιολόγησης. Οι λειτουργίες του προτεινόμενου εργαλείου, καθώς και η οργάνωση των σχετικών δεδομένων και γνώσης βασίζονται σε ένα πρωτότυπο μοντέλο οντολογίας, το οποίο επίσης αναπτύχθηκε στα πλαίσια της διατριβής. Η συνολική προσέγγιση υποστηρίζει και διευκολύνει τόσο την ομαδική λήψη αποφάσεων, όσο και την απόκτηση, εκμαίευση, επεξεργασία, αποθήκευση και διανομή της οργανωσιακής γνώσης. / Decision making is widely considered as a fundamental organizational activity that comprises a series of knowledge management tasks. Admitting that the quality of a decision depends on the quality of the knowledge used to make it, it has been widely argued that the enhancement of the decision making efficiency and effectiveness is strongly related to the appropriate exploitation of all possible organizational knowledge resources. Taking the above remarks into account, this PhD thesis presents a human-centred, multidisciplinary approach for the integration of Group Decision Support and Organizational Knowledge Management Systems. Towards this end, a conceptual framework that properly interweaves concepts, theories and practices from the Knowledge Management, Argumentation Theory, Decision Making and Multicriteria Decision Aid disciplines is first introduced. Acknowledging that in collaborative settings the decision makers’ active participation in the knowledge sharing processes is of major importance, the proposed approach also introduces a framework for the leveraging of their participation in the related processes. Furthermore, in order to functionally integrate the decision support and knowledge management processes, a software tool that fully supports the above two frameworks was developed. The core component of the proposed tool is a Discourse Graph that serves the visualization of the argumentative discourses taking place between the involved parties. In order to better support decision making, these discourses are structured and evaluated according to a set of commonly accepted Decision Making Frameworks and a set of Scoring Mechanisms that comply with broadly used Multicriteria Decision Aid models and techniques. Being based on a well-defined ontology model, the proposed approach enables the members of a group to collaborate and accomplish a common understanding. Furthermore, it facilitates the capturing of the organizational knowledge in order to augment teamwork in terms of knowledge acquisition, elicitation, processing, storage and sharing, thus further enhancing the decision making quality.
86

Ημιαυτόματες διαδικασίες συλλογής και σύνθεσης πληροφορίας από ιστοσελίδες και Web 2.0 εκπαιδευτικές συνιστώσες. Μελέτη και εφαρμογή τους στα πλαίσια υλοποίησης της πύλης WEP.

Μπέσσα, Σωτηρία 01 October 2008 (has links)
Η εργασία αυτή αποτελεί συνέχεια μιας προσπάθειας για την ανάπτυξη της πύλης WEP (Web Engineering Resources Portal). Πρόκειται για ένα Μοντέλο Αναφοράς και μια Πύλη Πόρων που φιλοδοξεί να αποτελέσει ένα σημαντικό εργαλείο για το web engineering, αλλά και αναφορά στην ανάπτυξη εφαρμογών / πληροφοριακών συστημάτων παγκοσμίου ιστού και οδηγό στην ανεύρεση και κατανόηση τεχνολογιών και εργαλείων. Το κομμάτι με το οποίο θα ασχοληθούμε εδώ αφορά το τελευταίο μέρος και τον εκπαιδευτικό χαρακτήρα που επιθυμούμε να προσδώσουμε στην πύλη. Συνοπτικά, η διπλωματική εργασία κινείται σε τρεις άξονες: Πρώτον, στη μελέτη σύγχρονων δυνατοτήτων συλλογής πληροφορίας για την επιλογή των κατάλληλων εργαλείων για εισαγωγή στην πύλη και την ανάπτυξη της δικής μας μεθοδολογίας. Η διαρκής και ραγδαία αύξηση του όγκου των δεδομένων κατέστησε εμφανές το πρόβλημα της ευρέσεως και εξαγωγής της ''χρήσιμης'' ή ''επιθυμητής'' πληροφορίας, καθώς για κάθε κατηγορία ιστοεφαρμογών υπάρχει μια πληθώρα εργαλείων ανάπτυξης (τα οποία μάλιστα διαρκώς ανανεώνονται) καθιστώντας τη διαδικασία επιλογής των καταλληλότερων ιδιαίτερα επίπονη και χρονοβόρα. Δεύτερον, στην εφαρμογή της παραπάνω μεθοδολογίας εργασίας με στόχο την εισαγωγή των αντίστοιχων εργαλείων που προέκυψαν με τη μετατροπή της πληροφορίας σε XML για τη δόμηση της πύλης WEP. Εξηγούμε πως έγινε η εισαγωγή και διαχείριση περιεχομένου με χρήση της τεχνολογίας XML και πως καταλήγουμε στην υλοποίηση των παραπάνω μέσα από την πλατφόρμα του stringbeans. Τρίτον στον εκπαιδευτικό χαρακτήρα της Πύλης. Αναφερόμαστε στις έννοιες του e-learning, και τις διάφορες εναλλακτικές που υπάρχουν στο χώρο της ηλεκτρονικής μάθησης στην εποχή του Web 2.0, όπου οι χρήστες συμμετέχουν ενεργά στη συγγραφή του εκπαιδευτικού υλικού. Αναλύουμε τα χαρακτηριστικά των PLE (Personal Learning Environments) και των LMS (Learning Management Systems) και εκθέτουμε πλεονεκτήματα και μειονεκτήματά τους. Τέλος, καταλήγουμε σε μια γενική αξιολόγηση της προσπάθειάς μας, καταγράφοντας τα αποτελέσματα και τους στόχους που υλοποιήθηκαν, τα συμπεράσματα και τις προτάσεις μας. / This paper is a follow up of the previous work concerning the Web Engineering Resources Portal (shortly WEP). It consists of a Reference Model and a Resources Portal. The aim of WEP is to provide a tool for web engineering as well as a reference for the development of applications / information systems and a guide for finding and understanding web engineering technologies and tools. Here we deal with that last part and the educational aspect of WEP which we are trying to achieve. Briefly, the thesis involves three parts: Firstly, the study of modern possibilities for collecting and importing information regarding the choice of suitable tools and the development of our own methodology. The rapid growth of data volume rendered obvious the problem of finding and extracting of ''useful'' or ''desirable '' information, since there is an abundance of development tools (which are indeed constantly renewed) for every category of web application making the process of choosing the most suitable ones particularly laborious and time-consuming. Secondly, it refers to the enforcement of the above methodology aiming at the import of resultant tools with the transformation of information in XML for the layout of WEP. We explain the way the import and management of content using XML technology is completed and we come to the adaptation and implementation phase through the Stringbeans framework. Thirdly we try to highlight the educational character of WEP portal. The concept of e-learning is described and the various alternatives at the age of Web 2.0, where the users participate actively in the writing of educational material are taken into consideration. Furthermore, we analyze the characteristics of PLE (Personal Learning Environments) and LMS (Learning Management Systems) quoting advantages and disadvantages of both. Finally, we lead to a general evaluation of our effort, mentioning the results and the objectives that were achieved, the conclusions and our proposals for the future.
87

Ολοκληρωμένο διαδικτυακό σύστημα διαχείρισης και οργάνωσης δομημένων ηλεκτρονικών δημοσιευμάτων

Τσαρούχης, Αθανάσιος 16 June 2011 (has links)
Τα τελευταία χρόνια αυξάνεται διαρκώς ο όγκος και η ποικιλομορφία των εργασιών πραγματοποιούνται με τη χρήση του Διαδικτύου και των πηγών που είναι διαθέσιμες σε αυτό. Ιδιαίτερη σημασία δίνεται στην ικανοποίηση των αναγκών των κοινοτήτων χρηστών, των οποίων οι αριθμοί παρουσιάζουν εκρηκτική αύξηση. Ένα από τα σημαντικότερα είδη πηγών που ικανοποιούν τις ανάγκες των κοινοτήτων του Διαδικτύου είναι οι ψηφιακές βιβλιοθήκες. Οι ψηφιακές βιβλιοθήκες αποτελούν συλλογές από δομημένα ηλεκτρονικά δημοσιεύματα, οι οποίες προσφέρουν στην κοινότητα των χρηστών όπου απευθύνονται εξειδικευμένες υπηρεσίες, που αφορούν στο περιεχόμενο των εγγράφων που περιλαμβάνουν, εξασφαλίζοντας συγκεκριμένο επίπεδο ποιότητας σύμφωνα με κωδικοποιημένες πολιτικές. Στα πλαίσια της παρούσας διπλωματικής εργασίας πραγματοποιήθηκε ο σχεδιασμός και η υλοποίηση ενός διαδικτυακού εργαλείου για την φορμαλιστική αποθήκευση, παρουσίαση και διαχείριση των δομημένων ηλεκτρονικών δημοσιευμάτων μιας ψηφιακής βιβλιοθήκης. Κατά το σχεδιασμό των υπηρεσιών που παρέχονται μελετήθηκε η δυνατότητα ενσωμάτωσης τεχνικών επεξεργασίας φυσικής γλώσσας, με στόχο την αποτίμηση της συνεισφοράς και της απόδοσης τέτοιων τεχνικών στην αποθήκευση και ανάκτηση δομημένων ηλεκτρονικών δημοσιευμάτων γραμμένα στη Νέα Ελληνική, μια γλώσσα με ιδιαίτερη μορφολογία. / Over the past years the amounts of tasks that are being carried out the web as well as the size of the web data demonstrate a signature growth. The major challenge associated with exploiting this data is how to satisfy the user’s needs into fulfilling tasks. One significant source of web data is scientific digital libraries, which contain structured information sources of research documents and which offer end users specialized search services that ensure good retrieved quality. In the course of the present study we designed and implemented a web-based data retrieval service that incorporates novel indexing and information modules specialized for the core of Modern Greek. The novelty of our service is that relies on advanced NLP applications in order to improve retrieval performance. The experimental evaluation of our Modern Greek Service reveals that NLP significantly improves retrieval performance compared to baseline information retrieval systems.
88

Accès sémantique aux données massives et hétérogènes en santé / Semantic access to massive and heterogeneous health data

Lelong, Romain 17 June 2019 (has links)
Les données cliniques sont produites par différents professionnels de santé, dans divers lieux et sous diverses formes dans le cadre de la pratique de la médecine. Elles présentent par conséquent une hétérogénéité à la fois au niveau de leur nature et de leur structure mais également une volumétrie particulièrement importante et qualifiable de massive. Le travail réalisé dans le cadre de cette thèse s’attache à proposer une méthode de recherche d’information efficace au sein de ce type de données complexes et massives. L’accès aux données cliniques se heurte en premier lieu à la nécessité de modéliser l’informationclinique. Ceci peut notamment être réalisé au sein du dossier patient informatisé ou, dans une plus large mesure, au sein d’entrepôts de données. Je propose dans ce mémoire unepreuve de concept d’un moteur de recherche permettant d’accéder à l’information contenue au sein de l’entrepôt de données de santé sémantique du Centre Hospitalier Universitaire de Rouen. Grâce à un modèle de données générique, cet entrepôt adopte une vision de l’information assimilable à un graphe de données rendant possible la modélisation de cette information tout en préservant sa complexité conceptuelle. Afin de fournir des fonctionnalités de recherche adaptées à cette représentation générique, un langage de requêtes permettant l’accès à l’information clinique par le biais des diverses entités qui la composent a été développé et implémenté dans le cadre de cette thèse. En second lieu, la massivité des données cliniques constitue un défi technique majeur entravant la mise en oeuvre d’une recherche d’information efficace. L’implémentation initiale de la preuve de concept sur un système de gestion de base de données relationnel a permis d’objectiver les limites de ces derniers en terme de performances. Une migration vers un système NoSQL orienté clé-valeur a été réalisée. Bien qu’offrant de bonnes performances d’accès atomique aux données, cette migration a également nécessité des développements annexes et la définition d’une architecture matérielle et applicative propice à la mise en oeuvre des fonctionnalités de recherche et d’accès aux données. Enfin, l’apport de ce travail dans le contexte plus général de l’entrepôt de données de santé sémantique du CHU de Rouen a été évalué. La preuve de concept proposée dans ce travail a ainsi été exploitée pour accéder aux descriptions sémantiques afin de répondre à des critères d’inclusion et d’exclusion de patients dans des études cliniques. Dans cette évaluation, une réponse totale ou partielle a pu être apportée à 72,97% des critères. De plus, la généricité de l’outil a également permis de l’exploiter dans d’autres contextes tels que la recherche d’information documentaire et bibliographique en santé. / Clinical data are produced as part of the practice of medicine by different health professionals, in several places and in various formats. They therefore present an heterogeneity both in terms of their nature and structure and are furthermore of a particularly large volume, which make them considered as Big Data. The work carried out in this thesis aims at proposing an effective information retrieval method within the context of this type of complex and massive data. First, the access to clinical data constrained by the need to model clinical information. This can be done within Electronic Health Records and, in a larger extent, within data Warehouses. In this thesis, I proposed a proof of concept of a search engine allowing the access to the information contained in the Semantic Health Data Warehouse of the Rouen University Hospital. A generic data model allows this data warehouse to view information as a graph of data, thus enabling to model the information while preserving its conceptual complexity. In order to provide search functionalities adapted to this generic representation of data, a query language allowing access to clinical information through the various entities of which it is composed has been developed and implemented as a part of this thesis’s work. Second, the massiveness of clinical data is also a major technical challenge that hinders the implementation of an efficient information retrieval. The initial implementation of the proof of concept highlighted the limits of a relational database management systems when used in the context of clinical data. A migration to a NoSQL key-value store has been then completed. Although offering good atomic data access performance, this migration nevertheless required additional developments and the design of a suitable hardware and applicative architecture toprovide advanced search functionalities. Finally, the contribution of this work within the general context of the Semantic Health Data Warehouse of the Rouen University Hospital was evaluated. The proof of concept proposed in this work was used to access semantic descriptions of information in order to meet the criteria for including and excluding patients in clinical studies. In this evaluation, a total or partial response is given to 72.97% of the criteria. In addition, the genericity of the tool has also made it possible to use it in other contexts such as documentary and bibliographic information retrieval in health.
89

Model-driven development of information systems

Wang, Chen-Wei January 2012 (has links)
The research presented in this thesis is aimed at developing reliable information systems through the application of model-driven and formal techniques. These are techniques in which a precise, formal model of system behaviour is exploited as source code. As such a model may be more abstract, and more concise, than source code written in a conventional programming language, it should be easier and more economical to create, to analyse, and to change. The quality of the model of the system can be ensured through certain kinds of formal analysis and fixed accordingly if necessary. Most valuably, the model serves as the basis for the automated generation or configuration of a working system. This thesis provides four research contributions. The first involves the analysis of a proposed modelling language targeted at the model-driven development of information systems. Logical properties of the language are derived, as are properties of its compiled form---a guarded substitution notation. The second involves the extension of this language, and its semantics, to permit the description of workflows on information systems. Workflows described in this way may be analysed to determine, in advance of execution, the extent to which their concurrent execution may introduce the possibility of deadlock or blocking: a condition that, in this context, is synonymous with a failure to achieve the specified outcome. The third contribution concerns the validation of models written in this language by adapting existing techniques of software testing to the analysis of design models. A methodology is presented for checking model consistency, on the basis of a generated test suite, against the intended requirements. The fourth and final contribution is the presentation of an implementation strategy for the language, targeted at standard, relational databases, and an argument for its correctness, based on a simple, set-theoretic semantics for structure and operations.
90

A framework for the evaluation of the information system at Eskom

Ramafalo, Mogale Emmanuel 01 1900 (has links)
M. Tech. (Information Technology, Faculty of Applied and Computer Sciences) Vaal University of Technology / A reliable and efficient information system (IS) is critical for Eskom so that it is able to manage and meet its energy demands. A reliable power supply provides stakeholders with the confidence that supply of power is managed sustainably, effectively and efficiently. Thus, an information system is integral in the effective and efficient generation, distribution and transmission of electricity. The purpose of the study was to investigate IS evaluation criteria and to develop a comprehensive framework that will serve as basis for IS evaluation across Eskom. The research study additionally investigated IS evaluation methods and instruments that are currently used in Eskom. This study produced an information systems success evaluation framework. The proposed model was built by reviewing well-established information systems success models and information systems theories found in the literature. This research study followed the interpretive research paradigm combining it with qualitative case study. The research findings linked information systems success to top management support, change management process and information quality. The findings of the study alsorevealed that quality of IS department’s service as perceived by users can greatly influence IS success. The results of this study provided enlightening reference benefit for Eskom, which was in line with Eskom’s goal of improving business processes, efficiencies and eliminating waste.

Page generated in 0.0225 seconds