• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 10
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A machine learning approach to term classification

Spasić, Irena January 2004 (has links)
No description available.
2

Temporal sequence learning from a neocortical perspective

Womble, Stephen P. January 2004 (has links)
No description available.
3

Towards cross media document annotation

Chakravarthy, Ajay January 2010 (has links)
The research work presented in this thesis focuses on manual and semi automatic methods for achieving semantic (single and cross media) document annotation. By adding "semantics" we mean explicitly specifying a meaning for the content being annotated and introducing a structure to the document based upon a shared common set of concepts and their relationships which conceptualize the domain in which is of interest. The motivation for this research work has been derived after observing the pitfalls in current practices for document lifecycle management and then drafting the requirements for the need to annotate (both in single and across media) documents. Firstly we identify the need for semantic document enrichment within the use cases where we applied our research. This is after observing the problems encountered by knowledge workers while following current work practises for document creation, storage and retrieval i.e. the document lifecycle. The research work carried out during the course of the thesis tries to address these pitfalls by introducing semantic annotation as a means to enrich the document during its lifecycle. Semantic enrichment of documents enables computer programs to comprehend the meaning of the content being annotated. This is possible due to the emergence of the next generation of the web called the Semantic Web. The Semantic Web the web acts as a universal medium for exchange of data. The standards and technologies developed as part of the Semantic Web research enable us to create linked data from structure sources with an underlying semantic meaning associated to them. In this thesis we introduce Semantic Annotation from a Semantic Web perspective i.e. using the core set of standards and technologies for enabling the Semantic Web. Then we identify the need for semantically annotating documents across media. Web documents consist of resources collated from various media (images, text etc) which complement each other in the given context. Annotating documents in single media does not take the context of these collated resources into account. For example in a web page the textual material could be used to complement the image which is being shown. At this stage of the research we will define what cross media annotation means, what its requirements are and how it will address the pitfalls in the practices followed in the use cases for managing a documents lifecycle. Further we will detail the enhancements cross media annotation provides over annotation in single media. After the definition stage we dwell into the technical requirements for creating a cross media annotation framework, how the complexity of the annotation process could be eased through the use of semi automated and socio collaborative approaches. Next we show how we have addressed the requirements identified during the definition stage and present the results achieved after a detailed user and statistical evaluation of the cross media framework (AKTive Media) which we have developed. The primary research questions we address in thesis deal with defining what cross media annotation is, what the requirements for cross media annotation (CM) are, identifying the technical requirements for creating a CM framework , specifying how the process of C;M annotation can be supported and the annotation complexity reduced. The dissemination and exploitation efforts to end users and the impact our research has made also presented in detail during the course of this thesis. Finally we describe how our research in knowledge acquisition using cross media annotation strategies has evolved into a new prototype for acquiring knowledge with the help of automated web forms which help knowledge workers in normal data entry operations while implicitly populating semantic knowledge bases without explicit effort from the user. This forms based system has been deployed into the use cases and also formed the basis for the formation of a spin out start up company.
4

Machine learning and intelligent data analysis for interpretable neuro-fuzzy system modelling

Zhou, Shang-Ming January 2006 (has links)
No description available.
5

Attributes in lexical acquisition

Almuhareb, Abdulrahman January 2006 (has links)
No description available.
6

Systems of concepts and their extraction from text

Gillam, Lee January 2004 (has links)
A method that could be used to populate, or more accurately to seed, terminology collections, and subsequently to seed models of specific domains, latterly called ontologies, is proposed, demonstrated and evaluated based on analysis of text collections, and with reference to recent work in international standards for terminology. The activity of populating ontologies is referred to elsewhere as ontology learning. Ontologies are considered by some as vital to the development of the Semantic Web and its Grid counterpart, and to the development of the emerging, yet elusive, "Knowledge Grids". Results of this work could be used to support activities of terminologists, document managers, developers of intelligent systems, and other language researchers. The research investigates the population of knowledge bases with systems of concepts extracted from texts in arbitrary domains. Such population is normally undertaken manually by domain experts. The method relies on identifying evidence of key domain concepts, expressed through terms used in place of these concepts, in the definition of these concepts and to express relationships between concepts. The work presented may contribute to the Semantic Web and related initiatives by helping to overcome the well-documented and unsolved AI problem of producing an initial model of an arbitrary specialist domain from background resources without significant hand-crafting effort and involvement of a domain expert: the so-called "Knowledge Acquisition Bottleneck". This bottleneck is usually overcome through extensive interactions with domain experts, involving a number of expert interviews. The research explores issues of terminology extraction from domain texts, the need for and use of knowledge representation, and the means by which terminology extraction and knowledge representation can be combined with international standards for terminology to produce such an initial model of an arbitrary specialist domain. The result of applying the presented method, the initial domain model, can be validated by domain experts, reducing the need for expert involvement in the creation of this model.
7

A corpus-based method for ontology acquisition

Tariq, Mariam January 1994 (has links)
In this thesis we explore the acquisition of a domain ontology based on the characteristics of languages, in particular specialist languages. Our work is supported by the presumption that language can communicate information, specifically classification information, and especially when employed within specialist domains of knowledge. Knowledge involves being familiar with the existence of important objects and interrelationships between objects that make up a specific world, and language is often used as a medium to make this knowledge explicit. We examine the possibility of a local grammar for statements that convey ontological information. Assuming a correlation between the conceptual structure of a domain and a substantial collection of domain specific documents, we propose a method to analyse such a collection in an attempt to elicit this conceptual structure, which may help in understanding the ontological commitment of the domain experts. We have developed a prototype to implement the proposed method.
8

Πλατφόρμα για τη διαθεματική υποστήριξη της ανάπτυξης εκπαιδευτικού λογισμικού

Ροδοσθένους, Χρίστος Θ. 27 August 2008 (has links)
Η ενσωμάτωση των τεχνολογιών πληροφορικής και επικοινωνιών (ΤΠΕ) στην εκπαιδευτική διαδικασία έχει γίνει πλέον πραγματικότητα. Οι Η/Υ και οι εφαρμογές τους χρησιμοποιούνται κατά κόρον στα σχολεία και κατ' επέκταση από τους μαθητές και τους καθηγητές. Σκοπός της διπλωματικής εργασίας είναι o σχεδιασμός και η υλοποίηση μιας εκπαιδευτικής πλατφόρμας που θα χρησιμοποιεί τις ΤΠΕ για την ανάπτυξη και οργάνωση του εκπαιδευτικού υλικού από τους ίδιους τους διδάσκοντες. Η σχεδίαση της εφαρμογής ακολουθεί τα πρότυπα για σχεδίαση Learning Management Systems (LMS) που έχουν καθοριστεί και έχουν δοκιμαστεί σε άλλα επιτυχημένα Project. Η πλατφόρμα αυτή δεν απαιτεί ιδιαίτερες γνώσεις για τη χρήση της και έτσι μπορεί να απευθυνθεί σε μεγάλη μερίδα της εκπαιδευτικής κοινότητας. Η εφαρμογή που θα υλοποιηθεί, θα παρέχει στον καθηγητή τα απαραίτητα εργαλεία για τη δημιουργία και καταχώρηση εκπαιδευτικού υλικού αλλά και για την οργάνωσή του σε μαθησιακές οντότητες για να μπορεί να γίνει κατανοητό από τον εκπαιδευόμενο. Η πλατφόρμα αυτή παρέχει εργαλεία διαχείρισης μαθημάτων και τμημάτων (βαθμολόγιο, ημερολόγιο κτλ) καθώς και εργαλεία στο μαθητή για παρουσίαση του εκπαιδευτικού υλικού με τέτοιο τρόπο που να διευκολύνεται η διαδικασία μάθησης και απόκτησης γνώσης. Αυτό επιτυγχάνεται μέσω αλληλεπιδραστικών παρουσιάσεων και διαδικασιών αυτοαξιολόγησης του εκπαιδευόμενου με τη βοήθεια ενός φιλικού γραφικού περιβάλλοντος εργασίας. Η εφαρμογή μπορεί να αξιοποιηθεί με τρείς διαφορετικούς τρόπους: α) ως standalone εφαρμογή β) σε ένα εκπαιδευτικό εργαστήριο με τη χρήση ενός κοινού εξυπηρετητή (server) που θα περιέχει το εκπαιδευτικό υλικό και 3) με σύνδεση μέσω του διαδικτύου στον κεντρικό εξυπηρετητή με μόνη προϋπόθεση την ύπαρξη ικανοποιητικής ταχύτητας μετάδοσης δεδομένων. Με τον τρόπο αυτό εξασφαλίζεται η όσο το δυνατόν ευκολότερη πρόσβαση στο εκπαιδευτικό υλικό. Επίσης, στην πλατφόρμα αυτή, χρησιμοποιούνται διεθνή πρότυπα καταχώρησης εκπαιδευτικών οντοτήτων με μεταδεδομένα (LOM, Dublin Core) για εύκολη αναζήτηση και χρήση των οντοτήτων και από άλλες εφαρμογές. Για τη δημιουργία της πλατφόρμας χρησιμοποιήθηκαν εργαλεία και τεχνολογίες που προσφέρουν σταθερότητα, μεταφερσιμότητα και διαλειτουργικότητα της εφαρμογής. Το πλεονέκτημα που έχει η διαθεματική πλατφόρμα εκπαίδευσης έναντι άλλων περιβαλλόντων εκπαίδευσης είναι ότι δεν περιορίζει το χρήστη της εφαρμογής (εκπαιδευτή ή εκπαιδευόμενο) ως προς το τι υλικό θα χρησιμοποιήσει, αρκεί ο Η/Υ που θα χρησιμοποιηθεί για την παρουσίαση του υλικού να έχει εγκατεστημένο το ανάλογο πρόγραμμα για το άνοιγμα του αρχείου. Με τον τρόπο αυτό δίνεται η δυνατότητα στον εκπαιδευτή να χρησιμοποιήσει ότι εργαλείο θεωρεί αυτός πιο εύκολο και εύχρηστο για τη δημιουργία εκπαιδευτικού υλικού. / The use of information-communication technology (ICT) in the educational system is a reality of our times. Most educational institutes use computers to increase the level of understanding of their students and to enhance the learning capabilities of their educators. The purpose of this thesis is the design and development of an educational platform that uses modern ICT methods to provide the necessary tools to the educators for the creation and cataloguing of the available educational material. These tools will also help the educator to catalog the appropriate material to educational entities so that it can be understandable by the trainees. The software solution that we previously proposed involves tools to handle classes and subjects. The purpose of these tools is to enhance the capabilities of the educator to perform his duties with the best probable way. Nevertheless, this platform provides tools for the student- trainee to maximize his educational experience and training. These tools involve presentation aids, educational context administration, self-examining tests e.t.c The use of this platform gives the opportunity to the user to interact with the educational material that was pre-designed by the tutor and is presented on a friendly user interface. The educational platform can be deployed with three different ways: a ) as a standalone application, b) on an educational laboratory with the use of a server computer that contains the educational material, c) with a connection through the internet to the main server. In this way we provide the most convenient way to access the educational material. In order to achieve best performance and easiest access to the educational material we use international prototypes of metadata information, like IEEE LOM and Dublin Core, so that we can interoperate with other systems. For the development of the platform, we used tools and technologies that provide stability and interoperability. The main advantage of our platform against other available platforms is that it does not constrain the user to use a particular application in order to develop or execute the educational material, as long as he has the appropriate software installed on his computer. With this way, the educator can use any type of software that he prefers to develop the particular material.
9

Αλγόριθμοι μηχανικής μάθησης σε πολυεπεξεργαστικά περιβάλλοντα

Στεργίου, Κώστας 27 April 2015 (has links)
Σκοπός της διπλωματικής εργασίας είναι η μελέτη αλγορίθμων Μηχανικής Μάθησης σε περιβάλλοντα πολυεπεξεργασίας. Οι τελευταίες εξελίξεις στον τομέα της παράλληλης και της κατανεμημένης επεξεργασίας, έχουν φέρει πραγματική επανάσταση στην κατασκευή των υπολογιστών. Παρότι όμως η εξέλιξη του υλικού (hardware) προχωρά με αλματώδεις ρυθμούς, η αντίστοιχη ανάπτυξη του λογισμικού καθυστερεί σε μεγάλο βαθμό. Αποτέλεσμα είναι να παρέχεται σε απλούς χρήστες μεγάλη επεξεργαστική ισχύς, η οποία όμως παραμένει αναξιοποίητη, λόγω των εφαρμογών που δεν μπορούν να εκμεταλλευτούν σε ικανοποιητικό βαθμό την παρεχόμενη ισχύ. Η ανάπτυξη αλγορίθμων στον τομέα της τεχνητής νοημοσύνης έως τώρα γίνονταν σύμφωνα με τα κλασικά πρότυπα της συναρτησιακής μεθόδου ή στην καλύτερη περίπτωση με τεχνικές αντικειμενοστραφούς προγραμματισμού. Σε κάθε περίπτωση, η εκτέλεση του αλγορίθμου γίνεται σε έναν επεξεργαστή με τις εντολές να εκτελούνται σειριακά. Την τελευταία δεκαετία αναπτύχθηκαν εφαρμογές και περιβάλλοντα τα οποία διευκόλυναν την εκτέλεση πολλών διαφορετικών αλγορίθμων και μεθόδων μέσω ενός κοινού περιβάλλοντος διεπαφής με τον χρήστη (πχ Weka, R, Matlab κλπ). Η προσέγγιση αυτή διευκόλυνε την διάδοση αλγορίθμων και μεθόδων που ήταν πριν πολύ δύσκολο να εκτελεστούν από ανθρώπους που δεν είχαν την κατάλληλη εξοικείωση με τον προγραμματισμό. Από την άλλη πλευρά όμως πρόσθεσε ένα ακόμη επίπεδο πολυπλοκότητας στις μεθόδους που αναπτύσσονταν γι’ αυτά τα περιβάλλοντα, κάτι που είχε σαν αποτέλεσμα αλγόριθμους πιο αργούς και με αυξημένους περιορισμούς λόγω των μηχανισμών της εφαρμογής που τους φιλοξενούσε. Οι μετρήσεις έγιναν με την χρήση αλγόριθμων δέντρων απόφασης. Η κατηγορία αυτή των μεθόδων μηχανικής μάθησης είναι ένας εξαιρετικός υποψήφιος, για να μεταφερθεί σε νέες πολυεπεξεργαστικές πλατφόρμες καθώς αποτελούνται από επαναληπτικές διαδικασίες που δεν χρειάζονται να περιμένουν άλλες για να εκτελεστούν. Στην παρούσα εργασία αναπτύχθηκε μια εφαρμογή, η οποία μπορεί να δέχεται σαν όρισμα έναν ή περισσότερους αλγόριθμους δέντρων απόφασης, να ορίζει τις παραμέτρους αυτών και κατόπιν να τους εκτελεί παράλληλα. Οι συγκεκριμένες μέθοδοι που επιλέχθηκαν, έχουν υλοποιηθεί αρχικά μέσα στο περιβάλλον Weka, για να μπορέσουν όμως να εκτελεστούν παράλληλα έπρεπε να ενσωματωθούν σε μια άλλη εφαρμογή, η οποία θα μπορούσε να δημιουργήσει πολλά διαφορετικά στιγμιότυπα. Η χρήση της εφαρμογής που αναπτύξαμε επιτρέπει την παράλληλη εκτέλεση αλγορίθμων, αλλά απέχει πολύ από τον μπορεί να τους βελτιστοποιήσει, έτσι ώστε να μπορέσουν να εκτελεστούν με την μέγιστη δυνατή ταχύτητα. Αυτό συμβαίνει, γιατί ακόμα και εκτός του περιβάλλοντος για το οποία αναπτύχθηκε, ο κώδικάς τους χρησιμοποιεί τις γενικές και αφηρημένες τεχνικές που είναι απαραίτητες για την ενσωμάτωσή τους στο Weka. Παρόλα αυτά, καταφέραμε να τρέξουμε πολλές διαφορετικές εκδόσεις αλγορίθμων, μέσα σε ένα κλάσμα του χρόνου που θα απαιτούνταν για να τρέξουν όλες αυτές οι μορφές μέσα στο Weka. Παρατηρήσαμε ότι η επίδραση των παραμέτρων στον χρόνο εκτέλεσης των μεθόδων δεν είναι ιδιαίτερα σημαντική. Αντίθετα, το μέγεθος των δεδομένων μεταβάλλει σε αρκετά βαθμό τον χρόνο εκτέλεσης, χωρίς όμως η σχέση του χρόνου εκτέλεσης και του μεγέθους των στοιχείων να είναι γραμμική. Καλύτερη σχεδίαση των μεθόδων θα μπορούσε να επιφέρει δραματική επιτάχυνση του χρόνου εκτέλεσης. / --
10

Classification et apprentissage actif à partir d'un flux de données évolutif en présence d'étiquetage incertain / Classification and active learning from evolving data streams in the presence of incertain labeling

Bouguelia, Mohamed-Rafik 25 March 2015 (has links)
Cette thèse traite de l’apprentissage automatique pour la classification de données. Afin de réduire le coût de l’étiquetage, l’apprentissage actif permet de formuler des requêtes pour demander à un opérateur d’étiqueter seulement quelques données choisies selon un critère d’importance. Nous proposons une nouvelle mesure d’incertitude qui permet de caractériser l’importance des données et qui améliore les performances de l’apprentissage actif par rapport aux mesures existantes. Cette mesure détermine le plus petit poids nécessaire à associer à une nouvelle donnée pour que le classifieur change sa prédiction concernant cette donnée. Nous intégrons ensuite le fait que les données à traiter arrivent en continu dans un flux de longueur infinie. Nous proposons alors un seuil d’incertitude adaptatif qui convient pour un apprentissage actif à partir d’un flux de données et qui réalise un compromis entre le nombre d’erreurs de classification et le nombre d’étiquettes de classes demandées. Les méthodes existantes d’apprentissage actif à partir de flux de données, sont initialisées avec quelques données étiquetées qui couvrent toutes les classes possibles. Cependant, dans de nombreuses applications, la nature évolutive du flux fait que de nouvelles classes peuvent apparaître à tout moment. Nous proposons une méthode efficace de détection active de nouvelles classes dans un flux de données multi-classes. Cette méthode détermine de façon incrémentale une zone couverte par les classes connues, et détecte les données qui sont extérieures à cette zone et proches entre elles, comme étant de nouvelles classes. Enfin, il est souvent difficile d’obtenir un étiquetage totalement fiable car l’opérateur humain est sujet à des erreurs d’étiquetage qui réduisent les performances du classifieur appris. Cette problématique a été résolue par l’introduction d’une mesure qui reflète le degré de désaccord entre la classe donnée manuellement et la classe prédite et une nouvelle mesure d’"informativité" permettant d’exprimer la nécessité pour une donnée mal étiquetée d’être réétiquetée par un opérateur alternatif / This thesis focuses on machine learning for data classification. To reduce the labelling cost, active learning allows to query the class label of only some important instances from a human labeller.We propose a new uncertainty measure that characterizes the importance of data and improves the performance of active learning compared to the existing uncertainty measures. This measure determines the smallest instance weight to associate with new data, so that the classifier changes its prediction concerning this data. We then consider a setting where the data arrives continuously from an infinite length stream. We propose an adaptive uncertainty threshold that is suitable for active learning in the streaming setting and achieves a compromise between the number of classification errors and the number of required labels. The existing stream-based active learning methods are initialized with some labelled instances that cover all possible classes. However, in many applications, the evolving nature of the stream implies that new classes can appear at any time. We propose an effective method of active detection of novel classes in a multi-class data stream. This method incrementally maintains a feature space area which is covered by the known classes, and detects those instances that are self-similar and external to that area as novel classes. Finally, it is often difficult to get a completely reliable labelling because the human labeller is subject to labelling errors that reduce the performance of the learned classifier. This problem was solved by introducing a measure that reflects the degree of disagreement between the manually given class and the predicted class, and a new informativeness measure that expresses the necessity for a mislabelled instance to be re-labeled by an alternative labeller

Page generated in 0.0201 seconds