• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 157
  • 63
  • 33
  • 32
  • 23
  • 16
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 373
  • 64
  • 50
  • 50
  • 49
  • 46
  • 45
  • 41
  • 41
  • 40
  • 40
  • 38
  • 34
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Τεχνικές και συστήματα διαχείρισης γνώσης στο διαδίκτυο / Techniques and systems for knowledge management on the Web

Μαρκέλλου, Πηνελόπη 25 June 2007 (has links)
Ο Παγκόσμιος Ιστός Πληροφοριών (Web) χαρακτηρίζεται σαν ένα περιβάλλον αχανές, ετερογενές, κατανεμημένο και πολύπλοκο με αποτέλεσμα να είναι δύσκολος ο αποδοτικός χειρισμός των δεδομένων των e-εφαρμογών με βάση παραδοσιακές μεθόδους και τεχνικές. Αυτό με τη σειρά του οδηγεί στην απαίτηση για σχεδιασμό, ανάπτυξη και υιοθέτηση «ευφυών» εργαλείων που θα επιλέξουν και θα εμφανίσουν στο χρήστη την κατάλληλη πληροφορία, στον κατάλληλο χρόνο και με την κατάλληλη μορφή. Η παρούσα διδακτορική διατριβή ασχολείται με το πρόβλημα της εξόρυξης «κρυμμένης» γνώσης από συστήματα και εφαρμογές ηλεκτρονικής μάθησης (e-learning), ηλεκτρονικού εμπορίου (e-commerce) και επιχειρηματικής ευφυΐας (business intelligence) με κύριο στόχο τη βελτίωση της ποιότητας και της απόδοσης των παρεχόμενων υπηρεσιών προς τους τελικούς χρήστες. Συγκεκριμένα, τα ερευνητικά αποτελέσματα επικεντρώνονται στα ακόλουθα: α) Μεθοδολογίες, τεχνικές και προτεινόμενοι αλγόριθμοι εξόρυξης «κρυμμένης» γνώσης από e-εφαρμογές λαμβάνοντας υπόψη τη σημασιολογία των δεδομένων, β) Παραγωγή εξατομικευμένων εκπαιδευτικών εμπειριών, γ) Παραγωγή αποδοτικών συστάσεων για την αγορά online προϊόντων, δ) Παραγωγή επιστημονικών και τεχνολογικών δεικτών από διπλώματα ευρεσιτεχνίας για την ανάδειξη του επιπέδου καινοτόμου δραστηριότητας μιας αγοράς, ε) Προτάσεις για μελλοντικές ερευνητικές κατευθύνσεις που επεκτείνουν τις τεχνικές εξόρυξης γνώσης σε πιο σύνθετους τύπους εφαρμογών και αναδεικνύουν νέες ερευνητικές ευκαιρίες. Στο πρώτο κεφάλαιο παρουσιάζεται μια προσέγγιση για την υποστήριξη εξατομικευμένου e-learning όπου η δομή και η σχέση των δεδομένων και των πληροφοριών παίζουν ουσιαστικό ρόλο. Ο προτεινόμενος αλγόριθμος βασίζεται σε μια οντολογία (ontology) η οποία βοηθά στη δόμηση και στη διαχείριση του περιεχομένου που σχετίζεται με μια δεδομένη σειρά μαθημάτων, ένα μάθημα ή ένα θεματικό. Η διαδικασία χωρίζεται σε δύο στάδια: στις offline ενέργειες προετοιμασίας των δεδομένων, δημιουργίας της οντολογίας και εξόρυξης από δεδομένα χρήσης (usage mining) και στην online παροχή της εξατομίκευσης. Το σύστημα βρίσκει σε πρώτη φάση ένα αρχικό σύνολο συστάσεων βασισμένο στην οντολογία του πεδίου και στη συνέχεια χρησιμοποιεί τα frequent itemsets (συχνά εμφανιζόμενα σύνολα στοιχείων) για να το εμπλουτίσει, λαμβάνοντας υπόψη την πλοήγηση άλλων παρόμοιων χρηστών (similar users). Με τον τρόπο αυτό, μειώνουμε το χρόνο που απαιτείται για την ανάλυση όλων των frequent itemsets και των κανόνων συσχέτισης. Εστιάζουμε μόνο σε εκείνα τα σύνολα που προέρχονται από το συνδυασμό της ενεργούς συνόδου (current session) του χρήστη και των συστάσεων της οντολογίας. Επιπλέον, αυτή η προσέγγιση ανακουφίζει και το πρόβλημα των μεγάλων χρόνων απόκρισης, το οποίο μπορεί στη συνέχεια να οδηγήσει στην εγκατάλειψη του e-learning συστήματος. Αν και η εξατομίκευση απαιτεί αρκετά βήματα επεξεργασίας και ανάλυσης, το εμπόδιο αυτό αποφεύγεται με την εκτέλεση σημαντικού μέρους της διαδικασίας offline. Στο δεύτερο κεφάλαιο μελετάται το πρόβλημα της παραγωγής προτάσεων σε μια εφαρμογή e-commerce. Τα συστήματα συστάσεων (recommendations systems ή RSs) αποτελούν ίσως την πιο δημοφιλή μορφή εξατομίκευσης και τείνουν να μετατραπούν στις μέρες μας σε σημαντικά επιχειρησιακά εργαλεία. Η προτεινόμενη υβριδική προσέγγιση στοχεύει στην παραγωγή αποτελεσματικών συστάσεων για τους πελάτες ενός online καταστήματος που νοικιάζει κινηματογραφικές ταινίες. Η γνώση για τους πελάτες και τα προϊόντα προκύπτει από δεδομένα χρήσης και τη δομή της οντολογίας σε συνδυασμό με τις εκτιμήσεις-βαθμολογίες των πελατών για τις ταινίες καθώς και την εφαρμογή τεχνικών ταιριάσματος «όμοιων» πελατών. Όταν ένα ή περισσότερα κριτήρια ταιριάσματος ικανοποιούνται, τότε άλλες ταινίες μπορούν να προσδιοριστούν σύμφωνα με το οντολογικό σχήμα που έχουν παρόμοια χαρακτηριστικά με αυτές που ο πελάτης έχει ήδη νοικιάσει. Στην περίπτωση ενός νέου πελάτη όπου το ιστορικό του είναι κενό, πληροφορίες από την αίτηση εγγραφής του αναλύονται ώστε να ταξινομηθεί σε μια συγκεκριμένη κλάση πελατών και να παραχθούν προτάσεις με βάση το οντολογικό σχήμα. Αυτή η ολοκλήρωση παρέχει πρόσθετη γνώση για τις προτιμήσεις των πελατών και επιτρέπει την παραγωγή επιτυχημένων συστάσεων. Ακόμη και στην περίπτωση του «cold-start problem» όπου δεν είναι διαθέσιμη αρχική πληροφορία για τη συμπεριφορά του πελάτη, η προσέγγιση μπορεί να προβεί σε σχετικές συστάσεις. Τέλος, στο τρίτο κεφάλαιο μελετάται το πρόβλημα της εξόρυξης γνώσης από καταχωρήσεις διπλωμάτων ευρεσιτεχνίας που καταδεικνύουν το επίπεδο της καινοτόμου δραστηριότητας μιας αγοράς. Η προτεινόμενη προσέγγιση αφορά στην εφαρμογή τεχνικών Text Mining σε διπλώματα ευρεσιτεχνίας που βρίσκονται καταχωρημένα σε βάσεις δεδομένων διαφόρων διεθνών οργανισμών διαχείρισής τους, με στόχο την παραγωγή επιστημονικών και τεχνολογικών δεικτών για την ανάδειξη του επιπέδου καινοτομίας μιας αγοράς και συνεπώς την επιχειρηματική ευφυΐα. Αρχικά τα δεδομένα καθαρίζονται προκειμένου να βελτιωθεί η ποιότητά τους πριν την επεξεργασία. Στη συνέχεια εφαρμόζονται δύο τύποι επεξεργασίας η απλή ανάλυση (simple analysis) και η στατιστική ανάλυση (statistical analysis). Στην πρώτη περίπτωση παράγονται γραφήματα που συσχετίζουν τις πληροφορίες π.χ. κύριοι τομείς ανάπτυξης σε μια χώρα. Στη δεύτερη περίπτωση αναλύονται γλωσσολογικά τα πεδία title και abstract των διπλωμάτων ευρεσιτεχνίας και ομαδοποιούνται τα λήμματα των λέξεων. Στη συνέχεια πάνω στα δεδομένα εφαρμόζονται τεχνικές correspondence και clustering analysis έτσι ώστε αυτά να ομαδοποιηθούν σύμφωνα με τις τεχνολογίες στις οποίες αναφέρονται. Τα clusters πλέον αυτά προβάλλονται όπως και στην απλή ανάλυση παρέχοντας στο χρήστη μια πιο λεπτομερή απεικόνιση της πληροφορίας των διπλωμάτων ευρεσιτεχνίας. Ο συνδυασμός των αναλύσεων που εφαρμόζονται με βάση την προτεινόμενη μεθοδολογία επιτρέπει την αποτύπωση των τεχνολογικών εξελίξεων και καινοτομιών. Οι δείκτες που παράγονται είναι πολύ σημαντικοί αφού μπορούν να ποσοτικοποιήσουν τις πληροφορίες που αφορούν σε συγκεκριμένες τεχνολογίες. Με αυτό τον τρόπο μπορούμε να παράγουμε δείκτες για τη δραστηριότητα συγκεκριμένων φορέων, εφευρετών, χωρών, κλπ. Τέλος, τεχνολογικοί δείκτες που υποδεικνύουν μελλοντικές ελπιδοφόρες τεχνολογίες καθώς και ποιοι φορείς θα είναι πρωτοπόροι σε αυτές μπορούν να εξαχθούν. / The World Wide Web (Web) has been characterized as a vast, heterogeneous, distributed and complicated environment resulting in difficulties for the efficient handling of e-applications’ data with traditional methods and techniques. This leads to the requirement for designing, implementing and adopting “intelligent” tools, able to select and present to the user the suitable information, at the suitable time and in the suitable form. The present dissertation deals with the problem of mining “hidden” knowledge from systems and applications of electronic learning (e-learning), electronic commerce (e-commerce) and business intelligence (BI), aiming mainly at the improvement of quality and performance of the services provided to the end-users. Specifically, the results are focused on the following: a) Methodologies, techniques and proposed algorithms of mining hidden knowledge from e-applications taking into consideration the semantics of data, b) Production of personalized educational experiences, c) Generation of efficient recommendations for the online purchase of products, d) Discovery of scientific and technological indicators in patents that indicate the level of innovation activity of a market, e) Proposals for future research directions that extend the techniques of knowledge mining to more complex types of applications and indicate new research opportunities. The first chapter presents an approach for the support of personalized e-learning in the cases where the structure and the relation of data and information play essential role. The proposed algorithm is based on an ontology which helps in structuring and managing the content that is related with a given course, a lesson or a topic. The process is decomposed into two stages: the offline phase of data preparation, ontology creation and data usage mining and the online phase of producing personalization. The system finds a initial set of recommendations based on the ontology of the domain and then identifies a set of frequent itemsets (sets of items observed often) in order to enrich the initial recommendations, taking into consideration the navigation of other similar users. In this way, we decrease the time required for the analysis of all the frequent itemsets and association rules, by focusing only on those sets that derive from the combination of the current active session of the user and the ontology recommendations. Moreover, this approach also alleviates the problem of long response times that can lead to the abandonment of the system. Even if the personalization requires considerable steps of preparation and analysis, this obstacle is avoided with the implementation of important part of the process offline. The second chapter studies the problem of recommendations’ production in an e-commerce application. Recommendation systems or RSs constitute perhaps the most popular form of personalization and they tend to become in our days an important business tool. The proposed hybrid approach aims in the production of effective recommendations for the customers of an online shop that rents movies. The knowledge for the customers and the movies results from usage data and the structure of an ontology in combination with customer rates about the movies, as well as with the application of matching techniques for discovering similar customers. When one or more matching criteria are satisfied, then other movies can be specified according to the ontological schema that has similar characteristics with those that the customer already has rented. In the case of a new customer with no history information, data from his registration form are analyzed so that he is categorized in a specific group of customers and the recommendations are based on the ontology. This integration provides additional knowledge for the preferences of customers and allows the production of successful recommendations. Even in the case of cold-start problem where initial information on the customer’s behavior is not available, the approach can produce qualitative and relatively precise recommendations. Finally, the third chapter describes the problem of mining knowledge from patent registrations which indicate the level of innovation activity of a market. The proposed approach concerns the application of Text Mining techniques in patents retrieved from the databases of various national and international Patent Offices, aiming at the production of scientific and technological indicators of the innovation level of a market activity and consequently business intelligence. Initially, the data are cleaned in order to improve their quality before the analysis steps. Then two types of analysis are applied on the data: simple analysis and statistical analysis. In the first case, several charts are produced that connect the information e.g. main sectors of development in a country. In the second case, the title and abstract fields of the patents are linguistically analyzed and the lemmas of words are grouped. Then correspondence and clustering analysis are applied. The produced clusters are depicted as in the simple analysis providing the user with a detailed representation of patent information. The combination of analyses that are applied based on the proposed methodology allows the identification of technological evolutions and innovations. The produced indicators are very important since they can quantify the information that concerns specific technologies. In this way, we can produce indicators for the activity of specific institutions, inventors, countries, etc. Finally, technological indicators about the potential emerging technologies as well as the institutions that will be pioneers can be exported.
272

Προσωποποιημένη προβολή περιεχομένου του Διαδικτύου με τεχνικές προ-επεξεργασίας, αυτόματης κατηγοριοποίησης και αυτόματης εξαγωγής περίληψης

Πουλόπουλος, Βασίλειος 22 November 2007 (has links)
Σκοπός της Μεταπτυχιακής Εργασίας είναι η επέκταση και αναβάθμιση του μηχανισμού που είχε δημιουργηθεί στα πλαίσια της Διπλωματικής Εργασίας που εκπόνησα με τίτλο «Δημιουργία Πύλης Προσωποποιημένης Πρόσβασης σε Περιεχόμενο του WWW». Η παραπάνω Διπλωματική εργασία περιλάμβανε τη δημιουργία ενός μηχανισμού που ξεκινούσε με ανάκτηση πληροφορίας από το Διαδίκτυο (HTML σελίδες από news portals), εξαγωγή χρήσιμου κειμένου και προεπεξεργασία της πληροφορίας, αυτόματη κατηγοριοποίηση της πληροφορίας και τέλος παρουσίαση στον τελικό χρήστη με προσωποποίηση με στοιχεία που εντοπίζονταν στις επιλογές του χρήστη. Στην παραπάνω εργασία εξετάστηκαν διεξοδικά θέματα που είχαν να κάνουν με τον τρόπο προεπεξεργασίας της πληροφορίας καθώς και με τον τρόπο αυτόματης κατηγοριοποίησης ενώ υλοποιήθηκαν αλγόριθμοι προεπεξεργασίας πληροφορίας τεσσάρων σταδίων και αλγόριθμος αυτόματης κατηγοριοποίησης βασισμένος σε πρότυπες κατηγορίες. Τέλος υλοποιήθηκε portal το οποίο εκμεταλλευόμενο την επεξεργασία που έχει πραγματοποιηθεί στην πληροφορία παρουσιάζει το περιεχόμενο στους χρήστες προσωποποιημένο βάσει των επιλογών που αυτοί πραγματοποιούν. Σκοπός της μεταπτυχιακής εργασίας είναι η εξέταση περισσοτέρων αλγορίθμων για την πραγματοποίηση της παραπάνω διαδικασίας αλλά και η υλοποίησή τους προκειμένου να γίνει σύγκριση αλγορίθμων και παραγωγή ποιοτικότερου αποτελέσματος. Πιο συγκεκριμένα αναβαθμίζονται όλα τα στάδια λειτουργίας του μηχανισμού. Έτσι, το στάδιο λήψης πληροφορίας βασίζεται σε έναν απλό crawler λήψης HTML σελίδων από αγγλόφωνα news portals. Η διαδικασία βασίζεται στο γεγονός πως για κάθε σελίδα υπάρχουν RSS feeds. Διαβάζοντας τα τελευταία νέα που προκύπτουν από τις εγγραφές στα RSS feeds μπορούμε να εντοπίσουμε όλα τα URL που περιέχουν HTML σελίδες με τα άρθρα. Οι HTML σελίδες φιλτράρονται προκειμένου από αυτές να γίνει εξαγωγή μόνο του κειμένου και πιο αναλυτικά του χρήσιμου κειμένου ούτως ώστε το κείμενο που εξάγεται να αφορά αποκλειστικά άρθρα. Η τεχνική εξαγωγής χρήσιμου κειμένου βασίζεται στην τεχνική web clipping. Ένας parser, ελέγχει την HTML δομή προκειμένου να εντοπίσει τους κόμβους που περιέχουν μεγάλη ποσότητα κειμένου και βρίσκονται κοντά σε άλλους κόμβους που επίσης περιέχουν μεγάλες ποσότητες κειμένου. Στα εξαγόμενα άρθρα πραγματοποιείται προεπεξεργασία πέντε σταδίων με σκοπό να προκύψουν οι λέξεις κλειδιά που είναι αντιπροσωπευτικές του άρθρου. Πιο αναλυτικά, αφαιρούνται όλα τα σημεία στίξης, όλοι οι αριθμοί, μετατρέπονται όλα τα γράμματα σε πεζά, αφαιρούνται όλες οι λέξεις που έχουν λιγότερους από 4 χαρακτήρες, αφαιρούνται όλες οι κοινότυπες λέξεις και τέλος εφαρμόζονται αλγόριθμοι εύρεσης της ρίζας μίας λέξεις. Οι λέξεις κλειδιά που απομένουν είναι stemmed το οποίο σημαίνει πως από τις λέξεις διατηρείται μόνο η ρίζα. Από τις λέξεις κλειδιά ο μηχανισμός οδηγείται σε δύο διαφορετικά στάδια ανάλυσης. Στο πρώτο στάδιο υπάρχει μηχανισμός ο οποίος αναλαμβάνει να δημιουργήσει μία αντιπροσωπευτική περίληψη του κειμένου ενώ στο δεύτερο στάδιο πραγματοποιείται αυτόματη κατηγοριοποίηση του κειμένου βασισμένη σε πρότυπες κατηγορίες που έχουν δημιουργηθεί από επιλεγμένα άρθρα που συλλέγονται καθ’ όλη τη διάρκεια υλοποίησης του μηχανισμού. Η εξαγωγή περίληψης βασίζεται σε ευρεστικούς αλγορίθμους. Πιο συγκεκριμένα προσπαθούμε χρησιμοποιώντας λεξικολογική ανάλυση του κειμένου αλλά και γεγονότα για τις λέξεις του κειμένου αν δημιουργήσουμε βάρη για τις προτάσεις του κειμένου. Οι προτάσεις με τα μεγαλύτερη βάρη μετά το πέρας της διαδικασίας είναι αυτές που επιλέγονται για να διαμορφώσουν την περίληψη. Όπως θα δούμε και στη συνέχεια για κάθε άρθρο υπάρχει μία γενική περίληψη αλλά το σύστημα είναι σε θέση να δημιουργήσει προσωποποιημένες περιλήψεις για κάθε χρήστη. Η διαδικασία κατηγοριοποίησης βασίζεται στη συσχέτιση συνημίτονου συγκριτικά με τις πρότυπες κατηγορίες. Η κατηγοριοποίηση δεν τοποθετεί μία ταμπέλα σε κάθε άρθρο αλλά μας δίνει τα αποτελέσματα συσχέτισης του άρθρου με κάθε κατηγορία. Ο συνδυασμός των δύο παραπάνω σταδίων δίνει την πληροφορία που εμφανίζεται σε πρώτη φάση στο χρήστη που επισκέπτεται το προσωποποιημένο portal. Η προσωποποίηση στο portal βασίζεται στις επιλογές που κάνουν οι χρήστες, στο χρόνο που παραμένουν σε μία σελίδα αλλά και στις επιλογές που δεν πραγματοποιούν προκειμένου να δημιουργηθεί προφίλ χρήστη και να είναι εφικτό με την πάροδο του χρόνου να παρουσιάζεται στους χρήστες μόνο πληροφορία που μπορεί να τους ενδιαφέρει. / The scope of this MsC thesis is the extension and upgrade of the mechanism that was constructed during my undergraduate studies under my undergraduate thesis entitled “Construction of a Web Portal with Personalized Access to WWW content”. The aforementioned thesis included the construction of a mechanism that would begin with information retrieval from the WWW and would conclude to representation of information through a portal after applying useful text extraction, text pre-processing and text categorization techniques. The scope of the MsC thesis is to locate the problematic parts of the system and correct them with better algorithms and also include more modules on the complete mechanism. More precisely, all the modules are upgraded while more of them are constructed in every aspect of the mechanism. The information retrieval module is based on a simple crawler. The procedure is based on the fact that all the major news portals include RSS feeds. By locating the latest articles that are added to the RSS feeds we are able to locate all the URLs of the HTML pages that include articles. The crawler then visits every simple URL and downloads the HTML page. These pages are filtered by the useful text extraction mechanism in order to extract only the body of the article from the HTML page. This procedure is based on the web-clipping technique. An HTML parser analyzes the DOM model of HTML and locates the nodes (leafs) that include large amounts of text and are close to nodes with large amounts of text. These nodes are considered to include the useful text. In the extracted useful text we apply a 5 level preprocessing technique in order to extract the keywords of the article. More analytically, we remove the punctuation, the numbers, the words that are smaller than 4 letters, the stopwords and finally we apply a stemming algorithm in order to produce the root of the word. The keywords are utilized into two different interconnected levels. The first is the categorization subsystem and the second is the summarization subsystem. During the summarization stage the system constructs a summary of the article while the second stage tries to label the article. The labeling is not unique but the categorization applies multi-labeling techniques in order to detect the relation with each of the standard categories of the system. The summarization technique is based on heuristics. More specifically, we try, by utilizing language processing and facts that concern the keywords, to create a score for each of the sentences of the article. The more the score of a sentence, the more the probability of it to be included to the summary which consists of sentences of the text. The combination of the categorization and summarization provides the information that is shown to our web portal called perssonal. The personalization issue of the portal is based on the selections of the user, on the non-selections of the user, on the time that the user remains on an article, on the time that spends reading similar or identical articles. After a short period of time, the system is able to adopt on the user’s needs and is able to present articles that match the preferences of the user only.
273

Τεχνικές εξατομικευμένης αναζήτησης στον παγκόσμιο ιστό / Techniques of personalized search in world wide web

Πλέγας, Ιωάννης 18 April 2008 (has links)
Στη διπλωματική μας παραθέτουμε ένα μεγάλο κομμάτι βιβλιογραφίας σχετικής με Τεχνικές Εξατομικευμένης Αναζήτησης στον Παγκόσμιο Ιστό. Επίσης περιγράφονται αναλυτικά οι εφαρμογές που κατασκευάστηκαν στην διπλωματική μας και οι τεχνολογίες που χρησιμοποιήθηκαν για την υλοποίησή τους. Συγκεκριμένα κατασκευάστηκε ένα σύστημα εξατομίκευσης, το οποίο καταγράφει την συμπεριφορά ενός χρήστη και στην συνέχεια του δίνει την δυνατότητα να εξατομικεύσει τα αποτελέσματα μιας μηχανής αναζήτησης(Google) με βάση την προηγούμενη συμπεριφορά του. Υλοποιήθηκαν τρεις διαφορετικοί αλγόριθμοι(ένας αλγόριθμος που βασίζεται στις ακμές του γράφου, ένας αλγόριθμος πρόσθεσης εικονικών κόμβων και ένας εκτεταμένος αλγόριθμος πρόσθεσης εικονικών κόμβων), οι οποίοι με βάση την προηγούμενη συμπεριφορά του χρήστη κατασκευάζουν ένα γράφημα συμπεριφοράς για αυτόν, το οποίο χρησιμοποιούν στη συνέχεια για να εξατομικεύσουν τα αποτελέσματα μιας ερώτησης. Οι αλγόριθμοι αυτοί καλούνται από το χρήστη μέσω του συστήματος εξατομίκευσης για μια ερώτηση και ταξινομούν τα αποτελέσματα της ερώτησης σύμφωνα με την νέα σειρά που υποδεικνύει το γράφημα συμπεριφοράς που έχει κατασκευαστεί για τον συγκεκριμένο χρήστη. Στη συνέχεια δίνονται αναλυτικά παραδείγματα λειτουργίας για κάθε αλγόριθμο, που αποδεικνύουν τους θεωρητικούς υπολογισμούς. Τέλος παρατίθενται βασικά κομμάτια του κώδικα που δημιουργήθηκε για την υλοποίηση του συστήματος εξατομίκευσης. / In our diplomatic we mention a big piece of bibliography relative with Techniques of Personalized Search in the World Wide Web. Also we describe analytically the applications that were manufactured in our diplomatic and the technologies that were used for their implementation. In particular, we construct a personalization system, which records the behaviour of user and then gives him the possibility of personalizing the results of a search engine (Google) with base his previous behaviour. They constructed three different algorithms(an algorithm that based on the edges of the graph, an algorithm that add virtual nodes and an extensive algorithm that add virtual nodes), which with base the previous behaviour of user construct a graph, which they use then in order to personalize the results of the query. These algorithms are called by the user via the personalization system for a query and they categorize the results of query according to the new order that indicates the graph of behaviour that has been constructed for the particular user. Then they are given analytic examples for each algorithm, which proves the theoretical calculations. Finally, they mentioned basic pieces of code that were created for the construction of the personalization system.
274

Σχεδιασμός και υλοποίηση εξελικτικών μοντέλων χρηστών σε εικονικά περιβάλλοντα μάθησης / Virtual learning environments for determination and prediction of students’ reactions

Σιέλης, Γεώργιος 10 October 2008 (has links)
Πέραν από τις κλασσικές μεθόδους ηλεκτρονικής μάθησης που εφαρμόζονται σήμερα, προτείνεται ένας συνδυασμός εξελικτικών αλγορίθμων και τεχνητής νοημοσύνης για την δημιουργία έξυπνων προσαρμοστικών συστημάτων ηλεκτρονικής μάθησης. Σε αυτή τη διπλωματική εργασία περιγράφονται και παρουσιάζονται οι προτεινόμενοι αλγόριθμοι και ταυτόχρονα η προτεινόμενη πιλοτική εφαρμογή. Το προτεινόμενο σύστημα μπορεί να προβλέψει τις μαθησιακές ικανότητες του μαθητή, μέσα από εξεταστικές διαδικασίες οι οποίες προσφέρονται από το σύστημα, με αποτέλεσμα, το σύστημα να είναι σε θέση να προβλέψει τις επόμενες κινήσεις του μαθητή. Μέσα από την προτεινόμενη εφαρμογή αναπτύχθηκαν μηχανισμοί οι οποίοι συλλέγουν πληροφορίες για τον κάθε χρήστη ξεχωριστά και δημιουργούν ανεξάρτητα προφίλ χρήστη για τον κάθε ένα. Με την χρήση συνδυασμού εξελικτικών αλγορίθμων και αλγορίθμων μάθησης το σύστημα εκπαιδεύεται ώστε να μπορεί να προβλέπει τις μελλοντικές κινήσεις του χρήστη. Η εφαρμογή που αναπτύχτηκε είναι βασισμένη σε τεχνολογίες διαδικτύου, βάσεις δεδομένων και τεχνολογίες έξυπνων πρακτόρων. / As a step beyond the classic e-learning methods that are applied today, the combination of evolutionary programming with artificial intelligence has incorporated in order to create an intelligent adaptive e-learning system. In this thesis the theory of the proposed algorithms are presented and the proposed pilot application too. The proposed system can predict the learning possibilities of a student, concerning the knowledge that is provided to him by the system, thus providing the ability to the machine to predict and anticipate his reactions. We have developed applications that can collect information for the student’s history, thus creating concrete individual profiles. Then, using evolutionary programming techniques combined with machine learning algorithms the system is trained in order to can henceforth calculate and anticipate the student’s knowledge. The applications that have been developed are based on internet technologies, data bases and intelligent agents’ technology.
275

Kundvärden i en värld av tyll, slöjor och brudbuketter : En studie om svenska bröllopskoordinatorer

Axelsson, Cecilia, Puskar, Belma, Yeter Peskeve, Nil January 2014 (has links)
Denna uppsats består av en kvalitativ undersökning som antog en induktiv ansats. Detta föll sig naturligt för oss eftersom vårt intresse av bröllopsindustrin och bröllopskoordinatorer gjorde att vi ville komma vårt problemområde nära och få en mer djupgående inblick, hellre än en bred bild. Den empiriska studien består av nio intervjuer med bröllopskoordinatorer runtom i Sverige och två nygifta par som har använt sig av en bröllopskoordinator vid planeringen av deras bröllop. Genom den teoretiska och empiriska analysen har vi kommit fram till att bröllopsplanering är en komplex och tidskrävande process som består av många detaljer. Bröllopskoordinatorer arbetar mycket med kundanpassning och behöver brudparens medverkan, mest i form av information om önskemål, för att kunna utföra sitt arbete och på så sätt ge bra servicekvalitet. På grund av att de arbetar nära med brudparen skapas nära och intensiva relationer till brudparen som dock oftast bryts efter bröllopet. Tack vare detta kan bröllopskoordinatorerna generera värden för dem vilket även leder till att god kundtillfredsställelse. / This essay is based on a qualitative research and presumes an inductive approach. Our interest in the wedding industry and wedding coordinators made us want to come closer to our subject area and get a more profound insight, rather than a wider picture of it. The empirical study consists of interviews with nine different wedding coordinators all across Sweden as well as two newlywed couples that have gotten help by wedding coordinators when planning their own weddings. The empirical and theoretical analysis has shown that planning a wedding is a complex and time-consuming process that consists of many details. Wedding coordinators work a lot with customization and need the bridal couple’s contribution of information and desires, in order to be able to perform their job and give great service quality. Because they are working so close together with the bridal couple, close and intense relations are established with the couple, but are however more often than not broken up after the wedding. Because of this the wedding coordinators are able to generate value to the bridal couple, which also leads to good customer satisfaction.
276

Online Personalized Communication : A quantitative study on promotional strategies to increase customer satisfaction

Izquierdo Pastor, Adrià January 2014 (has links)
Nowadays when users navigate in internet they find lots of types of communication scattered across diverse sites. Due to the lack of users’ interests in advertisements, primarily caused by not matching their preferences, today’s advertisements have a low rate of success. Recently, owing to semantic web generation, some companies started to use personalized marketing in communication as a way to turn the conversions around and thus increase customer retention and loyalty. As a matter of fact, the retention and loyalty stages on the internet are, on average, the least crafted of the whole cycle. The customers’ conception of one-to-one marketing is quite ambiguous as they conceive that they need to be more efficient while shopping online but at the same time they feel stalked due to privacy concerns, and oversaturated with non-valuable information. The purpose of this paper is to explore from a holistic view online personalized communication strategies and how they can be implemented in order to increase customer satisfaction thus retaining customers and, in the long-term, gaining their loyalty. The main communication areas the study treats ranges from onsite the online store, where the company wants to sell the product, to offsite advertisements in websites, social media platforms and via email. In the empirical section, the study carried out a quantitative online survey to investigate customers’ perception and complete it with the literature. To answer the research questions, the study identified 19 hypotheses comprising of all primary aspects that define the exploration. The result could be gold dust for e-shop managers to help them maximize the marketing communication factor using personalization. The authors identified potential improvements to motivate customers to register in the online shop, whether communication channels are suited to implementing the strategy or not, and possible aspects to adapt in order to obtain maximal benefits. There were some limitations in terms of an analysis of the companies’ point of view and the necessity to analyze every communication channel more in depth as the study is an initial step.
277

Task-Centric User Interfaces

Lafreniere, Benjamin J. January 2014 (has links)
Software applications for design and creation typically contain hundreds or thousands of commands, which collectively give users enormous expressive power. Unfortunately, rich feature sets also take a toll on usability. Current interfaces to feature-rich software address this dilemma by adopting menus, toolbars, and other hierarchical schemes to organize functionality—approaches that enable efficient navigation to specific commands and features, but do little to reveal how to perform unfamiliar tasks. We present an alternative task-centric user interface design that explicitly supports users in performing unfamiliar tasks. A task-centric interface is able to quickly adapt itself to the user’s intended goal, presenting relevant functionality and required procedures in task-specific customized interfaces. To achieve this, task-centric interfaces (1) represent tasks as first-class objects in the interface; (2) allow the user to declare their intended goal (or infer it from the user’s actions); (3) restructure the interface to provide step-by-step scaffolding for the current goal; and (4) provide additional knowledge and guidance within the application’s interface. Our inspiration for task-centric interfaces comes from a study we conducted, which revealed that a valid use case for feature-rich software is to perform short, targeted tasks that use a small fraction of the application’s full functionality. Task-centric interfaces provide explicit support for this use. We developed and tested our task-centric interface approach by creating AdaptableGIMP, a modified version of the GIMP image editor, and Workflows, an iteration on AdaptableGIMP’s design based on insights from a semi-structured interview study and a think-aloud study. Based on a two-session study of Workflows, we show that task-centric interfaces can successfully support a guided-and-constrained problem solving strategy for performing unfamiliar tasks, which enables faster task completion and reduced cognitive load as compared to current practices. We also provide evidence that task-centric interfaces can enable a higher-level form of application learning, in which the user associates tasks with relevant keywords, as opposed to low-level commands and procedures. This keyword learning has potential benefits for memorability, because the keywords themselves are descriptive of the task being learned, and scalability, because a few keywords can map to an arbitrarily complex set of commands and procedures. Finally, our findings suggest a range of different ways that the idea of task-centric interfaces could be further developed.
278

DESIGN FOR BEHAVIOUR CHANGE: A MODEL-DRIVEN APPROACH FOR TAILORING PERSUASIVE TECHNOLOGIES

2014 June 1900 (has links)
People generally want to engage in a healthy lifestyle, to live in harmony with the environment, to contribute to social causes, and to avoid behaviours that are harmful for themselves and others. However, people often find it difficult to motivate themselves to engage in these beneficial behaviours. Even adopting a healthy lifestyle, such as healthy eating, physical activity, or smoking cessation, is hard despite being aware of the benefits. The increasing adoption and integration of technologies into our daily lives present unique opportunities to assist individuals to adopt healthy behaviours using technology. As a result, research on how to use technology to motivate health behaviour change has attracted the attention of both researchers and health practitioners. Technology designed for the purpose of bringing about desirable behaviour and attitude changes is referred to as Persuasive Technology (PT). Over the past decade, several PTs have been developed to motivate healthy behaviour, including helping people with addictive behaviour such as substance abuse, assisting individuals to achieve personal wellness, helping people manage diseases, and engaging people in preventive behaviours. Most of these PTs take a one-size-fits-all design approach. However, people differ in their motivation and beliefs about health and what constitutes a healthy life. A technology that motivates one type of person to change her behaviour may actually deter behaviour change for another type of person. As a result, existing PTs that are based on the one-size-fits-all approach may not be effective for promoting healthy behaviour change for most people. Because of the motivational pull that games offer, many PTs deliver their intervention in the form of games. This type of game-based PTs are referred to as persuasive games. Considering the increasing interest in delivering PT as a game, this dissertation uses persuasive games as a case study to illustrate the danger of applying the one-size-fits-all approach, the value and importance of tailoring PT, and to propose an approach for tailoring PTs to increase their efficacy. To address the problem that most existing PTs employ the one-size-fits-all design approach, I developed the Model-driven Persuasive Technology (MPT) design approach for tailoring PTs to various user types. The MPT is based on studying and modelling user’s behaviour with respect to their motivations. I developed the MPT approach in two preliminary studies (N = 221, N = 554) that model the determinants of healthy eating for people from different cultures, of different ages, and of both genders. I then applied the MPT approach in two large-scale studies to develop models for tailoring persuasive games to various gamer types. In the first study (N = 642), I examine eating behaviours and associated determinants, using the Health Belief Model. Using data from the study, I modelled the determinants of healthy eating behaviour for various gamer types. In the second study (N = 1108), I examined the persuasiveness of PT design strategies and developed models for tailoring the strategies to various gamer types. Behavioural determinants and PT design strategies are the two fundamental building blocks that drive PT interventions. The models revealed that some strategies were more effective for particular gamer types, thus, providing guidelines for tailoring persuasive games to various gamer types. To show the feasibility of the MPT design approach, I applied the model to design and develop two versions of a Model-driven Persuasive Game (MPG) targeting two distinct gamer types. To demonstrate the importance of tailoring persuasive games using the MPG approach, I conducted a large-scale evaluation (N = 802) of the two versions of the game and compared the efficacy of the tailored, contra-tailored, and the one-size-fits-all persuasive games condition with respect to their ability to promote positive changes in attitude, self-efficacy, and intention. To also demonstrate that the tailored MPG games inspire better play experience than the one-size-fits-all and the contra-tailored persuasive games, I measure the gamers’ perceived enjoyment and competence under the different game conditions. The results of the evaluation showed that while PTs can be effective for promoting healthy behaviour in terms of attitude, self-efficacy, and intention, the effectiveness of persuasion depends on using the right choice of persuasive strategy for each gamer type. The results showed that one size does not fit all and answered my overarching research question of whether there is a value in tailoring PT to an individual or group. The answer is that persuasive health interventions are more effective if they are tailored to the user types under consideration and that not tailoring PTs could be detrimental to behaviour change.
279

Προδιαγραφές μιας καινοτόμας πλατφόρμας ηλεκτρονικής μάθησης που ενσωματώνει τεχνικές επεξεργασίας φυσικής γλώσσας

Φερφυρή, Ναυσικά 04 September 2013 (has links)
Ζούμε σε μια κοινωνία στην οποία η χρήση της τεχνολογίας έχει εισβάλει δυναμικά στην καθημερινότητα.Η εκπαίδευση δεν θα μπορούσε να μην επηρεαστεί απο τις Νέες Τεχνολογίες.Ήδη,όροι όπως “Ηλεκτρονική Μάθηση” και ”Ασύγχρονη Τηλε-εκπαίδευση” έχουν δημιουργήσει νέα δεδομένα στην κλασική Εκπαίδευση. Με τον όρο ασύγχρονη τηλε-εκπαίδευση εννοούμε μια διαδικασία ανταλλαγής μάθησης μεταξύ εκπαιδευτή - εκπαιδευομένων,που πραγματοποιείται ανεξάρτητα χρόνου και τόπου. Ηλεκτρονική Μάθηση είναι η χρήση των νέων πολυμεσικών τεχνολογιών και του διαδικτύου για τη βελτίωση της ποιότητας της μάθησης,διευκολύνοντας την πρόσβαση σε πηγές πληροφοριών και σε υπηρεσίες καθώς και σε ανταλλαγές και εξ'αποστάσεως συνεργασίες.Ο όρος καλύπτει ένα ευρύ φάσμα εφαρμογών και διαδικασιών,όπως ηλεκτρονικές τάξεις και ψηφιακές συνεργασίες, μάθηση βασιζόμενη στους ηλεκτρονικούς υπολογιστές και στις τεχνολογίες του παγκόσμιου ιστού. Κάποιες απο τις βασικές απαιτήσεις που θα πρέπει να πληρούνται για την δημιουργία μιας πλατφόρμας ηλεκτρονικής μάθησης είναι: Να υποστηρίζει τη δημιουργία βημάτων συζήτησης (discussion forums) και “δωματίων συζήτησης”(chat rooms),να υλοποιεί ηλεκτρονικό ταχυδρομείο,να έχει φιλικό περιβάλλον τόσο για το χρήστη/μαθητή όσο και για το χρήστη/καθηγητή,να υποστηρίζει προσωποποίηση(customization)του περιβάλλοντος ανάλογα με το χρήστη.Επίσης να κρατάει πληροφορίες(δημιουργία profiles)για το χρήστη για να τον “βοηθάει”κατά την πλοήγηση,να υποστηρίζει την εύκολη δημιουργία διαγωνισμάτων(online tests), να υποστηρίζει την παρουσίαση πολυμεσικών υλικών. Ως επεξεργασία φυσικής γλώσσας (NLP) ορίζουμε την υπολογιστική ανάλυση αδόμητων δεδομένων σε κείμενα, με σκοπό την επίτευξη μηχανικής κατανόησης του κειμένου αυτού.Είναι η επεξεργασία προτάσεων που εισάγονται ή διαβάζονται από το σύστημα,το οποίο απαντά επίσης με προτάσεις με τρόπο τέτοιο που να θυμίζει απαντήσεις μορφωμένου ανθρώπου. Βασικό ρόλο παίζει η γραμματική,το συντακτικό,η ανάλυση των εννοιολογικών στοιχείων και γενικά της γνώσης, για να γίνει κατανοητή η ανθρώπινη γλώσσα από τη μηχανή. Οι βασικές τεχνικές επεξεργασίας φυσικού κειμένου βασίζονται στις γενικές γνώσεις σχετικά με τη φυσική γλώσσα.Χρησιμοποιούν ορισμένους απλούς ευρετικούς κανόνες οι οποίοι στηρίζονται στη συντακτική και σημασιολογική προσέγγιση και ανάλυση του κειμένου.Ορισμένες τεχνικές που αφορούν σε όλα τα πεδία εφαρμογής είναι: ο διαμερισμός στα συστατικά στοιχεία του κειμένου (tokenization), η χρήση της διάταξης του κειμένου (structural data mining), η απαλοιφή λέξεων που δεν φέρουν ουσιαστική πληροφορία (elimination of insignificant words),η γραμματική δεικτοδότηση (PoS tagging), η μορφολογική ανάλυση και η συντακτική ανάλυση. Στόχος της παρούσας διπλωματικής είναι να περιγράψει και να αξιολογήσει πως οι τεχνικές επεξεργασίας της φυσικής γλώσσας (NLP), θα μπορούσαν να αξιοποιηθούν για την ενσωμάτωση τους σε πλατφόρμες ηλεκτρονικής μάθησης.Ο μεγάλος όγκος δεδομένων που παρέχεται μέσω μιας ηλεκτρονικής πλατφόρμας μάθησης, θα πρέπει να μπορεί να διαχειριστεί , να διανεμηθεί και να ανακτηθεί σωστά.Κάνοντας χρήση των τεχνικών NLP θα παρουσιαστεί μια καινοτόμα πλατφόρμα ηλεκτρονικής μάθησης,εκμεταλεύοντας τις υψηλού επιπέδου τεχνικές εξατομίκευσης, την δυνατότητα εξαγωγής συμπερασμάτων επεξεργάζοντας την φυσική γλώσσα των χρηστών προσαρμόζοντας το προσφερόμενο εκπαιδευτικό υλικό στις ανάγκες του κάθε χρήστη. / We live in a society in which the use of technology has entered dynamically in our life,the education could not be influenced by new Technologies. Terms such as "e-Learning" and "Asynchronous e-learning" have created new standards in the classical Education. By the term “asynchronous e-learning” we mean a process of exchange of learning between teacher & student, performed regardless of time and place. E-learning is the use of new multimedia technologies and the Internet to improve the quality of learning by facilitating access to information resources and services as well as remote exchanges .The term covers a wide range of applications and processes, such electronic classrooms, and digital collaboration, learning based on computers and Web technologies. Some of the basic requirements that must be met to establish a platform for e-learning are: To support the creation of forums and chat rooms, to deliver email, has friendly environment for both user / student and user / teacher, support personalization depending to the user . Holding information (creating profiles) for the user in order to provide help in the navigation, to support easy creating exams (online tests), to support multimedia presentation materials. As natural language processing (NLP) define the computational analysis of unstructured data in text, to achieve mechanical understanding of the text. To elaborate proposals that imported or read by the system, which also responds by proposals in a manner that reminds answers of educated man. A key role is played by the grammar, syntax, semantic analysis of data and general knowledge to understand the human language of the machine. The main natural text processing techniques based on general knowledge about natural language .This techniques use some simple heuristic rules based on syntactic and semantic analysis of the text. Some of the techniques pertaining to all fields of application are: tokenization, structural data mining, elimination of insignificant words, PoS tagging, analyzing the morphological and syntactic analysis. The aim of this study is to describe and evaluate how the techniques of natural language processing (NLP), could be used for incorporation into e-learning platforms. The large growth of data delivered through an online learning platform, should be able to manage, distributed and retrieved. By the use of NLP techniques will be presented an innovative e-learning platform, using the high level personalization techniques, the ability to extract conclusions digesting the user's natural language by customizing the offered educational materials to the needs of each user .
280

ENSINO HÍBRIDO NA EDUCAÇÃO BÁSICA: NARRATIVAS DOCENTES SOBRE A ABORDAGEM METODOLÓGICA NA PERSPECTIVA DA PERSONALIZAÇÃO DO ENSINO / BLENDED LEARNING IN BASIC EDUCATION: TEACHER NARRATIVES ON THE METHODOLOGICAL APPROACH TO THE PERSPECTIVE OF TEACHING PERSONALIZATION

CANNATÁ, VERÔNICA MARTINS 24 November 2017 (has links)
Submitted by Noeme Timbo (noeme.timbo@metodista.br) on 2018-02-16T16:14:35Z No. of bitstreams: 1 VeronicaMartins.pdf: 2071452 bytes, checksum: a9626c88fffd626b51350ed65e24f8b7 (MD5) / Made available in DSpace on 2018-02-16T16:14:35Z (GMT). No. of bitstreams: 1 VeronicaMartins.pdf: 2071452 bytes, checksum: a9626c88fffd626b51350ed65e24f8b7 (MD5) Previous issue date: 2017-11-24 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The central theme of this research is the pedagogical practice as reference of a formal education program. The research has as general objective to reflect on the insertion of blended learning from the angle of the teacher that acts as mediator and focuses on personalization and on technology integration to the curriculum. In relation to specific objectives, and regarding both experiences here narrated and the interlacing of the stories (participants and researcher), we analyze the points of interconnection with the challenges, the afflictions and the discoveries of a teacher in view of the use of DICT (Digital Information and Communication Technologies) in the promotion of knowledge construction. This is a qualitative investigative research elaborated in the autobiographical narrative modality and supported by hermeneutic-phenomenological approach for interpretation of learning narratives, considering that the description of phenomena leads to the essence of lived experience. With inspiration in the narrative research of Clandinin and Connelly (2011), this study is based on the theoretical principles of the biographical approach of Delory-Momberger (2012), Passeggi (2011) and Larrosa (1999), as well as on the hermeneutic-phenomenological formulation of M. Freire (2012). The theoretical contributions are based on the following authors: Horn and Staker (2015); Zabala (1998); Mizukami (1986); Moran (2015); Costa (1989); Almeida and Valente (2011); Perrenoud (2013); Santos (1994); Vieira Pinto (2005) and Vygotsky (1997). The research also presents a brief historical review of traditional school and active learning, besides covering didactic strategies of learning spaces reconfiguration and teaching challenges in the contemporary world. Technology, knowledge and personalization are contextually addressed as concept, instrument and support for the efficient use of data in blended learning, without losing sight of the application of intelligence technologies. Finally, we seek to identify the perceptions of teachers of basic education __ for example, in relation to teaching practice and technology __ from public and private networks, regarding the use of digital media in pedagogical practices and the promotion of learning using blended learning. / O tema central deste estudo é a prática pedagógica como referência de um programa de educação formal que traz como problema de pesquisa “Quais percepções emergem quando os professores da educação básica, redes privada e pública, promovem a aprendizagem com foco na personalização utilizando o ensino do ensino híbrido?” A pesquisa aqui conduzida tem como objetivo geral refletir sobre a experiência dos docentes a partir da mediação que integra, com o uso da metodologia, a tecnologia ao currículo. Em relação aos objetivos específicos, e tendo por base as experiências narradas e o entrelaçar das histórias (participantes e pesquisadora), analisam-se quais são os pontos de interconexão com os desafios, as aflições e as descobertas da docência em vista do uso da TDIC (Tecnologias Digitais de Informação e Comunicação) na promoção da construção do conhecimento. Trata-se de uma pesquisa qualitativa de cunho investigativo elaborada na modalidade narrativa autobiográfica e amparada na abordagem hermenêutico-fenomenológica para a interpretação das narrativas, considerando que a descrição dos fenômenos conduz à essência da experiência vivida. Com inspiração na pesquisa narrativa de Clandinin e Connelly (2011), este estudo apoia-se tanto nos princípios teóricos da abordagem biográfica de Delory-Momberger (2012), Passeggi (2011) e Larrosa (1999), quanto na formulação hermenêutico-fenomenológica de M. Freire (2012). Os aportes teóricos se fundamentam nos seguintes autores: Horn e Staker (2015); Zabala (1998); Mizukami (1986); Moran (2015); Costa (1989); Almeida e Valente (2011); Perrenoud (2013); Santos (1994); Vieira Pinto (2005) e Vygotsky (1997). A investigação ainda apresenta um breve recorte histórico da escola tradicional e das aprendizagens ativas, além de citar estratégias didáticas de reconfigurações dos espaços de aprendizagem e desafios da docência na contemporaneidade. A tecnologia, o conhecimento e a personalização são aqui contextualmente abordados nas qualidades de conceito, de instrumento, de linguagem e de apoio, sem perder de vista as narrativas das experiências dos participantes. Ao fim, identificaram-se as percepções – por exemplo, em relação à prática docente e à tecnologia – de professores da educação básica, das redes pública e privada, com relação ao uso dos meios digitais em práticas pedagógicas e à promoção da aprendizagem personalizada com a utilização da metodologia do ensino híbrido.

Page generated in 0.0832 seconds