• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1017
  • 224
  • 97
  • 96
  • 70
  • 31
  • 29
  • 19
  • 19
  • 14
  • 12
  • 8
  • 7
  • 7
  • 7
  • Tagged with
  • 2079
  • 745
  • 706
  • 585
  • 437
  • 357
  • 330
  • 310
  • 227
  • 221
  • 193
  • 189
  • 174
  • 165
  • 160
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
851

Modeling the Information-Seeking Behavior of Social Scientists: Ellis's Study Revisited

Meho, Lokman I., Tibbo, Helen R. 04 1900 (has links)
This paper revises David Ellis's information-seeking behavior model of social scientists, which includes six generic features: starting, chaining, browsing, differentiating, monitoring, and extracting. The paper uses social science faculty researching stateless nations as the study population. The description and analysis of the information-seeking behavior of this group of scholars is based on data collected through structured and semistructured electronic mail interviews. Sixty faculty members from 14 different countries were interviewed by e-mail. For reality check purposes, face-to-face interviews with five faculty members were also conducted. Although the study confirmed Ellis's model, it found that a fuller description of the information-seeking process of social scientists studying stateless nations should include four additional features besides those identified by Ellis. These new features are: accessing, networking, verifying, and information managing. In view of that, the study develops a new model, which, unlike Ellis's, groups all the features into four interrelated stages: searching, accessing, processing, and ending. This new model is fully described and its implications on research and practice are discussed. How and why scholars studied here are different than other academic social scientists is also discussed.
852

Ranking the Research Productivity of LIS Faculty and Schools: An Evaluation of Data Sources and Research Methods

Meho, Lokman I., Spurgin, Kristina M. 10 1900 (has links)
This study evaluates the data sources and research methods used in earlier studies to rank the research productivity of Library and Information Science (LIS) faculty and schools. In doing so, the study identifies both tools and methods that generate more accurate publication count rankings as well as databases that should be taken into consideration when conducting comprehensive searches in the literature for research and curricular needs. With a list of 2,625 items published between 1982 and 2002 by 68 faculty members of 18 American Library Associationâ (ALA-) accredited LIS schools, hundreds of databases were searched. Results show that there are only 10 databases that provide significant coverage of the LIS indexed literature. Results also show that restricting the data sources to one, two, or even three databases leads to inaccurate rankings and erroneous conclusions. Because no database provides comprehensive coverage of the LIS literature, researchers must rely on a wide range of disciplinary and multidisciplinary databases for ranking and other research purposes. The study answers such questions as the following: Is the Association of Library and Information Science Educationâ s (ALISEâ s) directory of members a reliable tool to identify a complete list of faculty members at LIS schools? How many and which databases are needed in a multifile search to arrive at accurate publication count rankings? What coverage will be achieved using a certain number of databases? Which research areas are well covered by which databases? What alternative methods and tools are available to supplement gaps among databases? Did coverage performance of databases change over time? What counting method should be used when determining what and how many items each LIS faculty and school has published? The authors recommend advanced analysis of research productivity to provide a more detailed assessment of research productivity of authors and programs.
853

A Scientometric Method to Analyze Scientific Journals as Exemplified by the Area of Information Science

Boell, Sebastian K. 12 1900 (has links)
==Background== In most academic disciplines journals play an important role in disseminating findings of research among the disciplinary community members. Understanding a discipline's body of journals is therefore of grave importance when looking for previous research, compiling an overview of previous research and and in order to make a decision regarding the best place for publishing research results. Furthermore, based on Bradford's Law of scattering, one can assume that in order to be able to compile a satisfying overview of previous research a wide range of journals has to be scanned, but also that there are some 'core' journals which are of more importance to specific disciplines than others. ==Aim== This thesis aims to compile a comprehensive master list of journals which publish articles of relevance to Library and Information Science (LIS). A method to rank journals by their importance is introduced and some key characteristics of the disciplines body of journals are discussed. Databases indexing the disciplines journals are also compared. ==Method== The master list of LIS journals was created by combining the journal listings of secondary sources indexing the field's literature. These sources were six databases focusing on LIS literature: INFODATA, Current Contents, Library and Information Science Abstracts, Library Information Science Technology Abstracts, Information Science and Technology Abstracts, and Library Literature and Information Science, the LIS subsection in three databases with a general focus: Social Science Citation Index, Academic Search Premier, and Expanded Academic ASAP, and the listing of LIS journals from the Elektronische Zeitschriften Bibliothek. Problems related to editorial policies and technical shortcomings are discussed, before comparing: predominant publication languages, places of publication, open access, peer review, and the ISI Journal Impact Factors (JIF). Journals were also ranked by the number of occurrences in multiple databases in order to identify 'core' publications. The number of journals overlapping between databases are estimated and a matrix giving the overlap is visualized using multi dimensional scaling. Lastly, the degree of journals overlapping with other disciplines is measured. ==Results== A comprehensive master list of 1,205 journals publishing articles of relevance to LIS was compiled. The 968 active journals are mostly published in English, with one third of the journals coming from the US and another third from the UK and Germany. Nearly 16% of all journals are open access, 11% have a ISIJIF, and 42% are peer reviewed. Fifteen core journal could be identified and a list of the top fourteen journals published in Germany is introduced. Databases have between five to 318 journals in common and the journal collection shows an substantial overlap with a wide range of subjects, with the biggest journal overlap with Computing Studies, and Business and Economics. ==Conclusion== The aim of compiling a comprehensive list of LIS journal was achieved. The list will contribute to our understanding of scholarly communication within the LIS discipline and provide academics and practitioners with a better understanding of journals within the discipline. The ranking approach proved to be sufficient, showing good similarity with other studies over the last 40 years. The master list of LIS journals has also potential use to further research.
854

Εφαρμογή τεχνικών data mining σε συστήματα ηλεκτρονικού εμπορίου

Κουρής, Γιάννης Ν. 17 June 2009 (has links)
Η παρούσα διατριβή ασχολήθηκε με την εφαρμογή τεχνικών data mining σε συστήματα ηλεκτρονικού εμπορίου. Για να είμαστε πιο ακριβείς επικεντρωθήκαμε στην εύρεση κανόνων συσχετίσεων από δεδομένα, και κύρια δεδομένα που είχαν να κάνουν με βάσεις συναλλαγών. Η βασική ιδέα ενός κανόνα συσχετίσεως είναι να αναπτύξει μια συστηματική μέθοδο με την οποία ένας χρήστης μπορεί να προβλέψει την εμφάνιση κάποιων αντικειμένων, δοσμένης της ύπαρξης κάποιων άλλων σε μια συναλλαγή, και συνήθως αποτελούν συνεπαγωγές της μορφής Χ=>Y. Παράδειγμα ενός τέτοιου κανόνα είναι: “οι πελάτες που αγοράζουν κινητά τηλέφωνα και handsfree αγοράζουν και θήκη για το κινητό τους”. Τα τελευταία χρόνια είχε γίνει κοινός τόπος όλων των μελετών και των ερευνητών οι αδυναμίες και τα μειονεκτήματα του μοντέλου εύρεσης κανόνων συσχετίσεων. Στόχος μας ήταν να επιλύσουμε υπάρχοντα προβλήματα αλλά και να εκθέσουμε και να αντιμετωπίσουμε κάποια νέα. Σαν σύγγραμμα η παρούσα διατριβή μπορεί να χωριστεί σε τρία κομμάτια. Το πρώτο είναι τα τρία πρώτα κεφάλαια, τα οποία και αποτελούν εισαγωγικά κεφάλαια απαραίτητα για την υποστήριξη και κατανόηση της δουλειάς μας. Ακολούθως τα κεφάλαια 4 έως 8 αποτελούν το δεύτερο και κύριο κομμάτι της παρούσας διατριβής, και περιγράφουν διάφορες τεχνικές και προτάσεις μας, αποτελέσματα της ερευνάς μας. Το τρίτο και τελευταίο κομμάτι της διατριβής, αναφορικά το Κεφάλαιο 9, αποτελεί την σύνοψη ολόκληρης της εργασίας μας όπου παραθέτουμε εν συντομία την τελική προσφορά μας στο χώρο, δίνουμε πιθανές εφαρμογές των προτάσεων μας, και τέλος προτείνουμε μελλοντικές κατευθύνσεις της έρευνας σε ανοιχτά πεδία – προβλήματα. / -
855

Σχεδίαση - υλοποίηση σχεσιακής χωρικής βάσης δεδομένων

Παπαθανασίου, Ιωάννης 22 December 2009 (has links)
Το Εργαστήριο Ηλεκτρονικής του Τμήματος Φυσικής Πανεπιστημίου Πατρών ανέλαβε και υλοποίησε το ερευνητικό πρόγραμμα THETIS, το θέμα του οποίου είναι ‘Αυτόματη ανίχνευση και ταυτοποίηση υπογραφών πλοίων και κατάστασης θαλάσσιας επιφάνειας, από δορυφορικές εικόνες’. Υπάρχουν αριθμητικά και δυαδικά δεδομένα εικόνων πλοίων και καιρικών φαινόμενων. Ο σκοπός της παρούσας εργασίας είναι η οργάνωση αυτών των δεδομένων σε μια βάση mysql. Θα πρέπει το λογισμικό του ερευνητικού προγράμματος (σε Matlab) να αποκτά πρόσβαση στα δεδομένα αυτά, υποβάλλοντας ερωτήματα Επιπλέον λειτουργεί δικτυακός τόπος που παρέχει σε έναν πιστοποιημένο χρήστη του, πρόσβαση στα δεδομένα και τις πληροφορίες του ερευνητικού προγράμματος. Στο Κεφάλαιο1 γίνεται εισαγωγή στην έννοια των ΒΔ και των ΣΔΒΔ. Επιπλέον τονίζονται τα πλεονεκτήματα των ΣΔΒΔ έναντι της παραδοσιακής μηχανοργάνωσης. [1,2] Στο Κεφαλαίο 2 αφού αναφέροντα τα στάδια ανάπτυξης μιας βάσης, με έμφαση στο στάδιο της σχεδίασης και συγκεκριμένα στην δημιουργία του διαγράμματος ΜΟΣ. Επιπλέον υπάρχει για μια πραγματική εφαρμογή μηχανοργάνωσης μιας γραμματείας πανεπιστημιακής σχολής, όπου στο κεφάλαιο αυτό γίνεται η λήψη απαιτήσεων χρηστών και η δημιουργία του διαγράμματος ΜΟΣ. [1,2,3,4] Στο Κεφάλαιο 3 προχωρούμε περισσότερο την φάση της σχεδίασης δημιουργώντας το ΣΜ της προηγούμενης εφαρμογής και επιπλέον γίνεται αναφορά στην σχεσιακή άλγεβρα που είναι η βάση του ΣΜ. [1,2,3] Στο Κεφάλαιο 4 περιγράφεται η διαδικασία της κανονικοποίησης , που συνήθως ολοκληρώνει την φάση σχεδίασης μιας ΒΔ. Εξυπηρετεί στην περαιτέρω βελτίωση της σχεδίασης ώστε να είναι ορθή η υλοποίηση. [1,3,4] Στο Κεφάλαιο 5 γίνεται μια εκτενής εισαγωγή στο ΣΔΒΔ της Mysql . Περιγράφονται οι ορισμοί πινάκων και ερωτημάτων καθώς και οι υπάρχοντες τύποι δεδομένων σε συνδυασμό με περιορισμούς ορθότητας και ακεραιότητας, χρησιμοποιώντας παραδείγματα. [5,6,7,8] Στο Κεφάλαιο 6 αναπτύσσουμε την ΒΔ thesis_db της παρούσας εργασίας. Γίνεται λήψη απαιτήσεων, τα διαγράμματα ΜΟΣ και ΣΜ ( κατά την φάση σχεδίασης ), καθώς και η δημιουργία του σχήματος και ενός στιγμιότυπου της χρησιμοποιώντας Mysql. [1,5,6,7,8] Στο κεφάλαιο 7 παρουσιάζεται ο τρόπος διασύνδεσης της Matlab με την Mysql, χρησιμοποιώντας υπάρχον λογισμικό διασύνδεσης. Γίνεται παρουσίαση αυτής της λειτουργίας διασύνδεσης, χρησιμοποιώντας ένα GUI Matlab, με το οποίο ο χρήστης υποβάλλει ερωτήματα σε μια βάση mysql και λαμβάνει αποτελέσματα . [9,10,11,12] Στο κεφάλαιο 8 γίνεται μια εισαγωγή στην γλώσσα PHP και στον τρόπο διασύνδεσης με την Mysql χρησιμοποιώντας παραδείγματα. [13-20] Στο Κεφάλαιο 9 παρουσιάζεται ο δικτυακός τόπος λήψης δεδομένων και πληροφοριών από την βάση δεδομένων σε εγγεγραμμένους χρήστες. [5,13-20] / -
856

Shifting Allegiances at La Milpa, Belize: A Typological, Chronological, and Formal Analysis of the Ceramics

Sagebiel, Kerry Lynn January 2005 (has links)
The primary goal of this dissertation is to present an outline of the culture history of the site of La Milpa and its immediate sustaining area through the elaboration and elucidation of a ceramic chronology and typology. However, an equally important aspect of this dissertation is a thorough critique of the type-variety/mode (T-V) system of classification upon which Maya ceramic analysis has been based over the last forty years. The analysis presented here was completed using a relational database (Microsoft Access). By using this database program, it became clear that it is necessary to rethink the basis and use of the type-variety system and how (or whether) it can be adapted as a tool for use in database driven analysis.
857

Query evaluation with constant delay

Kazana, Wojciech 16 September 2013 (has links) (PDF)
This thesis is concentrated around the problem of query evaluation. Given a query q and a database D it is to compute the set q(D) of all tuples in the output of q on D. However, the set q(D) may be larger than the database itself as it can have a size of the form n^l where n is the size of the database and l the arity of the query. It can therefore require too many of the available resources to compute it entirely. The main focus of this thesis is a particular solution to this problem: a scenario where in stead of just computing, we are interested in enumerating q(D) with constant delay. Intuitively, this means that there is a two-phase algorithm working as follows: a preprocessing phase that works in time linear in the size of the database, followed by an enumeration phase outputting one by one all the elements of q(D) with a constant delay (which is independent from the size of the database) between any two consecutive outputs. Additionally, four more problems related to enumeration are also considered in the thesis. These are model-checking (where the query q is boolean), counting (where one wants to compute just the size |q(D)| of the output set), testing (where one is interested in an efficient test for whether a given tuple belongs to the output of the query or not) and j-th solution (where, one wants to be able to directly access the j-th element of q(D)). The results presented in the thesis address the above problems with respect to: - first-order queries over the classes of structures with bounded degree, - monadic second-order queries over the classes of structures with bounded treewidth, - first-order queries over the classes of structures with bounded expansion.
858

Duomenų vientisumo apribojimų realizavimo strategijos didelėje įmonėje tyrimas / Investigation of strategy for implementation of data integrity constraints in large application system

Preibys, Justas 28 January 2008 (has links)
Darbe apžvelgiami duomenų vientisumo apribojimų tipai ir jų realizavimo būdai, analizuojami jų privalumai ir trūkumai. Kiekvienam apribojimo tipui, pagal veikimo trukmės ir įgyvendinimo sudėtingumo charakteristikas, parinktas labiausiai efektyvus realizavimo būdas bei eksperimentiškai patvirtintos analizės metu iškeltos hipotezės. Remiantis eksperimentinio tyrimo rezultatais, sudaryta ir aprašyta duomenų vientisumo apribojimų realizacijos strategijos parinkimo metodika, kuri galėtų padėti didelėms įmonėms efektyviai įgyvendinti duomenų vientisumo apribojimus, sunaudojant kuo mažiau laiko, darbo ir sistemos resursų, bet tuo pačiu užtikrinant duomenų vientisumą ir korektiškumą. / This thesis describes types of data integrity constraints, the ways for implementation these constraints, and their analyzed advantages and disadvantages. It is chosen most effective way for implementation every type of data integrity constraint, according to their run duration and complexity of implementation characteristics, and experimentally approved hypotheses, which were raised during analysis. With reference to the results of the experiment, is made and described the methodology of implementation strategy for data integrity constraints, which could help effectively implement data integrity constraints for large application systems, using as less as it is possible time, workforce and system resources, and at the same time ensuring data integrity and correctness.
859

Une approche matérialisée basée sur les vues pour l'intégration de documents XML

Ahmad, Houda 26 June 2009 (has links) (PDF)
Les données semi-structurées occupent une place croissante dans l'évolution du Web par le biais du langage XML. La gestion de telles données ne s'appuie pas sur un schéma pré-dé fini, comme dans le cas de données structurées, gérées par exemple par le modèle relationnel. Le schéma de chaque document est auto-contenu dans le document même, et des documents similaires peuvent être représentés par des schémas différents. C'est pourquoi les algorithmes et les techniques d'intégration et d'interrogation de telles sources de données sont souvent plus complexes que ceux défi nis pour l'intégration et l'interrogation de sources de données structurées. L'objectif de notre travail est l'intégration de données XML en utilisant les principes d'Osiris, un prototype de SGBD-BC, dont le concept central est celui de vue. Dans ce système, une famille d'objets est défi nie par une hiérarchie de vues, où chaque vue est défi nie par ses vues mères, ses attributs et contraintes propres. Osiris appartient à la famille des logiques de description, la vue minimale d'une famille d'objets étant assimilée à un concept primitif et ses autres vues à des concepts définis. Un objet d'une famille satisfait certaines de ses vues. Pour chaque famille d'objets, Osiris construit, par analyse des contraintes dé finies dans toutes ses vues, un espace de classement n-dimensionnel. Cet espace sert de support au classement d'objets et aussi à leur indexation. Dans cette thèse nous avons étudié l'apport des principales fonctionnalités d'Osiris - classement, indexation et optimisation sémantique des requêtes à l'intégration de documents XML. Pour cela nous produisons un schéma cible (XML schema abstrait), qui représente un schéma Osiris ; chaque document satisfaisant un schéma source (XML schema concret) est réécrit en termes du schéma cible avant de subir l'extraction des valeurs de ses entités. Les objets correspondant à ces entités sont alors classés et indexés. Le mécanisme d'optimisation sémantique des requêtes d'Osiris peut dès lors être utilisé pour extraire les objets d'intérêt pour une requête. Nous avons réalisé un prototype, nommé OSIX (Osiris-based System for the Integration of XML sources) et nous l'avons appliqué à l'intégration et l'interrogation de documents XML simulant les données d'un hôpital.
860

Standardizing our perinatal language to facilitate data sharing

Massey, Kiran Angelina 05 1900 (has links)
Our ultimate goal as obstetric and neonatal care providers is to improve care for mothers and their babies. Continuous quality improvement (CQI) involves iterative cycles of practice change and audit of ongoing clinical care identifying practices that are associated with good outcomes. A vital prerequisite to this evidence based medicine is data collection. In Canada, much of the country is covered by separate fragmented silos known as regional reproductive care databases or perinatal health programs. A more centralized system which includes collaborative efforts is required. Moving in this direction would serve many purposes: efficiency, economy in the setting of limited resources and shrinking budgets and lastly, interaction among data collection agencies. This interaction may facilitate translation and transfer of knowledge to care-givers and patients. There are however many barriers towards such collaborative efforts including privacy, ownership and the standardization of both digital technologies and semantics. After thoroughly examining the current existing perinatal data collection among Perinatal Health Programs (PHPs), and the Canadian Perinatal Network (CPN) database, it was evident that there is little standardization of definitions. This serves as one of the most important barriers towards data sharing. To communicate effectively and share data, researchers and clinicians alike must construct a common perinatal language. Communicative tools and programs such as SNOMED CT® offer a potential solution, but still require much work due to their infancy. A standardized perinatal language would not only lay the definitional foundation in women’s health and obstetrics but also serve as a major contribution towards a universal electronic health record.

Page generated in 0.0386 seconds