• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1016
  • 224
  • 97
  • 96
  • 69
  • 31
  • 29
  • 19
  • 19
  • 14
  • 12
  • 8
  • 7
  • 7
  • 7
  • Tagged with
  • 2077
  • 745
  • 706
  • 585
  • 437
  • 357
  • 330
  • 310
  • 227
  • 221
  • 193
  • 189
  • 174
  • 165
  • 160
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
481

Citation counting, citation ranking, and h-index of human-computer interaction researchers: A comparison between Scopus and Web of Science

Meho, Lokman I., Rogers, Yvonne January 2008 (has links)
This study examines the differences between Scopus and Web of Science in the citation counting, citation ranking, and h-index of 22 top human-computer interaction (HCI) researchers from EQUATOR--a large British Interdisciplinary Research Collaboration project. Results show that Scopus provides significantly more coverage of HCI literature than Web of Science, primarily due to coverage of relevant ACM and IEEE peer-reviewed conference proceedings. No significant differences exist between the two databases if citations in journals only are compared. Although broader coverage of the literature does not significantly alter the relative citation ranking of individual researchers, Scopus helps distinguish between the researchers in a more nuanced fashion than Web of Science in both citation counting and h-index. Scopus also generates significantly different maps of citation networks of individual scholars than those generated by Web of Science. The study also presents a comparison of h-index scores based on Google Scholar with those based on the union of Scopus and Web of Science. The study concludes that Scopus can be used as a sole data source for citation-based research and evaluation in HCI, especially if citations in conference proceedings are sought and that h scores should be manually calculated instead of relying on system calculations.
482

IndMED and medIND: NICâ s Online Biomedical databases

Pandita, Naina, Singh, Sukhdev 10 1900 (has links)
Very few Indian biomedical journals have found place in international databases due to various reasons like delayed / irregular publishing, lack of quality articles, etc. The National Library of Medicineâ s (NLM, USA) MEDLINE database covers approximately 50 Indian journals. As far as the full-text of these journals are concerned, MEDLINE has only covered three Indian journals. The ICMR-NIC Centre for Biomedical Information, the 17th International MEDLARS Centre has been catering to the biomedical information needs of the medical professionals since 1986. One of the tasks undertaken by the Centre is to meet the glaring and obvious â unavailabilityâ of Indian biomedical research literature. Hence, the Centre took up the challenging task to develop databases of Indian biomedical journals and provide a platform for making this literature available to the Indian as well as international medical community. One such database developed is the IndMED, which covers the bibliographic details from 75 peer reviewed Indian biomedical journals. IndMED has received a lot of recognition and the Centre strives to keep this database at par with the MEDLINE database. The 2nd database being developed is the Online full-text database of Indian biomedical journals, medIND, which would cover the full-text of IndMED journals and serve as one vital resource for all Indian biomedical literature.
483

Conception et réalisation d'un Système d'Information sur la Formation Documentaire - SINFODOC.

Sicot, Julien January 2006 (has links)
Mémoire de Master Sciences de l'Information et des Bibliothèques Option Systèmes Documentaires Numériques. Sous la direction d’Elisabeth Noël Conservateur de bibliothèque, Co-responsable de FORMIST, Ecole Nationale Supérieur des Sciences de l’Information et des Bibliothèques Et de Geneviève Lallich-Boidin Professeur en Science de l’information Université Claude Bernard – Lyon 1 / [EN]: In the higher education, the information literacy knows an unquestionable popularity. However, few quantitative and qualitative elements make it possible to draw up an assessment of it. In view of this report, FORMIST and the ADBU wished the creation of a repertory which would make it possible to count the data of academic libraries on the formation, to update them and to draw some elements for statistical analysis. The purpose of this report is to expose the approach taken by the author to conceive and carry out this program. -------- [FR]: Dans l'enseignement supérieur, la formation à la maîtrise de l'information connaît un engouement certain. Toutefois, peu d'éléments quantitatifs et qualitatifs permettent d'en dresser un bilan. Face à  ce constat, FORMIST et l'ADBU ont souhaité la création d'un répertoire qui permettrait de recenser les données des Services Commun de Documentation sur la formation, de les mettre à  jour et d'en tirer des éléments pour analyse statistique. Ce mémoire a pour but de communiquer la démarche entreprise par l'auteur pour concevoir et réaliser cette application.
484

Διερεύνηση της βάσης βιολογικών δεδομένων COGENT για την πρόσθεση πληροφοριών βιβλιογραφικής ύλης και πληροφοριών νουκλεοτιδικής αλληλουχίας (DNA)

Χριστοπούλου, Δέσποινα 09 October 2009 (has links)
Σήμερα υπάρχει ελεύθερη πρόσβαση μέσω του internet σε εκατοντάδες δημόσιες βάσεις βιολογικών δεδομένων. Παραταύτα, η προσπάθεια του να εκμεταλλευτεί κάποιος τα αποθηκευμένα δεδομένα ανομοιογενών βάσεων δεδομένων, καταλήγει να αποτελεί μια διαδικασία ιδιαίτερα δύσκολη και χρονοβόρα λόγω ποικίλων αιτιάσεων. Στις αιτίες αυτές συμπεριλαμβάνονται ο χαοτικός όγκος των βιολογικών δεδομένων, ο ολοένα αυξανόμενος αριθμός βιολογικών βάσεων δεδομένων, η υπεραφθονία τύπων και μορφών δεδομένων (format), η ποικιλομορφία βιοπληροφορικών τεχνικών πρόσβασης στα δεδομένα και βέβαια η διαφορετικότητα των βάσεων βιολογικών δεδομένων. Χάρη στις διεθνείς προσπάθειες ολοκλήρωσης αλληλουχιών (sequencing), οι ομάδες γονιδιακών δεδομένων έχουν αυξηθεί γεωμετρικά την τελευταία δεκαετία. Το έτος 2003 για παράδειγμα, η βάση βιολογικών δεδομένων Genbank διπλασιάστηκε σε μέγεθος μέσα σε 15 μήνες. Με τόσο γρήγορη ανάπτυξη, τα γενωμικά δεδομένα και οι συνδεόμενες με αυτά δομές έχουν αποκτήσει τεράστιο μέγεθος για να χωρέσουν στην κεντρική μνήμη ενός υπολογιστή. Το σημαντικότερο πρόβλημα που ανακύπτει έγκειται στο ότι μεγάλο μέρος της πληροφορίας που αναζητείται μέσα στο τεράστιο και ολοένα αυξανόμενο σε μέγεθος ορυχείο των δεδομένων εν τέλει χάνεται. Η ανάγκη κατασκευής των κατάλληλων εργαλείων εξ’ όρυξης της ζητούμενης πληροφορίας από το ορυχείο αυτό είναι μονόδρομος. Η παρούσα διπλωματική εργασία επικεντρώνεται στην διεύρυνση μιας υπάρχουσας βάσης βιολογικών δεδομένων ολοκληρωμένων γονιδιωμάτων, της COGENT. Η COGENT αναπτύχθηκε το 2003 από την Ομάδα Υπολογιστικής Γενωμικής (Computational Genomics Group – CGG), στο Ευρωπαϊκό Ινστιτούτο Βιοπληροφορικής (European Bioinformatics Institute – EBI), και τελικός τεχνικός στόχος της διπλωματικής εργασίας αποτελεί η προσθήκη βιβλιογραφικών δεδομένων καθώς και νουκλεοτιδικών πληροφοριών αλληλουχίας (DNA) στην βάση COGENT. / Today, hundreds of public biological databases are accessible via the Internet However taking advantage of data stored in heterogeneous biological databases can be a difficult, time consuming task for a multitude of reasons. These reasons include the vast volume of biological data, the growing number of biological databases, the rapid rate in the growth of data, the overabundance of data types and formats, the wide Variety of bioinformatics data access techniques, and database heterogeneity. Thanks to international sequencing efforts, genome data sets have been growing exponentially in the past few years. The GenBank database, for example, has doubled every 15 months. With such a rapid growth, genome data and the associated access structures have become too large to fit in the main memory of a computer, leading to a large number of disk accesses (and therefore, slow response times) for homology searches and other queries. Much of the important information in this enormous and exponentially growing gold mine will be wasted if we do not develop proper tools to access and mine them efficiently. The focus of this thesis was to extend an existing biological database for the complete tracking of genomes, the COGENT database, which the Computational Genomics Group at the European Bioinformatics Institute in Cambridge produced in 2003, so that it can incorporate literature and DNA sequence information.
485

Θέματα ορθότητας ταυτόχρονων αλγορίθμων σε δομές ευρετηρίου / Correctness issues of concurrent algorithms on index structures

Θεοδωρόπουλος, Κωνσταντίνος 16 May 2007 (has links)
Η εργασία αυτή αφορά την μελέτη ταυτόχρονων (concurrent) αλγορίθμων σε δομές ευρετηρίου (δευτερεύουσας μνήμης) καθώς και τα μοντέλα ορθότητάς τους. Οι δομές ευρετηρίου που θα μελετήσουμε είναι τα Β-δέντρα κατάλληλα τροποποιημένα έτσι ώστε να μεγιστοποιείται η απόδοσή τους σε περιβάλλον ταυτοχρονισμού . Συγκεκριμένα εκτός από τους δείκτες του Β-δέντρου έxουν προστεθεί και δείκτες που ενώνουν τον έναν κόμβο με τον άλλον στο ίδιο επίπεδο του δέντρου σχηματίζοντας έτσι αλυσίδες. Στην αρχή θα δούμε μερικά φαινόμενα που ανακύπτουν όταν διάφορες διεργασίες εκτελούνται παράλληλα. Τα φαινόμενα αυτά έχουν την βάση τους στην πρόσβαση των διεργασιών σε κοινά δεδομένα από τα οποία εξαρτάται η εκτέλεσή τους. Θα δούμε πως μπορούμε να συγχρονίσουμε τις διεργασίες έτσι ώστε να μην προκύπτουν ανεπιθύμητα φαινόμενα Κατόπιν θα δούμε μερικούς βασικούς ταυτόχρονους αλγορίθμους που αντιπροσωπεύουν την λύση σε μερικά βασικά προβλήματα στην θεωρία ταυτοχρονισμού (concurrency) ,όπως τα consumer-producer problem κ.ά. Στην συνέχεια θα μετακινηθούμε στο πεδίο των αλγορίθμων για δομές ευρετηρίου. Η δομή ευρετηρίου που θα εξετάσουμε είναι το Β-δέντρο. Το δέντρο αυτό αποτελεί την κατεξοχήν επιλογή για τους σχεδιαστές βάσεων δεδομένων για την οργάνωση μεγάλου όγκου πληροφορίας στην δευτερεύουσα μονάδα μνήμης του συστήματος. Η ανάγκη για ταυτοχρονισμό σε αυτήν την δομή είναι επιβεβλημένη για την υποστήριξη πολυχρηστικών βάσεων δεδομένων και άλλων χρήσιμων εφαρμογών. Η αποδοτικότητα των αλγορίθμων μετριέται σε μέγεθος μνήμης για το οποίο έχουν αποκλειστική πρόσβαση έτσι ώστε να συγχρονίζονται μεταξύ τους οι αλγόριθμοι. Θα δούμε διάφορους αλγορίθμους καθώς και έναν δικό μας. Τέλος θα εξετάσουμε την έννοια της ορθότητας σε ταυτόχρονους αλγορίθμους. Θα δούμε διάφορα μοντέλα ορθότητας καθώς και διάφορα κριτήρια. Σε αυτά θα προσθέσουμε και ένα δικό μας κριτήριο το οποίο εξασφαλίζει απλότητα στον σχεδιασμό των αλγορίθμων πολύ μεγαλύτερη απότι προηγούμενα κριτήρια. Η συνεισφορά αυτής της εργασίας έγκειται στα εξής : 1) Στην ανάπτυξη ενός καινούριου αλγορίθμου ο οποίος επιτυγχάνει μεγαλύτερη απόδοση από προηγούμενους λόγω του νέου τρόπου συγχρονισμού που προτείνει. Συγκεριμένα ο συγχρονισμός επιτυγχάνεται όχι μέσω καθολικού αμοιβαίου αποκλεισμού (όπως μέχρι τώρα) αλλά κατά περίπτωση αμοιβαίου αποκλεισμού. 2) Στην ανάπτυξη ενός κριτηρίου ορθότητας που επιτρέπει την απλότητα και την σαφήνεια στην ανάπτυξη ιδιαίτερα αποδοτικών ταυτόχρονων αλγορίθμων. Το κριτήριο λαμβάνει υπόψη του τις καταστάσεις που μπορεί να προκύψουν σε ένα ορισμένο τμήμα κοινής μνήμης και προσφέρει έναν τρόπο να αποκλείσουμε την μετάβαση του συστήματος σε αυτές τις καταστάσεις. / This thesis is about the study of concurrent algorithms on index structures (secondary memory) as well as their correctness models. The index structures that we are going to study are properly modified B-trees to maximize efficiency in a concurrent anvironmemt. More specifically, apart from the ordinary pointers of the B-tree, pointers between nodes in the same level have been added, thus forming chains. In the beggining we will observe some phenomena that occur during concurent execution of processes. These phenomena occur when processes access simultaneously common data form which their exectution is depended. We will see how we can synchronise the processes so that these unwnated phenomena may not occur. After that, we will see some basic concurrent algorithms that represent the solution to some basic problems in concurrency theory such as consumer-producer problems etc. Then we will move to the filed of algorithms for index structures.The structure that we will study is the B tree which is very commonly used by databse designers to store large amounts of data in the secondary memory unit of the system. The need for supporting concurency for this data structure is evident form the fact that these trees are used in multi-user databases and other useful applications. The efficiency of these concurrent algortihms is measured by the size of the memory that each algortihms may have exclusive access in it. We will review various algortihms and present one of our own. At the end we will study the notion of correctness in concurrent algorithms.We will review various correctness models and present our own criterion that assures simplicity in design of alorithms much more than achieved by previous modles of correctness. The contribution of this thesis lies in the following 1)To the development of a new algorithm , more efficeint than previous ones due to the new way of synchronisation suggested.More specifically, synchronisation is achieved not through global mutual exclusion (which is the standard practice) but through relative mutual exclusion. 2) To the development of a new correctness criterion that allows simplicity and clarity in the desing of highly efficient concurrent algorithms . This criterion takes in consideration the intermediate states that can occur in an are of shared memory and offers a new way of blocking transition to specific sets of states.
486

Knowledge is Empowering Utilizing 21st Century Library Services to Build Annotated Bibliographic Databases that Connect Native American Communities with Environmental Health Information

Ruddle, David 08 November 2013 (has links)
Is it possible for a student to create an information resource that helps someone in need? In a two month span, the student author conducted research into the availability of environmental articles and collected over 250 academic papers and grey literature. Library tools and services provided by The University of Arizona Libraries on Southwestern Environmental and Health Issues specifically targeting Native American communities were used to near exclusivity. Locating articles for the database was done quicker than expected by a Library Science student (the author) who had some previous familiarity with academic databases such as PubMED™ and Web of Science™. The database itself was designed in Drupal as a Deep Web (not public) Internet project and completed before schedule. Over the course of this research it was discovered that by properly utilizing library resources its possible for motivated students at the collegiate level to create a database of articles that could aid underserved groups with their understanding of desired specialized issues.
487

Informacinių technologijų išteklių duomenų bazė / Database of Information technology resources

Barzda, Erlandas 05 January 2005 (has links)
The subject of this master work is the <a href="http://www.ntsearch.com/search.php?q=internet&v=56">internet</a> information resource database. This work also handles the problems of old information systems which do not meet the new contemporary requirements. The aim is to create <a href="http://www.ntsearch.com/search.php?q=internet&v=56">internet</a> information system, based on object-oriented technologies and tailored to <a href="http://www.ntsearch.com/search.php?q=computer&v=56">computer</a> users’ needs. The <a href="http://www.ntsearch.com/search.php?q=internet&v=56">internet</a> information database system helps <a href="http://www.ntsearch.com/search.php?q=computers&v=56">computers</a> administrators to get the all needed information about <a href="http://www.ntsearch.com/search.php?q=computers&v=56">computers</a> <a href="http://www.ntsearch.com/search.php?q=network&v=56">network</a> elements and easy to register all changes into information database.
488

Kompiuterinės ir biuro technikos apskaitos sistema / Stocktaking information system of computer and office equipment

Kulieša, Remigijus 08 January 2006 (has links)
The information system created performs the following functions: standardizes the process of failure registration and management; allows monitoring and receiving information in different sections adapted for certain groups; provides opportunity to evaluate the existing situation of provision with equipment and plan future investments within time scale; allows service of a whole group of users in one time. The information system has been created by using open source software – which enables to avoid additional investments.
489

Valstybinio žemės kadastro duomenų bazės reinžinerija / Reengineering of State Land Cadastre Database

Hakas, Artūras 20 September 2004 (has links)
Currently there are many software systems for creating data bases widely used in the world. There were made an analysis of existing software and customer needs in this work. There were made an analysis of Object-oriented programing, CASE – computer aided system engeenering, Component modeling, MS Access. To understand business environment I created Business Interaction Model, Workflow models, Use Case Model. For this purpose I used ProVision Workbench package. I created data base project. I used MS Access XP because of its stability, multipurpose, potential, good working with Windows 9*, Windows 2000, Windows XP operational systems. There were made an User Interface, including forms , reports, queries.
490

Applications of Quantum Cryptography

Nagy, Naya 12 March 2010 (has links)
This thesis extends the applicability of quantum cryptography. First, we prove that quantum cryptography at least equals classical cryptography in an important area, namely authentication. The quantum key distribution protocols presented here show that, contrary to previous belief, authentication can be done with quantum methods only. In addition, we have designed quantum security systems in unconventional settings. The security of sensor networks poses specific challenges, as the sensor nodes in particular can be physically picked up by the intruder. Our scheme protects both the integrity of the communication messages and it also protects the identity of the nodes, such that a reading intrusion of a node is detectable. The problem of access control in a hierarchy refers to a large number of users, organized in a hierarchy, having selective access rights to a database. Our quantum solution introduces quantum keys to the effect that the cryptographic scheme is dynamically adaptable to changes in the user structure, and it exhibits increased security levels. To the best of our knowledge, this thesis is the first to introduce quantum keys, that is secret keys defined by an array of qubits. We show that quantum keys make it possible for two parties to communicate with one-time pads without having to meet in advance. Also, opposite to previous cryptographic ``common sense", the security level of a quantum cryptosystem with quantum keys and quantum messages increases while being used, meaning the security increases over time. / Thesis (Ph.D, Computing) -- Queen's University, 2010-03-12 11:38:07.086

Page generated in 0.0755 seconds