• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 125
  • 75
  • 26
  • 22
  • 13
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 338
  • 50
  • 48
  • 47
  • 47
  • 46
  • 45
  • 43
  • 43
  • 42
  • 40
  • 39
  • 38
  • 37
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Konzeption eines Repositoriums für Fachkomponenten

von der Tann, Markus 14 April 2003 (has links) (PDF)
Aufgrund der Nachteile großer, unhandlicher Anwendungssysteme wird seit geraumer Zeit das Ziel verfolgt, derartige Systeme aus einer Menge von Softwarebausteinen zusammenzusetzen. Diese komponentenorientierte Vorgehensweise trägt insbesondere der Wiederverwendung bereits entwickelter Software Rechnung und bietet sowohl Anbietern als auch Nachfragern solcher Fachkomponenten viele potentielle Vorteile (z.B. hinsichtlich Qualität, Kosten, Flexibilität etc.). Um diese potentiellen Vorteile auch ausschöpfen zu können, müssen einige wichtige Voraussetzungen geschaffen werden. So ist es zwingend notwendig, eine Standardisierung von Fachkomponenten und deren Spezifikation vorzunehmen. Weiterhin bedarf es eines Systems für die Archivierung und das Wiederauffinden der standardisierten Fachkomponenten als Voraussetzung für deren Wiederverwendung. Hinsichtlich der Problemstellung einer Standardisierung von Fachkomponenten wurde in der Vergangenheit bereits intensive Vorarbeit geleistet. Diese Bestrebungen wurden schließlich durch den Arbeitskreis 5.10.3 der Gesellschaft für Informatik (GI) im Memorandum „Vorschlag zur Vereinheitlichung der Spezifikation von Fachkomponenten“ integriert. Die Problemstellung der Archivierung bzw. der Wiederauffindbarkeit von Fachkomponenten wurde hingegen bisher kaum berücksichtigt. Viele bereits entwickelte Konzepte von Komponentenbibliotheken verwalten archivierte Bausteine proprietär und bieten keine geeignete Möglichkeit der Verwaltung von standardisierten Komponenten. Um Fachkomponenten jedoch in der vorgesehenen Art und Weise wiederverwenden zu können, müssen diese Probleme mittels geeigneter Konzepte gelöst werden. Der Ansatz, ein Ordnungs- bzw. Dokumentationssystem zur Unterstützung der oben genannten Aufgaben zu entwickeln, welches Fachkomponenten auf der Basis der vereinheitlichten Spezifikationsmethode verwaltet, erscheint hier besonders vielversprechend. Ziel dieser Arbeit ist es, ein fachliches Konzept für ein derartiges Ordnungssystem in Form eines Komponenten-Repositoriums zu entwickeln, welches als Ausgangspunkt für die Realisierung eines prototypischen Softwaresystems verwendbar ist. Dabei sollen insbesondere die Ergebnisse der Standardisierungsbestrebungen des Arbeitskreises 5.10.3 der GI berücksichtigt werden.
162

Chancen im OPUS: Automatisiert SWD-Schlagwörter produzieren

Herb, Ulrich 21 August 2009 (has links) (PDF)
Die Folien skizzieren einen Projektantrag, der (2008 und überarbeitet 2009) bei der Deutschen Forschungsgemeinschaft DFG eingereicht wurde. Absicht der beiden Antragssteller, des Instituts der Gesellschaft zur Förderung der Angewandten Informationsforschung (IAI, http://www.iai.uni-sb.de/iaide/index.htm) und der Saarländischen Universitäts- und Landesbibliothek (SULB, http://www.sulb.uni-saarland.de), war es, die am IAI entwickelte Software AUTINDEX zur halbautomatischen Verschlagwortung in Open-Access-Repositories einzubinden. Da Autoren große Mühe mit der Verschlagwortung ihrer Dokumente nach der Schlagwortnormdatei (SWD) haben, sollten sie, ganz im Sinne des "Easy Submission"-Postulats, beim Enspielen der Dokumente unterstützt werden. Mit Hilfe einer linguistisch intelligenten Software sollten automatisch Schlagwörter aus der SWD zu einem eingereichten Dokument erzeugt und dem Autoren angeboten werden. Dieser hätte anschließend entschieden, welche der angebotenen Schlagwörter er dem Dokument zuweisen möchte. Der typische Workflow beim Einspielen von Dokumenten verlangt vom Autor das Ausfüllen eines Metadatenformulars, idealerweise inklusive der Beschreibung mit SWD-Schlagworten. Da die SWD den Autoren nicht vertraut ist, vergeben diese meist unexakte, zu grobe oder falsche Schlagworte - oder solche, die in der SWD nicht existieren. Daher wird ein aufwändiges Nachbearbeiten seitens des Serverbetreibers nötig, der zwar über Expertise in der SWD-Nutzung verfügt, allerdings das Dokument nicht so exakt beschreiben kann wie es dem Autoren möglich wäre. Für ein exaktes Retrieval wäre es sinnvoll, wenn die Wissenschaftler selbst eine exakte Verschlagwortung vornähmen. Die im mittlerweile leider abgelehnten Antrag geplante prototypische, offene und nachnutzbare Einbindung einer Software zur automatischen Vergabe von SWD-Schlagworten hätte eine erhebliche Erleichterung des Veröffentlichungs- und Bearbeitungsprozesses einerseits und eine Verbesserung der Metadatenqualität andererseits gesichert.
163

軟體典藏庫資料分析:以GitHub為例 / Data Analysis for Software Repository: A Case Study of GitHub

劉耀文, Liu, Yao Wen Unknown Date (has links)
GitHub是2008年開始發展,提供線上源碼託管服務的網路平台。除了提供使用者建立組織、專案和存取軟體庫之外,更提供一些網站社交功能,包括允許使用者追蹤其他用戶、加入專案組織與關注軟體庫的動態,並且對於軟體源碼的修改和針對程式錯誤(bug)提出評論等,使用者或組織成員透過平台上版本控管服務來共同開發軟體專案,並透過GitHub提供的社交服務來完成溝通與協調。 本研究針對GitHub資料集進行整體性的觀察與分析,透過不同的社群網絡指標與分析方法,發現GitHub平台上的協同合作與社交活動。舉例來說,為了找出GitHub上網路的彈性,我們使用度分布,還有近距中間度及參與中間度的值。同時,我們針對使用者或專案之間的互動情形來分析關聯性,並以平台上不同的操作事件來觀察使用者是否偏好某些行為,抑或是某些事件之間是否會互相影響。 研究目標希望能透過GitHub平台所取得的部分資料,來推論GitHub上的真實情況。希望透過專案之間的關聯性,來找出平台上最具影響力的專案或使用者;也將針對程式語言與公司組織的關聯性,觀察技術之間的可替代性,與公司之間的相互合作的情況。同時以GitHub平台上不同操作事件之間的相關性,觀察出何種操作行為會影響使用者進行貢獻(提交源碼)。 另一方面,本研究將以專案的吸引力與黏著度等角度,來針對GitHub平台上的專案進行分析。針對這兩種維度進行觀察,期望進一步得知專案的貢獻程度,與專案隨著時間的所產生的變化。換言之,本研究方法將針對資料集中所有專案進行演進的推論,區分出專案演進的四個階段(活躍期、流動期、穩定期、衰退期),並分析出目前GitHub上專案所處於的階段,最後研究出各階段轉換所可能的機率為何,進一步推論出專案未來演進的趨勢。最後,本研究提出了其他延伸之議題,例如重新定義專案演進階段、選擇適合的專案成員與專案的推薦等,以提供未來可行的研究方向。 / GitHub began to develop in 2008, providing an online open source hosting platform. In addition to providing user-created organizations, projects and software repositories, it also provides more social features, including allowing users to track other users, join the dynamic project or organization, watch software repositories, modify the source code for the software, and make comments for the program error (bug). In this study, we analyze of GitHub data sets; by using different network indicators and analysis methods in order to find collaboration and social activities on GitHub plat-form. For example, in order to find flexibility of networks on GitHub, we analyze degree distributions and values of closeness centrality as well as betweenness centrality. At the same time, we investigate the interaction between GitHub users and projects in order to analyze the correlation between them. On the other hand, we analyze attraction and adhesion of the projects on GitHub platform. By using these two indicators, we can get the degree of contribution of the pro-jects, and the changes of the projects over time. We consider the four stages of evolution (active, flow period, stable, recession) of the projects on GitHub. Finally, we study the probability of transition of the all stages, and further we infer the trend of the future evo-lution of the projects on GitHub. Finally, this study could be extended and used to support other studies. For example, we can redefine the evolution stage of a project, select members for the project, and rec-ommend the project.
164

Įmonės metaduomenų saugykla / Enterprise metadata repository

Čepenko, Dmitrijus 31 August 2011 (has links)
Darbe analizuojamas metaduomenų saugyklų kūrimas pritaikant veiklos modeliavimo metodo metamodelį. Apžvelgtos metaduomenų saugyklų ir veiklos modeliavimo metodų bei notacijų BPMN, ARIS, GRAI tinklo, UEML savybės, jų pritaikymo metaduomenų saugykloms projektuoti galimybės. Atrinktas tinkamiausias veiklos modeliavimo metodas ARIS, kuris apima daugiausiai organizacijos veiklos aspektų. Sukurta metaduomenų saugykla panaudojant ARIS veiklos modeliavimo metodo metamodelį, kuri pritaikyta įmonės UAB „Klaipėdos Konteinerių Terminalas“ duomenų srautams valdyti ir integruota su įmonės naudojama informacine sistema. Šios saugyklos pagalba metaduomenys, išgauti iš įvairių įmonės dokumentų, suskirstomi pagal skirtingus veiklos aspektus: darbo vietas, veiklos funkcijas, padalinius. Išnagrinėtas metaduomenų saugyklų kūrimas UEML, GRAI tinklo, BPMN metamodelių pagrindu bei jų savybės ir palygintos su ARIS metodo metamodelio pagrindu sukurtos metaduomenų saugyklos savybėmis. Nustatyta, kad veiklos modeliavimo metodo ARIS taikymas leidžia sukurti metaduomenų saugyklą, apimančią daugiau įmonės veiklos aspektų. Tai leidžia geriau identifikuoti įmonės duomenų pokyčius ir vietą veiklos valdymo procese. / This paper analyses creation of a metadata repository by implementing the meta-model of enterprise modelling methods and notations. It encompasses overviews of metadata repository qualities of UEML, ARIS, GRAI Grid, BPMN enterprise modelling methods and notations and their application in designing metadata repositories. ARIS method was selected as the most suitable enterprise modelling method because it encompasses the largest number of aspects of the enterprise activity. Employing this method meta-model, a metadata repository was created and integrated with the informational system of the company UAB „Klaipėdos Konteinerių Terminalas“ for more efficient management of the company’s data flows. With the help of this metadata repository data extracted from various company’s documents is grouped according to different aspects of the company’s activity: workplaces, departments, job functions, etc. The paper investigates creation of metadata repositories on the basis of UEML, GRAI Grid and BPMN meta-models and compares their qualities with those of a metadata repository created on the basis of ARIS meta-model. It has been established that application of ARIS enterprise modelling method enables to create a metadata repository encompassing more aspects of the enterprise’s activity. It allows to better identify changes in the enterprise’s documents and their place in the activity management process.
165

Base referencial para o povoamento de repositórios institucionais: coleta automatizada de metadados da Plataforma Lattes

Matias, Mesailde Souza de Oliveira 14 August 2015 (has links)
Made available in DSpace on 2016-06-03T21:11:19Z (GMT). No. of bitstreams: 1 DissMSOM.pdf: 2216662 bytes, checksum: 491d51f338496c8de2f29f3447d09b5b (MD5) Previous issue date: 2015-08-14 / Open institutional repositories (IR) have became a major instrument for providing open access to global scientific production. In addition to providing scientific documents, IR can be used to fulfill institutional interests of the institution, such as promoting the storage of documentation, preserving institutional memory and also bringing worldwide exposure to its production. The implementation of an IR, however, depends on a number of activities, where one of the major challenges is populating it with data. In order to find solutions to improve the process of populating an IR, the aim of this work was to develop a system to automatically extract metadata from the Lattes Platform, inserting this metadata in a reference database, regarded as an intermediate step for populating the IR. Besides easing the submission process, the reference base will be able to support effective marketing campaigns to foster the auto-archival of scientific works. Our approach consists of a qualitative research, developed through action research, within the Federal University of São Carlos – UFSCar. The achieved results comprised the development of a collection of automated solutions essential for gathering and handling metadata to be imported by DSpace. The solution here proposed can be implemented by any institution, with or without an IR, strongly contributing to maximize scientific communication by automating part of the process of implementing and maintaining institutional repositories. / Os repositórios institucionais abertos (RI) tornaram-se um dos principais instrumentos para o acesso aberto à produção científica global. Além da disponibilização de documentos científicos, os RI podem ser utilizados para os diversos interesses da instituição, promovendo armazenamento de suas documentações, preservação da memória institucional e também dando visibilidade mundial para sua produção. A implementação de um RI, no entanto, envolve uma série de ações, onde um dos grandes desafios é o seu povoamento. Visando contribuir para uma solução que minimize o esforço humano necessário para o povoamento do repositório, o objetivo geral deste trabalho foi desenvolver uma sistemática automatizada de extração de metadados provenientes da Plataforma Lattes realizando a inclusão dos dados em uma base referencial, considerada uma etapa intermediária no processo de povoamento do RI. Além de facilitar o processo de submissão, a base referencial poderá amparar efetivas políticas de divulgação e de incentivo ao autodepósito da produção científica. Trata-se de uma pesquisa de natureza qualitativa, desenvolvida por meio de pesquisa-ação, tendo como unidade-caso a Universidade Federal de São Carlos – UFSCar. Os resultados alcançados compreenderam o desenvolvimento de um conjunto de soluções automatizadas, necessárias à coleta, tratamento e importação dos metadados pela ferramenta DSpace. A solução de povoamento aqui proposta poderá ser implementada em qualquer outra instituição que possua ou não um RI, contribuindo fortemente para a maximização da comunicação científica ao automatizar parte do processo de implementação e manutenção de repositórios institucionais.
166

Multi-version software quality analysis through mining software repositories

Kriukov, Illia January 2018 (has links)
The main objective of this thesis is to identify how the software repository features influence software quality during software evolution. To do that the mining software repository area was used. This field analyzes the rich data from software repositories to extract interesting and actionable information about software systems, projects and software engineering. The ability to measure code quality and analyze the impact of software repository features on software quality allows us to better understand project history, project quality state, development processes and conduct future project analysis. Existing work in the area of software quality describes software quality analysis without a connection to the software repository features. Thus they lose important information that can be used for preventing bugs, decision-making and optimizing development processes. To conduct the analysis specific tool was developed, which cover quality measurement and repository features extraction. During the research general procedure of the software quality analysis was defined, described and applied in practice. It was found that there is no most influential repository feature and the correlation between software quality and software repository features exist, but it is too small to make a real influence.
167

Cryptography and computer communications security : extending the human security perimeter through a web of trust

Adeka, Muhammad I. January 2015 (has links)
This work modifies Shamir’s algorithm by sharing a random key that is used to lock up the secret data; as against sharing the data itself. This is significant in cloud computing, especially with homomorphic encryption. Using web design, the resultant scheme practically globalises secret sharing with authentications and inherent secondary applications. The work aims at improving cybersecurity via a joint exploitation of human factors and technology; a human-centred cybersecurity design as opposed to technology-centred. The completed functional scheme is tagged CDRSAS. The literature on secret sharing schemes is reviewed together with the concepts of human factors, trust, cyberspace/cryptology and an analysis on a 3-factor security assessment process. This is followed by the relevance of passwords within the context of human factors. The main research design/implementation and system performance are analysed, together with a proposal for a new antidote against 419 fraudsters. Two twin equations were invented in the investigation process; a pair each for secret sharing and a risk-centred security assessment technique. The building blocks/software used for the CDRSAS include Shamir’s algorithm, MD5, HTML5, PHP, Java, Servlets, JSP, Javascript, MySQL, JQuery, CSS, MATLAB, MS Excel, MS Visio, and Photoshop. The codes are developed in Eclipse IDE, and the Java-based system runs on Tomcat and Apache, using XAMPP Server. Its code units have passed JUnit tests. The system compares favourably with SSSS. Defeating socio-cryptanalysis in cyberspace requires strategies that are centred on human trust, trust-related human attributes, and technology. The PhD research is completed but there is scope for future work.
168

Uma investigação sobre a autoria de dados científicos : teias de uma rede em construção

Medeiros, Jackson da Silva January 2015 (has links)
Estudo qualitativo de natureza descritiva, objetivando analisar a autoria científica a partir do compartilhamento de dados de pesquisa. Para esta finalidade, foi utilizada a Teoria Ator-Rede (ANT), a qual busca, a partir de uma ideia de simetria entre humanos e não humanos, não assumir uma divisão entre essas entidades, possibilitando visualizar o estabelecimento e a dissolução de uma rede a partir das relações que se criam em diversos níveis. Esses atores-rede, actantes, estão mobilizados para a estruturação de redes temporárias a partir de um programa de ações, através da transformação e da modificação do significado ou dos elementos que veiculam. Os dados levantados, os quais serviram de base para descrição e análise a partir da literatura que também emergiu do que foi coletado, foram recolhidos a partir de observação, de entrevistas e de materiais bibliográficos. A investigação ocorreu junto ao Repositório de Dados de Estudos Ecológicos do Programa de Pesquisa em Biodiversidade (PPBio). Conclui que os objetos conceituais e pragmáticos não podem ser vistos de maneira isolada, mas sim como atores-rede afetados diretamente pela tecnologia, devendo ser considerados atuantes importantes no processo de produção, compartilhamento e uso de dados digitais de pesquisa. A construção de um fato científico e social como a autoria, é coordenada por uma série de elementos que foram levantados com o auxílio da ANT, como a coleta de dados, a curadoria, os próprios dados científicos, seus metadados, as fontes de fomento, a política de dados, o repositório e seus softwares de gerenciamento e envio de dados e metadados, o licenciamento, a propriedade e a responsabilidade, agindo como um tipo de instrumentalização de um arranjo de fenômenos, isto é, uma ferramenta que, atuante como conceito e/ou como processo, permite que seja consolidado um conjunto de ações instituídas a partir de regras explícitas e implícitas. / Qualitative study of descriptive nature, aimed to analyze the scientific authorship from the data sharing. For this purpose, we used the Actor-Network Theory (ANT), which seeks, from an idea of symmetry between human and non-human, do not assume a division between those entities, allowing to view the establishment and dissolution of a network from the relationships that are created at different levels. These actors-network, actants, are mobilized for structuring temporary networks from an action program, through the transformation and modification of the meaning or the elements they provide. The data collected, which were the basis for description and analysis from the literature that also emerged from what ware collected by observation, interviews and bibliographic materials. The study was carried out by the Repositório de Dados de Estudos Ecológicos do Programa de Pesquisa em Biodiversidade (PPBio). Concludes that conceptual and pragmatic objects can not be seen in isolate way, but as actors directly affected by the technology, should be considered important actants in the process of production, sharing and use of digital research data. The construction of a scientific and social fact as authorship, is coordinated by a number of elements that were raised with the help of ANT, such as data collection, curation, scientific data and its metadata, funding sources, data policy, repository and its management software for data and metadata, licensing, ownership and responsibility, acting as a kind of exploitation of a phenomena arrangement, ie, a tool that can be seen as concept and/or as a process, allows it to be consolidated a set of actions established from explicit and implicit rules.
169

Repositório híbrido: uma proposta para a gestão da informação científica, artística e cultural da IES do SENAI Bahia

Silva, Rita de Cássia Machado da January 2013 (has links)
Submitted by Valdinei Souza (neisouza@hotmail.com) on 2015-10-07T20:09:00Z No. of bitstreams: 1 SILVA-RCM-2013.pdf: 2991638 bytes, checksum: 84e0555fc87c195f89037b6d771be87a (MD5) / Approved for entry into archive by Urania Araujo (urania@ufba.br) on 2015-10-29T18:38:42Z (GMT) No. of bitstreams: 1 SILVA-RCM-2013.pdf: 2991638 bytes, checksum: 84e0555fc87c195f89037b6d771be87a (MD5) / Made available in DSpace on 2015-10-29T18:38:42Z (GMT). No. of bitstreams: 1 SILVA-RCM-2013.pdf: 2991638 bytes, checksum: 84e0555fc87c195f89037b6d771be87a (MD5) / Trata-se de um estudo que tem como finalidade identificar a adequação do repositório híbrido na gestão da informação científica e artística produzida na IES do SENAI Bahia. Para atingir o objetivo, buscar-se-á pesquisar o nível de conhecimento dos profissionais do Sistema FIEB sobre o movimento de acesso aberto e o uso de repositórios no processo de comunicação e uso da informação. Dessa forma, será possível identificar as práticas de tratamento da informação disponível no meio digital, realizadas pela instituição. A população utilizada foi o corpo de funcionários que atuam como coordenadores de cursos superiores e de pós-graduação, assim como os que trabalham nos seguintes setores: o Núcleo de Pesquisa Aplicada (NPA), que oferece suporte à gestão técnica e financeira de projetos de pesquisa; o Núcleo de Propriedade Intelectual (NPI), que gerencia tanto os procedimentos protetivos da propriedade intelectual dos produtos e/ou processos quanto resultados de projetos de Pesquisa, Desenvolvimento e Inovação (P&D&I) – seja os dos serviços técnicos e tecnológicos ou os de educação profissional das unidades operacionais do SENAI-BA; o Núcleo de Educação a Distância (NEAD), que desenvolve objetos de aprendizagem; e a Biblioteca que gerencia a produção intelectual e documental da Instituição, salvaguardando a memória institucional. Trata-se de um estudo de caso, com abordagens qualitativas e quantitativas, cujos métodos, para o alcance dos objetivos estabelecidos, são o descritivo e o exploratório. O instrumento utilizado para coleta de dados foi o questionário semiestruturado aplicado por meio do sistema Survey Monkey. O repositório híbrido é considerado uma ferramenta que reúne várias obras (livros, artigos, vídeos, imagens, entre outros) disponibilizando-as em diferentes formatos (pdf, jpg, txt, avi, doc, e-pub, entre outros), propondo promover a partilha, a (re) utilização de recursos e objetos de aprendizagem. Ao refletir sobre seu uso, neste estudo, observa-se que as comunidades de prática (bibliotecas, aprendizagem a distância, sistemas de informação, publicações e gestão de registros) têm um importante papel em seu desenvolvimento e manutenção. Nessa perspectiva, verifica-se que a falta de uma gestão eficaz da informação científica, técnica e artística, disponíveis no ambiente digital, além de ocasionar dificuldades na acessibilidade e intercâmbio da informação, pode inviabilizar sua preservação, difusão e também dificultar a expansão da visibilidade da instituição. / ABSTRACT This is a study that aims to identify the suitability of the hybrid repository in the management of scientific and artistic information produced in IES - Senai, Bahia. To achieve the goal, seeking will study the level of knowledge of the professionals at FIEB system about the open access movement and use of repositories in the process of communication and information use. Thus, it was possible to identify the treatment practices of information available in digital media, performed by the institution. The population used was the body of employees who act as coordinators of undergraduate courses and postgraduate, as well as those working in the following sectors: the Center for Applied Research (NPA), which supports the technical and financial management of projects Research, the Center for Intellectual Property (NPI), which manages both the protective procedures of intellectual property products and / or the processes as outcomes of Research projects, Development and Innovation (R & D & I) - as is the technical and technology services or of professional education units operating at Senai-BA, the Center for Distance Education (NEAD), which develops learning objects, and the library that manages the intellectual and documentary output of the institution, safeguarding the institutional memory. This is a case study with qualitative and quantitative approaches, whose methods to achieve the established objectives, are descriptive and exploratory. The instrument used for data collection was a semi-structured questionnaire administered using the Survey Monkey system. The hybrid repository is considered a tool that combines several works (books, articles, videos, images, etc.) making them available in different formats (pdf, jpg, txt, avi, doc, e-pub, among others), proposing to promote sharing, the (re) use of resources and learning objects. Reflecting on their use, in this study, it is observed that communities of practice (libraries, distance learning, information systems, publications and records management) have an important role in its development and maintenance. In this perspective, it appears that the lack of an effective management of scientific information, technical and artistic, available in the digital environment, in addition to causing difficulties in the accessibility and exchange of information, can derail their preservation, dissemination and also hinder the expansion of the institution visibility.
170

A interoperabilidade semântica na perspectiva da organização do conhecimento: uma proposta para o repositório institucional da Universidade Federal do Espírito Santo / The semantic interoperability in the context of knowledge organization: a proposal for the Federal University of Espírito Santo Institutional Repository

Andrade, Morgana Carneiro de January 2012 (has links)
Submitted by Patricia Barros (patricia.barros@ufes.br) on 2016-08-03T15:43:21Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andrade_Morgana_C_Me_2012.pdf: 1310394 bytes, checksum: 74a1f6958265c74d8917881b0586f55f (MD5) / Approved for entry into archive by Patricia Barros (patricia.barros@ufes.br) on 2016-08-03T15:44:32Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andrade_Morgana_C_Me_2012.pdf: 1310394 bytes, checksum: 74a1f6958265c74d8917881b0586f55f (MD5) / Made available in DSpace on 2016-08-03T15:44:32Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andrade_Morgana_C_Me_2012.pdf: 1310394 bytes, checksum: 74a1f6958265c74d8917881b0586f55f (MD5) / Os repositórios institucionais têm-se tornado uma alternativa relevante para as instituições de pesquisa e ensino reunirem o conhecimento produzido em um único local, facilitando a gestão da produção intelectual e a sua socialização. Um dos pré- requisitos para que os repositórios cumpram esse papel é que eles possibilitem a interoperabilidade semântica, não só entre os repositórios como em relação aos outros serviços de informação. O objetivo deste estudo é analisar o elemento de metadado Subject do Dublin Core (dc.subject), sob a perspectiva da organização do conhecimento, a fim de fornecer subsídios para que o Repositório Institucional da Universidade Federal do Espírito Santo (UFES) alcance a interoperabilidade semântica, especificamente no nível dos dados categorizados. Como recursos metodológicos, foram adotadas as pesquisas documental e descritiva, com abordagem quali-quantitativa, utilizando o método de estudos de casos múltiplos. A amostra constitui-se de 38 repositórios institucionais contemplados pelos Projeto Piloto e Editais 01/2009 e 02/2010 IBICT/FINEP, dos quais 26 participaram da pesquisa. Dois dos repositórios institucionais não foram localizados; seis não responderam; e quatro justificaram sua não participação em razão de os repositórios se encontrarem em fase de implantação ou mudança de coordenação. Para a coleta de dados, foram utilizados um roteiro de pesquisa, uma planilha, que orientou a identificação das informações registradas nos sites dos repositórios selecionados, e um questionário eletrônico EncuestaFacil. Identificou-se que o padrão de metadados usado pela totalidade desses repositórios é o Dublin Core, e que alguns utilizam mais de um. A pesquisa apontou alguns fatores  como a falta de controle de vocabulário na maioria dos repositórios  que poderiam ser evitados com a disponibilização de instrumentos que facilitam a identificação de descritores pelos depositantes ; baixo índice de descritores traduzidos para o inglês; ausência de exposição de vocabulários controlados e de esquemas de classificação. Conclui-se que o panorama atual apresentado pelos repositórios institucionais nacionais necessita de um alinhamento com iniciativas internacionais em prol da interoperabilidade semântica. É necessário que os procedimentos adotados por gestores e pelo pessoal envolvido com os RIs sigam boas práticas em relação aos metadados e à Organização do Conhecimento. / The institutional repositories have become a most considerable alternative for the research and education institutions. They optimize the scientific and technological advance and assemble the generated knowledge in a single spot which facilitates the intellectual production management and its socialization. One of the requirements for the repositories to fulfill their role is to enable the semantic interoperability, not only among repositories, but also concerning other information services. This study aims to analyse the Dublin Core metadata element set – Subject (dc.subject) from the perspective of the knowledge organization in order to provide support for the UFES institutional repository to achieve the semantic interoperability, specifically at the categorical data. The methodologyl used here was the descriptive and documentary research. The approach was quali-quantitative analysis and the method was the multiple case study. All the 38 institutional repository included in the Projeto Piloto and Editais 01/2009 and 02/2010 IBICT/FINEP were contacted (two of the IR were not located, six did not return the questionnaire and four apologized for not contributing due to administrative matters), so therefore only 26 participated of the research. For the data collection were used a research script which contains aspects that identify the repositories and a spreadsheet that guided the identification of the information recorded on the sites of the selected repositories and EncuestaFacil eletronic query. The pattern of metadata adopted by all those repositories is Dublin Core, and some make use of more then one (pattern). The research point out to some problems such as: the lack of vocabulary control in most repositories that could be avoided by making the instruments to identify the descriptors acessible to people in putting data; small rate of descriptors translated into English; absence of controlled vocabulary or classification schemas. This study demonstrates that current situation presented by the national institutional repositories urgs alignment with international initiatives in favor of semantic interoperability. It is necessary that managers and staff who are involved in the IRs adopt good practices and standard procedures regarding the metadata and the knowledge organization.

Page generated in 0.0489 seconds