Spelling suggestions: "subject:"[een] INTEROPERABILITY"" "subject:"[enn] INTEROPERABILITY""
321 |
A interoperabilidade semântica na perspectiva da organização do conhecimento: uma proposta para o repositório institucional da Universidade Federal do Espírito Santo / The semantic interoperability in the context of knowledge organization: a proposal for the Federal University of Espírito Santo Institutional RepositoryAndrade, Morgana Carneiro de January 2012 (has links)
Submitted by Patricia Barros (patricia.barros@ufes.br) on 2016-08-03T15:43:21Z
No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Andrade_Morgana_C_Me_2012.pdf: 1310394 bytes, checksum: 74a1f6958265c74d8917881b0586f55f (MD5) / Approved for entry into archive by Patricia Barros (patricia.barros@ufes.br) on 2016-08-03T15:44:32Z (GMT) No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Andrade_Morgana_C_Me_2012.pdf: 1310394 bytes, checksum: 74a1f6958265c74d8917881b0586f55f (MD5) / Made available in DSpace on 2016-08-03T15:44:32Z (GMT). No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Andrade_Morgana_C_Me_2012.pdf: 1310394 bytes, checksum: 74a1f6958265c74d8917881b0586f55f (MD5) / Os repositórios institucionais têm-se tornado uma alternativa relevante para as
instituições de pesquisa e ensino reunirem o conhecimento produzido em um único
local, facilitando a gestão da produção intelectual e a sua socialização. Um dos pré-
requisitos para que os repositórios cumpram esse papel é que eles possibilitem a
interoperabilidade semântica, não só entre os repositórios como em relação aos
outros serviços de informação. O objetivo deste estudo é analisar o elemento de
metadado Subject do Dublin Core (dc.subject), sob a perspectiva da organização do
conhecimento, a fim de fornecer subsídios para que o Repositório Institucional da
Universidade Federal do Espírito Santo (UFES) alcance a interoperabilidade
semântica, especificamente no nível dos dados categorizados. Como recursos
metodológicos, foram adotadas as pesquisas documental e descritiva, com
abordagem quali-quantitativa, utilizando o método de estudos de casos múltiplos. A
amostra constitui-se de 38 repositórios institucionais contemplados pelos Projeto
Piloto e Editais 01/2009 e 02/2010 IBICT/FINEP, dos quais 26 participaram da
pesquisa. Dois dos repositórios institucionais não foram localizados; seis não
responderam; e quatro justificaram sua não participação em razão de os repositórios
se encontrarem em fase de implantação ou mudança de coordenação. Para a coleta
de dados, foram utilizados um roteiro de pesquisa, uma planilha, que orientou a
identificação das informações registradas nos sites dos repositórios selecionados, e
um questionário eletrônico EncuestaFacil. Identificou-se que o padrão de metadados
usado pela totalidade desses repositórios é o Dublin Core, e que alguns utilizam mais
de um. A pesquisa apontou alguns fatores como a falta de controle de vocabulário
na maioria dos repositórios que poderiam ser evitados com a disponibilização de
instrumentos que facilitam a identificação de descritores pelos depositantes ; baixo
índice de descritores traduzidos para o inglês; ausência de exposição de vocabulários
controlados e de esquemas de classificação. Conclui-se que o panorama atual
apresentado pelos repositórios institucionais nacionais necessita de um alinhamento
com iniciativas internacionais em prol da interoperabilidade semântica. É necessário
que os procedimentos adotados por gestores e pelo pessoal envolvido com os RIs
sigam boas práticas em relação aos metadados e à Organização do Conhecimento. / The institutional repositories have become a most considerable alternative for the
research and education institutions. They optimize the scientific and technological
advance and assemble the generated knowledge in a single spot which facilitates the
intellectual production management and its socialization. One of the requirements for
the repositories to fulfill their role is to enable the semantic interoperability, not only
among repositories, but also concerning other information services. This study aims
to analyse the Dublin Core metadata element set – Subject (dc.subject) from the
perspective of the knowledge organization in order to provide support for the UFES
institutional repository to achieve the semantic interoperability, specifically at the
categorical data. The methodologyl used here was the descriptive and documentary
research. The approach was quali-quantitative analysis and the method was the
multiple case study. All the 38 institutional repository included in the Projeto Piloto
and Editais 01/2009 and 02/2010 IBICT/FINEP were contacted (two of the IR were
not located, six did not return the questionnaire and four apologized for not
contributing due to administrative matters), so therefore only 26 participated of the
research. For the data collection were used a research script which contains aspects
that identify the repositories and a spreadsheet that guided the identification of
the information recorded on the sites of the selected repositories and EncuestaFacil
eletronic query. The pattern of metadata adopted by all those repositories is Dublin
Core, and some make use of more then one (pattern). The research point out to
some problems such as: the lack of vocabulary control in most repositories that could
be avoided by making the instruments to identify the descriptors acessible to people
in putting data; small rate of descriptors translated into English; absence of controlled
vocabulary or classification schemas. This study demonstrates that current situation
presented by the national institutional repositories urgs alignment with international
initiatives in favor of semantic interoperability. It is necessary that managers and staff
who are involved in the IRs adopt good practices and standard procedures regarding
the metadata and the knowledge organization.
|
322 |
Metadados para a descrição de recursos da Internet: o padrão Dublin Core, aplicações e a questão da interoperabilidadeGrácio, José Carlos Abbud [UNESP] 29 August 2002 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:26:45Z (GMT). No. of bitstreams: 0
Previous issue date: 2002-08-29Bitstream added on 2014-06-13T20:55:15Z : No. of bitstreams: 1
gracio_jca_dr_mar.pdf: 324329 bytes, checksum: 3ffd9c072e7ad8dd22a5764246309d9b (MD5) / Os avanços na Ciência e Tecnologia, particularmente na informática e nas telecomunicações, fizeram com que a Internet se tornasse uma das mais importantes fontes de informação. Ao mesmo tempo, a carência de dados adequados sobre os recursos disponíveis na Web leva à necessidade de criação de elementos descritivos que possam contribuir para a representação de tais recursos. Nesse sentido, a utilização de metadados parece ser a melhor solução para o problema. Metadados podem ser definidos como um conjunto de elementos que descrevem as informações contidas em um recurso, permitindo, assim, sua busca e recuperação. Desse modo, tem-se os metadados em, seu conceito, funcionamento, padrões existentes e formas de utilização, bem como as características e a estrutura do padrão Dublin Core para descrição de recursos na Web e, ainda, um estudo de diversos projetos que utilizam metadados. A análise dos projetos indica que o padrão Dublin Core, composto de um conjunto de 15 elementos, vem sendo amplamente utilizado por sua simplicidade de descrição, extensibilidade e interoperabilidade. Essa última característica é um requisito importante, considerando-se os diversos padrões de metadados existentes, pois a correspondência entre eles é fundamental para a troca de informações. Os resultados obtidos indicam que estudos de metadados conduzem à interoperabilidade entre os padrões existentes e sua representação por linguagens de marca, como a linguagem XML, juntamente com a arquitetura RDF. / Advances in Science and Technology, particularly in computing science and telecommunication, have made the Internet one of the most important sources of information. At the same time, the lack of adequate data about the resources available on the Web calls for the need to create descriptive elements which may contribute to represent such resources. In this sense, the development of metadata seems to be the best solution to the problem. Metadata are a set of elements designed to describe the information of a resource, thus allowing its search and retrieval. This work presents a discussion of metadata, how they work on the Web, the existing standards and their use, the concepts found in various domains, the characteristics and structure of the Dublin Core standard used to describe the Web resources, and also a study of several projects adopting metadata. The analysis of the projects shows that the Dublin Core standard, which is a 15-element set of descriptors, has been widely used for its simplicity, extensibility and interoperability. The latter characteristic is an important requirement when considering the various metadata standards currently in use, since their correspondence is fundamental to information exchange. The results obtained indicate that metadata studies lead to interoperability among the existing standards and their representation by markup languages like XML, as well as RDF architecture.
|
323 |
Uma Arquitetura aberta para a integração de sistemas de gerência de documentos e sistemas de gerência de workflow / An open architecture for document management systems and workflow management systems integrationAmaral, Vinicius Leopoldino do January 1999 (has links)
A utilização de sistemas de gerência de documentos e de sistemas de gerência de workflow vem crescendo de forma expressiva nos últimos anos, motivados pela expectativa de obter-se benefícios organizacionais importantes, como o maior compartilhamento da informação e o aumento da eficiência dos processos. Pelo fato de a maioria dos processos organizacionais envolver a manipulação de documentos, é necessário, em grande parte das vezes, que esses sistemas trabalhem em conjunto. No entanto, a maioria das integrações entre tais produtos são proprietárias, causando prejuízos como a redução da liberdade de escolha dos usuários, a maior dificuldade de integração com sistemas legados e o aumento da dependência em relação aos fornecedores dos produtos. Para solucionar esse problema, este trabalho propõe uma arquitetura aberta de integração entre sistemas de gerência de documentos e sistemas de gerência de workflow. O fundamento dessa arquitetura está na utilização de dois padrões emergentes da indústria: o padrão DMA, proposto pela AIIM, e o padrão WAPI, proposto pela WfMC. O padrão DMA consiste de uma API, a ser invocada pelos aplicativos clientes de documentos, de uma SPI, a ser implementada e oferecida pelos sistemas de gerência de documentos, e de um middleware, responsável pela conexão entre os clientes e servidores de documentos. O padrão WAPI consiste de uma linguagem padrão para a definição de processos e de uma API, a ser invocada pelo aplicativo cliente de workflow e implementada pelo sistema de gerência de workflow. A arquitetura proposta compõe-se de três elementos. Primeiramente, um mecanismo integrado para a modelagem de documentos e workflow. Assim, é possível definir quais documentos serão manipulados pelo processo, e que operações cada participante poderá executar sobre ele. Esse mecanismo baseia-se exclusivamente nos padrões oferecidos pela WAPI e pela DMA. Em segundo lugar, é definido e implementado, na linguagem Java, um módulo de software denominado camada de serviços, oferecendo serviços integrados de gerência de documentos e gerência de workflow. Os métodos dessa camada invocam os métodos WAPI e DMA necessários à sua execução. Assim, qualquer DMS aderente à DMA pode ser integrado a qualquer WFMS aderente à WAPI, de forma completamente transparente. Por final, é desenvolvido um aplicativo cliente, também em linguagem Java, que acessa os métodos da camada de serviços, oferecendo uma interface gráfica para o usuário. Os resultados demonstram a viabilidade de uma integração aberta entre sistemas de gerência de documentos e sistemas de gerência de workflow. Ainda, mostram a importância de uma modelagem integrada de documentos e workflow. / The document management systems and the workflow management systems areas have been facing an impressive growth in the last years, driven by the desire to achieve important organizational benefits, as an increased information sharing and more efficient processes. Since most business processes involve document manipulation, it is often needed that these systems work together. However, most products are integrated in a proprietary way, therefore reducing user's freedom of choice, increasing the difficulty of legacy systems integration and rising the dependency from product vendors. In order to overcome this problem, this work proposes an open architecture for document management systems and workflow management systems integration. The architecture's fundamentals is the usage of two emerging industry standards: DMA, proposed by AIIM, and WAPI, proposed by WfMC. DMA consists of an API, to be invoked by client document applications, of an SPI, to be implemented and offered by document management systems, and of a middleware, responsible for connecting clients to document servers. WAPI consists of a standard process definition language and of an API, to be invoked by workflow client applications and implemented by workflow management systems. The proposed architecture is composed by three elements. First, an integrated mechanism for document and workflow modeling is defined. Therefore, it is possible to define which documents will be used in the process, and which operations each workflow participant will be allowed to execute over them. This approach is based exclusively on DMA and WAPI standards. Second, it is defined an implemented a software module called services layer, offering integrated document management and workflow management services, using the Java language. This layer's methods invoke the WAPI's and DMA's methods necessary for their execution. Therefore, any DMAcompliant DMS can be integrated to any WAPI-compliant WFMS, in a totally transparent way. Finally, a client application to access services layer's methods and offer the user a graphical interface is developed, also using the Java language. The results demonstrate the viability of an open integration between document management systems and workflow management systems. They also show the importance of an integrated document and workflow modeling.
|
324 |
Ontology-based metadata for e-learning content / Metadados para conteúdo educativo com base em ontologiasSilva Muñoz, Lydia January 2004 (has links)
Atualmente a popularidade da Web incentiva o desenvolvimento de sistemas hipermídia dedicados ao ensino a distância. Não obstante a maior parte destes sistemas usa os mesmos recursos do ensino tradicional, apresentado o conteúdo como páginas HTML estáticas, não fazendo uso das novas tecnologias que a Web oferece. Um desafío atual é desenvolver sistemas educativos que adaptem seu conteúdo ao estilo de aprendizagem, contexto e nível de conhecimento de cada aluno. Outro assunto de pesquisa é a capacidade de interoperar na Web reutilizando objetos de ensino. Este trabalho apresenta um enfoque que trata esses dois assuntos com as tecnologias da Web Semântica. O trabalho aqui apresentado modela o conhecimento do conteúdo educativo e do perfil do aluno pelo uso de ontologias cujo vocabulário é um refinamento de vocabulários padrões existentes na Web como pontos de referência para apoiar a interoperabilidade semântica. As ontologias permitem a representação numa linguagem formal dos metadados relativos a objetos de ensino simples e das regras que definem suas possíveis formas de agrupamento para desenvolver objetos mais complexos. Estes objetos mais complexos podem ser projetados para se adequar ao perfil de cada aluno por agentes inteligentes que usam a ontologia como origem de suas crenças. A reutilização de objetos de ensino entre diferentes aplicações é viabilizada pela construção de um perfil de aplicação do padrão IEEE LOM-Learning Object Metadata. / Nowadays, the popularity of the Web encourages the development of Hypermedia Systems dedicated to e-learning. Nevertheless, most of the available Web teaching systems apply the traditional paper-based learning resources presented as HTML pages making no use of the new capabilities provided by the Web. There is a challenge to develop educative systems that adapt the educative content to the style of learning, context and background of each student. Another research issue is the capacity to interoperate on the Web reusing learning objects. This work presents an approach to address these two issues by using the technologies of the Semantic Web. The approach presented here models the knowledge of the educative content and the learner’s profile with ontologies whose vocabularies are a refinement of those defined on standards situated on the Web as reference points to provide semantics. Ontologies enable the representation of metadata concerning simple learning objects and the rules that define the way that they can feasibly be assembled to configure more complex ones. These complex learning objects could be created dynamically according to the learners’ profile by intelligent agents that use the ontologies as the source of their beliefs. Interoperability issues were addressed by using an application profile of the IEEE LOM- Learning Object Metadata standard.
|
325 |
Integração entre redes heterogêneas de ativos digitais: modelo híbrido de metadados baseado em meta-modelos dinâmicosPessoa, Diego Ernesto Rosa 24 August 2012 (has links)
Made available in DSpace on 2015-05-14T12:36:34Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 4484678 bytes, checksum: 07ef67519a9b72fcf80724948f89a605 (MD5)
Previous issue date: 2012-08-24 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The increased production of digital assets in enterprise environments makes digital asset management an increasingly complex task, since we must make use of well-defined metadata, so that you can easily find and use assets from different repositories. However, obtaining a standardized model that cover the peculiarities of all involved, is usually a highly complex task due to heterogeneity between the models. In addition, is considered the fact that existing solutions specialize in solving part of the problem, leaving a gap in the other phases of the integration process. Thus, for the development of this dissertation was proposed, implemented and evaluated a service framework for metadata interoperability that aims to encompass most of the workflow of digital asset management integration process. This framework aims to bring together and complement existing solutions, providing support to semi-automatic identification of correlations between elements of metadata models and a component-based architecture responsible for the dynamic generation of meta-models, which in turn will aggregate the result of the correlation analysis and serve as a unified language, enabling interoperability between digital assets repositories, regardless the metadata standard used by each one. Lastly, the work validation was conducted by performing an experiment using a proof of concept applied to a scenario involving heterogeneous models of digital asset management real systems. The objective of experiment was perform an assessment of quality of the automatically mapping obtained. The result was accuracy up to 98% within the universe of elements that had at least an correlation suggestion, which occurred in 66% of the elements of the models. / O crescimento da produção de ativos digitais dentro de ambientes corporativos torna o gerenciamento de ativos digitais uma tarefa cada vez mais complexa, visto que é preciso fazer uso de metadados bem definidos, de maneira que seja possível localizar e utilizar facilmente ativos provenientes de diferentes repositórios. Entretanto, obter um modelo padronizado, que atenda às peculiaridades de todos os envolvidos, é normalmente uma tarefa altamente complexa, devido às heterogeneidades existentes entre os modelos. Adiciona-se ainda o fato de que as soluções existentes se especializam em resolver uma parte do problema, deixando uma lacuna nas demais fases do processo de integração. Sendo assim, para o desenvolvimento dessa dissertação, foi proposto, implementado e avaliado um framework de serviços que visa contemplar a maior parte do fluxo de trabalho do processo de integração entre sistemas de gerenciamento de ativos digitais. Esse framework visa reunir e complementar soluções já existentes, disponibilizando os recursos necessários para apoiar a identificação das correlações entre elementos dos modelos de metadados e fornecendo uma arquitetura baseada em componentes responsáveis pela geração dinâmica de meta-modelos, que por sua vez irão agregar o resultado da análise das correlações e servirão como uma linguagem unificada, possibilitando a interoperabilidade entre os repositórios de ativos digitais, independentemente do padrão de metadados utilizado por cada um. A validação do trabalho foi realizada através da execução de um experimento utilizando uma prova de conceito aplicada a um cenário envolvendo modelos heterogêneos de sistemas de gerenciamento de ativos digitais reais. O objetivo do experimento foi realizar uma avaliação da qualidade do mapeamento fornecido automaticamente. Como resultado foi obtido um índice de acerto de até 98% dentro do universo dos elementos que obtiveram ao menos uma sugestão de correlação, o que ocorreu para 66% dos elementos dos modelos.
|
326 |
Avaliação da interoperabilidade entre sistemas de informação geográfica: uma etapa para o planejamento / Assessment of interoperability between geographic infomation systems: a step in the planningDaniel Gleidson Mancebo de Araújo 15 April 2008 (has links)
A ação das corporações sobre o espaço tem tido nas geotecnologias uma importante ferramenta, tanto na gestão do território quanto para a análise ambiental. Tais demandas se exacerbam numa economia globalizada cujas transformações espaciais e ambientais são intensas. A informação espacial passou a ter grande valor para as organizações e o uso de Sistemas de Informação Geográfica (SIG) se difundiu, causando a expansão dos dados georreferenciados. Entretanto, os SIG evoluíram seguindo arquiteturas próprias e formatos específicos que, inicialmente, não eram compatíveis entre si. Os processos de conversão, necessários para o intercâmbio de dados, geram distorção, perdas de qualidade e indefinições sobre o georreferenciamento. Por isso, a interoperabilidade entre SIG é, atualmente, questão central na implementação e desenvolvimento de tais sistemas. A hipótese testada por este trabalho indica que, a partir desta interoperabilidade entre SIG e a conseqüente integração de dados, podem ser construídas análises menos segmentadas ao tornar processos e ações de setores com distintas responsabilidades mais articulados no âmbito da Empresa e resultar, sob a ótica do planejamento ambiental dos empreendimentos, um olhar diferenciado e menos superficial do espaço. Portanto, esta pesquisa tem por objetivo: avaliar de que forma a interoperabilidade entre plataformas SIG, que contém e manipulam dados geográficos, com arquiteturas e modelos conceituais distintos no mercado, pode subsidiar/possibilitar um planejamento/gestão ambiental mais eficaz de empreendimentos no âmbito de uma grande empresa. Para tanto, o recorte espacial escolhido é a Usina Hidroelétrica de Funil localizada nos municípios de Itatiaia e Resende no Rio de Janeiro onde foram utilizados os dados do Programa de Reflorestamento Ciliar, existente desde 1994. Após a implementação da interoperabilidade entre os SIG existentes, os dados do programa foram incorporados ao banco de dados corporativo da Empresa, ainda em construção, de forma integrada a outros dados existentes, de engenharia e de meio ambiente, e foram feitas análises sobre as conseqüências resultantes no planejamento e gestão ambiental do próprio empreendimento por Furnas. Como resultado efetivo deste trabalho foi possível estruturar a base de dados geográficos de forma interoperável e corporativa. Constatou-se que a integração de dados neste ambiente possibilitou uma articulação mais efetiva das ações entre os departamentos. Além disso, foram identificadas as lacunas para o avanço do planejamento e gestão. Furnas poderá futuramente planejar e gerir seus ativos de forma mais integrada, eficaz e multidisciplinar. / The geoprocessing is an important tool in action from corporations on space, both for the management of territory and for environmental analysis. Such demands are exacerbated in a globalised economy whose spatial and environmental changes are intense. The spatial information had a great value for organizations and the use of Geographic Information Systems (GIS) is broadcast, causing the expansion of geo data. Meanwhile, the GIS were developed following specific architectures and formats owner that, initially, were not compatible. The conversion processes, necessary for exchanging data, generate distortion, loss of quality and unknowns on the Geoprocessing. Hence, the interoperability between GIS is currently the central issue in the implementation and development of these systems. The hypothesis tested by this work indicates that, from this interoperability between GIS and the consequent integration of data, analyses can be made less targeted by making processes and actions of different sectors more articulated within the company and result, from the perspective of environmental planning , A different look and less surface from space. Therefore, this research aims to: assess how the interoperability between platforms GIS, which contains and manipulate geographic data, with different architectures and conceptual models on the market, may subsidize a more effective environmental planning of businesses within a large company. To this end, the clipping space chosen is a Funil Hydropower located
in the municipalities of Itatiaia and Resende in Rio de Janeiro, whose data of the Programme of Forestry Ciliar, existing since 1994, were used. After implementation of interoperability among existing GIS, data from the program were incorporated into the database business of the Company, still under construction, so integrated with other existing data, engineering and environment, and were made analyses of the consequences resulting in environmental planning and management of the enterprise by Furnas. As a result of this work was effective structure to the database space so interoperable and corporate. It appeared that the integration of data in this environment has allowed a more effective coordination of actions between the departments. Moreover, the gaps have been identified for the advancement of the environmental planning and management. Furnas could plan and manage their assets more efficiently, integrated and multidisciplinary.
|
327 |
Developing an enterprise operating system for the monitoring and control of enterprise operations / Développement d'un système d'exploitation des entreprises pour le suivi et le contrôle des opérationsYoussef, Joseph 21 December 2017 (has links)
Le système d'exploitation (OS) est un concept bien connu en informatique comme interface entre l'Homme et le matériel informatique (MacOS, Windows, IOS, Android, ...). Dans le but de développer la future génération de systèmes d'entreprise basés sur les principes de l'IoT et du Cyber-Physique, cette thèse propose de développer un système d'exploitation d'entreprise « System d’Exploitation des Entreprises » (EOS); Contrairement à ERP, qui est défini comme un programme qui permet à l'organisation au niveau opérationnel d'utiliser un système d'applications intégrées afin d'automatiser de nombreuses fonctions liées à la technologie et aux services, EOS servira d'interface entre les gestionnaires d'entreprise et les ressources d'entreprise pour le suivi en temps réel et le contrôle des opérations.Nous présenterons d'abord le contexte, les priorités, les défis et les résultats escomptés. Ensuite, un ensemble d'exigences et de fonctionnalités d'EOS est décrit. Après, un état de l’art existant sur les travaux pertinents est donné et mis en correspondance avec les exigences spécifiées liées à EOS. Par la suite, et en fonction des exigences et des résultats, les architectures conceptuelle, technique et d’implantation sont décrites, y compris tous les composants internes et externes. La dernière partie présenteront deux exemples dans les secteurs bancaire et manufacturier pour illustrer l'utilisation de l'EOS. / Operating System (OS) is a well-known concept in computer science as an interface between human and computer hardware (MacOS, Windows, IOS, Android,…). In the perspective of developing future generation of enterprise systems based on IoT and Cyber-Physical System principles, this doctorate research proposes to develop an Enterprise Operating System (EOS); Unlike ERP, which is defined as a platform that allows the organization at the operational level to use a system of integrated applications in order to automate many back office functions related to technology and services, EOS will act as an interface between enterprise business managers and enterprise resources for real time monitoring and control of enterprise operations.The thesis presents at first the context, priorities, challenges and expected results. Then a set of requirements and functionalities of EOS is described. After that, a survey on existing relevant works is given and mapped to the specified requirements related to EOS. Afterwards, and based on the requirements and state-of-the-art results, the EOS conceptual, technical and implementation architectures are outlined including all internal and external components. The last part draws two examples in the banking and manufacturing sectors to illustrate the use of the EOS.
|
328 |
Import, export et traduction sémantiques génériques basés sur une ontologie de langages de représentation de connaissances / Generic semantic import, export and translation based on an ontology of knowledge representation languagesBénard, Jeremy 12 June 2017 (has links)
Les langages de représentation de connaissances (LRCs) sont des langages qui permettent de représenter et partager des informations sous une forme logique. Il y a de nombreux LRCs. Chaque LRC a un modèle structurel abstrait et peut avoir plusieurs notations. Ces modèles et notations ont été conçus pour répondre à des besoins de modélisation ou de calculabilité différents, ainsi qu'à des préférences différentes. Les outils actuels gérant ou traduisant des RCs ne travaillent qu'avec quelques LRCs et ne permettent pas – ou très peu – à leurs utilisateurs finaux d'adapter les modèles et notations de ces LRCs. Cette thèse contribue à résoudre ces problèmes pratiques et le problème de recherche original suivant : “une fonction d'import et une fonction d'export de RCs peuvent-elle être spécifiées de façon générique et, si oui, comment leurs ressources peuvent-elles êtres spécifiées ?”. Cette thèse s'inscrit dans un projet plus vaste dont l'objectif général est de faciliter le partage et la réutilisation des connaissances liées aux composants logiciels et à leurs présentations. L'approche suivie dans cette thèse est basée sur une ontologie de LRCs nommée KRLO, et donc sur une représentation formelle de ces LRCs.KRLO a trois caractéristiques importantes et originales auxquelles cette thèse à contribué : i) elle représente des modèles de LRCs de différentes familles de façon uniforme, ii) elle inclut une ontologie de notations de LRCs, et iii) elle spécifie des fonctions génériques pour l'import et l'export de RCs dans divers LRCs. Cette thèse a contribué à améliorer la première version de KRLO (KRLO_2014) et à donner naissance à sa seconde version. KRLO_2014 contenait des imprécisions de modélisation qui rendaient son exploitation difficile ou peu pratique. Cette thèse a aussi contribué à la spécification et l'opérationnalisation de “Structure_map”, une fonction permettant d'écrire de façon modulaire et paramétrable toute autre fonction utilisant une boucle. Son utilisation permet de créer et d'organiser les fonctions en une ontologie de composants logiciels. Pour implémenter une fonction générique d'export basée sur KRLO, j'ai développé SRS (Structure_map based Request Solver), un résolveur d'expressions de chemins sur des RCs. SRS interprète toutes les fonctions. SRS apporte ainsi une validation expérimentale à la fois à l'utilisation de cette primitive (Structure_map) et à l'utilisation de KRLO. Directement ou indirectement, SRS et KRLO pourront être utilisés par GTH (Global Technologies Holding), l'entreprise partenaire de cette thèse. / Knowledge Representation Languages (KRLs) are languages enabling to represent and share information in a logical form. There are many KRLs. Each KRL has one abstract structural model and can have multiple notations. These models and notations were designed to meet different modeling or computational needs, as well as different preferences. Current tools managing or translating knowledge representations (KRs) allow the use of only one or few KRLs and do not enable – or hardly enable – their end-users to adapt the models and notations of these KRLs. This thesis helps to solve these practical problems and this original research problem: “Can a KR import function and a KR export function be specified in a generic way and, if so, how can their resources be Specified ?”. This thesis is part of a larger project the overall objective of which is to facilitate i) the sharing and reuse of knowledge related to software components, and ii) knowledge presentations. The approach followed in this thesis is based on an ontology of KRLs named KRLO, and therefore on a formal representation of these KRLs.KRLO has three important and original features to which this thesis contributed: i) it represents KRL models of different families in a uniform way, ii) it includes an ontology of KRLs notations, and iii) it specifies generic functions for KR import and export in various KRLs. This thesis has contributed to the improvement of the first version of KRLO (KRLO_2014) and to the creation of its second version. KRLO_2014 contained modeling inaccuracies that made it difficult or inconvenient to use. This thesis has also contributed to the specification and the operationalization of “Structure_map”, a function enabling to write any other function that uses a loop, in a modular and configurable way. Its use makes it possible to create and organize these functions into an ontology of software components. To implement a generic export function based on KRLO, I developed SRS (Structure_map based Request Solver), a KR retrieval tool enabling the use of KR path expressions. SRS interprets all functions. SRS thus provides an experimental validation for both the use of this primitive (Structure_map) and the use of KRLO.Directly or indirectly, SRS and KRLO may be used by GTH (Global Technologies Holding), the partner company of this thesis.
|
329 |
Ontology-based metadata for e-learning content / Metadados para conteúdo educativo com base em ontologiasSilva Muñoz, Lydia January 2004 (has links)
Atualmente a popularidade da Web incentiva o desenvolvimento de sistemas hipermídia dedicados ao ensino a distância. Não obstante a maior parte destes sistemas usa os mesmos recursos do ensino tradicional, apresentado o conteúdo como páginas HTML estáticas, não fazendo uso das novas tecnologias que a Web oferece. Um desafío atual é desenvolver sistemas educativos que adaptem seu conteúdo ao estilo de aprendizagem, contexto e nível de conhecimento de cada aluno. Outro assunto de pesquisa é a capacidade de interoperar na Web reutilizando objetos de ensino. Este trabalho apresenta um enfoque que trata esses dois assuntos com as tecnologias da Web Semântica. O trabalho aqui apresentado modela o conhecimento do conteúdo educativo e do perfil do aluno pelo uso de ontologias cujo vocabulário é um refinamento de vocabulários padrões existentes na Web como pontos de referência para apoiar a interoperabilidade semântica. As ontologias permitem a representação numa linguagem formal dos metadados relativos a objetos de ensino simples e das regras que definem suas possíveis formas de agrupamento para desenvolver objetos mais complexos. Estes objetos mais complexos podem ser projetados para se adequar ao perfil de cada aluno por agentes inteligentes que usam a ontologia como origem de suas crenças. A reutilização de objetos de ensino entre diferentes aplicações é viabilizada pela construção de um perfil de aplicação do padrão IEEE LOM-Learning Object Metadata. / Nowadays, the popularity of the Web encourages the development of Hypermedia Systems dedicated to e-learning. Nevertheless, most of the available Web teaching systems apply the traditional paper-based learning resources presented as HTML pages making no use of the new capabilities provided by the Web. There is a challenge to develop educative systems that adapt the educative content to the style of learning, context and background of each student. Another research issue is the capacity to interoperate on the Web reusing learning objects. This work presents an approach to address these two issues by using the technologies of the Semantic Web. The approach presented here models the knowledge of the educative content and the learner’s profile with ontologies whose vocabularies are a refinement of those defined on standards situated on the Web as reference points to provide semantics. Ontologies enable the representation of metadata concerning simple learning objects and the rules that define the way that they can feasibly be assembled to configure more complex ones. These complex learning objects could be created dynamically according to the learners’ profile by intelligent agents that use the ontologies as the source of their beliefs. Interoperability issues were addressed by using an application profile of the IEEE LOM- Learning Object Metadata standard.
|
330 |
Uma Arquitetura aberta para a integração de sistemas de gerência de documentos e sistemas de gerência de workflow / An open architecture for document management systems and workflow management systems integrationAmaral, Vinicius Leopoldino do January 1999 (has links)
A utilização de sistemas de gerência de documentos e de sistemas de gerência de workflow vem crescendo de forma expressiva nos últimos anos, motivados pela expectativa de obter-se benefícios organizacionais importantes, como o maior compartilhamento da informação e o aumento da eficiência dos processos. Pelo fato de a maioria dos processos organizacionais envolver a manipulação de documentos, é necessário, em grande parte das vezes, que esses sistemas trabalhem em conjunto. No entanto, a maioria das integrações entre tais produtos são proprietárias, causando prejuízos como a redução da liberdade de escolha dos usuários, a maior dificuldade de integração com sistemas legados e o aumento da dependência em relação aos fornecedores dos produtos. Para solucionar esse problema, este trabalho propõe uma arquitetura aberta de integração entre sistemas de gerência de documentos e sistemas de gerência de workflow. O fundamento dessa arquitetura está na utilização de dois padrões emergentes da indústria: o padrão DMA, proposto pela AIIM, e o padrão WAPI, proposto pela WfMC. O padrão DMA consiste de uma API, a ser invocada pelos aplicativos clientes de documentos, de uma SPI, a ser implementada e oferecida pelos sistemas de gerência de documentos, e de um middleware, responsável pela conexão entre os clientes e servidores de documentos. O padrão WAPI consiste de uma linguagem padrão para a definição de processos e de uma API, a ser invocada pelo aplicativo cliente de workflow e implementada pelo sistema de gerência de workflow. A arquitetura proposta compõe-se de três elementos. Primeiramente, um mecanismo integrado para a modelagem de documentos e workflow. Assim, é possível definir quais documentos serão manipulados pelo processo, e que operações cada participante poderá executar sobre ele. Esse mecanismo baseia-se exclusivamente nos padrões oferecidos pela WAPI e pela DMA. Em segundo lugar, é definido e implementado, na linguagem Java, um módulo de software denominado camada de serviços, oferecendo serviços integrados de gerência de documentos e gerência de workflow. Os métodos dessa camada invocam os métodos WAPI e DMA necessários à sua execução. Assim, qualquer DMS aderente à DMA pode ser integrado a qualquer WFMS aderente à WAPI, de forma completamente transparente. Por final, é desenvolvido um aplicativo cliente, também em linguagem Java, que acessa os métodos da camada de serviços, oferecendo uma interface gráfica para o usuário. Os resultados demonstram a viabilidade de uma integração aberta entre sistemas de gerência de documentos e sistemas de gerência de workflow. Ainda, mostram a importância de uma modelagem integrada de documentos e workflow. / The document management systems and the workflow management systems areas have been facing an impressive growth in the last years, driven by the desire to achieve important organizational benefits, as an increased information sharing and more efficient processes. Since most business processes involve document manipulation, it is often needed that these systems work together. However, most products are integrated in a proprietary way, therefore reducing user's freedom of choice, increasing the difficulty of legacy systems integration and rising the dependency from product vendors. In order to overcome this problem, this work proposes an open architecture for document management systems and workflow management systems integration. The architecture's fundamentals is the usage of two emerging industry standards: DMA, proposed by AIIM, and WAPI, proposed by WfMC. DMA consists of an API, to be invoked by client document applications, of an SPI, to be implemented and offered by document management systems, and of a middleware, responsible for connecting clients to document servers. WAPI consists of a standard process definition language and of an API, to be invoked by workflow client applications and implemented by workflow management systems. The proposed architecture is composed by three elements. First, an integrated mechanism for document and workflow modeling is defined. Therefore, it is possible to define which documents will be used in the process, and which operations each workflow participant will be allowed to execute over them. This approach is based exclusively on DMA and WAPI standards. Second, it is defined an implemented a software module called services layer, offering integrated document management and workflow management services, using the Java language. This layer's methods invoke the WAPI's and DMA's methods necessary for their execution. Therefore, any DMAcompliant DMS can be integrated to any WAPI-compliant WFMS, in a totally transparent way. Finally, a client application to access services layer's methods and offer the user a graphical interface is developed, also using the Java language. The results demonstrate the viability of an open integration between document management systems and workflow management systems. They also show the importance of an integrated document and workflow modeling.
|
Page generated in 0.0546 seconds