• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 142
  • 5
  • Tagged with
  • 148
  • 116
  • 41
  • 36
  • 34
  • 25
  • 24
  • 23
  • 23
  • 21
  • 21
  • 20
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Um modelo para interoperabilidade entre instituições heterogêneas / A Model for Interoperability between Heterogeneous Institutions

Araújo, Cláudia Josimar Abrão de 07 December 2012 (has links)
A interação entre instituições heterogêneas tem sido cada vez mais necessária para obter e disponibilizar informações e serviços para seus usuários internos e externos. Esta interação tem sido sustentada principalmente pelo uso das novas tecnologias da informação e comunicação. A interoperabilidade entre instituições heterogêneas garante esta interação e proporciona vários benefícios como, por exemplo, utilizar toda a plataforma legada das instituições e ainda permitir a interação entre os sistemas. Entretanto, para que esta interoperabilidade seja possível é necessária a definição de conceitos comuns que padronizam e orientam as interações entre as instituições. Através destes conceitos comuns, as instituições podem trocar informações entre si e ainda manter sua independência e as particularidades em seus sistemas internos. Em nosso trabalho, propomos um Modelo para Interoperabilidade entre Instituições Heterogêneas (MIIH). A especificação das regras de interação e, especificamente, os protocolos de interoperabilidade entre as instituições são escritas usando JamSession, que é uma plataforma para a coordenação de serviços de software heterogêneos e distribuídos. O modelo também define uma arquitetura baseada em Artefatos do Conhecimento Institucionais para lidar com as conexões com os sistemas das instituições. Estes Artefatos do Conhecimento Institucionais são baseados no conceito geral de Artefatos do Conhecimento, ou seja, \"objetos que contêm e transmitem uma representação utilizável do conhecimento\". Os Artefatos do Conhecimento Institucionais são padrões arquitetônicos recorrentes que são observados no projeto de mecanismos de interoperabilidade para conectar instituições heterogêneas e são usados como uma descrição de alto nível da arquitetura para um projeto de sistema. Eles funcionam como padrões arquiteturais pré-concebidos que norteiam e padronizam as interações e, portanto, a interoperabilidade organizacional e semântica entre as instituições. Os Artefatos do Conhecimento Institucionais são fundamentados sobre uma ontologia de conceitos relevantes para os serviços destas instituições, cujo nível de abstração pode variar, dependendo do nível de integração necessário para as instituições - quanto mais sofisticada a interação, mais detalhes devem ser representados explicitamente na ontologia. Os Artefatos do Conhecimento Institucionais implementados também se comunicam com a camada de interação com o usuário, baseada em mundos virtuais, para garantir a comunicação adequada com estes usuários. Além do modelo conceitual proposto, apresentamos como resultado deste trabalho, um exemplo de uso do MIIH no contexto das instituições relacionadas à herança cultural (museus, galerias, colecionadores, etc.). Tendo reconhecido que este contexto dos museus é importante para toda a sociedade, verificamos mais profundamente o funcionamento dos museus e suas interações entre si e com seus usuários. Identificamos neste cenário a aplicação direta de nosso projeto, uma vez que a interoperabilidade entre os museus é fundamental para o desempenho de suas funções e a interoperabilidade com seus usuários define a razão de sua existência, conforme identificamos na definição de museu apresentada pela UNESCO. Este exemplo de uso é construído seguindo a metodologia proposta neste trabalho e serve para mostrar a utilização do nosso modelo no desenvolvimento de uma aplicação concreta para uso em instituições de arte e também por seus usuários. / Heterogeneous institutions interactions have increasingly been required to obtain and provide information and services to their internal and external users. This interaction has been sustained mainly by the use of new information and communication technologies. Interoperability between heterogeneous institutions ensures this interaction and provides various benefits such as, use the legacy platforms of the institutions and still allow the interaction between their systems. However, to make this interoperability possible it is necessary to define common concepts that standardize and guide the interactions between institutions. Through these common concepts, institutions can exchange information with each other and maintain the independence and particularities in their internal systems. In our work, we propose a Model for Interoperability between Heterogeneous Institutions (MIHI). The specification of the interaction rules and specifically the protocols for interoperability between institutions are written using JamSession, which is a platform for the coordination of heterogeneous and distributed software services. The model also defines an architecture based on Institutional Knowledge Artifacts to handle the connections to the systems of the institutions. These Institutional Knowledge Artifacts are based on the general concept of Knowledge Artifacts, i.e., \"objects that convey and hold usable representation of knowledge\". The Institutional Knowledge Artifacts are recurring architectural patterns that are observed in the design of mechanisms for interoperability to connect heterogeneous institutions and are used as a high-level description of the architecture for a system design. They function as pre-designed architectural patterns that guide and standardize the interactions and therefore the organizational and semantic interoperability between institutions. The Institutional Knowledge Artifacts are based on ontology of concepts relevant to these services institutions whose level of abstraction can vary, depending on the level of integration necessary for institutions - the more sophisticated interaction, more details should be represented explicitly in the ontology. The Institutional Knowledge Artifacts implemented also communicate with the use interface layer, based on virtual worlds, to ensure proper communication with these users. Besides the proposed conceptual model, we present as a result of this work, an example of the use of MIIH in the context of institutions related to cultural heritage (museums, galleries, collectors, etc.). Having recognized that the context of museums is important for the society, we studied more deeply the operation of museums and their interactions with each other and their users. We identified in this scenario the direct application of our project, since interoperability among museums is vital to the performance of its functions and interoperability with its users define the reason for its existence, as we verified in the definition of museum presented by UNESCO. This example of use is constructed following the methodology proposed in this work and serves to show the use of our model in the development of a practical application for use in art institutions and also by its users.
72

Fatores críticos de sucesso para integração com sistemas legados: um estudo de caso no SERPRO / Critical success factors for integration with legacy systems: A SERPRO case study

Anastácio, Wellington Montefusco 18 March 2014 (has links)
Para o cidadão solicitar serviços de governo através de um portal que centralize o atendimento e não requeira conhecimento prévio da estrutura administrativa que organiza esses serviços, é necessário que o governo se atente a uma questão desafiadora: Quais são as poucas áreas na integração com sistemas legados cujo tratamento inadequado implicará necessariamente no fracasso na implementação do portal? Uma vez que sistemas de informação estão fortemente ligados aos processos de negócio da organização que atendem, a resposta dessa pergunta não tem natureza unicamente tecnológica. Buscou-se, nesse trabalho, a identificação das poucas áreas críticas para o sucesso na integração com sistemas legados no governo e explicações que ajudassem a entender por que elas assim são. Conhecer e entender os resultados obtidos contribui para a superação de barreiras que residem no desafio de implantar o portal centralizador que facilitará o autoatendimento dos cidadãos e contribuirá para o avanço do governo eletrônico. A estratégia utilizada para atingir os objetivos foi a de estudo de caso da organização pública Serviço Federal de Processamento de Dados (SERPRO). Este estudo teve uma natureza exploratória e descritiva e a organização é relevante porque atende demandas de sistemas de informação para o governo nas esferas municipal, federal e estadual há quase cinco décadas. O estudo de caso se desenvolveu em duas fases: (1) survey para identificar os fatores críticos de sucesso, incluindo análise fatorial para identificar as dimensões críticas que resumem os fatores encontrados e; (2) entrevistas semiestruturadas aplicadas a dez profissionais escolhidos pelo critério de representarem percepções extremas e opostas em relação à percepção média sobre cada dimensões crítica encontrada. Todas as entrevistas foram transcritas e categorizadas por análise temática. Foram obtidos 106 respondentes do survey e mais de 12 horas de conteúdo transcrito para as análises. Os resultados obtidos foram que o sucesso da integração de sistemas de informação com sistemas legados no governo está fortemente ligado a quatro dimensões: (1) efetividade dos recursos tecnológicos e humanos, porque a complexidade do sistema legado foi identificada como a causa de fracasso mais relevante em projetos dessa natureza; (2) processo minimizador de incertezas, porque as distorções na comunicação e os imprevistos que surgem ao longo do projeto requisitam altíssima qualidade de comunicação; (3) poder de prioridade, porque conflitos de interesse são frequentes e é crítico que se tenha poder e recursos para resolver questões como falta de prioridade de uma equipe externa; e (4) clareza da necessidade do negócio, porque essa clareza dá à equipe de desenvolvimento a segurança necessária sobre a consistência da solução de integração de sistemas. / For the citizen requesting government services through a centralized portal service which does not require prior knowledge of the government administrative structure organizing these services, it is necessary that the government pay attention to a challenging question: What are the few areas in integration with legacy systems in which inadequate treatment results necessarily in failure to the portal implementation? Since information systems have a strong link to the business processes, the question has not only a technological nature answer. In this work, we sought to identify the few critical areas for successful integration with legacy systems in government environment. We also pursued to find possible explanations that help to understand the reason why they are critical. To know and to understand the results obtained in this work contributes to overcoming barriers that reside on the challenge of promoting centralized interface that will facilitate self-service for citizens and will promote the electronic government. The strategy used for the achievement of the objectives was a case study of the public organization Serviço Federal de Processamento de Dados (SERPRO). This study was of exploratory and descriptive nature and this organization is important because it meets the demands of information systems for the government at the municipal, state and federal levels to nearly five decades. This case study had two phases. First, we identified critical success factors with a survey and found dimensions that summarize the identified factors with a factor analyses. Second, we conducted a sequence of ten semi-structured interviews applied to experienced professionals. The criterion used to select these professionals were their perceived perception about the importance of the critical dimensions that we found. The selected perception should be extreme and opposite in relation to the average perception of the dimension. We transcribed and categorized all the interviews with a thematic analysis. As results, we got 106 survey respondents and 12 hours of transcribed interviews. We found four critical dimensions to the successful integration of information systems with legacy systems in government. The first is the effectiveness of technological and human resources because we identified that the complexity of legacy system in projects of system integration as the most important cause of failures. The second is to minimize process uncertainty because of the risk of distortions in communication and the need of contingencies that may arise during the project. The third is critical dimension is the priority force because conflicts of interest are common and it is critical to have the power and the necessary resources to solve them. The last dimension is the clarity of the business need, because this clearly gives the development team the necessary security about the consistency of the solution of systems integration.
73

Infraestrutura de dados espaciais em unidades de conservação: uma proposta para disseminação da informação geográfica do Parque Estadual de Intervales - SP / Spatial data infrastructure in protected area: a proposal for dissemination of geographic information of Parque Estadual de Intervales - SP

Nakamura, Eduardo Tomio 01 September 2010 (has links)
Esse trabalho apresenta uma proposta de Infraestrutura de Dados Espaciais de nível organizacional para o Parque Estadual de Intervales-SP, que visa compartilhar suas informações geográficas com a sociedade em geral. Nos processos de elaboração da IDE são discutidas questões como interoperabilidade, padronização, metadados, especificação de serviços geográficos e o relacionamento dos nós das Infraestrutura de Dados Espaciais que vão permitir a disseminação da informação geográfica de fácil acesso a usuários externos. Os procedimentos, benefícios e limitações são listados e problematizados de forma que demonstrem as etapas necessárias na elaboração da Infraestrutura de Dados Espaciais de nível organizacional para uma Unidade de Conservação. Conclui-se que uma Infraestrutura de Dados Espaciais depende de variáveis administrativas, culturais, técnicas e financeiras, o que leva a uma proposta de implementação por estágios. Também são elaboradas críticas aos recursos existentes e sugestões para melhorias e estudos futuros. / This paper presents a proposal about Spatial Data Infrastructure in organizational level to the Parque Estadual de Intervales-SP, in order to promote the sharing of geographic information with the society. In the elaboration process of the SDI are discussed issues such as interoperability, standardization, metadata, specifying geographic services and relationship of the Spatial Data Infrastructure nodes that will enable the dissemination of geographic information easily and accessible to external users. The process steps, benefits and limitations are listed and discussed in order to demonstrate the necessary steps to prepare the Spatial Data Infrastructure in organizational level to a protected area. As results we observe a spatial data infrastructure that depends of others variables like management, culture, technical and financial company aspects, which leads to a proposal of implementation in stages, as well as discussions about the capabilities and suggestions for improvements and future studies.
74

WSMEL: uma arquitetura para integração de serviços educacionais usando dispositivos móveis na formação de comunidade virtuiais espontâneas

Scopel, Marcelo 06 January 2006 (has links)
Made available in DSpace on 2015-03-05T13:56:57Z (GMT). No. of bitstreams: 0 Previous issue date: 6 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A Internet e o ensino à distância (EAD) possibilitam a configuração de inúmeros cenários de aprendizagem em um mundo globalizado. A união com dispositivos móveis e a grande variedade de softwares educacionais modificam a postura das instituições que implantam ambientes de EAD. O problema deixa de ser "como produzir o software educacional que preciso", para ser "onde encontrar,como compor e como usar o software que necessito". Entretanto, os softwares desenvolvidos para estes ambientes de ensino à distância, apesar de não estarem isolados uns dos outros, ainda são criados com um foco interno. A metodologia de desenvolvimento prevalecente consiste na criação de interfaces diretas, o que obriga os projetistas a especificar, projetar, codificar e depurar programas personalizados para acessarem os dados de um aplicativo, e, então, mapear e converter as respectivas estruturas de dados conforme o necessário, para introduzi-los em outro. Desta forma, cada instância da integração é especializada, a mplementação é c
75

Investigação da aplicabilidade da mineração de texto como apoio ao desenvolvimento de modelos de arquétipos para exames de radiologia e diagnóstico por imagem / Investigation of the applicability of text mining to support development of openEHR archetypes for radiology and diagnostic Imaging standardized exams

Serapião, Paulo Roberto Barbosa 07 May 2015 (has links)
A presente tese de Doutorado trata de investigar a aplicação da mineração de texto, para a construção de uma terminologia que atenda aos preceitos estipulados pela normalização, nacional e internacional, referente à constituição de um Registro Eletrônico em Saúde (RES). As normas internacionais estudadas pelo presente trabalho foram as seguintes: ISO 13606-1 e ISO TS 17117. O padrão internacional ISO 13606-1 especifica os modelos de referência para a construção de arquétipos que são a estrutura-base do RES. A especificação técnica ISO 17117 estipula a formatação de terminologias controladas para o âmbito da informática em saúde. Localmente, o trabalho analisou o relatório técnico ABNT/ISO TR 20514 que dá a definição, o escopo e o contexto para o RES e o relatório técnico ABNT/ISO TR 12309 que visa a garantir o desenvolvimento de terminologias padronizadas para a área da saúde. Vários trabalhos científicos demonstram que, para a construção do RES baseado em arquétipos, pesquisadores utilizam terminologias de mercado como o SNOMED CT e SNOMED RT. No caso do Brasil, não existe uma terminologia oficialmente desenvolvida regionalmente ou traduzida para o português do Brasil que suporte a criação de modelos de referência. Essa situação dificulta a implantação das normas nacional e internacional de padronização, citadas anteriormente. Nesse ambiente, a tese aqui apresentada construiu uma ontologia no domínio da especialidade de Radiologia e Diagnóstico por Imagem, tendo como base a aplicação de métodos de mineração de texto para compor uma terminologia eficiente e eficaz que atendesse às lacunas demonstradas. A aplicação de método de mineração de texto foi realizada em uma amostra de 2.566.358 de sujeitos-laudos, consistindo em sujeitos-laudos dos exames de Ressonância Magnética, Raios-X, Tomografia Computadorizada e Ultrassonografia de regiões anatômicas humanas. Com base nessa extração, foi construída uma ontologia contendo 5.859 termos-indivíduos, 20.994 axiomas e 15.084 axiomas lógicos. Essa ontologia foi desenvolvida utilizando o software Prótége em linguagem OWL. A partir da formalização da ontologia (terminologia), foram construídos Archetype Definition Language (ADL), para o componente INSTRUCTION para exame de imagem, e ADL para o componente COMPOSITION de Tomografia Computadorizada de Coluna Cervical, Ressonância Magnética de Cervical e Torácica e Ressonância Magnética de Carótida. O trabalho mostrou a aplicabilidade da mineração de texto para a geração de uma terminologia que desse suporte à criação de ADL, conforme preconizado na normativa da área de informática em saúde. / This Doctoral Thesis aim to investigate the application of text mining for the construction of a terminology that meets the procedures laid down for standardization, national and international, regarding the establishment of an Electronic Health Record (RES). International standards studied in this work were ISO 13606-1 and ISO TS 17117. The ISO 13606-1 international standard specifies the reference models for the construction of archetypes, which is the basis of the RES structure. The technical specification ISO 17117 provides the formatting of controlled terminology for the scope of health informatics. Locally, the paper analyzed the technical ABNT / ISO TR 20514 report, which gives the definition, scope and context for the RES and technical ABNT / ISO TR 12309 report aimed at ensuring the development of standardized terminology for the health sector. Several scientific studies have shown that for the construction of RES based on archetypes, researchers use market terminology such as SNOMED CT and SNOMED RT. In Brazil, there is no terminology officially developed regionally or translated into Portuguese-Brazilian who support the creation of reference models. This situation impedes the deployment of national and international standards of standardization mentioned above. In this environment, the thesis presented here built an ontology in the field of specialty of Radiology and Diagnostic Imaging based on the application of text mining methods to make efficient and effective terminology that meets the demonstrated shortcomings. The application of text mining method was performed on a sample of 2,566,358 of subject-report, consisting of subject-reports of examinations MRI, X-ray, CT and ultrasound of human anatomical regions. Based on this extraction was built an ontology containing 5,859 individuals terms, axioms 20,994 and 15,084 logical axioms. This ontology was developed using Protégé OWL language software. From the formalization of the ontology (terminology) were built Archetype Definition Language (ADL) for INSTRUCTION component for imaging examination, and ADL for COMPOSITION component of CT cervical spine, MRI Cervical and Thoracic and MRI Carotid. The study showed the applicability of text mining to generate terminology that supported the creation of ADL as recommended by rules in the IT sector in health.
76

Fatores críticos de sucesso para integração com sistemas legados: um estudo de caso no SERPRO / Critical success factors for integration with legacy systems: A SERPRO case study

Wellington Montefusco Anastácio 18 March 2014 (has links)
Para o cidadão solicitar serviços de governo através de um portal que centralize o atendimento e não requeira conhecimento prévio da estrutura administrativa que organiza esses serviços, é necessário que o governo se atente a uma questão desafiadora: Quais são as poucas áreas na integração com sistemas legados cujo tratamento inadequado implicará necessariamente no fracasso na implementação do portal? Uma vez que sistemas de informação estão fortemente ligados aos processos de negócio da organização que atendem, a resposta dessa pergunta não tem natureza unicamente tecnológica. Buscou-se, nesse trabalho, a identificação das poucas áreas críticas para o sucesso na integração com sistemas legados no governo e explicações que ajudassem a entender por que elas assim são. Conhecer e entender os resultados obtidos contribui para a superação de barreiras que residem no desafio de implantar o portal centralizador que facilitará o autoatendimento dos cidadãos e contribuirá para o avanço do governo eletrônico. A estratégia utilizada para atingir os objetivos foi a de estudo de caso da organização pública Serviço Federal de Processamento de Dados (SERPRO). Este estudo teve uma natureza exploratória e descritiva e a organização é relevante porque atende demandas de sistemas de informação para o governo nas esferas municipal, federal e estadual há quase cinco décadas. O estudo de caso se desenvolveu em duas fases: (1) survey para identificar os fatores críticos de sucesso, incluindo análise fatorial para identificar as dimensões críticas que resumem os fatores encontrados e; (2) entrevistas semiestruturadas aplicadas a dez profissionais escolhidos pelo critério de representarem percepções extremas e opostas em relação à percepção média sobre cada dimensões crítica encontrada. Todas as entrevistas foram transcritas e categorizadas por análise temática. Foram obtidos 106 respondentes do survey e mais de 12 horas de conteúdo transcrito para as análises. Os resultados obtidos foram que o sucesso da integração de sistemas de informação com sistemas legados no governo está fortemente ligado a quatro dimensões: (1) efetividade dos recursos tecnológicos e humanos, porque a complexidade do sistema legado foi identificada como a causa de fracasso mais relevante em projetos dessa natureza; (2) processo minimizador de incertezas, porque as distorções na comunicação e os imprevistos que surgem ao longo do projeto requisitam altíssima qualidade de comunicação; (3) poder de prioridade, porque conflitos de interesse são frequentes e é crítico que se tenha poder e recursos para resolver questões como falta de prioridade de uma equipe externa; e (4) clareza da necessidade do negócio, porque essa clareza dá à equipe de desenvolvimento a segurança necessária sobre a consistência da solução de integração de sistemas. / For the citizen requesting government services through a centralized portal service which does not require prior knowledge of the government administrative structure organizing these services, it is necessary that the government pay attention to a challenging question: What are the few areas in integration with legacy systems in which inadequate treatment results necessarily in failure to the portal implementation? Since information systems have a strong link to the business processes, the question has not only a technological nature answer. In this work, we sought to identify the few critical areas for successful integration with legacy systems in government environment. We also pursued to find possible explanations that help to understand the reason why they are critical. To know and to understand the results obtained in this work contributes to overcoming barriers that reside on the challenge of promoting centralized interface that will facilitate self-service for citizens and will promote the electronic government. The strategy used for the achievement of the objectives was a case study of the public organization Serviço Federal de Processamento de Dados (SERPRO). This study was of exploratory and descriptive nature and this organization is important because it meets the demands of information systems for the government at the municipal, state and federal levels to nearly five decades. This case study had two phases. First, we identified critical success factors with a survey and found dimensions that summarize the identified factors with a factor analyses. Second, we conducted a sequence of ten semi-structured interviews applied to experienced professionals. The criterion used to select these professionals were their perceived perception about the importance of the critical dimensions that we found. The selected perception should be extreme and opposite in relation to the average perception of the dimension. We transcribed and categorized all the interviews with a thematic analysis. As results, we got 106 survey respondents and 12 hours of transcribed interviews. We found four critical dimensions to the successful integration of information systems with legacy systems in government. The first is the effectiveness of technological and human resources because we identified that the complexity of legacy system in projects of system integration as the most important cause of failures. The second is to minimize process uncertainty because of the risk of distortions in communication and the need of contingencies that may arise during the project. The third is critical dimension is the priority force because conflicts of interest are common and it is critical to have the power and the necessary resources to solve them. The last dimension is the clarity of the business need, because this clearly gives the development team the necessary security about the consistency of the solution of systems integration.
77

Atendimento para composição de serviços justo e transacional com origem em múltiplos domínios. / Service composition attendance with fair policy and transactional support from multiples domains.

Fernando Ryoji Kakugawa 18 May 2016 (has links)
O uso de Web Services tem aberto novas possibilidades de desenvolvimento de software, entre elas a composição de serviços. A composição de serviços apresenta novas questões no ambiente computacional, entre elas a execução integral, garantindo consistência e contemplando o controle de concorrência. O workflow é um conjunto de tarefas e interações organizadas de modo que forneça uma funcionalidade ao sistema, provendo a automatização de processos complexos, através da composição de serviços. Tal composição deve ser executada de forma transacional, processando as operações com consistência. A execução de workflows oriundos de domínios diferentes, faz com que os serviços que estão sendo utilizados, não possuam ciência do contexto da execução, podendo gerar atendimentos que não sejam justos, causando situações de deadlock e de starvation. Este trabalho apresenta estratégias para a execução de workflows em domínios distintos, que requisitam múltiplos serviços de um mesmo conjunto, sem a necessidade de um coordenador central, de forma transacional. O atendimento a requisição contempla uma política justa na utilização do recurso que impede a ocorrência de deadlock ou de starvation para os workflows em execução. Os experimentos realizados neste trabalho mostram que o sistema desenvolvido, aplicando as estratégias propostas, executa as composições de serviços de maneira transacional, atendendo as requisições com justiça, livre de deadlock e starvation, mantendo o sistema independente e autônomo. / Web Services are increasing software development possibilities, among then service composition. Service composition introduces new issues on computational environment, such as the whole service execution, ensuring consistency and concurrency control. Workflow is a set of organized tasks and interactions in order to provide functionality to the system, automating complex process through composition service. Such composition must be performed by transactional support, performing operations consistently. The workflow execution from different domain clients sharing the same composition make these clients ignore the execution context. It may cause inconsistencies, from unfair attendance to deadlock or starvation. This work depicts strategies for workflow execution from different domains, requesting multiple services from the same composition, without a centralized coordinator, in transactional way. The request attendance contains a fair policy for resource usage and consumption to avoid deadlock and starvation. Applying the proposed strategy on the experiments performed in this work, it confirms that the developed system executes service composition with transactional support, avoiding deadlock or starvation, keeping the whole system autonomous and independent.
78

Interoperabilidade entre o modelo de dados do Taxonomic Data Working Group (TDWG) e tags do OpenStreetMap para a espécie Sotalia Guianensis / Interoperability between the data model of the Taxonomic Data Working Group (TDWG) and OpenStreetMap tags for the species Sotalia guianensis

Cyntia Virolli Cid Molina 23 March 2016 (has links)
A falta de padronização de dados pode resultar em perda de informações de suma importância nas diversas áreas do conhecimento, impossibilitando a integração de dados entre diferentes sistemas ou de diferentes bancos de dados, ou seja, os dados podem não ser interoperáveis. A solução para a integração de dados pode ser chamada de interoperabilidade, que são convenções e normas de formatos (extensões) e ontologias (padrões comuns) instituídos para que os sistemas possam dialogar. Um banco de dados de biodiversidade é um instrumento muito importante para as iniciativas de sua conservação, sendo útil para o seu conhecimento, registro histórico entre outros. Este trabalho desenvolveu uma metodologia para interoperar dados modelados no padrão Taxonomic Data Working Group (TDWG) e tags do OpenStreetMap (OSM) sobre a espécie Sotalia guianensis, conhecida como Boto Cinza. Dentro deste escopo, este trabalho se justifica pelo cenário de ameaça de extinção do Boto Cinza, pela necessidade no desenvolvimento de metodologias para a disponibilização de dados de ocorrência de Boto Cinza em bancos de dados de biodiversidade e pela necessidade de se desenvolver metodologia que permita a interoperabilidade entre bancos de dados de biodiversidade e outros Sistemas de Informação Geográfica (SIG). Este estudo propõe uma metodologia de baixo custo, com a utilização de plataformas livres, para que dados espaciais de Biodiversidade sejam modelados de maneira a evitar problemas taxonômicos, além de serem disponibilizados para conhecimento geral da população. O trabalho se mostra inovador por integrar dados do Global Diversity Information Facility (GBIF) com as Tags do OSM, possibilitando o cadastro padronizado e gratuito em uma plataforma livre e de alcance mundial através da criação de uma etiqueta interoperável de equivalência entre o padrão TDWG e as etiquetas do OSM. O resultado deste trabalho é a metodologia para a modelagem e publicação de dados de Boto Cinza no GBIF e OSM de forma interoperável, que foi implementada, testada e cujos resultados são positivos / The absence of data standardization may result in loss of information of major importance through several areas of knowledge, hindering data integration among different information systems or databases, that is, the data may not be interoperable. The solution for data integration may be called interoperability, which is comprised of conventions, data format standards (file extensions) and ontologies (standards), empowering the communication among information systems. A biodiversity database is a very important tool for biodiversity conservation initiatives, being useful for knowledge transfer, historical data storage among other activities. This work developed a methodology for interoperate data between the Taxonomic Data Working Group (TWDG) standard and OpenStreetMap (OSM) tags on Sotalia guianensis species, as known as Guiana dolphin. This work has its motivation scenario on the fact that the Guiana dolphin is under threat of extinction. This scenario demands the development of methodologies for the publication of the locations where the Guiana dolphin is being spotted over the biodiversity databases and the development of a methodology for interoperability among biodiversity databases as well as Geographic Information Systems (SIG). This study proposes a low cost methodology, which uses open-source platforms and focuses on two main goals: avoidance of taxonomical problems on biodiversity spatial data modelling and to provide the biodiversity spatial data to the population in general. This work proves itself innovative by integrating Global Diversity Information Facility (GBIF) data with OSM tags, allowing a free and standardized registry of data in an open-source global-scale platform by using an interoperable tag of equivalence data between the TDWG standard and OSM tags. The result of this study is the methodology for data modelling and publication of the Guiana dolphin on GBIF and OSM in an interoperable manner, which has been implemented, tested and gave positive results
79

Proposta de uma arquitetura interoperável para um sistema de informação em saúde / Study of an Interoperable Architecture for a Health Information System

Adriano de Jesus Holanda 01 June 2005 (has links)
A interoperabilidade entre sistemas de informação em saúde está se tornando fundamental para o compartilhamento da informação num ambiente de saúde, onde normalmente as diversas especialidades que atuam no atendimento ao paciente armazenam seus dados, em sistemas computacionais distintos e em regiões geograficamente distribuídas. Devido à diversidade existente entre estes sistemas, a integração as vezes torna-se difícil. Os problemas de interoperabilidade podem ser técnicos, onde os componentes de computação dos sistemas não permitem a cooperação devido às diferenças nos protocolos de comunicação ou semânticos, ocasionados devido à diversidade de representação da informação transmitida. Este trabalho propõe uma arquitetura para facilitar ambos os aspectos de interoperabilidade, sendo que a interoperabilidade técnica é proporcionada pela utilização de um middleware e a semântica, pela utilização de sistemas de terminologia adotados internacionalmente. Para a implementação de referência foi utilizada como middleware a arquitetura CORBA e suas especificações para o domínio da saúde, sendo que uma das especificações CORBA para o domínio da saúde foi adotada para padronizar a comunicação com os sistemas de terminologia. Para validar a implementação, foi construído um aplicativo cliente baseado na análise de requisitos de uma UTI neonatal. O cliente foi utilizado também para acessar os componentes implementados e verificar dificuldades e ajustes que podem ser feitos na implementação. / The interoperability among health information systems are becoming fundamental to share the information in a health environment, here commonly the diverse medical specialties that act in the patient care store the data, in distinct computational systems and in geographically distributed regions.Because of the existing diversity among these information systems, the integration can be a difficult task. Interoperability problems can either be technical, when the communication components do not cooperate due to the diversity of the information representation. This work proposes an architecture to improve both interoperability aspects. The technical and partial semantic interoperability is achieved by the use if a middleware whereas the semantic interoperability by the use of internationally approved terminological systems. For the reference implementation was used the CORBA middleware architecture. One of the CORBA specifications in health care was adopted to standardize the communication with the terminological systems. To validate the implementation it was developed a client application based on the requirement analysis of neonatal ICU. The client application was also used to access the software components and to verify possible problems.
80

Modelagem paramétrica para análise termoenergética de edificações nas fases iniciais de projeto. / Parametric modeling for thermoenergetic analysis in early design stages of buildings.

Tamanini Junior, Tiago 18 June 2019 (has links)
O trabalho na arquitetura sempre se baseou em processos e raciocínios lógicos, seguindo um fluxo de informações para solucionar questões referentes ao habitat humano. A partir da década de 1960 iniciou-se o desenvolvimento de métodos de incorporação da computação no trabalho do arquiteto, buscando tornar o processo de projeto mais eficiente. Entretanto, a influência do uso de ferramentas computacionais nas fases iniciais de projeto ainda é pouco explorada. A grande maioria dos arquitetos continua utilizando métodos tradicionais para a geração da forma, utilizando o computador simplesmente como suporte, sem aproveitar seu grande potencial para a realização de tarefas repetitivas na geração de alternativas. Os novos sistemas de modelagem paramétrica têm revolucionado essa fase do trabalho, mas ainda obrigam o arquiteto a se adaptar aos métodos e metáforas escolhidos por seus programadores, reduzindo sua liberdade de criação. Somado a esse fator, o surgimento de certificações ambientais e etiquetas de eficiência energética tem envolvido esforços para o desenvolvimento de métodos quantitativos para análise de projetos de edificações. Desse modo, projetar um edifício sustentável é sinônimo de quantificar seu impacto. A simulação computacional permite avaliar a quantidade desses impactos nas edificações, tornando possível analisar esses danos ainda em fase de projeto. Em atenção à necessidade do uso de simuladores nas etapas iniciais de projeto e à integração destes aos programas de modelagem paramétrica, desenvolvedores vêm realizando esforços para suprir essa lacuna. O progresso nesse campo de estudo tem sido realizado em integrar os motores de simulação termoenergética computacional existentes aos programas BIM (Building Information Modeling). Portanto, o objetivo deste trabalho é desenvolver um fluxo de trabalho para geração de um modelo paramétrico a partir de design algorítmico em estudos de viabilidade de edificações para análise termoenergética. O trabalho utiliza o Dynamo do Revit como ferramenta de design algorítmico para gerar a volumetria 3D automatizada para edifícios de escritórios e compara esse modelo à interoperabilidade BIM-CAD-BEM e BIM-BEM. O primeiro processo testa arquivos STL e DWG do sistema CAD exportados ao SketchUp e convertidos no Euclid para simulação computacional, sendo verificados posteriormente no EnergyPlus. O segundo processo exporta o modelo BIM gerado por massa conceitual e por elementos construtivos gerados no Dynamo e Revit diretamente para o Insight 360 e depois os exporta para o EnergyPlus. É realizada então uma análise comparativa aos modelos gerados em CAD e BIM. Os resultados validam para uma interoperabildiade mais confiável na proposta entre os modelos BIM e BEM, pois os arquivos CAD não suportam configurações de energia. A proposta de automatização de design algorítmico para geração de volumes 3D para o BIM e simulação se mostra viável, mas ainda é limitada pela integração entre os softwares. / The work in architecture has always been based on processes and logical thinking, following a flow of information to solve questions concerning human habitat. From the 1960s onwards, the development of methods of incorporating computing into the architect\'s work began, making the design process more efficient. However, the influence of the use of computational tools in the early design stages is still little explored. The vast majority of architects continue to use traditional methods for form generation, using the computer only as support, without taking advantage of their great potential for performing repetitive tasks in the generation of alternatives. The new parametric modeling systems have revolutionized this stage of the work, but still compel the architect to adapt to the methods and metaphors chosen by their programmers, reducing their freedom of design. Added to this factor, the emergence of environmental certifications and energy efficiency labels has involved efforts to develop quantitative methods for analysis of building projects. In this way, designing a sustainable building is synonymous of quantifying its impact. The computational simulation allows to evaluate the amount of these impacts in the buildings, making it possible to analyze these damages still in the design stage. Due to the need to use simulators in the early design stages and to the integration of these to parametric modeling programs, developers have been making efforts to fill this gap. The progress in this field of study has been realized in integrating the existent computational thermos-energetic simulation engines to the BIM (Building Information Modeling) programs. Therefore, the objective of this work is to develop a workflow for generating a parametric model from algorithmic design in feasibility studies for thermoenergetic analysis of buildings. The work uses Revit Dynamo as an algorithmic design tool to generate automated 3D volumetry for office buildings and compares this model between BIM-CAD-BEM and BIM-BEM interoperability. The first process tests CAD system with STL and DWG files exported to SketchUp and converted to Euclid for energy computer simulation and later verified in EnergyPlus. The second process exports the BIM model generated by conceptual mass and building elements generated in Dynamo and Revit directly to Insight 360 and then exports them to EnergyPlus. A comparative analysis is then made to the models generated in CAD and BIM. The results validate for a more accurate interoperability in the proposal between the BIM and BEM models, because CAD files do not support energy settings. The proposed algorithm design automation for 3D volume generation for BIM and simulation is feasible, but it is still limited by the integration between the programs.

Page generated in 0.068 seconds