Spelling suggestions: "subject:"[een] INTEROPERABILITY"" "subject:"[enn] INTEROPERABILITY""
391 |
Uma abordagem dirigida por modelos para desenvolvimento de aplicações multi-paas / A model-driven aproach to develop multi-PaaS applicationsSilva, Elias Adriano Nogueira da 01 September 2017 (has links)
No contexto da Engenharia de Software para a Computação em Nuvem as pesquisas relacionadas ao tema são cada vez mais crescentes e investiga-se como a Computação em Nuvem influenciará no desenvolvimento de sistemas de uma maneira geral. A atividade de construir sistemas para nuvem é uma tarefa complexa, criar aplicações de múltiplas nuvens, sobretudo, no contexto do modelo de serviço Plataforma-como-um-Serviço(PaaS), é ainda mais agravada devido especificidades de plataformas de nuvem que podem tornar a tarefa de desenvolvimento repetitiva, custosa e dependente de um provedor específico. As abordagens dirigidas por modelos(MDE) resolvem alguns desses problemas, elas propõem que a modelagem e mecanismos de transformação utilizados para gerar código a partir de modelos são uma melhor maneira de desenvolver sistemas de software, ao invés da codificação pura. Portanto, visando investigar como combinar os benefícios da Computação em Nuvem alinhados ao MDE, foi desenvolvida uma abordagem dirigida por modelos para desenvolvimento de aplicações multi-PaaS. Em direção a este objetivo foi realizado um Estudo de Caso em colaboração com uma empresa da indústria. Essa colaboração permitiu a criação de implementações de referencia que possibilitaram o desenvolvimento de uma Linguagem Específica de Domínio (DSL) e metaprogramas que compõem a abordagem. Para avaliar a abordagem desenvolvida foi realizado um Estudo de Caso. Os resultados mostram que MDE pode não só resolver o problema, mas trazer benefícios adicionais em relação a abordagens tradicionais de desenvolvimento de sistemas. Este trabalho explora esses benefícios, apresenta uma maneira de unir recursos heterogêneos de nuvem por meio de uma abordagem dirigida por modelos e aplicações orientadas a serviço. / Cloud computing is a computational paradigm that has increasingly been used in various sectors of industry and academia. Researchers have been studying how cloud technologies can influence several areas of science and research. In the context of Software Engineering, the researches related to cloud are increasingly increasing. Researchers are studying how to develop better cloud services offerings and how to find a strategy for combining existing resources to build improved services and solve problems. Building cloud systems is a complex task, in the context of the Platform-as-a-Service(PaaS) cloud service model; this activity is further aggravated by cloud platform specificities that can make the task of development repetitive, costly,and platform-specific. Model-driven approaches (MDE) solve some of these issues; they propose that the modeling and transformation mechanisms used to generate code from models are a better way to develop software systems, rather than pure coding. Development with MDE is a comprehensive and relevant research area and needs to be better explored in a wide range of contexts. Therefore, in order to investigate how to combine the benefits of multi-cloud appications aligned to the MDE, we developed a model-driven approach to build multi-PaaS applications.Toward this objective, we performed a case study in collaboration with an industry company.This collaboration allowed the creation of reference implementations that enabled the development of a Domain Specific Language (DSL) and metaprograms that constitute the approach. To evaluate the approach, we performed a case study. The results show that MDE cannot only solve the problem, but also bring additional benefits over traditional systems development approaches. This work explores these benefits, presents a way to combine heterogeneous cloud resources through a service-driven model and application-driven approach.
|
392 |
Componentes para interoperabilidade entre redes sociais na Web 2.0 / Components for interoperability among Web 2.0 social networksHerrera Muñoz, Carlos Leonardo 19 March 2013 (has links)
Nos últimos anos, as redes sociais na Web 2.0 vêm ganhando cada vez mais importância para trabalhar e compartilhar ideias. As redes sociais armazenam informações do usuário, como preferências, experiência profissional, dados pessoais e com quem o usuário interage. Essas informações são úteis para diversos fins, como oferecer produtos e serviços personalizados. Com a aparição de cada vez mais redes sociais, surgem problemas como a duplicação de perfis de usuários. Atualmente há algumas técnicas para interoperar as redes sociais, como serviços de autenticação única ou representação padrão para compartilhamento de dados. O objetivo deste trabalho foi realizar um estudo dessas técnicas e tecnologias disponíveis, implementá-las por meio de componentes do Groupware Workbench, e implantar e avaliar os componentes desenvolvidos na rede social Arquigrafia. A avaliação dos componentes foi realizada por meio dos aspectos e questões propostos pelo projeto DataPortability. A avaliação mostrou que as questões diretamente relacionadas com a interoperabilidade técnica e semântica foram respondidas. / In recent years, the importance of social networks for working and sharing ideas increased. Social networks store information such as user preferences, professional experience, personal data, and information about with whom the user interacts. This kind of information is useful for many purposes, such as offering personalized products and services. With the appearance of more social networks, problems as duplication of user profiles arise. Currently, there are some techniques for interoperating social networks, such as single authentication services and standard representation for data sharing. The objective of this work was to study techniques and technologies available, implement them as Groupware Workbench components, and deploy and evaluate the components in the social network Arquigrafia. The evaluation of the components was based on the DataPortability project. Issues related to technical and semantic interoperability have been successfully addressed.
|
393 |
Contribution à l'Ingénierie de Système de Systèmes : modélisation multi points de vue et analyse de l'impact de l'exigence d'interopérabilité / A contribution to the System of Systems Engineering : multi-view modeling and analyzing the the impact of the interoperabilityBillaud, Stéphane 17 November 2015 (has links)
Un Système de Systèmes (SdS ou System of Systems - SoS) est un système complexe résultant de l'assemblage de composants existant ou à créer, de nature hétérogène (e.g. des systèmes techniques ou socio techniques appelés sous-systèmes, dispositifs techniques, acteurs ou organisations, ou encore des infrastructures plus ou moins complexes pouvant être perçues comme des SdS). Cet assemblage est nécessaire à ces composants pour agir et interagir avec d'autres composants afin de réaliser une mission commune, éventuellement limitée dans le temps et qu'aucun de ces composants ne pourrait réaliser seul. De fait, un SdS possède des caractéristiques particulières comme l'hétérogénéité, la possible émergence de propriétés et de comportements durant les interactions entre les composants et à leurs interfaces, la préservation de l'autonomie managériale et opérationnelle de ces composants, la répartition géographique de ces composants, un cycle de vie particulier, etc. L'Ingénierie Système (IS ou Systems Engineering - SE) propose et promeut un ensemble de concepts, de processus maintenant standardisés, l'usage incontournable de modèles (on parle alors de Model Based Systems Engineering – MBSE) et de bonnes pratiques pour concevoir et réaliser des systèmes complexes. Du fait de ses caractéristiques particulières, la conception et le développement d'un SdS (SoS Engineering - SoSE) est elle-même particulière même si elle emprunte à l'IS nombre de traits communs. En effet, le choix et l'assemblage des composants, leurs besoins en termes d'interfaces pour faciliter leurs interactions entre eux et avec l'environnement du SdS, les propriétés et comportements émergents entres autres caractéristiques, impliquent des efforts de la part des personnes en charge d'un SdS. Il faut alors, pour les aider dans leurs tâches, conceptualiser et développer des langages, méthodes et outils supports. Le SoSE a en effet des besoins particuliers de modélisation, de vérification, de validation de modèles. Il nécessite également de disposer de moyens de simulation et d'évaluation du comportement global du SdS et de ses propriétés, par exemple, lorsqu'il doit faire face à des événements redoutés (e.g. ajout, modification ou retrait d'un composants, évolution de la mission, etc.). Le but est que ces personnes puissent progresser en confiance et leur donner les moyens de fournir des modèles de SdS avec lesquels l'analyse des propriétés du SdS devient possible, avant même d'alimenter les activités de décision et d'optimisation en cours de conception du SdS. Ce travail s'intéresse à une propriété importante pour les SdS et leurs composants : l'interopérabilité. Elle est vue ici comme une exigence sommative des capacités et des capabilités des composants à être et rester compatibles, à inter opérer efficacement, à rester autonome pendant l'interaction et à la réversibilité de la relation d'interaction lorsque celle-ci s'achève. L'interopérabilité garantit donc ou, à défaut, maximise la capacité d'un composant à travailler sans perte et harmonieusement avec un autre composant, dans différentes situations et avec un niveau de performance attendu, tout en respectant un ensemble d'autres exigences venant des parties prenantes impliquées ou concernées par le SdS visé.Cette thèse consiste à formaliser et à développer une méthode pour accompagner la modélisation, la vérification de modèles et l'analyse de l'interopérabilité dans un SdS. En conséquence elle repose sur 1) un ensemble de concepts et de relations entre ces concepts pour décrire un SdS et la propriété d'interopérabilité, 2) des langages spécifiques de modélisation (DSML) pour manipuler ces concepts et relations et donc créer des « modèles » de SdS, 3) d'un processus opératoire et 4) d'outils de modélisation, de vérification des modèles, de simulation du comportement et d'évaluation de l'interopérabilité et de son influence sur la performance, la stabilité et l'intégrité du SdS en cours de fonctionnement. / A System of Systems (SdS) is a complex system which is seen as a group of, in most cases, existing and heterogeneous entities (e.g. technical systems or socio-technical called subsystems, actors or organizations or even complex infrastructures that can be considered as SoS) assembled together in order to interact, during a timeframe to produce some kind of capabilities, products or services and to achieve a global mission that a system alone cannot fulfill. Moreover, the SoS has some particular characteristics such as: Operational Independence and Managerial Independence (autonomy), Evolutionary Development, Emergent Behavior, Geographic distribution, Connectivity and Diversity etc. The systems engineering (SE) provides and promotes a set of concepts, principles, processes, standards, an essential use of models (Model Based Systems Engineering - MBSE)and a good practice to design and conduct complex systems. However, even if the System of Systems Engineering (SoSE) shares some common features with the SE, SoS characteristics, assembling, interfacing and interactions between its entities, induce an additional effort, required from the persons responsible of the SoS, over the SE. Therefore, and in order to help these persons in their tasks, it is necessary to conceptualize and develop languages, methods and tolls supports. The SoSE has special needs in terms of modeling and models' verification and validation. Moreover, it requires to have means to simulate and evaluate the global behavior of the SoS and its properties, for example, when it has to face dangerous events (e.g. adding, removing or modifying a component, mission's evolution etc.). The aim is to help designers and engineers to progress in confidence by giving them the means to have SoS models with which the analysis of the SoS properties becomes possible. In this work, a particular attention is given to an important property of the SoS and its components: the interoperability. It is seen here as a summative requirement of components capacities and capabilities to remain compatible, to interoperate and to remain autonomous during the interactions and reversible after it. The interoperability guarantees or, by default, maximizes the capacity of a component to work, harmoniously and without any loss, with another component, in various situations and with an expected level of performance while respecting a set of requirements (stakeholders involved or concerned by the SoS).This thesis consists in formalizing and developing a method to support modeling, model's verification and the analysis of the interoperability in a SoS. Therefore, it is based on 1) a set of concepts and relationships between these concepts to describe a SoS as well as the interoperability property, 2) Domain Specific Modeling Languages (DSMLs) to manipulate these concepts and relationships and thus creating a SoS' model, 3) an operating process and 4) a modeling and verification tools, simulating behavior and evaluation of the interoperability and its impact on the SoS performance, stability and integrity while it is operating.
|
394 |
A formação de oficiais e as operações conjuntas : comparações com o caso britânico e os desafios brasileiros de gestão em defesaPessoa, Tamiris Santos January 2017 (has links)
A presente tese em por objetivo ilustrar como se dá o modelo conjunto - uma estrutura que compreende institucionalização, educação militar conjunta, assim como operações conjuntas, de modo a engajar as três forças singulares – por meio de uma abordagem híbrida, composta tanto pela discussão teórica e empírica quanto pela possibilidade de aplicação. Tomando por exemplo o caso britânico, o qual apresenta pioneirismo especialmente na educação militar conjunta, a construção da abordagem utilizada na presente tese perpassa por uma revisão compreensiva das abordagens sobre mudança organizacional e inovação militar, buscando demonstrar os limites das abordagens lineares e propondo uma abordagem sistêmica, demonstrando seu potencial de análise na visualização do processo de jointery e do modelo conjunto per se. Neste sentido, a teoria complexa e a estrutura de fractais são apresentadas como alternativa e, por meio de estudo de caso e process-tracing, buscou-se iluminar os parâmetros gerais para o estabelecimento do modelo conjunto dentro do espectro da Gestão de Defesa, tendo como produto um mecanismo de diagnóstico dos desafios nesta seara aplicável ao caso brasileiro. A tese de divide em cinco capítulos, os quais podem ser separados em ambientação, estudo de caso e aplicação da abordagem teórica inferida. Na ambientação, apresentam-se os antecedentes das operações conjuntas em termos de emprego, formação e suas respectivas intermitências, além de um quadro analítico prévio a respeito do Brasil em termos geopolíticos e de prospecção. No estudo de caso, aprofundam-se as análises acerca do caso britânico e dos fundamentos do jointery em sua raiz institucional, conduzindo às forças motrizes do processo e aos parâmetros gerais. Por fim, aplica-se o quadro diagnóstico ao caso brasileiro em termos de inferência de lições a serem aprendidas no recente laboratório de experiências instaurado nesta seara e, especialmente, como meio de condução ao princípio apregoado para esta modalidade de operações, o da interoperabilidade, demonstrando os desafios de gestão que se apresentam para este objetivo. Logo, visando agregar ao debate corrente de Estudos Estratégicos Internacionais e de Estudos de Segurança e Defesa uma perspectiva diferenciada em termos de abordagem teórica e análise ao elencar uma abordagem híbrida visando diagnosticar os desafios de gestão correntes e propondo uma agenda de pesquisas para as operações conjuntas no Brasil, questão recente e passível de amplo debate. / This thesis aims to offer illustrations about the joint model - a structure which abridges institutionalisation, joint military education, as well as joint operations, engaging all the single services – by means of a hybrid approach composed by the theoretical and empirical discussions as well as applicability. Taking the British case for study due to its pioneering spirit, particularly concerning joint professional military education, the approach built in this thesis includes a comprehensive review of organizational change and military innovation approaches aiming to demonstrate the limits of the linear approaches while proposing a systemic one, presenting its analysis potential to observe the jointery process and the joint model as a whole. In this sense, the complexity theory and the fractals structure posit as an alternative, as it was aimed to enlighten the ground parameters for the establishment of a joint model through case study and process-tracing within the scope of Defence Management. The product was a diagnosis mechanism capable to check the challenges in this area concerning the Brazilian case. This thesis was divided in five chapters, which by their turn can be separated in ambiance, case study and application of the inferred approach. The background of the joint operations regarding deployment, education and their intermittences are presented in the ambiance, besides a brief analytical framework presenting Brazil by means of geopolitical and prospective analyses. The analyses regarding United Kingdom and the institutional grounds of the jointery process are presented as the case study, also including the driving forces of the process and the ground parameters as well. As a final part, a diagnostic framework inferred from the proposed approach is applied to the Brazilian case. It was determined upon the case study and the process tracing, presenting lessons to be learned within the recent experiences lab installed in joint operations area, particularly regarding the much-vaunted principle of interoperability as management challenges are posited to reach such objective. Therefore, the present thesis aims to gather a different perspective to the current debate of International Strategic Studies and of Defence and Security Studies in Brazil by offering a hybrid approach aiming to present the current management challenges in the search of a joint model as well as proposing a research agenda for the joint operations in Brazil, a recent issue capable to instigate a broad discussion.
|
395 |
Loose coupling and substitution principle in objet-oriented frameworks for web services / Couplage faible et principe de substitution dans les environnements à objets pour les services webAllam, Diana 10 July 2014 (has links)
Actuellement, l’implémentation des services (modèles SOAP et RESTful) et de leurs applications clientes est de plus en plus basée sur la programmation par objet. Ainsi, les cadriciels orientés-objets pour les services Web sont essentiellement composés de deux couches : une couche à objets qui enveloppe une couche à services. Dans ce contexte, deux principes sont nécessaires pour la spécification de ces cadriciels : (i) En premier lieu, un couplage faible entre les deux couches, ce qui permet de cacher la complexité des détails techniques de la couche à services dans la couche à objets et de faire évoluer la couche à services avec un impact minimal sur la couche à objets (ii) En second lieu, une interopérabilité induite par le principe de substitution associée au sous-typage dans la couche à objets. Dans cette thèse, nous présentons d’abord les faiblesses existantes dans les cadriciels orientés-objets liés à ces deux principes. Ensuite, nous proposons une nouvelle spécification pour ces cadriciels en vue de résoudre ces problèmes. Comme application, nous décrivons la mise en œuvre de notre spécification dans le cadriciel cxf, à la fois pour SOAP et RESTful. / Today, the implementation of services (SOAP and RESTful models) and of client applications is increasingly based on object-oriented programming languages. Thus, object-oriented frameworks for Web services are essentially composed with two levels: an object level built over a service level. In this context, two properties could be particularly required in the specification of these frameworks: (i)First a loose coupling between the two levels, which allows the complex technical details of the service level to be hidden at the object level and the service level to be evolved with a minimal impact on the object level, (ii) Second, an interoperability induced by the substitution principle associated to subtyping in the object level, which allows to freely convert a value of a subtype into a supertype. In this thesis, first we present the existing weaknesses of object-oriented frameworks related to these two requirements. Then, we propose a new specification for object-oriented Web service frameworks in order to resolve these problems. As an application, we provide an implementation of our specification in the cxf framework, for both SOAP and RESTful models.
|
396 |
Du routage par clé au routage par contenu : interconnexion des systèmes et applications de diffusion vidéo / From key-based to content-based routing : system interconnection and video streaming applicationsCiancaglini, Vincenzo 26 July 2013 (has links)
Le routage par clé et par contenu sont des systèmes de routage ou la destination d'un message suit un parcours entre les nœuds du réseau qui dépend seulement du contenu du message même. On peut les trouver utilisés soit dans des systèmes pair-à-pair connus comme Réseaux Overlay Structurés (Structured Overlay Networks, SON), soit dans les architecture internet de nouvelle génération, les Réseaux Centrés sur les Contenus (Content-Centric Networks, CCN). Le but de cette thèse est double. D'un côté, on explore le sujet de l'interconnexion et de la coopération des réseaux d'overlay, et on propose une architecture capable de permettre à plusieurs réseaux d'overlay hétérogènes, avec différentes topologies et différents mécanismes de routage, d'interagir, grâce à une infrastructure basée sur des nœuds passerelles. On montre, par des moyennes de simulation et déploiement dans un réseaux réel, que la solution est scalable et permet un routage quasi-exhaustif avec un nombre relativement bas des nœuds passerelle bien connectés. De plus, on présente deux exemples d'applications qui pourront bénéficier de cette architecture. Dans une deuxième partie, on rentre plutôt dans les possibilités offertes par le routage basé sur les contenus hors sa "zone de confort": d'abord, on analyse les améliorations qu'un réseau d'overlay structuré peut porter à un système de diffusion vidéo pair-à-pair, en termes de qualité du vidéo et de perte des paquets pendant la transmission. Après, on examine un système entièrement centré sur le routage basé sur les contenus, en développant une solution de diffusion vidéo en temps réel dans un réseau CCN. / Key-based and content-based routing are a class of routing techniques where the destination and routing path for a message depends solely on the content of the message itself. This kind of routing has been implemented in certain peer-to-peer systems, known as Structured Overlay Networks (SON), or in the Next Generation Internet architectures, under the name of Content-Centric Networks (CCN). The scope of this thesis is twofold: on the one side, we explore the topic of the interconnection and cooperation of different structured overlays, and propose architecture capable of allowing several heterogeneous overlay networks, with different topologies and different routing schemes, to interact, thanks to a lightweight infrastructure consisting of co-located nodes. Through the use of simulations and real-world deployment, we show how this solution is scalable and how it facilitates quasi-exhaustive routing, with even a relatively low number of well-connected co-located nodes. To address the problem of scaling network design to millions of nodes, we propose a mathematical model capable of deriving basic performance figures for an interconnected system. Furthermore, we present two application examples that could greatly benefit from such architecture. On the other side, we investigate a little further into the capabilities of content-based routing outside of its "comfort zone": first, we analyze the improvement that a SON could bring to a peer-to-peer real-time video streaming system (P2P-TV), in terms of chunk loss and Quality of Experience. Then, we move the approach to a fully content-based domain, implementing the P2P-TV solution on top of Content-Centric Networks.
|
397 |
Persistência de dados clínicos baseada nas definições ADL de arquétipos do OpenEHR / Clinical data persistence based on OpenEHR archetypes ADL definitionsSilva, Áurea Valéria Pereira da 14 December 2016 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2017-01-16T10:13:02Z
No. of bitstreams: 2
Dissertação - Áurea Valéria Pereira da Silva - 2016.pdf: 2576793 bytes, checksum: 3b3472812df3319818244bcd2e0482d7 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-01-16T10:13:30Z (GMT) No. of bitstreams: 2
Dissertação - Áurea Valéria Pereira da Silva - 2016.pdf: 2576793 bytes, checksum: 3b3472812df3319818244bcd2e0482d7 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-01-16T10:13:30Z (GMT). No. of bitstreams: 2
Dissertação - Áurea Valéria Pereira da Silva - 2016.pdf: 2576793 bytes, checksum: 3b3472812df3319818244bcd2e0482d7 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2016-12-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Introduction: OpenEHR is a standardization of Health Information Systems (HIS) that is mainly concerned
with the exchange of Electronic Health Records (EHR). One of the major obstacles to the adoption of
openEHR is the lack of database persistence specifications. Objective: The aim of this work is the mapping
of storage structures from the Archetype Definition Language (ADL) specifications which describe clinical
knowledge structure. Method: This research initially makes a systematic mapping about persistence
structures that are derived directly from ADL specifications, i.e. without dependences from the Reference
Model (RM) of openEHR. A new persistence strategy is proposed and compared with ones found in the
literature. Results: Assumptions, criteria and rules were used to present the proposed approach. Its
evaluation considered quantitative aspects of persistence structures. Conclusion: The evaluation revealed
some advantages of proposed approach, such as: reductions of reference attributes (referential integrity) and
redundancy in clinical database; production of unidentified clinical records in relation to the patient;
creation of a single base table for each archetype, regardless of its use in the form of slots; scalability of
database schema (stable number of database tables), even in the occurrence of recursion through slots. / Introdução: OpenEHR é uma padronização dos Sistemas de Informação em Saúde (SIS) que se
preocupa principalmente com a troca de Registros de Saúde Eletrônicos (RES). Um dos
maiores obstáculos à adoção do openEHR é a carência de especificações de persistência de
banco de dados. Objetivo: O objetivo deste trabalho é o mapeamento de estruturas de
armazenamento a partir das especificações Archetype Definition Language (ADL) que
descrevem a estrutura do conhecimento clínico. Métodos: Esta pesquisa inicialmente faz um
mapeamento sistemático sobre estruturas de persistência que são derivadas diretamente de
especificações ADL, isto é, sem dependências do Modelo de Referência (RM) de openEHR. Uma
nova estratégia de persistência é proposta e comparada com as encontradas na literatura.
Resultados: Foram utilizados pressupostos, critérios e regras para apresentar a abordagem
proposta. Uma avaliação considerou aspectos quantitativos das estruturas de persistência, em
comparação com o que foi encontrado na literatura. Conclusões: A avaliação revelou algumas
vantagens da abordagem proposta, tais como: reduções de atributos de referência
(integridade referencial) e redundância em banco de dados clínicos; produção de registros
clínicos não identificados em relação ao paciente; criação de uma tabela de base única para
cada arquétipo, independentemente da sua utilização sob a forma de slots; escalabilidade do
esquema de banco de dados (número estável de tabelas de banco de dados), mesmo na
ocorrência de recursão através de slots.
|
398 |
IEC-61850: interoperabilidade e intercambialidade entre equipamentos de supervisão, controle e proteção através das redes de comunicação de dados / IEC-61850: interoperability and interchangeability between supervision, control and protection equipment using data communication networksJuliano Coêlho Miranda 27 April 2009 (has links)
Os sistemas de comunicação de dados sempre foram considerados um fator crítico na operação em tempo real do sistema elétrico de potência, devido a necessidade de decisões rápidas e precisas em pontos geograficamente distribuídos, desde usinas geradoras de energia até interfaces de usuários. Com a tecnologia digital, as medições, sinalizações e comandos são encapsulados em pacotes de dados que trafegam na rede da subestação, utilizando protocolos que estabelecem os formatos, as regras, os métodos, negociando e concordando no uso de parâmetros, que assegurem o transporte de informações entre dois ou mais dispositivos do sistema de automação da subestação. Uma vez que o número de protocolos de comunicação tem se tornado um desafio para usuários e fabricantes, criando ilhas de informação, o padrão IEC-61850 busca harmonizar a diversidade de equipamentos e fabricantes, e possibilitar a integração de dados para que o máximo dos benefícios possa ser extraído. Como proposta que principia esta dissertação, ambiciona-se expor a implementação no Laboratório de Sistemas de Energia Elétrica, da Universidade de São Paulo, de uma infra-estrutura de comunicação de dados e redes de computadores, Intranet, que possibilita experimentação, medição, analise e avaliação da interoperabilidade de informações, e intercambialidade de equipamentos com supervisão, controle e proteção, essencialmente, reles digitais comerciais, aqui denominados equipamentos eletrônicos inteligentes. Com o intuito de desenvolver aplicações focadas ao estudo da automação de subestações entre os níveis de processo e bay, utilizando a infraestrututa supracitada, apresenta-se neste trabalho uma lógica para controle de um bay típico de saída de linha, dispondo de meios de comunicação de dados, e uma lógica para comutação entre fontes de alta tensão em uma subestação industrial. Estes casos oportunizaram a realização de testes quanto a troca de informações adotando o padrão IEC-61850 como protocolo de comunicação, e a rede Ethernet em substituição a fiação paralela, freqüentemente utilizada como canal de comunicação, alem da intercambialidade entre dispositivos eletrônicos inteligentes de fabricantes distintos. Houve em 100% dos casos evidenciados, correta recepção dos comandos via fiação paralela ou mensagens GOOSE. Através dos resultados obtidos, percebeu-se a estabilidade e eficiência das lógicas implementadas e uma redução nos tempos necessários para troca de informações após migração para o padrão IEC-61850. Neste ínterim, busca-se avaliar o comportamento no tempo de mensagens do tipo GOOSE, Generic Object Oriented Substation Event, em condições distintas de trafego e de configuração da topologia lógica da rede de comunicação, monitorando um possível extravio entre as mensagens geradas por um emissor e aquelas recebidas por um ou mais destinatários. Em todas as aplicações foi utilizada uma metodologia para especificar a automação das lógicas discretas mediante emprego do padrão IEC-61850, caracterizando conceitos, como, por exemplo, a especificação funcional das aplicações, o mapeamento das informações enviadas e recebidas, a definição do tipo de no lógico utilizado, a configuração do serviço de mensagens GOOSE e, a atribuição da estrutura de dados de cada no lógico aos pontos pertinentes dentro das lógicas preestabelecidas. Os resultados obtidos refletiram no ambiente laboratorial demandas reais solicitadas pelo sistema elétrico de potência. / Data communication has always been considered as a critical factor in real time operation of electric power systems. This is due to the need for fast and accurate decisions at different locations, from power generation to the user interfaces. With the digital technology, measurement, signals and commands are encrypted into data packets that travels on the substation network, using protocols that provide the format, rules, methods, dealing with parameters which ensure the traffic of information between two or more devices in the substation automation system. Since the number of communication protocols has become a challenge for users and manufacturers, creating islands of information, the IEC-61850 standard seeks for harmonization of the different equipment and manufacturers, enabling the integration of data for maximum performance. The proposal of this work is the actual implementation, at the Energy Systems Laboratory from the University of Sao Paulo, of an infrastructure of data communication network, which allows experimentation, measurement, analysis and assessment of information, interoperability and interchangeability of supervision, control and protection equipment, especially Intelligent Electronic Devices (IEDs). In order to develop applications focused on the study of automation of substations between the process and bay levels, using the infrastructure mentioned above, a logic to bay control using data communication, as well as a logic for high voltage source switching are presented. These situations test information exchange using the IEC-61850 standard as a communication protocol, and the Ethernet network replacing parallel wiring. It also tests the interchangeability amongst IEDs from different manufacturers. There were in 100% of the cases tested, correct reception of commands using parallel wiring or GOOSE messages. From the results, the stability and efficiency of the implemented logic can be observed as well as a reduction in time required to exchange information in the system. Moreover, a behavior evaluation in time of GOOSE messages was implemented for different traffic and topology conditions, monitoring possible loss of messages. In all applications a methodology to specify the automation of discrete logic using the standard IEC-61850 was implemented, featuring concepts, such as the functional specification of the applications, data mapping, the definition of the type of logic node used, the configuration of GOOSE, as well as the allocation of data structure for each logical node. The results reflects in the laboratory environment the demands requested by an actual electric power system.
|
399 |
Arquitetura e métodos de integração de dados e interoperabilidade aplicados na saúde mental / Investigation of the effectiveness of data integration and interoperability methods applied to mental healthMiyoshi, Newton Shydeo Brandão 16 March 2018 (has links)
A disponibilidade e integração das informações em saúde relativas a um mesmo paciente entre diferentes níveis de atenção ou entre diferentes instituições de saúde é normalmente incompleta ou inexistente. Isso acontece principalmente porque os sistemas de informação que oferecem apoio aos profissionais da saúde não são interoperáveis, dificultando também a gestão dos serviços a nível municipal e regional. Essa fragmentação da informação também é desafiadora e preocupante na área da saúde mental, em que normalmente se exige um cuidado prolongado e que integra diferentes tipos de serviços de saúde. Problemas como a baixa qualidade e indisponibilidade de informações, assim como a duplicidade de registros, são importantes aspectos na gestão e no cuidado prolongado ao paciente portador de transtornos mentais. Apesar disso, ainda não existem estudos objetivos demonstrando o impacto efetivo da interoperabilidade e integração de dados na gestão e na qualidade de dados para a área de saúde mental. Objetivos: Neste contexto, o projeto tem como objetivo geral propor uma arquitetura de interoperabilidade para a assistência em saúde regionalizada e avaliar a efetividade de técnicas de integração de dados e interoperabilidade para a gestão dos atendimentos e internações em saúde mental na região de Ribeirão Preto, assim como o impacto na melhoria e disponibilidade dos dados por meio de métricas bem definidas. Métodos: O framework de interoperabilidade proposto tem como base a arquitetura cliente-servidor em camadas. O modelo de informação de interoperabilidade foi baseado em padrões de saúde internacionais e nacionais. Foi proposto um servidor de terminologias baseado em padrões de informação em saúde. Foram também utilizados algoritmos de Record Linkage para garantir a identificação unívoca do paciente. Para teste e validação da proposta foram utilizados dados de diferentes níveis de atenção à saúde provenientes de atendimentos na rede de atenção psicossocial na região de Ribeirão Preto. Os dados foram extraídos de cinco fontes diferentes: (i) a Unidade Básica de Saúde da Família - I, de Santa Cruz da Esperança; (ii) o Centro de Atenção Integrada à Saúde, de Santa Rita do Passa Quatro; (iii) o Hospital Santa Tereza; (iv) as informações de solicitações de internação contidas no SISAM (Sistema de Informação em Saúde Mental); e (v) dados demográficos do Barramento do Cartão Nacional de Saúde do Ministério da Saúde. As métricas de qualidade de dados utilizadas foram completude, consistência, duplicidade e acurácia. Resultados: Como resultado deste trabalho, foi projetado, desenvolvido e testado a plataforma de interoperabilidade em saúde, denominado eHealth-Interop. Foi adotada uma proposta de interoperabilidade por meio de serviços web com um modelo de integração de dados baseado em um banco de dados centralizador. Foi desenvolvido também um servidor de terminologias, denominado eHealth-Interop Terminology Server, que pode ser utilizado como um componente independente e em outros contextos médicos. No total foram obtidos dados de 31340 registros de pacientes pelo SISAM, e-SUS AB de Santa Cruz da Esperança, do CAIS de Santa Rita do Passa Quatro, do Hospital Santa Tereza e do Barramento do CNS do Ministério da Saúde. Desse total, 30,47% (9548) registros foram identificados como presente em mais de 1 fonte de informação, possuindo diferentes níveis de acurácia e completude. A análise de qualidade de dados, abrangendo todas os registros integrados, obteve uma melhoria na completude média de 18,40% (de 56,47% para 74,87%) e na acurácia sintática média de 1,08% (de 96,69% para 96,77%). Na análise de consistência houve melhoras em todas as fontes de informação, variando de uma melhoria mínima de 14.4% até o máximo de 51,5%. Com o módulo de Record Linkage foi possível quantificar, 1066 duplicidades e, dessas, 226 foram verificadas manualmente. Conclusões: A disponibilidade e a qualidade da informação são aspectos importantes para a continuidade do atendimento e gerenciamento de serviços de saúde. A solução proposta neste trabalho visa estabelecer um modelo computacional para preencher essa lacuna. O ambiente de interoperabilidade foi capaz de integrar a informação no caso de uso de saúde mental com o suporte de terminologias clínicas internacionais e nacionais sendo flexível para ser estendido a outros domínios de atenção à saúde. / The availability and integration of health information from the same patient between different care levels or between different health services is usually incomplete or non-existent. This happens especially because the information systems that support health professionals are not interoperable, making it difficult to manage services at the municipal and regional level. This fragmentation of information is also challenging and worrying in the area of mental health, where long-term care is often required and integrates different types of health services and professionals. Problems such as poor quality and unavailability of information, as well as duplicate records, are important aspects in the management and long-term care of patients with mental disorders. Despite this, there are still no objective studies that demonstrate the effective impact of interoperability and data integration on the management and quality of data for the mental health area. Objectives: In this context, this project proposes an interoperability architecture for regionalized health care management. It also proposes to evaluate the effectiveness of data integration and interoperability techniques for the management of mental health hospitalizations in the Ribeirão Preto region as well as the improvement in data availability through well-defined metrics. Methods: The proposed framework is based on client-service architecture to be deployed in the web. The interoperability information model was based on international and national health standards. It was proposed a terminology server based on health information standards. Record Linkage algorithms were implemented to guarantee the patient identification. In order to test and validate the proposal, we used data from different health care levels provided by the mental health care network in the Ribeirão Preto region. The data were extracted from five different sources: the Family Health Unit I of Santa Cruz da Esperança, the Center for Integrated Health Care of Santa Rita do Passa Quatro, Santa Tereza Hospital, the information on hospitalization requests system in SISAM (Mental Health Information System) and demographic data of the Brazilian Ministry of Health Bus. Results: As a result of this work, the health interoperability platform, called eHealth-Interop, was designed, developed and tested. A proposal was adopted for interoperability through web services with a data integration model based on a centralizing database. A terminology server, called eHealth-Interop Terminology Server, has been developed that can be used as an independent component and in other medical contexts. In total, 31340 patient records were obtained from SISAM, eSUS-AB from Santa Cruz da Esperança, from CAIS from Santa Rita do Passa Quatro, from Santa Tereza Hospital and from the CNS Service Bus from the Brazillian Ministry of Health. 47% (9548) records were identified as present in more than 1 information source, having different levels ofaccuracy and completeness. The data quality analysis, covering all integrated records, obtained an improvement in the average completeness of 18.40% (from 56.47% to 74.87%) and the mean syntactic accuracy of 1.08% (from 96,69% to 96.77%). In the consistency analysis there were improvements in all information sources, ranging from a minimum improvement of 14.4% to a maximum of 51.5%. With the Record Linkage module it was possible to quantify 1066 duplications, of which 226 were manually verified. Conclusions: The information\'s availability and quality are both important aspects for the continuity of care and health services management. The solution proposed in this work aims to establish a computational model to fill this gap. It has been successfully applied in the mental health care context and is flexible to be extendable to other medical domains.
|
400 |
Verification and test of interoperability security policies / Vérification et test des politiques de sécurité d'interopérabilitéEl Maarabani, Mazen 29 May 2012 (has links)
De nos jours, divers systèmes ou organisations peuvent collaborer et échanger des informations ou des services. Ainsi grâce à cette collaboration, ces derniers vont pouvoir travailler ensemble et mener des échanges afin d'atteindre un but commun. Ceci ne peut pas être réalisé sans des problèmes de sécurité. Pour collaborer chaque participant doit définir une politique d'interopérabilité. Cette politique sera en charge de : (i) définir les informations et les ressources partageables et (ii) définir les privilèges d'accès des utilisateurs qui participent à un projet commun qui nécessite une collaboration. Pour garantir un certain niveau de sécurité, il est indispensable de vérifier si le comportement des systèmes des différents participants respecte bien leurs politiques de sécurité. Pour atteindre cet objectif, nous proposons une méthode pour tester les politiques d'interopérabilité en se basant sur deux approches différentes de test : l'approche active et l'approche passive. Le principe de test actif consiste à générer automatiquement une suite de scenarios de test qui peuvent être appliqués sur un système sous test pour étudier sa conformité par rapport à ses besoins en matière de sécurité. Quant au test passif, il consiste à observer passivement le système sous test sans interrompre le flux normal de ses opérations. Dans notre étude nous avons remarqué que les techniques de test actif et passif sont complémentaires pour tester les politiques d'interopérabilité contextuelles. Une politique est dite contextuelle si l'activation de chacune de ses règles est conditionnée par des contraintes qui peuvent être liées à l'environnement de la collaboration ou à chaque participant. Afin de pouvoir générer automatiquement les scenarios de test, il est indispensable de modéliser les politiques d'interopérabilité et le comportement fonctionnel des participants. Dans cette thèse, nous proposons une méthode pour intégrer les politiques d'interopérabilité dans les modèles fonctionnels des participants afin d'obtenir un modèle sécurisé des participants. Le comportement fonctionnel des participants est modélisé par un modèle formel basé sur des automates à états finis. Tandis que les besoins de sécurité sont spécifiés en utilisant le modèle formel OrBAC et son extension O2O. De plus, nous proposons une méthode fondée sur la technique de model checking pour vérifier si le comportement des modèles utilisés dans notre processus de test respecte bien les politiques de sécurité. La génération de cas de test est ensuite effectuée en utilisant un outil développé dans notre laboratoire. Cet outil permet d'obtenir des cas de test abstraits décrits dans des notations standards (TTCN) facilitant ainsi leur portabilité. Dans l'approche de test passif, nous spécifions la politique d'interopérabilité que le système doit respecter en utilisant un langage temporel de premier ordre. Nous analysons ensuite les traces d'exécutions des participants afin d'élaborer un verdict sur leur conformité par rapport à la politique d'interopérabilité. Finalement, nous avons appliqué nos méthodes sur un cas d'usage d’un réseau hospitalier. Cette application permet de démontrer l’efficacité et la fiabilité des approches proposées / Nowadays, there is an increasing need for interaction in business community. In such context, organizations collaborate with each other in order to achieve a common goal. In such environment, each organization has to design and implement an interoperability security policy. This policy has two objectives: (i) it specifies the information or the resources to be shared during the collaboration and (ii) it define the privileges of the organizations’ users. To guarantee a certain level of security, it is mandatory to check whether the organizations’ information systems behave as required by the interoperability security policy. In this thesis we propose a method to test the behavior of a system with respect to its interoperability security policies. Our methodology is based on two approaches: active testing approach and passive testing approach. We found that these two approaches are complementary when checking contextual interoperability security policies. Let us mention that a security policy is said to be contextual if the activation of each security rule is constrained with conditions. The active testing consists in generating a set of test cases from a formal model. Thus, we first propose a method to integrate the interoperability security policies in a formal model. This model specifies the functional behavior of an organization. The functional model is represented using the Extended Finite Automata formalism, whereas the interoperability security policies are specified using OrBAC model and its extension O2O. In addition, we propose a model checking based method to check whether the behavior of a model respects some interoperability security policies. To generate the test cases, we used a dedicated tool developed in our department. The tool allows generating abstract test cases expressed in the TTCN notation to facilitate its portability. In passive testing approach, we specify the interoperability policy, that the system under test has to respect, with Linear Temporal logics. We analyze then the collected traces of the system execution in order to deduce a verdict on their conformity with respect to the interoperability policy. Finally, we show the applicability of our methods though a hospital network case study. This application allows to demonstrate the effectiveness and reliability of the proposed approaches
|
Page generated in 0.0406 seconds