• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 2
  • Tagged with
  • 14
  • 14
  • 6
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

RRO Uma Ontologia Sobre o Uso de Requisitos de Software em Tempo de Execução

DUARTE, B. B. 25 August 2016 (has links)
Made available in DSpace on 2018-08-02T00:03:42Z (GMT). No. of bitstreams: 1 tese_10151_bruno borlini - rro___uma_ontologia_sobre_o_uso_de_requisitos_de_software_em_tempo_de_execucao_2016.pdf: 2479067 bytes, checksum: 563c4375b3b85c3e6c8a29cfa508493f (MD5) Previous issue date: 2016-08-25 / Nos últimos anos, temos assistido um constante aumento de interesse em sistemas de software que são capazes de monitorar seu meio de execução e, se necessário, adaptar seus requisitos para continuar cumprindo seu propósito. Esse tipo de software normalmente consiste em um software base, comumente chamado na literatura de target system, que é responsável por executar a função principal para qual foi desenvolvido; além de um software, interno ou externo, responsável por monitorar o software base, realizar uma análise dos dados coletados para verificar se os requisitos que foram originalmente propostos estão sendo cumpridos e, se necessário, reagir sugerindo adaptações para garantir que o sistema base continue executando suas funções principais de forma satisfatória. Existem na literatura diversos trabalhos que propõem o uso de requisitos em tempo de execução, como sistemas adaptativos ou autônomos. No entanto, dentro desse contexto, a maioria das propostas usam suas próprias linguagens de modelagem e metodologias para representar o que são os requisitos de sistema e como utilizá-los em tempo de execução. Não há, assim, um senso comum no domínio de uso de requisitos em tempo de execução, resultando numa sobrecarga excessiva de termos e construtos. Essa falta de consenso dentro do domínio apresentado e os problemas de comunicação gerados pela falta de um vocabulário formal e bem fundamentado foram as motivações principais para que fosse realizado um estudo sistemático sobre as diversas metodologias existentes na literatura de requisitos em tempo de execução e através do conhecimento adquirido fosse construída a RRO (Runtime Requirements Ontology), uma ontologia de referência de domínio sobre o uso de requisitos em tempo de execução. RRO foi construída através da metodologia de construção de ontologias SABiO e é fundamentada em UFO com objetivo atuar como uma representação formal do conhecimento dentro do domínio de requisitos em tempo de execução, fornecendo, desta maneira, uma descrição precisa de todas as entidades principais que compõem o domínio e estabelecendo um vocabulário comum para ser utilizado por engenheiros de software e stakeholders.
2

Um mecanismo para troca de protocolos de sincronização de simulação distribuída em tempo de execução / Not available

Morselli Junior, João Carlos de Moraes 25 September 2000 (has links)
Este trabalho propõe um novo mecanismo que possibilita a escolha entre os protocolos de sincronização para simulação distribuída, CMB (Chandy - Misra - Bryant) e Time Warp, durante a execução de uma simulação distribuída baseada em redes de filas. A utilização do mecanismo proposto é interessante porque a escolha do protocolo de sincronização mais apropriado é uma tarefa difícil. Desta forma, a troca entre os protocolos, automática e em tempo de execução, torna-se uma opção atrativa. A troca de protocolos deve considerar duas questões principais: como realizar a troca, uma vez que cada protocolo apresenta suas próprias características, e quando a troca deve ser considerada. Baseando-se nessas duas questões, o mecanismo para troca de protocolos proposto neste trabalho pode ser implementado através da execução dos processos lógicos da simulação concorrentemente com os processos: observador (responsável pela coleta de dados relativos ao desempenho da simulação), gerenciador (detecta a necessidade da troca de protocolos) e o conversor (responsável pela conversão entre os protocolos). Este trabalho apresenta o detalhamento destes processos e um estudo sobre as características do protocolo CMB, que devem ser consideradas para avaliar seu comportamento e uma possível troca para o protocolo Time Warp / This paper addresses a novel mechanism to allow the choice between the CMB and the Time Warp (TW) protocols during the execution of queuing-based model distributed simulations. The mechanism proposed is very attractive because the choice of the most appropriate synchronization protocol is a difficult task. Many times the use of both, conservative and optimistic protocols is a good option. The dynamic swapping of protocols involves two main questions: how to realize the swapping considering the distinct characteristics and how to define the best moment to perform the swapping. Considering these two questions, the mechanism for the protocol swapping, proposed in this work, can be implemented running the following three processes, concurrently with the logical processes: observer (responsible for collecting the performance metrics), management (responsible for the detection of the correct moment for the protocol swapping) and converter (responsible for the protocol swapping). This work presents the description of these processes. A study about which features of the CMB protocol to avaluate its behavior and a possible change between the CMB and TW protocol is also presented
3

Um mecanismo para troca de protocolos de sincronização de simulação distribuída em tempo de execução / Not available

João Carlos de Moraes Morselli Junior 25 September 2000 (has links)
Este trabalho propõe um novo mecanismo que possibilita a escolha entre os protocolos de sincronização para simulação distribuída, CMB (Chandy - Misra - Bryant) e Time Warp, durante a execução de uma simulação distribuída baseada em redes de filas. A utilização do mecanismo proposto é interessante porque a escolha do protocolo de sincronização mais apropriado é uma tarefa difícil. Desta forma, a troca entre os protocolos, automática e em tempo de execução, torna-se uma opção atrativa. A troca de protocolos deve considerar duas questões principais: como realizar a troca, uma vez que cada protocolo apresenta suas próprias características, e quando a troca deve ser considerada. Baseando-se nessas duas questões, o mecanismo para troca de protocolos proposto neste trabalho pode ser implementado através da execução dos processos lógicos da simulação concorrentemente com os processos: observador (responsável pela coleta de dados relativos ao desempenho da simulação), gerenciador (detecta a necessidade da troca de protocolos) e o conversor (responsável pela conversão entre os protocolos). Este trabalho apresenta o detalhamento destes processos e um estudo sobre as características do protocolo CMB, que devem ser consideradas para avaliar seu comportamento e uma possível troca para o protocolo Time Warp / This paper addresses a novel mechanism to allow the choice between the CMB and the Time Warp (TW) protocols during the execution of queuing-based model distributed simulations. The mechanism proposed is very attractive because the choice of the most appropriate synchronization protocol is a difficult task. Many times the use of both, conservative and optimistic protocols is a good option. The dynamic swapping of protocols involves two main questions: how to realize the swapping considering the distinct characteristics and how to define the best moment to perform the swapping. Considering these two questions, the mechanism for the protocol swapping, proposed in this work, can be implemented running the following three processes, concurrently with the logical processes: observer (responsible for collecting the performance metrics), management (responsible for the detection of the correct moment for the protocol swapping) and converter (responsible for the protocol swapping). This work presents the description of these processes. A study about which features of the CMB protocol to avaluate its behavior and a possible change between the CMB and TW protocol is also presented
4

Um método de certificação de pior caso de tempo de execução para aplicações em sistemas operacionais de tempo real não-críticos

Tiengo, Willy Carvalho 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:54:53Z (GMT). No. of bitstreams: 2 arquivo2016_1.pdf: 1071776 bytes, checksum: 0985cb7f5eb2b91e3917dac88f974fa9 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Técnicas de estimativa de Pior Caso de Tempo de Execução, como elas são complexas e demandam bastante custo para implantação, não têm sido amplamente adotadas como solução para implementação de aplicações de tempo real. Esta dissertação apresenta uma abordagem simples para estimar o pior caso de tempo de execução. Sua idéia consiste em uma mudança de paradigma que permite interpretar problemas em contextos específicos, contrariando as abordagens convencionais que tentam especificar para o caso geral
5

Scalable data-flow testing / Teste de fluxo de dados escalável

Araujo, Roberto Paulo Andrioli de 15 September 2014 (has links)
Data-flow (DF) testing was introduced more than thirty years ago aiming at verifying a program by extensively exploring its structure. It requires tests that traverse paths in which the assignment of a value to a variable (a definition) and its subsequent reference (a use) is verified. This relationship is called definition-use association (dua). While control-flow (CF) testing tools have being able to tackle systems composed of large and long running programs, DF testing tools have failed to do so. This situation is in part due to the costs associated with tracking duas at run-time. Recently, an algorithm, called Bitwise Algorithm (BA), which uses bit vectors and bitwise operations for tracking intra-procedural duas at run-time, was proposed. This research presents the implementation of BA for programs compiled into Java bytecodes. Previous DF approaches were able to deal with small to medium size programs with high penalties in terms of execution and memory. Our experimental results show that by using BA we are able to tackle large systems with more than 250 KLOCs and 300K required duas. Furthermore, for several programs the execution penalty was comparable with that imposed by a popular CF testing tool. / Teste de fluxo de dados (TFD) foi introduzido há mais de trinta anos com o objetivo de criar uma avaliação mais abrangente da estrutura dos programas. TFD exige testes que percorrem caminhos nos quais a atribuição de valor a uma variável (definição) e a subsequente referência a esse valor (uso) são verificados. Essa relação é denominada associação definição-uso. Enquanto as ferramentas de teste de fluxo de controle são capazes de lidar com sistemas compostos de programas grandes e que executam durante bastante tempo, as ferramentas de TFD não têm obtido o mesmo sucesso. Esta situação é, em parte, devida aos custos associados ao rastreamento de associações definição-uso em tempo de execução. Recentemente, foi proposto um algoritmo --- chamado \\textit (BA) --- que usa vetores de bits e operações bit a bit para monitorar associações definição-uso em tempo de execução. Esta pesquisa apresenta a implementação de BA para programas compilados em Java. Abordagens anteriores são capazes de lidar com programas pequenos e de médio porte com altas penalidades em termos de execução e memória. Os resultados experimentais mostram que, usando BA, é possível utilizar TFD para verificar sistemas com mais de 250 mil linhas de código e 300 mil associações definição-uso. Além disso, para vários programas, a penalidade de execução imposta por BA é comparável àquela imposta por uma popular ferramenta de teste de fluxo de controle.
6

Scalable data-flow testing / Teste de fluxo de dados escalável

Roberto Paulo Andrioli de Araujo 15 September 2014 (has links)
Data-flow (DF) testing was introduced more than thirty years ago aiming at verifying a program by extensively exploring its structure. It requires tests that traverse paths in which the assignment of a value to a variable (a definition) and its subsequent reference (a use) is verified. This relationship is called definition-use association (dua). While control-flow (CF) testing tools have being able to tackle systems composed of large and long running programs, DF testing tools have failed to do so. This situation is in part due to the costs associated with tracking duas at run-time. Recently, an algorithm, called Bitwise Algorithm (BA), which uses bit vectors and bitwise operations for tracking intra-procedural duas at run-time, was proposed. This research presents the implementation of BA for programs compiled into Java bytecodes. Previous DF approaches were able to deal with small to medium size programs with high penalties in terms of execution and memory. Our experimental results show that by using BA we are able to tackle large systems with more than 250 KLOCs and 300K required duas. Furthermore, for several programs the execution penalty was comparable with that imposed by a popular CF testing tool. / Teste de fluxo de dados (TFD) foi introduzido há mais de trinta anos com o objetivo de criar uma avaliação mais abrangente da estrutura dos programas. TFD exige testes que percorrem caminhos nos quais a atribuição de valor a uma variável (definição) e a subsequente referência a esse valor (uso) são verificados. Essa relação é denominada associação definição-uso. Enquanto as ferramentas de teste de fluxo de controle são capazes de lidar com sistemas compostos de programas grandes e que executam durante bastante tempo, as ferramentas de TFD não têm obtido o mesmo sucesso. Esta situação é, em parte, devida aos custos associados ao rastreamento de associações definição-uso em tempo de execução. Recentemente, foi proposto um algoritmo --- chamado \\textit (BA) --- que usa vetores de bits e operações bit a bit para monitorar associações definição-uso em tempo de execução. Esta pesquisa apresenta a implementação de BA para programas compilados em Java. Abordagens anteriores são capazes de lidar com programas pequenos e de médio porte com altas penalidades em termos de execução e memória. Os resultados experimentais mostram que, usando BA, é possível utilizar TFD para verificar sistemas com mais de 250 mil linhas de código e 300 mil associações definição-uso. Além disso, para vários programas, a penalidade de execução imposta por BA é comparável àquela imposta por uma popular ferramenta de teste de fluxo de controle.
7

Suporte a ambientes virtuais colaborativos de larga escala em redes peer-to-peer, com gerenciamento de distribuição de dados em conformidade com o padrão HLA.

Vieira, Néstor Daniel Heredia 26 May 2006 (has links)
Made available in DSpace on 2016-06-02T19:03:57Z (GMT). No. of bitstreams: 1 DissNDHV.pdf: 2131970 bytes, checksum: c7f6510e36c70fc8b4fd05d431744457 (MD5) Previous issue date: 2006-05-26 / Financiadora de Estudos e Projetos / In Large Scale Collaborative Virtual Environments LSCVEs, extensive synthetic 3D environments are shared among a large number of users that collaborate towards the same objective. As all users in these environments need immediate answer for their actions and these actions must be sent to all participating users, the application success depends not only on a strong graphic processing but also in the capacity of the network to deliver information in time. Data distribution management algorithms in conformity with the High Level Architecture / Run Time Infrastructure (HLA/RTI) pattern for parallel and distributed simulations have been used to reduce latency and to limit and control the data amount exchanged during simulations. The data distribution of LSCVEs is generally made by one of these communication models: client/server or Peer-to-peer. Differently of the client/server where the server can be a bottleneck of the network, in Peer-to-peer solutions the tasks are distributed and consequently applications are scalable, i.e., support a crescent client number. Motivated by these largely studied and commonly used technologies, a fault tolerant and low latency solution was searched, addressing the strict requirements of large scale collaborative virtual environments simulations. This was made in conformity with the HLA pattern, which users, using their own computer connected at Gnutella network, can participate in simulation sessions without the limitations found in kits that support distributed simulations like the RTI-Kit existent. For this reason an architecture was proposed with data distribution management in conformity with the HLA/RTI and that use the Gnutella Peer-to-peer communication model to make available and to share these environments over Mobile Ad-Hoc Networks (MANETs). Towards this propose simulations were made comparing the RTI-Kit developed by Georgia Tech with one speed objects and the RTI-Kit Adapted with varied speed objects in a cluster. The evaluation of the total time of the federation execution, the total number of the multicast messages generated and the total number of messages exchanged by the grid originated graphics that show up considerable increasing in the time and the number of messages exchanged by the grid mainly. In the same way the fault tolerant technique was evaluated. / Em Ambientes Virtuais Colaborativos de Larga Escala (AVCs-LE), ambientes 3D sintéticos extensos são compartilhados entre um número muito grande de usuários que colaboram entre si para atingir um objetivo comum. Nesses ambientes, os usuários precisam ter uma resposta imediata às suas ações, e estas devem ser refletidas nos ambientes de todos os usuários participantes. Assim, o sucesso da aplicação depende não apenas de processamento gráfico poderoso, mas também, da capacidade da rede na entrega das informações a tempo. Algoritmos de gerenciamento de distribuição de dados, em conformidade com o padrão High Level Architecture / Run Time Infrastructure (HLA/RTI) para simulações paralelas e distribuídas, vêm sendo utilizados na redução da latência e como limitantes e controladores do volume de dados trocados durante simulações. A distribuição de dados de AVCs-LE é realizada normalmente por um destes modelos de comunicação: cliente/servidor ou Peer-to-peer. Diferentemente do modelo cliente/servidor no qual a figura do servidor pode caracterizar um gargalo na rede, nas soluções Peer-to-peer as atividades estão distribuídas e conseqüentemente, suas aplicações são escaláveis, ou seja, suportam uma quantidade crescente de usuários. Motivados por essas tecnologias amplamente estudadas e comumente utilizadas, procurou-se criar uma solução tolerante a falhas e de baixa latência, dentro dos requisitos de simulações de ambientes virtuais colaborativos de larga escala. Isso foi feito em conformidade com o padrão HLA, em que usuários, utilizando seu próprio computador conectado a uma rede Gnutella, possam participar de sessões de simulações sem as limitações encontradas em kits de suporte à simulação distribuída, como o Kit RTI existente. Em razão disso, foi proposta uma arquitetura com gerenciamento de distribuição de dados em conformidade com o HLA, padrão comumente utilizado em simulações paralelas e distribuídas e que utiliza o modelo de comunicação Peer-to-peer da rede Gnutella para disponibilização e compartilhamento de tais ambientes, sobre redes móveis Ad-Hoc (Mobile Ad-Hoc Networks - MANETs). Para tanto, realizaram-se simulações comparativas entre o Kit RTI desenvolvido pela Georgia Tech, com objetos de apenas uma velocidade, contra o Kit RTI Adaptado, com objetos de velocidade variada, em um cluster. A avaliação do tempo total de execução da federação, o número total de mensagens multicast geradas e o número total de mensagens trocadas pela grade deu origem a gráficos que mostraram aumentos consideráveis, principalmente, no tempo e no número de mensagens trocadas pela grade. Da mesma forma, foi avaliada a técnica proposta, tolerante a falhas.
8

Uma metodologia para análise de fluxo de programas Java para tempo real

Guedes, Paulo Abadie January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:12Z (GMT). No. of bitstreams: 2 arquivo4977_1.pdf: 839007 bytes, checksum: 6f8778aed895d0751995d11c884589f1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / Esta dissertação apresenta um método de análise de fluxo para a estimativa do WCET (worst-case execution time), o tempo de execução no pior caso, criado através da adaptação de uma abordagem desenvolvida recentemente com o mesmo fim, sobre programas de tempo real orientados a objeto. O método é uma extensão projetada para trabalhar sobre bytecodes Java, assumindo que não há nenhuma forma de anotação de código presente e também que o código-fonte original não está disponível. Devido a estas suposições, foi necessário determinar a estrutura original do programa, através de algoritmos existentes para análise de fluxo de controle. Outras informações sobre o programa foram necessárias, especialmente relativas às expressões condicionais, que foram fundamentais para a determinação dos caminhos possíveis no grafo. Além do método criado, foi desenvolvida uma ferramenta para análise de fluxo que implementa, de forma parcial, uma das interpretações abstratas possíveis para este tipo de finalidade. A interpretação implementada forneceu os resultados que confirmam os conceitos subjacentes a este trabalho. A ferramenta criada foi testada em alguns programas obtidos na literatura. Esses programas foram selecionados com o objetivo de exercitar a análise do fluxo de controle, em situações com características relevantes e que ocorrem freqüentemente, incluindo vários tipos de laços e estruturas com condições complexas. Programas com expressivo número de caminhos e de estados também foram utilizados nos testes. O método desenvolvido constitui-se num passo importante para a estimativa do WCET em Java
9

Gerenciamento Dinâmico de Modelos de Contexto: Estudo de Caso Baseado em CEP / Dynamic Management of Context Models: A Case Study Based on CEP

SOARES, Rodrigo Hernandez 29 May 2012 (has links)
Made available in DSpace on 2014-07-29T14:57:51Z (GMT). No. of bitstreams: 1 dissertacao-rodrigohs.pdf: 1383844 bytes, checksum: b3fda2012ce5a20dc390677f308520e3 (MD5) Previous issue date: 2012-05-29 / Context models that describe dynamic context-aware scenarios usually need to be frequently updated. Some examples of situations that motivate these updates are the appearance of new services and context providers, the mobility of the entities described in these models, among others. Generally, updates on models imply redevelopment of the architectural components of context-aware systems based on these models. However, as these updates in dynamic scenarios tend to be more frequent, it is desirable that they occur at runtime. This dissertation presents an infrastructure for dynamic management of context models based on the fundamentals of complex event processing, or CEP. This infrastructure allows the fundamental abstractions from which a model is built to be updated at runtime. As these updates can impact systems based on the updated models, this dissertation identifies and analyzes these impacts, which are reproduced in a case study that aims to evaluate the proposed infrastructure by demonstrating how it deals with the impacts mentioned. / Modelos contextuais que descrevem cenários de computação sensível ao contexto dinâmicos normalmente precisam ser frequentemente atualizados. Alguns exemplos de situações que motivam essas atualizações são o surgimento de novos serviços e provedores de informações contextuais, a mobilidade das entidades descritas nesses modelos, dentre outros. Normalmente, atualizações em modelos implicam em redesenvolvimento dos componentes arquiteturais dos sistemas sensíveis ao contexto baseados nesses modelos. Porém, como em cenários dinâmicos essas atualizações tendem a ser mais frequentes, é desejável que elas ocorram em tempo de execução. Essa dissertação apresenta uma infraestrutura para gerenciamento dinâmico de modelos de contexto baseada nos fundamentos de processamento complexo de eventos, ou CEP. Essa infraestrutura permite que as abstrações fundamentais a partir das quais um modelo é construído sejam atualizadas em tempo de execução. Como essas atualizações podem causar impactos nos sistemas baseados nos modelos atualizados, essa dissertação identifica e analisa esses impactos, os quais são reproduzidos em um estudo de caso que tem como finalidade avaliar a infraestrutura proposta através da demonstração de como ela lida com os impactos mencionados.
10

CSVM: uma plataforma para crowdSensing móvel dirigida por modelos em tempo de execução / CSVM: a platform driven by models at run time for mobile crowdsensing

Melo, Paulo César Ferreira 15 October 2014 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2015-10-26T10:10:03Z No. of bitstreams: 2 Dissertação - Paulo César Ferreira Melo - 2014.pdf: 3222791 bytes, checksum: f18cd58c678bb5d11f8bd0cabb32f099 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-10-26T13:03:05Z (GMT) No. of bitstreams: 2 Dissertação - Paulo César Ferreira Melo - 2014.pdf: 3222791 bytes, checksum: f18cd58c678bb5d11f8bd0cabb32f099 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-10-26T13:03:05Z (GMT). No. of bitstreams: 2 Dissertação - Paulo César Ferreira Melo - 2014.pdf: 3222791 bytes, checksum: f18cd58c678bb5d11f8bd0cabb32f099 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-10-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Recent advances in ubiquitous computing have contributed to the rise of an emerging category of mobile devices that have computational and sensing capabilities, such as smartphones and wearable devices. The widespread use of these devices connected by communication networks contribute to the evolution of the Internet of Things. The presence of these mobile devices increases the chance for the development of applications using the sensing ability of these devices to measure, and understand the environmental indicators. Furthemore, data sensed by these applications can be shared among different mobile devices, giving rise to a paradigm called mobile crowdsensing. The complexity of applications in this domain is associated with factors such as interoperability between different mobile devices, data identification and capture from these devices, and adaptation of their use in heterogeneous and dynamic environments. Software engineering approaches such as Model-Driven Engineering (MDE) and, more specifically, models at runtime are an effective way of dealing with this complexity. We propose the use of an approach based on models at runtime for creating and processing mobile crowdsensing queries.We show how this approach can be used by defining a domain-specific modeling language for the mobile crowdsensing domain, called CSML. We built and validated the CSML metamodel which captures the main aspects of the domain, and its execution environment, which consists of an execution engine for models described in CSML, called CSVM. This approach facilitates the specification of mobile crowdsensing queries, also enabling their dynamic change during their processing. / Recentes avanços na computação ubíqua colaboraram para a ascensão de uma categoria emergente de dispositivos móveis que apresentam capacidades computacionais e de sensoriamento, tais como smartphones e dispositivos vestíveis. A proliferação desses dispositivos e sua conexão por meio de redes de comunicação contribui para a evolução da Internet das Coisas. A presença desses dispositivos móveis aumenta a oportunidade para o desenvolvimento de aplicações que utilizam sua capacidade de sensoriamento a fim de medir, inferir e entender os indicadores do ambiente. Por sua vez, os dados sensoriados por essas aplicações podem ser compartilhados entre diferentes dispositivos móveis, dando origem ao paradigma denominado CrowdSensing móvel. A complexidade de aplicações pertencentes ao domínio de CrowdSensing móvel está associada a fatores como interoperabilidade entre diferentes dispositivos móveis, identificação e captação de dados provenientes desses dispositivos e adaptação de seu uso em ambientes heterogêneos e dinâmicos. Abordagens baseadas na Engenharia Dirigida por Modelos (MDE), como modelos em tempo de execução constituem uma forma de lidar com complexidade desse domínio de aplicações. Neste trabalho propomos o uso de uma abordagem dirigida por modelos em tempo de execução para criação e processamento de consultas de crowdsensing móvel que são um importante elemento de aplicações de crowdsensing. Mostramos como essa abordagem pode ser empregada por meio da definição de uma linguagem de modelagem específica para o domínio de crowdsensing móvel, denominada CSML. Neste sentido, construímos e validamos o metamodelo da CSML, que captura os principais aspectos do domínio e seu ambiente de execução, que consiste em uma máquina de execução de modelos descritos em CSML, denominada CSVM . Essa abordagem dirigida por modelos facilita a especificação de consultas de crowdsensing móvel, além de possibilitar a alteração dinâmica dessas consultas durante seu processamento.

Page generated in 0.0645 seconds