Spelling suggestions: "subject:"tempo dde execução"" "subject:"tempo dde xecução""
1 |
RRO Uma Ontologia Sobre o Uso de Requisitos de Software em Tempo de ExecuçãoDUARTE, B. B. 25 August 2016 (has links)
Made available in DSpace on 2018-08-02T00:03:42Z (GMT). No. of bitstreams: 1
tese_10151_bruno borlini - rro___uma_ontologia_sobre_o_uso_de_requisitos_de_software_em_tempo_de_execucao_2016.pdf: 2479067 bytes, checksum: 563c4375b3b85c3e6c8a29cfa508493f (MD5)
Previous issue date: 2016-08-25 / Nos últimos anos, temos assistido um constante aumento de interesse em sistemas de software que são capazes de monitorar seu meio de execução e, se necessário, adaptar seus requisitos para continuar cumprindo seu propósito. Esse tipo de software normalmente consiste em um software base, comumente chamado na literatura de target system, que é responsável por executar a função principal para qual foi desenvolvido; além de um software, interno ou externo, responsável por monitorar o software base, realizar uma análise dos dados coletados para verificar se os requisitos que foram originalmente propostos estão
sendo cumpridos e, se necessário, reagir sugerindo adaptações para garantir que o sistema base continue executando suas funções principais de forma satisfatória. Existem na literatura diversos trabalhos que propõem o uso de requisitos em tempo de execução, como sistemas adaptativos ou autônomos. No entanto, dentro desse contexto, a maioria das propostas usam suas próprias linguagens de modelagem e metodologias para representar o que são os requisitos de sistema e como utilizá-los em tempo de execução. Não há, assim, um senso comum no domínio de uso de requisitos em tempo de execução, resultando numa sobrecarga excessiva de termos e construtos.
Essa falta de consenso dentro do domínio apresentado e os problemas de comunicação gerados pela falta de um vocabulário formal e bem fundamentado foram as motivações principais para que fosse realizado um estudo sistemático sobre as diversas metodologias existentes na literatura de requisitos em tempo de execução e através do conhecimento adquirido fosse construída a RRO (Runtime Requirements Ontology), uma ontologia de referência de domínio sobre o uso de requisitos em tempo de execução. RRO foi construída através da metodologia de construção de ontologias SABiO e é fundamentada em UFO com objetivo atuar como uma representação formal do conhecimento dentro do domínio de requisitos em tempo de execução, fornecendo, desta maneira, uma descrição precisa de todas as entidades principais que compõem o domínio e estabelecendo um vocabulário
comum para ser utilizado por engenheiros de software e stakeholders.
|
2 |
Um mecanismo para troca de protocolos de sincronização de simulação distribuída em tempo de execução / Not availableMorselli Junior, João Carlos de Moraes 25 September 2000 (has links)
Este trabalho propõe um novo mecanismo que possibilita a escolha entre os protocolos de sincronização para simulação distribuída, CMB (Chandy - Misra - Bryant) e Time Warp, durante a execução de uma simulação distribuída baseada em redes de filas. A utilização do mecanismo proposto é interessante porque a escolha do protocolo de sincronização mais apropriado é uma tarefa difícil. Desta forma, a troca entre os protocolos, automática e em tempo de execução, torna-se uma opção atrativa. A troca de protocolos deve considerar duas questões principais: como realizar a troca, uma vez que cada protocolo apresenta suas próprias características, e quando a troca deve ser considerada. Baseando-se nessas duas questões, o mecanismo para troca de protocolos proposto neste trabalho pode ser implementado através da execução dos processos lógicos da simulação concorrentemente com os processos: observador (responsável pela coleta de dados relativos ao desempenho da simulação), gerenciador (detecta a necessidade da troca de protocolos) e o conversor (responsável pela conversão entre os protocolos). Este trabalho apresenta o detalhamento destes processos e um estudo sobre as características do protocolo CMB, que devem ser consideradas para avaliar seu comportamento e uma possível troca para o protocolo Time Warp / This paper addresses a novel mechanism to allow the choice between the CMB and the Time Warp (TW) protocols during the execution of queuing-based model distributed simulations. The mechanism proposed is very attractive because the choice of the most appropriate synchronization protocol is a difficult task. Many times the use of both, conservative and optimistic protocols is a good option. The dynamic swapping of protocols involves two main questions: how to realize the swapping considering the distinct characteristics and how to define the best moment to perform the swapping. Considering these two questions, the mechanism for the protocol swapping, proposed in this work, can be implemented running the following three processes, concurrently with the logical processes: observer (responsible for collecting the performance metrics), management (responsible for the detection of the correct moment for the protocol swapping) and converter (responsible for the protocol swapping). This work presents the description of these processes. A study about which features of the CMB protocol to avaluate its behavior and a possible change between the CMB and TW protocol is also presented
|
3 |
Um mecanismo para troca de protocolos de sincronização de simulação distribuída em tempo de execução / Not availableJoão Carlos de Moraes Morselli Junior 25 September 2000 (has links)
Este trabalho propõe um novo mecanismo que possibilita a escolha entre os protocolos de sincronização para simulação distribuída, CMB (Chandy - Misra - Bryant) e Time Warp, durante a execução de uma simulação distribuída baseada em redes de filas. A utilização do mecanismo proposto é interessante porque a escolha do protocolo de sincronização mais apropriado é uma tarefa difícil. Desta forma, a troca entre os protocolos, automática e em tempo de execução, torna-se uma opção atrativa. A troca de protocolos deve considerar duas questões principais: como realizar a troca, uma vez que cada protocolo apresenta suas próprias características, e quando a troca deve ser considerada. Baseando-se nessas duas questões, o mecanismo para troca de protocolos proposto neste trabalho pode ser implementado através da execução dos processos lógicos da simulação concorrentemente com os processos: observador (responsável pela coleta de dados relativos ao desempenho da simulação), gerenciador (detecta a necessidade da troca de protocolos) e o conversor (responsável pela conversão entre os protocolos). Este trabalho apresenta o detalhamento destes processos e um estudo sobre as características do protocolo CMB, que devem ser consideradas para avaliar seu comportamento e uma possível troca para o protocolo Time Warp / This paper addresses a novel mechanism to allow the choice between the CMB and the Time Warp (TW) protocols during the execution of queuing-based model distributed simulations. The mechanism proposed is very attractive because the choice of the most appropriate synchronization protocol is a difficult task. Many times the use of both, conservative and optimistic protocols is a good option. The dynamic swapping of protocols involves two main questions: how to realize the swapping considering the distinct characteristics and how to define the best moment to perform the swapping. Considering these two questions, the mechanism for the protocol swapping, proposed in this work, can be implemented running the following three processes, concurrently with the logical processes: observer (responsible for collecting the performance metrics), management (responsible for the detection of the correct moment for the protocol swapping) and converter (responsible for the protocol swapping). This work presents the description of these processes. A study about which features of the CMB protocol to avaluate its behavior and a possible change between the CMB and TW protocol is also presented
|
4 |
Um método de certificação de pior caso de tempo de execução para aplicações em sistemas operacionais de tempo real não-críticosTiengo, Willy Carvalho 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:54:53Z (GMT). No. of bitstreams: 2
arquivo2016_1.pdf: 1071776 bytes, checksum: 0985cb7f5eb2b91e3917dac88f974fa9 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2008 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Técnicas de estimativa de Pior Caso de Tempo de Execução, como elas são complexas
e demandam bastante custo para implantação, não têm sido amplamente adotadas como
solução para implementação de aplicações de tempo real. Esta dissertação apresenta
uma abordagem simples para estimar o pior caso de tempo de execução. Sua idéia consiste
em uma mudança de paradigma que permite interpretar problemas em contextos
específicos, contrariando as abordagens convencionais que tentam especificar para o
caso geral
|
5 |
Scalable data-flow testing / Teste de fluxo de dados escalávelAraujo, Roberto Paulo Andrioli de 15 September 2014 (has links)
Data-flow (DF) testing was introduced more than thirty years ago aiming at verifying a program by extensively exploring its structure. It requires tests that traverse paths in which the assignment of a value to a variable (a definition) and its subsequent reference (a use) is verified. This relationship is called definition-use association (dua). While control-flow (CF) testing tools have being able to tackle systems composed of large and long running programs, DF testing tools have failed to do so. This situation is in part due to the costs associated with tracking duas at run-time. Recently, an algorithm, called Bitwise Algorithm (BA), which uses bit vectors and bitwise operations for tracking intra-procedural duas at run-time, was proposed. This research presents the implementation of BA for programs compiled into Java bytecodes. Previous DF approaches were able to deal with small to medium size programs with high penalties in terms of execution and memory. Our experimental results show that by using BA we are able to tackle large systems with more than 250 KLOCs and 300K required duas. Furthermore, for several programs the execution penalty was comparable with that imposed by a popular CF testing tool. / Teste de fluxo de dados (TFD) foi introduzido há mais de trinta anos com o objetivo de criar uma avaliação mais abrangente da estrutura dos programas. TFD exige testes que percorrem caminhos nos quais a atribuição de valor a uma variável (definição) e a subsequente referência a esse valor (uso) são verificados. Essa relação é denominada associação definição-uso. Enquanto as ferramentas de teste de fluxo de controle são capazes de lidar com sistemas compostos de programas grandes e que executam durante bastante tempo, as ferramentas de TFD não têm obtido o mesmo sucesso. Esta situação é, em parte, devida aos custos associados ao rastreamento de associações definição-uso em tempo de execução. Recentemente, foi proposto um algoritmo --- chamado \\textit (BA) --- que usa vetores de bits e operações bit a bit para monitorar associações definição-uso em tempo de execução. Esta pesquisa apresenta a implementação de BA para programas compilados em Java. Abordagens anteriores são capazes de lidar com programas pequenos e de médio porte com altas penalidades em termos de execução e memória. Os resultados experimentais mostram que, usando BA, é possível utilizar TFD para verificar sistemas com mais de 250 mil linhas de código e 300 mil associações definição-uso. Além disso, para vários programas, a penalidade de execução imposta por BA é comparável àquela imposta por uma popular ferramenta de teste de fluxo de controle.
|
6 |
Scalable data-flow testing / Teste de fluxo de dados escalávelRoberto Paulo Andrioli de Araujo 15 September 2014 (has links)
Data-flow (DF) testing was introduced more than thirty years ago aiming at verifying a program by extensively exploring its structure. It requires tests that traverse paths in which the assignment of a value to a variable (a definition) and its subsequent reference (a use) is verified. This relationship is called definition-use association (dua). While control-flow (CF) testing tools have being able to tackle systems composed of large and long running programs, DF testing tools have failed to do so. This situation is in part due to the costs associated with tracking duas at run-time. Recently, an algorithm, called Bitwise Algorithm (BA), which uses bit vectors and bitwise operations for tracking intra-procedural duas at run-time, was proposed. This research presents the implementation of BA for programs compiled into Java bytecodes. Previous DF approaches were able to deal with small to medium size programs with high penalties in terms of execution and memory. Our experimental results show that by using BA we are able to tackle large systems with more than 250 KLOCs and 300K required duas. Furthermore, for several programs the execution penalty was comparable with that imposed by a popular CF testing tool. / Teste de fluxo de dados (TFD) foi introduzido há mais de trinta anos com o objetivo de criar uma avaliação mais abrangente da estrutura dos programas. TFD exige testes que percorrem caminhos nos quais a atribuição de valor a uma variável (definição) e a subsequente referência a esse valor (uso) são verificados. Essa relação é denominada associação definição-uso. Enquanto as ferramentas de teste de fluxo de controle são capazes de lidar com sistemas compostos de programas grandes e que executam durante bastante tempo, as ferramentas de TFD não têm obtido o mesmo sucesso. Esta situação é, em parte, devida aos custos associados ao rastreamento de associações definição-uso em tempo de execução. Recentemente, foi proposto um algoritmo --- chamado \\textit (BA) --- que usa vetores de bits e operações bit a bit para monitorar associações definição-uso em tempo de execução. Esta pesquisa apresenta a implementação de BA para programas compilados em Java. Abordagens anteriores são capazes de lidar com programas pequenos e de médio porte com altas penalidades em termos de execução e memória. Os resultados experimentais mostram que, usando BA, é possível utilizar TFD para verificar sistemas com mais de 250 mil linhas de código e 300 mil associações definição-uso. Além disso, para vários programas, a penalidade de execução imposta por BA é comparável àquela imposta por uma popular ferramenta de teste de fluxo de controle.
|
7 |
Suporte a ambientes virtuais colaborativos de larga escala em redes peer-to-peer, com gerenciamento de distribuição de dados em conformidade com o padrão HLA.Vieira, Néstor Daniel Heredia 26 May 2006 (has links)
Made available in DSpace on 2016-06-02T19:03:57Z (GMT). No. of bitstreams: 1
DissNDHV.pdf: 2131970 bytes, checksum: c7f6510e36c70fc8b4fd05d431744457 (MD5)
Previous issue date: 2006-05-26 / Financiadora de Estudos e Projetos / In Large Scale Collaborative Virtual Environments LSCVEs, extensive
synthetic 3D environments are shared among a large number of users that collaborate
towards the same objective. As all users in these environments need immediate answer
for their actions and these actions must be sent to all participating users, the application
success depends not only on a strong graphic processing but also in the capacity of the
network to deliver information in time. Data distribution management algorithms in
conformity with the High Level Architecture / Run Time Infrastructure (HLA/RTI)
pattern for parallel and distributed simulations have been used to reduce latency and to
limit and control the data amount exchanged during simulations. The data distribution
of LSCVEs is generally made by one of these communication models: client/server or
Peer-to-peer. Differently of the client/server where the server can be a bottleneck of the
network, in Peer-to-peer solutions the tasks are distributed and consequently
applications are scalable, i.e., support a crescent client number.
Motivated by these largely studied and commonly used technologies, a fault
tolerant and low latency solution was searched, addressing the strict requirements of
large scale collaborative virtual environments simulations. This was made in conformity
with the HLA pattern, which users, using their own computer connected at Gnutella
network, can participate in simulation sessions without the limitations found in kits that
support distributed simulations like the RTI-Kit existent. For this reason an architecture
was proposed with data distribution management in conformity with the HLA/RTI and
that use the Gnutella Peer-to-peer communication model to make available and to share
these environments over Mobile Ad-Hoc Networks (MANETs). Towards this propose
simulations were made comparing the RTI-Kit developed by Georgia Tech with one
speed objects and the RTI-Kit Adapted with varied speed objects in a cluster. The
evaluation of the total time of the federation execution, the total number of the multicast
messages generated and the total number of messages exchanged by the grid originated
graphics that show up considerable increasing in the time and the number of messages
exchanged by the grid mainly. In the same way the fault tolerant technique was
evaluated. / Em Ambientes Virtuais Colaborativos de Larga Escala (AVCs-LE), ambientes
3D sintéticos extensos são compartilhados entre um número muito grande de usuários
que colaboram entre si para atingir um objetivo comum. Nesses ambientes, os usuários
precisam ter uma resposta imediata às suas ações, e estas devem ser refletidas nos
ambientes de todos os usuários participantes. Assim, o sucesso da aplicação depende
não apenas de processamento gráfico poderoso, mas também, da capacidade da rede na
entrega das informações a tempo. Algoritmos de gerenciamento de distribuição de
dados, em conformidade com o padrão High Level Architecture / Run Time
Infrastructure (HLA/RTI) para simulações paralelas e distribuídas, vêm sendo
utilizados na redução da latência e como limitantes e controladores do volume de dados
trocados durante simulações. A distribuição de dados de AVCs-LE é realizada
normalmente por um destes modelos de comunicação: cliente/servidor ou Peer-to-peer.
Diferentemente do modelo cliente/servidor no qual a figura do servidor pode
caracterizar um gargalo na rede, nas soluções Peer-to-peer as atividades estão
distribuídas e conseqüentemente, suas aplicações são escaláveis, ou seja, suportam uma
quantidade crescente de usuários.
Motivados por essas tecnologias amplamente estudadas e comumente utilizadas,
procurou-se criar uma solução tolerante a falhas e de baixa latência, dentro dos
requisitos de simulações de ambientes virtuais colaborativos de larga escala. Isso foi
feito em conformidade com o padrão HLA, em que usuários, utilizando seu próprio
computador conectado a uma rede Gnutella, possam participar de sessões de simulações
sem as limitações encontradas em kits de suporte à simulação distribuída, como o Kit
RTI existente. Em razão disso, foi proposta uma arquitetura com gerenciamento de
distribuição de dados em conformidade com o HLA, padrão comumente utilizado em
simulações paralelas e distribuídas e que utiliza o modelo de comunicação Peer-to-peer
da rede Gnutella para disponibilização e compartilhamento de tais ambientes, sobre
redes móveis Ad-Hoc (Mobile Ad-Hoc Networks - MANETs). Para tanto, realizaram-se
simulações comparativas entre o Kit RTI desenvolvido pela Georgia Tech, com objetos
de apenas uma velocidade, contra o Kit RTI Adaptado, com objetos de velocidade
variada, em um cluster. A avaliação do tempo total de execução da federação, o número
total de mensagens multicast geradas e o número total de mensagens trocadas pela grade
deu origem a gráficos que mostraram aumentos consideráveis, principalmente, no tempo
e no número de mensagens trocadas pela grade. Da mesma forma, foi avaliada a técnica
proposta, tolerante a falhas.
|
8 |
Uma metodologia para análise de fluxo de programas Java para tempo realGuedes, Paulo Abadie January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:12Z (GMT). No. of bitstreams: 2
arquivo4977_1.pdf: 839007 bytes, checksum: 6f8778aed895d0751995d11c884589f1 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2004 / Esta dissertação apresenta um método de análise de fluxo para a estimativa do WCET
(worst-case execution time), o tempo de execução no pior caso, criado através da adaptação
de uma abordagem desenvolvida recentemente com o mesmo fim, sobre programas de tempo
real orientados a objeto. O método é uma extensão projetada para trabalhar sobre bytecodes
Java, assumindo que não há nenhuma forma de anotação de código presente e também que o
código-fonte original não está disponível. Devido a estas suposições, foi necessário determinar
a estrutura original do programa, através de algoritmos existentes para análise de fluxo de
controle. Outras informações sobre o programa foram necessárias, especialmente relativas às
expressões condicionais, que foram fundamentais para a determinação dos caminhos possíveis
no grafo. Além do método criado, foi desenvolvida uma ferramenta para análise de fluxo
que implementa, de forma parcial, uma das interpretações abstratas possíveis para este tipo de
finalidade. A interpretação implementada forneceu os resultados que confirmam os conceitos
subjacentes a este trabalho. A ferramenta criada foi testada em alguns programas obtidos
na literatura. Esses programas foram selecionados com o objetivo de exercitar a análise do
fluxo de controle, em situações com características relevantes e que ocorrem freqüentemente,
incluindo vários tipos de laços e estruturas com condições complexas. Programas com expressivo
número de caminhos e de estados também foram utilizados nos testes. O método
desenvolvido constitui-se num passo importante para a estimativa do WCET em Java
|
9 |
Gerenciamento Dinâmico de Modelos de Contexto: Estudo de Caso Baseado em CEP / Dynamic Management of Context Models: A Case Study Based on CEPSOARES, Rodrigo Hernandez 29 May 2012 (has links)
Made available in DSpace on 2014-07-29T14:57:51Z (GMT). No. of bitstreams: 1
dissertacao-rodrigohs.pdf: 1383844 bytes, checksum: b3fda2012ce5a20dc390677f308520e3 (MD5)
Previous issue date: 2012-05-29 / Context models that describe dynamic context-aware scenarios usually need to be frequently
updated. Some examples of situations that motivate these updates are the appearance
of new services and context providers, the mobility of the entities described in these
models, among others.
Generally, updates on models imply redevelopment of the architectural components of
context-aware systems based on these models. However, as these updates in dynamic
scenarios tend to be more frequent, it is desirable that they occur at runtime.
This dissertation presents an infrastructure for dynamic management of context models
based on the fundamentals of complex event processing, or CEP. This infrastructure
allows the fundamental abstractions from which a model is built to be updated at runtime.
As these updates can impact systems based on the updated models, this dissertation
identifies and analyzes these impacts, which are reproduced in a case study that aims
to evaluate the proposed infrastructure by demonstrating how it deals with the impacts
mentioned. / Modelos contextuais que descrevem cenários de computação sensível ao contexto dinâmicos
normalmente precisam ser frequentemente atualizados. Alguns exemplos de situações
que motivam essas atualizações são o surgimento de novos serviços e provedores de informações
contextuais, a mobilidade das entidades descritas nesses modelos, dentre outros.
Normalmente, atualizações em modelos implicam em redesenvolvimento dos componentes
arquiteturais dos sistemas sensíveis ao contexto baseados nesses modelos. Porém,
como em cenários dinâmicos essas atualizações tendem a ser mais frequentes, é desejável
que elas ocorram em tempo de execução.
Essa dissertação apresenta uma infraestrutura para gerenciamento dinâmico de modelos
de contexto baseada nos fundamentos de processamento complexo de eventos, ou CEP.
Essa infraestrutura permite que as abstrações fundamentais a partir das quais um modelo
é construído sejam atualizadas em tempo de execução. Como essas atualizações podem
causar impactos nos sistemas baseados nos modelos atualizados, essa dissertação identifica
e analisa esses impactos, os quais são reproduzidos em um estudo de caso que tem
como finalidade avaliar a infraestrutura proposta através da demonstração de como ela
lida com os impactos mencionados.
|
10 |
CSVM: uma plataforma para crowdSensing móvel dirigida por modelos em tempo de execução / CSVM: a platform driven by models at run time for mobile crowdsensingMelo, Paulo César Ferreira 15 October 2014 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2015-10-26T10:10:03Z
No. of bitstreams: 2
Dissertação - Paulo César Ferreira Melo - 2014.pdf: 3222791 bytes, checksum: f18cd58c678bb5d11f8bd0cabb32f099 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-10-26T13:03:05Z (GMT) No. of bitstreams: 2
Dissertação - Paulo César Ferreira Melo - 2014.pdf: 3222791 bytes, checksum: f18cd58c678bb5d11f8bd0cabb32f099 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-10-26T13:03:05Z (GMT). No. of bitstreams: 2
Dissertação - Paulo César Ferreira Melo - 2014.pdf: 3222791 bytes, checksum: f18cd58c678bb5d11f8bd0cabb32f099 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Previous issue date: 2014-10-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Recent advances in ubiquitous computing have contributed to the rise of an emerging
category of mobile devices that have computational and sensing capabilities, such as
smartphones and wearable devices. The widespread use of these devices connected by
communication networks contribute to the evolution of the Internet of Things. The presence
of these mobile devices increases the chance for the development of applications
using the sensing ability of these devices to measure, and understand the environmental
indicators. Furthemore, data sensed by these applications can be shared among different
mobile devices, giving rise to a paradigm called mobile crowdsensing. The complexity of
applications in this domain is associated with factors such as interoperability between different
mobile devices, data identification and capture from these devices, and adaptation
of their use in heterogeneous and dynamic environments. Software engineering approaches
such as Model-Driven Engineering (MDE) and, more specifically, models at runtime
are an effective way of dealing with this complexity. We propose the use of an approach
based on models at runtime for creating and processing mobile crowdsensing queries.We
show how this approach can be used by defining a domain-specific modeling language for
the mobile crowdsensing domain, called CSML. We built and validated the CSML metamodel
which captures the main aspects of the domain, and its execution environment,
which consists of an execution engine for models described in CSML, called CSVM. This
approach facilitates the specification of mobile crowdsensing queries, also enabling their
dynamic change during their processing. / Recentes avanços na computação ubíqua colaboraram para a ascensão de uma categoria
emergente de dispositivos móveis que apresentam capacidades computacionais e de
sensoriamento, tais como smartphones e dispositivos vestíveis. A proliferação desses
dispositivos e sua conexão por meio de redes de comunicação contribui para a evolução
da Internet das Coisas. A presença desses dispositivos móveis aumenta a oportunidade
para o desenvolvimento de aplicações que utilizam sua capacidade de sensoriamento
a fim de medir, inferir e entender os indicadores do ambiente. Por sua vez, os dados
sensoriados por essas aplicações podem ser compartilhados entre diferentes dispositivos
móveis, dando origem ao paradigma denominado CrowdSensing móvel. A complexidade
de aplicações pertencentes ao domínio de CrowdSensing móvel está associada a fatores
como interoperabilidade entre diferentes dispositivos móveis, identificação e captação de
dados provenientes desses dispositivos e adaptação de seu uso em ambientes heterogêneos
e dinâmicos. Abordagens baseadas na Engenharia Dirigida por Modelos (MDE), como
modelos em tempo de execução constituem uma forma de lidar com complexidade desse
domínio de aplicações. Neste trabalho propomos o uso de uma abordagem dirigida
por modelos em tempo de execução para criação e processamento de consultas de
crowdsensing móvel que são um importante elemento de aplicações de crowdsensing.
Mostramos como essa abordagem pode ser empregada por meio da definição de uma
linguagem de modelagem específica para o domínio de crowdsensing móvel, denominada
CSML. Neste sentido, construímos e validamos o metamodelo da CSML, que captura os
principais aspectos do domínio e seu ambiente de execução, que consiste em uma máquina
de execução de modelos descritos em CSML, denominada CSVM . Essa abordagem
dirigida por modelos facilita a especificação de consultas de crowdsensing móvel, além
de possibilitar a alteração dinâmica dessas consultas durante seu processamento.
|
Page generated in 0.0459 seconds