Spelling suggestions: "subject:"model checking."" "subject:"model hecking.""
231 |
[en] AN APPROACH FOR DEALING WITH INCONSISTENCIES IN DATA MASHUPS / [pt] UMA ABORDAGEM PARA LIDAR COM INCONSISTÊNCIAS EM COMBINAÇÕES DE DADOSEVELINE RUSSO SACRAMENTO FERREIRA 24 May 2016 (has links)
[pt] A grande quantidade de dados disponíveis na Web permite aos usuários
combinarem e rapidamente integrarem dados provenientes de fontes diferentes,
pertencentes ao mesmo domínio de aplicação. Entretanto, combinações de dados
construídas a partir de fontes de dados independentes e heterogêneas podem gerar
inconsistências e, portanto, confundir o usuário que faz uso de tais dados. Esta
tese aborda o problema de criação de uma combinação consistente de dados a
partir de fontes de dados mutuamente inconsistentes. Especificamente, aborda o
problema de testar quando os dados a serem combinados são inconsistentes em
relação a um conjunto pré-definido de restrições. As principais contribuições desta
tese são: (1) a formalização da noção de combinação consistente de dados,
tratando os dados retornados pelas fontes como uma Teoria de Defaults e
considerando uma combinação consistente de dados como uma extensão desta
teoria; (2) um verificador de modelos para uma família de Lógicas de Descrição,
usado para analisar e separar os dados consistentes e inconsistentes, além de testar
a consistência e completude das combinações de dados obtidas; (3) um
procedimento heurístico para computar tais combinações consistentes de dados. / [en] With the amount of data available on the Web, consumers can mashup
and quickly integrate data from different sources belonging to the same
application domain. However, data mashups constructed from independent and
heterogeneous data sources may contain inconsistencies and, therefore, puzzle the
user when observing the data. This thesis addresses the problem of creating a
consistent data mashup from mutually inconsistent data sources. Specifically, it
deals with the problem of testing, when data to be combined is inconsistent with
respect to a predefined set of constraints. The main contributions of this thesis are:
(1) the formalization of the notion of consistent data mashups by treating the data
returned from the data sources as a default theory and considering a consistent
data mashup as an extension of this theory; (2) a model checker for a family of
Description Logics, which analyzes and separates consistent from inconsistent
data and also tests the consistency and completeness of the obtained data
mashups; (3) a heuristic procedure for computing such consistent data mashups.
|
232 |
Gestion autonomique d'objets communicants dans le cadre des réseaux machine à machine sous des contraintes temporelles / Autonomic management of communicating objects in machine-to-machine systems operating under temporal constraintsGharbi, Ghada 08 November 2016 (has links)
La baisse des coûts de communication, l'amélioration de la performance des réseaux et l'évolution des plateformes de services dédiées permettant de gérer une multitude d'objets, a conduit à l'apparition de nouveaux usages et de nouvelles applications rassemblées sous l'appellation "Machine-à-Machine'' abrégée en M2M. Ce travail de thèse propose de répondre aux défis d'autogestion caractérisés par les récentes études de l'informatique autonomique. Il traite de la modélisation et de la validation des systèmes M2M opérant dans un contexte dynamique et sous un ensemble de propriétés structurelles et temporisées. Pour ce faire, nous proposons de nous appuyer sur les grammaires de graphes et des techniques de model checking. Dans un premier temps, nous nous sommes intéressés à la vérification au moment de la conception des communications M2M opérant sous des contraintes temporisées. Pour ce faire, nous avons proposé une approche de vérification formelle basée sur les techniques de model checking. Pour caractériser les entités M2M ainsi que leurs propriétés temporisées, un modèle formel basé sur les automates temporisés a été introduit. Étant donné que les systèmes M2M impliquent un grand nombre d'éléments, une approche de vérification partielle du système a été adoptée. La vérification au moment de la conception est une étape très importante, cependant elle n'est pas suffisante. En effet, les systèmes M2M sont hautement dynamiques et leur adaptation au moment de l'exécution est cruciale pour garantir leur bon fonctionnement. Dans un premier temps, nous nous sommes intéressés à la gestion des propriétés structurelles des systèmes M2M. Pour ce faire, nous nous sommes référés au standard européen smartM2M pour définir un style architectural décrivant les organisations acceptables du système. Afin de conduire des actions de reconfiguration dynamiques, nous nous sommes basés sur les grammaires de graphes et des règles de transformation de graphes. L'approche de reconfiguration proposée a été ensuite étendue pour prendre en compte les contraintes temporisées lors de la reconfiguration des systèmes M2M. Pour ce faire, nous avons caractérisé les systèmes M2M en trois couches : une couche application qui exprime les propriétés temporisées entre les applications M2M, une couche service pour décrire les composants nécessaires à l'exécution des applications et une couche infrastructure décrivant le déploiement de ces derniers sur une infrastructure physique. Des mécanismes de reconfiguration dynamique guidés par les contraintes temporisées ont été proposés et implémentés dans un gestionnaire autonomique qui interagit avec ces différentes couches. Son rôle est de superviser, de contrôler, et de garantir le comportement temporisé du système. / The decrease in communication costs, the improvement of networks performance and the evolution of the dedicated services platforms managing multiple objects, led to the appearance of new practices and applications gathered under the designation of Machine-to-Machine communications (M2M). M2M systems have to integrate in a coordinated way various devices and software modules such as sensors, actuators, displays, middleware, etc. M2M expansion gives rise to extensive data exploitation, effective routing and reasoning mechanisms for an appropriate decision making and a coordinated control in a predictive and reactive way. This work aims to meet self-management challenges characterized by recent studies of autonomic computing. It deals with the modeling and the validation of M2M systems operating in a dynamic context and under a set of functional and non-functional properties, specifically temporal ones. To do so, we propose to rely on graph grammars and model checking related techniques. This allows to configure and to reconfigure a set of communicating objects by considering a set of constraints. First, we were interested in the validation at design time of M2M communications operating under temporal constraints. A verification and validation approach based on timed automata was proposed. A smart grid scenario was developed to validate the proposed model. This step is necessary, however it is not sufficient. Indeed, M2M systems are dynamic and verification at run time is important. To validate the execution of an M2M system, we focused on in its functional and temporal aspects. We referred to the European standard smartM2M to define an architectural style for M2M systems. This standard was selected for the following reasons: (1) its independence of the application domain and the objects' communication technology, (2) its broad scope and (3) its deployment on industrial systems. To validate the M2M system' functionalities, a multi-model approach was proposed: a first model, named functional, representing a real-time view of M2M system and a second model, named formal, based on a graph grammar incorporating the concepts of the functional layer. To conduct dynamic reconfiguration actions, graph transformation rules have been defined. Bi-directional communication mechanisms have been set up to maintain coherence between the real system and its models. A smart metering use case was developed to validate the proposed approach. With the aim of validating temporal properties of an M2M system during its execution, this approach has been extended with new concepts. We have defined a three-layers based approach to describe the features and temporal properties of an M2M system: an application layer which incorporates the concepts defined in the formal layer of the previous approach with extensions to express temporal properties between applications M2M, a service layer to describe the necessary components to meet the specification of the upper layer and infrastructure layer describing their deployment. An autonomic manager interacts with these layers to supervise and control the temporal behavior of the system. These layers are part of the autonomic manager knowledge base. The autonomic manager architecture and dynamic reconfiguration mechanisms were detailed. An eHealth scenario has been designed to illustrate the proposed approach.
|
233 |
A Comparison of DIMTEST and Generalized Dimensionality Discrepancy Approaches to Assessing Dimensionality in Item Response TheoryJanuary 2013 (has links)
abstract: Dimensionality assessment is an important component of evaluating item response data. Existing approaches to evaluating common assumptions of unidimensionality, such as DIMTEST (Nandakumar & Stout, 1993; Stout, 1987; Stout, Froelich, & Gao, 2001), have been shown to work well under large-scale assessment conditions (e.g., large sample sizes and item pools; see e.g., Froelich & Habing, 2007). It remains to be seen how such procedures perform in the context of small-scale assessments characterized by relatively small sample sizes and/or short tests. The fact that some procedures come with minimum allowable values for characteristics of the data, such as the number of items, may even render them unusable for some small-scale assessments. Other measures designed to assess dimensionality do not come with such limitations and, as such, may perform better under conditions that do not lend themselves to evaluation via statistics that rely on asymptotic theory. The current work aimed to evaluate the performance of one such metric, the standardized generalized dimensionality discrepancy measure (SGDDM; Levy & Svetina, 2011; Levy, Xu, Yel, & Svetina, 2012), under both large- and small-scale testing conditions. A Monte Carlo study was conducted to compare the performance of DIMTEST and the SGDDM statistic in terms of evaluating assumptions of unidimensionality in item response data under a variety of conditions, with an emphasis on the examination of these procedures in small-scale assessments. Similar to previous research, increases in either test length or sample size resulted in increased power. The DIMTEST procedure appeared to be a conservative test of the null hypothesis of unidimensionality. The SGDDM statistic exhibited rejection rates near the nominal rate of .05 under unidimensional conditions, though the reliability of these results may have been less than optimal due to high sampling variability resulting from a relatively limited number of replications. Power values were at or near 1.0 for many of the multidimensional conditions. It was only when the sample size was reduced to N = 100 that the two approaches diverged in performance. Results suggested that both procedures may be appropriate for sample sizes as low as N = 250 and tests as short as J = 12 (SGDDM) or J = 19 (DIMTEST). When used as a diagnostic tool, SGDDM may be appropriate with as few as N = 100 cases combined with J = 12 items. The study was somewhat limited in that it did not include any complex factorial designs, nor were the strength of item discrimination parameters or correlation between factors manipulated. It is recommended that further research be conducted with the inclusion of these factors, as well as an increase in the number of replications when using the SGDDM procedure. / Dissertation/Thesis / M.A. Educational Psychology 2013
|
234 |
Design and Implementation of a Tool for Modeling, Simulation and Verification of Component-based Embedded SystemsWang, Xiaobo January 2004 (has links)
Nowadays, embedded systems are becoming more and more complex. For this reason, designers focus more and more to adopt component-based methods for their designs. Consequently, there is an increasing interest on modeling and verification issues of component-based embedded systems. In this thesis, a tool, which integrates modeling, simulation and verification of component-based embedded systems, is designed and implemented. This tool uses the PRES+, Petri Net based Representation for Embedded Systems, to model component-based embedded systems. Both simulation and verification of systems are based on the PRES+ models. This tool consists of three integrated sub-tools, each of them with a graphical interface, the PRES+ Modeling tool, the PRES+ Simulation tool and the PRES+ Verification tool. The PRES+ Modeling tool is a graphical editor, with which system designers can model component-based embedded systems easily. The PRES+ Simulation tool, which is used to validate systems, visualizes the execution of a model in an intuitive manner. The PRES+ Verification tool provides a convenient access to a model checker, in which models can be formally verified with respect to temporal logic formulas.
|
235 |
Planejamento sob incerteza para metas de alcançabilidade estendidas / Planning under uncertainty for extended reachability goalsSilvio do Lago Pereira 05 November 2007 (has links)
Planejamento sob incerteza vem sendo cada vez mais requisitado em aplicações práticas de diversas áreas que eequerem soluções confiáveis para metas complexas. Em vista disso, nos últimos anos, algumas abordagens baseadas no uso de métodos formais para síntese automática de planos têm sido propostas na área de Planejamento em Inteligência Artificial. Entre essas abordagens, planejamento baseado em verificação de modelos tem se mostrado uma opção bastante promissora; entretanto, conforme observamos, a maioria dos trabalhos dentro dessa abordagem baseia-se em CTL e trata apenas problemas de planejamento para metas de alcançabilidade simples (como aquelas consideradas no planejamento clássico). Nessa tese, introduzimos uma classe de metas de planejamento mais expressivas (metas de alcançabilidade estendidas) e mostramos que, para essa classe de metas, a semântica de CTL não é adequada para formalizar algoritmos de síntese (ou validação) de planos. Como forma de contornar essa limitação, propomos uma nova versão de CTL, que denominamos alpha-CTL. Então, a partir da semântica dessa nova lógica, implementamos um verificador de modelos (Vactl), com base no qual implementamos também um planejador (Pactl) capaz de resolver problemas de planejamento para metas de alcançabilidade estendidas, em ambientes não-determinísticos com observabilidade completa. Finalmente, discutimos como garantir a qualidade das soluções quando dispomos de um modelo de ambiente onde as probabilidades das transições causadas pela execução das ações são conhecidas. / Planning under uncertainty has being increasingly demanded for practical applications in several areas that require reliable solutions for complex goals. In sight of this, in the last few years, some approaches based on formal methods for automatic synthesis of plans have been proposed in the area of Planning in Artificial Intelligence. Among these approaches, planning based on model checking seems to be a very attractive one; however, as we observe, the majority of the works in this approach are mainly based on CTL and deals only with planning problems for simple reachability goals (as those considered in classical planning). In this thesis, we introduce a more expressive class of planning goals (extended reachability goals) and show that, for this class of goals, the CTL\'s semantics is not adequate to formalize algorithms for synthesis (or validation) of plans. As a way to overcome this limitation, we propose a new version of CTL, called alpha-CTL. Then, based on the semantics of this new logic, we implement a model checker (Vactl), based on which we also implement a planner (Pactl) capable of solving planning problems for extended reachability goals, in nondeterministic planning environments with complete observability. Finally, we discuss how to guarantee the quality of the solutions when we have an environment model where the actions transitions probabilities are known.
|
236 |
A refinement based strategy for locally verifying networks of CSP processesANTONINO, Pedro Ribeiro Gonçalves 31 March 2014 (has links)
The increase of computer systems complexity has led to a direct increase in the difficulty of
verifying their correctness. For mastering this complexity, formal methods can be used in
the development of systems providing techniques for both design and verification. Regarding
concurrent and distributed systems, the necessity of a formal approach is more prominent given
the substantial increase in complexity due to the countless number of interactions between
their constituent systems. Unfortunately, however, current methods are not capable of dealing
with the automated analysis of such systems in general, even if we consider only classical
properties such as deadlock freedom; the state explosion problem is the main reason for this
ineffectiveness.
This work is a contribution in this direction. Particularly, considering networks of CSP processes,
this work proposes a local strategy for deadlock analysis based on the notion of process
refinement. The locality of this strategy prevents the state explosion problem generated by the
interaction of constituent systems, which represents a major asset of our strategy. We define a
refinement assertion for checking conflict freedom between pairs of processes in the network;
this can be used for the local verification of networks with an acyclic communication topology.
Concerning networks with a cyclic communication topology, we propose three patterns
that prevent deadlocks: the resource allocation, the client/server and the async dynamic. These
patterns impose behavioural and structural restrictions to prevent deadlocks. The behavioural
restrictions are also captured by refinement assertions, which enable one to automatically verify
these conditions using a refinement checker.
Besides this, we develop four case studies to evaluate the efficiency of our strategy in practice:
a ring buffer, a dining philosopher, and two variations of a leadership election algorithm.
One of the variations of the leadership election algorithm consists of a model used in practice by
the B&O Company, an industrial partner. In this study, we compare our strategy with two other
techniques for deadlock freedom verification, the SSD algorithm of the Deadlock Checker tool
and the built-in deadlock freedom assertion of FDR. This study demonstrates how our strategy
can be used and that it might be a useful alternative to analysing complex industrial systems for
deadlock freedom. / Submitted by Luiz Felipe Barbosa (luiz.fbabreu2@ufpe.br) on 2015-03-10T16:54:41Z
No. of bitstreams: 2
DISSERTAÇÃO Pedro Ribeiro Gonçalves Antônio.pdf: 921372 bytes, checksum: 64def1c3ae98cbca7868d944c1f786f2 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-11T17:34:41Z (GMT). No. of bitstreams: 2
DISSERTAÇÃO Pedro Ribeiro Gonçalves Antônio.pdf: 921372 bytes, checksum: 64def1c3ae98cbca7868d944c1f786f2 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2014-03-31 / Com o aumento da complexidade dos sistemas computacionais, houve também um aumento da
dificuldade na tarefa de verificação de sistemas. Para lidar com essa complexidade, métodos
formais podem ser usados no desenvolvimento de sistemas, fornecendo técnicas para a modelagem
e verificação. No contexto de sistemas concorrentes e distribuídos, a necessidade de uma
abordagem formal é ainda mais proeminente, dadas as inúmeras possibilidades de interação entre
seus sistemas componentes. Entretanto, infelizmente, os métodos atuais não se encontram,
de forma geral, completamente aptos a lidar com a análise automática desses sistemas, mesmo
em se tratando de propriedades clássicas como a ausência de deadlocks. A explosão do espaço
de estados a ser analisado é o principal fator para essa ineficácia por parte desses sistemas.
O trabalho apresentado é uma contribuição nesta direção. Considerando o conceito de redes
de processos CSP, o presente trabalho propõe uma estratégia local para a análise de deadlocks
baseada na noção de refinamento de processos. A localidade dessa estratégia previne a explosão
de espaço de estados causada pela interação de sistemas componentes, o que constitui uma
vantajosa característica da nossa estratégia. O trabalho define uma expressão de refinamento
capturando o conceito de ausência de conflito, que pode ser usado para verificar localmente que
uma rede de processos com uma topologia de comunicação acíclica é livre de deadlocks. Para
as redes com topologia cíclica, o trabalho sistematiza e formaliza três padrões comportamentais
que impedem deadlocks: o alocação de recursos, o cliente/servidor e o assíncrono dinâmico.
Esses padrões impõem restrições comportamentais e estruturais para prevenir deadlocks. Essas
restrições comportamentais também são capturadas através de expressões de refinamento,
o que possibilita a verificação automática dessas condições com o uso de um verificador de
refinamento.
Além disso, são apresentados quatro estudos de caso usados para avaliar o desempenho da
nossa técnica na prática: um buffer circular, um jantar dos filósofos e duas variações de um
algoritmo para eleição de líder. Uma dessas variações consiste num modelo usado na prática
pela empresa B&O, um parceiro industrial. Nesse estudo, avaliamos a nossa técnica em comparação
com outras duas técnicas para verificação de ausência de deadlocks, o algoritmo SSD
da ferramenta Deadlock Checker e a asserção de verificação de deadlocks padrão do verificador
de modelos FDR. Esse estudo demonstra como a nossa estratégia é aplicada e que ela pode ser
uma alternativa vantajosa para a verificação de sistemas complexos.
|
237 |
Abstraction of infinite and communicating CSPZ processesFARIAS, Adalberto Cajueiro de 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:49:26Z (GMT). No. of bitstreams: 1
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / Esta tese trata de um problema muito comum em verificação formal: explosão de estados.
O problema desabilita a verificação automática de propriedades através da verificação de
modelos. Isto é superado pelo uso de abstração de dados, em que o espaço de estados de
umsistema é reduzido usandoumprincípio simples: descartando detalhes de tal forma que
o espaço de estados torna-se finito exibindo ainda propriedades desejáveis. Isso habilita o
uso de verificacao de modelos, já que o modelo mais simples (abstrato) pode ser usado no
lugar do modelo original (concreto). Entretanto, abstrações podem perder propriedades já
que o nível de precisão é degradado, para algumas propriedades.
Abstrair tipos de dados é, normalmente, uma tarefa não-trivial e requer uma profunda
experiência: o usuário deve prover domínios abstratos, uma relacao matemática entre os
estados (concreto e abstrato), uma inicialização abstrata, e uma versão abstrata para cada
operação. A abordagem proposta nesta tese transfere a maior parte dessa experiência para
um procedimento sistemático que calcula relações de abstração. Essas relações são a base
para as relações matemáticas entre os estados, como também suas imagens determinam os
domínios abstratos (os valores de dados mínimos para preservar propriedades). Também
propomos meta-modelos para estabelecer como o sistema abstrato é inicializado e como
operações são tornadas fechadas sob os domínios abstratos. Isso elimina o conhecimento
requerido do usuário para fornecer as versões abstratas para a inicialização e operações. Os
meta-modelos garantem a correspondência entre os sistemas concreto e abstrato. Assim,
nós derivamos especificações abstratasa partir de concretas de tal formaque a especificação
concreta é mais determinística que a abstrata por construção. Esta é a idéia por trás da teoria
sobrejacente de nossa abordagem de abstração de dados: refinamento de dados.
A notação adotada é CSPZ uma integração formal das linguagens de especificação CSP
e Z. Uma especificação CSPZ tem duas partes: uma parte comportamental (CSP) e outra de
dados (Z). O procedimento de cálculo foca na parte de Z, mas os resultados são usados na
especificação CSPZ por completo; isso segue da independência de dados da parte de CSP (os
dados não podem afetar seu comportamento). Ao final, a verificação automática é obtida
pela conversão da especificação CSPZ em CSP puro e em seguida pelo reuso do verificador
de modelos padrão de CSP.
Nossa abordagem compreende as seguintes tarefas: nós extraímos a parte de Z de uma
especificação CSPZ (puramente sintática), calculamos as relações de abstração (através de
uma análise sistemática de predicados com uso de ferramenta de suporte), construímos as
relações matemáticas entre os estados, os esquemas abstratos (definidos por meta-modelos),
e realizamos um pós-processamento na especificação abstrata. A última tarefa pode resultar
em alguns ajustes nas relações de abstração. A novidade prática e maior contribuição de
nossa abordagem é o cálculo sistemático das das relações de abstração, que são os elementos chave de todas abordagens de abstração de dados que estudamos ao longo dos últimos
anos. O refinamento de dados entre o sistema produzido por nossa abordagem e o original
(concreto) é a segunda contribuição deste trabalho.
O procedimento sistemático é na verdade uma técnica de análise de predicado que usa
as restrições sobre os dados para determinar seus valores mínimos que são suficientes para
preservar o comportamento do sistema. Isso evita a execução (concreta ou simbólica) do
sistema analisado. Os passos produzem mapeamentos que revelam alguns elementos cruciais:
o espaço de estados abstrato e as relações matemáticas entre ele e o espaço de estados
concreto. Essas relações são usadas para construir o sistema abstrato seguindo o formato
estabelecido pelos meta-modelos. As limitações de nossa abordagem são também discutidas.
Nós aplicamos a abordagem a alguns exemplos também analisados por outras técnicas
da literatura. Discutimos também sobre trabalhos relacionados procurando destacar
vantagens, desvantagens e aspectos complementares. Finalmente, apresentamos nossas
conclusões e futuras direções para este trabalho
|
238 |
Evaluation of GUI testing techniques for system crashing: from real to model-based controlled experimentsBERTOLINI, Cristiano 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:54:24Z (GMT). No. of bitstreams: 2
arquivo7096_1.pdf: 2072025 bytes, checksum: ca8b71b9cfdeb09118a7c281cafe2872 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Aplicações para celular estão se tornando cada vez mais complexas, bem como testá-las.
Teste de interfaces gráficas (GUI) é uma tendência atual e se faz, em geral, através da
simulação de interações do usuário. Várias técnicas são propostas, no qual, eficiência
(custo de execução) e eficácia (possibilidade de encontrar bugs) são os aspectosmais cruciais
desejados pela industria. No entanto, avaliações mais sistemáticas são necessárias
para identificar quais técnicas melhoram a eficiência e eficácia de tais aplicações. Esta
tese apresenta uma avaliação experimental de duas técnicas de testes de GUI, denominadas
de DH e BxT, que são usadas para testar aplicações de celulares com um histórico
de erros reais. Estas técnicas são executadas por um longo período de tempo (timeout de
40h, por exemplo) tentando identificar as situações críticas que levam o sistema a uma
situação inesperada, onde o sistema pode não continuar sua execução normal. Essa situação
é chamada de estado de crash. A técnicaDHjá existia e é utilizadapela industriade
software, propomos outra chamada de BxT. Em uma avaliação preliminar, comparamos
eficácia e eficiência entre DH e BxT através de uma análise descritiva. Demonstramos
que uma exploração sistemática, realizada pela BxT, é uma abordagem mais interessante
para detectar falhas em aplicativos de celulares. Com base nos resultados preliminares,
planejamos e executamos um experimento controlado para obter evidência estatística
sobre sua eficiência e eficácia. Como ambas as técnicas são limitadas por um timeout
de 40h, o experimento controlado apresenta resultados parciais e, portanto, realizamos
uma investigação mais aprofundada através da análise de sobrevivência. Tal análise permite
encontrar a probabilidade de crash de uma aplicação usando tanto DH quanto BxT.
Como experimentos controlados são onerosos, propomos uma estratégia baseada em experimentos
computacionais utilizando a linguagem PRISM e seu verificador de modelos
para poder comparar técnicas de teste de GUI, em geral, e DH e BxT em particular. No
entanto, os resultados para DH e BxT tem uma limitação: a precisão do modelo não é
estatisticamente comprovada. Assim, propomos uma estratégia que consiste em utilizar
os resultados anteriores da análise de sobrevivência para calibrar nossos modelos. Finalmente,
utilizamos esta estratégia, já com os modelos calibrados, para avaliar uma nova
técnica de teste de GUI chamada Hybrid-BxT (ou simplesmente H-BxT), que é uma
combinação de DH e BxT
|
239 |
Systematic model-based safety assessment via probabilistic model checkingGOMES, Adriano José Oliveira 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:59:55Z (GMT). No. of bitstreams: 2
arquivo5803_1.pdf: 2496332 bytes, checksum: b4666e127bf620dbcb7437f9d83c2344 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco / A análise da segurança (Safety Assessment) é um processo bem conhecido que serve para
garantir que as restrições de segurança de um sistema crítico sejam cumpridas. Dentro dele, a
análise de segurança quantitativa lida com essas restrições em um contexto numérico
(probabilístico).
Os métodos de análise de segurança, como a tradicional Fault Tree Analysis (FTA), são
utilizados no processo de avaliação da segurança quantitativo, seguindo as diretrizes de
certificação (por exemplo, a ARP4761 Guia de Práticas Recomendadas da Aviação). No
entanto, este método é geralmente custoso e requer muito tempo e esforço para validar um
sistema como um todo, uma vez que para uma aeronave chegam a ser construídas, em média,
10.000 árvores de falha e também porque dependem fortemente das habilidades humanas para
lidar com suas limitações temporais que restringem o âmbito e o nível de detalhe que a análise e
os resultados podem alcançar. Por outro lado, as autoridades certificadoras também permitem a
utilização da análise de Markov, que, embora seus modelos sejam mais poderosos que as
árvores de falha, a indústria raramente adota esta análise porque seus modelos são mais
complexos e difíceis de lidar. Diante disto, FTA tem sido amplamente utilizada neste processo,
principalmente porque é conceitualmente mais simples e fácil de entender.
À medida que a complexidade e o time-to-market dos sistemas aumentam, o interesse em
abordar as questões de segurança durante as fases iniciais do projeto, ao invés de nas fases
intermediárias/finais, tornou comum a adoção de projetos, ferramentas e técnicas baseados em
modelos. Simulink é o exemplo padrão atualmente utilizado na indústria aeronáutica.
Entretanto, mesmo neste cenário, as soluções atuais seguem o que os engenheiros já utilizavam
anteriormente. Por outro lado, métodos formais que são linguagens, ferramentas e métodos
baseados em lógica e matemática discreta e não seguem as abordagens da engenharia
tradicional, podem proporcionar soluções inovadoras de baixo custo para engenheiros.
Esta dissertação define uma estratégia para a avaliação quantitativa de segurança baseada na
análise de Markov. Porém, em vez de lidar com modelos de Markov diretamente, usamos a
linguagem formal Prism (uma especificação em Prism é semanticamente interpretada como um
modelo de Markov). Além disto, esta especificação em Prism é extraída de forma sistemática a
partir de um modelo de alto nível (diagramas Simulink anotados com lógicas de falha do
sistema), através da aplicação de regras de tradução. A verificação sob o aspecto quantitativo
dos requisitos de segurança do sistema é realizada utilizando o verificador de modelos de Prism,
no qual os requisitos de segurança tornam-se fórmulas probabilísticas em lógica temporal.
O objetivo imediato do nosso trabalho é evitar o esforço de se criar várias árvores de falhas
até ser constatado que um requisito de segurança foi violado. Prism não constrói árvores de
falha para chegar neste resultado. Ele simplesmente verifica de uma só vez se um requisito de
segurança é satisfeito ou não no modelo inteiro.
Finalmente, nossa estratégia é ilustrada com um sistema simples (um projeto-piloto), mas
representativo, projetado pela Embraer
|
240 |
Verificação de programas C++ baseados no framework crossplataforma QtGarcia, Mário Angel Praia 13 September 2016 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-02-07T17:47:31Z
No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Dissertação - Mário A. P. Garcia.pdf: 1777955 bytes, checksum: bbc5f97c856505f518492e5c8ec65c28 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-02-07T17:47:47Z (GMT) No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Dissertação - Mário A. P. Garcia.pdf: 1777955 bytes, checksum: bbc5f97c856505f518492e5c8ec65c28 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-02-07T17:48:08Z (GMT) No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Dissertação - Mário A. P. Garcia.pdf: 1777955 bytes, checksum: bbc5f97c856505f518492e5c8ec65c28 (MD5) / Made available in DSpace on 2017-02-07T17:48:08Z (GMT). No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Dissertação - Mário A. P. Garcia.pdf: 1777955 bytes, checksum: bbc5f97c856505f518492e5c8ec65c28 (MD5)
Previous issue date: 2016-09-13 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The software development for embedded systems is getting faster and faster, which
generally incurs an increase in the associated complexity. As a consequence, consumer electronics
companies usually invest a lot of resources in fast and automatic verification mechanisms,
in order to create robust systems and reduce product recall rates. In addition, further
development-time reduction and system robustness can be achieved through cross-platform
frameworks, such as Qt, which favor the reliable port of software stacks to different devices.
Based on that, the present work proposes a simplified version of the Qt framework, which is
integrated into a checker based on satisfiability modulo theories (SMT), name as the efficient
SMT-based bounded model checker (ESBMC++), for verifying actual Qt-based applications,
and presents a success rate of 89%, for the developed benchmark suite. We also evaluate our
simplified version of the Qt framework using other state-of-the-art verifiers for C++ programs
and an evaluation about their level of compliance. It is worth mentioning that the proposed
methodology is the first one to formally verify Qt-based applications, which has the potential to
devise new directions for software verification of portable code. / O desenvolvimento de software para sistemas embarcados tem crescido rapidamente, o
que na maioria das vezes acarreta em um aumento da complexidade associada a esse tipo de
projeto. Como consequência, as empresas de eletrônica de consumo costumam investir recursos
em mecanismos de verificação rápida e automática, com o intuito de desenvolver sistemas
robustos e assim reduzir as taxas de recall de produtos. Além disso, a redução no tempo de
desenvolvimento e na robustez dos sistemas desenvolvidos podem ser alcançados através de
frameworks multi-plataformas, tais como Qt, que oferece um conjunto de bibliotecas (gráficas)
confiáveis para vários dispositivos embarcados. Desta forma, este trabalho propõe uma versão
simplificada do framework Qt que integrado a um verificador baseado nas teorias do módulo
da satisfatibilidade, denominado Efficient SMT-Based Bounded Model Checker (ESBMC++),
verifica aplicações reais que ultilizam o Qt, apresentando uma taxa de sucesso de 89%, para
os benchmarks desenvolvidos. Com a versão simplificada do framework Qt proposto, também
foi feita uma avaliação ultilizando outros verificadores que se encontram no estado da arte para
verificação de programas em C++ e uma avalição a cerca de seu nível de conformidade. Dessa
maneira, a metodologia proposta se afirma como a primeira a verificar formalmente aplicações
baseadas no framework Qt, além de possuir um potencial para desenvolver novas frentes para a
verificação de código portátil.
|
Page generated in 0.0759 seconds