• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92
  • 5
  • 1
  • Tagged with
  • 99
  • 29
  • 29
  • 14
  • 12
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Uma ferramenta de manipula??o de pacotes para an?lise de protocolos de redes industriais baseados em TCP/IP

Kobayashi, Tiago Hiroshi 07 June 2009 (has links)
Made available in DSpace on 2014-12-17T14:55:38Z (GMT). No. of bitstreams: 1 TiagoHK.pdf: 2636025 bytes, checksum: ce24354f7859d7a6bcea2ea448265402 (MD5) Previous issue date: 2009-06-07 / This work presents a packet manipulation tool developed to realize tests in industrial devices that implements TCP/IP-based communication protocols. The tool was developed in Python programming language, as a Scapy extension. This tool, named IndPM- Industrial Packet Manipulator, can realize vulnerability tests in devices of industrial networks, industrial protocol compliance tests, receive server replies and utilize the Python interpreter to build tests. The Modbus/TCP protocol was implemented as proof-of-concept. The DNP3 over TCP protocol was also implemented but tests could not be realized because of the lack of resources. The IndPM results with Modbus/TCP protocol show some implementation faults in a Programmable Logic Controller communication module frequently utilized in automation companies / Neste trabalho ? apresentada uma ferramenta de manipula??o de pacotes destinada ? realiza??o de testes em dispositivos que implementam protocolos de comunica??o baseados em TCP/IP utilizados em redes industriais. A ferramenta foi desenvolvida em linguagem de programa??o Python, como uma extens?o ao Scapy. Esta ferramenta, denominada IndPM - Industrial Packet Manipulator, permite testar os dispositivos presentes em redes industriais em rela??o a poss?veis vulnerabilidades, realizar testes de conformidade de protocolos, coletar respostas de servidores existentes nas redes e utilizar os recursos do interpretador Python para compor testes. Como prova de conceito, foi implementado o protocolo Modbus/TCP. O protocolo DNP3 sobre TCP tamb?m foi implementado, mas n?o foi testado por indisponibilidade de recursos. Os resultados dos testes obtidos com a manipula??o de pacotes Modbus/TCP mostram falhas de implementa??o em um m?dulo de comunica??o para um Controlador L?gico Program?vel bastante utilizado na ind?stria
92

Estudo da (não-)conformidade de concretos produzidos no Brasil e sua influência na confiabilidade estrutural / A study of Brazilian concrete strength (non)compliance and its effects on structural reliability

Wagner Carvalho Santiago 20 December 2011 (has links)
Este trabalho apresenta um estudo da (não-)conformidade dos concretos estruturais produzidos no Brasil, bem como uma investigação da segurança de pilares curtos de concreto armado submetidos à compressão simples levando em conta a influência da (não-)conformidade da resistência do concreto. Esta investigação tem como base ensaios de resistência de mais de seis mil corpos-de-prova de diferentes localidades do Brasil. Estes ensaios mostram que parte significativa dos concretos atualmente produzidos no Brasil não atinge a resistência característica (fck) especificada em projeto. Como resultado, estes concretos deveriam ser considerados não-conformes e medidas de mitigação deveriam ser aplicadas. O trabalho investiga ainda o impacto da não-conformidade dos concretos produzidos no Brasil na confiabilidade de pilares curtos de concreto armado submetidos a compressão simples, quando medidas de reforço e recuperação não são adotadas. Para refletir o universo de condições de projeto, na análise de confiabilidade são consideradas quatro classes de resistência do concreto, quinze valores de razão de carregamento e três valores de taxa geométrica de armadura. O trabalho revela uma redução significativa da confiabilidade dos pilares curtos em função da não-conformidade dos concretos. Estes resultados reforçam a necessidade de um controle rigoroso no recebimento do concreto, bem como na fiscalização das medidas de mitigação no caso dos concretos não-conformes. / This paper presents a study of the strength (non-)compliance of structural concretes produced in Brazil, and an investigation of the safety of shortt reinforced concrete columns subjected to axial compression considering the influence of concrete strength (non-)compliance. The investigation is based on experimental results of over six thousand concrete samples from different parts of Brazil. Results show that a significant part of these concretes do not reach the characteristic strength specified in design. As a consequence, these concretes should be considered non-compliant, and mitigation measures should be adopted. The study also investigates the impact of concrete strength non-compliance on the reliability of short columns subject to axial compression, when mitigation measures are not adopted. In order to reflect different design conditions, four classes of concrete strength, fifteen load ratios and three reinforcement ratios are considered. The study reveals that concrete strength non-compliance significantly reduces the reliability of short columns. These results stress the necessity of a rigorous control of concrete deliveries, and the importance of a rigorous control of the mitigation actions, in case of concrete strength non-compliance.
93

Redes complexas para classificação de dados via conformidade de padrão, caracterização de importância e otimização estrutural / Data classification in complex networks via pattern conformation, data importance and structural optimization

Murillo Guimarães Carneiro 08 November 2016 (has links)
A classificação é uma tarefa do aprendizado de máquina e mineração de dados, na qual um classificador é treinado sobre um conjunto de dados rotulados de forma que as classes de novos itens de dados possam ser preditas. Tradicionalmente, técnicas de classificação trabalham por definir fronteiras de decisão no espaço de dados considerando os atributos físicos do conjunto de treinamento e uma nova instância é classificada verificando sua posição relativa a tais fronteiras. Essa maneira de realizar a classificação, essencialmente baseada nos atributos físicos dos dados, impossibilita que as técnicas tradicionais sejam capazes de capturar relações semânticas existentes entre os dados, como, por exemplo, a formação de padrão. Por outro lado, o uso de redes complexas tem se apresentado como um caminho promissor para capturar relações espaciais, topológicas e funcionais dos dados, uma vez que a abstração da rede unifica a estrutura, a dinâmica e as funções do sistema representado. Dessa forma, o principal objetivo desta tese é o desenvolvimento de métodos e heurísticas baseadas em teorias de redes complexas para a classificação de dados. As principais contribuições envolvem os conceitos de conformidade de padrão, caracterização de importância e otimização estrutural de redes. Para a conformidade de padrão, onde medidas de redes complexas são usadas para estimar a concordância de um item de teste com a formação de padrão dos dados, é apresentada uma técnica híbrida simples pela qual associações físicas e topológicas são produzidas a partir da mesma rede. Para a caracterização de importância, é apresentada uma técnica que considera a importância individual dos itens de dado para determinar o rótulo de um item de teste. O conceito de importância aqui é definido em termos do PageRank, algoritmo usado na engine de busca do Google para definir a importância de páginas da web. Para a otimização estrutural de redes, é apresentado um framework bioinspirado capaz de construir a rede enquanto otimiza uma função de qualidade orientada à tarefa, como, por exemplo, classificação, redução de dimensionalidade, etc. A última investigação apresentada no documento explora a representação baseada em grafo e sua habilidade para detectar classes de distribuições arbitrárias na tarefa de difusão de papéis semânticos. Vários experimentos em bases de dados artificiais e reais, além de comparações com técnicas bastante usadas na literatura, são fornecidos em todas as investigações. Em suma, os resultados obtidos demonstram que as vantagens e novos conceitos propiciados pelo uso de redes se configuram em contribuições relevantes para as áreas de classificação, sistemas de aprendizado e redes complexas. / Data classification is a machine learning and data mining task in which a classifier is trained over a set of labeled data instances in such a way that the labels of new instances can be predicted. Traditionally, classification techniques define decision boundaries in the data space according to the physical features of a training set and a new data item is classified by verifying its relative position to the boundaries. Such kind of classification, which is only based on the physical attributes of the data, makes traditional techniques unable to detect semantic relationship existing among the data such as the pattern formation, for instance. On the other hand, recent works have shown the use of complex networks is a promissing way to capture spatial, topological and functional relationships of the data, as the network representation unifies structure, dynamic and functions of the networked system. In this thesis, the main objective is the development of methods and heuristics based on complex networks for data classification. The main contributions comprise the concepts of pattern conformation, data importance and network structural optimization. For pattern conformation, in which complex networks are employed to estimate the membership of a test item according to the data formation pattern, we present, in this thesis, a simple hybrid technique where physical and topological associations are produced from the same network. For data importance, we present a technique which considers the individual importance of the data items in order to determine the label of a given test item. The concept of importance here is derived from PageRank formulation, the ranking measure behind the Googles search engine used to calculate the importance of webpages. For network structural optimization, we present a bioinspired framework, which is able to build up the network while optimizing a task-oriented quality function such as classification, dimension reduction, etc. The last investigation presented in this thesis exploits the graph representation and its hability to detect classes of arbitrary distributions for the task of semantic role diffusion. In all investigations, a wide range of experiments in artificial and real-world data sets, and many comparisons with well-known and widely used techniques are also presented. In summary, the experimental results reveal that the advantages and new concepts provided by the use of networks represent relevant contributions to the areas of classification, learning systems and complex networks.
94

Procedimento para avaliação de conformidade baseado em analogia com o princípio da incerteza /

Moraes, Celso Francisco de January 2020 (has links)
Orientador: Messias Borges Silva / Resumo: Avaliação de conformidade é um tema de grande importância em diversos ramos, tais como gestão de operações e de qualidade, desenvolvimento e certificação de produtos, de processos e de sistemas, certificação e acreditação de organizações, comércio internacional, entre outros. Esta tese reporta a introdução e validação de um procedimento inovador, denominado FCAUP, para planejamento e implementação de avaliação de conformidade baseado em uma analogia conceitual com o Princípio da Incerteza de Heisenberg relativo à Mecânica Quântica. FCAUP significa “Framework for Conformity Assessment inspired by the Uncertainty Principle” (Procedimento para Avaliação de Conformidade inspirado pelo Princípio da Incerteza). Este procedimento original emprega técnicas quantitativas e qualitativas para análise, classificação, amostragem intencional e execução de duplas inspeções a fim de reduzir os efeitos da incerteza inerentes às atividades de avaliação de conformidade. Uma verificação teórica preliminar foi conduzida por meio de releitura de casos reais relativos a três avaliações de conformidade realizadas em diferentes indústrias de fabricação. Em seguida, para consolidação da teoria, foi efetuada uma implementação piloto em uma indústria de fabricação de reboques para barcos em Maryville, Tennessee, Estados Unidos da América. Por último, o procedimento FCAUP foi validado por meio de um estudo de campo realizado de forma bem-sucedida em uma empresa de metrologia em São José dos Campos/SP. Os... (Resumo completo, clicar acesso eletrônico abaixo) / Doutor
95

[en] ASSESSMENT OF COMPLIANCE TO ENVIRONMENTAL LEGISLATION OF SOUND PRESSURE LEVELS IN POWER SUBSTATIONS / [pt] AVALIAÇÃO DA CONFORMIDADE DA PRESSÃO SONORA EM SUBESTAÇÕES DE ENERGIA AOS NÍVEIS IMPOSTOS PELA LEGISLAÇÃO AMBIENTAL APLICÁVEL

08 October 2021 (has links)
[pt] Esta dissertação de mestrado tem por objetivo investigar os níveis de pressão sonora resultantes do funcionamento de subestações de energia, instaladas em áreas de considerável densidade urbana. A metodologia de desenvolvimento do trabalho fundamenta-se em dois preceitos: (i) em um programa estruturado de medições da pressão sonora e (ii) na conformidade dos valores medidos com os limites impostos pela rígida legislação ambiental aplicável. A motivação pelo tema da pesquisa resultou de uma demanda de uma concessionária de energia da cidade do Rio de Janeiro que, para se defender de uma ação civil pública impetrada pelos moradores da vizinhança de uma subestação, contratou o PósMQI para desenvolver um projeto de P&D capaz de avaliar alternativas de mitigação do ruído acústico na vizinhança de subestações de energia em funcionamento em zonas urbanas de alta densidade populacional. No que concerne aos resultados da pesquisa, a dissertação descreve e analisa os resultados de um programa estruturado de medições da pressão sonora na vizinhança de dez subestações inseridas em zonas urbanas. Como conclusão, foi possível mostrar que, de uma maneira geral, todas as subestações estudadas geram um nível de ruído muito próximo aos limites máximos impostos pela legislação ambiental aplicável. Desenvolvida em sintonia com um projeto de P&D (Light/Aneel Ref. 0128/2019), que propõe alternativas tecnológicas para mitigar o nível da pressão sonora em subestações de energia, a pesquisa de mestrado desenvolveu extensa revisão da literatura especializada sobre o tema e uma análise crítica do acervo normativo, diretivas e leis aplicáveis ao controle de ruído acústico em zonas urbanas. / [en] This master s research aims to investigate the sound pressure levels resulting from the operation of power substations, installed in areas of considerable urban density. The methodology for developing the work is based on two precepts: (i) a structured program of sound pressure measurements and (ii) the compliance of the measured values with the limits imposed by the strict applicable environmental legislation. The motivation for the research theme resulted from a demand from an electricity utility in the city of Rio de Janeiro that, to defend itself from a public civil action filed by residents of a nearby substation, hired PósMQI to develop a capable R&D project to evaluate alternatives for mitigating acoustic noise in the vicinity of power substations operating in urban areas with high population density. Regarding the research results, the dissertation describes and analyzes the outcomes of a structured program of sound pressure measurements in the vicinity of ten substations located in urban areas. In conclusion, it was possible to show that, in general, all studied substations generate a noise level very close to the maximum limits imposed by the applicable environmental legislation. Developed in line with an R&D project (Light/Aneel Ref. 0128/2019), which proposes technological alternatives to mitigate the level of sound pressure in power substations, the master s research developed an extensive review of the specialized literature on the subject and a critical analysis of the normative asset of, directives and laws applicable to the control of acoustic noise in urban areas.
96

[en] DATA RECONCILIATION AND GUARD BANDS APPLIED TO THE ESTABLISHMENT OF SULFUR LIMITS IN FUELS FOCUSING ON MEETING SPECIFICATIONS / [pt] RECONCILIAÇÃO DE DADOS E BANDAS DE GUARDA APLICADAS AO ESTABELECIMENTO DE LIMITES DE ENXOFRE EM COMBUSTÍVEIS COM FOCO NO CUMPRIMENTO DAS ESPECIFICAÇÕES

ANA CAROLINA HERMOGENES DE MATOS 12 January 2023 (has links)
[pt] É uma prática operacional comum que as refinarias trabalhem de forma otimizada e produzam diesel e gasolina com fração mássica de enxofre conforme o limite da especificação. No entanto, quando esse parâmetro de qualidade é analisado pelas refinarias e, após as operações de transferência, é reanalisado pelos terminais de armazenamento, esses resultados de medição nem sempre atendem à especificação. Para evitar disputa entre produtores e consumidores sobre o cumprimento da especificação é necessário que haja uma margem mais segura dentro da avaliação da conformidade desses produtos. Este trabalho apresentou uma nova metodologia que utiliza da Reconciliação de Dados em conjunto com o conceitos de bandas de guarda para determinação de novos limites de tolerância de propriedades críticas, como o enxofre, em alguns combustíveis, com base na reprodutibilidade, na diferença entre as médias de todos os resultados aceitáveis de cada laboratório e nas especificações brasileiras. Essa abordagem alternativa pode ser utilizada para evitar disputas entre fornecedores e clientes (Oliveira e Aguiar, 2019). Em conjunto com a RD foram utilizados os conceitos de regras de decisão com as definições das bandas de guarda, apresentados pelo Guia Eurachem/CITAC, 2021. Na presente pesquisa, foi visto que utilizando restrições de processo e medições redundantes, o valor reconciliado (resultado final) apresenta melhores valores experimentais, além disso a incerteza reconciliada é minimizada em relação às incertezas que foram calculadas experimentalmente. / [en] It is an operational practice that refineries (here producers) work in an optimized way and produce diesel and gasoline with a mass fraction of sulfur close to the specification. However, when this quality parameter is analyzed by refineries and, later, after custody transfer operations, it is re-analyzed by storage terminals (here called consumers), these measurement results do not always meet the specification. This study proposes a new methodology based on data reconciliation connected to the guard bands concept to establish upper acceptance limits for producers offering a comfortable giveaway to consumers. From the minimized reconciled expanded uncertainties, process model constraints, and the upper specification limits, the upper acceptance limits for the producers were optimized to ensure that the reconciled values meet the specification. Consumer and producer risks and histograms were calculated. Validation data sets proved that the proposed methodology could be applied because all the reconciled values comply with the specifications.
97

Habilitando a checagem estática de conformidade arquitetural de software em evolução. / Enabling static architectural compliance checking of evolving software.

BITTENCOURT, Roberto Almeida. 03 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-03T17:58:25Z No. of bitstreams: 1 ROBERTO ALMEIDA BITTENCOURT - TESE PPGCC 2012..pdf: 33887570 bytes, checksum: 348d0986ffb03c3554fefac4ab926a5a (MD5) / Made available in DSpace on 2018-08-03T17:58:25Z (GMT). No. of bitstreams: 1 ROBERTO ALMEIDA BITTENCOURT - TESE PPGCC 2012..pdf: 33887570 bytes, checksum: 348d0986ffb03c3554fefac4ab926a5a (MD5) Previous issue date: 2012-02-29 / A técnica dos modelos de reflexão é um processo de checagem de conformidade entre visões arquiteturais modulares e implementação que permite prevenir e remediar o envelhecimento de software através do combate à deterioração arquitetural. Contudo, o esforço manual necessário para aplicar a técnica pode terminar evitando seu uso na prática, especialmente no contexto de evolução de software em processos de desenvolvimento leves. Em termos mais específicos, a técnica é custosa para: i) produzir um modelo de alto nível e o mapeamento entre as entidades do código-fonte e este modelo; ii) manter tanto o modelo como o mapeamento atualizados à medida que o software evolui; e Ui) analisar a normalmente longa lista de violações arquiteturais no código fonte. Este trabalho procura habilitar a checagem de conformidade estática de software em evolução através da automação parcial do esforço manual para aplicar a técnica de modelos de reflexão. Para fazê-lo, primeiramente é avaliado o potencial de técnicas de agrupamento para a geração e manutenção de modelos de alto nívei. Também é proposta e avaliada uma técnica de mapeamento incremental entre entidades do código-fonte e modelos de alto nível baseada na combinação da recuperação de informação de vocabulário de software com dependências estruturais. Por fim, uma técnica de priorização baseada na história do software para recomendar as violações arquiteturais no código-fonte mais provavelmente relevantes do ponto de vista dos desenvolvedores de software é relatada e avaliada. Técnicas de agrupamento são avaliadas através de medidas de acurácia e estabilidade. Os resultados para quatro diferentes algoritmos de agrupamento mostram que nenhum deles consegue o melhor desempenho para todas as medidas, e que todos eles apresentam limitações para prover a geração automática de modelos de alto nível. Por outro lado, a avaliação sugere que a etapa de mapeamento da técnica de modelos de reflexão pode ser habilitada pela técnica proposta de mapeamento incremental automático que combina estrutura e vocabulário. Em dois estudos de caso, esta técnica obteve os maiores valores de medidaF em mudanças de código-fonte unitárias, pequenas ou grandes. Finalmente, a avaliação da técnica de priorização de violações mostra que, de cinco fatores estudados, a duração da violação e a co-locação da violação correlacionam bem com a relevância das violações. Os resultados sugerem que estes fatores podem ser usados para ordenar as violações mais provavelmente relevantes, com uma melhoria de pelo menos 57% em relação a uma linhabase de violações selecionadas aleatoriamente. A análise dos resultados sugere que a produção de modelos de alto nível para checagem estática de conformidade arquitetural pode ser auxi'iada por um processo semi-automático de recuperação arquitetural, e, à medida que o software evolui, por técnicas incrementais de agrupamento/mapeamento. Por outro lado, a análise dos resultados para a técnica de priorização sugere a eficácia de uma abordagem automatizada para a recomendação de violações arquiteturais a serem analisadas pelos desenvolvedore: do software. / The refíexion model technique is a static conformance checking technique to keep architecture module views and implementation conformant. It can either prevent or remedy software aging by combating architecture deterioration. However, the amount of manual effort to apply the technique may prevent its use in practice, especially in the context of software evolution in lightweight development methods. More specifically, it can be time-consuming and costly to: i) produce a high-level model and the mapping between source code entities and this model; ii) keep both model and mapping up-to-date as software evolves; and Ui) analyze the usual large number of architectural violations in the source code reported by the technique. This work tries to enable static conformance checking of evolving software by partially automating the manual effort to apply the refíexion model technique. To do so, the potential of clustering techniques to generate high-level models and keep them up-to-date is evaluated. It is also proposed and evaluated an incremental mapping approach between source code entities and high-level models based on the combination of information retrieval of software vocabulary and structural dependencies. Last, a prioritizing technique based on software history to recommend architectural violations in the source code most likely to be relevant to software developers is reported and evaluated. Clustering techniques are evaluated by measures of accuracy and stability, and results for four different clustering algorithms show that none of them performs best for ali measures, and that they are limited to provide fully automated generation of high-level models. On the other hand, evaluation suggests that the mapping step in the refíexion model technique can be enabled by the proposed incremental automated mapping technique that combines structure and vocabulary. In two case studies, the combined technique showed the highest F-measure values for both singleton, small and large source code changes. Finally, evaluation for the prioritizing technique shows that, from five studied factors, violation duration and violation co-location correlate well with violation relevance. Results suggest that these factors can be used to rank the violations most likely to be relevant, with an improvement of at least 57% against a baseline of randomly selected violations. Analysis of the results suggests that the producton of high-level models for static conformance checking can be aided by a semi-automated architecture recovery process, and, as software evolves, by incremental clustering/mapping techniques. On the other hand, analysis of the results for the prioritizing technique suggests the effectiveness of an automated approach to recommend architectural violations to bí analyzed by software developers.
98

NAT2TEST: generating test cases from natural language requirements based on CSP

CARVALHO, Gustavo Henrique Porto de 26 February 2016 (has links)
Submitted by Natalia de Souza Gonçalves (natalia.goncalves@ufpe.br) on 2016-09-28T12:33:15Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) GustavoHPCarvalho_Doutorado_CInUFPE_2016.pdf: 1763137 bytes, checksum: aed7b3ab2f6235757818003678633c9b (MD5) / Made available in DSpace on 2016-09-28T12:33:15Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) GustavoHPCarvalho_Doutorado_CInUFPE_2016.pdf: 1763137 bytes, checksum: aed7b3ab2f6235757818003678633c9b (MD5) Previous issue date: 2016-02-26 / High trustworthiness levels are usually required when developing critical systems, and model based testing (MBT) techniques play an important role generating test cases from specification models. Concerning critical systems, these models are usually created using formal or semi-formal notations. Moreover, it is also desired to clearly and formally state the conditions necessary to guarantee that an implementation is correct with respect to its specification by means of a conformance relation, which can be used to prove that the test generation strategy is sound. Despite the benefits of MBT, those who are not familiar with the models syntax and semantics may be reluctant to adopt these formalisms. Furthermore, most of these models are not available in the very beginning of the project, when usually natural-language requirements are available. Therefore, the use of MBT is postponed. Here, we propose an MBT strategy for generating test cases from controlled naturallanguage (CNL) requirements: NAT2TEST, which refrains the user from knowing the syntax and semantics of the underlying notations, besides allowing early use of MBT via naturallanguage processing techniques; the formal and semi-formal models internally used by our strategy are automatically generated from the natural-language requirements. Our approach is tailored to data-flow reactive systems: a class of embedded systems whose inputs and outputs are always available as signals. These systems can also have timed-based behaviour, which may be discrete or continuous. The NAT2TEST strategy comprises a number of phases. Initially, the requirements are syntactically analysed according to a CNL we proposed to describe data-flow reactive systems. Then, the requirements informal semantics are characterised based on the case grammar theory. Afterwards, we derive a formal representation of the requirements considering a model of dataflow reactive systems we defined. Finally, this formal model is translated into communicating sequential processes (CSP) to provide means for generating test cases. We prove that our test generation strategy is sound with respect to our timed input-output conformance relation based on CSP: csptio. Besides CSP, we explore the generation of other target notations (SCR and IMR) from which we can generate test cases using commercial tools (T-VEC and RT-Tester, respectively). The whole process is fully automated by the NAT2TEST tool. Our strategy was evaluated considering examples from the literature, the aerospace (Embraer) and the automotive (Mercedes) industry. We analysed performance and the ability to detect defects generated via mutation. In general, our strategy outperformed the considered baseline: random testing. We also compared our strategy with relevant commercial tools. / Testes baseados em modelos (MBT) consiste em criar modelos para especificar o comportamento esperado de sistemas e, a partir destes, gerar testes que verificam se implementações possuem o nível de confiabilidade esperado. No contexto de sistemas críticos, estes modelos são normalmente (semi)formais e deseja-se uma definição precisa das condições necessárias para garantir que uma implementação é correta em relação ao modelo da especificação. Esta definição caracteriza uma relação de conformidade, que pode ser usada para provar que uma estratégia de MBT é consistente (sound). Apesar dos benefícios, aqueles sem familiaridade com a sintaxe e a semântica dos modelos empregados podem relutar em adotar estes formalismos. Aqui, propõe-se uma estratégia de MBT para gerar casos de teste a partir de linguagem natural controlada (CNL). Esta estratégia (NAT2TEST) dispensa a necessidade de conhecer a sintaxe e a semântica das notações formais utilizadas internamente, uma vez que os modelos intermediários são gerados automaticamente a partir de requisitos em linguagem natural. Esta estratégia é apropriada para sistemas reativos baseados em fluxos de dados: uma classe de sistemas embarcados cujas entradas e saídas estão sempre disponíveis como sinais. Estes sistemas também podem ter comportamento dependente do tempo (discreto ou contínuo). Na estratégia NAT2TEST, inicialmente, os requisitos são analisados sintaticamente de acordo com a CNL proposta neste trabalho para descrever sistemas reativos. Em seguida, a semântica informal dos requisitos é caracterizada utilizando a teoria de gramática de casos. Posteriormente, deriva-se uma representação formal dos requisitos considerando um modelo definido neste trabalho para sistemas reativos. Finalmente, este modelo é traduzido em uma especificação em communicating sequential processes (CSP) para permitir a geração de testes. Este trabalho prova que a estratégia de testes proposta é consistente considerando a relação de conformidade temporal baseada em entradas e saídas também definida aqui: csptio. Além de CSP, foi explorada a geração de outras notações formais (SCR e IMR), a partir das quais é possível gerar casos de teste usando ferramentas comerciais (T-VEC e RT-Tester, respectivamente). Todo o processo é automatizado pela ferramenta NAT2TEST. A estratégia NAT2TEST foi avaliada considerando exemplos da literatura, da indústria aeroespacial (Embraer) e da automotiva (Mercedes). Foram analisados o desempenho e a capacidade de detectar defeitos gerados através de operadores de mutação. Em geral, a estratégia NAT2TEST apresentou melhores resultados do que a referência adotada: testes aleatórios. A estratégia NAT2TEST também foi comparada com ferramentas comerciais relevantes.
99

Conformidade à lei de Newcomb-Benford de grandezas astronômicas segundo a medida de Kolnogorov-Smirnov

ALENCASTRO JUNIOR, José Vianney Mendonça de 09 September 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-02-21T15:12:08Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_JoséVianneyMendonçaDeAlencastroJr.pdf: 648691 bytes, checksum: f2fbc98e547f0284f5aef34aee9249ca (MD5) / Made available in DSpace on 2017-02-21T15:12:08Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_JoséVianneyMendonçaDeAlencastroJr.pdf: 648691 bytes, checksum: f2fbc98e547f0284f5aef34aee9249ca (MD5) Previous issue date: 2016-09-09 / A lei de Newcomb-Benford, também conhecida como a lei do dígito mais significativo, foi descrita pela primeira vez por Simon Newcomb, sendo apenas embasada estatisticamente após 57 anos pelo físico Frank Benford. Essa lei rege grandezas naturalmente aleatórias e tem sido utilizada por várias áreas como forma de selecionar e validar diversos tipos de dados. Em nosso trabalho tivemos como primeiro objetivo propor o uso de um método substituto ao qui-quadrado, sendo este atualmente o método comumente utilizado pela literatura para verificação da conformidade da Lei de Newcomb-Benford. Fizemos isso pois em uma massa de dados com uma grande quantidade de amostras o método qui-quadrado tende a sofrer de um problema estatístico conhecido por excesso de poder, gerando assim resultados do tipo falso negativo na estatística. Dessa forma propomos a substituição do método qui-quadrado pelo método de Kolmogorov-Smirnov baseado na Função de Distribuição Empírica para análise da conformidade global, pois esse método é mais robusto não sofrendo do excesso de poder e também é mais fiel à definição formal da Lei de Benford, já que o mesmo trabalha considerando as mantissas ao invés de apenas considerar dígitos isolados. Também propomos investigar um intervalo de confiança para o Kolmogorov-Smirnov baseando-nos em um qui-quadrado que não sofre de excesso de poder por se utilizar o Bootstraping. Em dois artigos publicados recentemente, dados de exoplanetas foram analisados e algumas grandezas foram declaradas como conformes à Lei de Benford. Com base nisso eles sugerem que o conhecimento dessa conformidade possa ser usado para uma análise na lista de objetos candidatos, o que poderá ajudar no futuro na identificação de novos exoplanetas nesta lista. Sendo assim, um outro objetivo de nosso trabalho foi explorar diversos bancos e catálogos de dados astronômicos em busca de grandezas, cuja a conformidade à lei do dígito significativo ainda não seja conhecida a fim de propor aplicações práticas para a área das ciências astronômicas. / The Newcomb-Benford law, also known as the most significant digit law, was described for the first time by astronomer and mathematician Simon Newcomb. This law was just statistically grounded after 57 years after the Newcomb’s discovery. This law governing naturally random greatness and, has been used by many knowledge areas to validate several kind of data. In this work, the first goal is propose a substitute of qui-square method. The qui-square method is the currently method used in the literature to verify the Newcomb-Benford Law’s conformity. It’s necessary because in a greatness with a big quantity of samples, the qui-square method can has false negatives results. This problem is named Excess of Power. Because that, we proposed to use the Kolmogorov-Smirnov method based in Empirical Distribution Function (EDF) to global conformity analysis. Because this method is more robust and not suffering of the Excess of Power problem. The Kolmogorov-Smirnov method also more faithful to the formal definition of Benford’s Law since the method working considering the mantissas instead of single digits. We also propose to invetigate a confidence interval for the Kolmogorov-Smirnov method based on a qui-square with Bootstrapping strategy which doesn’t suffer of Excess of Power problem. Recently, two papers were published. I this papaers exoplanets data were analysed and some greatness were declared conform to a Newcomb-Benford distribution. Because that, the authors suggest that knowledge of this conformity can be used for help in future to indentify new exoplanets in the candidates list. Therefore, another goal of this work is explorer a several astronomicals catalogs and database looking for greatness which conformity of Benford’s law is not known yet. And after that , the authors suggested practical aplications for astronomical sciences area.

Page generated in 0.0686 seconds