• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 141
  • 24
  • Tagged with
  • 165
  • 165
  • 159
  • 95
  • 95
  • 95
  • 92
  • 70
  • 70
  • 35
  • 28
  • 27
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Metodologia para compressão de sinais de energia elétrica a partir de registros de forma de onda utilizando algorítmos genéticos e redes neurais artificiais

BARROS, Fabíola Graziela Noronha 16 December 2016 (has links)
Submitted by camilla martins (camillasmmartins@gmail.com) on 2017-04-24T13:07:07Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_MetodologiaCompressaoSinais.pdf: 2460262 bytes, checksum: 7c9faf568465700c43117667295f8715 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-04-24T16:58:53Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_MetodologiaCompressaoSinais.pdf: 2460262 bytes, checksum: 7c9faf568465700c43117667295f8715 (MD5) / Made available in DSpace on 2017-04-24T16:58:53Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_MetodologiaCompressaoSinais.pdf: 2460262 bytes, checksum: 7c9faf568465700c43117667295f8715 (MD5) Previous issue date: 2016-12-16 / FAPESPA - Fundação Amazônia de Amparo a Estudos e Pesquisas / O presente trabalho propõe uma metodologia para compressão de sinais de energia elétrica a partir de registros de forma de onda em sistemas de energia, utilizando algoritmos genéticos (AG) e redes neurais artificiais (RNA). O algoritmo genético é utilizado para selecionar e preservar os pontos que melhor caracterizam os contornos da forma de onda e a rede neural artificial é utilizada na compressão dos demais pontos bem como no processo de reconstrução do sinal. Assim, os dados resultantes são formados por uma parte do sinal original e pela parte complementar comprimida sob a forma de pesos sinápticos. A metodologia proposta seleciona e preserva um percentual de amostras do sinal original, que são aspectos não explorados na literatura. A metodologia foi testada usando dados reais obtidos a partir de um oscilógrafo instalado em um sistema de energiaelétrica de 230 kV. Os resultados apresentam taxas de compressão que variam de 88,36% a 95,86%* para taxas de preservação de pontos do sinal original que variam de 2,5% a 10% respectivamente. / This thesis proposes a methodology for compression of electrical power signals from waveform records in electric systems, using genetic algorithm (GA) and artificial neural network (ANN).The genetic algorithm is used to select and preserve the points that better characterize the waveform contoursA and the artificial neural network is used in the compression of other points as well as on the signal reconstruction process. Thus, the data resulting are formed by a part of the original signal and by a compressed complementary part in the form of synaptic weights. The proposed methodology selects and preserves a percentage of the original signal samples, which are aspects not explored in the literature. The method was tested using field data obtained from an oscillographic recorder installed in a 230kV electrical power system. The results presented compression rates ranging from 88.36 to 95.86 for preservation rates ranging from 2.5 to 10 , respectively.
102

Gramáticas e linguagens indiciais probabilísticas

Silva, Orion de Oliveira 08 1900 (has links)
Submitted by Algacilda Conceição (algacilda@sibi.ufrj.br) on 2018-04-02T15:41:37Z No. of bitstreams: 1 133292.pdf: 1935557 bytes, checksum: 8dabaf84151d289c26c97704843a3bfe (MD5) / Made available in DSpace on 2018-04-02T15:41:37Z (GMT). No. of bitstreams: 1 133292.pdf: 1935557 bytes, checksum: 8dabaf84151d289c26c97704843a3bfe (MD5) Previous issue date: 1973-08 / Um tipo de gramática chamado “Gramáticas Indiciais” foi definido por Alfred V. Aho em Austin, Texas, no ano de 1967. As linguagens geradas por gramáticas indiciais são chamadas linguagens indiciais. As classes de linguagens indiciais incluem, propriamente, as classes de linguagens livre de contexto e é um subconjunto próprio de classe de linguagens sensíveis ao contexto. O nosso objetivo neste trabalho é atribuir probabilidades às produções das gramáticas indiciais e estudar a consistência das linguagens geradas por essas gramáticas. / A new type of grammar for generating formal languages, called indexed gramar, was presented by Alfred V. Aho, in Austin, Texas, 1967. The languages generated by indexed grammars are called indexed languages. The class of languages generated by indexed grammars properly includes a11 context free languages and is a proper subset of the class of context sensitive languages. The objective in this work is to assign propability to each production of the indexed grammar and study the consistency of the indexed language generated by it.
103

Um sistema portfólio-tutor baseado no reuso de software / A system portfólio-tutor based in the reuse of software

Menezes, Douglas Afonso Tenório de 08 October 2009 (has links)
Com a grande popularização da internet, a EAD vem sendo bastante difundida pelo fato da grande facilidade de acesso, onde o aluno independente do local onde reside, poderá organizar seus horários, ampliando o alcance da modalidade de ensino presencial. O objetivo do presente trabalho é o projeto e desenvolvimento de um Sistema Portfólio-Tutor Baseado no Reuso de Software através de técnicas de reutilização de software, objetivando o máximo de redução de trabalho por parte dos professores, melhorando consideravelmente a análise de dados e diminuindo as atividades repetitivas. Contudo, o sistema será capaz de integrar todas as partes que podem ser envolvidas no processo de aprendizagem. Um portfólio é uma pasta onde ficam armazenadas as evidências da habilidade de cada aluno, sendo possível um acompanhamento cronológico de seu desempenho. Um portfólio eletrônico pode ser dividido em portfólio do aluno e portfólio do professor. É possível desenvolver atualmente dois tipos de portfólios de alunos: o Portfólio de Trabalho, onde são armazenados os trabalhos dos alunos e o Portfólio de Apresentação, onde é armazenado o melhor que o aluno produziu.
104

Classificação de informação usando ontologias / Information classification using ontologies

Silva, Eunice Palmeira da 28 September 2006 (has links)
Although the positive aspects that Internet possesses and the potential it permits, there is a problematic that consists on finding needed pieces of information among the deluge of available documents on the web. Tools that are able to semantically treat the information contained in the documents which follows a structure only focused on data presentation are still lacking. The MASTER-Web system solves the problem of integrated extraction of content-pages that belong to classes which form a cluster. In this context, we propose the extension of this tool to the scientific articles classification based on ontologies. To achieve this goal, an ontology for the Artificial Intelligence domain was constructed and rule-based classification strategies were adopeted. The approach presented here employs this ontology and textual classification techniques to extract useful pieces of information from the articles in order to infer to which themes it is about. This combination led to significative results: e.g. in the texts, the system is able to identify the specific subdivisions of AI and entails conclusions, distinguishing correctlly the themes of the articles from the ones that are briefiy mentioned in the texts. The application of simple techniques and a detailed ontology lead to promising classification results, independently of the document structure, proposing an eficient and plausible solution. / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Apesar dos aspectos positivos que a Internet possui e do potencial que permite, existe a problemática, que consiste em encontrar a informação necessária em meio a uma enorme quantidade de documentos disponíveis na rede. Faltam, ainda, ferramentas capazes de tratar semanticamente a informação contida em documentos que seguem uma estrutura preocupada apenas com a exibição dos seus dados. O sistema MASTERWeb, resolve o problema da extração integrada de páginas-conteúdo pertencentes às classes que integram um grupo (cluster ). Neste contexto propomos a extensão dessa ferramenta para a classificação de artigos científicos baseada em ontologias. Para isso foi construída uma ontologia do domínio de Inteligência Artificial e adotadas estratégias de classificação utilizando sistemas de regras. A abordagem apresentada aqui, emprega esta ontologia e técnicas de classificação textual para extrair dos artigos informações úteis, e daí inferir sobre os temas tratados nestes artigos. Essa combinação conduziu a resultados bastante significativos: por exemplo, o sistema é capaz de identificar no texto as subáreas de IA que ele aborda e deriva conclusões, distinguindo os assuntos tratados pelo artigo daqueles que são brevemente citados no texto. A aplicação de técnicas simples e uma ontologia bem formada levam a resultados de classificação promissores, independentemente da estrutura do documento, propondo uma solução eficiente e plausível.
105

Privacy agents in the IoT : considerations on how to balance agent autonomy and user control in privacy decisions

Colnago, Jessica Helena 20 June 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-01-16T11:11:48Z No. of bitstreams: 1 DissJHC.pdf: 5301084 bytes, checksum: 69f3b369ca40bc9639ba8d1f296e4d6e (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-17T12:10:12Z (GMT) No. of bitstreams: 1 DissJHC.pdf: 5301084 bytes, checksum: 69f3b369ca40bc9639ba8d1f296e4d6e (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-17T12:10:25Z (GMT) No. of bitstreams: 1 DissJHC.pdf: 5301084 bytes, checksum: 69f3b369ca40bc9639ba8d1f296e4d6e (MD5) / Made available in DSpace on 2017-01-17T12:10:32Z (GMT). No. of bitstreams: 1 DissJHC.pdf: 5301084 bytes, checksum: 69f3b369ca40bc9639ba8d1f296e4d6e (MD5) Previous issue date: 2016-06-20 / Não recebi financiamento / This thesis explored aspects that can help balance the level of user control and system autonomy for intelligent privacy agents in the context of the Internet of Things. This proposed balance could be reached considering aspects related to wanting to be interrupted to have control and being able to be interrupted to exert this control. Through literature review of interruption and privacy literature, variables related to these two perspectives were identified. This led to the variable set "Intelligent Privacy Interruptions”. To verify and validate this set, two research actions were performed. The first one was an online survey that allowed us to perform a sanity check that these variables were acceptable in this work’s context. The second was an experience sampling user study with 21 participants that allowed us to better understand how user behavior is informed by these variables. Based on these two interventions it was possible to note that the selected variables seem to show relevance and that they can be used to inform the development and design of privacy agents. The limitations of the partial results notwithstanding, through a quantitative analysis of data collected form the user study and the qualitative analysis of the exit interviews, it was possible to note a common mental process between the participants of the user study when deciding whether to withhold or delegate decision control to the agent. Future studies should be performed to verify the possibility of expansion and creation of a behavior and preference model that can be integrated to the decisionmaking system of intelligent privacy agents. / Este trabalho investigou aspectos que podem ajudar a balancear o nível de controle de usuários e de autonomia de agentes inteligentes de privacidade no contexto da Internet das Coisas. Entende-se que esse balanceamento proposto poderia ser alcançado considerando aspectos relacionados a “querer” ser interrompido para ter controle e “poder” ser interrompido para exercer o controle. Por meio de revisão da literatura de interrupções e privacidade, variáveis relacionadas a esses dois aspectos foram identificadas, embasando a proposta de um conjunto de variáveis para “Interrupções de Privacidade Inteligentes”. Para verificar e validar esse conjunto de variáveis, duas ações de pesquisa foram feitas. A primeira foi um questionário online que serviu como uma verificação inicial de que as variáveis são adequadas ao novo contexto proposto por esse trabalho. A segunda foi um estudo de amostragem de experiência com 21 usuários para se entender melhor como essas variáveis podem vir a informar o comportamento de usuários. Os resultados obtidos sugerem que as variáveis selecionadas apresentam relevância e que podem ser usadas para informar o desenvolvimento e design de agentes de privacidade. Embora os resultados ainda sejam limitados, principalmente pela duração do estudo e grupo e número de usuários, através da análise quantitativa dos dados coletadas no estudo com usuários e da análise qualitativa das entrevistas realizadas pós-estudo notou-se um processo mental comum entre os usuários participantes do estudo para as tomadas de decisão de reter o controle ou delegá-lo ao agente. Estudos futuros devem ser realizados, procurando verificar a possibilidade de expandir o relacionamento das variáveis para a criação de um modelo de comportamento e preferência dos usuários que seja integrável ao sistema de decisão de agentes inteligentes de privacidade.
106

MME-MDD : um método para manutenção e evolução de sistemas baseados no MDD

Arndt, Bruno Felipe 08 March 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-02-07T10:21:15Z No. of bitstreams: 1 DissBFA.pdf: 12687971 bytes, checksum: 19789fb95e5c01987f5067e083d04248 (MD5) / Approved for entry into archive by Camila Passos (camilapassos@ufscar.br) on 2017-02-08T12:04:07Z (GMT) No. of bitstreams: 1 DissBFA.pdf: 12687971 bytes, checksum: 19789fb95e5c01987f5067e083d04248 (MD5) / Approved for entry into archive by Camila Passos (camilapassos@ufscar.br) on 2017-02-08T12:08:22Z (GMT) No. of bitstreams: 1 DissBFA.pdf: 12687971 bytes, checksum: 19789fb95e5c01987f5067e083d04248 (MD5) / Made available in DSpace on 2017-02-08T12:09:45Z (GMT). No. of bitstreams: 1 DissBFA.pdf: 12687971 bytes, checksum: 19789fb95e5c01987f5067e083d04248 (MD5) Previous issue date: 2016-03-08 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Model-Driven Development (MDD) is proposed to reduce the semantic gap between problem and solution/implementation domains. Some tools are used, and the code generator is commonly used in this context. These generators are often implemented using templates. A Reference Implementation (RI) favoring the development/ maintenance of software facilitates this implementation’s types. However, RI requires a code migration process which consists in artifacts’ synchronization, and it is responsible for 20% to 25% of the time spent on development. The literature has no describe automatic solutions, but the group that this reaserch was included has develop tools that automate this process and reduce the time spent on some tasks. But each task has a different performance in relation to time spent, so automation of some tasks can be disadvantageous. Few reports describe such tasks and which ones are capable of automatic code migration. The aim of this study is to investigate the maintain and evolution process to identify and describe the types of maintain and evolution tasks that are essentially. Based on this study, a method (MME-MDD) that drives the developer during that proccess to guide the developer during the realization of each task, with the aim to maximize the benefits of this approach. The MME-MDD was validated by a case study and a empirical study and the method showed effective in most of tasks. In addition, studies show that using the proposed method brought a gain in the quality of the source code. / O MDD (Model-Driven Development) tem como proposta a redução da distância semântica entre os domínios problema e solução/implementação. Para isso, são utilizadas algumas ferramentas, sendo o gerador de código comumente usado neste contexto. Os geradores de código são frequentemente implementados com a utilização de templates. Para facilitar este tipo de implementação, usualmente é empregado uma Implementação de Referência (IR), favorecendo a evolução/ manutenção do software. Contudo, a IR traz a necessidade do processo de migração de código, que consiste na sincronização entre o seu código-fonte e os templates, sendo que este é responsável por 20 a 25% do tempo gasto no desenvolvimento. Na literatura não há relatos de solução automatizada, mas o grupo no qual esta pesquisa se insere vem desenvolvendo ferramentas que automatizam este processo e reduzem o tempo aplicado em algumas tarefas testadas. Porém, cada tarefa tem um desempenho diferente em relação ao tempo gasto e, portanto, a automação de algumas tarefas pode ser desvantajosa. Existem poucos relatos na literatura descrevendo tais tarefas e quais são os passos necessários para realizá-las. O objetivo deste estudo foi a investigação do processo de manutenção e evolução de sistemas baseados em MDD com a finalidade de identificar e descrever os tipos de tarefas de manutenção e evolução. Com base nesse estudo, foi elaborado o método MMEMDD que conduz o desenvolvedor durante o processo de manutenção e evolução de sistemas, visando guiar o desenvolvedor durante a realização de cada um dos tipos de tarefas, com o intuito de maximizar os benefícios da utilização dessa abordagem. O método foi validado por meio de um estudo de caso e um estudo experimental, sendo que o método se mostrou efetivo em grande parte das tarefas testadas. Além disso, os estudos apontaram que a utilização do método proposto trouxe ganho na qualidade do código-fonte.
107

Uso de sistemas tutores inteligentes na compreensão de leitura / Intelligent tutoring systems in reading comprehension

BORGES, Fabrícia Neres 28 November 2009 (has links)
Made available in DSpace on 2014-07-29T15:08:22Z (GMT). No. of bitstreams: 1 fabricia p 1.pdf: 6603333 bytes, checksum: 71692ee42eb5f5439767ffb1f02551bd (MD5) Previous issue date: 2009-11-28 / Brazilian students have achieved poor results in the National Student Performance Exam (ENADE) in 2006. ENADE has shown reading is badly cultivated among undergraduates. The low interest on reading is justified by the fact that most of students have jobs and are enrolled in evening courses, without enough time to studies. The current research proposes the use of intelligent tutoring systems to improve student reading comprehension. The main goal is to develop the technique of underlining among undergraduates to assist in the analysis of academic texts. Two groups of students, A and B, participated in data collection. The difference between the groups is the amount of exercises performed in each group. Students of Group A have received 20 exercises with four levels of difficulty. In Group B, an Artificial Neural Network, Multilayer Perceptron (MLP), decides the amount of exercises that the student must perform at each level of difficulty by controlling what is the next exercise after each exercise is finished. The approach used in Group B adapts to the characteristics of knowledge retention of each student. Therefore, the tutoring system adapts the degree of exercise difficulty to the student. Statistical data analysis has indicated significant differences between groups A and B. / Os estudantes universitários brasileiros apresentaram baixos índices de leitura no Exame Nacional de Desempenho (ENADE) em 2006. O ENADE mostrou que o hábito de ler é pouco cultivado entre os universitários. O pouco interesse pela leitura é justificado pelo fato de que maioria dos estudantes são trabalhadores matriculados em cursos noturnos, com pouco tempo para se dedicar aos estudos. Esta pesquisa propõe o uso de sistemas tutores inteligentes para auxiliar universitários na compreensão de leitura. O objetivo do sistema tutor proposto é desenvolver a técnica de sublinhamento dos universitários para auxiliar na análise de textos acadêmicos. Dois grupos de estudantes, A e B, participaram da coleta de dados. A diferença entre os grupos reside na quantidade de exercícios realizados em cada grupo. O grupo A realizou 20 exercícios com quatro níveis de dificuldade. No grupo B a Rede Neural Artificial Multilayer Perceptron (MLP) decide a quantidade de exercícios que o estudante deve realizar em cada nível de dificuldade. A abordagem utilizada no grupo B adapta-se às características de retenção de conhecimento de cada estudante. Com isso, o sistema tutor se adapta ao grau de dificuldade ou facilidade do estudante. Por meio de estudo comparativo, a análise estatística dos dados indicou diferenças significativas entre os grupos A e B.
108

SABENÇA - um arcabouço computacional baseado na aprendizagem de ontologias a partir de textos / SABENÇA - a framework based on ontology learning from text

Guimaraes, Norton Coelho 22 April 2015 (has links)
Submitted by Cláudia Bueno (claudiamoura18@gmail.com) on 2015-10-21T20:58:05Z No. of bitstreams: 2 Dissertação - Norton Coelho Guimarães - 2015.pdf: 2090183 bytes, checksum: 2d7f73048d14bf0ac9fbbe295972b668 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-10-22T12:22:39Z (GMT) No. of bitstreams: 2 Dissertação - Norton Coelho Guimarães - 2015.pdf: 2090183 bytes, checksum: 2d7f73048d14bf0ac9fbbe295972b668 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-10-22T12:22:39Z (GMT). No. of bitstreams: 2 Dissertação - Norton Coelho Guimarães - 2015.pdf: 2090183 bytes, checksum: 2d7f73048d14bf0ac9fbbe295972b668 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-04-22 / The research on ontology learning has been carried out in various areas of knowledge. Semi-automatic or automatic extraction of ontologies would assist in the acceleration of knowledge structuring of multiple domains. Semi-automatic approaches to ontology learning from texts are proposed in several scientific papers, mostly with the support of natural language processing techniques. This paper describes the construction of a computational framework for semi-automated ontology learning from texts in the Portuguese language. Axioms are not dealt with in this paper. The work done here originated from the proposal of Philipp Cimiano [18], along with mechanisms for standardization of texts, Natural Language Processing, identification of taxonomic relationships and structure of ontologies. This research resulted in the development of a set of classes concrete and a set of abstract classes that comprise a computational framework. In this work we also present a case study in the field public safety, proving the benefits of computational framework. / As pesquisas sobre aprendizagem de ontologias têm sido realizadas em várias áreas do conhecimento. A extração semi-automática ou automática de ontologias auxiliaria na aceleração da estruturação do conhecimento de diversos domínios. Abordagens semiautomáticas para a aprendizagem de ontologias a partir de textos são propostas em diversos trabalhos científicos, em sua maioria, com o apoio de técnicas de processamento da língua natural. Este trabalho descreve a construção de um arcabouço computacional para aprendizagem semi-automatizada de ontologias a partir de textos na língua portuguesa. Axiomas não são tratados neste trabalho. O trabalho desenvolvido aqui originouse da proposta de Philipp Cimiano [18], juntamente com mecanismos de padronização de textos, processamento de linguagem natural, identificação de relações taxonômicas e estruturação de ontologias. Esta pesquisa resultou no desenvolvimento de um conjunto de classes, concretas e abstratas, que compõem um arcabouço computacional. Neste trabalho, também foi feito um estudo de caso no domínio de segurança pública, comprovando os benefícios do arcabouço computacional.
109

Uma investigação da correspondência entre mutações e avisos relatados por ferramenta de análise estática / Investigating the correspondence between mutations and static warnings reported by static analysis tool

Araújo, Claudio Antônio de 04 December 2015 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2016-04-18T13:33:01Z No. of bitstreams: 2 Dissertação - Cláudio Antônio de Araújo - 2015.pdf: 6483664 bytes, checksum: bf12aa2fbdc30e9456d8036d9cc24fd1 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-04-18T13:34:40Z (GMT) No. of bitstreams: 2 Dissertação - Cláudio Antônio de Araújo - 2015.pdf: 6483664 bytes, checksum: bf12aa2fbdc30e9456d8036d9cc24fd1 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2016-04-18T13:34:40Z (GMT). No. of bitstreams: 2 Dissertação - Cláudio Antônio de Araújo - 2015.pdf: 6483664 bytes, checksum: bf12aa2fbdc30e9456d8036d9cc24fd1 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-12-04 / Traditionally, mutation testing is used for test set and/or test criteria evaluation once it is considered a good fault model. Since static analyzers, in general, report a substantial number of false positive warnings, Objective: This paper uses mutation testing for evaluating an automated static analyzer. The intention of this study is to define a prioritization approach of static warnings based on their correspondence with mutations. Method: We used mutation operators as a fault model to evaluate the direct correspondence between mutations and static warnings. The main advantage of using mutation operators is that they generate a large number of programs containing faults of different types, which can be used to decide the ones most probable to be detected by static analyzers. Results: The results obtained for a set of open-source programs indicate that: 1) correspondence exists when considering specific mutation operators such that static warnings may be prioritized based on their correspondence level with mutations; 2) correspondence exists when considering specific warning categories such that, assuming we perform static analysis considering these warning categories, mutation operators may be prioritized based on their correspondence level with warnings. Conclusion: It is possible to provide an incremental testing strategy aiming at reducing the cost of both static analysis and mutation testing using the correspondence information. On the other hand, knowing that Mutation Test has a high application cost, we identified mutations of some specific mutation operators, which an automatic static analyzer is not able to detect. Therefore, this information can used to prioritize the order of applying mutation operators incrementally considering, firstly, those with no correspondence with static warnings. / Considerando que: 1) analisadores estáticos automatizados são ferramentas que emitem avisos, sem que seja necessário a execução do produto de software correspondente, alertando sobre a presença de possíveis defeitos no código. Uma das críticas a tais ferramentas é a grande quantidade de avisos falsos positivos emitidos, isto é, avisos relatados que não correspondem a defeitos reais, mas demandam tempo de análise por parte do desenvolvedor; 2) tradicionalmente, o Teste de Mutação tem sido utilizado para avaliar (e melhorar) a qualidade de conjuntos de casos de teste e/ou de critérios de teste, uma vez que é considerado um bom gerador de defeitos de software. Objetivo: O objetivo do presente trabalho é investigar a correspondência entre avisos estáticos e mutações e, com isso, verificar quais avisos estão mais relacionados a esses possíveis defeitos (mutações) e, assim, possivelmente, serem avisos verdadeiros positivos. Método: Os operadores de mutação são utilizados neste trabalho como um modelo de defeitos para avaliar a correspondência entre mutações e avisos estáticos. A principal vantagem da utilização de operadores de mutação é que eles geram um grande número de programas com defeitos de diferentes tipos. Esses tipos de defeitos são usados em estudos experimentais para investigar a capacidade dos analisadores estáticos em detectá-los. Resultados: Os resultados obtidos com estudos experimentais para um conjunto de sistemas de código aberto indicam que existe correspondência quando são considerados alguns operadores de mutação da μJava e alguns tipos de avisos da FindBugs. Conclusão: Os resultados obtidos podem ser utilizados de duas maneiras distintas: Primeiro, é fornecida uma abordagem de análise incremental dos avisos, de acordo com o grau de correspondência com mutações. Segundo, com o objetivo de reduzir o custo do Teste de Mutação é fornecida uma abordagem de priorização incremental para análise dos mutantes dos operadores cujas mutações são menos “percebidas” pela FindBugs.
110

ESTUDO E DESENVOLVIMENTO DE UMA FAMILIA DE ALGORITMOS NÃO LINEARES PARA FILTRAGEM ADAPTATIVA / STUDY AND DEVELOPMENT DE UMA FAMILY OF Not LINEAR ALGORITHMS FOR FILTERING ADAPTATIVE

Santana, Ewaldo Eder Carvalho 17 February 2006 (has links)
Made available in DSpace on 2016-08-17T14:52:50Z (GMT). No. of bitstreams: 1 Ewaldo Eder.pdf: 1808292 bytes, checksum: 65e8f3c3afbcf9e5bfd61e1b73fb305f (MD5) Previous issue date: 2006-02-17 / In this work we develop a family of adaptive algorithms based on nonlinear functions as a criterion to be applied upon the error, that we want to minimize. Such a development is based upon the use of high order statistics to obtain additional information of the signals involved in the process, intending to enhance the adaptive filtering performance. We derive equations based upon the Taylor s series expansion of the nonlinear functions in order to obtain criterions that guarantee convergence. We also make a study about the covariance of the weight vector on steady state and determine equations that measure the time constant of the adaptive process. We present the sigmoidal algorithm that uses the function Ln(cosh ") as criterion. Simulations of this algorithm are performed to validate the theory and it is also applied to obtain the deterministic components of real impedance cardiographic signals. / Neste trabalho é desenvolvida uma famılia de algoritmos adaptativos baseados em funções não lineares como critério a ser aplicado sobre o erro, o qual deseja-se minimizar. Tal desenvolvimento baseia-se na utilização de estatısticas de alta ordem para a obtenção de mais informações sobre os sinais envolvidos no processo, com o objetivo de melhorar a performance de um filtro adaptativo. Derivamos equações, baseadas na expansão em séries de Taylor das funções não lineares, para a obtenção de critérios que garantam a convergência. Também fazemos um estudo da covariância do vetor peso em regime estacionário e determinamos equações que mensurem a constante de tempo do processo adaptativo. Apresentamos o algoritmo sigmoidal, que utiliza como critério a função Ln(cosh "). Foram feitas simulações com este algoritmo para validar a teoria apresentada, e também o aplicamos para a obtenção das componentes determinısticas de sinais reais de impedância cardiográfica.

Page generated in 0.0333 seconds