• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 1
  • Tagged with
  • 19
  • 19
  • 10
  • 10
  • 7
  • 7
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Evidências sobre o uso de técnicas de geração automática de dados de teste em programas concorrentes / Evidences about the use of automatic test data generation techniques in context of concurrent programs

Vilela, Ricardo Ferreira 01 August 2016 (has links)
Diversas pesquisas apoiam e investigam o teste de programas concorrentes, as quais objetivam, principalmente, a proposição de critérios de teste e mecanismos para execução das diferentes sincronizações entre processos ou threads. As características específicas dessas aplicações podem ocasionar diferentes tipos de defeitos, os quais, em sua maioria, não são facilmente identificados. Nesse contexto, a geração automática de dados de teste pode apoiar a atividade de teste atuando na seleção de entradas mais representativas, ou seja, aquelas com maior probabilidade de revelar defeitos. Apesar disso, poucas pesquisas abordam este tema no contexto de programas concorrentes, e as existentes não consideram aspectos importantes desse tipo de aplicação. A geração de dados de teste para programas sequenciais dispõe de uma variedade de técnicas que apoiam a seleção dos dados de teste. Essas técnicas têm sido estendidas para o contexto de programas concorrentes partindo da premissa que esses programas necessitam de abordagens mais complexas para seleção de entradas, em decorrência disso um maior custo é imposto ao teste. Considerando esse contexto, uma lacuna ainda em aberto é a avaliação das técnicas para o cenário de programas concorrentes. Neste trabalho a avaliação das técnicas foi explorada por meio da realização de estudos experimentais, os quais avaliaram diferentes técnicas de geração de dados de teste para o contexto de programas concorrentes, considerando a eficácia em revelar defeitos, cobertura de critérios e custo para atividade de teste. Os resultados obtidos demonstraram que as técnicas empregadas para programas sequenciais não atingem o mínimo esperado para este tipo aplicação. Apesar disso, as técnicas investigadas apresentaram características importantes que podem auxiliar a atividade de teste para programas concorrentes e a proposição de abordagens efetivas de geração de dados para esse contexto. / The concurrent program testing has been largely investigated with propositions of testing criteria and mechanisms, which aim mainly to testing criteria proposition and mechanisms for execution of different synchronizations. The specific characteristics of these applications can lead to the different types of faults, which, in most of cases, are not easily identified. In this context, the automatic test data generation can support the testing activity acting in selecting the most representative data tests, i.e. those most likely to reveal faults. Nevertheless, few studies address this issue in the context of concurrent programs, and the these studies do not consider important aspects of this type of application. In contrast, we can find several techniques proposed to support the test data generation for sequential programs. These techniques have been extended to the context of concurrent programs on the premise that these programs require more complex approaches for selection of test data. As a result, a greater cost for testing activity is enforced. Considering this context, a gap still open is the evaluation of techniques for the scenario of concurrent programs. In this work the evaluation of techniques was explored through experimental studies, which different techniques of test data generatoon were evaluated, considering effectiveness, testing coverage and application cost. The results showed that the generation techniques used for sequential programs used in the experimental study do not reach the minimum expected in terms of effectiveness and cost for concurrent programs. Nevertheless, the techniques investigated showed significant features that can help the proposition of effective approaches for test data generation applied to concurrent programs.
12

Modelagem fuzzy usando agrupamento condicional

Nogueira, Tatiane Marques 06 August 2008 (has links)
Made available in DSpace on 2016-06-02T19:05:32Z (GMT). No. of bitstreams: 1 2113.pdf: 882226 bytes, checksum: 022c380c1d469988d9e4617a030f17c3 (MD5) Previous issue date: 2008-08-06 / The combination of fuzzy systems with clustering algorithms has great acceptance in the scientific community mainly due to its adherence to the advantage balance principle of computational intelligence, in which different methodologies collaborate with each other potentializing the usefulness and applicability of the resulting systems. Fuzzy Modeling using clustering algorithms presents the transparency and comprehensibility typical of the linguistic fuzzy systems at the same time that benefits from the possibilities of dimensionality reduction by means of clustering. In this work is presented the Fuzzy-CCM method (Fuzzy Conditional Clustering based Modeling) which consists of a new approach for Fuzzy Modeling based on the Fuzzy Conditional Clustering algorithm aiming at providing new means to address the topic of interpretability of fuzzy rules bases. With the Fuzzy-CCM method the balance between interpretability and accuracy of fuzzy rules is dealt with through the definition of contexts defined by a small number of input variables and the generation of clusters induced by these contexts. The rules are generated in a different format, with linguistic variables and clusters in the antecedent. Some experiments have been carried out using different knowledge domains in order to validate the proposed approach by comparing the results with the ones obtained by the Wang&Mendel and conventional Fuzzy C-Means methods. The theoretical foundations, the advantages of the method, the experiments and results are presented and discussed. / A combinação de sistemas fuzzy com algoritmos de agrupamento tem grande aceitação na comunidade científica devido; principalmente, a sua aderência ao princípio de balanceamento de vantagens da inteligência computacional, no qual metodologias diferentes colaboram entre si, potencializando a utilidade e aplicabilidade dos sistemas resultantes. A modelagem fuzzy usando algoritmos de agrupamento apresenta a transparência e facilidade de compreensão típica dos sistemas fuzzy lingüísticos ao mesmo tempo em que se beneficia das possibilidades de redução da dimensionalidade por intermédio do agrupamento. Neste trabalho é apresentado o método Fuzzy-CCM (Fuzzy Conditional Clustering based Modeling), que consiste de uma nova abordagem de Modelagem Fuzzy baseada no algoritmo de Agrupamento Fuzzy Condicional, cujo objetivo é prover novos meios de tratar a questão da interpretabilidade de bases de regras fuzzy. Com o método Fuzzy-CCM, o balanço entre interpretabilidade e acuidade de regras fuzzy é tratado por meio da definição de contextos formados com um pequeno número de variáveis de entrada e a geração de grupos condicionados por estes contextos. As regras são geradas em um formato diferente, que contêm variáveis lingüísticas e grupos no seu antecedente. Alguns experimentos foram executados usando diferentes domínios de conhecimento a fim de validar a abordagem proposta, comparando os resultados obtidos usando a nova abordagem com os resultados obtidos usando os métodos Wang&Mendel e Fuzzy C-Means. A fundamentação teórica, as vantagens do método, os experimentos e os resultados obtidos são apresentados e discutidos.
13

Evidências sobre o uso de técnicas de geração automática de dados de teste em programas concorrentes / Evidences about the use of automatic test data generation techniques in context of concurrent programs

Ricardo Ferreira Vilela 01 August 2016 (has links)
Diversas pesquisas apoiam e investigam o teste de programas concorrentes, as quais objetivam, principalmente, a proposição de critérios de teste e mecanismos para execução das diferentes sincronizações entre processos ou threads. As características específicas dessas aplicações podem ocasionar diferentes tipos de defeitos, os quais, em sua maioria, não são facilmente identificados. Nesse contexto, a geração automática de dados de teste pode apoiar a atividade de teste atuando na seleção de entradas mais representativas, ou seja, aquelas com maior probabilidade de revelar defeitos. Apesar disso, poucas pesquisas abordam este tema no contexto de programas concorrentes, e as existentes não consideram aspectos importantes desse tipo de aplicação. A geração de dados de teste para programas sequenciais dispõe de uma variedade de técnicas que apoiam a seleção dos dados de teste. Essas técnicas têm sido estendidas para o contexto de programas concorrentes partindo da premissa que esses programas necessitam de abordagens mais complexas para seleção de entradas, em decorrência disso um maior custo é imposto ao teste. Considerando esse contexto, uma lacuna ainda em aberto é a avaliação das técnicas para o cenário de programas concorrentes. Neste trabalho a avaliação das técnicas foi explorada por meio da realização de estudos experimentais, os quais avaliaram diferentes técnicas de geração de dados de teste para o contexto de programas concorrentes, considerando a eficácia em revelar defeitos, cobertura de critérios e custo para atividade de teste. Os resultados obtidos demonstraram que as técnicas empregadas para programas sequenciais não atingem o mínimo esperado para este tipo aplicação. Apesar disso, as técnicas investigadas apresentaram características importantes que podem auxiliar a atividade de teste para programas concorrentes e a proposição de abordagens efetivas de geração de dados para esse contexto. / The concurrent program testing has been largely investigated with propositions of testing criteria and mechanisms, which aim mainly to testing criteria proposition and mechanisms for execution of different synchronizations. The specific characteristics of these applications can lead to the different types of faults, which, in most of cases, are not easily identified. In this context, the automatic test data generation can support the testing activity acting in selecting the most representative data tests, i.e. those most likely to reveal faults. Nevertheless, few studies address this issue in the context of concurrent programs, and the these studies do not consider important aspects of this type of application. In contrast, we can find several techniques proposed to support the test data generation for sequential programs. These techniques have been extended to the context of concurrent programs on the premise that these programs require more complex approaches for selection of test data. As a result, a greater cost for testing activity is enforced. Considering this context, a gap still open is the evaluation of techniques for the scenario of concurrent programs. In this work the evaluation of techniques was explored through experimental studies, which different techniques of test data generatoon were evaluated, considering effectiveness, testing coverage and application cost. The results showed that the generation techniques used for sequential programs used in the experimental study do not reach the minimum expected in terms of effectiveness and cost for concurrent programs. Nevertheless, the techniques investigated showed significant features that can help the proposition of effective approaches for test data generation applied to concurrent programs.
14

Levantamento, representação e análise computacional de hipóteses sobre combinações de frases percussivas

DIAS, Luca Bezerra 31 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-07-12T11:59:57Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Luca Bezerra Dias - Dissertação de Mestrado (versão final) - Capas Oficiais e Normas ABNT [Digital].pdf: 5112956 bytes, checksum: 8c627192221d904c973b582471a171dc (MD5) / Made available in DSpace on 2016-07-12T11:59:57Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Luca Bezerra Dias - Dissertação de Mestrado (versão final) - Capas Oficiais e Normas ABNT [Digital].pdf: 5112956 bytes, checksum: 8c627192221d904c973b582471a171dc (MD5) Previous issue date: 2015-08-31 / FACEPE / Os avanços na área de computação musical ao longo dos anos trouxeram no-vas possibilidades e também novas perguntas. A área de geração automática de con-teúdo musical ganhou bastante interesse (BILES, 1994); (SAMPAIO, TEDESCO e RAMALHO, 2005); (GIFFORD, 2013), e com ela, surgiram questões mais profundas sobre o conteúdo gerado por estes sistemas. Qual a aplicabilidade de tais sistemas? Como trabalhar com conceitos como melodia e harmonia? É possível gerar música que não seja apenas um combinado aleatório de notas ou excertos musicais? Reduzindo o escopo da discussão para sistemas geradores de composições percussivas, um elemento essencial fica em evidência: o ritmo. Qual o impacto de um ritmo destoante dentro de uma música? É possível gerar ritmos neutros, que se en-caixem em qualquer composição? Como gerar automaticamente um bom ritmo? Para responder a essas questões, é necessário antes chegar à resposta de uma pergunta mais fundamental: como saber se um ritmo A combina com um ritmo B? A literatura (inclusive musical) sobre esse assunto é escassa e, na sua maioria, subjetiva, pessoal e sem bases empíricas. Em geral, o caminho tomado pelos traba-lhos costuma se basear no que pode ser feito algoritmicamente, para depois encaixar os resultados dentro do conceito de ritmo, tornando os resultados questionáveis. Diante disso, resolvemos seguir o caminho inverso, partindo de teorias e con-ceitos para só depois chegarmos ao algoritmo. Para tal, pedimos que músicos e estu-diosos apresentassem definições de ritmo e suas características fundamentais, a par-tir das quais construímos hipóteses para responder à pergunta deste trabalho. Isto demandou buscar junto aos músicos possíveis hipóteses, encontrar uma forma de representá-las computacionalmente, levantar exemplos concretos (dados) musicais e decidir como representa-los computacionalmente, planejar experimentos que pudes-sem confrontar hipóteses e dados, para, enfim, tirar conclusões com respeito à per-gunta de pesquisa. Neste trabalho, que se insere na linha do uso de computadores como ferramenta de auxílio ao musicólogo, narramos este processo de investigação, elencando as dificuldades, justificando as escolhas, apresentando os resultados obti-dos e discutindo as lições aprendidas. / The advances in the computer music field throughout the years have brought new possibilities, and also new questions. The automatic generation of music content field has aroused a lot of interest (BILES, 1994); (SAMPAIO, TEDESCO e RAMALHO, 2005); (GIFFORD, 2013), and, with it, many deeper questions about the content gen-erated by these systems were brought into attention. What is the point of such sys-tems? How some concepts such as melody and harmony can be dealt with? Is it pos-sible to generate music that is not just a random sequence of notes or musical ex-cerpts? Narrowing the scope to percussive compositions generative systems, an essen-tial element stands out: the rhythm. What is the impact of a dissonant rhythm within a song? Is it possible to generate neutral rhythms, which could fit into any composition? How to generate a good rhythm? To answer these questions, first of all it is necessary to find the answer to a more fundamental question: how to tell if rhythm A matches rhythm B? The academic literature (including the musical one) on this subject is scarce, and mostly subjective, relying on personal opinions and without empirical basis. In general, the path chosen on the studies is based on what can be done algorithmically, to only then fit the results within the concept of rhythm, making the results unreliable. Therefore, we have decided to take the opposite way, starting from theories and concepts, to only then think about the algorithm. In order to do so, we have asked musicians and researchers to provide us with definitions for rhythm and its most fun-damental characteristics, from which we have built the hypotheses to answer this re-search’s main question. To achieve this, we had to ask musicians for possible hypoth-esis, find a way of representing them computationally, find concrete musical examples (data) and decide how to represent this data computationally, plan experiments that could compare hypothesis against data to, finally, get to conclusions about this re-search’s main question. In this work, which is highly linked with using computers as an auxiliary tool for the musicologist, we describe this investigation process, revealing the difficulties, justifying the choices made, presenting the results obtained and discussing the lessons learned.
15

Um paradigma baseado em algoritmos genéticos para o aprendizado de regras Fuzzy

Castro, Pablo Alberto Dalbem de 24 May 2004 (has links)
Made available in DSpace on 2016-06-02T19:06:08Z (GMT). No. of bitstreams: 1 656.pdf: 1176051 bytes, checksum: 79408472b8b3606bcf1eb1699d034a2e (MD5) Previous issue date: 2004-05-24 / Financiadora de Estudos e Projetos / The construction of the knowledge base of fuzzy systems has been beneficited intensively from automatic methods that extract the necessary knowledge from data sets which represent examples of the problem. The evolutionary computation, especially genetic algorithms, has been the focus of a great number of researches that deal with the problem of automatic generation of knowledge bases as search and optimization processes using di erent approaches. This work presents a methodology to learn fuzzy rule bases from examples by means of Genetic Algorithms using the Pittsburgh approach. The methodology is composed of 2 stages. The first one is the genetic learning of rule base and the other one is the genetic optimization of the rule base previously obtained in order to exclude redundant and unnecessary rules. The first stage uses a Self Adaptive Genetic Algorithm, that changes dynamically the crossover and mutation rates ensuring genetic diversity and avoiding the premature convergence. The membership functions are defined previously by the fuzzy clustering algorithm FC-Means and remain fixed during all learning process. The application domain is multidimensional pattern classification, where the attributes and, sometimes, the class are fuzzy, so they are represented by linguistic values. The proposed methodology performance is evaluated by computational simulations on some real-world pattern classification problems. The tests focused the accuracy of generated fuzzy rules in di erent situations. The dynamic change of algorithm parameters showed that better results can be obtained and the use of don t care conditions allowed to generate a small number of comprehensible and compact rules. / A construção da base de conhecimento de sistemas fuzzy tem sido beneficiada intensamente por métodos automáticos que extraem o conhecimento necessário a partir de conjuntos de dados que representam exemplos do problema. A computação evolutiva, em particular os algoritmos genéticos, tem sido alvo de um grande número de pesquisas que tratam, usando abordagens variadas, a questão da geração automática da base de conhecimento de sistemas fuzzy como um processo de busca e otimização. Este trabalho apresenta uma metodologia para o aprendizado de bases de regras fuzzy a partir de exemplos por meio de Algoritmos Genéticos usando a abordagem Pittsburgh. A metodologia é composta por duas etapas. A primeira é a geração genética da base de regras e a segunda é a otimização genética da base de regras previamente obtida, a fim de eliminar regras redundantes e desnecessárias. A primeira etapa utiliza um algoritmo genético auto-adaptativo, que altera dinamicamente os valores das taxas de cruzamento e mutação, a fim de garantir diversidade genética na população e evitar convergência prematura. As funções de pertinência são previamente definidas pelo algoritmo de agrupamento fuzzy FC-Means e permanecem fixas durante todo o processo de aprendizado. O domínio da aplicação é a classificação de padrões multi-dimensionais, onde os atributos e, algumas vezes, as classes são fuzzy, portanto, representados por valores lingüísticos. O desempenho da metodologia proposta é avaliado por simulações computacionais em alguns problemas de classificação do mundo real. Os testes focaram a acuidade das bases de regras geradas em diferentes situações. A alteração dinâmica dos parâmetros do algoritmo mostrou que melhores resultados podem ser obtidos e o uso da condição de don t care permitiu gerar um reduzido n´umero de regras mais compreensíveis e compactas.
16

Geração genética multiobjetivo de bases de conhecimento fuzzy com enfoque na distribuição das soluções não dominadas

Pimenta, Adinovam Henriques de Macedo 02 December 2014 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-02-14T11:18:13Z No. of bitstreams: 1 TeseAHMP.pdf: 2470407 bytes, checksum: b3f2c2d64bfa00285c28963c74627bea (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-20T13:12:18Z (GMT) No. of bitstreams: 1 TeseAHMP.pdf: 2470407 bytes, checksum: b3f2c2d64bfa00285c28963c74627bea (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-20T13:12:31Z (GMT) No. of bitstreams: 1 TeseAHMP.pdf: 2470407 bytes, checksum: b3f2c2d64bfa00285c28963c74627bea (MD5) / Made available in DSpace on 2017-03-20T13:23:55Z (GMT). No. of bitstreams: 1 TeseAHMP.pdf: 2470407 bytes, checksum: b3f2c2d64bfa00285c28963c74627bea (MD5) Previous issue date: 2014-12-02 / Não recebi financiamento / The process of building the knowledge base of fuzzy systems has benefited extensively of methods to automatically extract the necessary knowledge from data sets that represent examples of the problem. Among the topics investigated in the most recent research is the matter of balance between accuracy and interpretability, which has been addressed by means of multi-objective genetiv algorithms, NSGA-II being on of the most popular. In this scope, we identified the need to control the diversity of solutions found by these algorithms, so that each solution would balance the Pareto frontier with respect to the goals optimized by the multi-objective genetic algorithm. In this PhD thesis a multi-objective genetic algorithm, named NSGA-DO, is proposed. It is able to find non dominated solutions that balance the Pareto frontier with respect optimization of the objectives. The main characteristicof NSGA-DO is the distance oriented selection of solutions. Once the Pareto frontier is found, the algorithm uses the locations of the solutions in the frontier to find the best distribution of solutions. As for the validation of the proposal, NSGA-DO was applied to a methodology for the generation of fuzzy knowledge bases. Experiments show the superiority of NSGADO when compared to NSGA-II in all three issues analyzed: dispersion, accuracy and interpretability. / A construção da base de conhecimento de sistemas fuzzy tem sido beneficiada intensamente por métodos automáticos que extraem o conhecimento necessário a partir de conjuntos de dados que representam exemplos do problema. Entre os tópicos mais investigados nas pesquisas recentes está a questão do balanceamento entre acuidade e interpretabilidade, que têm sido abordada por meio dos algoritmos genéticos multiobjetivo, sendo o NSGA-II um dos mais populares. Neste escopo, identificou-se a necessidade do controle da distribuição das soluções encontradas por estes algoritmos, a fim de que cada solução possa equilibrar a fronteira de Pareto com relação aos objetivos otimizados pelo algoritmo genético multiobjetivo. Neste sentido, desenvolveu-se neste projeto de doutorado um algoritmo genético multiobjetivo, chamado NSGA-DO, capaz de encontrar soluções não dominadas que equilibram a fronteira de Pareto nos objetivos a serem otimizados. A principal característica do NSGA-DO é a seleção de soluções orientada à distância. Uma vez encontrada a fronteira de Pareto, o algoritmo usa a localização das soluções nesta fronteira para encontrar a melhor distribuição das soluções. Para a validação da proposta, aplicou-se o NSGA-DO em uma metodologia para a geração de bases de conhecimento fuzzy. Experimentos realizados comprovaram a superioridade do NSGA-DO com relação ao NSGA-II nos três quesitos analisados: dispersão, acurácia e interpretabilidade.
17

Geração de layout de interfaces gráficas baseado em ontologias para documentos do Registro Eletrônico em Saúde

Bezerra, Andrea Fernanda Fontes 23 May 2014 (has links)
Submitted by Clebson Anjos (clebson.leandro54@gmail.com) on 2016-02-11T19:57:13Z No. of bitstreams: 1 arquivototal.pdf: 4682448 bytes, checksum: 9f9a7a72b4132cb9d61c8cc0c1591ea3 (MD5) / Made available in DSpace on 2016-02-11T19:57:13Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 4682448 bytes, checksum: 9f9a7a72b4132cb9d61c8cc0c1591ea3 (MD5) Previous issue date: 2014-05-23 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Health informatics is a domain that presents several challenges to be overcome. Electronic Health Records (EHR) are one of its most important subdomain, in charge of storage, exhibition, and manipulation of patient clinical information, among others. EHR systems require domain flexibility, which allows modifications in the structure of documents without application recompilation or redeployment, for instance, in a web server. Current approaches in the literature propose generic models to represent domain and presentation, without ontological definitions for user interface (UI) layout and style. These, when properly organized, improve the acceptance of the system by users. This work aims to develop a framework to layout and style generation for graphical user interface of EHR documents, based on Web Ontology Language (OWL) ontologies and using restrictions. By centralizing and combining metadata from biomedical and documents domains, it was possible to apply layout and style to EHR documents, with the use of grids, including additional ontological definition of presentation formats for the medical field, facilitating UI development and maintenance. / A informática em saúde apresenta muitos desafios a serem superados. Um de seus principais ramos de pesquisa são os Registros Eletrônicos em Saúde (RES), responsáveis, dentre outros, pelo armazenamento, exibição e manipulação de registros clínicos do paciente. Sistemas deste tipo requerem flexibilidade do domínio da aplicação, de modo que alterações nos documentos do RES sejam realizadas em tempo de execução, sem recompilação ou reimplantação da aplicação, por exemplo, em um servidor web. Abordagens da literatura propõem modelos genéricos de representação de domínio e apresentação, sem definições ontológicas de layout e estilo de interface com o usuário (UI). Estes, quando bem organizados, melhoram a aceitação do sistema pelos usuários. Este trabalho teve como objetivo o desenvolvimento de um framework para geração de layout e estilo de interface gráfica com o usuário para documentos do RES, baseado em ontologias Web Ontology Language (OWL), com uso de restrições. Através da centralização e combinação dos metadados biomédicos e de documentos para o RES, foi possível aplicar layout e estilo para os documentos do RES, com uso de grids, com definição ontológica adicional de formatos de apresentação para a área médica, facilitando o desenvolvimento da UI para o RES a manutenção da interface gráfica da aplicação.
18

Extração automática de dados de páginas HTML utilizando alinhamento em dois níveis

Pedralho, André de Souza 28 July 2011 (has links)
Made available in DSpace on 2015-04-11T14:02:41Z (GMT). No. of bitstreams: 1 andre.pdf: 821975 bytes, checksum: 8b72d2493d068d6a827082e5eb108bf6 (MD5) Previous issue date: 2011-07-28 / There is a huge amount of information in the World Wide Web in pages composed by similar objects. E-commerce Web sites and on-line catalogs, in general, are examples of such data repositories. Although this information usually occurs in semi-structured texts, it is designed to be interpreted and used by humans and not processed by machines. The identification of these objects inWeb pages is performed by external applications called extractors or wrappers. In this work we propose and evaluate an automatic approach to the problem of generating wrappers capable of extracting and structuring data records and the values of their attributes. It uses the Tree Alignment Algorithm to find in the Web page examples of objects of interest. Then, our method generates regular expressions for extracting objects similar to the examples given using the Multiple Sequence Alignment Algorithm. In a final step, the method decomposes the objects in sequences of text using the regular expression and common formats and delimiters, in order to identify the value of the attributes of the data records. Experiments using a collection composed by 128 Web pages from different domains have demonstrated the feasibility of our extraction method. It is evaluated regarding the identification of blocks of HTML source code that contain data records and regarding record extraction and the value of its attributes. It reached a precision of 83% and a recall of 80% when extracting the value of attributes. These values mean a gain in precision of 43.37% and in recall of 68.75% when compared to similar proposals. / Existe uma grande quantidade de informação na World Wide Web em páginas compostas por objetos similares. Web sites de comércio eletrônico e catálogos online, em geral, são exemplos destes repositórios de dados. Apesar destes dados serem apresentados em porções de texto semi-estruturados, são projetados para serem interpretados e utilizados por humanos e não processados por máquinas. A identificação destes objetos em páginas Web é feita por aplicações externas chamadas extratores ou wrappers. Neste trabalho propomos e avaliamos um método automático para o problema de extrair e estruturar registros e valores de seus atributos presentes em páginas Web ricas em dados. O método utiliza um Algoritmo de Alinhamento de Árvores para encontrar nestas páginas exemplos de registros que correspondem a objetos de interesse. Em seguida, o método gera expressões regulares para extrair objetos similares aos exemplos dados usando o Algoritmo de Alinhamento de Múltiplas Sequências. Em um passo final, o método decompõe os registros em sequências de texto aplicando a expressão regular criada e formatações e delimitadores comuns, com o intuito de identificar os valores dos atributos dos registros. Experimentos utilizando uma coleção composta por 128 páginasWeb de diferentes domínios demonstram a viabilidade do nosso método de extração. O método foi avaliado em relação à identificação de blocos de código HTML que contêm os registros e quanto à extração dos registros e dos valores de seus atributos. Obtivemos precisão de 83% e revocação de 80% na extração de valores de atributos. Estes valores significam um ganho na precisão de 43,37% e na revocação de 68,75%, em relação a propostas similares
19

Geração genética de classificador fuzzy intervalar do tipo-2

Pimenta, Adinovam Henriques de Macedo 30 October 2009 (has links)
Made available in DSpace on 2016-06-02T19:05:45Z (GMT). No. of bitstreams: 1 3199.pdf: 1902769 bytes, checksum: 95b9e8c5042bd6117bd75983a58966f6 (MD5) Previous issue date: 2009-10-30 / Universidade Federal de Sao Carlos / The objective of this work is to study, expand and evaluate the use of interval type-2 fuzzy sets in the knowledge representation for fuzzy inference systems, specifically for fuzzy classifiers, as well as its automatic generation form data sets, by means of genetic algorithms. This work investigates the use of such sets focussing the issue of balance between the cost addition in representation and the gains in interpretability and accuracy, both deriving from the representation and processing complexity of interval type-2 fuzzy sets. With this intent, an evolutionary model composed of three stages was proposed and implemented. In the first stage the rule base is generated, in the second stage the data base is optimized and finally, the number of rules of the rule base obtained is optimized in the third stage. The model developed was evaluated using several benchmark data sets and the results obtained were compared with two other fuzzy classifiers, being one of them generated by the same model using type-1 fuzzy sets and the other one generated by the Wang&Mendel method. Statistical methods usually applied for comparisons in similar contexts demonstrated a significant improvement in the classification rates of the intervalar type-2 fuzzy set classifier generated by the proposed model, with relation to the other methods. / O objetivo deste trabalho é estudar, expandir e avaliar o uso de conjuntos fuzzy intervalares tipo-2 na representação do conhecimento em sistemas de inferência fuzzy, mais especificamente para os classificadores fuzzy, bem como sua geração automática a partir de conjuntos de dados, por meio de algoritmos genéticos. Esse trabalho investiga o uso de tais conjuntos com enfoque na questão de balanceamento entre o acréscimo de custo da representação e os ganhos em interpretabilidade e precisão, ambos decorrentes da complexidade de representação e processamento dos conjuntos fuzzy intervalares do tipo-2. Com este intuito, foi proposto e implementado um modelo evolutivo composto por três etapas. Na primeira etapa á gerada a base de regras, na segunda é otimizada a base de dados e, por fim, na terceira etapa o número de regras da base gerada é otimizado. O modelo desenvolvido foi avaliado em diversos conjuntos de dados benchmark e os resultados obtidos foram comparados com outros dois classificadores fuzzy, sendo um deles gerados pelo mesmo modelo, porém, utilizando conjuntos fuzzy do tipo-1 e, o outro, gerado pelo método de Wang&Mendel. Métodos estatísticos de comparação usualmente aplicados em contextos semelhantes mostraram aumento significativo na taxa de classificação do classificador fuzzy intervalar do tipo-2 gerado pelo modelo em relação aos outros dois classificadores utilizados para comparação.

Page generated in 0.1069 seconds