• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 388
  • 16
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 418
  • 254
  • 83
  • 66
  • 65
  • 61
  • 56
  • 50
  • 50
  • 47
  • 42
  • 39
  • 38
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

[en] INFLATION TARGETING WITH A FISCAL TAYLOR RULE / [pt] METAS DE INFLAÇÃO COM UMA REGRA DE TAYLOR FISCAL

EDUARDO HENRIQUE LEITNER 17 September 2020 (has links)
[pt] Este estudo propõe e testa um regime de metas de inflação alternativoque nós chamamos de Regra de Taylor Fiscal (FTR). Nesse regime, o governo, mantém a taxa de juros nominal constante e usa a alíquota de imposto sobre o consumo como instrumento para estabilizar a inflação e o hiato do produto. Nós estimamos um modelo padrão de ciclo de negócios a partir de dados dos EUA do período da Grande Moderação (1985-2007) e comparamos os resultados observados aos resultados de uma simulação contrafactual em que aplicamos os choques estimados ao mesmo modelo substituindo a regra de Taylor padrão pela FTR. Nós verificamos que, comparada a uma regra de Taylor padrão, a FTR pode ser capaz de prover uma performance similar em termos de estabilização econômica e portanto constitui uma opção teoricamente viável de política de estabilização econômica. / [en] This study proposes and tests an alternative inflation targeting regime which we call the fiscal Taylor rule (FTR). In this regime, the government keeps the nominal interest rate constant and uses the consumption tax rate as an instrument to stabilize inflation and the output gap. We estimate a standard business cycle model on US data from the Great Moderation period (1985-2007) and compare the observed outcomes to those of a counterfactual simulation where we apply the estimated shocks to the same business cycle model replacing the standard Taylor rule by the FTR. We find that compared to the standard Taylor rule, the FTR may be capable of providing similar performance in terms of economic stabilization and thus constitutes a theoretically viable option of policy framework.
252

[en] USE OF EYE-TRACKING DATA TO MODEL VISUAL BEHAVIOR IN EXPERT SYSTEMS / [pt] USO DE DADOS DE EYE-TRACKING PARA MODELAGEM DE COMPORTAMENTO VISUAL EM SISTEMAS ESPECIALISTAS

ABNER CARDOSO DA SILVA 22 September 2022 (has links)
[pt] O rastreamento ocular (eye-tracking) possibilita rastrear a posição e a direção do olhar de uma pessoa sobre algum tipo de estímulo (e.g., imagens ou vídeos). O uso desta tecnologia permite identificar eventos inerentes à visão humana, que contém informações implícitas capazes de revelar aspectos importantes sobre o comportamento de um indivíduo durante uma determinada tarefa. Porém, identificar essas informações requer um conjunto de habilidades para interpretar os dados de rastreamento ocular e relacioná-los com conhecimentos de domínios específicos. Nesse contexto, pode-se fazer grande proveito de sistemas inteligentes para agregar os conhecimentos e experiências de especialistas junto às respostas do dispositivo de rastreamento ocular. Dessa forma, o objetivo principal deste trabalho é propor uma metodologia para criar sistemas baseados em eye-tracking, para enriquecer o processo de avaliação de um indivíduo frente a uma determinada tarefa, resultando em um modelo para representar o conhecimento dos especialistas sobre aspectos subjetivos, visando automatizar esse processo avaliativo. Portanto, o presente trabalho toma como caso de uso a avaliação da relação entre comportamento visual e eficácia de indivíduos na resolução de testes inspirados em Matrizes Progressivas de Raven. Esses testes são comumente usados na psicologia para medir inteligência e a capacidade de raciocínio abstrato a partir da visualização de imagens. Optamos por utilizar uma abordagem baseada em regras fuzzy, por permitir armazenar conhecimento de forma mais transparente e legível aos usuários finais. As regras do modelo foram desenvolvidas e validadas com o auxílio de um especialista da área da psicologia. O sistema foi testado com dados extraídos de um grupo de usuários e apresentou resultados promissores. Os achados e modelos obtidos nessa pesquisa poderão ser utilizados como alicerce para o desenvolvimento de sistemas mais robustos. / [en] Eye-tracking makes it possible to track the position and direction of a person s gaze on some stimulus (e.g., images or videos). This technology allows us to identify events inherent to human vision, containing implicit information capable of revealing essential aspects of one s behavior during a given task. However, identifying these pieces of information is a complex task that requires a set of skills to interpret the eye-tracking data and relate it to domain-specific knowledge. In this context, one can use intelligent systems to couple the knowledge and experience of specialists with the responses from the eye-tracking device. Thus, the main objective of this work is to propose a methodology to create eye-tracking-based systems to improve the assessment of subjects during specific tasks, resulting in a model that can represent the specialist s knowledge over subjective aspects to automate this process. Therefore, the present work s use case is the evaluation of the relationship between visual behavior and efficiency in solving tests inspired by Raven s Progressive Matrices. Those tests are commonly used in psychology to measure intelligence and abstract reasoning through image visualization. We chose an approach based on fuzzy rules, as it allows us to represent knowledge in a more readable way to end-users. The model s rules were developed and validated alongside a specialist in psychology. The system was tested with data extracted from users and showed promising results. The findings and models obtained in this research may be used as a foundation for the development of more robust systems.
253

Descoberta de causa-raiz em ocorrências de sistemas elétricos. / Root cause discovery in occurrences of electrical systems.

PIRES, Stéfani Silva. 16 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-16T13:58:48Z No. of bitstreams: 1 STEFANI SILVA PIRES - DISSERTAÇÃO PGCC 2010..pdf: 819684 bytes, checksum: 625f468cb174d699bf5b98131d1adf61 (MD5) / Made available in DSpace on 2018-08-16T13:58:48Z (GMT). No. of bitstreams: 1 STEFANI SILVA PIRES - DISSERTAÇÃO PGCC 2010..pdf: 819684 bytes, checksum: 625f468cb174d699bf5b98131d1adf61 (MD5) Previous issue date: 2010-08-19 / Este trabalho apresenta uma técnica de análise de causa-raiz para sistemas elétricos de potência. A análise de causa-raiz é uma forma de auxiliar o operador na compreensão da ocorrênciadefalha,interpretandoasocorrênciascomefeito"cascata"entreoselementosda rede. A técnica proposta utiliza o raciocínio baseado em regras, onde regras parametrizadas constroem um modelo de propagação com os diagnósticos de uma ocorrência de falha. A técnica permite apontar o elemento causador da ocorrência, e detalhar a sua propagação para os demais elementos em um modelo de causa-efeito. A utilização de regras parametrizadas traz grandes vantagens ao processo, permitindo que a técnica seja adaptável a alterações na topologia do sistema, e contribuindo para sua escalabilidade. Um estudo de caso foi elaborado para sua avaliação, no contexto da Companhia Hidro Elétrica do São Francisco (CHESF), onde foi desenvolvido um protótipo que implementa a técnica, e levantados um conjunto de regras parametrizadas e um conjunto de cenários de falha utilizando uma ferramenta de simulação de um ambiente real, o Simulop. Utilizamos também na avaliação, um conjunto de regressões, que são dados históricos armazenados pela CHESF. As regressões foramimportantesnaprimeirafasededefiniçãodatécnica,masapresentamproblemascomo afaltadedados,ecomportamentosinesperadosdosistema,ondeamargemdeacertodatécnica foi de 74%. Para o conjunto de cenários levantados com oSimulop, a técnica proposta conseguiu realizar com sucesso o processo de análise de causa-raiz, identificando a causaraiz da ocorrência em 100% dos cenários de falha, e detalhando sua propagação para todos os outros elementos da rede envolvidos em 89% dos cenários, onde a margem de erro é composta de cenários cuja propagação foi identificada apenas parcialmente, devido à falta de regras que contemplassem os cenários. Dessa forma, a técnica proposta se mostrou uma abordagem viável para a análise de causa-raiz em sistemas elétricos. A margem de acerto reduzida nas regressões, indica que, para ser aplicada em um ambiente operacional real, faz-se necessária a elaboração de um conjunto de regras mais abrangente e que possa contornar esses problemas. / This paper presents a root cause analysis technique for electric power systems. The root cause analysis is a way to assist the operator in understanding the occurrence of failure, interpreting the events cascade occurrences. The proposed technique uses a rule based reasoning, where parameterized rules construct a propagation model with diagnosis of an occurrence of failure. The technique allows to point out the element that causes the occurrence, and detailing its propagation to other elements in a cause and effect model. The use of parameterized rules brings major benefits to the process, allowing the technique to be adaptable to changes in system topology, and contributing to its scalability A case study was prepared for evaluation in the context of the Companhia Hidro Elétrica do São Francisco (CHESF). We developed a prototype that implements the technique, and raised a set of parameterized rules and a set of failure scenarios using a tool to simulate a real environment, the Simulop. We also used in the evaluation process, a set of regressions, which are historical data stored by CHESF. The regressions were important in the first phase of the technique, but they have problems such as lack of data, and unexpected behavior of the system, where the accuracy of the technique was 74%. For the set of scenarios created with Simulop, the proposed technique has achieved success in the root cause analysis process, identifying the root cause of the occurrence in 100% of failure scenarios, and detailing their propagation to all other equipments involved in 89% of scenarios, where the margin of error is composed of scenarios whose propagation has been identified only in part due to the lack of rules that contemplate these scenarios. Thus, the proposed technique proved to be a viable approach to root cause analysis in electrical systems. The reduced margin of success in the regressions , indicates that, to be applied to an operational environment, it is necessary to elaborate a comprehensive set of rules that can deal these problems.
254

[en] HYBRID SYSTEM FOR RULE EXTRACTION APPLIED TO DIAGNOSIS OF POWER TRANSFORMERS / [pt] SISTEMA HÍBRIDO DE EXTRAÇÃO DE REGRAS APLICADO A DIAGNÓSTICO DE TRANSFORMADORES

CINTIA DE FARIA FERREIRA CARRARO 28 November 2012 (has links)
[pt] Este trabalho tem como objetivo construir um classificador baseado em regras de inferência fuzzy, as quais são extraídas a partir de máquinas de vetor suporte (SVMs) e ajustadas com o auxílio de um algoritmo genético. O classificador construído visa a diagnosticar transformadores de potência. As SVMs são sistemas de aprendizado baseados na teoria do aprendizado estatístico e apresentam boa habilidade de generalização em conjuntos de dados reais. SVMs, da mesma forma que redes neurais (RN), geram um modelo caixa preta, isto é, um modelo que não explica o processo pelo qual sua saída é obtida. Entretanto, para alguns problemas, o conhecimento sobre como a classificação foi obtida é tão importante quanto a classificação propriamente dita. Alguns métodos propostos para reduzir ou eliminar essa limitação já foram desenvolvidos, embora sejam restritos à extração de regras simbólicas, isto é, contêm funções ou intervalos nos antecedentes das regras. No entanto, a interpretabilidade de regras simbólicas ainda é reduzida. De forma a aumentar a interpretabilidade das regras, o modelo FREx_SVM foi desenvolvido. Neste modelo as regras fuzzy são extraídas a partir de SVMs treinadas. O modelo FREx_SVM pode ser aplicado a problemas de classificação com n classes, não sendo restrito a classificações binárias. Entretanto, apesar do bom desempenho do modelo FREx_SVM na extração de regras linguísticas, o desempenho de classificação do sistema de inferência fuzzy obtido é ainda inferior ao da SVM, uma vez que as partições (conjuntos fuzzy) das variáveis de entrada são definidas a priori, permanecendo fixas durante o processo de aprendizado das regras. O objetivo desta dissertação é, portanto, estender o modelo FREx_SVM, de forma a permitir o ajuste automático das funções de pertinência das variáveis de entrada através de algoritmos genéticos. Para avaliar o desempenho do modelo estendido, foram realizados estudos de caso em dois bancos de dados: Iris, como uma base benchmark, e a análise de resposta em frequência. A análise de resposta em frequência é uma técnica não invasiva e não destrutiva, pois preserva as características dos equipamentos. No entanto, o diagnóstico é feito de modo visual comparativo e requer o auxílio de um especialista. Muitas vezes, este diagnóstico é subjetivo e inconclusivo. O ajuste automático das funções de pertinência correspondentes aos conjuntos fuzzy associados às variáveis de entrada reduziu o erro de classificação em até 13,38 por cento em relação à configuração sem este ajuste. Em alguns casos, o desempenho da configuração com ajuste das funções de pertinência supera até mesmo aquele obtido pela própria SVM. / [en] This work aims to develop a classifier model based on fuzzy inference rules, which are extracted from support vector machines (SVMs) and optimized by a genetic algorithm. The classifier built aims to diagnose power transformers. The SVMs are learning systems based on statistical learning theory and have provided good generalization performance in real data sets. SVMs, as artificial neural networks (NN), generate a black box model, that is, a model that does not explain the process by which its output is obtained. However, for some applications, the knowledge about how the classification was obtained is as important as the classification itself. Some proposed methods to reduce or eliminate this limitation have already been developed, although they are restricted to the extraction of symbolic rules, i.e. contain functions or ranges in the rules´ antecedents. Nevertheless, the interpretability of symbolic rules is still reduced. In order to increase the interpretability of the rules, the FREx_SVM model was developed. In this model the fuzzy rules are extracted from trained SVMs. The FREx_SVM model can be applied to classification problems with n classes, not being restricted to binary classifications. However, despite the good performance of the FREx_SVM model in extracting linguistic rules, the classification performance of fuzzy classification system obtained is still lower than the SVM, since the partitions (fuzzy sets) of the input variables are predefined at the beginning of the process, and are fixed during the rule extraction process. The goal of this dissertation is, therefore, to extend the FREx_SVM model, so as to enable the automatic adjustment of the membership functions of the input variables through genetic algorithms. To assess the performance of the extended model, case studies were carried out in two databases: iris benchmark and frequency response analysis. The frequency response analysis is a noninvasive and non-destructive technique, because it preserves the characteristics of the equipment. However, the diagnosis is carried out by visual comparison and requires the assistance of an expert. Often, this diagnosis is subjective and inconclusive. The automatic adjustment of the membership functions associated with input variables reduced the error up to 13.38 per cent when compared to the configuration without this optimization. In some cases, the classification performance with membership functions optimization exceeds even those obtained by SVM.
255

[en] ESSAYS ON MONETARY POLICY AND BUSINESS CYCLES UNDER MARKET IMPERFECTIONS / [pt] ENSAIOS SOBRE POLÍTICA MONETÁRIA E FLUTUAÇÕES ECONÔMICAS NA PRESENÇA DE IMPERFEIÇÕES DE MERCADO

MARCO ANTONIO FREITAS DE HOLLANDA CAVALCANTI 11 July 2007 (has links)
[pt] Os ensaios que compõem a presente tese investigam, no contexto de modelos monetários de equilíbrio geral nos moldes novo- keynesianos, algumas questões de interesse relativas condução da política monetária e às características das flutuações macroeconômicas. O primeiro ensaio analisa as propriedades das políticas ótimas de desinflação, buscando determinar as condições sob as quais: (i) a trajetória ótima de desinflação envolve perdas substanciais de produto; (ii) uma estratégia de desinflação rápida é preferível a uma desinflação gradual. De acordo com os resultados obtidos, a existência de diferentes graus de fricções monetárias e de inércia no produto e na inflação permite justificar diferentes trajetórias ótimas de desinflação, algumas envolvendo queda rápida e indolor da inflação, outras associadas a lenta redução das taxas inflacionárias acompanhada de forte recessão. No segundo ensaio, investiga-se a relação entre as imperfeições no mercado de crédito e o grau de amplificação de choques na economia associado ao chamado acelerador financeiro. A partir de simulações de um modelo teórico que incorpora dois tipos de fricções no mercado de crédito, conclui-se que a potência do acelerador financeiro na amplificação de choques monetários pode aumentar ou diminuir com as fricções do mercado de crédito, dependendo do nível inicial e do tipo de imperfeição considerada. O último ensaio investiga empiricamente a relação entre imperfeições no mercado de crédito, amplificação de choques e volatilidade macroeconômica a partir de um painel de dados sócio-econômicos para 62 países. De acordo com os resultados obtidos, que são consistentes com o modelo desenvolvido no segundo ensaio, a volatilidade macroeconômica varia de forma não- monotonica com o viés anticredor do sistema jírídico- legal, mas parece aumentar com os custos de cumprimento de contratos / [en] This thesis consists of three essays on economic fluctuations and monetary policy issues, which are investigated within New- Keynesian monetary general equilibrium models. The first essay analyzes the properties of optimal disinflation policies, seeking to identify conditions under which: (i) the optimal disinflationary path involves significant output losses; (ii) a rapid disinflation is preferable to a gradual one. According to our results, different degrees of monetary frictions and inertia in output or inflation may lead to different optimal disinflationary policies - some of which will be quick and painless, while others will proceed slowly and generate deep recessions. The second essay investigates the relationship between credit market imperfections and the degree of shock amplification arising from the so-called financial accelerator, by simulating a macroeconomic model with two types of financial frictions. According to our results, the power of the financial accelerator may either increase or decrease with financial frictions, depending on the source and initial level of such frictions. The third essay provides an empirical investigation of the relationship between credit market imperfections, shock amplification and macroeconomic volatility, based on socioeconomic data from a panel of 62 countries. According to our results, which are consistent with the theoretical model developed in the second essay, macroeconomic volatility seems to increase with contract enforcement costs, but varies non-monotonically with the degree of anti-creditor bias in the judicial and legal system
256

Selecionando candidatos a descritores para agrupamentos hierárquicos de documentos utilizando regras de associação / Selecting candidate labels for hierarchical document clusters using association rules

Santos, Fabiano Fernandes dos 17 September 2010 (has links)
Uma forma de extrair e organizar o conhecimento, que tem recebido muita atenção nos últimos anos, é por meio de uma representação estrutural dividida por tópicos hierarquicamente relacionados. Uma vez construída a estrutura hierárquica, é necessário encontrar descritores para cada um dos grupos obtidos pois a interpretação destes grupos é uma tarefa complexa para o usuário, já que normalmente os algoritmos não apresentam descrições conceituais simples. Os métodos encontrados na literatura consideram cada documento como uma bag-of-words e não exploram explicitamente o relacionamento existente entre os termos dos documento do grupo. No entanto, essas relações podem trazer informações importantes para a decisão dos termos que devem ser escolhidos como descritores dos nós, e poderiam ser representadas por regras de associação. Assim, o objetivo deste trabalho é avaliar a utilização de regras de associação para apoiar a identificação de descritores para agrupamentos hierárquicos. Para isto, foi proposto o método SeCLAR (Selecting Candidate Labels using Association Rules), que explora o uso de regras de associação para a seleção de descritores para agrupamentos hierárquicos de documentos. Este método gera regras de associação baseadas em transações construídas à partir de cada documento da coleção, e utiliza a informação de relacionamento existente entre os grupos do agrupamento hierárquico para selecionar candidatos a descritores. Os resultados da avaliação experimental indicam que é possível obter uma melhora significativa com relação a precisão e a cobertura dos métodos tradicionais / One way to organize knowledge, that has received much attention in recent years, is to create a structural representation divided by hierarchically related topics. Once this structure is built, it is necessary to find labels for each of the obtained clusters, since most algorithms do not produce simple descriptions and the interpretation of these clusters is a difficult task for users. The related works consider each document as a bag-of-words and do not explore explicitly the relationship between the terms of the documents. However, these relationships can provide important information to the decision of the terms that must be chosen as descriptors of the nodes, and could be represented by rass. This works aims to evaluate the use of association rules to support the identification of labels for hierarchical document clusters. Thus, this paper presents the SeCLAR (Selecting Candidate Labels using Association Rules) method, which explores the use of association rules for the selection of good candidates for labels of hierarchical clusters of documents. This method generates association rules based on transactions built from each document in the collection, and uses the information relationship between the nodes of hierarchical clustering to select candidates for labels. The experimental results show that it is possible to obtain a significant improvement with respect to precision and recall of traditional methods
257

Caracterização de eventos transitórios da qualidade da energia elétrica utilizando sistemas inteligentes e processamento de sinais. / Characterization of power quality transient events using Intelligent systems and signal processing.

Vega García, Valdomiro 12 December 2012 (has links)
O diagnóstico de eventos que afetam a qualidade da energia elétrica tem se tornado preocupação de magnitude mundial, em especial em dois temas importantes que são: a localização relativa da origem do evento (LROE) e a classificação automática da causa fundamental de eventos (CACFE). O primeiro está relacionado com a identificação da fonte do evento, isto é, a montante ou a jusante do medidor de qualidade de energia (MQE). O segundo pode ser dividido em dois grupos: a classificação das causas internas e das causas externas. As causas internas estão relacionadas a eventos produzidos pela operação do sistema elétrico (energização ou desenergização do sistema, energização de transformador, chaveamento de capacitores dentre outros), e as causas externas estão vinculadas a eventos produzidos por faltas externas ao sistema elétrico (contato com galhos de árvore, animais, descargas atmosféricas, dentre outros). Ambos os temas, LROE e CACFE, são abordados nesta tese de doutorado. Para classificar eventos por causas internas ou externas é necessário antes definir se realmente trata-se ou não de um evento, para o qual é imprescindível conhecer a LROE. Este último necessita de um processo de segmentação das formas de onda de tensão e corrente para funcionar de forma correta. A segmentação identifica segmentos transitórios e não transitórios nas formas de onda e contribui também na extração de características para os diferentes algoritmos de classificação. Neste sentido, neste trabalho de pesquisa é proposta uma metodologia de diagnóstico da qualidade de eventos, focada em LROE e CACFE. Para isto foram desenvolvidos diferentes algoritmos de segmentação, extração de características e classificação, sendo criada uma ferramenta computacional em MatLab® que inclui pré-processamento de sinais de tensão e corrente de um banco de dados real fornecido por uma concessionária do Estado de São Paulo. Além disto, foram propostos novos algoritmos de LROE com resultados satisfatórios quando comparados com outros dois disponíveis na literatura científica. Para as causas internas, dois novos índices são propostos para separar eventos produzidos por faltas e energização de transformadores. Finalmente, são propostos novos algoritmos de extração de características baseados na energia dos coeficientes de decomposição da transformada wavelet bem como o algoritmo à trous modificado. São propostos dois novos vetores de descritores de energia (VDE) baseados no primeiro segmento transitório do evento. Para a classificação destes eventos foi utilizado um algoritmo de indução de regras de decisão (CN2), que gera regras de simples implementação. Todos os métodos de classificação utilizados nesta tese estão baseados em regras, sendo seu desempenho avaliado por meio da matriz de confusão. / Diagnosing events that affect power quality have become a worldwide concern, especially with respect to two important issues related to the relative location of the event origin (RLEO) and automatic cause classification of events (ACCE). The first one is related to the identification of the event source, i.e. either upstream or downstream in relation to the power quality meter (PQM). The second one can be subdivided into two groups, namely the classification of internal causes and of external causes. Internal causes are related to events produced by power system operation (connection or disconnection of feeders, power transformer inrush, capacitor switching, amongst others) and external causes that are related to events produced by external faults to the power system (network contacts to tree branches, animals contact, atmospheric discharges, amongst others). Both topics, RLEO and ACCE, are herein considered. In order to classify events due to internal or external causes, one should first define whether it is an actual event, what demands the RLEO. This makes use of a segmentation process applied to the voltage and current waveforms. The segmentation identifies the transient and stationary segments within the waveforms, contributing also to the feature extraction for different classification algorithms. Based on the aforementioned, this research proposes a methodology to diagnose power quality events, focusing on RLEO and ACCE. Different algorithms of segmentation, feature extraction and classification were then developed by the use of a computational tool implemented in MatLab®, that considers also the preprocessing of voltage and current signals in a real data base which was made available by a distribution company in Sao Paulo State. Besides that, new RLEO algorithms have shown satisfactory results when compared to algorithms published in the scientific literature. As for the internal causes, two new indices were proposed in order to separate events produced by faults or by the connection of power transformers. New algorithms for feature extraction are proposed, which are based on the energy of decomposition coefficients of the wavelet transform as well as the modified à trous algorithm. Two vectors of energy descriptors are proposed, which are based on the first transient segment of the event. The classification of such events was carried out by an induction algorithm of decision rules (CN2), that generates easily implementable rules. All classification methods utilized in this thesis are based on rules and their performances are assessed by the confusion matrix.
258

Combinação de classificadores simbólicos utilizando medidas de regras de conhecimento e algoritmos genéticos / Combinig classifiers using knowledge rule measures and genetic algortgms

Bernardini, Flávia Cristina 29 August 2006 (has links)
A qualidade das hipóteses induzidas pelos atuais sistemas de aprendizado de máquina supervisionado depende da quantidade dos exemplos no conjunto de treinamento. Por outro lado, muitos dos sistemas de aprendizado de máquina conhecidos não estão preparados para trabalhar com uma grande quantidade de exemplos. Grandes conjuntos de dados são típicos em mineração de dados. Uma maneira para resolver este problema consiste em construir ensembles de classificadores. Um ensemble é um conjunto de classificadores cujas decisões são combinadas de alguma maneira para classificar um novo caso. Apesar de melhorar o poder de predição dos algoritmos de aprendizado, ensembles podem ser compostos por muitos classificadores, o que pode ser indesejável. Ainda, apesar de ensembles classificarem novos exemplos melhor que cada classificador individual, eles se comportam como caixas pretas, no sentido de não oferecer ao usuário alguma explicação relacionada à classificação por eles fornecida. Assim, neste trabalho propomos uma abordagem que utiliza algoritmos de aprendizado simbólico para construir ensembles de classificadores simbólicos que explicam suas decisões de classificação e são tão ou mais precisos que o mais preciso dos seus classificadores individuais. Além disso, considerando que algoritmos de aprendizado simbólico utilizam métodos de busca local para induzir classificadores quanto que algoritmos genéticos utilizam métodos de busca global, propomos uma segunda abordagem para aprender conceitos simbólicos de grandes bases de dados utilizando algoritmos genéticos para evoluir classificadores simbólicos em um u´ nico classificador simbólico, de maneira que o classificador evoluído é mais preciso que os classificadores iniciais. Ambas propostas foram implementadas em dois sistemas computacionais. Diversos experimentos usando diferentes conjuntos de dados foram conduzidos para avaliar ambas as propostas. Ainda que os resultados experimenta das duas soluções propostas são promissores, os melhores resultados foram obtidos utilizando a abordagem relacionada a algoritmos genéticos / The quality of hypotheses induced by most of the available supervised machine learning algorithms depends on the quantity and quality of the instances in the training set. However, several well known learning algorithms are not able to manipulate many instances making it difficult to induce good classifiers from large databases, as are needed in the Data Mining process. One approach to overcome this problem is to construct ensembles of classifiers. An ensemble is a set of classifiers whose decisions are combined in some way to classify new cases (instances). However, although ensembles improve learning algorithms power prediction, ensembles may use an undesired large set of classifiers. Furthermore, despite classifying new cases better than each individual classifier, ensembles are generally a sort of ?black-box? classifier, not being able to explain their classification decisions. To this end, in this work we propose an approach that uses symbolic learning algorithms to construct ensembles of symbolic classifiers that can explain their classification decisions so that the ensemble is as accurate as or more accurate than the individual classifiers. Furthermore, considering that symbolic learning algorithms use local search methods to induce classifiers while genetic algorithms use global search methods, we propose a second approach to learn symbolic concepts from large databases using genetic algorithms to evolve symbolic classifiers into only one symbolic classifier so that the evolved classifier is more accurate than the initial ones. Both proposals were implemented in two computational systems. Several experiments using different databases were conducted in order to evaluate both proposals. Results show that although both proposals are promising, the approach using genetic algorithms produces better results.
259

Análise do padrão decisório do auditor brasileiro com uso da metodologia Q e do DMI (Decision Making Inventory) / Brazilian auditor\'s decision-making pattern analysis using Q methodology and DMI (Decision Making Inventory).

Sartorelli, Isabel Cristina 16 March 2015 (has links)
Esta tese analisa o padrão decisório do auditor brasileiro (a partir do enfoque da Teoria do Processo Dual em sua versão modificada pela Regret Theory, aqui denominada TPD-m), já que o padrão decisório pode informar a maneira pela qual o auditor exerce seu julgamento. Considerando que auditor e norma precisam estar alinhados, e considerando a adoção de normas baseadas em princípios (IFRS), o objetivo foi aprofundar os estudos de Jamal e Tan (2010), verificando se os tipos de auditores por eles identificados (orientados a princípios, a regras e a clientes) poderiam ser observados empiricamente na amostra delimitada (29 sócios e 35 gerentes de auditoria de firmas Large Six localizadas no Brasil), e se tal tipologia encontraria suporte na literatura que define as características principais desses tipos de auditores. As quatro hipóteses de pesquisa versaram sobre: a ausência de predominância de um único padrão decisório; a associação entre os padrões identificados pelo DMI (se analítico, intuitivo ou emocional) e os tipos de auditores; a homogeneidade na determinação do que seria considerado como mais importante numa auditoria em arrendamento mercantil; a existência de associação entre os agrupamentos identificados pela Metodologia Q e as características condizentes com os tipos de auditores identificados por Jamal e Tan (2010). A primeira hipótese foi verificada com o Teste DMI, e a conclusão indica que o perfil preponderante dos auditores é analítico (explicado pelo processo de accountability vivenciado pelos profissionais), o que fornece sustentação necessária para afirmar que as decisões tomadas por auditores são deliberadas e cuidadosamente analisadas (quando estes têm tempo disponível para análise). Em função do resultado da primeira hipótese, não foi possível verificar a segunda hipótese (não havia indivíduos de padrão intuitivo e emocional suficientes para estabelecer a associação desejada). A terceira hipótese foi verificada pelo exercício de arrendamento baseado na Metodologia Q; os resultados indicam que não há homogeneidade na determinação do que seria considerado mais importante dentre os participantes (nessa análise, fica clara a subdivisão dos participantes analíticos em dois grupos: o primeiro privilegia a análise dos contratos de arrendamento, e o segundo, a definição do valor justo). A quarta hipótese foi verificada analisando-se as palavras mais repetidas observadas nas transcrições das entrevistas, cujo resultado indica que pode haver correspondência entre os agrupamentos da Metodologia Q e os tipos de auditores orientados a princípios e a regras (não foi possível concluir sobre a existência de auditores orientados a clientes). Sobre os métodos empregados: o resultado do exercício de arrendamento corrobora o Teste DMI, já que em todo o grupo de participantes analíticos foi identificada a escolha de atitudes de cunho analítico (de conteúdo mais literal, mais objetivo); a Metodologia Q mostrou-se eficiente na análise da aplicação da norma contábil pelos participantes. Sobre a contribuição teórica, a abordagem da TPD-m ajuda a explicar as evidências empíricas coletadas; além disso, a discussão envolvendo conjuntamente agente e norma contábil, além da conceituação e utilidade de regras e princípios contábeis no processo de julgamento e tomada de decisão contribuem para a consolidação de pesquisas na área. / This doctoral dissertation analyzes the decision making style of the Brazilian auditor (from the point of view of the Dual Process Theory in its version modified by Regret Theory, here called TPD-m), since the decision-making pattern yield information about the way in which the auditor make judgments. Considering that auditor and accounting standard must be aligned, and considering the adoption of principle-based standards (IFRS), the objective was to deepen the studies of Jamal and Tan (2010), trying to identify whether the types of auditors identified by them (oriented by principles, by rules and by clients) could be empirically observed in the defined sample (29 partners and 35 managers of Large Six Brazilian audit firms), and whether it could find support in the literature that defines the main features of these types of auditors. The four research hypothesis were about: the lack of predominance of a single decision-making standard; the association between the patterns identified by DMI (if analytical, intuitive or emotional) and the types of auditors; homogeneity in determining what would be considered more important an audit in leasing; the existence of an association between the clusters identified by the Q Methodology and characteristics consistent with the types of auditors identified by Jamal and Tan (2010). The first hypothesis was verified with DMI Test; findings indicates that the predominant profile of auditors is analytical (explained by the accountability process experienced by professionals), which provides necessary support to affirm that the decisions taken by auditors are deliberate and carefully analyzed (if they have time available for analysis). With this result, it was not possible to verify the second hypothesis (there was no sufficient intuitive and emotional individuals to establish the desired association). The third hypothesis was verified by a lease exercise based on the Methodology Q; findings indicates no uniformity in determining what would be considered most important among the participants (in this analysis, it is clear the subdivision of analytical participants into two groups: the first focuses on the lease agreements, and the second on fair value\'s definition). The fourth hypothesis was verified by analyzing the most repeated words observed in the transcripts of the interviews, and the result indicates that there may be correspondence between the clusters of Q Methodology and types of auditors oriented by principles and by rules (it was not possible to conclude on the existence auditors oriented by clients). About the methods employed: the result of the lease exercise corroborates the DMI Test, as in the whole group of participants was identified analytical choosing an analytical attitudes (more literal content, more objective); Q methodology seems to be efficient in the analysis of the application of the accounting standard by the participants. About theoretical contribution: the approach of TPD-m helps to explain the empirical evidence collected; furthermore, the discussion involving jointly agent and accounting standards, the concept and utility of accounting principles and rules in the judgment and decision making process contributes to the consolidation of research in this area.
260

Visualização como suporte à extração e exploração de regras de associação / Vusualization as support to the extraction and exploration of association rules

Yamamoto, Claudio Haruo 17 April 2009 (has links)
Desde a definção do problema de obtenção de regras de associação, vários algoritmos eficientes foram introduzidos para tratá-lo. Entretanto, ainda hoje o problema apresenta várias dificuldades práticas para os mineradores, como a determinação de limiares adequados de suporte mínimo e confiança mínima, a manipulação de grandes conjuntos de regras, e a compreensão de regras (especialmente aquelas contendo muitos itens). Para tratar estes problemas, pesquisadores têm investigado a aplicação de técnicas interativas, sumarização (de conjuntos de regras) e representações visuais. Entretanto, nenhuma abordagem na qual os usuários podem entender e controlar o processo por meio da interação com o algoritmo analítico ao longo de sua execução foi introduzida. Neste trabalho, é introduzida uma abordagem interativa para extração e exploração de regras de associação que insere o usuário no processo por meio de: execução interativa do Apriori ; seleção interativa de itemsets freqüentes; extração de regras baseada em itemsets e orientada por agrupamentos de itemsets similares; e exploração de regras aos pares. Para validar a abordagem, foram realizados diversos estudos, apoiados pelo Sistema \'I IND.2\' E, com o objetivo de: comparar a abordagem interativa, sob diversos aspectos, com uma abordagem convencional de obtenção de regras de associação; avaliar o efeito de variar alguns parâmetros do processo nos resultados finais; e mostrar a aplicação dos recursos oferecidos em situações reais e com usuários reais. Os resultados indicam que a abordagem apresentada é adequada, tanto em cenários exploratórios quanto em cenários em que há um direcionamento inicial para o processo, à execução de certas tarefas de extração de regras de associação, pois: provém recursos capazes de evitar execuções inteiras do algoritmo antes que os resultados sejam analisados; gera conjuntos de regras mais compactos; preserva a cobertura de itemsets; favorece a reformulação de tarefas ou a formulação de novas tarefas; e provê meios para comparação visual de regras, aumentando o poder de análise do minerador / Since the definition of the association rule mining problem, many efficient algorithms have been introduced to deal with it. However, the problem still presents many practical difficulties to the miners, such as the determination of suitable minimum support and minimum confidence thresholds, manipulation of large rule sets, and comprehension of rules (specially those containing many items). In order to deal with these problems, researchers have been investigating the application of interactive techniques, sumarization (of rule sets) and visual representations. Nonetheless, no approach in which users can understand and control the process through interaction with the analytical algorithm along its execution has been introduced. We introduce an interactive approach to extract and explore association rules that inserts the user into the process through: interactive execution of the Apriori ; interactive selection of frequent itemsets; itemset-based and cluster-oriented extraction of rules; and pairwise exploration of rules. To validate the approach, several studies have been conducted, supported by the \'I IND.2\' E System, aiming at: comparing the interactive approach, under several aspects, with a conventional approach to obtain association rules; evaluate the effect of different execution parameters in the final results; and illustrate its application in real situations and with real users. Results of these studies indicate that the approach is adequate, both in exploratory scenarios and in scenarios in which there is an initial guidance for the process, to the execution of certain association rule extraction tasks, because: it provides resources to avoid complete algorithm executions before results are analyzed; generates more compact rule sets for exploration; preserves rule diversity; favors the reformulation of tasks; and provides support for rule comparison, enhancing analysis capability for miners

Page generated in 0.0684 seconds