• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 490
  • 18
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 523
  • 330
  • 267
  • 224
  • 120
  • 97
  • 86
  • 79
  • 74
  • 71
  • 69
  • 64
  • 60
  • 56
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

The buddhist concept of selflessness according to Je Tsongkhapa / O conceito budista de \'Anatma\' (ausência de identidade) segundo Je Tsongkhapa

Piza, Adriana Toledo 22 February 2019 (has links)
This doctoral research has the purpose of articulating a consistent presentation of the Buddhist concept of selflessness as explained by the great Tibetan Buddhist scholar Tsongkhapa (Tibet, 13571419 CE), who composed some major philosophical masterpieces about this key Buddhist concept based on Ngrjuna´s (India, ca 150250 CE) famous Mla-madhyamaka-krik (MMK). Tsongkhapa presents himself as a follower of Ngrjuna, that is, as a proponent of the \'Middle Way\' (madhyamaka, dbu ma pa) Buddhist philosophical school. As our study of the first treatise in which he presents his view on selflessness advanced, we realized that it was necessary to dedicate part of our research to the analysis of the epistemological theory that substantiates his explanation of selflessness, since his approach to the subject is based on the use of what he calls \'rational analysis\' and \'inferential knowledge\'. Therefore, a preliminary part of our thesis is dedicated to the clarification of Tsongkhapa´s conceptions of rational analysis and inferential knowledge, which are based primarily on the theory of \'valid cognition\' (pramna, tshad ma) elaborated centuries earlier by the great Indian scholar Dharmakrti (6th and 7th centuries CE). The next stage of our research was guided by the following question: since, for Tsongkhapa, not possessing a self means the same as not possessing a nature (svabhva, rang zhin), a concept upon which Dharmakrti´s explanation of inferential knowledge is based, how does Tsongkhapa combine his presentation of selflessness with Dharmakrti´s epistemology without generating internal contradictions in his system? We have concluded that, in Tsongkhapa´s presentation of selflessness as united with causation, that is, as one implying the other due to the introduction of the key distinction between \'inherent nature\' and \'mere nature\', there is no contradiction between his epistemological use of inferences based on the notion of mere natures (recognized as conventional) and his final ontological assertion that phenomena lack inherent natures. / A presente pesquisa de doutoramento tem por finalidade articular uma apresentação consistente do conceito budista de anatma (ausência de identidade) segundo a explicação do grande pensador tibetano Tsongkhapa (Tibete, 13571419 D.C.), que compôs relevantes obras filosóficas sobre esse conceito budista fundamental, baseadas no famoso tratado Mla-madhyamaka-krik (MMK) de Ngrjuna (Índia, ca 150250 D.C.). Tsongkhapa se apresenta como um seguidor de Ngrjuna, ou seja, como um proponente da escola de filosofia budista \'Caminho do Meio\' (madhyamaka, dbu ma pa). À medida que nosso estudo do primeiro tratado em que ele articula sua visão da noção de anatma (ausência de identidade) se desenvolvia, percebemos que seria necessário dedicar parte de nossa pesquisa à análise da teoria epistemológica que fundamenta sua explicação da \'ausência de identidade\' (dos fenômenos), visto que sua abordagem baseia-se na utilização do que ele chama de \'análise racional\' e \'conhecimento por inferência\'. Dessa forma, a primeira parte de nossa tese é dedicada à compreensão das noções de \'análise racional\' e \'conhecimento por inferência\' usadas por Tsongkhapa, que se baseiam principalmente na teoria sobre as \'cognições válidas\' (pramna, tshad ma), elaborada séculos antes pelo grande pensador indiano Dharmakrti (séculos VI e VII). A etapa seguinte de nosso trabalho teve como fio-condutor a seguinte questão: visto que, para Tsongkhapa, a ausência de identidade (anatma, dak me) significa o mesmo que não ser dotado de uma \'natureza\' (svabhva, rang zhin), conceito sobre o qual a explicação de Dharmakrti do conhecimento por inferência se baseia, como Tsongkhapa elabora conceitualmente a articulação da epistemologia de Dharmakrti com sua explicação da ausência de identidade dos fenômenos sem gerar contradições internas em seu sistema? Concluímos que, na apresentação de Tsongkhapa, em que a noção de causalidade passa a implicar a de \'ausência de identidade\' devido à introdução da distinção essencial entre \'natureza inerente\' e \'mera natureza\', não há contradição entre seu uso epistemológico de inferências baseadas na noção de \'meras naturezas\' (reconhecidas como convencionais) e sua afirmação ontológica final da ausência de natureza inerente nos fenômenos.
112

Estimando a aversão ao risco no mercado de seguros de automóveis / Estimating Risk Preferences From Auto Insurance Market

Lopes, Caio Matteúcci de Andrade 20 May 2015 (has links)
O objetivo deste trabalho é estimar a distribuição conjunta do risco e da aversão ao risco no mercado de seguros de automóveis. Para tal, será utilizado o modelo estrutural proposto por Cohen e Einav (2007), que permite identificar esta distribuição à partir das coberturas escolhidas pelos segurados e dos sinistros declarados. Na metodologia empírica, utilizamos o método de Monte Carlo via Cadeias de Markov (MCMC). A base de dados utilizada se refere à apólices de seguros transacionadas na região metropolitana de São Paulo, apenas para a seguradora com maior participação neste mercado. Os resultados obtidos indicam que os coeficientes de aversão ao risco absoluto apresentam média baixa, mediana ainda menor e elevada heterogeneidade não observada. Observou-se também uma correlação negativa entre o risco e a aversão ao risco. / This study aims to estimate the distribution of risk aversion from the car insurance market. For this, the method proposed by Cohen e Einav (2007) model that allows unobserved risk is used. The data refer to the metropolitan area of São Paulo with an analysis restricted to only one insurer. The methodology will be the Gibbs sampling which enables increased data risk of latent variables and risk aversion. The results indicate a small mean level of absolute risk aversion and even lower median, featuring high dispersion coefficients.
113

Modelagem em análise de sobrevivência para dados médicos bivariados utilizando funções cópulas e fração de cura / Modeling in survival analysis for medical data using bivariate copula functions and cure fraction.

Emilio Augusto Coelho Barros 31 July 2014 (has links)
Modelos de mistura e de não mistura em longa duracão, são aplicados na analise de dados de sobrevivência quando uma parcela de indivduos não são suscetíveis ao evento de interesse. Diferentes modelos estatsticos são propostos para analisar dados de sobrevivência na presenca de fracão de cura. Nesta tese, e proposto o uso de novos modelos. Sob o ponto de vista univariado, inicialmente e considerado o caso em que os dados de sobrevivênciaa seguem distribuicão Burr XII com três parâmetros, no qual inclui o modelo de mistura para a distribuicão Weibull como caso particular. Um modelo de sobrevivência geral e estudado considerando a situacão em que os parâmtreos de locacão e forma dessa distribuicão dependem de covariaveis. Ainda considerando o caso univariado, um estudo da distribuicãoo exponencial exponenciada com dois parâmetros e realizado. Essa distribuicão, tambem conhecida como distribuicão exponencial generalizada, e um caso particular da distribuicão Weibull exponenciada, introduzida por Mudholkar e Srivastava (1993). Um modelo de sobrevivência geral tambem e estudado, nesse caso considera-se a situacão em que os parâmetros de escala, forma e de fracão de cura da distribuicão exponencial exponenciada dependem de covariaveis. Um terceiro estudo univariado considera a distribuicão Weibull na presenca de fracão de cura, dados censurados e covariaveis. Nesse caso, dois modelos são estudados: modelo de mistura e modelo de não mistura. Quando dois tempos de sobrevivência distintos estão associados a cada unidade amostral (caso bivariado), na analise dos dados e possvel utilizar algumas distribuicões bivariadas: em especial a distribuicão exponencial bivariada de Block e Basu. As estimativas dos parâmetros da distribuicão exponencial bivariada de Block e Basu na presenca de fracão de cura e covariaveis são obtidas. Sob o ponto de vista bivariado tambem sera considerado o caso da distribuicão Weibull bivariada derivada de função copula na presenca de fração ao de cura, dados censurados e covariaveis. Duas funcões copulas são exploradas: a funcão copula Farlie-Gumbel-Morgenstern (FGM) e a funcão copula Gumbel. Procedimentos classicos e Bayesianos são utilizados para obter estimadores pontuais e intervalares dos parâmetros desconhecidos. Para vericar a utilidade e o comportamento dos modelos, alguns conjuntos de dados na area medica são analisados. / Mixture and non-mixture lifetime models are applied to analyze survival data when some individuals may never experience the event of interest. Dierent statistical models are proposed to analyze survival data in the presence of cure fraction. In this thesis, we propose the use of new models. From the univariate case, we consider that the lifetime data have a three-parameter Burr XII distribution, which includes the popular Weibull mixture model as a special case. We consider a general survival model where the scale and shape parameters of the Burr XII distribution depends on covariates. Also considering the univariate case the two-parameters exponentiated exponential distribution is used. The two-parameter exponentiated exponential or the generalized exponential distribution is a particular member of the exponentiated Weibull distribution introduced by Mudholkar and Srivastava (1993). We also consider in this case a general survival model where the scale, shape and cured fraction parameters of the exponentiated exponential distribution depends on covariates. We also introduce the univariate Weibull distributions in presence of cure fraction, censored data and covariates. Two models are explored in this case: the mixture model and non-mixture model. When we have two lifetimes associated with each unit (bivariate data), we can use some bivariate distributions: as special case the Block and Basu bivariate lifetime distribution. We also presents estimates for the parameters included in Block and Basu bivariate lifetime distribution in presence of covariates and cure fraction, applied to analyze survival data when some individuals may never experience the event of interest and two lifetimes are associated with each unit. We also consider in bivariate case the bivariate Weibull distributions derived from copula functions in presence of cure fraction, censored data and covariates. Two copula functions are explored in this paper: the Farlie-Gumbel-Morgenstern copula (FGM) and the Gumbel copula. Classical and Bayesian procedures are used to get point and condence intervals of the unknown parameters. Illustrations of the proposed methodologies are given considering medicals data sets.
114

Uso de métodos bayesianos na análise de dados de sobrevida para pacientes com câncer na mama na presença de censuras, fração de cura e covariáveis / Use of Bayesian methods in the analysis of survival data for pacients with breast cancer in presence of censoring, cure fraction and covariates

Tatiana Reis Icuma 10 June 2016 (has links)
Introdução: A maior causa de mortes no mundo é devido ao câncer, cerca de 8,2 milhões em 2012 (World Cancer Report, 2014). O câncer de mama é a forma mais comum de câncer entre as mulheres e a segunda neoplasia mais frequente, seguida do câncer de pele não melanoma, representando cerca de 25% de todos os tipos de cânceres diagnosticados. Modelos estatísticos de análise sobrevivência podem ser úteis para a identificação e compreensão de fatores de risco, fatores de prognóstico, bem como na comparação de tratamentos. Métodos: Modelos estatísticos de análise de sobrevivência foram utilizados para evidenciar fatores que afetam os tempos de sobrevida livre da doença e total de um estudo retrospectivo realizado no Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo, Ribeirão Preto, referente a 54 pacientes com câncer de mama localmente avançado com superexpressão do Her-2 que iniciaram a quimioterapia neoadjuvante associada com o medicamento Herceptin® (Trastuzumabe) no período de 2008 a 2012. Utilizaram-se modelos univariados com distribuição Weibull sem e com a presença de fração de cura sob o enfoque frequentista e bayesiano. Utilizou-se modelos assumindo uma estrutura de dependência entre os tempos observados baseados na distribuição exponencial bivariada de Block Basu, na distribuição geométrica bivariada de Arnold e na distribuição geométrica bivariada de Basu-Dhar. Resultados: Resultados da análise univariada sem a presença de covariáveis, o modelo mais adequado às características dos dados foi o modelo Weibull com a presença de fração de cura sob o enfoque bayesiano. Ao incorporar nos modelos as covariáveis, observou-se melhor ajuste dos modelos com fração de cura, que evidenciaram o estágio da doença como um fator que afeta a sobrevida livre da doença e total. Resultados da análise bivariada sem a presença de covariáveis estimam médias de tempo de sobrevida livre da doença para os modelos Block e Basu, Arnold e Basu-Dhar de 108, 140 e 111 meses, respectivamente e de 232, 343, 296 meses para o tempo de sobrevida total. Ao incorporar as covariáveis, os modelos evidenciam que o estágio da doença afeta a sobrevida livre da doença e total. No modelo de Arnold a covariável tipo de cirurgia também se mostrou significativa. Conclusões: Os resultados do presente estudo apresentam alternativas para a análise de sobrevivência com tempos de sobrevida na presença de fração de cura, censuras e várias covariaveis. O modelo de riscos proporcionais de Cox nem sempre se adequa às características do banco de dados estudado, sendo necessária a busca de modelos estatísticos mais adequados que produzam inferências consistentes. / Introduction: The leading worldwide cause of deaths is due to cancer, about 8.2 million in 2012 (World Cancer Report, 2014). Breast cancer is the most common form of cancer among women and the second most common cancer, followed by non-melanoma skin cancer, accounting for about 25% of all diagnosed types of cancers. Statistical analysis of survival models may be useful for the identification and understanding of risk factors, prognostic factors, and the comparison treatments. Methods: Statistical lifetimes models were used to highlight the important factors affecting the disease-free times and the total lifetime about a retrospective study conducted at the Hospital das Clinicas, Faculty of Medicine, University of São Paulo, Ribeirão Preto, referring to 54 patients with locally advanced breast cancer with Her-2 overexpression who started neoadjuvant chemotherapy associated with the drug Herceptin® (Trastuzumab) in the time period ranging from years 2008 to 2012. It was used univariate models assuming Weibull distribution with and without the presence of cure fraction under the frequentist and Bayesian approaches. It was also assumed models assuming a dependence structure between the observed times based on the bivariate Block-Basu exponential distribution, on the bivariate Arnold geometric distribution and on the bivariate Basu-Dhar geometric distribution. Results: From the results of the univariate analysis without the presence of covariates, the most appropriate model for the data was the Weibull model in presence of cure rate under a Bayesian approach. By incorporating the covariates in the models, there was best fit of models with cure fraction, which showed that the stage of the disease was a factor affecting disease-free survival and overall survival. From the bivariate analysis results without the presence of covariates, the estimated means for free survival time of the disease assuming the Block- Basu, Arnold and Basu-Dhar models were respectively given by 108, 140 and 111; for the overall survival times the means were given respectively by, 232, 343, 296 months. In presence of covariates, the models showed that the stage of the disease affects the disease-free survivals and the overall survival times. Assuming the Arnold model, the covariate type of surgery also was significant. Conclusions: The results of this study present alternatives for the analysis of survival times in the presence of cure fraction, censoring and covariates. The Cox proportional hazards model not always is apropriate to the database characteristics studied, which requires the search for more suitable statistical models that produce consistent inferences.
115

Arquitetura de um controlador Fuzzy tipo-2 intervalar em hardware analógico

Paloma Maria Silva Rocha Rizol 05 September 2011 (has links)
O presente trabalho tem por objetivo propor uma nova arquitetura e baseada nela, projetar um circuito que funcione como um controlador baseado na lógica fuzzy tipo-2 intervalar. Neste trabalho são apresentados o projeto e a implementação dos circuitos que compõem o referido controlador, tais como: o circuito fuzificador tipo-2 intervalar (FOU); os circuitos de máximo e mínimo que são utilizados na máquina de inferência Mamdani tipo-2; os circuitos multiplicador-divisor; somador; escalonador; subtrator; mínimo e máximo que são utilizados para implementar o módulo tipo-redutor baseado no método de Wu-Mendel. E por fim, o circuito de média aritmética que é utilizado para implementar o circuito defuzificador. Todos estes circuitos foram implementados em tecnologia CMOS 0,35m da AMS - Austria Mikro Systems International AG, com tensão de alimentação de 3,3V.
116

Redes causais nebulosas.

Leilton Scandelari Lemos 00 December 2002 (has links)
Sistemas especialistas que lidam com mundos aleatórios ou condicionados por exceções são de grande utilidade quando definidos por métodos estatísticos. Seja pela melhora da segurança na predição da aleatoriedade ou pela redução das regras que tratam as exceções, estes sistemas tem atraído grande atenção de pesquisadores e da indústria (pois existem muito mais exceções possíveis do que as enumeradas explicitamente). Como um dos sistemas especialistas probabilísticos mais difundidos atualmente, as redes bayesianas representam o conhecimento na forma de grafos e tabelas e por isto são altamente intuitivas e descritivas. Apesar de sua popularidade, as redes bayesianas possuem alguns problemas conhecidos que dificultam seu uso, seja na sua modelagem ou no uso em tempo real. Esta pesquisa propõe o formalismo de um nó codificador e decodificador que visa tratar as incertezas no conhecimento (seja por problemas de definição ou aquisição) e possibilitar a conexão entre conhecimentos heterogêneos. É proposto também um formalismo para outro mecanismo de inferência, a Rede Causal Nebulosa. Além da possibilidade de uma Rede Causal Nebulosa ser usada como substituta à rede bayesiana, há a possibilidade do uso da Rede Causal Nebulosa em controle de sistemas, no lugar dos controladores nebulosos tradicionais, possibilitando assim a modelagem de controladores nebulosos mais complexos, seja pelo acréscimo de: variáveis, dependências indiretas, regras ou graus de certeza. Estas adições à rede bayesiana permitiram: Eliminar a dependência de conhecimento; com o uso do nó codificador e decodificador há a possibilidade de inserir na rede conhecimento sobre os possíveis estados que uma variável pode assumir e as funções que definem os estados. Desta forma, a necessidade do usuário conhecer a modelagem da rede é removida, pois, o usuário não precisa mais tratar o dado bruto de forma a adequá-lo a entrada da rede; melhorar o uso da rede em tempo real; a remoção do tratamento dos dados para sua adequação à interface da rede melhora o uso em tempo real; facilitar a definição de estados às variáveis da rede; o uso de codificadores permite otimizar a definição de estados que a variável pode assumir; o aprendizado das regras e das dependências nos controladores nebulosos pode ser facilitado pelo uso das redes causais nebulosas como ambiente de trabalho.
117

MIDC - um método de inferência difusa para classificação em banco de dados

Strauss Cunha Carvalho 24 June 2014 (has links)
Este trabalho propõe um Método de Inferência Difusa para Classificação em Banco de Dados, denominado MIDC, visando aumentar a eficiência no tratamento de incertezas e imprecisões nas recuperações e classificações de informações a fim de tratá-las, qualitativamente, de modo semelhante ao raciocínio humano. Deste modo, propicia-se aos sistemas de Banco de Dados, por meio da utilização de termos qualitativos (linguísticos), as capacidades de recuperar, classificar e manipular informações, representando-as além das fronteiras da Lógica Clássica. O método proposto utiliza-se de um Sistema de Inferência Difusa (SID), composto de uma base de regras e um mecanismo de inferência, aplicável, também, na tarefa de Classificação da etapa de Mineração de Dados (Data Mining - DM) do Processo de Descoberta de Conhecimento em Banco de Dados (Knowledge Discovery in Databases - KDD). O m ?todo proposto foi verificado em um estudo de caso que propiciou realizar experimentos com grandes volume de dados, a fim compará-lo com um método tradicional de consulta e classificação em Bancos de Dados. Deste modo, propiciou-se uma comparação entre a recuperação e classificação de informações, utilizando-se Lógica Difusa e Lógica Clássica.
118

Aplicações de mecânica estatística a especiação simpátrica e inferência aproximativa / Applications of statistical mechanics to sympatric speciation and aproximative inference

Ribeiro, Fabiano Lemes 19 June 2009 (has links)
Apresenta-se nesta tese os resultados de aplicações do formalismo da Mecânica Estatística em dois problemas independentes. O primeiro diz respeito a um modelo para Evolução do Acasalamento Preferencial no processo de Especiação Simpátrica; enquanto que o segundo refere-se ao desenvolvimento de um algoritmo de aprendizado por meio de Inferência Aproximativa. No problema biológico estudado, cada indivíduo em um modelo de agentes é composto por dois traços. Enquanto um é responsável pela ecologia do indivíduo, o outro dita uma aparência física descorrelacionada com a adaptabilidade. Esses traços são expressos por diferentes loci que estão ligados entre si por uma taxa de recombinação. O modelo inclui também a possibilidade de evolução da preferência sexual dos indivíduos. Foi construído para esse modelo um diagrama de fases no espaço dos parâmetros que descrevem o ambiente como, por exemplo, quantidades de recursos e deficiência do indivíduo híbrido. Foram encontradas três fases de equilíbrio: (i) emergência de Acasalamento Preferencial; (ii) extinção de um dos alelos do locus responsável pela ecologia e (iii) equilíbrio Hardy-Weinberg. Foi verificado que o acasalamento preferencial pode emergir ou mesmo ser perdido (e vice-versa) em resposta a mudanças no ambiente. Além disso, o sistema apresenta memória característica típica de transições de primeira ordem, o que permitiu a descrição desse sistema biológico por meio do arcabouço da Mecânica Estatística. Em relação à Inferência Aproximativa, está-se interessado na construção de um algoritmo de aprendizado supervisionado por meio da técnica de Propagação de Expectativas. Mais especificamente, pretende-se inferir os parâmetros que compõem um Perceptron Professor a partir do conjunto de pares - entradas e saídas - que formam o conjunto de dados disponíveis. A estimativa desses parâmetros será feita pela substituição de uma distribuição Posterior original, geralmente intratável, por uma distribuição aproximativa tratável. o algoritmo Propagação de Expectativas foi adotado para a atualização, passo a passo, dos termos que compõem essa distribuição aproximativa. Essa atualização deve ser repetida até que a convergência seja atingida. Utilizando o Teorema do Limite Central e o método de Cavidade, foi possível obter um algoritmo genérico e que apresentou desempenho bastante evidente em dois modelos estudados: o modelo do Perceptron Binário e o modelo do Perceptron Gaussiano, com desempenho ótimo em ambos os casos. / This thesis presents applications of the framework of Statistical Mechanics to two independent problems. The first corresponds to a computational model for the evolution of Assortative Mating in the Sympatric Speciation process; and the second a learning algorithm built by means of a Bayesian Inference approach. In the biological problem each individual in an agent-based model is composed of two traits. One trait, called the ecological trait, is directly related with the fitness; the other, called the marker trait, has no bearing on the fitness. The traits are determined by different loci which are linked by a recombination rate. There is also the possibility of evolution of mating preferences, which are inherited from the mother and subject to random variations. The study of the phase diagram in the spa e of parameters describing the environment (like carrying capacity and disruptive selection) reveals the existence of three phases: (i) assortative mating; (ii) extinction of one allele from ecological loci; and (iii) Hardy-Weinberg equilibrium. It was verifed that the assortative mating an emerge or even be lost (and vice-versa) acording with the environmental hanges. Moreover, the system shows memory of the initial condition, characterising a hysteresis. Hysteresis is the signature of first order phase transition, which allows the description of the system by means of the Statistical Mechanics framework. In relation to the Bayesian Inference, a supervised learning algorithm was constructed by means of the Expectation Propagation approach. The idea is to estimate the parameters which compose a Teacher Perceptron by the substitution of the original posterior distribution, intra table, by a tractable approximative distribution. The step-by-step update of the terms composing the approximative distribution was performed by using the Expectation Propagation algorithm. The update must be repeated until the convergence ocurrs. Using the Central Limit Theorem and the Cavity Approah, it was possible to get a generic algorithm that has shown a very good performance in two application scenarios: The Binary Perceptron Model and the Gaussian Perceptron Model.
119

Modelagem de processo de extração de conhecimento em banco de dados para sistemas de suporte à decisão. / Modeling of knowledge discovery in databases for decision systems.

Shiba, Sonia Kaoru 26 June 2008 (has links)
Este trabalho apresenta a modelagem de um processo de extração de conhecimento, onde a aquisição de informações para a análise de dados têm como origem os bancos de dados transacionais e data warehouse. A mineração de dados focou-se na geração de modelos descritivos a partir de técnicas de classificação baseada no Teorema de Bayes e no método direto de extração de regras de classificação, definindo uma metodologia para a geração de modelos de aprendizagem. Foi implementado um processo de extração de conhecimento para a geração de modelos de aprendizagem para suporte à decisão, aplicando técnicas de mineração de dados para modelos descritivos e geração de regras de classificação. Explorou-se a possibilidade de transformar os modelos de aprendizagem em bases de conhecimento utilizando um banco de dados relacional, disponível para acesso via sistema especialista, para a realização de novas classificações de registros, ou então possibilitar a visualização dos resultados a partir de planilhas eletrônicas. No cenário descrito neste trabalho, a organização dos procedimentos da etapa de pré-processamento permitiu que a extração de atributos adicionais ou transformação de dados fosse realizada de forma iterativa, sem a necessidade de implementação de novos programas de extração de dados. Desta forma, foram definidas todas as atividades essenciais do pré-processamento e a seqüência em que estas devem ser realizadas, além de possibilitar a repetição dos procedimentos sem perdas das unidades codificadas para o processo de extração de dados. Um modelo de processo de extração de conhecimento iterativo e quantificável, em termos das etapas e procedimentos, foi configurado vislumbrando um produto final com o projeto da base de conhecimento para ações de retenção de clientes e regras para ações específicas com segmentos de clientes. / This work presents a model of knowledge discovery in databases, where the information for data analysis comes from a repository of transactional information systems and data-warehouse. The data mining focused on the generation of descriptive models by means of classification techniques based on the Bayes\' theorem and a extraction method of classification rules, defining a methodology to propose new learning models. The process of knowledge extraction was implemented for the generation of learning models for support the make decision, applying data mining for descriptive models and generation of classification rules. This work explored the possibility of transforming the learning models in knowledge database using a relational database, to be accessible by a specialist system, to classify new records or to allow the visualization of the results through electronic tables. The organization of the procedures in the pre-processing allowed to extract additional attributes or to transform information in an interactive process, with no need of new programs to extract the information. This way, all the essential activities of the pre-processing were defined and the sequence in which these should be developed. Additionally, this allowed the repetition of the procedures with no loss of units for the process of information extraction. A model of process for the interactive and quantifiable extraction of knowledge, in terms of the stages and procedures, was idealized in order to develop a product with the project of the knowledge databases for actions of retention of clients and rules for specific actions within clients\' segments.
120

Statistical Mechanics of Economic Systems / Mecânica estatística de sistemas econômicos

Andrade, João Pedro Jericó de 25 November 2016 (has links)
In this thesis, we explore the potential of employing Statistical Mechanics techniques to study economic systems, showing how such an approach could greatly contribute by allowing the study of very complex systems, exhibiting rich behavior such as phase transitions, criticality and glassy phases, which are not found in the usual economic models. We exemplify this potential via three specific problems: (i) a Statistical Mechanics framework for dealing with irrational consumers, in which the rationality is set by a parameter akin to a temperature which controls deviations from the maximum of his utility function. We show that an irrational consumer increases the economic activity while decreasing his own utility; (ii) an analysis using Information Theory of real world Input-Output matrices, showing that the aggregation methods used to build them most likely underestimated the dependency of the production chain on a few crucial sectors, having important consequences for the analysis of these data; (iii) a zero intelligence model in which agents with a power law distributed initial wealth randomly trade goods of different prices. We show that this initial inequality generates a higher inequality in free cash, reducing the overall liquidity in the economy and slowing down the number of trades. We discuss the insights obtained with these three problems, along with their relevance for the larger picture in Economics. / Nesta tese, exploramos o potencial de ser usar técnicas de Mecânica Estatística para o estudo de sistemas econômicos, mostrando como tal abordagem pode contribuir significativamente ao permitir o estudo de sistemas complexos que exibem comportamentos ricos como transições de fase, criticalidade e fases vítreas, não encontradas normalmente em modelos econômicos tradicionais. Exemplificamos este potencial através de três problemas específicos: (i) um framework de Mecânica Estatística para lidar com consumidores irracionais, no qual a racionalidade é controlada pela temperatura do sistema, que define o tamanho dos desvios do estado de máxima utilidade. Mostramos que um consumidor irracional aumenta a atividade econômica ao mesmo tempo que diminui seu próprio bem estar; (ii) uma anáise usando Teoria da Informação de matrizes Input-Output de economias reais, mostrando que os métodos de agregação utilizados para construí-las provavelmente subestima a dependência das cadeias de produção em certos setores cruciais, com consequências importantes para a analíse destes dados; (iii) um modelo em que agentes com uma riqueza inicial distributida como lei de potências trocam aleatoriamente objetos com preços distintos. Mostramos que esta desigualdade inicial gera uma desigualdade ainda maior em dinheiro livre, reduzindo a liquidez total na economia e diminuindo a quantidade de trocas. Discutimos as consequências dos resultados destes três problemas, bem como sua relevância na perspectiva geral em Economia.

Page generated in 0.0602 seconds