• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 388
  • 16
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 418
  • 254
  • 83
  • 66
  • 65
  • 61
  • 56
  • 50
  • 50
  • 47
  • 42
  • 39
  • 38
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Mineração de padrões sequenciais e geração de regras de associação envolvendo temporalidade

João, Rafael Stoffalette 07 May 2015 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-08-07T19:16:02Z No. of bitstreams: 1 DissRSJ.pdf: 7098556 bytes, checksum: 78b5b020899e1b4ef3e1fefb18d32443 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-07T19:18:39Z (GMT) No. of bitstreams: 1 DissRSJ.pdf: 7098556 bytes, checksum: 78b5b020899e1b4ef3e1fefb18d32443 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-07T19:18:50Z (GMT) No. of bitstreams: 1 DissRSJ.pdf: 7098556 bytes, checksum: 78b5b020899e1b4ef3e1fefb18d32443 (MD5) / Made available in DSpace on 2017-08-07T19:28:30Z (GMT). No. of bitstreams: 1 DissRSJ.pdf: 7098556 bytes, checksum: 78b5b020899e1b4ef3e1fefb18d32443 (MD5) Previous issue date: 2015-05-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Data mining aims at extracting useful information from a Database (DB). The mining process enables, also, to analyze the data (e.g. correlations, predictions, chronological relationships, etc.). The work described in this document proposes an approach to deal with temporal knowledge extraction from a DB and describes the implementation of this approach, as the computational system called S_MEMIS+AR. The system focuses on the process of finding frequent temporal patterns in a DB and generating temporal association rules, based on the elements contained in the frequent patterns identified. At the end of the process performs an analysis of the temporal relationships between time intervals associated with the elements contained in each pattern using the binary relationships described by the Allen´s Interval Algebra. Both, the S_MEMISP+AR and the algorithm that the system implements, were subsidized by the Apriori, the MEMISP and the ARMADA approaches. Three experiments considering two different approaches were conducted with the S_MEMISP+AR, using a DB of sale records of products available in a supermarket. Such experiments were conducted to show that each proposed approach, besides inferring new knowledge about the data domain and corroborating results that reinforce the implicit knowledge about the data, also promotes, in a global way, the refinement and extension of the knowledge about the data. / A mineração de dados tem como objetivo principal a extração de informações úteis a partir de uma Base de Dados (BD). O processo de mineração viabiliza, também, a realização de análises dos dados (e.g, identificação de correlações, predições, relações cronológicas, etc.). No trabalho descrito nesta dissertação é proposta uma abordagem à extração de conhecimento temporal a partir de uma BD e detalha a implementação dessa abordagem por meio de um sistema computacional chamado S_MEMISP+AR. De maneira simplista, o sistema tem como principal tarefa realizar uma busca por padrões temporais em uma base de dados, com o objetivo de gerar regras de associação temporais entre elementos de padrões identificados. Ao final do processo, uma análise das relações temporais entre os intervalos de duração dos elementos que compõem os padrões é feita, com base nas relações binárias descritas pelo formalismo da Álgebra Intervalar de Allen. O sistema computacional S_MEMISP+AR e o algoritmo que o sistema implementa são subsidiados pelas propostas Apriori, ARMADA e MEMISP. Foram realizados três experimentos distintos, adotando duas abordagens diferentes de uso do S_MEMISP+AR, utilizando uma base de dados contendo registros de venda de produtos disponibilizados em um supermercado. Tais experimentos foram apresentados como forma de evidenciar que cada uma das abordagens, além de inferir novo conhecimento sobre o domínio de dados e corroborar resultados que reforçam o conhecimento implícito já existente sobre os dados, promovem, de maneira global, o refinamento e extensão do conhecimento sobre os dados.
212

A construção da textualidade no gênero regras de jogo em produções orais de crianças da pré-escola

Medeiros, Neilson Alves de 09 December 2009 (has links)
Made available in DSpace on 2015-05-14T12:43:20Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 596259 bytes, checksum: 0cdea032c6f63a8970b90bd45366dc40 (MD5) Previous issue date: 2009-12-09 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This paper aims to describe how the process of acquisition of oral genre game rules occurs in children from pre-school focusing on the construction of textuality. To do so, we collected data from a classroom of Childhood Education, with children of 4 years old, that elaborate their oral texts. The events listed are developed within activities of a didactic sequence, whose main goal is the teaching of oral genre 'game rules'. For data analysis, we adopted the principles of textuality (cohesion, coherence, intentionality, acceptability, situationality, informativity and intertextuality) as well as the characteristics of the oral genre 'game rules'. In analyzing the data, we observed that the entrance of the child in the genre studied presentes evidences related to the principles of textuality, and the construction of this phenomenon is not equal for all children. Besides that, data point that, to learn the 'game rules', other oral genres come into play as intermediary instruments in this process. / Este trabalho busca descrever como o processo de aquisição do gênero oral regras de jogo ocorre em crianças do pré-escolar, centrando-se na construção da textualidade. Para tanto, foram coletados dados referentes a uma sala de aula da Educação Infantil, com crianças de 4 anos de idade, que constroem seus textos orais. Os eventos mencionados desenvolvem-se dentro de atividades de uma sequência didática, cujo principal objetivo consiste no ensino do gênero oral regras de jogo . Para a análise dos dados, adotamos os princípios de textualidade (coesão, coerência, intencionalidade, aceitabilidade, situacionalidade, informatividade e intertextualidade) assim como as características do gênero oral regras de jogo . Ao analisar os dados, foi possível verificar que o ingresso da criança no gênero em questão apresenta indícios relacionados aos princípios de textualidade, sendo que a construção desse fenômeno não é igual para todas as crianças e que, para aprender as regras de jogo , outros gêneros orais entram em cena como intermediadores desse processo.
213

A conduta judicial ?tica te?rica e aplicada contida em princ?pios e regras deontol?gicos abrangidos pelo sistema constitucional

Ara?jo, Everton Amaral de 09 March 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-08-16T22:04:10Z No. of bitstreams: 1 EvertonAmaralDeAraujo_DISSERT.pdf: 2320336 bytes, checksum: 48138642e7d6ad7d7511af0cd86d4792 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-08-23T19:52:20Z (GMT) No. of bitstreams: 1 EvertonAmaralDeAraujo_DISSERT.pdf: 2320336 bytes, checksum: 48138642e7d6ad7d7511af0cd86d4792 (MD5) / Made available in DSpace on 2016-08-23T19:52:20Z (GMT). No. of bitstreams: 1 EvertonAmaralDeAraujo_DISSERT.pdf: 2320336 bytes, checksum: 48138642e7d6ad7d7511af0cd86d4792 (MD5) Previous issue date: 2016-03-09 / Pesquisa sobre a deontologia jur?dica voltada ? conduta judicial ?tica te?rica e aplicada embasada em princ?pios e regras jur?dicas enunciados na Constitui??o da Rep?blica Federativa do Brasil e na Lei Org?nica da Magistratura Nacional, contemplando tamb?m instrumentos propositivos abrangidos pelo sistema constitucional, os quais veiculam paradigmas comportamentais inseridos nos Princ?pios de Bangalore de Conduta Judicial, no Estatuto Universal do Juiz e no C?digo Ibero-americano de ?tica Judicial, al?m de destacar o papel influenciador daqueles instrumentos no C?digo de ?tica da Magistratura Nacional e na forma??o jur?dica complementar dos magistrados a cargo das Escolas de Magistratura. O estudo traz os influxos te?ricos da norma moral, perpassando pela norma social comportamental at? se consolidar o padr?o ideal de conduta judicial em normas jur?dicas e em instrumentos propositivos correlatos. A deontologia jur?dica direcionada ? conduta judicial ?tica ? confrontada com o estere?tipo que a sociedade expressa em rela??o ? pessoa do juiz, bem como ? associada ? ?tica profissional direcionada ao julgador, agente pol?tico a quem cumpre interpretar o direito com a finalidade qualificada de tomar decis?es que influenciam diretamente na concretiza??o do acesso a justi?a, assegurado constitucionalmente a todos. Valores compreendidos no sistema constitucional que visam a disciplinar a conduta judicial s?o apresentados e analisados sob vis?o cr?tica, uma vez que est?o encerrados em linguagem prescritiva que veicula aspectos comportamentais pass?veis de interpreta??o e cuja observ?ncia se revela como proposi??o voltada ao fomento de uma melhor solu??o dos conflitos de interesse sob a responsabilidade daqueles que formam a singular corpora??o do Poder Judici?rio. A contextualiza??o da tem?tica tamb?m enfoca a ?tica aplicada, partindo da abordagem de instrumentos normativos e propositivos de conte?do deontol?gico, enfocando ainda o estudo de casos reais apreciados pelo Conselho Nacional de Justi?a, no ?mbito da sua atua??o correcional. / Research on Legal Deontology dedicated to theoretical and applied ethics on judicial conduct grounded in legal principles and rules set out in the Constitution of the Federative Republic of Brazil and the Organic Law of the National Judiciary, also contemplating propositional instruments covered by the constitutional system, which conveys behavioural paradigms inserted in the Bangalore Principles of Judicial Conduct, in the Universal Statute of the Judge and in the Latin-American Code of Judicial Ethics, as well as highlight the influence of those instruments in the Brazilian Ethical Code of the Magistrates and in the official complementary training of judges in charge of Judiciary Schools. The study provides the theoretical influxes of moral norm, passing by behavioural social norm to consolidate the ideal standards of judicial conduct into legal standards and related instruments. The Legal Deontology directed to the ethical judicial conduct is confronted with the stereotype that society expressed in relation to the judge's person, who is the political agent that interprets the law for making decisions which directly influences the realization of access to justice, that is constitutionally guaranteed to all. Core values inserted in the constitutional system intended to discipline the judicial conduct are presented and analysed under a critical view, since they are enclosed in prescriptive language that conveys behavioural aspects open to interpretation and which compliance is revealed as a proposition focused on promoting a better solution of interest?s conflicts under the responsibility of those who constitute the distinctive corporation of the Judiciary. The theme?s contextualization also focuses on applied ethics, based on the approach of normative and propositional instruments of deontological content, still focusing on the study of real cases examined by the Brazilian National Council of Justice, as part of its correctional goals.
214

[en] HIERARCHICAL NEURO-FUZZY BSP-MAMDANI MODEL / [pt] MODELO NEURO-FUZZY HIERÁRQUICOS BSP MAMDANI

ROSINI ANTONIO MONTEIRO BEZERRA 04 November 2002 (has links)
[pt] Esta dissertação investiga a utilização de sistemas Neuro- Fuzzy Hierárquicos BSP (Binary Space Partitioning) para aplicações em classificação de padrões, previsão, sistemas de controle e extração de regras fuzzy. O objetivo é criar um modelo Neuro-Fuzzy Hierárquico BSP do tipo Mamdani a partir do modelo Neuro-Fuzzy Hierárquico BSP Class (NFHB-Class) que é capaz de criar a sua própria estrutura automaticamente e extrair conhecimento de uma base de dados através de regras fuzzy, lingüisticamente interpretáveis, que explicam a estrutura dos dados. Esta dissertação consiste de quatros etapas principais: estudo dos principais sistemas hierárquicos; análise do sistema Neuro-Fuzzy Hierárquico BSP Class, definição e implementação do modelo NFHB-Mamdani e estudo de casos. No estudo dos principais sistemas hierárquicos é efetuado um levantamento bibliográfico na área. São investigados, também, os principais modelos neuro-fuzzy utilizados em sistemas de controle - Falcon e o Nefcon. Na análise do sistema NFHB- Class, é verificado o aprendizado da estrutura, o particionamento recursivo, a possibilidade de se ter um maior número de entrada - em comparação com outros sistemas neuro-fuzzy - e regras fuzzy recursivas. O sistema NFHB- Class é um modelo desenvolvido especificamente para classificação de padrões, como possui várias saídas, não é possível utilizá-lo em aplicações em controle e em previsão. Para suprir esta deficiência, é criado um novo modelo que contém uma única saída. Na terceira etapa é definido um novo modelo Neuro-Fuzzy Hierárquico BSP com conseqüentes fuzzy (NFHB-Mamdani), cuja implementação utiliza a arquitetura do NFHBClass para a fase do aprendizado, teste e validação, porém, com os conseqüentes diferentes, modificando a estratégia de definição dos conseqüentes das regras. Além de sua utilização em classificação de padrões, previsão e controle, o sistema NFHB-Mamdani é capaz de extrair conhecimento de uma base de dados em forma de regras do tipo SE ENTÃO. No estudo de casos são utilizadas duas bases de dados típicas para aplicações em classificação: Wine e o Iris. Para previsão são utilizadas séries de cargas elétricas de seis companhias brasileiras diferentes: Copel, Cemig, Light, Cerj, Eletropaulo e Furnas. Finalmente, para testar o desempenho do sistema em controle faz-se uso de uma planta de terceira ordem como processo a controlar. Os resultados obtidos para classificação, na maioria dos casos, são superiores aos melhores resultados encontrados pelos outros modelos e algoritmos aos quais foram comparados. Para previsão de cargas elétricas, os resultados obtidos estão sempre entre os melhores resultados fornecidos por outros modelos aos quais formam comparados. Quanto à aplicação em controle, o modelo NFHB-Mamdani consegue controlar, de forma satisfatória, o processo utilizado para teste. / [en] This paper investigates the use of Binary Space Partitioning (BSP) Hierarchical Neuro-Fuzzy Systems for applications in pattern classification, forecast, control systems and obtaining of fuzzy rules. The goal is to create a BSP Hierarchical Neuro-Fuzzy Model of the Mamdani type from the BSP Hierarchical Neuro-Fuzzy Class (NFHB-Class) which is able to create its own structure automatically and obtain knowledge from a data base through fuzzy rule, interpreted linguistically, that explain the data structure. This paper is made up of four main parts: study of the main Hierarchical Systems; analysis of the BSP Hierarchical Neuro-Fuzzy Class System, definition and implementation of the NFHB-Mamdani model, and case studies. A bibliographical survey is made in the study of the main Hierarchical Systems. The main Neuro-Fuzzy Models used in control systems - Falcon and Nefcon -are also investigated. In the NFHB-Class System, the learning of the structure is verified, as well as, the recursive partitioning, the possibility of having a greater number of inputs in comparison to other Neuro-Fuzzy systems and recursive fuzzy rules. The NFHB-Class System is a model developed specifically for pattern classification, since it has various outputs, it is not possible to use it in control application and forecast. To make up for this deficiency, a new unique output model is developed. In the third part, a new BSP Hierarchical Neuro-Fuzzy model is defined with fuzzy consequents (NFHB-Mamdani), whose implementation uses the NFHB-Class architecture for the learning, test, and validation phase, yet with the different consequents, modifying the definition strategy of the consequents of the rules. Aside from its use in pattern classification, forecast, and control, the NFHB-Mamdani system is capable of obtaining knowledge from a data base in the form of rules of the type IF THEN. Two typical data base for application in classification are used in the case studies: Wine and Iris. Electric charge series of six different Brazilian companies are used for forecasting: Copel, Cemig, Light, Cerj, Eletropaulo and Furnas. Finally, to test the performance of the system in control, a third order plant is used as a process to be controlled. The obtained results for classification, in most cases, are better than the best results found by other models and algorithms to which they were compared. For forecast of electric charges, the obtained results are always among the best supplied by other models to which they were compared. Concerning its application in control, the NFHB-Mamdani model is able to control, reasonably, the process used for test.
215

Reconhecimento e legitimação jurisprudencial do Goodwill no Brasil: uma interpretação a partir da teoria econômica de John R. Commons / Reconnaissance et légitimation de jurisprudence du Goodwill au Brésil: une interprétation de la théorie économique de John R. Commons / Reconocimiento y legitimación jurisprudencial del Goodwill en Brasil: una interpretación a partir de la teoría económica de John R. Commons / Recognition and jurisprudential legitimacy of Goodwill in Brazil: an interpretation from the economic theory of John R. Commons

Pellegrino, Lucas Nunes [UNESP] 23 April 2018 (has links)
Submitted by Lucas Nunes Pellegrino (lucasnpellegrino@gmail.com) on 2018-06-29T22:12:52Z No. of bitstreams: 1 Reconhecimento e legitimação jurisprudencial do Goodwill no Brasil - uma interpretação a partir da teoria econômica de John R. Commons.pdf: 2302092 bytes, checksum: ed7addaefd4de0d7707280ee216db0f9 (MD5) / Approved for entry into archive by Aline Aparecida Matias null (alinematias@fclar.unesp.br) on 2018-07-03T11:34:40Z (GMT) No. of bitstreams: 1 pellegrino_ln_me_arafcl.pdf: 2302092 bytes, checksum: ed7addaefd4de0d7707280ee216db0f9 (MD5) / Made available in DSpace on 2018-07-03T11:34:40Z (GMT). No. of bitstreams: 1 pellegrino_ln_me_arafcl.pdf: 2302092 bytes, checksum: ed7addaefd4de0d7707280ee216db0f9 (MD5) Previous issue date: 2018-04-23 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / O texto objetivou analisar – de uma perspectiva do institucionalismo original – o processo de emergência, reconhecimento e legitimação jurídica/legal das formas de riqueza capitalistas intangíveis e incorpóreas em um país de capitalismo periférico, o Brasil. Claramente inspirado nas reflexões do economista institucionalista norte americano John R. Commons sobre a riqueza incorpórea e intangível, em especial o goodwill, e no papel do sistema legal na sua institucionalização, o texto toma a presença dessas formas de riqueza como sendo a expressão de maturidade do capitalismo monopolista, dada a imensa possibilidade que oferecem para a valorização do capital. O texto mostrou que no Brasil, à diferença dos EUA e outros países de capitalismo central, a presença de tais formas de riqueza foi inicialmente tardia (posterior aos anos 1920), e de certo modo limitada (circunscrita majoritariamente às atividades imobiliárias). Com a própria evolução e consolidação do capitalismo brasileiro, quando as novas formas de riqueza capitalistas foram ganhando peso e destaque, o sistema jurídico progressivamente foi se estruturando e se especializando para analisar e decidir sobre os conflitos originados da própria evolução do capitalismo brasileiro, em especial aqueles que envolveram o goodwill. Deste modo, buscamos compreender como tem sido o processo de regulamentação do goodwill pelo Estado na evolução do capitalismo e das instituições no Brasil, de modo a identificar e analisar casos jurídicos que possivelmente fundamentaram a lei, assim como as possíveis mudanças de entendimentos dos Tribunais de Cúpula (Supremo Tribunal Federal e Superior Tribunal de Justiça) daquilo que é considerado como prática “razoável” no que diz respeito ao goodwill, buscando delimitar os limites de ação dos indivíduos envolvidos e identificar as variáveis responsáveis por tais mudanças, sob a ótica da teoria de Commons. Vemos que parece haver consolidação incremental de jurisprudências acerca do goodwill ao longo das décadas (legitimando-o cada vez mais), principalmente em função do pequeno número de casos que subiram à terceira instância para decisão/delimitação das regras operacionais das transações que possam envolver esse ativo. / The text aimed to analyze - from a perspective of the original institutionalism - the process of emergence, recognition and law / legal legitimation of intangible and incorporeal capitalist wealth forms in a country of peripheral capitalism, Brazil. Clearly inspired by the reflections of North American institutional economist John R. Commons on incoporeal and intangible wealth, especially goodwill, and on the role of the legal system in its institutionalization, the text takes the presence of these forms of wealth as the expression of maturity of monopoly capitalism, given the immense possibility they offer for the valorization of capital. The text showed that in Brazil, unlike the USA and other countries of central capitalism, the presence of such forms of wealth was initially late (after the 1920s), and to a certain extent limited (mostly limited to real estate activities). With the evolution and consolidation of Brazilian capitalism itself, when the new forms of capitalist wealth gained weight and prominence, the legal system gradually became structured and specialized to analyze and decide on the conflicts originated from the very evolution of Brazilian capitalism, in particular those that involved goodwill. In this way, we seek to understand how the process of regulation of goodwill by the State in the evolution of capitalism and institutions in Brazil has been, in order to identify and analyze legal cases that possibly based the law, as well as the possible changes of understandings of the Courts of (Supreme Court and Superior Court of Justice) of what is considered a "reasonable" practice with respect to goodwill, seeking to delimit the limits of action of the individuals involved and to identify the variables responsible for such changes, from the point of view of the theory of Commons. We see that there seems to be an incremental consolidation of jurisprudence over goodwill over the decades (legitimating it more and more), mainly due to the small number of cases that have risen to the third instance for decision / delimitation of the operational rules of the transactions that may involve this active. / 148129/2016-1.
216

[en] CLASSIFICATION OF DATABASE REGISTERS THROUGH EVOLUTION OF ASSOCIATION RULES USING GENETIC ALGORITHMS / [pt] CLASSIFICAÇÃO DE REGISTROS EM BANCO DE DADOS POR EVOLUÇÃO DE REGRAS DE ASSOCIAÇÃO UTILIZANDO ALGORITMOS GENÉTICOS

CARLOS HENRIQUE PEREIRA LOPES 19 October 2005 (has links)
[pt] Esta dissertação investiga a utilização de Algoritmos Genéticos (AG) no processo de descoberta de conhecimento implícito em Banco de Dados (KDD - Knowledge Discovery Database). O objetivo do trabalho foi avaliar o desempenho de Algoritmos Genéticos no processo de classificação de registros em Bancos de Dados (BD). O processo de classificação no contexto de Algoritmos Genéticos consiste na evolução de regras de associação que melhor caracterizem, através de sua acurácia e abrangência, um determinado grupo de registros do BD. O trabalho consistiu de 4 etapas principais: um estudo sobre a área de Knowledge Discovery Database (KDD); a definição de um modelo de AG aplicado à Mineração de Dados (Data Mining); a implementação de uma ferramenta (Rule-Evolver) de Mineração de Dados; e o estudo de casos. O estudo sobre a área de KDD envolveu todo o processo de descoberta de conhecimento útil em banco de dados: definição do problema; seleção dos dados; limpeza dos dados; pré-processamento dos dados; codificação dos dados; enriquecimento dos dados; mineração dos dados e a interpretação dos resultados. Em particular, o estudo destacou a fase de Mineração de Dados e os algoritmos e técnicas empregadas (Redes Neurais, Indução de regras, Modelos Estatísticos e Algoritmos Genéticos). Deste estudo resultou um survey sobre os principais projetos de pesquisa na área. A modelagem do Algoritmo Genético consistiu fundamentalmente na definição de uma representação dos cromossomas, da função de avaliação e dos operadores genéticos. Em mineração de dados por regras de associação é necessário considerar-se atributos quantitativos e categóricos. Atributos quantitativos representam variáveis contínuas (faixa de valores) e atributos categóricos variáveis discretas. Na representação definida, cada cromossoma representa uma regra e cada gene corresponde a um atributo do BD, que pode ser quantitativo ou categórico conforme a aplicação. A função de avaliação associa um valor numérico à regra encontrada, refletindo assim uma medida da qualidade desta solução. A Mineração de Dados por AG é um problema de otimização onde a função de avaliação deve apontar para as melhores regras de associação. A acurácia e a abrangência são medidas de desempenho e, em alguns casos, se mantém nulas durante parte da evolução. Assim, a função de avaliação deve ser uma medida que destaca cromossomas contendo regras promissoras em apresentar acurácia e abrangência diferentes de zero. Foram implementadas 10 funções de avaliação. Os operadores genéticos utilizados (crossover e mutação) buscam recombinar as cláusulas das regras, de modo a procurar obter novas regras com maior acurácia e abrangência dentre as já encontradas. Foram implementados e testados 4 operadores de cruzamento e 2 de mutação. A implementação de uma ferramenta de modelagem de AG aplicada à Mineração de Dados, denominada Rule-Evolver, avaliou o modelo proposto para o problema de classificação de registros. O Rule-Evolver analisa um Banco de Dados e extrai as regras de associação que melhor diferenciem um grupo de registros em relação a todos os registros do Banco de Dados. Suas características principais são: seleção de atributos do BD; informações estatísticas dos atributos; escolha de uma função de avaliação entre as 10 implementadas; escolha dos operadores genéticos; visualização gráfica de desempenho do sistema; e interpretação de regras. Um operador genético é escolhido a cada reprodução em função de uma taxa preestabelecida pelo usuário. Esta taxa pode permanecer fixa ou variar durante o processo evolutivo. As funções de avaliação também podem ser alteradas (acrescidas de uma recompensa) em função da abrangência e da acurácia da regra. O Rule- Evolver possui uma interface entre o BD e o AG, necessária para tor / [en] This dissertation investigates the application of Genetic Algorithms (GAs) to the process of implicit knowledge discovery over databases (KDD - Knowledge Discovery Database). The objective of the work has been the assessment of the Genetic Algorithms (GA) performance in the classification process of database registers. In the context of Genetic Algorithms, this classification process consists in the evolution of association rules that characterise, through its accuracy and range, a particular group of database registers. This work has encompassed four main steps: a study over the area of Knowledge Discovery Databases; the GA model definition applied to Data Mining; the implementation of the Data Mining Rule Evolver; and the case studies. The study over the KDD area included the overall process of useful knowledge discovery; the problem definition; data organisation; data pre-processing; data encoding; data improvement; data mining; and results´ interpretation. Particularly, the investigation emphasied the data mining procedure, techniques and algorithms (neural Networks, rule Induction, Statistics Models and Genetic Algorithms). A survey over the mais research projects in this area was developed from this work. The Genetic Algorithm modelling encompassed fundamentally, the definition of the chromosome representation, the fitness evaluation function and the genetic operators. Quantitative and categorical attributes must be taken into account within data mining through association rules. Quantitative attribites represent continuous variables (range of values), whereas categorical attributes are discrete variable. In the representation employed in this work, each chromosome represents a rule and each gene corresponds to a database attribute, which can be quantitative or categorical, depending on the application. The evaluation function associates a numerical value to the discovered rule, reflecting, therefore, the fitness evaluation function should drive the process towards the best association rules. The accuracy and range are performance statistics and, in some cases, their values stay nil during part of the evolutionary process. Therefore, the fitness evaluation function should reward chromosomes containing promising rules, which present accuracy and range different of zero. Ten fitness evaluation functions have been implemented. The genetic operators used in this work, crossover and mutation, seek to recombine rules´clauses in such a way to achieve rules of more accuracy and broader range when comparing the ones already sampled. Four splicing operators and two mutation operators have been experimented. The GA modeling tool implementation applied to Data Mining called Rule Evolever, evaluated the proposed model to the problem of register classification. The Rule Evolver analyses the database and extracts association rules that can better differentiate a group of registers comparing to the overall database registers. Its main features are: database attributes selection; attributes statistical information; evaluation function selection among ten implemented ones; genetic operators selection; graphical visualization of the system performance; and rules interpretation. A particular genetic operator is selected at each reproduction step, according to a previously defined rate set by the user. This rate may be kept fix or may very along the evolutionary process. The evolutionary process. The evaluation functions may also be changed (a rewarding may be included) according to the rule´s range and accuracy. The Rule Evolver implements as interface between the database and the GA, endowing the KDD process and the Data Mining phase with flexibility. In order to optimise the rules´ search process and to achieve better quality rules, some evolutionary techniques have been implemented (linear rank and elitism), and different random initialisation methods have been used as well; global averag
217

Leilões 3G europeus e brasileiros: uma sugestão a fertilização

Valente, Paulo Vicente Dutra da Silva Santos January 2006 (has links)
Made available in DSpace on 2008-05-13T13:48:27Z (GMT). No. of bitstreams: 1 2142.pdf: 937600 bytes, checksum: 2ea39c80c8dbfa4f1a4c9e92d891f5f3 (MD5) Previous issue date: 2006-08-11 / A research was accomplished on the UMTS frequency spectrum licensing on Europe on the years 2000 and 2001. It was analyzed the bidders behaviors’, the auction rules’, the auction environment and each auction objective. After the European auction analysis was done a discussion on the specifics aspects of brazilian market for those types of auction. / Atualmente, o leilão de espectro tem sido evento de considerável relevância para o mercado de telecomunicações. As cifras alcançadas nos leilões, a oportunidade que eles representam para as empresas interessadas em explorar o mercado de telecomunicações, e o interesse do governo em alocar de forma eficiente este recurso, trouxeram notoriedade e magnitude para este mecanismo de seleção. Com o advento de novas tecnologias de comunicação móvel, detentoras de características inovadoras que permitem preencher cada vez mais a cesta de necessidades do consumidor, e a partir da alocação destas tecnologias a distintas faixas de espectro, tornou-se necessário, a determinação do mecanismo de escolha mais adequado daquele que será o gestor do recurso que permitirá a oferta desses serviços ao mercado: o espectro de freqüência. Com o intuito de se avaliar esse cenário, e os distintos papéis de seus participantes, busca-se nesse trabalho, através da análise do mais recente conjunto de leilões realizados para alocação deste recurso, o leilão das licenças 3G na Europa, compreender os pormenores envolvidos desde a elaboração até o desfecho deste processo. Objetiva-se, por fim, enriquecer o debate sobre esse tema ao discutir-se o cenário brasileiro. O trabalho ao analisar os leilões europeus nos permite identificar que as regras do leilão, como comentado por diversos autores, não são diretamente transplantáveis entre diferentes ambientes. Afinal dentro do ambiente homogêneo caracterizado pelo continente europeu, apesar da semelhança entre os diversos modelos de leilão utilizados, o sucesso obtido em países como Reino Unido e Alemanha, não foi repassado aos demais, ao compararmos o preço pago per capta. Entretanto, o espectro tem seu valor altamente conectado à disponibilidade tecnológica de sua utilização, logo, espectro sem tecnologia adequada para seu uso é observado como de valor privado aproximadamente zero pelos participantes. Esse fenômeno foi caracterizado pelo baixo valor atribuído ao espectro não pareado. Apesar de valor ser relativamente nulo, não é zero, pois a aquisição do direito de uso do espectro pode representar um 'hedge' para ser utilizado, senão hoje, quando a tecnologia estiver disponível. Porém sendo o espectro recurso escasso, a alocação deste para tecnologia ainda indisponível pode ser considerado ineficiente. Observa-se, também, que o 'incumbent' tende a valorizar mais uma licença, porém não se conseguiu determinar se isso ocorre devido a maior quantidade de informação que este detém sobre o mercado, ou devido à tentativa de manter o 'status quo' do oligopólio atual. Baseado no comentado anteriormente e nos resultados dos leilões torna-se evidente que caso o entrante não seja protegido, como o 'incumbent' valoriza mais a licença este sempre pagará mais por esta. E caso, o entrante tenha esta certeza, este não virá participar do leilão, o que na maior parte dos casos inviabilizaria o leilão pois haveriam tantas licenças quanto participantes. Ao analisar-se o caso brasileiro identifica-se a presença de um jogo nacional e um subjogo regional, onde os participantes podem ser simultaneamente 'incumbents' para uma região, porém entrantes em outra.
218

Regras de preços e efeitos de política monetária e fiscal

Almeida, Iana Ferrão de 26 April 2011 (has links)
Submitted by Iana Ferrão de Almeida (ianaferrao@gmail.com) on 2014-06-08T20:33:55Z No. of bitstreams: 1 Tese_IanaFerrao_EPGE.pdf: 2113311 bytes, checksum: 30e81ca8e6bb34635aae1ecbb26fba77 (MD5) / Approved for entry into archive by ÁUREA CORRÊA DA FONSECA CORRÊA DA FONSECA (aurea.fonseca@fgv.br) on 2014-06-09T13:54:07Z (GMT) No. of bitstreams: 1 Tese_IanaFerrao_EPGE.pdf: 2113311 bytes, checksum: 30e81ca8e6bb34635aae1ecbb26fba77 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2014-06-11T11:35:34Z (GMT) No. of bitstreams: 1 Tese_IanaFerrao_EPGE.pdf: 2113311 bytes, checksum: 30e81ca8e6bb34635aae1ecbb26fba77 (MD5) / Made available in DSpace on 2014-06-11T11:36:52Z (GMT). No. of bitstreams: 1 Tese_IanaFerrao_EPGE.pdf: 2113311 bytes, checksum: 30e81ca8e6bb34635aae1ecbb26fba77 (MD5) Previous issue date: 2011-04-26 / Esta tese é composta por três ensaios, dois deles analisam regras de preços e o outro faz uma análise de política fiscal. Cada ensaio forma um capítulo da tese. No primeiro capítulo, acrescentamos heterogeneidade a um modelo de regras de preços endógenas dependentes do tempo para analisar os efeitos reais de uma política de desinflação em um ambiente de credibilidade imperfeita. Inicialmente avaliamos os custos da desinflação em uma economia onde a credibilidade é exógena. Depois, relaxamos essa hipótese permitindo que os agentes atualizem suas crenças sobre o tipo de policymaker com que se deparam. Como resultado, em ambos os casos, a heterogeneidade amplia os efeitos reais de uma política de desinflação. Em seguida, mostramos que o modelo calibrado replica bem, e melhor do que o modelo com homogeneidade entre os agentes, a dinâmica do produto e da inflação durante a política de desinflação de Volcker. O segundo capítulo introduz uma especificação geral para hazard function com que se deparam os price setters. Diferentes especificações da hazard function podem levar a resultados muito distintos da dinâmica agregada da economia, mesmo quando as durações de preços são as mesmas entre diferentes especificações de hazard functions. Este resultado vale tanto para economias homogêneas quanto heterogêneas. O terceiro capítulo analisa os efeitos dos choques de gastos do governo sobre a dinâmica do consumo privado em um modelo DSGE (Dynamic Stochastic General Equilibrium) Novo-keynesiano com uma pequena economia aberta. Incorporamos ao modelo consumidores não-ricardianos e mostramos que a presença desse tipo de consumidor além de não evitar a queda do consumo privado, a intensifica depois de um curto espaço de tempo. Analisamos também a sensibilidade da dinâmica do consumo a diferentes graus de abertura da economia, a parâmetros de preferências e de políticas.
219

[en] FUZZY MODELS IN SEGMENTATION AND ANALYSIS OF BANK MARKETING / [pt] MODELOS FUZZY NA SEGMENTAÇÃO E ANÁLISE DO MERCADO BANCÁRIO

MAXIMILIANO MORENO LIMA 03 October 2008 (has links)
[pt] Este trabalho tem como principal objetivo propor e desenvolver uma metodologia baseada em modelos fuzzy para a segmentação e caracterização dos segmentos que compõem o mercado bancário, permitindo um amplo conhecimento dos perfis de clientes, melhor adaptação das ofertas ao mercado e, conseqüentemente, melhores retornos financeiros. A metodologia proposta nesta dissertação pode ser dividida em três módulos principais: coleta e tratamento dos dados; definição dos segmentos; e caracterização e classificação dos segmentos. O primeiro módulo, denominado coleta e tratamento dos dados, abrange as pesquisas de marketing utilizadas na coleta dos dados e a aplicação de técnicas de pré-processamento de dados, para a limpeza (remoção de outliers e missing values) e normalização dos dados. O módulo de definição dos segmentos emprega o modelo fuzzy de agrupamento Fuzzy C-Means (FCM) na descoberta de grupos de clientes que apresentem características semelhantes. A escolha deste modelo de agrupamento deve-se à possibilidade de análise dos graus de pertinência de cada cliente em relação aos diferentes grupos, identificando os clientes entre segmentos e, conseqüentemente, elaborando ações efetivas para a sua transição ou manutenção nos segmentos de interesse. O módulo de caracterização e classificação dos segmentos é baseado em um Sistema de Inferência Fuzzy. Na primeira etapa deste módulo são selecionadas as variáveis mais relevantes, do ponto de vista da informação, para sua aplicação no processo de extração de regras. As regras extraídas para a caracterização dos segmentos são posteriormente utilizadas na construção de um sistema de inferência fuzzy dedicado à classificação de novos clientes. Este sistema permite que os analistas de marketing contribuam com novas regras ou modifiquem as já extraídas, tornando o modelo mais robusto e a segmentação de mercado uma ferramenta acessível a todos que dela se servem. A metodologia foi aplicada na segmentação de mercado do Banco da Amazônia, um banco estatal que atua na Amazônia Legal, cujo foco prioritário constitui o fomento da região. Avaliando a aplicação dos modelos fuzzy no estudo de caso, observam-se bons resultados na definição dos segmentos, com médias de valor de silhueta de 0,7, e na classificação da base de clientes, com acurácia de 100%. Adicionalmente, o uso destes modelos na segmentação de mercado possibilitou a análise dos clientes que estão entre segmentos e a caracterização desses segmentos por meio de uma base de regras, ampliando as análises dos analistas de marketing. / [en] The main aim of this work is to propose and develop a methodology base don fuzzy models for segmentation and characterization of segments comprising the bank segment, allowing broad knowledge of client profiles, better suiting market needs, hence offering better financial results. The methodology proposed in this work may be divided into three main modules: data collection and treatment; definition of segments; and characterization and classification of segments. The first module, denominated data collection and treatment, encompasses marketing research used in data collection and application of techniques for pre-processing of data, for data trimming (removal of outliers and missing values) and normalization. The definition of segments adopts the Fuzzy C-Means (FCM) grouping model in identifying groups of clients with similar characteristics. The choice for this grouping model is due to the possibility of analyzing the membership coefficient of each client in connection with the different groups, thus identifying clients among segments and consequently elaborating effective actions for their transition to or maintenance in the segments of interest. The module of characterization and classification of segments is based on a Fuzzy Inference System. In the first stage, the most relevant variables from the information standpoint are selected, for application in the process of rule extraction. The rules extracted are then used in the construction of a fuzzy inference system dedicated to classifying new clients. This system allows marketing analysts to contribute with new rules or modify those already extracted, making the model more robust and the turning market segmentation into a tool accessible to all using it. This methodology was applied in the market segmentation of Banco da Amazônia, stte- contrlled bank acting in the Amazon region, with main focus of which is fostering the region´s development. The application of fuzzy models in the case study generated good results in the definition of segments, with average silhouette value of 0.7, and accuracy of 100% for client base classification. Furthermore, the use of these models in market segmentation allowed the analysis of clients classified between segments and the characterization of those segments by means of a set of rules, improving the analyses made by marketing analysts.
220

Análise associativa: identificação de padrões de associação entre o perfil socioeconômico dos alunos do ensino básico e os resultados nas provas de matemática / Association analysis: identification of patterns related to the socioeconomic profiles

Lyvia Aloquio 20 February 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental. / Nowadays, most of the transactions made by companies and organizations is stored in databases that can be explored by researchers in order to obtain useful information to aid decision making. Due to the large volume involved, the extraction and analysis of data is not a simple task. The general process of converting raw data into useful information is called Knowledge Discovery in Databases (KDD). One step in this process is the Data Mining, which involves the application of algorithms and statistical techniques to exploit information contained implicitly in large databases. Many areas use the KDD process to facilitate the recognition of patterns or models on their bases of information. This work presents a practical application of KDD process using the database of students in the 9th grade of elementary education in the State of Rio de Janeiro, available in INEP site, with the aim of finding interesting patterns between the socioeconomic profile of the student and his/her performance obtained in Mathematics. The tool called Weka was used and the Apriori algorithm was applied to extracting association rules. This study revealed, for example, that students who have been reproved once tend to get a lower score on the math test, as well as students who had never been disapproved have had superior performance. Other factors like student future perspectives, ethnic group, parent's schooling, satisfaction in mathematics studying, and the frequency of access to Internet also affect positively or negatively the students learning. An analysis related to the schools infrastructure was made, with the conclusion that patterns do not change regardless of the student studying in good or bad infrastructure schools. The results obtained can be used to trace the students profiles which have a better or a worse performance in mathematics and to the development of public policies in education, aimed at elementary education.

Page generated in 0.0651 seconds