Spelling suggestions: "subject:"regras"" "subject:"negras""
211 |
Mineração de padrões sequenciais e geração de regras de associação envolvendo temporalidadeJoão, Rafael Stoffalette 07 May 2015 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-08-07T19:16:02Z
No. of bitstreams: 1
DissRSJ.pdf: 7098556 bytes, checksum: 78b5b020899e1b4ef3e1fefb18d32443 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-07T19:18:39Z (GMT) No. of bitstreams: 1
DissRSJ.pdf: 7098556 bytes, checksum: 78b5b020899e1b4ef3e1fefb18d32443 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-07T19:18:50Z (GMT) No. of bitstreams: 1
DissRSJ.pdf: 7098556 bytes, checksum: 78b5b020899e1b4ef3e1fefb18d32443 (MD5) / Made available in DSpace on 2017-08-07T19:28:30Z (GMT). No. of bitstreams: 1
DissRSJ.pdf: 7098556 bytes, checksum: 78b5b020899e1b4ef3e1fefb18d32443 (MD5)
Previous issue date: 2015-05-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Data mining aims at extracting useful information from a Database (DB). The mining
process enables, also, to analyze the data (e.g. correlations, predictions, chronological
relationships, etc.). The work described in this document proposes an approach to deal with
temporal knowledge extraction from a DB and describes the implementation of this
approach, as the computational system called S_MEMIS+AR. The system focuses on the
process of finding frequent temporal patterns in a DB and generating temporal association
rules, based on the elements contained in the frequent patterns identified. At the end of the
process performs an analysis of the temporal relationships between time intervals
associated with the elements contained in each pattern using the binary relationships
described by the Allen´s Interval Algebra. Both, the S_MEMISP+AR and the algorithm that
the system implements, were subsidized by the Apriori, the MEMISP and the ARMADA
approaches. Three experiments considering two different approaches were conducted with
the S_MEMISP+AR, using a DB of sale records of products available in a supermarket.
Such experiments were conducted to show that each proposed approach, besides inferring
new knowledge about the data domain and corroborating results that reinforce the implicit
knowledge about the data, also promotes, in a global way, the refinement and extension of
the knowledge about the data. / A mineração de dados tem como objetivo principal a extração de informações úteis a partir
de uma Base de Dados (BD). O processo de mineração viabiliza, também, a realização de
análises dos dados (e.g, identificação de correlações, predições, relações cronológicas,
etc.). No trabalho descrito nesta dissertação é proposta uma abordagem à extração de
conhecimento temporal a partir de uma BD e detalha a implementação dessa abordagem
por meio de um sistema computacional chamado S_MEMISP+AR. De maneira simplista, o
sistema tem como principal tarefa realizar uma busca por padrões temporais em uma base
de dados, com o objetivo de gerar regras de associação temporais entre elementos de
padrões identificados. Ao final do processo, uma análise das relações temporais entre os
intervalos de duração dos elementos que compõem os padrões é feita, com base nas
relações binárias descritas pelo formalismo da Álgebra Intervalar de Allen. O sistema
computacional S_MEMISP+AR e o algoritmo que o sistema implementa são subsidiados
pelas propostas Apriori, ARMADA e MEMISP. Foram realizados três experimentos distintos,
adotando duas abordagens diferentes de uso do S_MEMISP+AR, utilizando uma base de
dados contendo registros de venda de produtos disponibilizados em um supermercado. Tais
experimentos foram apresentados como forma de evidenciar que cada uma das
abordagens, além de inferir novo conhecimento sobre o domínio de dados e corroborar
resultados que reforçam o conhecimento implícito já existente sobre os dados, promovem,
de maneira global, o refinamento e extensão do conhecimento sobre os dados.
|
212 |
A construção da textualidade no gênero regras de jogo em produções orais de crianças da pré-escolaMedeiros, Neilson Alves de 09 December 2009 (has links)
Made available in DSpace on 2015-05-14T12:43:20Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 596259 bytes, checksum: 0cdea032c6f63a8970b90bd45366dc40 (MD5)
Previous issue date: 2009-12-09 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This paper aims to describe how the process of acquisition of oral genre game rules occurs in children from pre-school focusing on the construction of textuality. To do so, we collected data from a classroom of Childhood Education, with children of 4 years old, that elaborate their oral texts. The events listed are developed within activities of a didactic sequence, whose main goal is the teaching of oral genre 'game rules'. For data analysis, we adopted the principles of textuality (cohesion, coherence, intentionality, acceptability, situationality, informativity and intertextuality) as well as the characteristics of the oral genre 'game rules'. In analyzing the data, we observed that the entrance of the child in the genre studied presentes evidences related to the principles of textuality, and the construction of this phenomenon is not equal for all children. Besides that, data point that, to learn the 'game rules', other oral genres come into play as intermediary instruments in this process. / Este trabalho busca descrever como o processo de aquisição do gênero oral regras de jogo ocorre em crianças do pré-escolar, centrando-se na construção da textualidade. Para tanto, foram coletados dados referentes a uma sala de aula da Educação Infantil, com crianças de 4 anos de idade, que constroem seus textos orais. Os eventos mencionados desenvolvem-se dentro de atividades de uma sequência didática, cujo principal objetivo consiste no ensino do gênero oral regras de jogo . Para a análise dos dados, adotamos os princípios de textualidade (coesão, coerência, intencionalidade, aceitabilidade, situacionalidade, informatividade e intertextualidade) assim como as características do gênero oral regras de jogo . Ao analisar os dados, foi possível verificar que o ingresso da criança no gênero em questão apresenta indícios relacionados aos princípios de textualidade, sendo que a construção desse fenômeno não é igual para todas as crianças e que, para aprender as regras de jogo , outros gêneros orais entram em cena como intermediadores desse processo.
|
213 |
A conduta judicial ?tica te?rica e aplicada contida em princ?pios e regras deontol?gicos abrangidos pelo sistema constitucionalAra?jo, Everton Amaral de 09 March 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-08-16T22:04:10Z
No. of bitstreams: 1
EvertonAmaralDeAraujo_DISSERT.pdf: 2320336 bytes, checksum: 48138642e7d6ad7d7511af0cd86d4792 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-08-23T19:52:20Z (GMT) No. of bitstreams: 1
EvertonAmaralDeAraujo_DISSERT.pdf: 2320336 bytes, checksum: 48138642e7d6ad7d7511af0cd86d4792 (MD5) / Made available in DSpace on 2016-08-23T19:52:20Z (GMT). No. of bitstreams: 1
EvertonAmaralDeAraujo_DISSERT.pdf: 2320336 bytes, checksum: 48138642e7d6ad7d7511af0cd86d4792 (MD5)
Previous issue date: 2016-03-09 / Pesquisa sobre a deontologia jur?dica voltada ? conduta judicial ?tica te?rica e aplicada embasada em princ?pios e regras jur?dicas enunciados na Constitui??o da Rep?blica Federativa do Brasil e na Lei Org?nica da Magistratura Nacional, contemplando tamb?m instrumentos propositivos abrangidos pelo sistema constitucional, os quais veiculam paradigmas comportamentais inseridos nos Princ?pios de Bangalore de Conduta Judicial, no Estatuto Universal do Juiz e no C?digo Ibero-americano de ?tica Judicial, al?m de destacar o papel influenciador daqueles instrumentos no C?digo de ?tica da Magistratura Nacional e na forma??o jur?dica complementar dos magistrados a cargo das Escolas de Magistratura. O estudo traz os influxos te?ricos da norma moral, perpassando pela norma social comportamental at? se consolidar o padr?o ideal de conduta judicial em normas jur?dicas e em instrumentos propositivos correlatos. A deontologia jur?dica direcionada ? conduta judicial ?tica ? confrontada com o estere?tipo que a sociedade expressa em rela??o ? pessoa do juiz, bem como ? associada ? ?tica profissional direcionada ao julgador, agente pol?tico a quem cumpre interpretar o direito com a finalidade qualificada de tomar decis?es que influenciam diretamente na concretiza??o do acesso a justi?a, assegurado constitucionalmente a todos. Valores compreendidos no sistema constitucional que visam a disciplinar a conduta judicial s?o apresentados e analisados sob vis?o cr?tica, uma vez que est?o encerrados em linguagem prescritiva que veicula aspectos comportamentais pass?veis de interpreta??o e cuja observ?ncia se revela como proposi??o voltada ao fomento de uma melhor solu??o dos conflitos de interesse sob a responsabilidade daqueles que formam a singular corpora??o do Poder Judici?rio. A contextualiza??o da tem?tica tamb?m enfoca a ?tica aplicada, partindo da abordagem de instrumentos normativos e propositivos de conte?do deontol?gico, enfocando ainda o estudo de casos reais apreciados pelo Conselho Nacional de Justi?a, no ?mbito da sua atua??o correcional. / Research on Legal Deontology dedicated to theoretical and applied ethics on judicial conduct
grounded in legal principles and rules set out in the Constitution of the Federative Republic of
Brazil and the Organic Law of the National Judiciary, also contemplating propositional
instruments covered by the constitutional system, which conveys behavioural paradigms
inserted in the Bangalore Principles of Judicial Conduct, in the Universal Statute of the Judge
and in the Latin-American Code of Judicial Ethics, as well as highlight the influence of those
instruments in the Brazilian Ethical Code of the Magistrates and in the official
complementary training of judges in charge of Judiciary Schools. The study provides the
theoretical influxes of moral norm, passing by behavioural social norm to consolidate the
ideal standards of judicial conduct into legal standards and related instruments. The Legal
Deontology directed to the ethical judicial conduct is confronted with the stereotype that
society expressed in relation to the judge's person, who is the political agent that interprets the
law for making decisions which directly influences the realization of access to justice, that is
constitutionally guaranteed to all. Core values inserted in the constitutional system intended to
discipline the judicial conduct are presented and analysed under a critical view, since they are
enclosed in prescriptive language that conveys behavioural aspects open to interpretation and
which compliance is revealed as a proposition focused on promoting a better solution of
interest?s conflicts under the responsibility of those who constitute the distinctive corporation
of the Judiciary. The theme?s contextualization also focuses on applied ethics, based on the
approach of normative and propositional instruments of deontological content, still focusing
on the study of real cases examined by the Brazilian National Council of Justice, as part of its
correctional goals.
|
214 |
[en] HIERARCHICAL NEURO-FUZZY BSP-MAMDANI MODEL / [pt] MODELO NEURO-FUZZY HIERÁRQUICOS BSP MAMDANIROSINI ANTONIO MONTEIRO BEZERRA 04 November 2002 (has links)
[pt] Esta dissertação investiga a utilização de sistemas Neuro-
Fuzzy Hierárquicos BSP (Binary Space Partitioning) para
aplicações em classificação de padrões, previsão, sistemas
de controle e extração de regras fuzzy. O objetivo é criar
um modelo Neuro-Fuzzy Hierárquico BSP do tipo Mamdani a
partir do modelo Neuro-Fuzzy Hierárquico BSP Class
(NFHB-Class) que é capaz de criar a sua própria estrutura
automaticamente e extrair conhecimento de uma base de dados
através de regras fuzzy, lingüisticamente interpretáveis,
que explicam a estrutura dos dados. Esta dissertação
consiste de quatros etapas principais: estudo dos principais
sistemas hierárquicos; análise do sistema Neuro-Fuzzy
Hierárquico BSP Class, definição e implementação do modelo
NFHB-Mamdani e estudo de casos. No estudo dos principais
sistemas hierárquicos é efetuado um levantamento
bibliográfico na área. São investigados, também, os
principais modelos neuro-fuzzy utilizados em sistemas de
controle - Falcon e o Nefcon. Na análise do sistema NFHB-
Class, é verificado o aprendizado da estrutura, o
particionamento recursivo, a possibilidade de se ter um
maior número de entrada - em comparação com outros sistemas
neuro-fuzzy - e regras fuzzy recursivas. O sistema NFHB-
Class é um modelo desenvolvido especificamente para
classificação de padrões, como possui várias saídas, não é
possível utilizá-lo em aplicações em controle e em
previsão. Para suprir esta deficiência, é criado um novo
modelo que contém uma única saída. Na terceira etapa é
definido um novo modelo Neuro-Fuzzy Hierárquico BSP com
conseqüentes fuzzy (NFHB-Mamdani), cuja implementação
utiliza a arquitetura do NFHBClass para a fase do
aprendizado, teste e validação, porém, com os conseqüentes
diferentes, modificando a estratégia de definição dos
conseqüentes das regras. Além de sua utilização em
classificação de padrões, previsão e controle, o sistema
NFHB-Mamdani é capaz de extrair conhecimento de uma base de
dados em forma de regras do tipo SE ENTÃO. No estudo de
casos são utilizadas duas bases de dados típicas para
aplicações em classificação: Wine e o Iris. Para previsão
são utilizadas séries de cargas elétricas de seis
companhias brasileiras diferentes: Copel, Cemig, Light,
Cerj, Eletropaulo e Furnas. Finalmente, para testar o
desempenho do sistema em controle faz-se uso de uma planta
de terceira ordem como processo a controlar. Os resultados
obtidos para classificação, na maioria dos casos, são
superiores aos melhores resultados encontrados pelos outros
modelos e algoritmos aos quais foram comparados. Para
previsão de cargas elétricas, os resultados obtidos estão
sempre entre os melhores resultados fornecidos por outros
modelos aos quais formam comparados. Quanto à aplicação em
controle, o modelo NFHB-Mamdani consegue controlar, de forma
satisfatória, o processo utilizado para teste. / [en] This paper investigates the use of Binary Space
Partitioning (BSP) Hierarchical Neuro-Fuzzy Systems for
applications in pattern classification, forecast, control
systems and obtaining of fuzzy rules. The goal is to create
a BSP Hierarchical Neuro-Fuzzy Model of the Mamdani type
from the BSP Hierarchical Neuro-Fuzzy Class (NFHB-Class)
which is able to create its own structure automatically and
obtain knowledge from a data base through fuzzy rule,
interpreted linguistically, that explain the data structure.
This paper is made up of four main parts: study of the main
Hierarchical Systems; analysis of the BSP Hierarchical
Neuro-Fuzzy Class System, definition and implementation of
the NFHB-Mamdani model, and case studies. A bibliographical
survey is made in the study of the main Hierarchical
Systems. The main Neuro-Fuzzy Models used in control
systems - Falcon and Nefcon -are also investigated.
In the NFHB-Class System, the learning of the structure is
verified, as well as, the recursive partitioning, the
possibility of having a greater number of inputs in
comparison to other Neuro-Fuzzy systems and recursive fuzzy
rules. The NFHB-Class System is a model developed
specifically for pattern classification, since it has
various outputs, it is not possible to use it in control
application and forecast. To make up for this deficiency, a
new unique output model is developed. In the third part, a
new BSP Hierarchical Neuro-Fuzzy model is defined with
fuzzy consequents (NFHB-Mamdani), whose implementation uses
the NFHB-Class architecture for the learning, test, and
validation phase, yet with the different consequents,
modifying the definition strategy of the consequents of the
rules. Aside from its use in pattern classification,
forecast, and control, the NFHB-Mamdani system is capable of
obtaining knowledge from a data base in the form of rules
of the type IF THEN. Two typical data base for application
in classification are used in the case studies: Wine and
Iris. Electric charge series of six different Brazilian
companies are used for forecasting: Copel, Cemig, Light,
Cerj, Eletropaulo and Furnas. Finally, to test the
performance of the system in control, a third order plant
is used as a process to be controlled. The obtained results
for classification, in most cases, are better than the best
results found by other models and algorithms to which they
were compared. For forecast of electric charges, the
obtained results are always among the best supplied by
other models to which they were compared. Concerning its
application in control, the NFHB-Mamdani model is able to
control, reasonably, the process used for test.
|
215 |
Reconhecimento e legitimação jurisprudencial do Goodwill no Brasil: uma interpretação a partir da teoria econômica de John R. Commons / Reconnaissance et légitimation de jurisprudence du Goodwill au Brésil: une interprétation de la théorie économique de John R. Commons / Reconocimiento y legitimación jurisprudencial del Goodwill en Brasil: una interpretación a partir de la teoría económica de John R. Commons / Recognition and jurisprudential legitimacy of Goodwill in Brazil: an interpretation from the economic theory of John R. CommonsPellegrino, Lucas Nunes [UNESP] 23 April 2018 (has links)
Submitted by Lucas Nunes Pellegrino (lucasnpellegrino@gmail.com) on 2018-06-29T22:12:52Z
No. of bitstreams: 1
Reconhecimento e legitimação jurisprudencial do Goodwill no Brasil - uma interpretação a partir da teoria econômica de John R. Commons.pdf: 2302092 bytes, checksum: ed7addaefd4de0d7707280ee216db0f9 (MD5) / Approved for entry into archive by Aline Aparecida Matias null (alinematias@fclar.unesp.br) on 2018-07-03T11:34:40Z (GMT) No. of bitstreams: 1
pellegrino_ln_me_arafcl.pdf: 2302092 bytes, checksum: ed7addaefd4de0d7707280ee216db0f9 (MD5) / Made available in DSpace on 2018-07-03T11:34:40Z (GMT). No. of bitstreams: 1
pellegrino_ln_me_arafcl.pdf: 2302092 bytes, checksum: ed7addaefd4de0d7707280ee216db0f9 (MD5)
Previous issue date: 2018-04-23 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / O texto objetivou analisar – de uma perspectiva do institucionalismo original – o processo de emergência, reconhecimento e legitimação jurídica/legal das formas de riqueza capitalistas intangíveis e incorpóreas em um país de capitalismo periférico, o Brasil. Claramente inspirado nas reflexões do economista institucionalista norte americano John R. Commons sobre a riqueza incorpórea e intangível, em especial o goodwill, e no papel do sistema legal na sua institucionalização, o texto toma a presença dessas formas de riqueza como sendo a expressão de maturidade do capitalismo monopolista, dada a imensa possibilidade que oferecem para a valorização do capital. O texto mostrou que no Brasil, à diferença dos EUA e outros países de capitalismo central, a presença de tais formas de riqueza foi inicialmente tardia (posterior aos anos 1920), e de certo modo limitada (circunscrita majoritariamente às atividades imobiliárias). Com a própria evolução e consolidação do capitalismo brasileiro, quando as novas formas de riqueza capitalistas foram ganhando peso e destaque, o sistema jurídico progressivamente foi se estruturando e se especializando para analisar e decidir sobre os conflitos originados da própria evolução do capitalismo brasileiro, em especial aqueles que envolveram o goodwill. Deste modo, buscamos compreender como tem sido o processo de regulamentação do goodwill pelo Estado na evolução do capitalismo e das instituições no Brasil, de modo a identificar e analisar casos jurídicos que possivelmente fundamentaram a lei, assim como as possíveis mudanças de entendimentos dos Tribunais de Cúpula (Supremo Tribunal Federal e Superior Tribunal de Justiça) daquilo que é considerado como prática “razoável” no que diz respeito ao goodwill, buscando delimitar os limites de ação dos indivíduos envolvidos e identificar as variáveis responsáveis por tais mudanças, sob a ótica da teoria de Commons. Vemos que parece haver consolidação incremental de jurisprudências acerca do goodwill ao longo das décadas (legitimando-o cada vez mais), principalmente em função do pequeno número de casos que subiram à terceira instância para decisão/delimitação das regras operacionais das transações que possam envolver esse ativo. / The text aimed to analyze - from a perspective of the original institutionalism - the process of emergence, recognition and law / legal legitimation of intangible and incorporeal capitalist wealth forms in a country of peripheral capitalism, Brazil. Clearly inspired by the reflections of North American institutional economist John R. Commons on incoporeal and intangible wealth, especially goodwill, and on the role of the legal system in its institutionalization, the text takes the presence of these forms of wealth as the expression of maturity of monopoly capitalism, given the immense possibility they offer for the valorization of capital. The text showed that in Brazil, unlike the USA and other countries of central capitalism, the presence of such forms of wealth was initially late (after the 1920s), and to a certain extent limited (mostly limited to real estate activities). With the evolution and consolidation of Brazilian capitalism itself, when the new forms of capitalist wealth gained weight and prominence, the legal system gradually became structured and specialized to analyze and decide on the conflicts originated from the very evolution of Brazilian capitalism, in particular those that involved goodwill. In this way, we seek to understand how the process of regulation of goodwill by the State in the evolution of capitalism and institutions in Brazil has been, in order to identify and analyze legal cases that possibly based the law, as well as the possible changes of understandings of the Courts of (Supreme Court and Superior Court of Justice) of what is considered a "reasonable" practice with respect to goodwill, seeking to delimit the limits of action of the individuals involved and to identify the variables responsible for such changes, from the point of view of the theory of Commons. We see that there seems to be an incremental consolidation of jurisprudence over goodwill over the decades (legitimating it more and more), mainly due to the small number of cases that have risen to the third instance for decision / delimitation of the operational rules of the transactions that may involve this active. / 148129/2016-1.
|
216 |
[en] CLASSIFICATION OF DATABASE REGISTERS THROUGH EVOLUTION OF ASSOCIATION RULES USING GENETIC ALGORITHMS / [pt] CLASSIFICAÇÃO DE REGISTROS EM BANCO DE DADOS POR EVOLUÇÃO DE REGRAS DE ASSOCIAÇÃO UTILIZANDO ALGORITMOS GENÉTICOSCARLOS HENRIQUE PEREIRA LOPES 19 October 2005 (has links)
[pt] Esta dissertação investiga a utilização de Algoritmos
Genéticos (AG) no processo de descoberta de conhecimento
implícito em Banco de Dados (KDD - Knowledge Discovery
Database). O objetivo do trabalho foi avaliar o desempenho
de Algoritmos Genéticos no processo de classificação de
registros em Bancos de Dados (BD). O processo de
classificação no contexto de Algoritmos Genéticos consiste
na evolução de regras de associação que melhor
caracterizem, através de sua acurácia e abrangência, um
determinado grupo de registros do BD. O trabalho consistiu
de 4 etapas principais: um estudo sobre a área de
Knowledge Discovery Database (KDD); a definição de um
modelo de AG aplicado à Mineração de Dados (Data Mining);
a implementação de uma ferramenta (Rule-Evolver) de
Mineração de Dados; e o estudo de casos.
O estudo sobre a área de KDD envolveu todo o processo de
descoberta de conhecimento útil em banco de dados:
definição do problema; seleção dos dados; limpeza dos
dados; pré-processamento dos dados; codificação dos dados;
enriquecimento dos dados; mineração dos dados e a
interpretação dos resultados. Em particular, o estudo
destacou a fase de Mineração de Dados e os algoritmos e
técnicas empregadas (Redes Neurais, Indução de regras,
Modelos Estatísticos e Algoritmos Genéticos). Deste estudo
resultou um survey sobre os principais projetos de
pesquisa na área.
A modelagem do Algoritmo Genético consistiu
fundamentalmente na definição de uma representação dos
cromossomas, da função de avaliação e dos operadores
genéticos. Em mineração de dados por regras de associação
é necessário considerar-se atributos quantitativos e
categóricos. Atributos quantitativos representam variáveis
contínuas (faixa de valores) e atributos categóricos
variáveis discretas. Na representação definida, cada
cromossoma representa uma regra e cada gene corresponde a
um atributo do BD, que pode ser quantitativo ou categórico
conforme a aplicação. A função de avaliação associa um
valor numérico à regra encontrada, refletindo assim uma
medida da qualidade desta solução. A Mineração de Dados
por AG é um problema de otimização onde a função de
avaliação deve apontar para as melhores regras de
associação. A acurácia e a abrangência são medidas de
desempenho e, em alguns casos, se mantém nulas durante
parte da evolução. Assim, a função de avaliação deve ser
uma medida que destaca cromossomas contendo regras
promissoras em apresentar acurácia e abrangência
diferentes de zero. Foram implementadas 10 funções de
avaliação. Os operadores genéticos utilizados (crossover e
mutação) buscam recombinar as cláusulas das regras, de
modo a procurar obter novas regras com maior acurácia e
abrangência dentre as já encontradas. Foram implementados
e testados 4 operadores de cruzamento e 2 de mutação.
A implementação de uma ferramenta de modelagem de AG
aplicada à Mineração de Dados, denominada Rule-Evolver,
avaliou o modelo proposto para o problema de classificação
de registros. O Rule-Evolver analisa um Banco de Dados e
extrai as regras de associação que melhor diferenciem um
grupo de registros em relação a todos os registros do
Banco de Dados. Suas características principais são:
seleção de atributos do BD; informações estatísticas dos
atributos; escolha de uma função de avaliação entre as 10
implementadas; escolha dos operadores genéticos;
visualização gráfica de desempenho do sistema; e
interpretação de regras. Um operador genético é escolhido
a cada reprodução em função de uma taxa preestabelecida
pelo usuário. Esta taxa pode permanecer fixa ou variar
durante o processo evolutivo. As funções de avaliação
também podem ser alteradas (acrescidas de uma recompensa)
em função da abrangência e da acurácia da regra. O Rule-
Evolver possui uma interface entre o BD e o AG, necessária
para tor / [en] This dissertation investigates the application of Genetic
Algorithms (GAs) to the process of implicit knowledge
discovery over databases (KDD - Knowledge Discovery
Database). The objective of the work has been the
assessment of the Genetic Algorithms (GA) performance in
the classification process of database registers. In the
context of Genetic Algorithms, this classification process
consists in the evolution of association rules that
characterise, through its accuracy and range, a particular
group of database registers. This work has encompassed
four main steps: a study over the area of Knowledge
Discovery Databases; the GA model definition applied to
Data Mining; the implementation of the Data Mining Rule
Evolver; and the case studies.
The study over the KDD area included the overall process
of useful knowledge discovery; the problem definition;
data organisation; data pre-processing; data encoding;
data improvement; data mining; and results´
interpretation. Particularly, the investigation emphasied
the data mining procedure, techniques and algorithms
(neural Networks, rule Induction, Statistics Models and
Genetic Algorithms). A survey over the mais research
projects in this area was developed from this work.
The Genetic Algorithm modelling encompassed fundamentally,
the definition of the chromosome representation, the
fitness evaluation function and the genetic operators.
Quantitative and categorical attributes must be taken into
account within data mining through association rules.
Quantitative attribites represent continuous variables
(range of values), whereas categorical attributes are
discrete variable. In the representation employed in this
work, each chromosome represents a rule and each gene
corresponds to a database attribute, which can be
quantitative or categorical, depending on the application.
The evaluation function associates a numerical value to
the discovered rule, reflecting, therefore, the fitness
evaluation function should drive the process towards the
best association rules. The accuracy and range are
performance statistics and, in some cases, their values
stay nil during part of the evolutionary process.
Therefore, the fitness evaluation function should reward
chromosomes containing promising rules, which present
accuracy and range different of zero. Ten fitness
evaluation functions have been implemented. The genetic
operators used in this work, crossover and mutation, seek
to recombine rules´clauses in such a way to achieve rules
of more accuracy and broader range when comparing the ones
already sampled. Four splicing operators and two mutation
operators have been experimented.
The GA modeling tool implementation applied to Data Mining
called Rule Evolever, evaluated the proposed model to the
problem of register classification. The Rule Evolver
analyses the database and extracts association rules that
can better differentiate a group of registers comparing to
the overall database registers. Its main features are:
database attributes selection; attributes statistical
information; evaluation function selection among ten
implemented ones; genetic operators selection; graphical
visualization of the system performance; and rules
interpretation. A particular genetic operator is selected
at each reproduction step, according to a previously
defined rate set by the user. This rate may be kept fix or
may very along the evolutionary process. The evolutionary
process. The evaluation functions may also be changed (a
rewarding may be included) according to the rule´s range
and accuracy. The Rule Evolver implements as interface
between the database and the GA, endowing the KDD process
and the Data Mining phase with flexibility. In order to
optimise the rules´ search process and to achieve better
quality rules, some evolutionary techniques have been
implemented (linear rank and elitism), and different
random initialisation methods have been used as well;
global averag
|
217 |
Leilões 3G europeus e brasileiros: uma sugestão a fertilizaçãoValente, Paulo Vicente Dutra da Silva Santos January 2006 (has links)
Made available in DSpace on 2008-05-13T13:48:27Z (GMT). No. of bitstreams: 1
2142.pdf: 937600 bytes, checksum: 2ea39c80c8dbfa4f1a4c9e92d891f5f3 (MD5)
Previous issue date: 2006-08-11 / A research was accomplished on the UMTS frequency spectrum licensing on Europe on the years 2000 and 2001. It was analyzed the bidders behaviors’, the auction rules’, the auction environment and each auction objective. After the European auction analysis was done a discussion on the specifics aspects of brazilian market for those types of auction. / Atualmente, o leilão de espectro tem sido evento de considerável relevância para o mercado de telecomunicações. As cifras alcançadas nos leilões, a oportunidade que eles representam para as empresas interessadas em explorar o mercado de telecomunicações, e o interesse do governo em alocar de forma eficiente este recurso, trouxeram notoriedade e magnitude para este mecanismo de seleção. Com o advento de novas tecnologias de comunicação móvel, detentoras de características inovadoras que permitem preencher cada vez mais a cesta de necessidades do consumidor, e a partir da alocação destas tecnologias a distintas faixas de espectro, tornou-se necessário, a determinação do mecanismo de escolha mais adequado daquele que será o gestor do recurso que permitirá a oferta desses serviços ao mercado: o espectro de freqüência. Com o intuito de se avaliar esse cenário, e os distintos papéis de seus participantes, busca-se nesse trabalho, através da análise do mais recente conjunto de leilões realizados para alocação deste recurso, o leilão das licenças 3G na Europa, compreender os pormenores envolvidos desde a elaboração até o desfecho deste processo. Objetiva-se, por fim, enriquecer o debate sobre esse tema ao discutir-se o cenário brasileiro. O trabalho ao analisar os leilões europeus nos permite identificar que as regras do leilão, como comentado por diversos autores, não são diretamente transplantáveis entre diferentes ambientes. Afinal dentro do ambiente homogêneo caracterizado pelo continente europeu, apesar da semelhança entre os diversos modelos de leilão utilizados, o sucesso obtido em países como Reino Unido e Alemanha, não foi repassado aos demais, ao compararmos o preço pago per capta. Entretanto, o espectro tem seu valor altamente conectado à disponibilidade tecnológica de sua utilização, logo, espectro sem tecnologia adequada para seu uso é observado como de valor privado aproximadamente zero pelos participantes. Esse fenômeno foi caracterizado pelo baixo valor atribuído ao espectro não pareado. Apesar de valor ser relativamente nulo, não é zero, pois a aquisição do direito de uso do espectro pode representar um 'hedge' para ser utilizado, senão hoje, quando a tecnologia estiver disponível. Porém sendo o espectro recurso escasso, a alocação deste para tecnologia ainda indisponível pode ser considerado ineficiente. Observa-se, também, que o 'incumbent' tende a valorizar mais uma licença, porém não se conseguiu determinar se isso ocorre devido a maior quantidade de informação que este detém sobre o mercado, ou devido à tentativa de manter o 'status quo' do oligopólio atual. Baseado no comentado anteriormente e nos resultados dos leilões torna-se evidente que caso o entrante não seja protegido, como o 'incumbent' valoriza mais a licença este sempre pagará mais por esta. E caso, o entrante tenha esta certeza, este não virá participar do leilão, o que na maior parte dos casos inviabilizaria o leilão pois haveriam tantas licenças quanto participantes. Ao analisar-se o caso brasileiro identifica-se a presença de um jogo nacional e um subjogo regional, onde os participantes podem ser simultaneamente 'incumbents' para uma região, porém entrantes em outra.
|
218 |
Regras de preços e efeitos de política monetária e fiscalAlmeida, Iana Ferrão de 26 April 2011 (has links)
Submitted by Iana Ferrão de Almeida (ianaferrao@gmail.com) on 2014-06-08T20:33:55Z
No. of bitstreams: 1
Tese_IanaFerrao_EPGE.pdf: 2113311 bytes, checksum: 30e81ca8e6bb34635aae1ecbb26fba77 (MD5) / Approved for entry into archive by ÁUREA CORRÊA DA FONSECA CORRÊA DA FONSECA (aurea.fonseca@fgv.br) on 2014-06-09T13:54:07Z (GMT) No. of bitstreams: 1
Tese_IanaFerrao_EPGE.pdf: 2113311 bytes, checksum: 30e81ca8e6bb34635aae1ecbb26fba77 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2014-06-11T11:35:34Z (GMT) No. of bitstreams: 1
Tese_IanaFerrao_EPGE.pdf: 2113311 bytes, checksum: 30e81ca8e6bb34635aae1ecbb26fba77 (MD5) / Made available in DSpace on 2014-06-11T11:36:52Z (GMT). No. of bitstreams: 1
Tese_IanaFerrao_EPGE.pdf: 2113311 bytes, checksum: 30e81ca8e6bb34635aae1ecbb26fba77 (MD5)
Previous issue date: 2011-04-26 / Esta tese é composta por três ensaios, dois deles analisam regras de preços e o outro faz uma análise de política fiscal. Cada ensaio forma um capítulo da tese. No primeiro capítulo, acrescentamos heterogeneidade a um modelo de regras de preços endógenas dependentes do tempo para analisar os efeitos reais de uma política de desinflação em um ambiente de credibilidade imperfeita. Inicialmente avaliamos os custos da desinflação em uma economia onde a credibilidade é exógena. Depois, relaxamos essa hipótese permitindo que os agentes atualizem suas crenças sobre o tipo de policymaker com que se deparam. Como resultado, em ambos os casos, a heterogeneidade amplia os efeitos reais de uma política de desinflação. Em seguida, mostramos que o modelo calibrado replica bem, e melhor do que o modelo com homogeneidade entre os agentes, a dinâmica do produto e da inflação durante a política de desinflação de Volcker. O segundo capítulo introduz uma especificação geral para hazard function com que se deparam os price setters. Diferentes especificações da hazard function podem levar a resultados muito distintos da dinâmica agregada da economia, mesmo quando as durações de preços são as mesmas entre diferentes especificações de hazard functions. Este resultado vale tanto para economias homogêneas quanto heterogêneas. O terceiro capítulo analisa os efeitos dos choques de gastos do governo sobre a dinâmica do consumo privado em um modelo DSGE (Dynamic Stochastic General Equilibrium) Novo-keynesiano com uma pequena economia aberta. Incorporamos ao modelo consumidores não-ricardianos e mostramos que a presença desse tipo de consumidor além de não evitar a queda do consumo privado, a intensifica depois de um curto espaço de tempo. Analisamos também a sensibilidade da dinâmica do consumo a diferentes graus de abertura da economia, a parâmetros de preferências e de políticas.
|
219 |
[en] FUZZY MODELS IN SEGMENTATION AND ANALYSIS OF BANK MARKETING / [pt] MODELOS FUZZY NA SEGMENTAÇÃO E ANÁLISE DO MERCADO BANCÁRIOMAXIMILIANO MORENO LIMA 03 October 2008 (has links)
[pt] Este trabalho tem como principal objetivo propor e
desenvolver uma metodologia baseada em modelos fuzzy para a
segmentação e caracterização dos segmentos que compõem o
mercado bancário, permitindo um amplo conhecimento dos
perfis de clientes, melhor adaptação das ofertas ao mercado
e, conseqüentemente, melhores retornos financeiros. A
metodologia proposta nesta dissertação pode ser dividida em
três módulos principais: coleta e tratamento dos
dados; definição dos segmentos; e caracterização e
classificação dos segmentos. O primeiro módulo, denominado
coleta e tratamento dos dados, abrange as
pesquisas de marketing utilizadas na coleta dos dados e a
aplicação de técnicas de pré-processamento de dados, para a
limpeza (remoção de outliers e missing values) e
normalização dos dados. O módulo de definição dos segmentos
emprega o modelo fuzzy de agrupamento Fuzzy C-Means (FCM)
na descoberta de grupos de clientes que apresentem
características semelhantes. A escolha deste modelo de
agrupamento deve-se à possibilidade de análise dos graus de
pertinência de cada cliente em relação aos diferentes
grupos, identificando os clientes entre segmentos
e, conseqüentemente, elaborando ações efetivas para a sua
transição ou manutenção nos segmentos de interesse. O
módulo de caracterização e classificação dos segmentos é
baseado em um Sistema de Inferência Fuzzy. Na
primeira etapa deste módulo são selecionadas as variáveis
mais relevantes, do ponto de vista da informação, para sua
aplicação no processo de extração de
regras. As regras extraídas para a caracterização dos
segmentos são posteriormente utilizadas na construção de um
sistema de inferência fuzzy dedicado à classificação de
novos clientes. Este sistema permite que os analistas
de marketing contribuam com novas regras ou modifiquem as
já extraídas, tornando o modelo mais robusto e a
segmentação de mercado uma ferramenta acessível a todos que
dela se servem. A metodologia foi aplicada na segmentação
de mercado do Banco da Amazônia, um banco estatal que atua
na Amazônia Legal, cujo foco prioritário constitui o
fomento da região. Avaliando a aplicação dos modelos fuzzy
no estudo de caso, observam-se bons resultados na definição
dos segmentos, com médias de valor de silhueta de 0,7, e na
classificação da base de clientes, com acurácia de 100%.
Adicionalmente, o uso destes modelos na segmentação de
mercado possibilitou a análise dos clientes que estão entre
segmentos e a caracterização desses segmentos por meio de
uma base de regras, ampliando as análises dos analistas de
marketing. / [en] The main aim of this work is to propose and develop a
methodology base don fuzzy models for segmentation and
characterization of segments comprising the bank segment,
allowing broad knowledge of client profiles, better suiting
market needs, hence offering better financial results. The
methodology proposed in this work may be divided into three
main modules: data collection and treatment; definition of
segments; and characterization and classification of
segments. The first module, denominated data collection and
treatment, encompasses marketing research used in data
collection and application of techniques for pre-processing
of data, for data trimming (removal of outliers and
missing values) and normalization. The definition of
segments adopts the Fuzzy C-Means (FCM) grouping model in
identifying groups of clients with similar
characteristics. The choice for this grouping model is due
to the possibility of analyzing the membership coefficient
of each client in connection with the different groups,
thus identifying clients among segments and consequently
elaborating effective actions for their transition to or
maintenance in the segments of interest. The module of
characterization and classification of segments is based
on a Fuzzy Inference System. In the first stage, the most
relevant variables from the information standpoint are
selected, for application in the process of rule
extraction. The rules extracted are then used in the
construction of a fuzzy inference system dedicated to
classifying new clients. This system allows
marketing analysts to contribute with new rules or modify
those already extracted, making the model more robust and
the turning market segmentation into a tool
accessible to all using it. This methodology was applied in
the market segmentation of Banco da Amazônia, stte-
contrlled bank acting in the Amazon region, with main focus
of which is fostering the region´s development. The
application of fuzzy models in the case study generated
good results in the definition of segments, with average
silhouette value of 0.7, and accuracy of 100% for client
base classification. Furthermore, the use of these models in
market segmentation allowed the analysis of clients
classified between segments and the characterization of
those segments by means of a set of rules, improving
the analyses made by marketing analysts.
|
220 |
Análise associativa: identificação de padrões de associação entre o perfil socioeconômico dos alunos do ensino básico e os resultados nas provas de matemática / Association analysis: identification of patterns related to the socioeconomic profilesLyvia Aloquio 20 February 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada
em bancos de dados que podem ser explorados por pesquisadores com o objetivo
de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume
envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de
conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento
em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste
processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos
e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos
de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de
padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação
prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico
do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir
padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em
Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada
Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração
de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo
Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados
uma vez tendem a tirar uma nota inferior na prova de matemática, assim como
alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores,
como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o
grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam
positivamente ou negativamente no aprendizado do discente. Também foi feita uma
análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se
afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam
em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser
utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho
em matemática e para a elaboração de políticas públicas na área de educação, voltadas
ao ensino fundamental. / Nowadays, most of the transactions made by companies and organizations is stored
in databases that can be explored by researchers in order to obtain useful information to
aid decision making. Due to the large volume involved, the extraction and analysis of data
is not a simple task. The general process of converting raw data into useful information
is called Knowledge Discovery in Databases (KDD). One step in this process is the Data
Mining, which involves the application of algorithms and statistical techniques to exploit
information contained implicitly in large databases. Many areas use the KDD process to
facilitate the recognition of patterns or models on their bases of information. This work
presents a practical application of KDD process using the database of students in the 9th
grade of elementary education in the State of Rio de Janeiro, available in INEP site, with
the aim of finding interesting patterns between the socioeconomic profile of the student
and his/her performance obtained in Mathematics. The tool called Weka was used and
the Apriori algorithm was applied to extracting association rules. This study revealed,
for example, that students who have been reproved once tend to get a lower score on the
math test, as well as students who had never been disapproved have had superior performance.
Other factors like student future perspectives, ethnic group, parent's schooling,
satisfaction in mathematics studying, and the frequency of access to Internet also affect
positively or negatively the students learning. An analysis related to the schools infrastructure
was made, with the conclusion that patterns do not change regardless of the
student studying in good or bad infrastructure schools. The results obtained can be used
to trace the students profiles which have a better or a worse performance in mathematics
and to the development of public policies in education, aimed at elementary education.
|
Page generated in 0.0744 seconds