261 |
A utilização de raciocínio baseado em casos para a análise de crédito e cobrançaIsolani, Marcelo Costa January 2002 (has links)
Data Warehouse (DW) é um processo que aglutina dados de fontes heterogêneas, incluindo dados históricos e dados externos para atender à necessidade de consultas estruturadas e ad-hoc, relatórios analíticos e de suporte de decisão. Já um Case-Based Reasoning (CBR) é uma técnica de Inteligência Artificial (AI – Artificial Intelligence) para a representação de conhecimento e inferência, que propõe a solução de novos problemas adaptando soluções que foram usadas para resolver problemas anteriores. A descrição de um problema existente, ou um caso é utilizado para sugerir um meio de resolver um novo problema, avisar o usuário de possíveis falhas que ocorreram anteriormente e interpretar a situação atual. Esta dissertação tem por objetivo apresentar um estudo do uso de um DW combinado com um CBR para a verificação de “risco” de inadimplência no setor de telecomunicações. Setor este que devido as grandes mudanças que ocorreram no mercado, que passam desde a privatização do setor e a entrada de novas operadoras fixas e celulares, criando um ambiente de concorrência, anteriormente inexistente, possibilitando assim ao cliente trocar de operadora ou até mesmo deixar a telefonia fixa e ficar somente com a celular, e vai até ao fato da estabilização econômica e as novas práticas de mercado, que determinou a baixa das multas, tornando assim compensador aos clientes deixar as faturas vencidas a perder juros de aplicações ou pagar juros bancários para quitar a sua dívida, visto que a empresa telefônica só pode aplicar as sanções com o prazo de 30 dias. Este trabalho mostra o desenvolvimento de um CBR para aplicação na área de Crédito e Cobrança, onde são detalhados os vários passos, a utilização do mesmo junto ao um DW, o que proporciona a comparação com desenvolvimento de outros sistemas similares e as diferenças (vantagens e desvantagens) que isso traz ao mesmo.
|
262 |
Aspectos matemáticos do problema de aprendizagem em inteligência artificialMoraes, Jean Carlo Pech de January 2006 (has links)
O objetivo deste trabalho é apresentar a base teórica para o problema de aprendizagem através de exemplos conforme as ref. [14], [15] e [16]. Aprender através de exemplos pode ser examinado como o problema de regressão da aproximação de uma função multivaluada sobre um conjunto de dados esparsos. Tal problema não é bem posto e a maneira clássica de resolvê-lo é através da teoria de regularização. A teoria de regularização clássica, como será considerada aqui, formula este problema de regressão como o problema variacional de achar a função f que minimiza o funcional Q[f] = 1 n n Xi=1 (yi ¡ f(xi))2 + ¸kfk2 K; onde kfk2 K é a norma em um espa»co de Hilbert especial que chamaremos de Núcleo Reprodutivo (Reproducing Kernel Hilbert Spaces), ou somente RKHS, IH definido pela função positiva K, o número de pontos do exemplo n e o parâmetro de regularização ¸. Sob condições gerais a solução da equação é dada por f(x) = n Xi=1 ciK(x; xi): A teoria apresentada neste trabalho é na verdade a fundamentação para uma teoria mais geral que justfica os funcionais regularizados para a aprendizagem através de um conjunto infinito de dados e pode ser usada para estender consideravelmente a estrutura clássica a regularização, combinando efetivamente uma perspectiva de análise funcional com modernos avanços em Teoria de Probabilidade e Estatística.
|
263 |
Uma hibridização do método de Monte Carlo com técnicas intervalares para o problema de localização globalNeuland, Renata das Chagas January 2014 (has links)
Abordagens probabilísticas são extensivamente utilizadas para resolver problemas de alta dimensionalidade em diferentes campos. O filtro de partículas é uma abordagem proeminente no campo da Robótica, devido a sua adaptabilidade a modelos não lineares com distribuições multimodais. Contudo, seus resultados são fortemente dependentes da qualidade e do número de amostras requeridas para cobrir o espaço de busca. Em contrapartida, análise de intervalos lida com problemas de alta dimensionalidade através da redução do espaço de busca. Essas reduções são feitas através de técnicas intervalares que garantem matematicamente que a solução procurada está contida no resultado do método, uma vez que a modelagem do problema tenha sido feita corretamente. Métodos intervalares não descartam quaisquer soluções factíveis, com isso o resultado pode ser pouco representativo. Não obstante, não é possível definir precisamente onde a solução está no intervalo definido como solução. A estratégia proposta combina o melhor das duas abordagens. A ideia principal do método proposto é usar técnicas intervalares para melhorar os resultados do filtro de partículas, limitando o espalhamento das partículas e acelerando a convergência do método. Nós esperamos que o método proposto consiga fazer a distribuição e controle de partículas de forma mais eficiente, resultando possivelmente em um método mais preciso. A abordagem proposta é ilustrada através do tratamento do problema de localização global de robôs subaquáticos.
|
264 |
Um protótipo de sistema especialista para identificação e classificação de turbiditosAbel, Mara January 1988 (has links)
Este trabalho descreve o desenvolvimento de um protótipo de sistema especialista de consulta para identificação e classificação de ambiente sedimentares em Geologia, o Sistema GEOXPERT. E dada ênfase especial ao processo de aquisição de conhecimento. O sistema busca identificar depósitos turbiditos são um tipo de rocha reservatório de petróleo) utikizando, de forma aproximada, a forma de raciocício usual de um geólogo especialista em Geologia Sedimentar. O processo de aquisição de conhecimento é analisado desde as fases iniciais de observações de dados e construção do modelo geológico, até o processo final de codificação para uso pelo computador. O conhecimento geológico é representado através de um grafo de espaços que define os caminhos da interação e contém as evidências e seus valores em relação à comprovação da hipótese. A estrutura de controle usa uma estratégia dirigida por objetivos e inclui tratamento de ijncerteza e teste de consistência das informações do usuário. Um protótipo do Sistema GEOXPERT foi implementado e testado, demonstrando suas capacidades e comportamento. / This dissertation describes the design of GEOXPERT, a prototype expert system providing consultational advice on both identification and classification of geological environments. paper emphasis is on knowlegde acquisition, The problem in focus is the identification of turbidite deposits (a kind of petroleum rock reservoir) abd thei component parts, by using reasoning methods similar to the usual methods employed by experts in sedimentary. The knowledge acquisition process is analysed since the preliminary steps of data observation and geological model construction up to the final process of codification for computer processing. Geological knowledge is represented in a structure called space graph, which includes geological hypotheses. The control structure uses a goal-oriented strategy and includes uncertainty treatment and consistency test for input information. A prototype of the system has been implemented and limited testing has shown the capabilities and behavior of the system.
|
265 |
A inteligência competitiva como ferramenta para a organização estratégica do setor turístico : o caso do circuito internacional das missões jesuíticas do MercosulReis, Helenice Rodrigues January 2000 (has links)
O uso e a análise da informação podem transformar radicalmente os processos produtivos de setores específicos de organizações e de ambientes sociais e econômicos. A presente dissertação propõe-se a realizar um monitoramento de informações com a seleção, sistematização, análise e interpretação de dados e informações para o setor turístico, especialmente para o Circuito Internacional das Missões Jesuíticas (CIMJ), declarado em 1997 pela UNESCO como um dos quatro roteiros históricos internacionais mais importantes do mundo e o primeiro roteiro turístico oficial do Mercosul. Através desse processo, buscou-se a identificação de problemas e a antecipação de oportunidades visando à maior organização do setor turístico selecionado e, consequentemente, à maior competitividade. Os resultados da pesquisa, oriundos da análise comparativa de dados e informações de três rotas turísticas internacionais, permitiram a identificação de variáveis e indicadores para um maior conhecimento de suas posições estratégicas, a validação de uma metodologia para o desenvolvimento de um processo de inteligência competitiva, além de sugerir algumas linhas para a organização estratégica do setor.
|
266 |
Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicosCôrtes, Deise da Silva January 2005 (has links)
Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão.
|
267 |
Agentes improvisacionais como agentes deliberativosMoraes, Marcia Cristina January 2004 (has links)
Improvisação tem sido considerada uma característica importante para agentes que pretendem operar de maneira consistente com a situação do momento, exibindo um comportamento credível e interessante. A improvisação deve estar presente tanto nos agentes individuais quanto nas sociedades de agentes. Desta maneira, esta tese irá abordar estes dois aspectos da improvisação. Propomos a visão de que, agentes capazes de realizar improvisação, os agentes improvisacionais, são um tipo de agente deliberativo capaz de solucionar problemas por improvisação. Neste sentido, buscamos identificar dentro de uma arquitetura clássica de agentes deliberativos, a arquitetura BDI (belief-desire-intention), a existência e/ou a possibilidade da inclusão de componentes de improvisação nesta arquitetura. Para resolver problemas complexos, estes agentes precisam estar agrupados em sociedades e estas sociedades, por sua vez, precisam produzir comportamentos coerentes. A coordenação é a área da Inteligência Artificial responsável por este objetivo. Propomos que a coordenação de agentes que improvisam pode ser realizada por meio de um processo de direção improvisacional, no sentido usado no contexto do teatro improvisacional. Ao longo deste documento, iremos mostrar nosso entendimento sobre agentes improvisacionais como agentes deliberativos e coordenação como direção improvisacional. Com isto, defende-se nesta tese que o uso da improvisação em agentes improvisacionais possibilita que os agentes improvisem comportamentos interativos, de maneira coerente, melhorando seu desempenho como solucionadores de problemas, criando e mantendo uma ilusão de vida para os agentes interativos e contribuindo para o aperfeiçoamento dos sistemas multiagentes.
|
268 |
Proposta de uma metodologia para detecção de impressões digitais falsas usando combinação e seleção dinâmica de classificadoresNASCIMENTO, André Hermenegildo do 06 March 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2015-10-21T17:48:28Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
PROPOSTA DE UMA METODOLOGIA PARA DETECÇÃO DE IMPRESSÕES DIGITAIS FALSAS USANDO COMBINAÇÃO E SELEÇÃO DINÂMICA DE CLASSIFICADORES.pdf: 8256593 bytes, checksum: a6a2b322802d4ec68100c08531d486e4 (MD5) / Made available in DSpace on 2015-10-21T17:48:28Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
PROPOSTA DE UMA METODOLOGIA PARA DETECÇÃO DE IMPRESSÕES DIGITAIS FALSAS USANDO COMBINAÇÃO E SELEÇÃO DINÂMICA DE CLASSIFICADORES.pdf: 8256593 bytes, checksum: a6a2b322802d4ec68100c08531d486e4 (MD5)
Previous issue date: 2015-03-06 / As impressões digitais têm sido amplamente utilizadas como forma de autenticação de um
indivíduo. Os padrões gerados pelas saliências das pontas dos dedos são usados para diferenciar
uma pessoa da outra. Esses padrões vêm ao longo de anos apresentando-se como meio confiável
de identificação pessoal, mesmo no caso de gêmeos idênticos as impressões digitais apresentamse
diferentes. Entretanto estudos comprovam que é possível construir impressões digitais
sintéticas com cópia das saliências utilizadas para identificar um usuário, permitindo o uso
de forma fraudulenta de sistemas e serviços. Diante do perigo de fraude, várias técnicas vêm
sendo desenvolvidas visando identificar se uma impressão digital corresponde ou não a uma
impressão verdadeira (“impressão digital viva”). As técnicas de detecção de impressões digitais
são divididas nas baseadas em hardware e nas baseadas em software que apresentam maior
flexibilidade e menor custo de atualização dos dispositivos comercializados. O presente trabalho
tem por objetivo apresentar uma técnica, baseada em software, que garanta mais segurança aos
sistemas que se utilizam desta biometria, conseguindo identificar se uma impressão digital é
falsa ou não. Para isto, é proposta uma arquitetura de geração, combinação e seleção dinâmica de
classificadores para detecção de impressão digital falsa. A metodologia proposta é composta de
4 (quatro) módulos: módulo de Agrupamentos de Dados, módulo de Geração de Classificadores,
módulo de Seleção Dinâmica de Classificadores, e o módulo de Combinação de Classificadores.
Esses módulos estão organizados em 2 (duas) fases: treinamento e teste. Na fase de treinamento,
as imagens das digitais são divididas em grupos, cada grupo contém os elementos que apresentam
similaridade entre si. Esses grupos são utilizados para a criação dos classificadores especialistas.
Na fase de teste é realizada a seleção dinâmica e a combinação dos classificadores obtidos, de
modo a classificar um determinado padrão de entrada. A arquitetura proposta foi validada em 11
(onze) bases de dados pertencentes à competição LivDet (Liveness Detection Competition). Cada
base foi analisada em 1.452 cenários diferentes, de modo a avaliar os parâmetros da arquitetura,
sendo realizados um total de 15.972 experimentos. Os experimentos mostraram que os resultados
obtidos com o uso da arquitetura proposta são bastante promissores, conseguindo superar o
desempenho dos classificadores bases para todas as 11 bases de dados analisadas. Para uma
das bases foi possível alcançar uma detecção com performance 68,10% superior ao se utilizar
o classificador sem a etapa de combinação. Em média, os resultados obtidos apresentaram
uma performance superior de 39,98% em relação a abordagem tradicional (sem a etapa de
combinação). / Fingerprints have been widely used as a way of identifying an individual. The patterns generated by protrusions in the fingertips are used to differentiate one person from another. Those patterns have been a trustable way of personal identification. Even in the case of identical twins, fingerprints are different. However studies prove that it is possible to build synthetic digital fingerprints copying the protrusions used to identify one individual, allowing the fraudulent use of systems and services. In face of the danger of fraud, several techniques are being developed aiming to identify if a fingerprint corresponds or not to a true fingerprint (“live fingerprint”). Techniques for fingerprint detection are split between those based on hardware and those based on software which have more flexibility and lower cost for upgrading the devices being used. This work aims to present a technique, based on software, which ensures more security for the systems using this biometry, allowing to identify if a fingerprint is false or not. In order to do, it is proposed an architecture of generation, combination and dynamic selection of classifiers for false fingerprint detection. The proposed methodology is composed by 4 (four) modules: Module of Data Grouping, Module of Classifiers Generation, Module of Dynamic Selection of Classifiers and the Module of Classifiers Combination. Those modules are organized in two stages: training and testing. During the training stage, images of the digitals are split into groups, each group contains the elements that have similarities among themselves. Those groups are used for the creation of specialist classifiers. During the testing phase the dynamic selection and combination of the classifiers obtained is performed, in order to classify a particular input standard. The proposed architecture was validated in 11 databases belonging to the LivDet competition (Liveness Detection Competition). Each database was analyzed in 1,452 different scenarios, in order to evaluate the architecture parameters, in a total on 15,972 experiments performed. Experiments showed that results obtained using the proposed architecture are very promising, managing to overcome the performance of the database classifiers for all of the 11 analyzed databases. For one of the sets it was possible to reach a performance of detection 68.10% over others without using the combination stage. In average, results have a performance that is 39.98% superior compared to the traditional approach (without the combination step).
|
269 |
Artificial neural network architecture selection in a quantum computerSILVA, Adenilton José da 26 June 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-27T17:25:47Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
tese Adenilton José da Silva.pdf: 4885126 bytes, checksum: d2bade12d15d6626962f244aebd5678d (MD5) / Made available in DSpace on 2016-01-27T17:25:47Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
tese Adenilton José da Silva.pdf: 4885126 bytes, checksum: d2bade12d15d6626962f244aebd5678d (MD5)
Previous issue date: 2015-06-26 / CNPq / Miniaturisation of computers components is taking us from classical to quantum physics domain. Further reduction in computer components size eventually will lead to the development of computer systems whose components will be on such a small scale that quantum physics intrinsic properties must be taken into account. The expression quantum computation and a first formal model of a quantum computer were first employed in the eighties. With the discovery of a quantum algorithm for factoring exponentially faster than any known classical algorithm in 1997, quantum computing began to attract industry investments for the development of a quantum computer and the design of novel quantum algorithms. For instance, the development of learning algorithms for neural networks. Some artificial neural networks models can simulate an universal Turing machine, and together with learning capabilities have numerous applications in real life problems. One limitation of artificial neural networks is the lack of an efficient algorithm to determine its optimal architecture. The main objective of this work is to verify whether we can obtain some advantage with the use of quantum computation techniques in a neural network learning and architecture selection procedure. We propose a quantum neural network, named quantum perceptron over a field (QPF). QPF is a direct generalisation of a classical perceptron which addresses some drawbacks found in previous models for quantum perceptrons. We also present a learning algorithm named Superposition based Architecture Learning algorithm (SAL) that optimises the neural network weights and architectures. SAL searches for the best architecture in a finite set of neural network architectures and neural networks parameters in linear time over the number of examples in the training set. SAL is the first quantum learning algorithm to determine neural network architectures in linear time. This speedup is obtained by the use of quantum parallelism and a non linear quantum operator. / A miniaturização dos componentes dos computadores está nos levando dos domínios da física clássica aos domínios da física quântica. Futuras reduções nos componentes dos computadores eventualmente levará ao desenvolvimento de computadores cujos componentes estarão em uma escala em que efeitos intrínsecos da física quântica deverão ser
considerados. O termo computação quântica e um primeiro modelo formal de computação quântica foram definidos na década de 80. Com a descoberta no ano de 1997 de um algoritmo quântico para fatoração exponencialmente mais rápido do que qualquer algoritmo clássico conhecido a computação quântica passou a atrair investimentos de diversas empresas para a construção de um computador quântico e para o desenvolvimento de algoritmos quânticos. Por exemplo, o desenvolvimento de algoritmos de aprendizado para redes neurais. Alguns modelos de Redes Neurais Artificiais podem ser utilizados para simular uma máquina de Turing universal. Devido a sua capacidade de aprendizado, existem aplicações de redes neurais artificiais nas mais diversas áreas do conhecimento. Uma das limitações das redes neurais artificiais é a inexistência de um algoritmo com custo polinomial para determinar a melhor arquitetura de uma rede neural. Este trabalho tem como objetivo principal verificar se é possível obter alguma vantagem no uso da computação quântica no processo de seleção de arquiteturas de uma rede neural. Um modelo de rede neural quântica denominado perceptron quântico sobre um corpo foi proposto. O perceptron quântico sobre um corpo é uma generalização direta de um perceptron clássico que resolve algumas das limitações em modelos de redes neurais quânticas previamente propostos. Um algoritmo de aprendizado denominado algoritmo de aprendizado de arquitetura baseado no princípio da superposição que otimiza pesos e arquitetura de uma rede neural simultaneamente é apresentado. O algoritmo proposto possui custo linear e determina a melhor arquitetura em um conjunto finito de arquiteturas e os parâmetros da rede neural. O algoritmo de aprendizado proposto é o primeiro algoritmo quântico para determinar a arquitetura de uma rede neural com custo linear. O custo linear é obtido pelo uso do paralelismo quântico e de um operador quântico não linear.
|
270 |
Algoritmos particionais semissupervisionados com ponderação automática de variáveisMACARIO FILHO, Valmir 10 January 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-19T18:48:11Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE Valmir Macario Filho.pdf: 4240940 bytes, checksum: 4f9034afca3528b01bdc7b2ac14aff39 (MD5) / Made available in DSpace on 2016-02-19T18:48:11Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE Valmir Macario Filho.pdf: 4240940 bytes, checksum: 4f9034afca3528b01bdc7b2ac14aff39 (MD5)
Previous issue date: 2015-01-10 / FACEPE / Nas aplicações tradicionais de aprendizagem de máquina, os classificadores utilizam ape-
nas dados rotulados em seu treinamento. Os dados rotulados, por sua vez, são difíceis,
caros, consomem tempo e requerem especialistas humanos para serem obtidos em algu-
mas aplicações reais. Entretanto, dados não rotulados são abundantes e fáceis de serem
obtidos mas há poucas abordagens que os utilizam no treinamento. Para contornar esse
problema existe a aprendizagem semissupervisionada. A aprendizagem semissupervisio-
nada utiliza dados não rotulados, juntamente com dados rotulados, com a finalidade de
melhorar o desempenho dos algoritmos. A abordagem semissupervisionada, geralmente,
obtém resultados melhores do que se utilizassem apenas poucos padrões rotulados em
uma abordagem supervisionada ou se utilizassem apenas padrões não rotulados numa
abordagem não supervisionada. Um algoritmo semissupervisionado pode se basear em
algoritmos de agrupamento não supervisionado, geralmente, adicionando-se um termo ou
estratégia que faz uso de informações rotuladas para guiar o processo de aprendizagem
deste algoritmo. Os algoritmos de agrupamento são bastante influenciados pelo cálculo
da similaridade entre dois items, ou seja, a distância entre dois itens. Quando o algoritmo
semissupervisionado é um extensão de um algoritmo de agrupamento, este também é
bastante influenciado por esta distância. Desse modo, distâncias adaptativas são utiliza-
das para que o algoritmo tenha capacidade de se adequar a diferentes distribuições dos
dados, geralmente, melhorando o desempenho em relação aos algoritmos que não utili-
zam uma distância adaptativa. Este trabalho apresenta novos algoritmos de agrupamento
semissupervisionado baseados no algoritmo Fuzzy C-Means que utilizam distâncias adap-
tativas com ponderação automática de variáveis. Estudos experimentais no contexto da
aprendizagem a partir de dados parcialmente rotulados são apresentados. Além disso, o
comportamento dos algoritmos é discutido e os resultados examinados através de testes
estatísticos de Friedman. Desse modo, foi possível certificar que os novos algoritmos de
agrupamento semissupervisionado com distâncias adaptativas apresentam desempenho
melhor que algoritmos já consolidados na literatura. / In traditional machine learning applications, one uses only labeled data to train the al-
gorithm. Labeled data are difficult, expensive, time consuming and require human ex-
perts to be obtained in some real applications. However, unlabeled data are abundant
and easy to be obtained but there has been few approaches to use them in training.
Semi-supervised learning addresses this problem. The semi-supervised learning uses large
amount of unlabeled data, together with the labeled data, to build better algorithms.
The semi-supervised approach, usually, obtains better results than if using a few labeled
patterns in a supervised approach or using only standard not supervised approach. The
semi-supervised algorithm can be an extension of an unsupervised algorithm. Such algo-
rithm can be based on unsupervised clustering algorithms, adding a term or strategy, that
makes use of labeled information to guide the learning process of the algorithm. Unsuper-
vised algorithms are greatly influenced by calculating the similarity between two items,
ie, the distance between two items. When the semi-supervised algorithm is an extension
of an unsupervised algorithm, it is also quite influenced by this distance. Thus, adaptive
distances are utilized, so the algorithm is able to adapt to different data distributions, gen-
erally improving performance compared to algorithms that use the standard Euclidean
distance. This work presents new algorithms for semi-supervised clustering based on Fuzzy
C-Means algorithm using adaptive distances with automatic variable weighting. Exper-
imental studies in the context of learning from partially labeled data are presented. In
addition, the behavior of the algorithm is discussed and the results are investigated using
the Friedman Test. Thus, it was possible to certify that the performance of the new semi-
supervised clustering algorithms are better than other consolidated algorithms.
|
Page generated in 0.026 seconds