• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 7
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Data mining aplicado ao serviço público, extração de conhecimento das ações do Ministério Público Brasileiro

Guimarães, William Sérgio Azevêdo January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-17T20:19:29Z (GMT). No. of bitstreams: 1 194202.pdf: 2045819 bytes, checksum: 09c4f4d78ca4843d88bc1b61687bc359 (MD5)
2

Uma ferramenta adaptativa para apoiar o planejamento de projetos do desenvolvimento de produtos

Schmitz, Luiz Alberto January 2013 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Produção, Florianópolis, 2013 / Made available in DSpace on 2013-12-05T22:35:09Z (GMT). No. of bitstreams: 1 320118.pdf: 2222095 bytes, checksum: 48ce6ff10371e71de85bf611eea6b607 (MD5) Previous issue date: 2013 / As organizações enfrentam modificações no cenário competitivo mundial, cada vez mais, frequentes, complexas e impactantes. Mudanças que são definidas pelo aperfeiçoamento e pela disseminação da informação através de diversos meios, de novas tecnologias e da consequente internacionalização, criando complexidade de relações encontrada, tipicamente, em sistemas sociotécnicos, que no caso do PDP, são os mercados, as tecnologias e os clientes. A utilização da adaptatividade, um método de modelar sistemas, cada vez mais presente, possibilita a percepção instantânea da necessidade dinâmica e atualizada dos interessados no processo. A pesquisa inicia-se pela busca de informações que servem de base para o modelo a ser desenvolvido, formando os elementos necessários ao modelo adaptativo. O sistema adaptativo vale-se de árvores de decisões adaptativas, que o tornam útil a diversas abordagens. A modelagem multiagentes é utilizada tanto para a percepção de cenários do ambiente de entrada do PDP, quanto para a avaliação do modelo, inserindo situações não lineares no simulador. O atendimento dos princípios enxutos é realizado através de uma objetividade mensurável que agrega valor ao processo, através da minimização dos desperdícios. Modelos padronizados para o desenvolvimento de produtos, através de processos, emergem como uma solução cada vez mais utilizada. O problema da adaptação de um modelo de referência pode ser visto pela necessidade e dificuldade de simplificação, mas, também, pela dificuldade de reconhecer todas as atualizações das necessidades dos clientes. Para que o processo de desenvolvimento de produtos, como um todo, a partir do planejamento de um projeto, adquira efetivas flexibilidade e aproximação ao cliente, é proposto um modelo que forneça as condições necessárias. Isto, visando adaptar fases e atividades do processo a um projeto específico, baseando-se em estratégias que ofereçam maior dinâmica ao processo, que possui um fluxo predominante de informações, então é coerente que um estudo procure modelá-las corretamente. Os resultados são avaliados, quanto à adaptatividade e capacidade de adaptação, a partir de uma ferramenta adaptativa (software) para apoiar as decisões de adaptação a estruturas de projetos de desenvolvimento de produtos.
3

Segmentação e posicionamento de mercado empresarial: uma proposta para o Banco do Brasil

Vale, José Caetano do January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-20T00:55:36Z (GMT). No. of bitstreams: 0Bitstream added on 2015-02-04T20:54:28Z : No. of bitstreams: 1 189330.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Para enfrentar o ambiente cada vez mais competitivo, as organizações estão buscando alternativas de marketing para atingir os mercados alvos. As empresas geralmente são mais eficientes quando separam seus mercados em grupos distintos e oferecem estratégicas específicas para cada grupo. O propósito deste trabalho é apresentar um modelo alternativo de segmentação de mercado empresarial para o Banco do Brasil. O modelo proposto, com o auxílio do processo Knowledge Discovery in Databases ¾ KDD (descoberta do conhecimento em banco de dados) e técnicas de mineração de dados (método CHAID), organiza e identifica grupos de clientes com características similares. A análise e a interpretação dos dados mostram os aspectos mais relevantes que justificam a segmentação. Eleita como variável dependente a rentabilidade oferecida pelo cliente, verificou-se que a variável que tem maior poder para explicá-la é o faturamento, um dos critérios já empregados pelo Banco. O método utilizado foi mais além. Dentro de cada segmento, gerou grupos de clientes com os mesmos perfis. Esses grupos foram empregados para moldar as opções estratégicas de relacionamento com os clientes. As formas de abordagem no mercado, sugeridas no final do trabalho, levam em consideração a lucratividade apresentada em cada agrupamento e a sua representatividade quantitativa. As estratégias visam à fidelização dos clientes rentáveis e à recuperação daqueles que ainda não estão proporcionando os retornos desejados.
4

Text mining com uma aplicação na validação dos registros de ocorrências policiais na região da Grande Florianópolis

Silva, Jacqueline Uber January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2013-07-16T01:08:57Z (GMT). No. of bitstreams: 1 222367.pdf: 2402079 bytes, checksum: b54b6a3bae75c239f8dfd0edb54628d3 (MD5) / A Polícia Militar de Santa Catarina recebe diariamente uma média de 6.000 chamadas telefônicas. Estas chamadas geram registros de ocorrências (ROs). Para checar se o RO está classificado na natureza de operação correta, é necessário ler todos os ROs um a um, validando se a descrição da ocorrência está coerente com a natureza de operação informada. Essa tarefa torna-se árdua e pouco ágil, já que boa parte desses ROs não se encontram classificados corretamente. A mineração de texto auxilia neste processo, pois classificando e tratando esses documentos, facilita na procura e contagem dessas ocorrências policiais pela sua natureza de operação. A Secretaria de Estado da Segurança Pública e da Cidadania de Santa Catarina, que é o órgão responsável em contabilizar, fazer os levantamentos estatísticos e apontar diretrizes para o combate ao crime, necessita de um processo automatizado para validar os dados. Este estudo tem por objetivo minerar 2.684 ROs policiais do ano de 2003 na Região Metropolitana da Grande Florianópolis. Verifica com isso a confiabilidade e valida a classificação já atribuída ao RO, apontando registros com erro na classificação, que deverão ser revisados pelo analista da Diretoria de Combate ao Crime Organizado (DIRC). Com o software ABC Clean, pode-se corrigir automaticamente os erros de ortografia. Para a mineração dos dados, foi desenvolvido o software ABC Mining e utilizou-se o Weka® para a geração das regras de decisão do tipo Se..Então, utilizando como técnica de classificação, a árvore de decisão. Os softwares foram desenvolvidos na linguagem de programação Delphi®. Com a geração das regras de decisão, pode-se validar se o registro de ocorrência está classificado na natureza de operação correta e sugerir a DIRC que implemente em seu sistema de cadastro de RO essas regras, evitando-se assim que os novos RO sejam cadastrados com a natureza de operação distorcida em relação a descrição. Dos 2.684 RO estudados, 5,4396% deles encontravam-se cadastrados na natureza de operação incorreta. Deve-se levar em consideração que os dados enviados pela DIRC já foram previamente selecionados para atender algumas naturezas de operação, e já se esperava que muitos deles estivessem classificados corretamente.
5

Indução automática de árvores de decisão

Paula, Maurício Braga de January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T15:18:20Z (GMT). No. of bitstreams: 1 189971.pdf: 2034846 bytes, checksum: 12551d00f3a2124b06b35ed26fba2a5b (MD5) / Com o considerável aumento da quantidade de informações disponíveis, as capacidades de aquisição automática de conhecimento têm se tornado muito importante. A capacidade de aprendizagem e de aplicação do conhecimento é uma das características da inteligência humana e uma das principais áreas de análise da Inteligência Artificial. As atividades humanas mais comuns exibem a aplicação do conhecimento adquirido pelo homem, podendo ser consideradas tarefas de classificação; termo no qual decorre da necessidade de uma tomada de decisão ou da realização de uma previsão com base em informações disponíveis. O Aprendizado de Máquina (AM), um dos nichos da Inteligência Artificial, é uma das eficazes maneiras de adquirir inteligência de qualquer sistema computacional. Este trabalho consiste na construção de um procedimento de indução automática de árvores de decisão simbólica a partir de amostras de dados com atributos não binários. O objetivo deste, é extrair informações de um conjunto de treinamento de instâncias possivelmente conhecidas do problema e subseqüentemente classificar novas instâncias em suas respectivas classes.
6

Uma metodologia de uso de técnicas de indução para criação de regras de sistemas especialistas

Oliveira, Alexsandra Faisca Nunes de January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro tecnológico. Programa de Pós-Graduação em Engenharia de Produção / Made available in DSpace on 2012-10-19T07:40:00Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T20:25:55Z : No. of bitstreams: 1 185537.pdf: 40032877 bytes, checksum: b9ac28c438deed5dee0518cab3b11c55 (MD5) / O presente trabalho relata a necessidade, na era atual, da utilização de sistemas especialistas para auxiliar os tomadores de decisão empresarial, pois a enorme quantidade de informações encontradas nas bases de dados das empresas torna a análise destas sem a ajuda da informática inviável, uma vez que a capacidade de inferência humana é limitada. Além da precisão da extração de conhecimento novo útil a partir das informações contidas nestas bases de dados de forma automática computacionalmente, pois tal conhecimento pode ser utilizado para a formação da base de conhecimento de um sistema especialista. Procedeu-se então, a busca na literatura para a realização desta tarefa, encontrando a área de descoberta de conhecimento em base de dados como orientação para tal, a qual propõe a aplicação de algoritmos de mineração de dados, além de atividades de pré-processamento dos dados e pós-processamento do conhecimento descoberto, entre outras. Dentre os algoritmos de mineração de dados encontrados destaca-se o ID3, o qual realiza a aprendizagem supervisionada a partir de exemplos, representando o conhecimento descoberto através de árvore de decisão. Fazendo a "leitura" da árvore pode-se representar este conhecimento na forma de regras e com parte do embasamento teórico de regras de associação calcular o suporte (probabilidade) e a confiança de cada regra. Assim, este estudo possibilitou a criação de uma metodologia de uso de técnicas de indução para criação de regras de sistemas especialistas. Tal metodologia conduziu a criação de um protótipo de software, denominado GARP, que proporciona a geração automática de regras probabilísticas podendo ser usadas em qualquer shell de sistemas especialistas baseada em regras. Para validação desta metodologia, o protótipo criado foi submetido a testes utilizando-se bases de dados fictícios como também, uma aplicação real do jogo de empresas GI-EPS. Por fim, são apresentadas algumas constatações referentes a aplicação desta metodologia em relação ao algoritmo de mineração de dados utilizado, o ID3.
7

[en] AUTOMATED SYNTHESIS OF OPTIMAL DECISION TREES FOR SMALL COMBINATORIAL OPTIMIZATION PROBLEMS / [pt] SÍNTESE AUTOMATIZADA DE ÁRVORES DE DECISÃO ÓTIMAS PARA PEQUENOS PROBLEMAS DE OTIMIZAÇÃO COMBINATÓRIA

CLEBER OLIVEIRA DAMASCENO 24 August 2021 (has links)
[pt] A análise de complexidade clássica para problemas NP-difíceis é geralmente orientada para cenários de pior caso, considerando apenas o comportamento assintótico. No entanto, existem algoritmos práticos com execução em um tempo razoável para muitos problemas clássicos. Além disso, há evidências que apontam para algoritmos polinomiais no modelo de árvore de decisão linear para resolver esses problemas, embora não muito explorados. Neste trabalho, exploramos esses resultados teóricos anteriores. Mostramos que a solução ótima para problemas combinatórios 0-1 pode ser encontrada reduzindo esses problemas para uma Busca por Vizinho Mais Próximo sobre o conjunto de vértices de Voronoi correspondentes. Utilizamos os hiperplanos que delimitam essas regiões para gerar sistematicamente uma árvore de decisão que repetidamente divide o espaço até que possa separar todas as soluções, garantindo uma resposta ótima. Fazemos experimentos para testar os limites de tamanho para os quais podemos construir essas árvores para os casos do 0-1 knapsack, weighted minimum cut e symmetric traveling salesman. Conseguimos encontrar as árvores desses problemas com tamanhos até 10, 5 e 6, respectivamente. Obtemos também as relações de adjacência completas para os esqueletos dos politopos do knapsack e do traveling salesman até os tamanhos 10 e 7. Nossa abordagem supera consistentemente o método de enumeração e os métodos baseline para o weighted minimum cut e symmetric traveling salesman, fornecendo soluções ótimas em microssegundos. / [en] Classical complexity analysis for NP-hard problems is usually oriented to worst-case scenarios, considering only the asymptotic behavior. However, there are practical algorithms running in a reasonable time for many classic problems. Furthermore, there is evidence pointing towards polynomial algorithms in the linear decision tree model to solve these problems, although not explored much. In this work, we explore previous theoretical results. We show that the optimal solution for 0-1 combinatorial problems can be found by reducing these problems into a Nearest Neighbor Search over the set of corresponding Voronoi vertices. We use the hyperplanes delimiting these regions to systematically generate a decision tree that repeatedly splits the space until it can separate all solutions, guaranteeing an optimal answer. We run experiments to test the size limits for which we can build these trees for the cases of the 0-1 knapsack, weighted minimum cut, and symmetric traveling salesman. We manage to find the trees of these problems with sizes up to 10, 5, and 6, respectively. We also obtain the complete adjacency relations for the skeletons of the knapsack and traveling salesman polytopes up to size 10 and 7. Our approach consistently outperforms the enumeration method and the baseline methods for the weighted minimum cut and symmetric traveling salesman, providing optimal solutions within microseconds.

Page generated in 0.0555 seconds