• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1519
  • 38
  • 27
  • 20
  • 20
  • 19
  • 15
  • 14
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1596
  • 825
  • 659
  • 403
  • 259
  • 220
  • 182
  • 162
  • 141
  • 138
  • 137
  • 135
  • 126
  • 124
  • 121
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Avaliação de métodos de data mining e regressão logística aplicados na análise de traumatismo cranioencefálico grave

Garcia, Merisandra Côrtes de Mattos January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2015 / Made available in DSpace on 2015-12-22T03:04:44Z (GMT). No. of bitstreams: 1 336613.pdf: 2800332 bytes, checksum: f19c44227d5f66a9bff46e9ee8ea64b8 (MD5) Previous issue date: 2015 / O traumatismo cranioencefálico é um problema de saúde pública constituindo-se em uma das principais causas de morbidade e mortalidade no Brasil e no mundo. A análise das relações entre as suas consequências tem despertado interesse em pesquisas na área, a fim de se identificar os indicadores que auxiliam no seu prognóstico, buscandose evitar o óbito. Estes modelos são tradicionalmente gerados por meio da regressão logística que tem se constituído em uma técnica padrão para análise dos dados em saúde. No entanto, os modelos prognósticos em traumatismo cranioencefálico, como o grave que é o foco desta pesquisa, não conseguem acurácia elevada para a predição do óbito por meio da regressão logística. Sabendo-se disso, avanços em termos da acuracidade da predição podem auxiliar no prognóstico e conduta das pessoas acometidas por traumatismo cranioencefálico do tipo grave. A descoberta de conhecimento em bases de dados por meio da etapa de data mining e da integração de técnicas de diferentes áreas como inteligência computacional, reconhecimento de padrões, aprendizado de máquina, estatística e banco de dados, constitui-se em uma alternativa para identificar as relações nestes conjuntos de dados. Considerando-se isto, esta pesquisa consiste na avaliação comparativa de diferentes métodos de data mining, a fim de se analisar os modelos gerados e compará-los com o de regressão logística, em uma mesma população de estudo. Nesta pesquisa, se objetiva identificar padrões válidos, avaliando se os métodos de data mining empregados se mostram como uma alternativa à regressão logística, baseando-se em critérios de avaliação como acurácia e robustez, os quais se constituem em medidas de qualidade dos padrões descobertos. Os métodos de data mining empregados referem-se a indução de árvores de decisão por meio dos algoritmos C4.5 e Classification And Regression Trees; o aprendizado baseado em instâncias pelo algoritmo k-vizinhos mais próximos; as redes neurais artificiais por Funções de Base Radial; os classificadores bayesianos pelos algoritmos Naive Bayes e Redes de Crença Bayesiana e o metaclassificador pelo algoritmo Adaptive Boosting. No desenvolvimento foram gerados modelos de prognóstico do óbito em traumatismo cranioencefálico grave por meio dos algoritmos supracitados, como também pela regressão logística binária. Os modelos gerados na etapa de data mining foram comparados aplicando-se as medidas de avaliação de desempenho (verdadeiros positivos, verdadeiros negativos, acurácia, sensibilidade e especificidade) e de confiabilidade (coeficiente de concordância kappa e área sob a ReceiverOperating Characteristic Curve). Na comparação entre os modelos de data mining elencados com maior poder de discriminação em relação a regressão logística, utilizaram-se as medidas de confiabilidade citadas anteriormente, considerando-se Intervalos de Confiança de 95%. Dentre as análises realizadas, nos modelos gerados para predição do óbito em traumatismo cranioencefálico grave, os classificadores bayesianos destacaram-se apresentando medidas de desempenho significativamente mais representativas. O modelo gerado pelo algoritmo Naive Bayes destacou-se em relação aos demais métodos de data mining empregados, bem como quando comparado com o modelo de regressão logística binária, classificando corretamente o óbito em 58,2% (IC95%: 55,6- 61,8), a acurácia geral do modelo foi de 80,2% (IC95%: 76,9-85,7), sensibilidade de 72,7% (IC95%: 69,8-75,4), especificidade de 84,2% (IC95%: 81,6-87,5), área sob a Receiver-Operating Characteristic Curve de 0,851 (IC95%: 0,832-0,870) e coeficiente de concordância Kappa 0,530 (IC95%: 0,519-0,541). Comparando-se os resultados, o algoritmo Naive Bayes mostrou-se, no conjunto de dados estudado, significativamente mais representativo que o modelo de regressão logística binária e os outros modelos de data mining. <br> / Abstract : Traumatic brain injury is a public health problem thus becoming a major cause of morbidity and mortality in Brazil and worldwide. The analysis of relations between its consequences has stimulated researches in the area, in order to identify indicators that help its prognosis, seeking avoid death. These models are traditionally generated by logistic regression that has been constituted as a standard technique for analysis of health data. However, the prognostic models in traumatic brain injury, such as severe which is the focus of this research, can not have a high accuracy for prediction of death by logistic regression. Knowing this, advances in terms of prediction accuracy may aid in prognosis and management of people affected by severe brain injury. The knowledge discovery in databases by data mining step and integration of techniques from different areas such as computational intelligence, pattern recognition, machine learning, statistical and database, constitutes an alternative to identify relationships in the data sets. Considering this, this research consists on the comparative evaluation of different data mining methods in order to analyze the generated models and compare them with logistic regression, in the same study population. In this research, the objective is to identify valid standards, assessing whether the data mining methods used are shown as an alternative to logistic regression, based on evaluation criteria such as accuracy and robustness, which constitute quality measures of the discovered patterns. The data mining methods employed refer to decision tree induction through C4.5 algorithms and Classification And Regression Trees; learning based on instances by knearest neighbors algorithm; artificial neural networks Radial Basis Function; Bayesian classifiers by algorithms Naive Bayes and Bayesian Belief Networks and the metaclassificador by Adaptive Boosting algorithm. In the development were generated death of prognostic models in severe traumatic brain injury through the aforesaid algorithms, but also by binary logistic regression. The models in data mining stage were compared applying the performance evaluation measures (true positives, true negatives, accuracy, sensitivity and specificity) and reliability (kappa coefficient and area under the Receiver Operating Characteristic Curve). Comparing the data mining models listed with major discrimination in relation to logistic regression, we used the reliability of measurements mentioned above, considering 95% confidence intervals. Among the analyzes, the generated models for prediction of death in severe traumatic brain injury, the Bayesian classifiers stood out, presenting performance measures significantly more representative. The model generated by Naive Bayes algorithm stood out in relation to other data mining methods employed, as well as when compared to the binary logistic regression model, correctly classifying the death in 58,2% (CI95%: 55,6-61,8), the overall accuracy of the model was 80,2% (CI95%: 76,9-85,7), sensitivity of 72,7% (CI95%: 69,8-75,4), specificity of 84,2% (CI95%: 81,6-87,5), area under the Receiver Operating Characteristic Curve of 0,851 (CI95%: 0,832-0,870) and Kappa coeficient of agreement 0,530 (CI95%: 0,519-0,541). Comparing the results, the Naive Bayes algorithm proved, in the data set studied, significantly more representative than the model of binary logistic regression and other data mining models.
322

Os trabalhadores do carvão: a vida e as lutas dos mineiros de Criciuma

Volpato, Terezinha Gascho January 1989 (has links)
Tese (doutorado) - Universidade de São Paulo, Faculdade de Filosofia, Letras e Ciências Humanas / Made available in DSpace on 2016-01-08T16:19:14Z (GMT). No. of bitstreams: 1 78858.pdf: 11020088 bytes, checksum: 3133d4477c7a11007f2cbddfa198c7a7 (MD5) Previous issue date: 1989
323

Pré-processamento para a mineração de dados

Schmitt, Jeovani January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-15T23:15:02Z (GMT). No. of bitstreams: 1 223783.pdf: 989944 bytes, checksum: 5339f705a93558e2bbd0069d6c4d34b9 (MD5) / A mineração de dados em grandes bases pode requerer alto tempo computacional. Além do mais, é comum as bases de dados conterem variáveis mensuradas em diferentes níveis: intervalar, ordinal e nominal. Neste caso, técnicas desenvolvidas para variáveis quantitativas não poderiam ser aplicadas sob as variáveis originais. Como exemplo, pode-se citar a análise de agrupamentos pelo método das k-médias. Este exige que as variáveis de entradas sejam quantitativas. Este trabalho apresenta uma metodologia para a fase do pré-processamento em mineração de dados, que utiliza a análise de componentes principais (ACP) com escalonamento ótimo (EO). O pré-processamento é uma etapa fundamental que pode melhorar a performance dos algoritmos de análise, através da redução de dimensionalidade. O escalonamento ótimo permite analisar bases que contenham variáveis observadas em diferentes níveis de mensuração. Através da ACP é possível obter uma redução das variáveis originais em um número de componentes principais, gerando novas coordenadas, menor que o número de variáveis originais. As novas coordenadas podem ser utilizadas na mineração de dados propriamente dita, em tarefas como agrupamentos, classificação entre outras. Essas tarefas podem ser realizadas por métodos estatísticos ou computacionais, como redes neurais, algoritmos genéticos entre outros. A metodologia proposta foi testada em uma base de dados com 118.776 registros de pessoas, pesquisadas pelo Instituto Brasileiro de Geografia e Estatística - IBGE, contendo 13 variáveis observadas em diferentes níveis de mensuração. Através da ACP com EO, as 13 variáveis foram reduzidas a 6 componentes principais, preservando ainda 77% da variabilidade original. Sob o novo conjunto de coordenadas foi aplicada a análise de agrupamentos, utilizando o algoritmo das k-médias para a separação dos grupos, com o objetivo de ilustrar uma tarefa comum em mineração de dados, a identificação de grupos, onde foi possível descrever 6 subgrupos ou clusters.
324

Procedimento para resolução de perícias referentes a casos de subsidências em áreas de mineração no sul do estado de Santa Catarina

Santos, Cristiane dos January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Civil / Made available in DSpace on 2012-10-20T16:14:17Z (GMT). No. of bitstreams: 1 200026.pdf: 942086 bytes, checksum: 7985b86a8b3675cf0db59283b5e859c4 (MD5) / Nesta pesquisa desenvolveu-se um procedimento para a resolução de questões judiciais sobre danos decorrentes de subsidências em áreas de exploração de carvão. A pesquisa em questão deve dar suporte ao profissional envolvido na perícia e a capacidade de questionar os recalques causados por perturbações subterrâneas. Através de análises das características da região carbonífera do sul de Santa Catarina, utilizada como área de estudo, foram criadas diretrizes para análise de aspectos importantes relacionadas aos danos encontrados. Além disso, buscou-se utilizar algumas ferramentas auxiliares como fotointerpretação e topografia, que podem servir na comprovação dos fatos envolvidos na perícia. Foram apresentadas todas as etapas de um procedimento para análise e comprovação dos danos em edificações causados pelas subsidências da camada geológica. Além disso, é oferecido um modelo de laudo pericial com etapas descriminadas. Para a comprovação do procedimento foram avaliados dois casos reais com resultados claros da eficiência das técnicas utilizadas, ocorridos em Criciúma e Nova Veneza.
325

Uso de conjuntos difusos e lógica difusa para cálculo de atração e repulsão

Santos, José Gonçalo dos January 2004 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2012-10-21T11:15:37Z (GMT). No. of bitstreams: 1 241439.pdf: 2409858 bytes, checksum: 84bba52efd376cd3ac94a5b16b23787d (MD5) / Recentes avanços na forma de aquisição de dados têm mostrado uma revolução de aumento de capacidade tecnológica de armazenamento destes. Notificações de servidores web, dados de transações de clientes, compras com cartão de crédito, uso de cartão fidelidade, entre outros, produzem terabytes de dados, diariamente, que são úteis como dados históricos, mas não tão úteis quanto poderiam ser se fossem efetivamente processados de forma que pudessem fornecer padrões e tendências. Esses padrões e as tendências são conhecimentos extraídos (descobertos) desses dados. A Descoberta de Conhecimento em Base de Dados (DCBD) é um campo interdisciplinar de pesquisa que mescla conceitos de estatística, de inteligência artificial e de banco de dados. O seu estudo é motivado pelo crescimento da complexidade, e da quantidade de dados oriundos de todas as esferas do domínio humano e da necessidade de extrair informações úteis dos dados coletados. A descoberta de regras de associação é uma área da DCBD que tem por objetivo encontrar conjuntos de itens freqüentes em transações de uma base de dados e inferir regras capazes de mostrar como um conjunto de itens sofre influência na presença de outros conjuntos de itens. O uso de regras de associação no processo de DCBD tem sido utilizado por diversos pesquisadores. Contudo, os modelos para descoberta de regras de associação trabalham com medidas numéricas. No cálculo das medidas de atração/repulsão, esses métodos utilizam uma base de dados, considerando a ocorrência ou não do evento. Trabalhando dessa forma com uma matriz denominada de matriz de co-ocorrência, que contém valores binários onde 0 (zero) representa a não ocorrência e 1 (um), a ocorrência do evento. Porém, essa matriz utilizada para o cálculo de atração/repulsão entre produtos, com valores binários, despreza a intensidade da associação dos eventos e a quantidade de produtos comprados. Dessa forma, a matriz de co-ocorrência utilizada para o cálculo das medidas de associação não reconhece a imprecisão da ocorrência ou não ocorrência conjunta dos eventos. Para o tratamento da imprecisão podem ser utilizadas a teoria dos conjuntos difusos e da lógica difusa. A modelagem da imprecisão utilizando a abordagem difusa parece ser adequada para tratar o problema da imprecisão presente, não considerada na matriz de co-ocorrência. Assim, esta pesquisa teve por objetivo verificar a adequação da abordagem difusa para modelar a imprecisão contida na matriz de co-ocorrência utilizada no cálculo da medida atração/repulsão, para propor um modelo difuso para o cálculo de atração/repulsão. Para a modelagem do método proposto foi necessária a identificação dos métodos mais usados em MBA e a identificação dos modelos de regras usados na lógica difusa; a construção de conjuntos difusos para representar termos lingüísticos usados para as variáveis de entrada e a adequação dos limites dos intervalos das funções de pertinência. Foram avaliadas várias combinações de funções de pertinência em conjunto com os principais modelos de regras, usando várias amostras de associações entre produtos oriundas de base de dados de três segmentos comerciais. A partir daí, foi proposto um método que mapeia entradas numéricas de freqüências para termos lingüísticos e que possibilita como saída a classificação de associação. Podendo ser de atração ou repulsão, com grau de associação baixa, moderada ou alta. O método mostrou bons resultados e pode ser aplicado na área comercial para análise de dados históricos de vendas. Além disso, pode ser usado nos pontos de vendas para auxiliar o atendente a oferecer um novo produto a determinados clientes, baseado na sua compra atual, porque a resposta do sistema pode ser dada em linguagem natural, o que torna acessível a qualquer usuário do sistema. Pode-se também usar o método para fazer consultas usando linguagem natural.
326

Proposição de indicadores para avaliação técnica de projetos de data warehouse

Almeida, Alexandre Marques de January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-22T06:45:28Z (GMT). No. of bitstreams: 1 228102.pdf: 4630922 bytes, checksum: be812a2f5d008d744d121046e1001dcd (MD5) / Como peça fundamental na obtenção do conhecimento, a informação requer cada vez mais o uso de tecnologias de computação. Esta necessidade se traduz na aplicação de ferramentas que possam agregar grandes massas de dados armazenadas ao longo do tempo como base de conhecimento e transformá-las em indicadores sustentáveis para futuras tomadas de decisões. Com a utilização de técnicas de data warehousing é possível obter tais indicadores para tomadas de decisões. Porém, no próprio processo de data warehousing existe dificuldade em se obter indicadores de desenvolvimento, seja na modelagem dos dados, no projeto de back-end ou de front-end de um DW. Esta dissertação propõem com o estudo de caso no data warehouse da Plataforma Lattes do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), a utilização de indicadores relacionados a modelagem de dados, o projeto de back-end e front-end no processo de data warehousing, encontrados nos data marts de Fomento, Grupos de Pesquisa e DM de Currículos que são integrantes do DW da Plataforma Lattes e que apresentam modelos diferenciados possibilitando a aplicação dos indicadores e verificação da atuação de cada um dos indicadores em cada modelo. O presente trabalho visa auxiliar no desenvolvimento de novos projetos de DW, e diminuir a carência de pesquisas realizadas sobre o levantamento e utilização de indicadores de desenvolvimento de DW.
327

Modelo para análise de dados de gerência de redes utilizando técnicas de KDD

Silva, Adinarte Correa da January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T02:32:25Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T02:46:09Z : No. of bitstreams: 1 208297.pdf: 4084097 bytes, checksum: 7b462f6003d99c52f3001e14a4083b49 (MD5)
328

Um modelo representativo de conhecimento para aplicação da mineração de dados no cadastro técnico urbano

Moraes, André Fabiano de January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-20T10:37:14Z (GMT). No. of bitstreams: 1 197129.pdf: 3088814 bytes, checksum: 76bdf89eb4aa1dc592232eccb7caefa9 (MD5)
329

Obtenção de dados para mineração da utilização da web

Speroni, Rafael de Moura January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T14:26:34Z (GMT). No. of bitstreams: 1 198466.pdf: 729756 bytes, checksum: e8e047c2658811d662af691676142825 (MD5) / O crescimento da complexidade, tamanho e tráfego nos sites da Web, faz com que tarefas, como o projeto de sites, necessitem de cada vez mais atenção. Um importante auxílio nestas tarefas é a análise de como o site está sendo utilizado. A mineração da utilização da Web aplica técnicas de mineração de dados aos registros de visitas a sites, normalmente contidos em arquivos de log de servidores Web. Este trabalho apresenta uma metodologia para coleta e transformação dos dados, baseando-se em uma ontologia para a representação do conhecimento envolvido, adicionando conteúdo semântico aos documentos, obtendo-se arquivos de log enriquecidos. A metodologia proposta é aplicada em um site de controle acadêmico, no qual os alunos têm acesso a serviços de, entre outros, procedimentos de matrícula e documentos. Foi implementada, ainda, uma ferramenta para auxiliar no processo de coleta e transformação dos dados, referentes a 3 semanas de utilização do site, correspondentes aos períodos de matrícula e cancelamento de matrícula em disciplinas. Os dados são, posteriormente, submetidos a análises estatísticas, sendo aplicados métodos de agrupamento aos mesmos.
330

Utilização de técnicas de mineração de dados na análise das informações de uma universidade

Herdt, Rudiney Marcos January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-19T09:33:19Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T19:59:09Z : No. of bitstreams: 1 205272.pdf: 13357211 bytes, checksum: c7d8f5ff8106bb58bc3c84846c539375 (MD5) / Uma realidade que está cada vez mais presente em todas as organizações é a necessidade na busca por informações. As técnicas de mineração de dados são apresentadas como revolucionárias porque geram suas próprias hipóteses e garantem informações com maior rapidez. O principal objetivo da mineração de dados é encontrar padrões de comportamento em um grande volume de dados. A mineração de dados é uma das etapas no processo de descoberta de conhecimento em banco de dados KDD. As principais etapas no processo de KDD são: definição de metas, seleção, pré-processamento, transformação, mineração de dados e interpretação. O data warehouse não é obrigatório, mas é de grande importância para uma mineração de dados eficiente. A mineração de dados pode ser utilizada na aplicação de várias técnicas. As principais são: clusterização, classificação e regras de associação. A Universidade do Sul de Santa Catarina (Unisul) possui um processo permanente de avaliação, denominado Avaliação Institucional, que é feito através de uma pesquisa com 65 questões, que são aplicadas aos alunos anualmente. Assim, o presente trabalho busca encontrar algum padrão de comportamento nos dados resultantes desta pesquisa. Foram utilizadas para análise uma ferramenta estatística e duas técnicas de mineração de dados: clusterização e regras de associação. Este trabalho procura utilizar os recursos de cada uma dessas técnicas para encontrar conhecimentos úteis na tomada de decisão bem como fazer uma comparação entre elas.

Page generated in 0.0463 seconds