• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 72
  • 1
  • Tagged with
  • 73
  • 73
  • 52
  • 50
  • 50
  • 43
  • 39
  • 38
  • 37
  • 18
  • 16
  • 13
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

DDAAV DETECTOR DO DESEMPENHO DO ALUNO EM AVAs / DDAAV DETECTOR PERFORMANCE OF STUDENTS IN VLES

Mühlbeier, Andreia Rosangela Kessler 15 April 2014 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / The virtual learning environments (VLEs) are benefited with advances in the use of technologies in education, enabling a more dynamic and meaningful learning. In the face of increased interaction in these environments, greatly increases the amount of data stored. The process of knowledge discovery in database (KDDKnowledge Discovery in Databases) has been used successfully in several areas and in the academic area some results have been used to assist the teachers. This dissertation describes a survey conducted with the steps of KDD, which utilizes the WEKA tool (free data mining software), specifically the J48 algorithm, to apply data mining techniques on the information stored in the database, in order to detect the student performance while running the course. The research scenario was constructed with data from assessments of introduction to media in education, Integration of the specialization course in Media in education, composed of 134 (one hundred and thirty-four) students, distributed in 5 (five) different poles. In this way, with the results obtained in the research, noted that the application of rules of the algorithm, can be a valuable instrument to professor during the execution of the course, and not only a posteriori, because it allows a positive immediate intervention of even in several variables that impact on the success of the apprentice, as type of material, discussions, activities, methodologies and strategies. / Os Ambientes Virtuais de Aprendizagem (AVAs) são beneficiados com os avanços do uso de tecnologias na Educação, possibilitando uma aprendizagem mais dinâmica e significativa. Diante do aumento de interação nestes ambientes, aumenta consideravelmente o volume de dados armazenados. O processo de Descoberta de Conhecimento em Base de Dados (Knowledge Discovery in Databases - KDD) vem sendo utilizado com sucesso em diversas áreas e na área acadêmica alguns resultados têm sido utilizados para auxiliar os professores. A presente dissertação descreve uma pesquisa realizada com as etapas de KDD, que utiliza a ferramenta WEKA (software de mineração de dados livre), em específico o algoritmo J48, para aplicar técnicas de mineração de dados nas informações armazenadas no banco de dados, a fim de detectar o desempenho dos alunos durante a execução do curso. O cenário de investigação foi construído com os dados oriundos das avaliações da disciplina de Introdução à Integração de Mídias na Educação, do Curso de Especialização em Mídias na Educação, composto de 134 (cento e trinta e quatro) alunos, distribuídos em 5 (cinco) polos distintos. Dessa forma, com os resultados obtidos na pesquisa, observou se que a aplicação de regras do algoritmo, pode ser um valioso instrumento ao professor durante a execução do curso, e não apenas a posteriori, pois possibilita uma intervenção positiva imediata do mesmo, nas diversas variáveis que impactam no sucesso do aprendiz, como tipo de material, discussões, atividades, metodologias e estratégia.
32

Expansão de ontologia através de leitura de máquina contínua

Barchi, Paulo Henrique 31 March 2015 (has links)
Submitted by Bruna Rodrigues (bruna92rodrigues@yahoo.com.br) on 2016-09-26T12:11:20Z No. of bitstreams: 1 DissPHB.pdf: 1422339 bytes, checksum: 7c3b7208c3184e1c18f391a6f6171b04 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-26T18:41:54Z (GMT) No. of bitstreams: 1 DissPHB.pdf: 1422339 bytes, checksum: 7c3b7208c3184e1c18f391a6f6171b04 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-26T18:42:01Z (GMT) No. of bitstreams: 1 DissPHB.pdf: 1422339 bytes, checksum: 7c3b7208c3184e1c18f391a6f6171b04 (MD5) / Made available in DSpace on 2016-09-26T18:42:09Z (GMT). No. of bitstreams: 1 DissPHB.pdf: 1422339 bytes, checksum: 7c3b7208c3184e1c18f391a6f6171b04 (MD5) Previous issue date: 2015-03-31 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / NELL (Never Ending Language Learning system) (CARLSON et al., 2010) is the first system to practice the Never-Ending Machine Learning paradigm techniques. It has an inactive component to continually extend its KB: OntExt (MOHAMED; Hruschka Jr.; MITCHELL, 2011). Its main idea is to identify and add to the KB new relations which are frequently asserted in huge text data. Co-occurrence matrices are used to structure the normalized values of cooccurrence between the contexts for each category pair to identify those context patterns. The clustering of each matrix is done with Weka K-means algorithm (HALL et al., 2009): from each cluster, a new possible relation. This work present newOntExt: a new approach with new features to turn the ontology extension task feasible to NELL. This approach has also an alternative task of naming new relations found by another NELL component: Prophet. The relations are classified as valid or invalid by humans; the precision is calculated for each experiment and the results are compared to those relative to OntExt. Initial results show that ontology extension with newOntExt can help Never-Ending Learning systems to expand its volume of beliefs and to keep learning with high precision by acting in auto-supervision and auto-reflection. / NELL (Never Ending Language Learning system) (CARLSON et al., 2010) é o primeiro sistema a praticar as técnicas do paradigma de Aprendizado Sem-Fim (ASF). Ele possui um subsistema componente inativo para continuamente expandir a Base de Conhecimento (BC): OntExt, que tem como ideia principal identificar e adicionar à BC novas relações que são frequentemente afirmadas em grandes bases de texto. Para isso, matrizes de coocorrência são utilizadas para estruturar os valores normalizados de co-ocorrência entre as frases verbais para cada par de categorias a fim de identificar padrões de contexto que interligam estas categorias. O agrupamento de cada uma destas matrizes é feito com o algoritmo K-médias do Weka: uma possível relação nova a partir de cada agrupamento. Este trabalho apresenta newOntExt: uma abordagem atualizada com novos recursos para tornar a extensão de ontologia uma tarefa mais palpável. Além desta metodologia tradicional, newOntExt pode validar e nomear relações encontradas pelo Prophet, outro subsistema componente do NELL. As relações geradas são classificadas por humanos como válidas ou inválidas; para cada experimento é calculada a precisão e os resultados são comparados aos de OntExt. Resultados iniciais mostram que a extensão de ontologia com newOntExt pode ajudar sistemas de ASF a expandir o volume de crenças e manter alta precisão ao atuar na auto-supervisão e auto-reflexão.
33

Uma abordagem semântica para seleção de atributos no processo de KDD

Ribeiro, Lamark dos Santos 27 August 2010 (has links)
Made available in DSpace on 2015-05-14T12:36:27Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2925122 bytes, checksum: e65ad4a8f7ca12fb8a90eaf2a8783d65 (MD5) Previous issue date: 2010-08-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Currently, two issues of great importance for the computation are being used together in an increasingly apparent: a Knowledge Discovery in Databases (KDD) and Ontologies. By developing the ways in which data is stored, the amount of information available for analysis has increased exponentially, making it necessary techniques to analyze data and gain knowledge for different purposes. In this sense, the KDD process introduces stages that enable the discovery of useful knowledge, and new features that usually cannot be seen only by viewing the data in raw form. In a complementary field, the Knowledge Discovery can be benefited with Ontologies. These, in a sense, have the capacity to store the "knowledge" about certain areas. The knowledge that can be retrieved through inference classes, descriptions, properties and constraints. Phases existing in the process of knowledge discovery, the selection of attributes allows the area of analysis for data mining algorithms can be improved with attributes more relevant to the problem analyzed. But sometimes these screening methods do not eliminate the attributes satisfactorily, do allow a preliminary analysis on the area treated. To address this problem this paper proposes a system that uses ontologies to store the prior knowledge about a specific domain, enabling a semantic analysis previously not possible using conventional methodologies. Was elaborated an ontology, with reuse of various repositories of ontologies available on the Web, specific to the medical field with a possible common specifications in key areas of medicine. To introduce semantics in the selection of attributes is first performed the mapping between data base attributes and classes of the ontology. Done this mapping, the user can now select attributes by semantic categories, reducing the dimensionality of the data and view redundancies between semantically related attributes. / Atualmente, dois temas de grande importância para a computação, estão sendo utilizados conjuntamente de uma forma cada vez mais aparente: a Descoberta de Conhecimento em Bancos de Dados (Knowledge Discovery in Databases KDD) e as Ontologias. Com o aperfeiçoamento das formas com que os dados são armazenados, a quantidade de informação disponível para análise aumentou exponencialmente, tornando necessário técnicas para analisar esses dados e obter conhecimento para os mais diversos propósitos. Nesse contexto, o processo de KDD introduz etapas que possibilitam a descoberta de conhecimentos úteis, novos e com características que geralmente não podiam ser vistas apenas visualizando os dados de forma bruta. Em um campo complementar, a Descoberta de Conhecimento em Banco de Dados pode ser beneficiada com Ontologias. Essas, de certa forma, apresentam a capacidade para armazenar o conhecimento , segundo um modelo de alta expressividade semântica, sobre determinados domínios. As ontologias permitem que o conhecimento seja recuperado através de inferências nas classes, descrições, propriedades e restrições. Nas fases existentes no processo de descoberta do conhecimento, a Seleção de Atributos permite que o espaço de análise para os algoritmos de Mineração de Dados possa ser melhorado com atributos mais relevantes para o problema analisado. Porém, algumas vezes esses métodos de seleção não eliminam de forma satisfatória os atributos irrelevantes, pois não permitem uma análise prévia sobre o domínio tratado. Para tratar esse problema, esse trabalho propõe um sistema que utiliza ontologias para armazenar o conhecimento prévio sobre um domínio específico, possibilitando uma análise semântica antes não viável pelas metodologias convencionais. Foi elaborada uma ontologia, com reuso de diversos repositórios de ontologias disponíveis na Web, específica para o domínio médico e com possíveis especificações comuns nas principais áreas da medicina. Para introduzir semântica no processo de seleção de atributos primeiro é realizado o mapeamento entre os atributos do banco de dados e as classes da ontologia. Feito esse mapeamento, o usuário agora pode selecionar atributos através de categorias semânticas, reduzir a dimensionalidade dos dados e ainda visualizar redundâncias existentes entre atributos correlacionados semanticamente.
34

Aplicação do processo de descoberta de conhecimento em banco de dados acadêmico utilizando as tarefas de agrupamento e classificação / Applying the knowledge discovery process in academic databases using clustering and classification tasks

Asseiss, Maraísa da Silva Guerra [UNESP] 30 June 2017 (has links)
Submitted by MARAÍSA DA SILVA GUERRA null (maraisa.guerra@ifms.edu.br) on 2017-07-29T00:12:01Z No. of bitstreams: 1 relatorio.pdf: 8678616 bytes, checksum: 003c94cceff80c4879b62a63399f0ff9 (MD5) / Approved for entry into archive by Luiz Galeffi (luizgaleffi@gmail.com) on 2017-08-03T14:47:26Z (GMT) No. of bitstreams: 1 asseiss_msg_me_ilha.pdf: 8678616 bytes, checksum: 003c94cceff80c4879b62a63399f0ff9 (MD5) / Made available in DSpace on 2017-08-03T14:47:26Z (GMT). No. of bitstreams: 1 asseiss_msg_me_ilha.pdf: 8678616 bytes, checksum: 003c94cceff80c4879b62a63399f0ff9 (MD5) Previous issue date: 2017-06-30 / Nos últimos anos a quantidade de dados armazenados diarimente em empresas e instituições aumentou consideravelmente e um dos motivos que contribuiu para isso é a crescente importân- cia dada à informação. De forma geral, esses dados são meramente armazenados e, portanto, subutilizados pelos seus detentores, enquanto poderiam ser estudados a fim de obter novos co- nhecimentos, informações e relacionamentos. Neste contexto, surge o processo de descoberta de conhecimento em banco de dados. Este trabalho apresenta uma introdução a banco de dados, uma revisão bibliográfica sobre o processo de descoberta de conhecimento em banco de dados, a descrição de cada etapa deste processo, uma explanação sobre as tarefas de agrupamento e classificação, além de resumir brevemente as técnicas de particionamento e árvore de decisão. É exposto um estudo sobre o sistema Weka, em que apresenta-se conceitos, funcionalidades e exemplifica-se diversas formas de utilização do sistema. O objetivo principal deste trabalho é propor uma metodologia para descoberta de novos conhecimentos em bancos de dados acadê- micos baseada no processo de descoberta de conhecimento em banco de dados, sendo esta uma metodologia mais simplificada e de execução mais direcionada. Como parte da metodologia este trabalho contribui ainda com uma aplicação desenvolvida em Python como forma de apoio a etapas da metodologia. A metodologia proposta conta com a ferramenta Weka para execução dos algoritmos de data mining e prevê a execução das tarefas de agrupamento e classifica- ção. Por fim o trabalho retrata dois estudos de caso envolvendo bancos de dados acadêmicos reais e a execução de todas as etapas da metodologia proposta, com a utilização do sistema Weka. Os estudos de caso abordam as tarefas de agrupamento e classificação e as técnicas de particionamento e árvores de decisão, com a utilização dos algoritmos SimpleKMeans e J4.8, respectivamente. Os resultados obtidos através dos estudos mostram que a metodologia pro- posta é capaz de gerar conhecimentos novos e úteis, tanto na análise de dados de desempenho acadêmico quanto na análise de dados socioeconômicos dos alunos. / In the past years the amount of data stored daily in companies increased considerably and one of the reasons that contributed to this fact is the increasing importance given to information. In general these data are merely stored and therefore underused by its owners, while they could be studied in order to find out new knowledge, information and relationship. In this context, the knowledge discovery in database process arises. This work presents an introduction to databa- ses, a bibliographic review about the knowledge discovery in databases process, a description of each step of this process, an explanation about the clustering and classification tasks and the summarization os the partition and decision tree techniques. A study of the Weka system is shown, in wich are presented concepts, functionalities and examples of use forms for the sys- tem. The main objective of this work is the proposal of a methodology for knowledge discovery in academic databases based on the KDD process. The presented methodology is a more sim- plified and directed version of the KDD. As part of the methodology this work also presents an application developed in Python programming language as a support tool for the methodology steps. The presented methodology uses the Weka tool for running the data mining algorithms and considers the clustering and classification tasks. Lastly this work describes two case stu- dies involving real academic databases and the execution of all the steps from the proposted methodology using the Weka system. The case studies addresses the clustering and classifica- tion tasks, as well as the partitioning and decision trees techniques, using the SimpleKMeans and J4.8 algorithms respectively. The obtained results show that the methodology is capable of generating new and useful knowledge, both by analyzing academic performance data and by analyzing students’ socioeconomic data.
35

Agrupamento de dados fuzzy colaborativo / Collaborative fuzzy clustering

Luiz Fernando Sommaggio Coletta 19 May 2011 (has links)
Nas últimas décadas, as técnicas de mineração de dados têm desempenhado um importante papel em diversas áreas do conhecimento humano. Mais recentemente, essas ferramentas têm encontrado espaço em um novo e complexo domínio, nbo qual os dados a serem minerados estão fisicamente distribuídos. Nesse domínio, alguns algorithmos específicos para agrupamento de dados podem ser utilizados - em particular, algumas variantes do algoritmo amplamente Fuzzy C-Means (FCM), as quais têm sido investigadas sob o nome de agrupamento fuzzy colaborativo. Com o objetivo de superar algumas das limitações encontradas em dois desses algoritmos, cinco novos algoritmos foram desenvolvidos nesse trabalho. Esses algoritmos foram estudados em dois cenários específicos de aplicação que levam em conta duas suposições sobre os dados (i.e., se os dados são de uma mesma npopulação ou de diferentes populações). Na prática, tais suposições e a dificuldade em se definir alguns dos parâmetros (que possam ser requeridos), podemn orientar a escolha feita pelo usuário entre os algoitmos diponíveis. Nesse sentido, exemplos ilustrativos destacam as diferenças de desempenho entre os algoritmos estudados e desenvolvidos, permitindo derivar algumas conclusões que podem ser úteis ao aplicar agrupamento fuzzy colaborativo na prática. Análises de complexidade de tempo, espaço, e comunicação também foram realizadas / Data mining techniques have played in important role in several areas of human kwnowledge. More recently, these techniques have found space in a new and complex setting in which the data to be mined are physically distributed. In this setting algorithms for data clustering can be used, such as some variants of the widely used Fuzzy C-Means (FCM) algorithm that support clustering data ditributed across different sites. Those methods have been studied under different names, like collaborative and parallel fuzzy clustring. In this study, we offer some augmentation of the two FCM-based clustering algorithms used to cluster distributed data by arriving at some constructive ways of determining essential parameters of the algorithms (including the number of clusters) and forming a set systematically structured guidelines as to a selection of the specific algorithm dependeing upon a nature of the data environment and the assumption being made about the number of clusters. A thorough complexity analysis including space, time, and communication aspects is reported. A series of detailed numeric experiments is used to illustrate the main ideas discussed in the study
36

Descoberta de conhecimento em bases de dados e estratégias de relacionamento com clientes: um estudo no setor de serviços

Fernandes, Marcelo Pires 12 February 2008 (has links)
Made available in DSpace on 2016-03-15T19:26:36Z (GMT). No. of bitstreams: 1 Marcelo Pires Fernandes.pdf: 425391 bytes, checksum: 82c6fd61293544d4f47d5a6eec0f6580 (MD5) Previous issue date: 2008-02-12 / The research problem to be studied is related to the way companies from the services industry use customer databases to discover useful knowledge about their customers, in order to improve the development of relationship strategies with them. This issue is important mainly because due to the increasing of concurrence and customer demand, the company needs to relate differently with their customers, so that thy can keep in its portfolio the most profitable ones. In this way, the theory has suggested a deeper integration among distinct disciplines as Relationship Marketing, CRM and Data Mining. In this current study, it was investigated the way the theory presents and describes database analysis processes and, as a result, some proposals were found out, that segment the processes of discovering knowledge in databases in stages like problem understanding, data understanding, data preparation, data modeling data, model evaluation and deployment. The target population was composed by companies from the services industry from São Paulo and Rio de Janeiro cities and a quantitative research was made by applying a questionnaire to 67 professionals from the target population. In this research, themes as utilization level from stages of process of discovering knowledge in databases, utilization level of data mining techniques and utilization level of relationship strategies were investigated. It was discovered that the companies researched have a high utilization level of the stages of knowledge discovery identified in the theory, just only a small part of the data mining techniques are uniformly used by the companies researched and, at last, the strategies with the highest utilization levels are that related to the acquisition of new customers and identification of profitable ones. This last discover was a little bit surprising, because it is opposed to the way of thinking of some authors who defend companies should focus on their relationship strategies in the customer retention. These results can be used to support companies, in subjects related to the development of customer relationship strategies, based in an integrated analysis of business issues, customer information, as well quantitative models of analysis from this information, in order to turn it into useful knowledge to the making decision. / O problema de pesquisa a ser investigado está associado ao modo como empresas do setor de serviços utilizam bases de dados para descobrir conhecimento sobre o cliente e embasar o desenvolvimento de estratégias de relacionamento. Este tema é importante, visto que em função do aumento da concorrência e da exigência dos clientes, as empresas precisam tratar seus clientes de forma diferenciada, de forma a manter em sua carteira aqueles mais rentáveis. Neste sentido, a literatura tem sugerido uma integração cada vez mais intensa entre disciplinas como Marketing de Relacionamento, CRM e Mineração de Dados. O presente trabalho estudou o modo como a literatura apresenta e descreve processos de análise de bases de dados e algumas propostas foram encontradas, propostas que segmentam o processo de descoberta de conhecimento em bases de dados em etapas como entendimento do problema, entendimento e preparação dos dados, modelagem dos dados, avaliação do modelo e implementação da solução desenvolvida. O universo estudado foi o de empresas do setor de serviços que atuam nas cidades de São Paulo e do Rio de Janeiro e uma pesquisa quantitativa foi realizada por meio da aplicação de um questionário a 67 respondentes. Nesta pesquisa, foi investigado o nível de utilização das etapas dos processos de descoberta de conhecimento em bases de dados, as técnicas de mineração utilizadas, bem como as estratégias de relacionamento adotadas com clientes. Constatou-se que as empresas pesquisadas possuem um alto nível de utilização das etapas de descoberta de conhecimento identificadas na literatura, que elas utilizam de forma uniforme apenas algumas das técnicas de mineração de dados identificadas na literatura e que, do ponto de vista de estratégias de relacionamento com clientes, as estratégias de aquisição de novos clientes e identificação dos melhores clientes possuem um nível de utilização superior ao de estratégias de retenção de clientes (considerando resultados da amostra). Esta última constatação, de certo modo, contraria o pensamento de algumas correntes teóricas, que defendem que as empresas devem focar suas estratégias de relacionamento na retenção de clientes. Estes resultados pode servir de apoio aos gestores das empresas, no que se refere aos processos de desenvolvimento de estratégias de relacionamento com clientes, sustentados em análise integrada dos aspectos de negócio envolvidos, informações sobre o cliente, bem como modelos quantitativos de análise destas informações, de forma a transformá-las em conhecimento útil para a tomada de decisão.
37

Otimização multiobjetivo e programação genética para descoberta de conhecimento em engenharia

Russo, Igor Lucas de Souza 26 January 2017 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-04-19T15:28:50Z No. of bitstreams: 1 igorlucasdesouzarusso.pdf: 2265113 bytes, checksum: 0eb7e55f7354359d8fb9419e6e6da17f (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-04-20T12:28:17Z (GMT) No. of bitstreams: 1 igorlucasdesouzarusso.pdf: 2265113 bytes, checksum: 0eb7e55f7354359d8fb9419e6e6da17f (MD5) / Made available in DSpace on 2017-04-20T12:28:17Z (GMT). No. of bitstreams: 1 igorlucasdesouzarusso.pdf: 2265113 bytes, checksum: 0eb7e55f7354359d8fb9419e6e6da17f (MD5) Previous issue date: 2017-01-26 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A área de Otimização envolve o estudo e emprego de métodos para determinação dos parâmetros que levam à obtenção de soluções ótimas, de acordo com critérios denominados objetivos. Um problema é classificado como multiobjetivo quando apresenta objetivos múltiplos e conflitantes, que devem ser otimizados simultaneamente. Recentemente tem crescido o interesse dos pesquisadores pela análise de pós-otimalidade, que consiste na busca por propriedades intrínsecas às soluções ótimas de problemas de otimização e que podem lançar uma nova luz à compreensão dos mesmos. Innovization (inovação através de otimização, do inglês innovation through optmization) é um processo de descoberta de conhecimento a partir de problemas de otimização na forma de relações matemáticas entre variáveis, objetivos, restrições e parâmetros. Dentre as técnicas de busca que podem ser utilizadas neste processo está a Programação Genética (PG), uma meta heurística bioinspirada capaz de evoluir programas de forma automatizada. Além de numericamente válidos, os modelos encontrados devem utilizar corretamente as variáveis de decisão em relação às unidades envolvidas, de forma a apresentar significado físico coerente. Neste trabalho é proposta uma alternativa para tratamento das unidades através de operações protegidas que ignoram os termos inválidos. Além disso, propõe-se aqui uma estratégia para evitar a obtenção de soluções triviais que não agregam conhecimento sobre o problema. Visando aumentar a diversidade dos modelos obtidos, propõe-se também a utilização de um arquivo externo para armazenar as soluções de interesse ao longo da busca. Experimentos computacionais são apresentados utilizando cinco estudos de caso em engenharia para verificar a influência das ideias propostas. Os problemas tratados aqui envolvem os projetos de: uma treliça de 2 barras, uma viga soldada, do corte de uma peça metálica, de engrenagens compostas e de uma treliça de 10 barras, sendo este último ainda não explorado na literatura de descoberta de conhecimento. Finalmente, o conhecimento inferido no estudo de caso da estrutura de 10 barras é utilizado para reduzir a dimensionalidade do problema. / The area of optimization involves the study and the use of methods to determine the parameters that lead to optimal solutions, according to criteria called objectives. A problem is classified as multiobjective when it presents multiple and conflicting objectives which must be simultaneously optimized. Recently, the interest of the researchers has grown in the analysis of post-optimality, which consists in the search for intrinsic properties of the optimal solutions of optimization problems. This can shed a new light on the understanding of the optimization problems. Innovization (from innovation through optimization) is a process of knowledge discovery from optimization problems in the form of mathematical relationships between variables, objectives, constraints, and parameters. Genetic Programming (GP), a search technique that can be used in this process, is a bio-inspired metaheuristic capable of evolving programs automatically. In addition to be numerically valid, the models found must correctly use the decision variables with respect to the units involved, in order to present coherent physical meaning. In this work, a method is proposed to handle the units through protected operations which ignore invalid terms. Also, a strategy is proposed here to avoid trivial solutions that do not add knowledge about the problem. In order to increase the diversity of the models obtained, it is also proposed the use of an external file to store the solutions of interest found during the search. Computational experiments are presented using five case studies in engineering to verify the influence of the proposed ideas. The problems dealt with here are the designs of: a 2-bar truss, a welded beam, the cutting of a metal part, composite gears, and a 10-bar truss. The latter was not previously explored in the knowledge discovery literature. Finally, the inferred knowledge in the case study of the 10-bar truss structure is used to reduce the dimensionality of that problem.
38

Mineração de dados aplicada à classificação do risco de evasão de discentes ingressantes em instituições federais de ensino superior

AMARAL, Marcelo Gomes do 08 July 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-07-11T14:35:16Z No. of bitstreams: 3 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) projeto_v26016.pdf: 1271790 bytes, checksum: f724d8523f2ffdb11ce599aff1eb8eb6 (MD5) projeto_v26016.pdf: 1271790 bytes, checksum: f724d8523f2ffdb11ce599aff1eb8eb6 (MD5) / Made available in DSpace on 2017-07-11T14:35:16Z (GMT). No. of bitstreams: 3 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) projeto_v26016.pdf: 1271790 bytes, checksum: f724d8523f2ffdb11ce599aff1eb8eb6 (MD5) projeto_v26016.pdf: 1271790 bytes, checksum: f724d8523f2ffdb11ce599aff1eb8eb6 (MD5) Previous issue date: 2016-07-08 / As Instituições Federais de Ensino Superior (IFES) possuem um importante papel no desenvolvimento social e econômico do país, contribuindo para o avanço tecnológico e cientifico e fomentando investimentos. Nesse sentido, entende-se que um melhor aproveitamento dos recursos educacionais ofertados pelas IFES contribui para a evolução da educação superior, como um todo. Uma maneira eficaz de atender esta necessidade é analisar o perfil dos estudantes ingressos e procurar prever, com antecedência, casos indesejáveis de evasão que, quanto mais cedo identificados, melhor poderão ser estudados e tratados pela administração. Neste trabalho, propõe-se a definição de uma abordagem para aplicação de técnicas diretas de Mineração de Dados objetivando a classificação dos discentes ingressos de acordo com o risco de evasão que apresentam. Como prova de conceito, a análise dos aspectos inerentes ao processo de Mineração de Dados proposto se deu por meio de experimentações conduzidas no ambiente da Universidade Federal de Pernambuco (UFPE). Para alguns dos algoritmos classificadores, foi possível obter uma acurácia de classificação de 73,9%, utilizando apenas dados socioeconômicos disponíveis quando do ingresso do discente na instituição, sem a utilização de nenhum dado dependente do histórico acadêmico. / The Brazilian's Federal Institutions of Higher Education have an important role in the social and economic development of the country, contributing to the technological and scientific advances and encouraging investments. Therefore, it is possible to infer that a better use of the educational resources offered by those institutions contributes to the evolution of higher education as a whole. An effective way to meet this need is to analyze the profile of the freshmen students and try to predict, as soon as possible, undesirable cases of dropout that when earlier identified can be examined and addressed by the institution's administration. This work propose the development of a approach for direct application of Data Mining techniques to classify newcomer students according to their dropout risk. As a viability proof, the proposed Data Mining approach was evaluated through experimentations conducted in the Federal University of Pernambuco. Some of the classification algorithms tested had an classification accuracy of 73.9% using only socioeconomic data available since the student's admission to the institution, without the use of any academic related data.
39

Visualização de operações de junção em sistemas de bases de dados para mineração de dados. / Visualization of join operations in DBMS for data mining.

Maria Camila Nardini Barioni 13 June 2002 (has links)
Nas últimas décadas, a capacidade das empresas de gerar e coletar informações aumentou rapidamente. Essa explosão no volume de dados gerou a necessidade do desenvolvimento de novas técnicas e ferramentas que pudessem, além de processar essa enorme quantidade de dados, permitir sua análise para a descoberta de informações úteis, de maneira inteligente e automática. Isso fez surgir um proeminente campo de pesquisa para a extração de informação em bases de dados denominado Knowledge Discovery in Databases – KDD, no geral técnicas de mineração de dados – DM – têm um papel preponderante. A obtenção de bons resultados na etapa de mineração de dados depende fortemente de quão adequadamente o preparo dos dados é realizado. Sendo assim, a etapa de extração de conhecimento (DM) no processo de KDD, é normalmente precedida de uma etapa de pré-processamento, onde os dados que porventura devam ser submetidos à etapa de DM são integrados em uma única relação. Um problema importante enfrentado nessa etapa é que, na maioria das vezes, o usuário ainda não tem uma idéia muito precisa dos dados que devem ser extraídos. Levando em consideração a grande habilidade de exploração da mente humana, este trabalho propõe uma técnica de visualização de dados armazenados em múltiplas relações de uma base de dados relacional, com o intuito de auxiliar o usuário na preparação dos dados a serem minerados. Esta técnica permite que a etapa de DM seja aplicada sobre múltiplas relações simultaneamente, trazendo as operações de junção para serem parte desta etapa. De uma maneira geral, a adoção de junções em ferramentas de DM não é prática, devido ao alto custo computacional associado às operações de junção. Entretanto, os resultados obtidos nas avaliações de desempenho da técnica proposta neste trabalho mostraram que ela reduz esse custo significativamente, tornando possível a exploração visual de múltiplas relações de uma maneira interativa. / In the last decades the capacity of information generation and accumulation increased quickly. With the explosive growth in the volume of data, new techniques and tools are being sought to process it and to automatically discover useful information from it, leading to techniques known as Knowledge Discovery in Databases – KDD – where, in general, data mining – DM – techniques play an important role. The results of applying data mining techniques on datasets are highly dependent on proper data preparation. Therefore, in traditional DM processes, data goes through a pre-processing step that results in just one table that is submitted to mining. An important problem faced during this step is that, most of the times, the analyst doesn’t have a clear idea of what portions of data should be mined. This work reckons the strong ability of human beings to interpret data represented in graphical format, to develop a technique to visualize data from multiple tables, helping human analysts when preparing data to DM. This technique allows the data mining process to be applied over multiple relations at once, bringing the join operations to become part of this process. In general, the use of multiple tables in DM tools is not practical, due to the high computational cost required to explore them. Experimental evaluation of the proposed technique shows that it reduces this cost significantly, turning it possible to visually explore data from multiple tables in an interactive way.
40

Minerador WEB: um estudo sobre mecanismos de descoberta de informações na WEB. / Minerador WEB: a study on mechanisms of discovery of information in the WEB.

Toscano, Wagner 10 July 2003 (has links)
A Web (WWW - World Wide Web) possui uma grande quantidade e variedade de informações. Isso representa um grande atrativo para que as pessoas busquem alguma informação desejada na Web. Por outo lado, dessa grande quantidade de informações resulta o problema fundamental de como descobrir, de uma maneira eficaz, se a informação desejada está presente na Web e como chegar até ela. A existência de um conjunto de informações que não se permitem acessar com facilidade ou que o acesso é desprovido de ferramentas eficazes de busca da informção, inviabiliza sua utilização. Soma-se às dificuldades no processo de pesquisa, a falta de estrutura das informações da Web que dificulta a aplicação de processos na busca da informação. Neste trabalho é apresentado um estudo de técnicas alternativas de busca da informação, pela aplicação de diversos conceitos relacionados à recuperação da informação e à representação do conhecimento. Mais especificamente, os objetivos são analisar a eficiência resultante da utilização de técnicas complementares de busca da informação, em particular mecanismos de extração de informações a partir de trechos explícitos nos documentos HTML e o uso do método de Naive Bayes na classificação de sites, e analisar a eficácia de um processo de armazenamento de informações extraídas da Web numa base de conhecimento (descrita em lógica de primeira ordem) que, aliada a um conhecimento de fundo, permita respomder a consultas mais complexas que as possíveis por meio do uso de expressões baseadas em palavras-chave e conectivos lógicos. / The World Wide Web (Web) has a huge amount and a large diversity of informations. There is a big appeal to people navigate on the Web to search for a desired information. On the other hand, due to this huge amount of data, we are faced with the fundamental problems of how to discover and how to reach the desired information in a efficient way. If there is no efficient mechanisms to find informations, the use of the Web as a useful source of information becomes very restrictive. Another important problem to overcome is the lack of a regular structure of the information in the Web, making difficult the use of usual information search methods. In this work it is presented a study of alternative techniques for information search. Several concepts of information retrieval and knowledge representation are applied. A primary goal is to analyse the efficiency of information retrieval methods using analysis of extensional information and probabilistic methods like Naive Bayes to classify sites among a pre-defined classes of sites.Another goal is to design a logic based knowledhe base, in order to enable a user to apply more complex queries than queries based simply on expressions using keywouds and logical connectives

Page generated in 0.137 seconds