• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 15
  • 13
  • 13
  • 12
  • 12
  • 5
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 203
  • 203
  • 203
  • 84
  • 82
  • 54
  • 41
  • 40
  • 38
  • 34
  • 32
  • 30
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Modelos pedométricos para espacialização de atributos de solos / Pedomentrics model for spatialization of soil properties

Taques, Renato Corrêa 04 December 2014 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2017-08-17T16:38:08Z No. of bitstreams: 1 texto completo.pdf: 2416699 bytes, checksum: 295770a8d987315b99671e453ffecf22 (MD5) / Made available in DSpace on 2017-08-17T16:38:08Z (GMT). No. of bitstreams: 1 texto completo.pdf: 2416699 bytes, checksum: 295770a8d987315b99671e453ffecf22 (MD5) Previous issue date: 2014-12-04 / Informações sobre os solos são cada vez mais requeridas para auxiliar a tomada de decisão em uma série de questões globais, tornando crescente a procura por informações atualizadas e precisas sobre os solos. Métodos geoestatísticos apresentam bons resultados em levantamentos quantitativos de solos de níveis detalhados (escalas ≥ 1:20.000) e métodos convencionais, aparentemente, são mais eficientes em levantamentos de reconhecimento de baixa intensidade (escalas ≤ 1:250.000). O desafio é encontrar métodos de levantamento quantitativo, aplicáveis em escalas intermediárias. Este trabalho teve como objetivo realizar estudos comparativos das metodologias de mapeamento digital de atributos de solos, compatível com escalas de mapeamento semidetalhado. O estudo foi realizado na bacia do Rio Pongal, no município de Anchieta/ES (Lat 20°45’S, Long 40°45’W), com área aproximada de 14.000 hectares. A base de dados de atributos de solos foi obtida a partir dos resultados de análises de rotina para determinação do pH, CTC, MOS, teores de areia, silte e argila, de 154 amostras da camada 15 a 30 cm de profundidade. Covariáveis ambientais, geradas a partir de MDEs, dados gamaespectrométricos e imagens do satélite Landsat 8, foram usadas nos modelos preditivos. O capítulo 1 é dedicado ao estudo da variabilidade espacial dos atributos de solos, com a modelagem dos semivariogramas, avaliação do alcance e da dependência espacial. Com exceção do pH, todas as variáveis apresentaram forte dependência espacial, com alcance variando entre 297 e 565 m. O capítulo 2 trata da seleção de covariáveis mais relevantes para a predição espacial, usando Regressão Linear Múltipla (RLM) e Random Forest (RF). As covariáveis derivadas do MDE de 5 m de resolução apresentaram os melhores resultados em relação às covariáveis dos demais MDEs estudados. Os modelos RF apresentaram resultados melhores de R2 e RMSE, se comparados com os resultados da RLM. O desempenho dos modelos geoestatísticos de krigagem ordinária, cokrigagem e regressão-krigagem na predição espacial de atributos de solos foi avaliado no capítulo 3. Na avaliação final, a regressão- krigagem apresentou os melhores resultados na predição dos atributos de solos, entre os modelos geoestatísticos avaliados. Concluímos que o uso de técnicas híbridas, de regressão combinada com a krigagem, que utilizam covariáveis ambientais na predição, produzem os melhores resultados no mapeamento digital de atributos de solos em escala semidetalhadas. / Soils information is increasingly required to aid decision taking on a range of global issues, becoming growing demand for updated and accurate information on soils. Geostatistical methods have good results in quantitative soil surveys of detailed levels (scale ≥ 1:20,000) and conventional methods are, apparently, more efficient at low intensity reconnaissance surveys (≤ scales 1:250,000). The challenge is to find quantitative survey methods, applicable to intermediate scales. This work aimed to conduct comparative studies of methodologies of digital mapping of soil properties compatible with semi-detailed scales mapping. The study was conducted at the Rio Pongal basin, in the municipality of Anchieta/ES (Lat 20°45'S; Long 40°45'W), with an approximate area of 14,000 hectares. The database of soil properties was obtained from the results of routine analysis to determine pH, CEC, SOM, sand, silt and clay, 154 samples layer of 15 to 30 cm deep. Environmental covariates, generated from DEMs, gamma ray spectrometric data and images from the satellite Landsat 8, were used in predictive models. Chapter 1 is devoted to the study of the spatial variability of soil properties, with modeling the semivariogram, evaluation value range and spatial dependence. With exception of pH, all variables showed a strong spatial dependence, with range varying between 297 and 565 m. Chapter 2 deals with the selection of the most relevant variables for the spatial prediction using Multiple Linear Regression (MLR) and Random Forest (RF). The covariates derived from the DEM of 5 m resolution showed the best results in relation to other DEMs studied. RF models showed the best results in R2 and RMSE, compared with the results of MLR. The performance of geostatistical models of ordinary kriging, cokriging and regression-kriging in spatial prediction of soil properties was evaluated in Chapter 3. In the final evaluation, the regression-kriging showed the best results in the prediction of soil properties, between models geostatistical evaluated. We conclude that using hybrid techniques, regression combined with the kriging, using environmental covariates to predict, produce the best results in digital mapping of soil properties in semi-detailed scales.
62

Seizure detection in electroencephalograms using data mining and signal processing / Detecção de convulsões em eletroencefalogramas usando miner- ação de dados e processamento de sinais

Orellana, Marco Antônio Pinto 10 March 2017 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2017-08-22T13:26:59Z No. of bitstreams: 1 texto completo.pdf: 5760621 bytes, checksum: f90e38633fae140744262e882dc7ae5d (MD5) / Made available in DSpace on 2017-08-22T13:26:59Z (GMT). No. of bitstreams: 1 texto completo.pdf: 5760621 bytes, checksum: f90e38633fae140744262e882dc7ae5d (MD5) Previous issue date: 2017-03-10 / Agencia Boliviana Espacial / A epilepsia é uma das doenças neurológicas mais comuns definida como a predisposição a sofrer convulsões não provocadas. A Organização Mundial da Saúde estima que 50 milhões de pessoas estão sofrendo esta condição no mundo inteiro. O diagnóstico de epilepsia implica em um processo caro e longo baseado na opinião de especialistas com base em eletroencefalogramas (EEGs) e gravações de vídeo. Neste trabalho, foram desenvolvidos dois métodos para a predição automática de convulsões usando EEG e mineração de dados. O primeiro sistema desenvolvido é um método específico para cada paciente (patient-specific) que consiste em extrair características espectro-temporais de todos os canais de EEG, aplicar um algoritmo de redução de dimensão, recuperar o envelope do sinal e criar um modelo usando um classificador random forest. Testando este sistema com um grande banco de dados de epilepsia, atingimos 97% de especificidade e 99% de sensibilidade. Assim, a primeira proposta mostrou ter um grande potencial para colaborar com o diagnóstico em um contexto clínico. O segundo sistema desenvolvido é um método não específico do paciente (non-patient specific) que consiste em selecionar o sinal diferencial de dois eletrodos, aplicar um vetor de bancos de filtros para esse sinal, extrair atributos de séries temporais e criar um modelo preditivo usando uma árvore de decisão CART. O desempenho deste método foi de 95% de especificidade e 87% de sensibilidade. Estes valores não são tão altos quanto os de métodos propostos anteriormente. No entanto, a abordagem que propomos apresenta uma viabilidade muito maior para implementação em dispositivos que possam ser efetivamente utilizados por pacientes em larga escala. Isto porque somente dois elétrodos são utilizados e o modelo de predição é computacionalmente leve. Note-se que, ainda assim, o modelo xigerado apresenta um poder preditivo satisfatório e generaliza melhor que em trabalhos anteriores já que pode ser treinado com dados de um conjunto de pacientes e utilizado em pacientes distintos (non-patient specific). Ambas as propostas apresentadas aqui, utilizando abordagens distintas, demonstram ser alternativas de predição de convulsões com performances bastante satisfatórias sob diferentes circunstâncias e requisitos. / Epilepsy is one of the most common neurological diseases and is defined as the pre- disposition to suffer unprovoked seizures. The World Health Organization estimates that 50 million people are suffering this condition worldwide. Epilepsy diagnosis im- plies an expensive and long process based on the opinion of specialist personnel about electroencephalograms (EEGs) and video recordings. We have developed two meth- ods for automatic seizure detection using EEG and data mining. The first system is a patient-specific method that consists of extracting spectro-temporal features of 23 EEG channels, applying a dimension reduction algorithm, recovering the envelope of the signal, and creating a model using a random forest classifier. Testing this system against a large dataset, we reached 97% of specificity and 99% of sensitivity. Thus, our first proposal showed to have a great potential for diagnosis support in clinical context. The other developed system is a non-patient specific method that consists of selecting the differential signal of two electrodes, applying an array of filter banks to that signal, extracting time series features, and creating a predictive model using a decision tree. The performance of this method was 95% of specificity, and 87% of sensitivity. Although the performance is lower than previous propos- als, due to the design conditions and characteristics, our method allows an easier implementation with low hardware requirements. Both proposals presented here, using distinct approaches, demonstrate to be seizure prediction alternatives with very satisfactory performances under different circumstances and requirements.
63

Framework de mineração de dados para análise de experimentos com eye tracking: uma aplicação em bioética / Data mining framework for analysis of experiments with eye tracking: an application in bioethics

Fernandes, Daniel Louzada 18 July 2017 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2018-02-27T13:12:41Z No. of bitstreams: 1 texto completo.pdf: 6906430 bytes, checksum: f20c4e4d2f18d2c9f5f72c7ceee9769d (MD5) / Made available in DSpace on 2018-02-27T13:12:41Z (GMT). No. of bitstreams: 1 texto completo.pdf: 6906430 bytes, checksum: f20c4e4d2f18d2c9f5f72c7ceee9769d (MD5) Previous issue date: 2017-07-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A capacidade de tomar decisões e de resolver problemas representa uma habilidade cognitiva importante para o cotidiano das pessoas. Na prática clínica, principalmente nas situações que envolvem questões bioéticas, a tomada de decisão do profissional da saúde advém de uma complexa interação entre o ambiente de trabalho e os processos neurais subjacentes a cognição e a emoção, resultando em escolhas e julgamentos que levam em consideração diversos aspectos. Com o avanço da tecnologia, pesquisadores têm desenvolvido novas técnicas que investigam a tomada de decisão por meio da mensuração da carga cognitiva durante a realização de tarefas. Nos últimos anos, houve um aumento do interesse em pesquisas relacionadas com a atenção visual por meio de dispositivos de rastreamento ocular. Por consequência, este tornou-se um importante tema de investigação, aplicado em vários campos para estudar e compreender os padrões entre sujeitos. No entanto, a grande quantidade de dados brutos derivados pelo rastreador torna a tarefa de análise de dados complexas, dificultando, o processo de descoberta de padrões. Além disso, uma vez que as ferramentas existentes apresentam limitações para suportar grandes conjuntos de dados e há uma ausência de registros na literatura para auxiliar na condução desse tipo de pesquisa, este estudo tornou-se um desafio. Portanto, torna-se recomendado a combinação de metodologias para aprimorar a apreciação dos dados produzidos, otimizando a avaliação da atenção visual no processo cognitivo. Nesta dissertação, é proposta duas abordagens que além de funcionar como um arcabouço computacional para processamento dos dados oculares e extração de importantes padrões, também direciona para futuras pesquisas na área. A primeira abordagem é baseada em algoritmos de aprendizagem de máquina (redes multilayer perceptron e árvores de decisão C4.5) para construir modelos capazes de prever a decisão bioética por meio de padrões extraídos de dados oculares. Já a segunda abordagem se baseia na utilização de métodos de visualização de dados e estatística para facilitar a interpretação e avaliação dos dados por meio da validação estatística e análise exploratória. O resultados de ambas as abordagens mostraram uma conexão entre comportamento cognitivo e a tomada de decisão. Desta forma, infere-se que os pipelines dos procedimentos propostos são eficientes para testar hipóteses científicas relacionadas com o papel da atenção visual e tomadas de decisões clínicas. / The ability to make decisions and solve problems represents an important cognitive ability for people’s daily lives. In clinical practice, especially in situations involving bioethical issues, decision making by healthcare professionals comes from a complex interaction between the work environment and the neural processes underlying cognition and emotion, resulting in choices and judgments that take into account different aspects. With the advancement of technology, researchers have developed new techniques that investigate decision making by measuring cognitive load while performing tasks. In recent years, there has been an increased interest in research related to visual attention through eye tracking devices. Consequently, this has become an important research topic, applied in various fields to study and understand the patterns between subjects. However, the large amount of raw data derived from the device makes the task of data analysis complex, making it difficult to discover patterns. In addition, as existing tools have limitations to support large datasets and due to a lack of records in the literature to assist in conducting this type of research, studies with eye tracking data have become a challenge. Therefore, it is recommended the combination of methodologies to improve the appreciation of the produced data, optimizing the evaluation of visual attention in the cognitive process. In this dissertation, two approaches are proposed to serve as a computational framework for processing eye data and extracting important patterns, as well as to direct future research in the area. The first approach is based on machine learning algorithms (multilayer perceptron networks and decision trees C4.5) to construct models capable of predicting bioethical decision using patterns extracted from eye data. The second approach is based on the use of data visualization and statistical xvimethods to facilitate the interpretation and evaluation of the data through statistical validation and exploratory analysis. The results of both approaches showed a connection between cognitive behavior and decision making. In this way, it is inferred that the pipelines of the proposed procedures are efficient to test scientific hypotheses related to the role of visual attention and clinical decision making.
64

Melhoria da Sensibilidade em dados de proteômica Shotgun usando redes neurais artificiais sensíveis ao custo e o algoritmo threshold selector / Improving sensitivity in shotgun proteomics using cost sensitive artificial neural networks and a threshold selector algorithm

Ricardo, Adilson Mendes 07 December 2015 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-02-16T08:33:17Z No. of bitstreams: 1 texto completo.pdf: 4266396 bytes, checksum: 856cd30ea465e06e8c9ff8dc295ffd91 (MD5) / Made available in DSpace on 2016-02-16T08:33:17Z (GMT). No. of bitstreams: 1 texto completo.pdf: 4266396 bytes, checksum: 856cd30ea465e06e8c9ff8dc295ffd91 (MD5) Previous issue date: 2015-12-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Antecedentes: Este trabalho apresenta uma estratégia de aprendizagem de máquina para aumentar sensibilidade na análise de dados de espectrometria de massa para identificação de peptídeos / proteínas. A espectrometria de massa em tandem é uma técnica de química analítica amplamente utilizada para identificar as proteínas em misturas complexas, dando origem a milhares de espectros em uma única corrida que são depois interpretados por software. A maioria destas abordagens computacionais usam bancos de dados de proteínas para realizar a interpretação dos espectros, ou seja, para cada um, obter a melhor correspondência entre o mesmo e a sequência de um peptídeo obtido computacionalmente, a partir das sequências de proteínas do banco de dados. As correspondências espectro-peptídeo (PSM - peptide-spectrum matches) também devem ser avaliadas por ferramentas computacionais já que a análise manual não é possível em função do volume. A estratégia do banco de dados target-decoy é largamente utilizada para avaliação de PSMs. No entanto, em geral, o método não considera a sensibilidade, apenas a estimativa de erro. Resultados: Em trabalho de pesquisa anterior, o método MUMAL aplica uma rede neural artificial para gerar um modelo para classificar PSMs usando a estratégia do banco de dados target-decoy para o aumento da sensibilidade. Entretanto, o presente trabalho de pesquisa mostra que a sensibilidade pode ser melhorada com a utilização de uma matriz de custo associada com o algoritmo de aprendizagem. Demonstra-se também que a utilização do algoritmo threshold selector para o ajuste de probabilidades conduz a valores mais coerentes de probabilidade atribuídos para os PSMs, o que afeta positivamente a etapa de inferência de proteínas. Portanto, a abordagem aqui proposta, denominada MUMAL2, fornece duas contribuições para proteômica shotgun. Em primeiro lugar, o aumento no número de espectros corretamente interpretados no nível de peptídeo aumenta a chance de identificar mais proteínas. Em segundo lugar, os valores mais adequados de pro- babilidade dos PSMs produzidos pelo algoritmo threshold selector impactam de forma positiva a fase de inferência de proteínas, realizada por programas que levam em conta estas probabilidades, tais como o ProteinProphet. Os experimentos demonstraram que o MUMAL2 fornece um maior número de verdadeiros positivos em comparação com métodos convencionais para avaliação de PSMs. Esta nova abordagem atingiu cerca de 15% de melhoria na sensibilidade em comparação com o melhor método atual. Além disso, a área sob a curva ROC obtida foi de 0,93, o que demonstra que as probabi- lidades geradas pelo MUMAL2 são, de fato, apropriadas. Finalmente, diagramas de Venn comparando o MUMAL2 com o melhor método atual mostram que o número de peptídeos exclusivos encontrado pelo MUMAL2 foi quase quatro vezes superior, o que impacta diretamente a cobertura do proteoma. Conclusões: A inclusão de uma matriz de custos e do algoritmo threshold selector na tarefa de aprendizagem melhora, ainda mais, a análise pela estratégia banco de dados target-decoy para identificação dos peptídeos, e contribui de forma eficaz para a difícil tarefa de identificação no nível de proteínas, resultando em uma poderosa ferramenta computacional para a proteômica shotgun. / Background: This work presents a machine learning strategy to increase sensitivity in mass spectrometry data analysis for peptide/protein identification. Tandem mass spectrometry is a widely used analytical chemistry technique used to identify proteins in complex mixtures, yielding thousands of spectra in a single run which are then inter- preted by software. Most of these computer programs use a protein database to match peptide sequences to the observed spectra. The peptide-spectrum matches (PSMs) must also be assessed by computational tools since manual evaluation is not practica- ble. The target-decoy database strategy is largely used for PSM assessment. However, in general, the method does not account for sensitivity, only for error estimate. Re- sults: In a previous study, we proposed the method MUMAL that applies an artificial neural network to effectively generate a model to classify PSMs using decoy hits with increased sensitivity. Nevertheless, the present approach shows that the sensitivity can be further improved with the use of a cost matrix associated with the learning algo- rithm. We also demonstrate that using a threshold selector algorithm for probability adjustment leads to more coherent probability values assigned to the PSMs. Our new approach, termed MUMAL2, provides a two-fold contribution to shotgun proteomics. First, the increase in the number of correctly interpreted spectra in the peptide level augments the chance of identifying more proteins. Second, the more appropriate PSM probability values that are produced by the threshold selector algorithm impact the protein inference stage performed by programs that take probabilities into account, such as ProteinProphet. Our experiments demonstrated that MUMAL2 provides a higher number of true positives compared with standard methods for PSM evaluation. This new approach reached around 15% of improvement in sensitivity compared to the best current method. Furthermore, the area under the ROC curve obtained was 0.93, demonstrating that the probabilities generated by our model are in fact appro- priate. Finally, Venn diagrams comparing MUMAL2 with the best current method show that the number of exclusive peptides found by our method was nearly 4-fold higher, which directly impacts the proteome coverage. Conclusions: The inclusion of a cost matrix and a probability threshold selector algorithm to the learning task further improves the target-decoy database analysis for identifying peptides, which optimally contributes to the challenging task of protein level identification, resulting in a powerful computational tool for shotgun proteomics.
65

Análise de "outliers" para o controle do risco de evasão tributária do ICMS

Bittencourt Neto, Sérgio Augusto Pará 03 July 2018 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2018. / Submitted by Fabiana Santos (fabianacamargo@bce.unb.br) on 2018-11-07T18:38:41Z No. of bitstreams: 1 2018_SérgioAugustoParáBittencourtNeto.pdf: 5650773 bytes, checksum: 743dbdc02efa3ebbf053f062cbc76e28 (MD5) / Approved for entry into archive by Fabiana Santos (fabianacamargo@bce.unb.br) on 2018-11-12T17:44:26Z (GMT) No. of bitstreams: 1 2018_SérgioAugustoParáBittencourtNeto.pdf: 5650773 bytes, checksum: 743dbdc02efa3ebbf053f062cbc76e28 (MD5) / Made available in DSpace on 2018-11-12T17:44:26Z (GMT). No. of bitstreams: 1 2018_SérgioAugustoParáBittencourtNeto.pdf: 5650773 bytes, checksum: 743dbdc02efa3ebbf053f062cbc76e28 (MD5) Previous issue date: 2018-11-12 / Esta dissertação apresenta a aplicação associada de selecionados modelos estatísticos e de métodos de mineração de dados para a análise de outliers sobre as informações da Notas Fiscais Eletrônicas e do Livro Fiscal Eletrônico, proporcionando a investigação de novas modalidades de evasão fiscal no ICMS. São combinados: 1. o método de programação matemática da Análise Envoltória de Dados (DEA) para diferenciar as empresas com desempenho relativo de arrecadação ineficiente, dentro de um segmento econômico, e eleger os contribuintes suspeitos para investigação; 2. modelos de análise de séries temporais para avaliação dos dados fiscais atinentes à apuração do imposto (comparação gráfica dos valores reais e respectivas escriturações, gráficos boxplots, decomposição das componentes de tendência e sazonalidade e o modelo de alisamento exponencial Holtz-Winter), com o objetivo de detectar períodos de tempo anômalos (outliers); e 3. outras técnicas estatísticas descritivas (gráficos analíticos da distribuição de frequência), probabilísticas (Desigualdade de Chebyshev e Lei de Newcomb Benford) e o método de mineração por clusterização K-Means sobre as informações fiscais dos contribuintes selecionados, para identificar os registros escriturais e os documentos fiscais sob suspeição. É proposto um recurso computacional construído em linguagem R (plataforma R Studio) para: extrair do banco de dados (ORACLE) da Receita do Distrito Federal, processar as informações aplicando-lhes os modelos e métodos designados, e em conclusão, disponibilizar os resultados em painéis analíticos que facilitam e otimizam o trabalho de auditoria. Assim, a identificação das circunstâncias anômalas, a partir de um tratamento sistemático dos dados, proporciona maior eficiência à atividade de programação fiscal de auditorias tributárias. / This dissertation presents the associated application of selected statistical models and data mining methods for the analysis of outliers on the information of the Electronic Fiscal Notes and the Electronic Fiscal Book, providing the investigation of new types of tax evasions in ICMS. The following methods are applied: 1. the mathematical programming method of Data Envelopment Analysis (DEA) to differentiate companies with inefficient performance relative in the tax collection within an economic segment and to choose suspected taxpayers for research; 2. the analysis of time series used in the evaluation of fiscal data related to the calculation of the ICMS tax (graphical comparison of actual values and respective deeds, boxplot graphs, the decomposition of trend and seasonality components and the Holtz-Winter method), capable of anomalous time periods (outliers) detection; and 3. descriptive statistical analysis (frequency distribution), probabilistic analysis (Chebyshev Inequality and Newcomb Benford Law) and K-Means clustering techniques on selected taxpayers’ tax information to identify book entries and tax documents under suspicion. A computational code in R language (R Studio platform) is developed for: extraction of data from the Federal District Revenue database (ORACLE), processing of the extracted information while applying the designated models and methods and generating the results in panels that facilitate and optimize audit work. Thus, in conclusion, the identification of the anomalous circumstances, based on a systematic treatment of the data, provides greater efficiency to the fiscal programming activity of tax audits.
66

Um modelo baseado em ontologia e extração de informação como suporte ao processo de design instrucional na geração de mídias do conhecimento

Braglia, Israel de Alcântara January 2014 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia e Gestão do Conhecimento, 2014. / Made available in DSpace on 2015-04-29T21:00:03Z (GMT). No. of bitstreams: 1 333108.pdf: 6863674 bytes, checksum: 460045d7c24d77f60339f4c26a00dc6a (MD5) Previous issue date: 2014 / A educação à distância (EAD) é uma realidade em expansão. Sobre esta evolução está o design instrucional permeando as equipes de produção para cursos em EAD. Nesta tese o objetivo foi propor um modelo baseado em ontologia e extração da informação como suporte ao processo de design instrucional na geração de mídias do conhecimento. Sendo assim, esta tese propõe um modelo que tivesse como suporte ontologias de domínio para a EAD - pois todo material instrucional de um curso de EAD nasce de um texto bruto (corpus). Com a intuição de auxiliar a fase de implementação do designer instrucional sob a leitura deste texto bruto, foi criado um modelo de representação baseado em ontologia para que o mesmo possa projetar ao designer instrucional as categorias básicas sobre o texto. Para isso, ao trabalhar o texto bruto, o designer instrucional pode se atribuir de uma ferramenta de extração de informação e, por consequência, agilizar seus insumos de trabalho. É importante destacar que o modelo aqui proposto se expande e funciona em sua totalidade através da integração com outras ontologias para realizar uma representação gráfica do corpus: que expõe conexões existentes entre os termos e como eles podem ainda, em uma visão geral, se inter-relacionar com outros termos do texto. Esta representação gráfica é um mapa conceitual gerado a partir das regras da ontologia que contemplam o modelo. A mídia do conhecimento no modelo são os mapas conceituais gerados. Para exemplifica-lo, três disciplinas do curso Letras/LIBRAS da UFSC foram selecionadas. Os textos brutos destas disciplinas foram marcados de acordo com as regras estipuladas. Sobre estes termos marcados, a ontologia criada foi aplicada e sobre ela, outras ontologias de domínio alimentaram os termos para conceituação e explicação dos mesmos. Com o modelo aplicado, através de verificação com especialistas entende-se que o mesmo é tido como válido e que apresenta possibilidades positivas ao fluxo de design instrucional.<br> / Abstract : The distance learning (ODL) is an expanding reality. About this evolution, appears the instructional design permeating the production teams for courses in distance education. In this thesis the aim was to propose a model based on ontology and extraction of information to support the process of instructional design in the generation of knowledge media. Therefore, we sought to create a model that would have as support domain ontologies for EAD - because all instructional material an ODL course stems from a raw text (corpus). With the intention to assist the implementation phase of the instructional designer in reading this raw text, a representation system of the content was created to project for the instructional designer the basic categories on the text. For this to happen, while the plain text is worked, the instructional designer can use an extraction tool information and, consequently, expedite his work. Importantly, the model proposed here expands and works in his totality with other ontologies and it can take others to realize a graphical representation of the corpus: it exposes existing connections between terms and how they can still, in an overview, interrelate itself with other terms of the text. This graphical representation is a conceptual map generated from the rules of the ontology that include the model. To exemplify it, three courses subjects Lestras/LIBRAS - UFSC were selected. The raw texts of these disciplines were scored according to the stipulated rules. Marked on these terms, the ontology was created and applied on it, other domain ontologies fed to the conceptualization terms and explanation thereof. With the model applied by the experts verification, it is understood that the same is considered valid and presents positive possibilities to the flow of instructional design.
67

Redes neurais artificiais e máquinas de vetores suporte

Gozer, Isabel Cristina January 2012 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-graduação em Engenharia de Produção, Florianópolis, 2013. / Made available in DSpace on 2016-01-15T14:31:22Z (GMT). No. of bitstreams: 1 318899.pdf: 1604655 bytes, checksum: 691cb832dc0af84cb9324823c4cc71f0 (MD5) Previous issue date: 2012 / A presente tese teve como objetivo a avaliação de insolvência do cooperativismo de crédito mútuo do Estado do Paraná através da utilização de duas técnicas de data mining, redes neurais artificiais (RNAs) e máquinas de vetores suporte (SVMs), a proposta foi, por meio do aprendizado de máquina, a de criar um modelo de capaz de avaliar a solvência das cooperativas de crédito, para tanto foram utilizados os indicadores do sistema PEARLS, indicadores esses recomendados internacionalmente pelo WOCCU (Word Council of Credit Unions) como os melhores para a avaliação do cooperativismo de crédito mútuo. Para a realização do estudo foram utilizadas as demonstrações financeiras das 31 cooperativas de crédito mútuo do estado do Paraná no ano de 2010, divulgadas pelo Banco Central do Brasil (BACEN) como solventes e como insolventes as cooperativas que deixaram de enviar suas demonstrações para o Banco Central, o que caracteriza a descontinuidade operacional de fato, isso num período de 10 anos, que totalizou 31 cooperativas de crédito. Os algoritmos de redes neurais utilizados neste trabalho foram RBFNetwork, MultilayerPerceptron e MultilayerPerceptronCS; e o algoritmo escolhido de Support Vector Machine foi o LibSVM, todos pertencentes ao pacote de software Weka, ferramenta bastante utilizada em Data Mining e Aprendizado de Máquina. Ao analisar os resultados das RNAs e da SVM ficou evidente a superioridade das SVMs como classificador binário de avaliação de solvência, pois o seu algoritmo LibSVMs apresentou os melhores resultados em todas as avaliações de desempenho propostas nesta pesquisa, destacando a avaliação de desempenho denominada de F-Measure, que evidenciou que o algoritmo LibSVMs foi melhor também nos três grupos de indicadores. O único indicador de desempenho em que LibSVM teve desempenho inferior às RNAs foi na taxa de erro da classe negativa, verifica-se a RNA com os algoritmos MultilayerPerceptron e MultilayerPerceptron; que possuem melhores índices para 27, 10 e 11 indicadores, já o algoritmo da LibSVMs possui desempenho igual para 10 e 11 indicadores. Observando o gráfico Receiver Operating Characteristic (ROC), é possível perceber que os algoritmos de redes neurais apresentaram as maiores TP Rate e FP Rate, resultando em modelos liberais, enquanto o algoritmo LibSVM resultou em modelos conservadores e teve bom resultado em relação à FP Rate, mas poucas taxas altas de TP Rate. O desempenho apresentado pelas Redes Neurais MultilayerPerceptron, MultilayerPerceptronCS e RBFNetwork, na classificação dos exemplos, foi inferior ao LibSVM. O melhor resultado alcançado pelos algoritmos está nas tabelas (indicadores de desempenho). Ainda que fosse utilizado apenas um algoritmo de rede neural, o desempenho ainda seria melhor na probabilidade de classificação de um novo exemplo como verdadeiro positivo (INSOLVENTE), bastando observar isoladamente as curvas de desempenho no gráfico ROC. Em relação ao número de indicadores do Sistema PEARLS para a avaliação da Solvência do Cooperativismo de crédito, foi confirmado também que não há a necessidade de calcular os 39 indicadores iniciais, bem como a planilha com os 27 indicadores, porém somente os 10 sugeridos pelos analistas de mercado são suficientes para tal avaliação. <br> / Abstract : This work aims at assessing the insolvency of mutual credit unions in the Parana State (Brazil) by two different data mining techniques: Artificial Neural Networks (ANNs) and Support Vector Machines (SVMs). The proposal is to create a model that can evaluate the solvency of credit unions from the Machine Learning, and for this, PEARLS System indicators were selected since they are internationally recommended by WOCCU (Word Council of Credit Unions) as the most suitable for the evaluation of mutual credit cooperatives. The study used financial statements of 31 credit unions, either solvent or insolvent, disclosed by Central Bank of Brazil (BACEN) in 2010, for the State of Paraná. The insolvent cooperatives are those which stopped sending statements to the Central Bank, which in fact characterizes the operational discontinuity. This study considered a 10-year period, totaling 31 credit unions. The algorithms used in this work were RBFNetwork, MultilayerPerceptron and MultilayerPerceptronCS for Artificial Neural Networks and LibSVM for Support Vector Machine, all composing the Weka software, which is widely used in Data Mining and Machine Learning. The results of ANN and SVM showed the superiority of SVM for the binary classification of solvency evaluation. Its algorithm LibSVMs showed the best results in all performance evaluations proposed in this research, mainly by the F-Measure, which indicates that this algorithm was the best across the three groups of indicators. However, with respect to the rate of error of the negative class, the LibSVM showed lower performance than those ANNs, where the MultilayerPerceptron and MultilayerPerceptron algorithms had better indices for 27, 10 and 11 indicators in comparison with the LibSVM that achieved the same performance for 10 and 11 indicators. The Receiver Operating Characteristic (ROC) graph demonstrates that the neural network algorithms had the highest TP Rate and FP Rate, resulting in liberal models, while the LibSVM algorithm resulted in conservative models with good result for FP Rate but few high rates for TP Rate. The performance of classification of samples shown by the MultilayerPerceptron, MultilayerPerceptronCS and RBFNetwork Neural Networks was lower than the LibSVM. The best results achieved by algorithms are presented in the tables (performance indicators). The individual observation of each curve in the ROC graph suggests that even using only one neural network algorithm, the performance would still be better in the probability of classifying a new example as "true positive" (INSOLVENT). With respect to the number of PEARL System indicators recommended to assess the solvency of credit unions, this study demonstrated that there is no need to calculate all those 39 initial indicators or that spreadsheet with 27 adapted indicators. Only those 10 suggested by the market analysts were sufficient for the purpose of this study.
68

Utilização de data mining em um sistema de informação gerencial para o diagnóstico da formação de professores da graduação

Schenatz, Biancca Nardelli January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina. Programa de Pós-Graduação de Engenharia de Produção. / Made available in DSpace on 2013-07-16T01:11:50Z (GMT). No. of bitstreams: 1 224929.pdf: 3271607 bytes, checksum: 36c75285989898980b2259d7d98cd715 (MD5) / A inexistência de um Sistema de Informação Gerencial eficiente e a dificuldade em buscar informações em uma base de dados/cadastro de professores, de forma a permitir análises estratégicas, pode comprometer o processo decisório de uma instituição de ensino superior, principalmente para os profissionais que atuam diretamente com a formação continuada e qualificação dos docentes. Novas tecnologias envolvendo recursos de inteligência artificial e análises estatísticas, entre elas o Data Mining, vem de encontro às necessidades atuais das grandes organizações em obter informações que podem gerar um grande diferencial, numa velocidade maior do que as formas tradicionais, com o objetivo de encontrar facilidades na hora de utilizar estes dados na tomada de decisões. Um dos propósitos deste trabalho é o estudo sobre o processo de descoberta de conhecimento em uma base de dados, pelo desenvolvimento e implementação de um Sistema de Informação Gerencial que serve de suporte à tomada de decisões no processo de identificação e diagnóstico do perfil dos professores de graduação da Universidade Regional de Blumenau. A busca de novos padrões e relacionamento entre diferentes variáveis através da aplicação de técnicas de mineração de dados, mais especificamente algoritmos de árvores de decisão, demonstra que estas ferramentas são de grande utilidade na prospecção do conhecimento, comprovando sua importância na administração do ensino superior.
69

Arquitetura de informação para o gerenciamento de perdas comerciais de energia elétrica

Eller, Nery Artur January 2003 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-20T21:48:19Z (GMT). No. of bitstreams: 0 / As empresas distribuidoras de energia elétrica possuem como um forte item na queda de receita a perda comercial de energia. A perda global de energia é verificada pela diferença entre a energia requerida pelo sistema elétrico e a energia realmente faturada, e possui duas componentes: a perda técnica e a perda comercial. As perdas técnicas são aquelas associadas à passagem e à interação do fenômeno físico nos meios e materiais utilizados e nos efeitos daí resultantes. As perdas comerciais são motivadas principalmente por problemas apresentados na unidade de medição que influenciam a leitura, por fraudes cometidas no consumo de energia elétrica e por ligações clandestinas, realizadas diretamente no sistema de distribuição. São vários milhões de reais perdidos com perdas comerciais de energia, principalmente aquelas que envolvem fraudes. Somente em 2001, a Celesc - Centrais Elétricas de Santa Catarina S.A. recuperou R$ 1.967.716,90 com fraudes que foram descobertas. Para auxiliar no gerenciamento de perdas comerciais de energia elétrica propõe-se a presente arquitetura, que atuará principalmente na indicação de possíveis fraudadores. Esta arquitetura baseia-se na técnica de mineração de dados, que permite buscar esses consumos fraudados. Dentro da solução de mineração de dados, destaca-se o uso de redes neurais artificiais (RNA) para descobrir comportamentos suspeitos. Duas tarefas da RNA foram exploradas: classificação e segmentação. A classificação foi utilizada para se trabalhar com consumidores residenciais e comerciais, e a segmentação voltou-se a consumidores industriais. Destaca-se também, nesta arquitetura, a possibilidade de se calcular as perdas global, técnica e comercial por alimentador, de forma que se tenha um controle mais rígido e específico sobre elas. A partir do presente trabalho, abriram-se várias oportunidades para novas pesquisas.
70

Um método de tradução de fontes de informação em um formato padrão que viabilize a extração de conhecimento por meio de link analysis e teoria dos grafos

Bovo, Alessandro Botelho January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-21T11:16:53Z (GMT). No. of bitstreams: 1 214048.pdf: 2531808 bytes, checksum: b4579a715576cd7603a6b3238f14bd5e (MD5) / O conhecimento tem se configurado como um recurso estratégico nas organizações. Para elas, gerar, codificar, gerir e disseminar o conhecimento organizacional tornaram-se tarefas essenciais. Logo, é necessário o desenvolvimento de novas técnicas, metodologias e formas de extração de conhecimento a partir de fontes de informação que descrevem um domínio de aplicação. Nesse contexto, o objetivo do presente trabalho é propor um método que permita traduzir fontes de informação em um formato padrão de representação de relacionamentos entre elementos do domínio do problema, de forma a viabilizar a extração de conhecimento por meio da aplicação de Link Analysis e Teoria dos Grafos. Além disso, são apresentadas duas aplicações desse modelo na Plataforma Lattes de CT&I.

Page generated in 0.0853 seconds