• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3347
  • 195
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3545
  • 3130
  • 2816
  • 2814
  • 2810
  • 1929
  • 1048
  • 591
  • 508
  • 497
  • 483
  • 420
  • 401
  • 391
  • 369
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
491

Antecipando a usabilidade nas fases iniciais do processo de desenvolvimento de software

Valentim, Natasha Malveira Costa 24 March 2017 (has links)
Submitted by Geyse Carvalho (geyseccarvalho@hotmail.com) on 2017-06-22T15:30:10Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) v14_Tese_Doutorado_Natasha - versão final pós banca.pdf: 9990071 bytes, checksum: a3f6db08b7e7b981e9ffd173f91ec248 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-06-23T13:38:22Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) v14_Tese_Doutorado_Natasha - versão final pós banca.pdf: 9990071 bytes, checksum: a3f6db08b7e7b981e9ffd173f91ec248 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-06-23T13:38:35Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) v14_Tese_Doutorado_Natasha - versão final pós banca.pdf: 9990071 bytes, checksum: a3f6db08b7e7b981e9ffd173f91ec248 (MD5) / Made available in DSpace on 2017-06-23T13:38:35Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) v14_Tese_Doutorado_Natasha - versão final pós banca.pdf: 9990071 bytes, checksum: a3f6db08b7e7b981e9ffd173f91ec248 (MD5) Previous issue date: 2017-03-24 / CAPES / Recent researches tried to improve the degree of usability in the early stages of the application’s process development, the so called “Early Usability”. Part of the proposed technologies is intended to evaluate usability through models elaborated in the initial phases of the application development process. This type of technology aims to present a good level of efficiency and effectiveness, besides offering an user satisfaction and reducing development time. Other technologies create/design these models already targeting the usability of the final application. However, these technologies have been developed independently and for specific models, besides requiring a greater knowledge in usability on the part of those who apply them. Thus, in this research, we proposed a set of technologies (methods, techniques, tools, processes, among others) which assists in creating and evaluating models addressing the usability of the application with emphasis in the early stages of development process. This set of technologies allows the identification of a higher number of usability problems already in the early stages, compared to conventional approaches. In conventional approaches, the identification of usability problems is performed in independent models, that is, or it is performed in models specific to a particular context, such as web models, or it is performed when the software is ready. Therefore, the proposed set of technologies encompasses a higher number of models, is not context-specific, and supports software professionals with little usability knowledge to build/evaluate early-stage models. In addition, the set of technologies guides both software engineers and usability engineers to avoid usability problems more proactively in its development projects, because this professionals can build their models already aiming at the usability of the application. With this, we hope to improve the software quality and to decrease the cost of correcting usability problems before the source code is written. / Pesquisas recentes têm objetivado melhorar o grau de usabilidade nas fases iniciais do processo de desenvolvimento de aplicações, a chamada "Early Usability". Parte das tecnologias propostas destina-se a avaliar a usabilidade através de modelos das fases iniciais do processo de desenvolvimento das aplicações. Este tipo de tecnologia visa apresentar bom nível de eficiência e eficácia, além de oferecer uma satisfação do usuário e redução do tempo de desenvolvimento. Outra parte destas tecnologias cria/projeta estes modelos já visando à usabilidade da aplicação final. No entanto, estas tecnologias têm sido desenvolvidas de forma independente e para modelos específicos, além de exigir um maior conhecimento em usabilidade por parte de quem as aplica. Deste modo, nesta pesquisa, propôs-se um conjunto de tecnologias (métodos, técnicas, ferramentas e processos, dentre outros) que auxilia na criação e avaliação de modelos visando à usabilidade da aplicação com ênfase nos estágios iniciais do processo de desenvolvimento. Este conjunto de tecnologias permite a identificação de um maior número de problemas de usabilidade já nas fases iniciais, se comparado às abordagens convencionais. Nas abordagens convencionais a identificação de problemas de usabilidade é realizada em modelos independentes, ou seja, ou é realizada em modelos específicos para um determinado contexto, como modelos web, ou é realizada quando o software está pronto. Portanto, o conjunto de tecnologias proposto abrange uma maior quantidade de modelos, não é específico para uma contexto e apoia profissionais de software com pouco conhecimento em usabilidade a construir/avaliar modelos das fases iniciais. Além disso, o conjunto de tecnologias orienta tanto engenheiros de software quanto engenheiros de usabilidade a evitar problemas de usabilidade de maneira mais proativa em seus projetos de desenvolvimento, pois eles poderão construir seus modelos já visando à usabilidade da aplicação. Com isso, espera-se contribuir para a melhoria da qualidade do software desenvolvido e diminuição do custo de correção de problemas de usabilidade antes que o código fonte seja escrito.
492

Vericação funcional de sistemas digitais utilizando algoritmos genéticos na geração de dados aplicada a metodologia veriSC / Functional verification of digital systems using genetic algorithms in data generation applied to VeriSC methodology

Franco, Ricardo Augusto Pereira 26 November 2014 (has links)
Submitted by Cláudia Bueno (claudiamoura18@gmail.com) on 2015-12-09T14:35:23Z No. of bitstreams: 2 Dissertação - Ricardo Augusto Pereira Franco - 2014.pdf: 1054078 bytes, checksum: 1f76acc442745cd5dc0a7e159485a061 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-12-10T06:30:38Z (GMT) No. of bitstreams: 2 Dissertação - Ricardo Augusto Pereira Franco - 2014.pdf: 1054078 bytes, checksum: 1f76acc442745cd5dc0a7e159485a061 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-12-10T06:30:38Z (GMT). No. of bitstreams: 2 Dissertação - Ricardo Augusto Pereira Franco - 2014.pdf: 1054078 bytes, checksum: 1f76acc442745cd5dc0a7e159485a061 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-11-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The process of creating an Intellectual Property Core (IP-core) has become more complex with the advent of electronic circuit technology, encouraging the development of new techniques and methodologies to assist this process. A fundamental and critical stage of a hardware design is the hardware verification phase. At this phase it is verified that the IP-core was implemented according to their specification, ensuring that it is feasible to prototyping and their large-scale production (System on Chip). The verification phase corresponds to the biggest bottleneck in a hardware design (BERGERON,2006). The VeriSC methodology is an implemented methodology to perform the hardware verifi- cation through simulation, that is, by means of functional verification. This work aims to complement the VeriSC methodology through the development of an algorithm based on the concept of Genetic Algorithms (GAs). The proposed algorithm will modify the data generation of this methodology, whose objective is to reduce the verification time and to improve the generated data by changing the data from pseudorandom mode to random-guided mode, increasing the reliability of the verification performed by the VeriSC methodology. The algorithm has a generic part (templates) that helps the implementation of new environment for the functional verification of new DUVs and it can be incorpo- rated into other functional verification methodologies. Finally, are presented three case studies, the stimuli created using GA are compared with the old implementation of VeriSC methodology. / O processo de criação de um Intellectual Property Core (IP-core) vem se tornando cada vez mais complexo com o advento da tecnologia dos circuitos eletrônicos, incentivando o desenvolvimento de novas técnicas e metodologias que auxiliem esse processo. Uma das fases fundamentais e críticas de um projeto de hardware é a fase de verificação de hardware. É nesta fase que se verifica se o IP-core foi implementado de acordo com sua especificação, garantindo que seja viável sua prototipação e, posteriormente, sua produção em larga escala (System on Chip). A fase de verificação corresponde ao maior gargalo dentro de um projeto de hardware (BERGERON,2006). A metodologia VeriSC é uma metodologia desenvolvida para realizar a verificação de hardware através da simulação, isto é, por meio da verificação funcional. Este trabalho visa complementar a metodologia VeriSC por meio do desenvolvimento de um algoritmo baseado no conceito de Algoritmos Genéticos (AGs). O algoritmo proposto ira modificar a geração de dados dessa metodologia objetivando reduzir o tempo de verificação e aprimorar os dados gerados, alterando a geração de dados da forma pseudoaleatória para aleatória- guiado, aumentando, assim, a confiabilidade da verificação realizada pela metodologia VeriSC. O algoritmo possui partes genéricas (templates ) que facilita sua implementação na verificação de novos projetos de hardware e pode ser incorporado em outras metodologias de verificação funcional. Por fim, serão apresentados os resultados experimentais da aplicação da nova geração de dados em três estudos de casos, comparando-os com a implementação antiga da metodologia VeriSC.
493

Uma proposta para automatização do monitoramento da interceptação luminosa em pastagens utilizando uma rede de sensores sem fio de baixo custo / A proposal for monitoring automating of interception of light in pastures using a network sensors of low costwireless

Silva, Victor Ribeiro 13 February 2014 (has links)
Submitted by Marlene Santos (marlene.bc.ufg@gmail.com) on 2014-11-05T20:06:05Z No. of bitstreams: 2 Dissertacao - Victor Ribeiro Silva - 2014.pdf: 7418797 bytes, checksum: 1f1e74ebd9bcbee3edad628e799ca9e6 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2014-11-06T11:00:25Z (GMT) No. of bitstreams: 2 Dissertacao - Victor Ribeiro Silva - 2014.pdf: 7418797 bytes, checksum: 1f1e74ebd9bcbee3edad628e799ca9e6 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2014-11-06T11:00:25Z (GMT). No. of bitstreams: 2 Dissertacao - Victor Ribeiro Silva - 2014.pdf: 7418797 bytes, checksum: 1f1e74ebd9bcbee3edad628e799ca9e6 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-02-13 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / A wireless sensor network was used to monitor the light interception in pastures. The focusoftheworkwastheconstructionofalightmeterlowcostasaalternativetotheLICORLI-1776,high-costequipmentcurrentlyusedbyEmbrapa,andalsotheconstruction ofasensornodethatfunctionedproperlyinpastures,withouttheneedforskilledlaborto operateit. It have been analysed prototypes of luminosity meters of existing low cost and proposed ameter,withitscorrespondingsensor node , suitable low cost. This work presents theoretical and practical studies, implementing two prototypes of sensor nodesusingthephotoelectriccomponentphotodiodeS7686. Tests were performed and evaluated experimentally the performance of a wireless sensor network with star topology. In these tests, the proposed network showed the expected resultsandtheprototypedevelopedshowedsatisfactoryresultswithrespecttothecostof its production. / Uma rede de sensores sem fio foi utilizada para o monitoramento da interceptação luminosa em pastagens. O foco do trabalho foi a construção de um medidor de luminosidade debaixocustocomoalternativaaoLI-CORLI-1776,equipamentodealtocustoutilizado atualmente pela Embrapa, e também a construção de um nó sensor que funcionasse de maneiraadequadaempastagens,semteranecessidadedeumamãodeobraespecializada paraoperá-lo. Foram analisados os protótipos de medidores de luminosidade de baixo custo existentes epropostoummedidor,com seu respectivo nó sensor, de baixo custo adequado. Estetrabalhoapresentaestudosteóricosepráticos,implementandodoisprotótiposdenós sensores queutilizamocomponente fotoelétricofotodiodoS7686. Foram realizados testes e avaliado experimentalmente o desempenho de uma rede de sensores sem fio com topologia estrela. Nestes testes, a rede proposta apresentou os resultados esperados e protótipo desenvolvido apresentou resultados satisfatórios com relaçãoaocustodesuaprodução.
494

Algoritmos baseados em estratégia evolutiva para a seleção dinâmica de espectro em rádios cognitivos / Algorithms based on evolutionary strategy for dynamic spectrum selection in cognitive radios

Barbosa, Camila Soares 22 November 2013 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2014-11-28T12:18:45Z No. of bitstreams: 2 Dissertação - Camila Soares Barbosa - 2013.pdf: 840210 bytes, checksum: a7c84142e9c6b7a669f16d9057771acf (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2014-11-28T13:14:26Z (GMT) No. of bitstreams: 2 Dissertação - Camila Soares Barbosa - 2013.pdf: 840210 bytes, checksum: a7c84142e9c6b7a669f16d9057771acf (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2014-11-28T13:14:26Z (GMT). No. of bitstreams: 2 Dissertação - Camila Soares Barbosa - 2013.pdf: 840210 bytes, checksum: a7c84142e9c6b7a669f16d9057771acf (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2013-11-22 / One of the main challenges in Dynamic Spectrum Selection for Cognitive Radios is the choice of the frequency range for each transmission. This choice should minimize interference with legacy devices and maximize the discovering opportunities or white spaces. There are several solutions to this issue, and Reinforcement Learning algorithms are the most successful. Among them stands out the Q-Learning whose weak point is the parameterization, since adjustments are needed in order to reach successfully the proposed objective. In that sense, this work proposes an algorithm based on evolutionary strategy and presents the main characteristics adaptability to the environment and fewer parameters. Through simulation, the performance of the Q-Learning and the proposal of this work were compared in different scenarios. The results allowed to evaluate the spectral efficiency and the adaptability to the environment. The proposal of this work shows promising results in most scenarios. / Um dos principais desafios da Seleção Dinâmica de Espectro em Rádios Cognitivos é a escolha da faixa de frequência para cada transmissão. Essa escolha deve minimizar a interferência em dispositivos legados e maximizar a descoberta das oportunidades ou espaços em branco. Há várias soluções para essa questão, sendo que algoritmos de Aprendizado por Reforço são as mais bem sucedidas. Entre eles destaca-se o Q-Learning, cujo ponto fraco é a parametrização, uma vez que ajustes são necessários para que se alcance, com sucesso, o objetivo proposto. Nesse sentido, este trabalho propõe um algoritmo baseado em Estratégia Evolutiva e apresenta como características principais a adaptabilidade ao ambiente e a menor quantidade de parâmetros. Através de simulação, o desempenho do Q-Learning e da proposta deste trabalho foram comparados em diversos cenários. Os resultados obtidos permitiram avaliar a eficiência espectral e a adaptabilidade ao ambiente. A proposição deste trabalho apresentou resultados promissores na maioria dos cenários.
495

Algoritmo evolutivo de cromossomo duplo para calibração multivariada / Evolutive algorithm based on double chromosome for multivariate calibration

Santiago, Kelton de Sousa 05 March 2013 (has links)
Submitted by Marlene Santos (marlene.bc.ufg@gmail.com) on 2014-11-28T19:44:35Z No. of bitstreams: 2 Dissertação - Kelton de Sousa Santiago - 2013.pdf: 1524155 bytes, checksum: d6ef69ca7d54266b0df3f43d6f5a6ced (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2014-12-04T14:17:43Z (GMT) No. of bitstreams: 2 Dissertação - Kelton de Sousa Santiago - 2013.pdf: 1524155 bytes, checksum: d6ef69ca7d54266b0df3f43d6f5a6ced (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2014-12-04T14:17:43Z (GMT). No. of bitstreams: 2 Dissertação - Kelton de Sousa Santiago - 2013.pdf: 1524155 bytes, checksum: d6ef69ca7d54266b0df3f43d6f5a6ced (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2013-03-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / samples and variables selection simultaneously. The algorithmic methods combination for selecting samples and variables in the multivariate calibration aims to building an effective model for predicting the concentration of a certain interest property. As study case uses data acquired by a material analysis with near infrared waves (NIR) on wheat samples in order to estimate the proteins concentration. The algorithms for selection samples as the random number generator (RNG), KennardStone (KS), sample set partitioning based on joint X and Y (SPXY) were used in conjunction with successive projection algorithms (SPA) and partial least square algorithm (PLS) for selection of variables in order to obtain results that can be used for comparison basis with the proposed algorithm AGCD results obtained. The presented results by samples selection algorithms (GNA, KS and SPXY) were too close,butwhenusedtogetherwithvariableselectionalgorithms(SPAandPLS)theresults were better in RMSEP terms. TheAGCDachievedsignificantlybetterresultscomparedtotheotherstestedalgorithms, reaching an improvement of 97% in comparison with the KS algorithm and an improvement of 63% over SPXY-PLS algorithm, which further approached the AGCD results. / Este trabalho propõe o uso de um algoritmo genético de cromossomo duplo (AGCD) paraaseleçãodeamostrasedevariáveisdeformasimultânea.Aassociaçãodosmétodos algoritmicos para a seleção de amostras e variáveis na calibração multivariada busca a construção de um modelo eficaz para a predição da concentração de uma determinada propriedade de interesse. Como estudo de caso utiliza-se dados adquiridos por uma análise de material com ondas de infravermelho próximo (NIR) sobre amostras de trigo com o propósito de estimar a concentração de proteínas existentes. Os algoritmos de seleção de amostras como o gerador de números aleatórios (GNA), Kennard-Stone(KS),particionamentodeconjuntodeamostrasbaseadanadistânciadeX e Y (SPXY) foram utilizados em conjunto aos algoritmos de projeção sucessivas (SPA) e o algoritmo de mínimos quadrados parciais (PLS) para seleção de variáveis, a fim de se obter resultados que sirvam como base de comparação com os resultados obtidos pelo algoritmo AGCD proposto. Os resultados apresentados pelos algoritmos de seleção de amostras (GNA, KS e SPXY) semostrarambastantepróximos,masquandoutilizadosjuntamentecomosalgoritmosde seleção de variáveis (SPA e PLS) seus resultados foram melhores em termos de RMSEP. O algoritmo evolutivo de cromossomo duplo (AGCD) alcançou resultados significativamentemelhoresemcomparaçãoaosdemaisalgoritmostestados,atingindoumamelhoria de 97% em comparação com o algoritmo KS e uma melhoria de 63% sobre o algoritmo SPXY-PLS, o que mais se aproximou dos resultados do AGCD.
496

Processamento distribuído da junção espacial de múltiplas bases de dados: multi-way spatial join

Cunha, Anderson Rogério 19 February 2014 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2014-12-29T15:33:04Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2014-12-29T15:39:23Z (GMT) No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5) / Made available in DSpace on 2014-12-29T15:39:23Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5) Previous issue date: 2014-02-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Spatial join is one of the spatial operations of higher computational cost. Its complexity increases significantly when it involves multiple databases (multi-way spatial join). Traditional processing strategies of multi-way spatial join apply combinations of binary join algorithms on centralized computing environments. For complex queries, this approach requires much computational power, making it often unfeasible in centralized environments. This work proposes the Distributed Synchronous Traversal algorithm (DST), whose goal is to enable the distributed processing of multi-way spatial joins on a cluster of computers. The DST algorithm is based on Synchronous Traversal algorithm and processes the multiway spatial join in a single synchronous descent upon R-Trees levels of the database entries (the final outcome is built incrementally, without creating temporary databases). To the best of our knowledge, there are no other proposals in the literature that deal with this problem in a distributed fashion and on a peer-to-peer architecture. Many challenges had to be overcome, such as the definition of data structures that enabled the mapping of the semantics of queries of multi-way spatial join and coordination of the required distributed processing. DST proved to be satisfactorily parallelizable and scalable process real datasets in experiments performed in clusters of 1, 2, 4 and 8 servers. / A junção espacial (Spatial Join) é uma das operações espaciais de maior custo computacional. Sua complexidade aumenta significativamente quando envolve múltiplas bases de dados (multi-way spatial join). Estratégias tradicionais de processamento do multi-way spatial join aplicam combinações de algoritmos de junção binária sobre ambientes computacionais centralizados. Em consultas complexas, esse tipo de abordagem exige grande capacidade computacional muitas vezes inviável em ambientes centralizados. Neste trabalho é proposto o algoritmo Distributed Synchronous Traversal (DST), cujo objetivo é tornar viável a execução distribuída do multi-way spatial join em um cluster de computadores. O DST se baseia no algoritmo Synchronous Traversal e processa o multiway spatial join em uma única descida síncrona sobre os níveis das R-Trees das bases de dados de entrada. O resultado final é construído incrementalmente, sem a consolidação de dados intermediários. Até onde conhecemos, não há outras propostas na literatura para multi-way spatial join distribuído sobre uma arquitetura peer-to-peer. Muitos desafios tiveram que ser superados, como a definição de estruturas de dados que possibilitassem o mapeamento da semântica das consultas de multi-way spatial join e a coordenação do processamento distribuído das mesmas. O DST se mostrou satisfatoriamente paralelizável e escalável ao processar bases de dados reais em clusters de até 8 servidores.
497

Estudo exploratório do uso de classificadores para a predição de desempenho e abandono em universidade

Motta, Porthos Ribeiro de Albuquerque 20 October 2016 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2016-12-02T15:54:04Z No. of bitstreams: 2 Dissertação - Porthos Ribeiro de Albuquerque Motta - 2016.pdf: 10397634 bytes, checksum: 0610600c9a91143c40d1c6d22a401524 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Jaqueline Silva (jtas29@gmail.com) on 2016-12-13T15:28:18Z (GMT) No. of bitstreams: 2 Dissertação - Porthos Ribeiro de Albuquerque Motta - 2016.pdf: 10397634 bytes, checksum: 0610600c9a91143c40d1c6d22a401524 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-12-13T15:28:18Z (GMT). No. of bitstreams: 2 Dissertação - Porthos Ribeiro de Albuquerque Motta - 2016.pdf: 10397634 bytes, checksum: 0610600c9a91143c40d1c6d22a401524 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-10-20 / Educational Data Mining, by the triad of quality improvement, cost reduction and educational effectiveness, acts and seeks to better understand the teaching and learning process. In this context, the aim of this work is an exploratory study of classification methods to predict student performance and dropout from data in university academic databases. In this study we used demographic, socio-economic and academic results, obtained from the Vestibular and the university database to analyze several classification techniques, as well as balancing and attribute selection techniques, identified through a systematic review of the literature. Following a trend found in the selected articles, we chose to use decision trees as the primary classification algorithm, although comparative studies showed better results with logistic regression techniques and Bayesian networks. This is because decision trees allow an analysis of the attributes used in the generated models while maintaining acceptable levels of accuracy, while other techniques work as a black box. Through the tests we found that you get better results using balanced sets. In this sense, the Resample technique that selects a balanced subset of the data showed better results than SMOTE technique that generates synthetic data for balancing the dataset. Regarding the use of attribute selection techniques, these did not bring significant advantages. Among the attributes used, grades and economic factors often appear as nodes in the generated models. An attempt to predict performance for each subject based on data from previous courses was less successful, maybe because of the use of ternary predictive classes. Nevertheless, the analysis carried out showed that the use of classifiers is a promising way to predict performance and dropout, but further studies are still needed. / A Mineração de Dados Educacionais, por meio da tríade melhoria da qualidade, redução do custo e eficácia do ensino, age e procura compreender melhor o processo de ensinoaprendizagem dos alunos. Neste contexto, o objetivo desta dissertação é o estudo exploratório de métodos de classificação para predizer o desempenho e o abandono de alunos a partir de dados existentes nas bases de dados acadêmicas das universidades. Neste trabalho foram usados dados demográficos, sócio-econômicos e resultados acadêmicos, oriundos do Vestibular e do banco de dados acadêmico da universidade para analisar diversas técnicas de classificação, assim como técnicas de balanceamento e seleção de atributos identificadas através de uma revisão sistemática da literatura. Seguindo uma tendência verificada nos artigos levantados, optou-se por utilizar como principal algoritmo de classificação o J48, apesar de estudos comparativos terem mostrado melhores resultados com técnicas de regressão logística e redes Bayesianas. Isto se deve ao fato das árvores de decisão permitirem uma análise dos atributos usados nos modelos gerados, mantendo ní- veis de acurácia aceitáveis, enquanto as outras técnicas funcionam como uma caixa preta. Neste sentido, a técnica de Resample, que escolhe um subconjunto balanceado dos dados, apresentou melhores resultados que a técnica de SMOTE, que gera dados sintéticos para balancear os dados. Quanto ao uso de técnicas de seleção de atributos, estas não trouxeram vantagens significativas. Dentre os atributos usados, notas e aspectos econômicos aparecem com frequência nos modelos gerados. Uma tentativa de prever desempenho por disciplina, com base em dados de disciplinas já cursadas em semestres anteriores foi menos bem sucedida, talvez pelo fato de usar classes preditoras ternárias. Apesar disto, as análises realizadas mostraram que o uso de classificadores é um caminho promissor para a predição de desempenho e abandono, mas estudos mais aprofundados ainda são necessários
498

Desenvolvimento de técnicas de pré-processamento de radiografias digitais de tórax infantil : uma abordagem orientada a segmentação para sistemas de diagnóstico assistido por computador / Development of digital chest x-ray preprocessing techniques : a segmentation-oriented approach to computer-aided diagnostic systems

Fonseca, Afonso Ueslei da 27 March 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-04-05T17:19:40Z No. of bitstreams: 2 Dissertação - Afonso Ueslei da Fonseca - 2017.pdf: 9310150 bytes, checksum: 0fc9668df93eccbc288295e41256b328 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-04-06T11:07:11Z (GMT) No. of bitstreams: 2 Dissertação - Afonso Ueslei da Fonseca - 2017.pdf: 9310150 bytes, checksum: 0fc9668df93eccbc288295e41256b328 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-04-06T11:07:11Z (GMT). No. of bitstreams: 2 Dissertação - Afonso Ueslei da Fonseca - 2017.pdf: 9310150 bytes, checksum: 0fc9668df93eccbc288295e41256b328 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-03-27 / According to the World Health Organization (WHO), more than 900,000 children, younger than five years old, have died in 2015 due to pneumonia. Many of these deaths could be avoided with earlier and more accurate diagnosis to provide proper medicine administration. Chest radiography is one of the most recommended test by the WHO in order to detect childhood pneumonia, and it is commonly used in computer aided diagnostic (CAD) systems. A science role is to develop systems that require a more precise medical diagnosis and treatment cost reducing, but mainly death rate decreasing. It is highlighted that quality radiography demands equipments very well installed and calibrated and staff trained to handle them. However, due limited budget resources, mainly in most vulnerable areas, the image quality is significantly damaged, so turning the medical diagnosis harder. Therefore, this work presents a method composed of a set of preprocessing techniques for pediatric radiography. These techniques intend to have simple implementation and low computational cost. The main goal of this work is to increase performance, accuracy and robustness of CAD systems, to improve database standardization and also to collaborate with the professionals training. Thus, techniques were developed, such as, visual quality enhancement, removal of unnecessary or confidential information, reconstruction of degraded areas due to the information removal, orientation correction and definition of a region of interest. All techniques were evaluated using a children chest X-ray database divided into three classes and results show significantly improve when compared to methods presented in literature. We expect these contributions will assist to development and improvement of new systems, construction of more standardized databases, staff training and the development of new techniques. / Segundo a Organização Mundial de Saúde (OMS) mais de 900 mil crianças, menores de cinco anos, foram a óbito em 2015, devido a pneumonia. Muitas dessas mortes poderiam ser evitadas com um diagnóstico mais preciso, precoce e com correta administração de medicamentos. A radiografia de tórax é um dos exames preconizados para detecção de pneumonia pela OMS, sendo comumente usada em sistemas de diagnóstico assistido por computador (CAD). Desenvolver sistemas que apoiem diagnóstico médico mais preciso, reduzam custos de tratamento e principalmente diminuam o número de óbitos é um papel da ciência. Destaca-se que radiografias de qualidade requerem equipamentos devidamente instalados/calibrados e pessoal capacitado para opera-los. Todavia, dado os recursos financeiros limitados, principalmente em áreas mais vulneráveis, a qualidade das imagens fica significativamente comprometida, dificultando o trabalho de diagnóstico pelo médico. Assim, este trabalho traz um método composto por técnicas de pré-processamento de radiografias de tórax pediátricas. As técnicas foram idealizadas para serem de simples implementação e baixo custo computacional. Os principais objetivos do trabalho são promover ganho de performance, acurácia e robustez aos sistemas CAD, favorecer a construção de bases de imagens padronizadas e além disso colaborar com o treinamento de profissionais de saúde. Para atingir esses objetivos foram desenvolvidas técnicas de melhoria da qualidade visual, remoção de informações desnecessárias ou confidenciais e reconstrução das áreas degradadas decorrente da remoção dessas informações, correção de orientação e definição de regiões de interesse. Esse método foi avaliado utilizando uma base de radiografias de tórax infantil divida em três classes e resultados mostram ganhos significativos em comparação a métodos presentes na literatura. Espera-se que essas contribuições favoreçam o aperfeiçoamento de sistemas, construção de bases mais padronizadas, treinamento de profissionais e surgimento de novas técnicas.
499

Metodologia Fuzzy aplicada ao triângulo de Duval para o diagnóstico de transformadores de potência por meio de análise de gases dissolvidos / Fuzzy methodology applied to the Duval triangle for the diagnosis of power transformers through the analysis of dissolved gases

Veloso, Diogo Pereira 17 February 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-04-10T18:58:09Z No. of bitstreams: 2 Dissertação - Diogo Pereira Veloso - 2017.pdf: 3906692 bytes, checksum: 8d731c4df11a717552eb2bbe8b58f5ea (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-04-11T12:52:13Z (GMT) No. of bitstreams: 2 Dissertação - Diogo Pereira Veloso - 2017.pdf: 3906692 bytes, checksum: 8d731c4df11a717552eb2bbe8b58f5ea (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-04-11T12:52:13Z (GMT). No. of bitstreams: 2 Dissertação - Diogo Pereira Veloso - 2017.pdf: 3906692 bytes, checksum: 8d731c4df11a717552eb2bbe8b58f5ea (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-02-17 / Power transformers are essential equipment in eletric systems. Considered as highly expensive equipment it requires greater attention regarding the occurrence of failures. A failure on equipment can cause serious trouble to the concessionaire responsible for the generation, transmission and distribution of energy. In the present scenario, where legislation has increased the severity with which oversees these failures and demanding a higher efficiency of the same, it is necessary to create appropriate policies to investigas possible equipment failure. These failures can be caused by several factors, among them, the gases dissolved in the oil due to its degeneration. One of the most used techniques for the diagnosis of power transformers from these dissolved gases is the Duval Triangle, a method that has a precision and considerably high reliability. However, for proper planning of maintenance, avoiding a possible sudden withdrawal and supply cut, it is necessary to provide further information, including a quantitative analysis of the causes of failure and a history of the evolution of the operating status of the machine. To this end it is proposed to use a fuzzy logic by the method of Duval to provide an analysis of the transitions between the diagnostic originally presented to enable monitor the level of relevance of each possible cause for the diagnosis equipment allowing perform scheduled and preventive maintenance. The proposed methodology was validated using real data equipment in operation in the brazilian electric system. / Transformadores de potência são equipamentos essenciais em um sistema elétrico. São considerados equipamentos de alto custo que requerem uma maior atenção no que tange a ocorrência de falhas. Uma falha em um equipamento pode causar sérios prejuízos à concessionária responsável pela geração, transmissão e distribuição de energia. No cenário atual, onde a legislação vem sempre aumentado o rigor com que fiscaliza essas falhas e cobrando uma maior eficiência das mesmas, faz-se necessário criar políticas adequadas para investigas possíveis falhas nos equipamentos. Falhas essas que podem ser originadas por diversos fatores, dentre eles, pelos gases dissolvidos no óleo devido a sua degeneração. Um dos métodos mais utilizados para diagnóstico de transformadores de potência é a análise de gases dissolvidos utilizando o Triângulo de Duval, que apresenta uma precisão e confiabilidade consideravelmente altas. No entanto, para um planejamento adequado de manutenção, evitando uma possível retirada brusca do equipamento e corte no fornecimento, é necessário prover mais informações, incluindo uma análise quantitativa das causas das falhas e um histórico da evolução do estado operativo do equipamento. Para tanto propõe-se a utilização de uma lógica fuzzy junto ao método de Duval para fornecer uma análise das transições entre os diagnósticos apresentados originalmente de forma a permitir acompanhar a evolução do nível de pertinência de cada possível causa no diagnóstico do equipamento, possibilitando realizar manutenções programadas e preventivas. A metodologia proposta foi validada utilizando dados reais de equipamentos em operação no sistema slétrico brasileiro.
500

Um modelo analítico para estimar o consumo de energia de sistemas multi-camadas no nível de transação / An analytical model to estimate the energy consumption on multi-tier system at a fine-grained level

Ferreira, Alex Rabelo 25 April 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-05-19T17:06:06Z No. of bitstreams: 2 Dissertação - Alex Rabelo Ferreira - 2017.pdf: 1520702 bytes, checksum: 4d6d16d4b1045c459e8d23fc2f6a4c69 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-05-22T10:41:24Z (GMT) No. of bitstreams: 2 Dissertação - Alex Rabelo Ferreira - 2017.pdf: 1520702 bytes, checksum: 4d6d16d4b1045c459e8d23fc2f6a4c69 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-05-22T10:41:24Z (GMT). No. of bitstreams: 2 Dissertação - Alex Rabelo Ferreira - 2017.pdf: 1520702 bytes, checksum: 4d6d16d4b1045c459e8d23fc2f6a4c69 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-04-25 / Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq / In large-scale data centers, power management techniques such as Dynamic Voltage/Frequency Scaling (DVFS), virtual machine consolidation, and power-capping mechanisms promise impressive energy savings compared to traditional resource management strategies. Most of these techniques rely on coarse-grained monitoring of the workload behavior to apply their optimizations. However, coarse-grained monitoring and black box observations are not satisfactory for predicting the behavior of bursty workloads such as those observed in enterprise, Web servers. In this work, we propose an analytical model to estimate the energy consumption of multi-tier Web Systems. Differently from previous works, our model captures the consumption pattern at the level of fine-grained transactions and for each tier of the system. In addition, our model is based only on CPU utilization and server architectural parameters, which can be easily obtained in today’s production environments. We demonstrate the effectiveness of our model in a real-world experimentation environment, based on the TPC-W benchmark. Results show that our model is able to estimate the energy consumption for a Web system with an average relative error of 6.5% in the worst-case scenario, whereas more complex models of the literature present errors within the same order of magnitude. / Em grandes centros de dados, técnicas de gerenciamento de energia como Dynamic Voltage/Frequency Scaling (DVFS), consolidação de máquinas virtuais e mecanismos de limitação de energia prometem grande economia de energia quando comparados a métodos tradicionais de gerenciamento de recursos. A maioria dessas técnicas utilizam mecanismos caixas-pretas para monitorar o comportamento da carga de trabalho. Contudo, esse tipo de monitoramento não é satisfatório para prever os fenômenos de rajadas, comumente encontrados em serviços e aplicações Web. Neste trabalho, propomos um modelo analí- tico para estimar o consumo de energia de Sistemas Web multi-camadas. Diferentemente de outros trabalhos, nosso modelo captura o padrão de consumo desses sistemas na granularidade de transações e para cada camada do sistema. Além disso, nosso modelo se baseia apenas na utilização de CPU e em parâmetros arquiteturais do servidor, os quais podem ser facilmente obtidos nos ambientes de produção atuais. Demonstramos a efetividade do nosso modelo em um ambiente de experimentação real, baseado no benchmark TPC-W. Os resultados obtidos mostram que nosso modelo é capaz de estimar o consumo de energia para um sistema Web com um erro relativo médio de 6,5% para o pior cenário, enquanto modelos mais complexos da literatura apresentam erros com a mesma ordem de grandeza.

Page generated in 0.0948 seconds