Spelling suggestions: "subject:"(computacao)"" "subject:"(imputacao)""
491 |
Antecipando a usabilidade nas fases iniciais do processo de desenvolvimento de softwareValentim, Natasha Malveira Costa 24 March 2017 (has links)
Submitted by Geyse Carvalho (geyseccarvalho@hotmail.com) on 2017-06-22T15:30:10Z
No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
v14_Tese_Doutorado_Natasha - versão final pós banca.pdf: 9990071 bytes, checksum: a3f6db08b7e7b981e9ffd173f91ec248 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-06-23T13:38:22Z (GMT) No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
v14_Tese_Doutorado_Natasha - versão final pós banca.pdf: 9990071 bytes, checksum: a3f6db08b7e7b981e9ffd173f91ec248 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-06-23T13:38:35Z (GMT) No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
v14_Tese_Doutorado_Natasha - versão final pós banca.pdf: 9990071 bytes, checksum: a3f6db08b7e7b981e9ffd173f91ec248 (MD5) / Made available in DSpace on 2017-06-23T13:38:35Z (GMT). No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
v14_Tese_Doutorado_Natasha - versão final pós banca.pdf: 9990071 bytes, checksum: a3f6db08b7e7b981e9ffd173f91ec248 (MD5)
Previous issue date: 2017-03-24 / CAPES / Recent researches tried to improve the degree of usability in the early stages of the application’s process development, the so called “Early Usability”. Part of the proposed technologies is intended to evaluate usability through models elaborated in the initial phases of the application development process. This type of technology aims to present a good level of efficiency and effectiveness, besides offering an user satisfaction and reducing development time. Other technologies create/design these models already targeting the usability of the final application. However, these technologies have been developed independently and for specific models, besides requiring a greater knowledge in usability on the part of those who apply them. Thus, in this research, we proposed a set of technologies (methods, techniques, tools, processes, among others) which assists in creating and evaluating models addressing the usability of the application with emphasis in the early stages of development process. This set of technologies allows the identification of a higher number of usability problems already in the early stages, compared to conventional approaches. In conventional approaches, the identification of usability problems is performed in independent models, that is, or it is performed in models specific to a particular context, such as web models, or it is performed when the software is ready. Therefore, the proposed set of technologies encompasses a higher number of models, is not context-specific, and supports software professionals with little usability knowledge to build/evaluate early-stage models. In addition, the set of technologies guides both software engineers and usability engineers to avoid usability problems more proactively in its development projects, because this professionals can build their models already aiming at the usability of the application. With this, we hope to improve the software quality and to decrease the cost of correcting usability problems before the source code is written. / Pesquisas recentes têm objetivado melhorar o grau de usabilidade nas fases iniciais do processo de desenvolvimento de aplicações, a chamada "Early Usability". Parte das tecnologias propostas destina-se a avaliar a usabilidade através de modelos das fases iniciais do processo de desenvolvimento das aplicações. Este tipo de tecnologia visa apresentar bom nível de eficiência e eficácia, além de oferecer uma satisfação do usuário e redução do tempo de desenvolvimento. Outra parte destas tecnologias cria/projeta estes modelos já visando à usabilidade da aplicação final. No entanto, estas tecnologias têm sido desenvolvidas de forma independente e para modelos específicos, além de exigir um maior conhecimento em usabilidade por parte de quem as aplica. Deste modo, nesta pesquisa, propôs-se um conjunto de tecnologias (métodos, técnicas, ferramentas e processos, dentre outros) que auxilia na criação e avaliação de modelos visando à usabilidade da aplicação com ênfase nos estágios iniciais do processo de desenvolvimento. Este conjunto de tecnologias permite a identificação de um maior número de problemas de usabilidade já nas fases iniciais, se comparado às abordagens convencionais. Nas abordagens convencionais a identificação de problemas de usabilidade é realizada em modelos independentes, ou seja, ou é realizada em modelos específicos para um determinado contexto, como modelos web, ou é realizada quando o software está pronto. Portanto, o conjunto de tecnologias proposto abrange uma maior quantidade de modelos, não é específico para uma contexto e apoia profissionais de software com pouco conhecimento em usabilidade a construir/avaliar modelos das fases iniciais. Além disso, o conjunto de tecnologias orienta tanto engenheiros de software quanto engenheiros de usabilidade a evitar problemas de usabilidade de maneira mais proativa em seus projetos de desenvolvimento, pois eles poderão construir seus modelos já visando à usabilidade da aplicação. Com isso, espera-se contribuir para a melhoria da qualidade do software desenvolvido e diminuição do custo de correção de problemas de usabilidade antes que o código fonte seja escrito.
|
492 |
Vericação funcional de sistemas digitais utilizando algoritmos genéticos na geração de dados aplicada a metodologia veriSC / Functional verification of digital systems using genetic algorithms in data generation applied to VeriSC methodologyFranco, Ricardo Augusto Pereira 26 November 2014 (has links)
Submitted by Cláudia Bueno (claudiamoura18@gmail.com) on 2015-12-09T14:35:23Z
No. of bitstreams: 2
Dissertação - Ricardo Augusto Pereira Franco - 2014.pdf: 1054078 bytes, checksum: 1f76acc442745cd5dc0a7e159485a061 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-12-10T06:30:38Z (GMT) No. of bitstreams: 2
Dissertação - Ricardo Augusto Pereira Franco - 2014.pdf: 1054078 bytes, checksum: 1f76acc442745cd5dc0a7e159485a061 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-12-10T06:30:38Z (GMT). No. of bitstreams: 2
Dissertação - Ricardo Augusto Pereira Franco - 2014.pdf: 1054078 bytes, checksum: 1f76acc442745cd5dc0a7e159485a061 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Previous issue date: 2014-11-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The process of creating an Intellectual Property Core (IP-core) has become more complex with the advent of electronic circuit technology, encouraging the development of new techniques and methodologies to assist this process. A fundamental and critical stage of a hardware design is the hardware verification phase. At this phase it is verified that the IP-core was implemented according to their specification, ensuring that it is feasible to prototyping and their large-scale production (System on Chip). The verification phase corresponds to the biggest bottleneck in a hardware design (BERGERON,2006).
The VeriSC methodology is an implemented methodology to perform the hardware verifi- cation through simulation, that is, by means of functional verification. This work aims to complement the VeriSC methodology through the development of an algorithm based on the concept of Genetic Algorithms (GAs). The proposed algorithm will modify the data generation of this methodology, whose objective is to reduce the verification time and to improve the generated data by changing the data from pseudorandom mode to random-guided mode, increasing the reliability of the verification performed by the VeriSC methodology. The algorithm has a generic part (templates) that helps the implementation of new environment for the functional verification of new DUVs and it can be incorpo- rated into other functional verification methodologies. Finally, are presented three case studies, the stimuli created using GA are compared with the old implementation of VeriSC methodology. / O processo de criação de um Intellectual Property Core (IP-core) vem se tornando cada vez mais complexo com o advento da tecnologia dos circuitos eletrônicos, incentivando o desenvolvimento de novas técnicas e metodologias que auxiliem esse processo. Uma das fases fundamentais e críticas de um projeto de hardware é a fase de verificação de hardware. É nesta fase que se verifica se o IP-core foi implementado de acordo com sua especificação, garantindo que seja viável sua prototipação e, posteriormente, sua produção em larga escala (System on Chip). A fase de verificação corresponde ao maior gargalo dentro de um projeto de hardware (BERGERON,2006).
A metodologia VeriSC é uma metodologia desenvolvida para realizar a verificação de hardware através da simulação, isto é, por meio da verificação funcional. Este trabalho visa complementar a metodologia VeriSC por meio do desenvolvimento de um algoritmo baseado no conceito de Algoritmos Genéticos (AGs). O algoritmo proposto ira modificar a geração de dados dessa metodologia objetivando reduzir o tempo de verificação e aprimorar os dados gerados, alterando a geração de dados da forma pseudoaleatória para aleatória- guiado, aumentando, assim, a confiabilidade da verificação realizada pela metodologia VeriSC. O algoritmo possui partes genéricas (templates ) que facilita sua implementação na verificação de novos projetos de hardware e pode ser incorporado em outras metodologias de verificação funcional. Por fim, serão apresentados os resultados experimentais da aplicação da nova geração de dados em três estudos de casos, comparando-os com a implementação antiga da metodologia VeriSC.
|
493 |
Uma proposta para automatização do monitoramento da interceptação luminosa em pastagens utilizando uma rede de sensores sem fio de baixo custo / A proposal for monitoring automating of interception of light in pastures using a network sensors of low costwirelessSilva, Victor Ribeiro 13 February 2014 (has links)
Submitted by Marlene Santos (marlene.bc.ufg@gmail.com) on 2014-11-05T20:06:05Z
No. of bitstreams: 2
Dissertacao - Victor Ribeiro Silva - 2014.pdf: 7418797 bytes, checksum: 1f1e74ebd9bcbee3edad628e799ca9e6 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2014-11-06T11:00:25Z (GMT) No. of bitstreams: 2
Dissertacao - Victor Ribeiro Silva - 2014.pdf: 7418797 bytes, checksum: 1f1e74ebd9bcbee3edad628e799ca9e6 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2014-11-06T11:00:25Z (GMT). No. of bitstreams: 2
Dissertacao - Victor Ribeiro Silva - 2014.pdf: 7418797 bytes, checksum: 1f1e74ebd9bcbee3edad628e799ca9e6 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Previous issue date: 2014-02-13 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / A wireless sensor network was used to monitor the light interception in pastures. The
focusoftheworkwastheconstructionofalightmeterlowcostasaalternativetotheLICORLI-1776,high-costequipmentcurrentlyusedbyEmbrapa,andalsotheconstruction
ofasensornodethatfunctionedproperlyinpastures,withouttheneedforskilledlaborto
operateit.
It have been analysed prototypes of luminosity meters of existing low cost and proposed
ameter,withitscorrespondingsensor node , suitable low cost.
This work presents theoretical and practical studies, implementing two prototypes of
sensor nodesusingthephotoelectriccomponentphotodiodeS7686.
Tests were performed and evaluated experimentally the performance of a wireless sensor
network with star topology. In these tests, the proposed network showed the expected
resultsandtheprototypedevelopedshowedsatisfactoryresultswithrespecttothecostof
its production. / Uma rede de sensores sem fio foi utilizada para o monitoramento da interceptação luminosa
em pastagens. O foco do trabalho foi a construção de um medidor de luminosidade
debaixocustocomoalternativaaoLI-CORLI-1776,equipamentodealtocustoutilizado
atualmente pela Embrapa, e também a construção de um nó sensor que funcionasse de
maneiraadequadaempastagens,semteranecessidadedeumamãodeobraespecializada
paraoperá-lo.
Foram analisados os protótipos de medidores de luminosidade de baixo custo existentes
epropostoummedidor,com seu respectivo nó sensor, de baixo custo adequado.
Estetrabalhoapresentaestudosteóricosepráticos,implementandodoisprotótiposdenós
sensores queutilizamocomponente fotoelétricofotodiodoS7686.
Foram realizados testes e avaliado experimentalmente o desempenho de uma rede de
sensores sem fio com topologia estrela. Nestes testes, a rede proposta apresentou os
resultados esperados e protótipo desenvolvido apresentou resultados satisfatórios com
relaçãoaocustodesuaprodução.
|
494 |
Algoritmos baseados em estratégia evolutiva para a seleção dinâmica de espectro em rádios cognitivos / Algorithms based on evolutionary strategy for dynamic spectrum selection in cognitive radiosBarbosa, Camila Soares 22 November 2013 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2014-11-28T12:18:45Z
No. of bitstreams: 2
Dissertação - Camila Soares Barbosa - 2013.pdf: 840210 bytes, checksum: a7c84142e9c6b7a669f16d9057771acf (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2014-11-28T13:14:26Z (GMT) No. of bitstreams: 2
Dissertação - Camila Soares Barbosa - 2013.pdf: 840210 bytes, checksum: a7c84142e9c6b7a669f16d9057771acf (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2014-11-28T13:14:26Z (GMT). No. of bitstreams: 2
Dissertação - Camila Soares Barbosa - 2013.pdf: 840210 bytes, checksum: a7c84142e9c6b7a669f16d9057771acf (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Previous issue date: 2013-11-22 / One of the main challenges in Dynamic Spectrum Selection for Cognitive Radios is
the choice of the frequency range for each transmission. This choice should minimize
interference with legacy devices and maximize the discovering opportunities or white
spaces. There are several solutions to this issue, and Reinforcement Learning algorithms
are the most successful. Among them stands out the Q-Learning whose weak point is
the parameterization, since adjustments are needed in order to reach successfully the
proposed objective. In that sense, this work proposes an algorithm based on evolutionary
strategy and presents the main characteristics adaptability to the environment and fewer
parameters. Through simulation, the performance of the Q-Learning and the proposal
of this work were compared in different scenarios. The results allowed to evaluate the
spectral efficiency and the adaptability to the environment. The proposal of this work
shows promising results in most scenarios. / Um dos principais desafios da Seleção Dinâmica de Espectro em Rádios Cognitivos é
a escolha da faixa de frequência para cada transmissão. Essa escolha deve minimizar
a interferência em dispositivos legados e maximizar a descoberta das oportunidades
ou espaços em branco. Há várias soluções para essa questão, sendo que algoritmos de
Aprendizado por Reforço são as mais bem sucedidas. Entre eles destaca-se o Q-Learning,
cujo ponto fraco é a parametrização, uma vez que ajustes são necessários para que
se alcance, com sucesso, o objetivo proposto. Nesse sentido, este trabalho propõe um
algoritmo baseado em Estratégia Evolutiva e apresenta como características principais a
adaptabilidade ao ambiente e a menor quantidade de parâmetros. Através de simulação, o
desempenho do Q-Learning e da proposta deste trabalho foram comparados em diversos
cenários. Os resultados obtidos permitiram avaliar a eficiência espectral e a adaptabilidade
ao ambiente. A proposição deste trabalho apresentou resultados promissores na maioria
dos cenários.
|
495 |
Algoritmo evolutivo de cromossomo duplo para calibração multivariada / Evolutive algorithm based on double chromosome for multivariate calibrationSantiago, Kelton de Sousa 05 March 2013 (has links)
Submitted by Marlene Santos (marlene.bc.ufg@gmail.com) on 2014-11-28T19:44:35Z
No. of bitstreams: 2
Dissertação - Kelton de Sousa Santiago - 2013.pdf: 1524155 bytes, checksum: d6ef69ca7d54266b0df3f43d6f5a6ced (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2014-12-04T14:17:43Z (GMT) No. of bitstreams: 2
Dissertação - Kelton de Sousa Santiago - 2013.pdf: 1524155 bytes, checksum: d6ef69ca7d54266b0df3f43d6f5a6ced (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2014-12-04T14:17:43Z (GMT). No. of bitstreams: 2
Dissertação - Kelton de Sousa Santiago - 2013.pdf: 1524155 bytes, checksum: d6ef69ca7d54266b0df3f43d6f5a6ced (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Previous issue date: 2013-03-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / samples and variables selection simultaneously. The algorithmic methods combination
for selecting samples and variables in the multivariate calibration aims to building an
effective model for predicting the concentration of a certain interest property.
As study case uses data acquired by a material analysis with near infrared waves (NIR)
on wheat samples in order to estimate the proteins concentration.
The algorithms for selection samples as the random number generator (RNG), KennardStone
(KS), sample set partitioning based on joint X and Y (SPXY) were used in conjunction
with successive projection algorithms (SPA) and partial least square algorithm
(PLS) for selection of variables in order to obtain results that can be used for comparison
basis with the proposed algorithm AGCD results obtained.
The presented results by samples selection algorithms (GNA, KS and SPXY) were too
close,butwhenusedtogetherwithvariableselectionalgorithms(SPAandPLS)theresults
were better in RMSEP terms.
TheAGCDachievedsignificantlybetterresultscomparedtotheotherstestedalgorithms,
reaching an improvement of 97% in comparison with the KS algorithm and an improvement
of 63% over SPXY-PLS algorithm, which further approached the AGCD results. / Este trabalho propõe o uso de um algoritmo genético de cromossomo duplo (AGCD)
paraaseleçãodeamostrasedevariáveisdeformasimultânea.Aassociaçãodosmétodos
algoritmicos para a seleção de amostras e variáveis na calibração multivariada busca a
construção de um modelo eficaz para a predição da concentração de uma determinada
propriedade de interesse.
Como estudo de caso utiliza-se dados adquiridos por uma análise de material com ondas
de infravermelho próximo (NIR) sobre amostras de trigo com o propósito de estimar a
concentração de proteínas existentes.
Os algoritmos de seleção de amostras como o gerador de números aleatórios (GNA),
Kennard-Stone(KS),particionamentodeconjuntodeamostrasbaseadanadistânciadeX
e Y (SPXY) foram utilizados em conjunto aos algoritmos de projeção sucessivas (SPA)
e o algoritmo de mínimos quadrados parciais (PLS) para seleção de variáveis, a fim de
se obter resultados que sirvam como base de comparação com os resultados obtidos pelo
algoritmo AGCD proposto.
Os resultados apresentados pelos algoritmos de seleção de amostras (GNA, KS e SPXY)
semostrarambastantepróximos,masquandoutilizadosjuntamentecomosalgoritmosde
seleção de variáveis (SPA e PLS) seus resultados foram melhores em termos de RMSEP.
O algoritmo evolutivo de cromossomo duplo (AGCD) alcançou resultados significativamentemelhoresemcomparaçãoaosdemaisalgoritmostestados,atingindoumamelhoria
de 97% em comparação com o algoritmo KS e uma melhoria de 63% sobre o algoritmo
SPXY-PLS, o que mais se aproximou dos resultados do AGCD.
|
496 |
Processamento distribuído da junção espacial de múltiplas bases de dados: multi-way spatial joinCunha, Anderson Rogério 19 February 2014 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2014-12-29T15:33:04Z
No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2014-12-29T15:39:23Z (GMT) No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5) / Made available in DSpace on 2014-12-29T15:39:23Z (GMT). No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5)
Previous issue date: 2014-02-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Spatial join is one of the spatial operations of higher computational cost. Its complexity
increases significantly when it involves multiple databases (multi-way spatial join). Traditional
processing strategies of multi-way spatial join apply combinations of binary join
algorithms on centralized computing environments. For complex queries, this approach
requires much computational power, making it often unfeasible in centralized environments.
This work proposes the Distributed Synchronous Traversal algorithm (DST), whose goal
is to enable the distributed processing of multi-way spatial joins on a cluster of computers.
The DST algorithm is based on Synchronous Traversal algorithm and processes the multiway
spatial join in a single synchronous descent upon R-Trees levels of the database
entries (the final outcome is built incrementally, without creating temporary databases).
To the best of our knowledge, there are no other proposals in the literature that deal with
this problem in a distributed fashion and on a peer-to-peer architecture.
Many challenges had to be overcome, such as the definition of data structures that enabled
the mapping of the semantics of queries of multi-way spatial join and coordination of
the required distributed processing. DST proved to be satisfactorily parallelizable and
scalable process real datasets in experiments performed in clusters of 1, 2, 4 and 8 servers. / A junção espacial (Spatial Join) é uma das operações espaciais de maior custo computacional.
Sua complexidade aumenta significativamente quando envolve múltiplas bases de
dados (multi-way spatial join). Estratégias tradicionais de processamento do multi-way
spatial join aplicam combinações de algoritmos de junção binária sobre ambientes computacionais
centralizados. Em consultas complexas, esse tipo de abordagem exige grande
capacidade computacional muitas vezes inviável em ambientes centralizados.
Neste trabalho é proposto o algoritmo Distributed Synchronous Traversal (DST), cujo
objetivo é tornar viável a execução distribuída do multi-way spatial join em um cluster de
computadores. O DST se baseia no algoritmo Synchronous Traversal e processa o multiway
spatial join em uma única descida síncrona sobre os níveis das R-Trees das bases de
dados de entrada. O resultado final é construído incrementalmente, sem a consolidação
de dados intermediários. Até onde conhecemos, não há outras propostas na literatura para
multi-way spatial join distribuído sobre uma arquitetura peer-to-peer.
Muitos desafios tiveram que ser superados, como a definição de estruturas de dados
que possibilitassem o mapeamento da semântica das consultas de multi-way spatial
join e a coordenação do processamento distribuído das mesmas. O DST se mostrou
satisfatoriamente paralelizável e escalável ao processar bases de dados reais em clusters
de até 8 servidores.
|
497 |
Estudo exploratório do uso de classificadores para a predição de desempenho e abandono em universidadeMotta, Porthos Ribeiro de Albuquerque 20 October 2016 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2016-12-02T15:54:04Z
No. of bitstreams: 2
Dissertação - Porthos Ribeiro de Albuquerque Motta - 2016.pdf: 10397634 bytes, checksum: 0610600c9a91143c40d1c6d22a401524 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Jaqueline Silva (jtas29@gmail.com) on 2016-12-13T15:28:18Z (GMT) No. of bitstreams: 2
Dissertação - Porthos Ribeiro de Albuquerque Motta - 2016.pdf: 10397634 bytes, checksum: 0610600c9a91143c40d1c6d22a401524 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-12-13T15:28:18Z (GMT). No. of bitstreams: 2
Dissertação - Porthos Ribeiro de Albuquerque Motta - 2016.pdf: 10397634 bytes, checksum: 0610600c9a91143c40d1c6d22a401524 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2016-10-20 / Educational Data Mining, by the triad of quality improvement, cost reduction and educational
effectiveness, acts and seeks to better understand the teaching and learning process.
In this context, the aim of this work is an exploratory study of classification methods to
predict student performance and dropout from data in university academic databases. In
this study we used demographic, socio-economic and academic results, obtained from the
Vestibular and the university database to analyze several classification techniques, as well
as balancing and attribute selection techniques, identified through a systematic review of
the literature. Following a trend found in the selected articles, we chose to use decision
trees as the primary classification algorithm, although comparative studies showed better
results with logistic regression techniques and Bayesian networks. This is because decision
trees allow an analysis of the attributes used in the generated models while maintaining
acceptable levels of accuracy, while other techniques work as a black box. Through
the tests we found that you get better results using balanced sets. In this sense, the Resample
technique that selects a balanced subset of the data showed better results than SMOTE
technique that generates synthetic data for balancing the dataset. Regarding the use of
attribute selection techniques, these did not bring significant advantages. Among the attributes
used, grades and economic factors often appear as nodes in the generated models.
An attempt to predict performance for each subject based on data from previous courses
was less successful, maybe because of the use of ternary predictive classes. Nevertheless,
the analysis carried out showed that the use of classifiers is a promising way to predict
performance and dropout, but further studies are still needed. / A Mineração de Dados Educacionais, por meio da tríade melhoria da qualidade, redução
do custo e eficácia do ensino, age e procura compreender melhor o processo de ensinoaprendizagem
dos alunos. Neste contexto, o objetivo desta dissertação é o estudo exploratório
de métodos de classificação para predizer o desempenho e o abandono de alunos a
partir de dados existentes nas bases de dados acadêmicas das universidades. Neste trabalho
foram usados dados demográficos, sócio-econômicos e resultados acadêmicos, oriundos
do Vestibular e do banco de dados acadêmico da universidade para analisar diversas
técnicas de classificação, assim como técnicas de balanceamento e seleção de atributos
identificadas através de uma revisão sistemática da literatura. Seguindo uma tendência
verificada nos artigos levantados, optou-se por utilizar como principal algoritmo de classificação
o J48, apesar de estudos comparativos terem mostrado melhores resultados com
técnicas de regressão logística e redes Bayesianas. Isto se deve ao fato das árvores de
decisão permitirem uma análise dos atributos usados nos modelos gerados, mantendo ní-
veis de acurácia aceitáveis, enquanto as outras técnicas funcionam como uma caixa preta.
Neste sentido, a técnica de Resample, que escolhe um subconjunto balanceado dos dados,
apresentou melhores resultados que a técnica de SMOTE, que gera dados sintéticos
para balancear os dados. Quanto ao uso de técnicas de seleção de atributos, estas não
trouxeram vantagens significativas. Dentre os atributos usados, notas e aspectos econômicos
aparecem com frequência nos modelos gerados. Uma tentativa de prever desempenho
por disciplina, com base em dados de disciplinas já cursadas em semestres anteriores foi
menos bem sucedida, talvez pelo fato de usar classes preditoras ternárias. Apesar disto,
as análises realizadas mostraram que o uso de classificadores é um caminho promissor
para a predição de desempenho e abandono, mas estudos mais aprofundados ainda são
necessários
|
498 |
Desenvolvimento de técnicas de pré-processamento de radiografias digitais de tórax infantil : uma abordagem orientada a segmentação para sistemas de diagnóstico assistido por computador / Development of digital chest x-ray preprocessing techniques : a segmentation-oriented approach to computer-aided diagnostic systemsFonseca, Afonso Ueslei da 27 March 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-04-05T17:19:40Z
No. of bitstreams: 2
Dissertação - Afonso Ueslei da Fonseca - 2017.pdf: 9310150 bytes, checksum: 0fc9668df93eccbc288295e41256b328 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-04-06T11:07:11Z (GMT) No. of bitstreams: 2
Dissertação - Afonso Ueslei da Fonseca - 2017.pdf: 9310150 bytes, checksum: 0fc9668df93eccbc288295e41256b328 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-04-06T11:07:11Z (GMT). No. of bitstreams: 2
Dissertação - Afonso Ueslei da Fonseca - 2017.pdf: 9310150 bytes, checksum: 0fc9668df93eccbc288295e41256b328 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-03-27 / According to the World Health Organization (WHO), more than 900,000 children, younger
than five years old, have died in 2015 due to pneumonia. Many of these deaths could
be avoided with earlier and more accurate diagnosis to provide proper medicine administration.
Chest radiography is one of the most recommended test by the WHO in order
to detect childhood pneumonia, and it is commonly used in computer aided diagnostic
(CAD) systems. A science role is to develop systems that require a more precise medical
diagnosis and treatment cost reducing, but mainly death rate decreasing. It is highlighted
that quality radiography demands equipments very well installed and calibrated and staff
trained to handle them. However, due limited budget resources, mainly in most vulnerable
areas, the image quality is significantly damaged, so turning the medical diagnosis harder.
Therefore, this work presents a method composed of a set of preprocessing techniques
for pediatric radiography. These techniques intend to have simple implementation and
low computational cost. The main goal of this work is to increase performance, accuracy
and robustness of CAD systems, to improve database standardization and also to collaborate
with the professionals training. Thus, techniques were developed, such as, visual
quality enhancement, removal of unnecessary or confidential information, reconstruction
of degraded areas due to the information removal, orientation correction and definition
of a region of interest. All techniques were evaluated using a children chest X-ray database
divided into three classes and results show significantly improve when compared to
methods presented in literature. We expect these contributions will assist to development
and improvement of new systems, construction of more standardized databases, staff training
and the development of new techniques. / Segundo a Organização Mundial de Saúde (OMS) mais de 900 mil crianças, menores de
cinco anos, foram a óbito em 2015, devido a pneumonia. Muitas dessas mortes poderiam
ser evitadas com um diagnóstico mais preciso, precoce e com correta administração de
medicamentos. A radiografia de tórax é um dos exames preconizados para detecção de
pneumonia pela OMS, sendo comumente usada em sistemas de diagnóstico assistido por
computador (CAD). Desenvolver sistemas que apoiem diagnóstico médico mais preciso,
reduzam custos de tratamento e principalmente diminuam o número de óbitos é um papel
da ciência. Destaca-se que radiografias de qualidade requerem equipamentos devidamente
instalados/calibrados e pessoal capacitado para opera-los. Todavia, dado os recursos
financeiros limitados, principalmente em áreas mais vulneráveis, a qualidade das imagens
fica significativamente comprometida, dificultando o trabalho de diagnóstico pelo médico.
Assim, este trabalho traz um método composto por técnicas de pré-processamento de
radiografias de tórax pediátricas. As técnicas foram idealizadas para serem de simples
implementação e baixo custo computacional. Os principais objetivos do trabalho são
promover ganho de performance, acurácia e robustez aos sistemas CAD, favorecer a
construção de bases de imagens padronizadas e além disso colaborar com o treinamento
de profissionais de saúde. Para atingir esses objetivos foram desenvolvidas técnicas de
melhoria da qualidade visual, remoção de informações desnecessárias ou confidenciais e
reconstrução das áreas degradadas decorrente da remoção dessas informações, correção
de orientação e definição de regiões de interesse. Esse método foi avaliado utilizando
uma base de radiografias de tórax infantil divida em três classes e resultados mostram
ganhos significativos em comparação a métodos presentes na literatura. Espera-se que
essas contribuições favoreçam o aperfeiçoamento de sistemas, construção de bases mais
padronizadas, treinamento de profissionais e surgimento de novas técnicas.
|
499 |
Metodologia Fuzzy aplicada ao triângulo de Duval para o diagnóstico de transformadores de potência por meio de análise de gases dissolvidos / Fuzzy methodology applied to the Duval triangle for the diagnosis of power transformers through the analysis of dissolved gasesVeloso, Diogo Pereira 17 February 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-04-10T18:58:09Z
No. of bitstreams: 2
Dissertação - Diogo Pereira Veloso - 2017.pdf: 3906692 bytes, checksum: 8d731c4df11a717552eb2bbe8b58f5ea (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-04-11T12:52:13Z (GMT) No. of bitstreams: 2
Dissertação - Diogo Pereira Veloso - 2017.pdf: 3906692 bytes, checksum: 8d731c4df11a717552eb2bbe8b58f5ea (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-04-11T12:52:13Z (GMT). No. of bitstreams: 2
Dissertação - Diogo Pereira Veloso - 2017.pdf: 3906692 bytes, checksum: 8d731c4df11a717552eb2bbe8b58f5ea (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-02-17 / Power transformers are essential equipment in eletric systems. Considered as highly
expensive equipment it requires greater attention regarding the occurrence of failures.
A failure on equipment can cause serious trouble to the concessionaire responsible
for the generation, transmission and distribution of energy. In the present scenario,
where legislation has increased the severity with which oversees these failures and
demanding a higher efficiency of the same, it is necessary to create appropriate policies
to investigas possible equipment failure. These failures can be caused by several factors,
among them, the gases dissolved in the oil due to its degeneration. One of the most
used techniques for the diagnosis of power transformers from these dissolved gases
is the Duval Triangle, a method that has a precision and considerably high reliability.
However, for proper planning of maintenance, avoiding a possible sudden withdrawal
and supply cut, it is necessary to provide further information, including a quantitative
analysis of the causes of failure and a history of the evolution of the operating status
of the machine. To this end it is proposed to use a fuzzy logic by the method of Duval
to provide an analysis of the transitions between the diagnostic originally presented to
enable monitor the level of relevance of each possible cause for the diagnosis equipment
allowing perform scheduled and preventive maintenance. The proposed methodology
was validated using real data equipment in operation in the brazilian electric system. / Transformadores de potência são equipamentos essenciais em um sistema elétrico.
São considerados equipamentos de alto custo que requerem uma maior atenção no
que tange a ocorrência de falhas. Uma falha em um equipamento pode causar sérios
prejuízos à concessionária responsável pela geração, transmissão e distribuição de
energia. No cenário atual, onde a legislação vem sempre aumentado o rigor com que
fiscaliza essas falhas e cobrando uma maior eficiência das mesmas, faz-se necessário
criar políticas adequadas para investigas possíveis falhas nos equipamentos. Falhas
essas que podem ser originadas por diversos fatores, dentre eles, pelos gases
dissolvidos no óleo devido a sua degeneração. Um dos métodos mais utilizados para
diagnóstico de transformadores de potência é a análise de gases dissolvidos utilizando
o Triângulo de Duval, que apresenta uma precisão e confiabilidade consideravelmente
altas. No entanto, para um planejamento adequado de manutenção, evitando uma
possível retirada brusca do equipamento e corte no fornecimento, é necessário prover
mais informações, incluindo uma análise quantitativa das causas das falhas e um
histórico da evolução do estado operativo do equipamento. Para tanto propõe-se a
utilização de uma lógica fuzzy junto ao método de Duval para fornecer uma análise
das transições entre os diagnósticos apresentados originalmente de forma a permitir
acompanhar a evolução do nível de pertinência de cada possível causa no diagnóstico
do equipamento, possibilitando realizar manutenções programadas e preventivas. A
metodologia proposta foi validada utilizando dados reais de equipamentos em
operação no sistema slétrico brasileiro.
|
500 |
Um modelo analítico para estimar o consumo de energia de sistemas multi-camadas no nível de transação / An analytical model to estimate the energy consumption on multi-tier system at a fine-grained levelFerreira, Alex Rabelo 25 April 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-05-19T17:06:06Z
No. of bitstreams: 2
Dissertação - Alex Rabelo Ferreira - 2017.pdf: 1520702 bytes, checksum: 4d6d16d4b1045c459e8d23fc2f6a4c69 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-05-22T10:41:24Z (GMT) No. of bitstreams: 2
Dissertação - Alex Rabelo Ferreira - 2017.pdf: 1520702 bytes, checksum: 4d6d16d4b1045c459e8d23fc2f6a4c69 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-05-22T10:41:24Z (GMT). No. of bitstreams: 2
Dissertação - Alex Rabelo Ferreira - 2017.pdf: 1520702 bytes, checksum: 4d6d16d4b1045c459e8d23fc2f6a4c69 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-04-25 / Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq / In large-scale data centers, power management techniques such as Dynamic Voltage/Frequency
Scaling (DVFS), virtual machine consolidation, and power-capping mechanisms
promise impressive energy savings compared to traditional resource management
strategies. Most of these techniques rely on coarse-grained monitoring of the workload
behavior to apply their optimizations. However, coarse-grained monitoring and
black box observations are not satisfactory for predicting the behavior of bursty workloads
such as those observed in enterprise, Web servers. In this work, we propose an
analytical model to estimate the energy consumption of multi-tier Web Systems. Differently
from previous works, our model captures the consumption pattern at the level of
fine-grained transactions and for each tier of the system. In addition, our model is based
only on CPU utilization and server architectural parameters, which can be easily obtained
in today’s production environments. We demonstrate the effectiveness of our model in a
real-world experimentation environment, based on the TPC-W benchmark. Results show
that our model is able to estimate the energy consumption for a Web system with an average
relative error of 6.5% in the worst-case scenario, whereas more complex models of
the literature present errors within the same order of magnitude. / Em grandes centros de dados, técnicas de gerenciamento de energia como Dynamic Voltage/Frequency
Scaling (DVFS), consolidação de máquinas virtuais e mecanismos de limitação
de energia prometem grande economia de energia quando comparados a métodos
tradicionais de gerenciamento de recursos. A maioria dessas técnicas utilizam mecanismos
caixas-pretas para monitorar o comportamento da carga de trabalho. Contudo, esse
tipo de monitoramento não é satisfatório para prever os fenômenos de rajadas, comumente
encontrados em serviços e aplicações Web. Neste trabalho, propomos um modelo analí-
tico para estimar o consumo de energia de Sistemas Web multi-camadas. Diferentemente
de outros trabalhos, nosso modelo captura o padrão de consumo desses sistemas na granularidade
de transações e para cada camada do sistema. Além disso, nosso modelo se
baseia apenas na utilização de CPU e em parâmetros arquiteturais do servidor, os quais
podem ser facilmente obtidos nos ambientes de produção atuais. Demonstramos a efetividade
do nosso modelo em um ambiente de experimentação real, baseado no benchmark
TPC-W. Os resultados obtidos mostram que nosso modelo é capaz de estimar o consumo
de energia para um sistema Web com um erro relativo médio de 6,5% para o pior cenário,
enquanto modelos mais complexos da literatura apresentam erros com a mesma ordem de
grandeza.
|
Page generated in 0.0948 seconds