Spelling suggestions: "subject:"(computacao)"" "subject:"(imputacao)""
511 |
Reconhecimento facial através de limiares individuais por padrão de textura e sub-região facialD'Amore, Luiz Angelo 14 October 2016 (has links)
Submitted by Rosa Assis (rosa_assis@yahoo.com.br) on 2017-09-26T15:27:49Z
No. of bitstreams: 2
LUIZ ANGELO D'AMORE.pdf: 1662281 bytes, checksum: 4b858ea533f263d436dd43fa7a600f18 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2017-09-27T12:13:25Z (GMT) No. of bitstreams: 2
LUIZ ANGELO D'AMORE.pdf: 1662281 bytes, checksum: 4b858ea533f263d436dd43fa7a600f18 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-09-27T12:13:25Z (GMT). No. of bitstreams: 2
LUIZ ANGELO D'AMORE.pdf: 1662281 bytes, checksum: 4b858ea533f263d436dd43fa7a600f18 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2016-10-14 / In this work are presented the development and results of a new method of facial
recognition based on the use of individual thresholds by texture pattern and facial sub
region, with applicability in biometric systems of access control in controlled
environments. Among the biometric systems, facial recognition systems have certain
prominence in relation to other systems, because not being intrusive. The acquisition of
the facial image is made with a distance between the camera and the subject. The goal
of the proposed method is to reduce the computational cost, compared to other existing
methods, without prejudice for facial recognition rate. The proposed method uses a
descriptor composed of four sub-descriptors, each of formed by texture patterns. Each
of the sub descriptors have size defined by the number of sub regions facial. In the
comparative process between descriptors, the method uses the individual thresholds of
texture pattern and facial sub region. This work presents three experiments, each
subdivided into specific tests. The first experiment was conducted to evaluate variations
related to the use of uniform local binary patterns (LBPu2), the results obtained were
used as a comparative basis for the other experiments of this work. The second
experiment aimed to evaluate the proposed method for reducing the size of the
standard facial descriptor LBPu2 of 59 textures. The third experiment was conducted to
evaluate the proposed method based on the use of individual thresholds by texture
pattern and facial sub-region, method that aims to improve the classification process of
facial recognition. For the experiments was used the frontal facial images of "The Facial
Recognition Technology Database" (FERET) and "FEI Face Database" (FEI) sets, with
light variations, expressions and no restrictions on the use of beard, mustache or
glasses. After the experiments, it was possible to observe that the proposed method
reduces considerably the computational cost for the facial recognition systems, besides
improving its recognition rate, surpassing the academic results already published. / Neste trabalho são apresentados o desenvolvimento e os resultados de um novo
método de reconhecimento facial baseado na utilização de limiares individuais por
padrão de textura e sub-região facial, com aplicabilidade em sistemas biométricos de
controle de acesso em ambientes controlados. Dentre os sistemas biométricos, o de
reconhecimento facial apresenta destaque em relação às demais biometrias pelo fato
de não ser intrusiva, sendo a captura da imagem facial realizada com certa distância
entre a câmera e o indivíduo. O objetivo do método proposto é reduzir o custo
computacional em relação a outros métodos existentes, sem prejuízo para a taxa de
reconhecimento facial. O método proposto utiliza um descritor composto por quatro sub
descritores, todos formados por padrões de texturas. Cada um dos sub descritores tem
seu tamanho definido pela quantidade de sub-regiões que a região facial é dividida. No
processo comparativo entre descritores, o método utiliza limiares individuais por padrão
de textura e sub-região facial. Neste trabalho foram realizados três experimentos, cada
um subdividido em testes específicos. O primeiro experimento foi realizado com o
objetivo de avaliar variações relacionadas ao uso de padrões binários locais uniformes
(LBPu2), os resultados obtidos foram utilizados como base comparativa para os demais
experimentos deste trabalho. O segundo experimento teve como objetivo avaliar o
método proposto quanto a redução do tamanho do descritor facial LBPu2 padrão de 59
texturas. O terceiro experimento foi realizado para avaliar o método proposto, com base
na utilização de limiares individuais por padrão de textura e sub-região facial, método
que objetiva melhorar o processo classificatório do reconhecimento facial. Para a
realização dos experimentos, foram utilizadas as imagens faciais frontais dos conjuntos
"The Facial Recognition Technology Database" (FERET) e "FEI Face Database" (FEI),
com variações de luminosidade, expressões e sem restrições quanto ao uso de barba,
bigode ou óculos. Após a realização dos experimentos, foi possível observar que o
método proposto reduz consideravelmente o custo computacional para os sistemas de
reconhecimento facial, além de melhorar sua taxa de reconhecimento, superando os
resultados acadêmicos já publicados.
|
512 |
Big data analytics em cloud gaming: um estudo sobre o reconhecimento de padrões de jogadoresBarros, Victor Perazzolo 06 February 2017 (has links)
Submitted by Rosa Assis (rosa_assis@yahoo.com.br) on 2017-11-14T18:05:03Z
No. of bitstreams: 2
VICTOR PERAZZOLO BARROS.pdf: 24134660 bytes, checksum: 8761000aa9ba093f81a14b3c2368f2b7 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2017-11-27T12:14:38Z (GMT) No. of bitstreams: 2
VICTOR PERAZZOLO BARROS.pdf: 24134660 bytes, checksum: 8761000aa9ba093f81a14b3c2368f2b7 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-11-27T12:14:38Z (GMT). No. of bitstreams: 2
VICTOR PERAZZOLO BARROS.pdf: 24134660 bytes, checksum: 8761000aa9ba093f81a14b3c2368f2b7 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-02-06 / The advances in Cloud Computing and communication technologies enabled the concept
of Cloud Gaming to become a reality. Through PCs, consoles, smartphones, tablets,
smart TVs and other devices, people can access and use games via data streaming, regardless the computing power of these devices. The Internet is the fundamental way of
communication between the device and the game, which is hosted and processed on an
environment known as Cloud. In the Cloud Gaming model, the games are available on demand and offered in large scale to the users. The players' actions and commands are sent
to servers that process the information and send the result (reaction) back to the players.
The volume of data processed and stored in these Cloud environments exceeds the limits
of analysis and manipulation of conventional tools, but these data contains information
about the players' profile, its singularities, actions, behavior and patterns that can be
valuable when analyzed. For a proper comprehension and understanding of this raw data
and to make it interpretable, it is necessary to use appropriate techniques and platforms
to manipulate this amount of data. These platforms belong to an ecosystem that involves
the concepts of Big Data. The model known as Big Data Analytics is an effective and
capable way to, not only work with these data, but understand its meaning, providing
inputs for assertive analysis and predictive actions. This study searches to understand
how these technologies works and propose a method capable to analyze and identify patterns in players' behavior and characteristics on a virtual environment. By knowing the
patterns of different players, it is possible to group and compare information, in order to
optimize the user experience, revenue for developers and raise the level of control over the
environment in a way that players' actions can be predicted. The results presented are
based on different analysis modeling using the Hadoop technology combined with data
visualization tools and information from open data sources in a dataset of the World of
Warcraft game. Fraud detection, users' game patterns, churn prevention inputs and relations
with game attractiveness elements are examples of modeling used. In this research,
it was possible to map and identify the players' behavior patterns and create a prediction
of its frequency and tendency to evade or stay in the game. / Os avanços das tecnologias de Computacão em Nuvem (Cloud Computing) e comunicações possibilitaram o conceito de Jogos em Nuvem (Cloud Gaming) se tornar uma realidade. Por meio de computadores, consoles, smartphones, tablets, smart TVs e outros equipamentos é possível acessar via streaming e utilizar jogos independentemente da capacidade computacional destes dispositivos. Os jogos são hospedados e executados em um ambiente computacional conhecido como Nuvem, a Internet é o meio de comunicação
entre estes dispositivos e o jogo. No modelo conhecido como Cloud Gaming, compreendesse que os jogos são disponibilizados sob demanda para os usuários e podem ser oferecidos em larga escala. Os comandos e ações dos jogadores são enviados para servidores que processam a informação e enviam o resultado (reação) para o jogador. A quantidade de dados que são processados e armazenados nestes ambientes em Nuvem superam os limites de análise e manipulação de plataformas convencionais, porém tais dados contém informacões sobre o perfil dos jogadores, suas particularidades, ações, comportamentos e padrões que podem ser importantes quando analisados. Para uma devida compreensão e lapidação destes dados brutos, a fim de torná-los interpretáveis, se faz necessário o uso de técnicas e plataformas apropriadas para manipulação desta quantidade de dados. Estas plataformas fazem parte de um ecossistema que envolvem os conceitos de Big Data.
Arquiteturas e ferramentas de Big Data, mais especificamente, o modelo denominado Big Data Analytics, são instrumentos eficazes e capazes de não somente trabalhar com estes dados, mas entender seu significado, fornecendo insumos para análise assertiva e predição de acões. O presente estudo busca compreender o funcionamento destas tecnologias e fornecer um método capaz de identificar padrões nos comportamentos e características dos jogadores em ambiente virtual. Conhecendo os padrões de diferentes usuários é possível agrupar e comparar as informações, a fim de otimizar a experiência destes usuários no jogo, aumentar a receita para os desenvolvedores e elevar o nível de controle sobre o ambiente ao ponto que seja possível de prever ações futuras dos jogadores. Os resultados obtidos são derivados de diferentes modelagens de análise utilizando a tecnologia Hadoop combinada com ferramentas de visualização de dados e informações de fontes de dados abertas, em um dataset do jogo World of Warcraft. Detecção de fraude, padrões de jogo dos usuários, insumos para prevencão de churn e relações com elementos de atratividade no jogo, são exemplos de modelagens abordadas. Nesta pesquisa foi possível mapear e identificar os padrões de comportamento dos jogadores e criar uma previsão e tendência de assiduidade sobre evasão ou permanencia de usuários no jogo.
|
513 |
Extração de características de perfil e de contexto em redes sociais para recomendação de recursos educacionaisPereira e Silva, Crystiam Kelle 27 March 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-01-12T14:22:55Z
No. of bitstreams: 1
crystiamkellepereiraesilva.pdf: 5368190 bytes, checksum: 22e15248de5dbc282e6d4324b03dca64 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-01-25T17:15:27Z (GMT) No. of bitstreams: 1
crystiamkellepereiraesilva.pdf: 5368190 bytes, checksum: 22e15248de5dbc282e6d4324b03dca64 (MD5) / Made available in DSpace on 2016-01-25T17:15:27Z (GMT). No. of bitstreams: 1
crystiamkellepereiraesilva.pdf: 5368190 bytes, checksum: 22e15248de5dbc282e6d4324b03dca64 (MD5)
Previous issue date: 2015-03-27 / Existem inúmeros recursos educacionais distribuídos em diferentes repositórios que abordam um conjunto amplo de assuntos e que possuem objetivos educacionais distintos. A escolha adequada desses recursos educacionais é um desafio para os usuários que desejam usá-los para a sua formação intelectual. Nesse contexto surgem os Sistemas de Recomendação para auxiliar os usuários nessa tarefa. Para que seja possível gerar recomendações personalizadas, torna-se importante identificar informações que ajudem a definir o perfil do usuário e auxiliem na identificação de suas necessidades e interesses. O uso constante e cada vez mais intenso de algumas ferramentas tecnológicas faz com que inúmeras informações a respeito do perfil, dos interesses, das preferências, da forma de interação e do comportamento do usuário possam ser identificadas em decorrência da interação espontânea que ocorre nesses sistemas. Esse é o caso, por exemplo, das redes socais. Neste trabalho é apresentada a proposta e o desenvolvimento de uma arquitetura capaz de extrair características do perfil e do contexto educacional dos usuários, através da rede social Facebook e realizar recomendações de recursos educacionais de forma individualizada e personalizada que sejam condizentes com essas características. A solução proposta é apoiada por técnicas de extração de informações e ontologias para a extração, definição e enriquecimento das características e interesses dos usuários. As técnicas de Extração de Informação foram aplicadas aos textos associados às páginas curtidas e compartilhadas por usuários nas suas redes sociais para extrair informação estruturada que possa ser usada no processo de recomendação de recursos educacionais. Já as ontologias foram usadas para buscar interesses relacionados aos temas extraídos. A recomendação é baseada em repositório de objetos de aprendizagem e em repositórios de dados ligados e é realizada dentro das redes sociais, aproveitando o tempo despendido pelos usuários nas mesmas. A avaliação da proposta foi feita a partir do desenvolvimento de um protótipo, três provas de conceito e um estudo de caso. Os resultados da avaliação mostraram a viabilidade e uma aceitação relevante por parte dos usuários no sentido de extrair informações sobre os seus interesses educacionais, geradas automaticamente da rede social Facebook, enriquecê-las, encontrar interesses implícitos e usar essas informações para recomendar recursos educacionais. Foi verificada também a possibilidade da recomendação de pessoas, permitindo a formação de uma rede de interesses em torno de um determinado tema, indicando aos usuários bons parceiros para estudo e pesquisa. / There are several educational resources distributed in different repositories that address to a wide range of subjects and have different educational goals. The proper choice of these educational resources is a challenge for users who want to use them for their intellectual development. In this context, recommendation systems may help users in this task.In order to be able to generate personalized recommendations, it is important to identify information that will help to define user profile and assist in identifying his/her needs and interests. The constant and ever-increasing use of some technological tools allows the identification of different information about profile, interests, preferences, interaction style and user behavior from the spontaneous interaction that occurs in these systems, as, for example, the social networks. This paper presents the proposal and the development of one architecture able to extract users´ profile characteristics and educational context, from the Facebook social network and recommend educational resources in individualized and personalized manner, consistent with these characteristics. The proposed solution is supported by Information Extraction Techniques and ontologies for the extraction, enrichment and definition of user characteristics and interests. The Information Extraction techniques were applied to texts associated with “LIKE” and shared user´s pages on his social networks to extract structured information that can be used in the recommendation process of educational resources, the ontologies were used to search to interests related to extracted subjects. The recommendation process is based on learning objects repositories and linked data repositories and is carried out within social networks, taking advantage of user time spent at the web. The proposal evaluation was made from the development of a prototype, three proofs of concept and a case study. The evaluation results show the viability and relevant users´ acceptance in order to extract information about their educational interests, automatically generated from the Facebook social network, enrich these information, find implicit interests and use this information to recommend educational resources. It was also validated the possibility of people recommendation, enabling the establishment of interest network, based on a specific subject, showing good partners to study and research.
|
514 |
Maximiza??o da cobertura redundante em redes de sensores visuais sem fio para monitoramento de alvosSilva, Tassalon Ferreira da 18 December 2015 (has links)
Submitted by Ricardo Cedraz Duque Moliterno (ricardo.moliterno@uefs.br) on 2016-09-05T21:53:30Z
No. of bitstreams: 1
Tassalon_Dissertacao_Final.pdf: 3305292 bytes, checksum: d3d16f5296811c68fc2bd7790c8f62b9 (MD5) / Made available in DSpace on 2016-09-05T21:53:30Z (GMT). No. of bitstreams: 1
Tassalon_Dissertacao_Final.pdf: 3305292 bytes, checksum: d3d16f5296811c68fc2bd7790c8f62b9 (MD5)
Previous issue date: 2015-12-18 / Funda??o de Amparo ? Pesquisa do Estado da Bahia - FAPEB / This work have proposed the adaptation and the development of algorithms for maximization
of the redundant coverage of targets in wireless visual sensor networks. The
most relevant concepts were described about the theory of visual sensors networks,
development techniques of coverage algorithms and the details of the performed implementations.
Besides, tests and comparisons were performed in simulation environments
to demonstrate the obtained results, as well as to evaluate the performance
of each developed algorithm of redundant coverage. / Esse trabalho prop?e a adapta ??o e o desenvolvimento de algoritmos para a maximiza
??o da cobertura visual redundante de alvos em redes de sensores visuais sem
o. Assim, ser?o apresentados os conceitos mais importantes relacionados a teoria
de redes de sensores visuais, as t ?cnicas de desenvolvimento de algoritmos de cobertura
e os detalhes das implementa ??es realizadas. Al?m disso, testes e compara ??es
foram realizados em ambiente de simula c?o para demonstrar os resultados obtidos,
bem como avaliar o desempenho de cada um dos algoritmos de cobertura redundante
desenvolvidos.
|
515 |
Interface gr?fica para redu??o de espectros ?pticosSilva, Alberlan Lopes 16 March 2016 (has links)
Submitted by Ricardo Cedraz Duque Moliterno (ricardo.moliterno@uefs.br) on 2016-09-15T21:10:44Z
No. of bitstreams: 1
dissertacao1 - F.pdf: 19663712 bytes, checksum: b4d07b5a7a0e8418855eb7151fddc47c (MD5) / Made available in DSpace on 2016-09-15T21:10:44Z (GMT). No. of bitstreams: 1
dissertacao1 - F.pdf: 19663712 bytes, checksum: b4d07b5a7a0e8418855eb7151fddc47c (MD5)
Previous issue date: 2016-03-16 / This work shows the development of a graphical interface to reduce spectroscopic observations of peculiar galaxies present in the Catalogue of Southern Peculiar Galaxies and Associations (Arp and Madore 1987). The data have been observed with the Cassegrain spectrograph installed at the 1.6-m telescope of the Observat?rio do Pico dos Dias, Brazil/Laborat?rio Nacional de Astrof?sica ? Minist?rio da Ci?ncia Tecnologia e Inova??o (OOD/LNA-MCTI). The interface is called "PyOPD-Cass". In this project, the tasks present in IRAF package are sequenced together in order to produce calibrated data in flux and wavelength. Thus, the methodology used to reduce spectral data allows the user to quickly and easily insert all the necessary parameters for the spectral reduction process. The material developed in this work, within the concept of "pipeline", has the advantage of minimizing the time in the spectral reduction. As application of the computational process, we show only the spectral reduction to a selected set of 73 peculiar galaxies with emission lines observed over the long-term project carried out in OPD/LNA-MCTI ("Spectroscopic Study of Peculiar Galaxies and associations", OP2012A-009). The scientific results of these active galaxies will be discussed later in another study, already under development. All the development program was conducted in Python, further comprising PyRAF language and PyQt adapter as a basis for the final GUI architecture. / Este trabalho, aplicado na sub?rea de Astronomia Extragal?ctica, apresenta o desenvolvimento de uma interface gr?fica de redu??o de dados espectrais no ?ptico para Gal?xias Peculiares e Associa??es do Cat?logo de Arp e Madore (?A Catalogue of Southern Peculiar Galaxies and Associations?, 1987), que vem sendo observadas com o espectr?grafo Cassegrain instalado no foco f/10 do telesc?pio de 1,60m do OPD/LNA-MCTI (Observat?rio do Pico dos Dias/Laborat?rio Nacional de Astrof?sica ? Minist?rio da Ci?ncia Tecnologia e Inova??o). Denominamos a mesma neste trabalho de ?PyOPD-Cass?. Neste projeto de Computa??o Aplicada, as tarefas de redu??o de dados presentes no IRAF ser?o sequenciadas e agrupadas afim de produzir dados finais calibrados em fluxo e comprimento de onda. Dessa forma, constru?mos uma metodologia otimizada para a redu??o dos dados espectrais, a qual permitir? ao usu?rio a inser??o de maneira f?cil e r?pidade todos os par?metros necess?rios para o processo de redu??o espectral. O material desenvolvido neste trabalho, dentro do conceito de "pipeline", possui a grande vantagem de minimizar o tempo de redu??o espectral em rela??o ao processo empregado atualmente. Como aplica??o do processo computacional desenvolvido neste trabalho, ser? mostrada apenas a redu??oespectral para um conjunto selecionado de 73 gal?xias peculiarescom linhas de emiss?o observadas ao longo do projeto de longo prazo realizado no OPD/LNA-MCTI (?Estudo Espectrosc?pico de Gal?xias Peculiares e Associa??es?, OP2012A-009), de autoria do orientador deste trabalho dissertativo. Todo desenvolvimento de programa??o foi realizado no ambiente Python, integrando ainda a linguagem PyRAF e o adaptador de linguagem PyQT, como base para a arquitetura final da interface gr?fica.
|
516 |
GAIA - Uma proposta de agente inteligente acoplado a algoritmos evolucionários para ajuste dinâmico de parâmetros através de conceitos de design inteligente e lógica fuzzyBRITO, Felipe Houat de 31 March 2011 (has links)
Submitted by Samira Prince (prince@ufpa.br) on 2012-05-15T12:07:15Z
No. of bitstreams: 1
Dissertacao_GaiaPropostaAgente.pdf: 16819877 bytes, checksum: c3fba58424ac14c747707122a947024e (MD5) / Approved for entry into archive by Samira Prince(prince@ufpa.br) on 2012-05-15T12:08:22Z (GMT) No. of bitstreams: 1
Dissertacao_GaiaPropostaAgente.pdf: 16819877 bytes, checksum: c3fba58424ac14c747707122a947024e (MD5) / Made available in DSpace on 2012-05-15T12:08:22Z (GMT). No. of bitstreams: 1
Dissertacao_GaiaPropostaAgente.pdf: 16819877 bytes, checksum: c3fba58424ac14c747707122a947024e (MD5)
Previous issue date: 2011 / Há muitos anos, técnicas de Computação Evolucionária vem sendo aplicadas com sucesso na solução dos mais variados tipos de problemas de otimização. Na constante procura pelo ótimo global e por uma melhor exploração da superfície de busca, as escolhas para ajustar estes métodos podem ser exponencialmente complexas e requerem uma grande quantidade de intervenção humana. Estes modelos tradicionais darwinianos apóiam-se fortemente em aleatoriedade e escolhas heurísticas que se mantém fixas durante toda a execução, sem que acompanhem a variabilidade dos indivíduos e as eventuais mudanças necessárias. Dadas estas questões, o trabalho introduz a combinação de aspectos da Teoria do Design Inteligente a uma abordagem hibrida de algoritmo evolucionário, através da implementação de um agente inteligente o qual, utilizando lógica fuzzy, monitora e controla dinamicamente a população e seis parâmetros definidos de uma dada execução, ajustando-os para cada situação encontrada durante a busca. Na avaliação das proposições foi construído um protótipo sobre a implementação de um algoritmo genético para o problema do caixeiro viajante simétrico
aplicado ao cenário de distância por estradas entre as capitais brasileiras, o que permitiu
realizar 580 testes, simulações e comparações entre diferentes configurações apresentadas e
resultados de outras técnicas. A intervenção inteligente entrega resultados que, com sucesso em muitos aspectos, superam as implementações tradicionais e abrem um vasto espaço para novas pesquisas e estudos nos aqui chamados: “Algoritmos Evolucionários Híbridos Auto-Adaptáveis”, ou mesmo, “Algoritmos Evolucionários Não-Darwinianos”. / For many years Evolutionary Techniques have been successfully applied in several computational optimization problems. For the matter of obtaining “best results” and a wide exploration of the search surface, the choices for tuning those methods can be exponentially complex and require a large human intervention. Those traditional Darwinian models rely only on randomness and heuristic choices, which are kept fix during the entire algorithm execution without following the individuals’ variability and any eventual changes needed. For that matter, the present work introduces the combination of Intelligent Design Theory aspects with a hybrid approach of an evolutionary algorithm, through the implementation of a Fuzzy Intelligent Designer agent, which dynamically monitors and regulates six chosen algorithms’ parameters, adjusting their values for any given situation. In order to testify these proposals, a Brazilian’s capitals symmetric TSP problem genetic algorithm prototype was also built, allowing the execution of 580 tests, plus several simulations and comparisons between many proposed set of configurations, regular techniques and other recent works. The Intelligent Design intervention deliveries over-expectation results, opening a wide new space for research of the: “Darwin-less Evolutionary Algorithms” or “The Hybrid Self-Adaptable Evolutionary Algorithms”.
|
517 |
Modelos para previsão de carga a curto prazo através de redes neurais artificiais com treinamento baseado na teoria da informaçãoALVES, Wesin Ribeiro 04 November 2011 (has links)
Submitted by Samira Prince (prince@ufpa.br) on 2012-08-27T14:46:59Z
No. of bitstreams: 2
Dissertacao_ModelosPrevisaoCarga.pdf: 1369826 bytes, checksum: 6bbbe896ee75adc3eefb8c0de0c81bf4 (MD5)
license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Approved for entry into archive by Samira Prince(prince@ufpa.br) on 2012-08-27T14:48:07Z (GMT) No. of bitstreams: 2
Dissertacao_ModelosPrevisaoCarga.pdf: 1369826 bytes, checksum: 6bbbe896ee75adc3eefb8c0de0c81bf4 (MD5)
license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Made available in DSpace on 2012-08-27T14:48:07Z (GMT). No. of bitstreams: 2
Dissertacao_ModelosPrevisaoCarga.pdf: 1369826 bytes, checksum: 6bbbe896ee75adc3eefb8c0de0c81bf4 (MD5)
license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5)
Previous issue date: 2011 / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / O conhecimento prévio do valor da carga é de extrema importância para o planejamento e operação dos sistemas de energia elétrica. Este trabalho apresenta os resultados de um estudo investigativo da aplicação de Redes Neurais Artificiais do tipo Perceptron Multicamadas com treinamento baseado na Teoria da Informação para o problema de Previsão de Carga a curto prazo. A aprendizagem baseada na Teoria da Informação se concentra na utilização da quantidade de informação (Entropia) para treinamento de uma rede neural artificial. Dois modelos previsores são apresentados sendo que os mesmos foram desenvolvidos a partir de dados reais fornecidos por uma concessionária de energia. Para comparação e verificação da eficiência dos modelos propostos um terceiro modelo foi também desenvolvido utilizando uma rede neural com treinamento baseado no critério clássico do erro médio quadrático. Os resultados alcançados mostraram a eficiência dos sistemas propostos, que obtiveram melhores resultados de previsão quando comparados ao sistema de previsão baseado na rede treinada pelo critério do MSE e aos sistemas previsores já apresentados na literatura. / The previous knowledge of the load value is almighty important to the electric power system planning and operation. This paper presents results of an investigative study of application of Artificial Neural Networks as a Multilayer Perceptron with the training based on Information Theory to the problem of short term load forecasting. The learning based on Information Theory focuses on the use of the amount of information (Entropy) for the training of neural network. Two forecaster models are presented, and that they was developed using real data from an energy utility. To compare and verify the efficiency of the proposed systems, it was also developed a forecasting system using neural network trained based on the traditional criterion of mean square error (MSE). The results has showed the efficiency of proposed systems, which had better results when compared with the forecasting system based on neural network trained by criterion of MSE and with forecasting system already was presented in the literature.
|
518 |
Otimização de sistemas DSL utilizando técnicas de gerenciamento de espectroMONTEIRO, Márcio Murilo Conte 10 May 2010 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2012-04-17T18:20:12Z
No. of bitstreams: 2
Dissertacao_OtimizacaoSistemasDSL.pdf: 665935 bytes, checksum: edd3979f72236aaf631c220434f68f41 (MD5)
license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Approved for entry into archive by Edisangela Bastos(edisangela@ufpa.br) on 2012-04-17T18:20:34Z (GMT) No. of bitstreams: 2
Dissertacao_OtimizacaoSistemasDSL.pdf: 665935 bytes, checksum: edd3979f72236aaf631c220434f68f41 (MD5)
license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Made available in DSpace on 2012-04-17T18:20:34Z (GMT). No. of bitstreams: 2
Dissertacao_OtimizacaoSistemasDSL.pdf: 665935 bytes, checksum: edd3979f72236aaf631c220434f68f41 (MD5)
license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5)
Previous issue date: 2010 / Esta dissertação apresenta contribuições à algumas modalidades de gerenciamento de espectro em redes DSL que tem recebido pouca atenção na literatura : minimização de potência e maximização de margem de ruído. Com relação a minimização de potência, cerca de 60% da potência total consumida pelos modems DSL é utilizada na transmissão. A contribuição dessa dissertação nesse âmbito foi provar matematicamente que os algoritmos de maximização de taxa também podem ser usados para minimizar potência. Dessa forma, praticamente se elimina o atraso histórico entre o estado da arte em maximização de taxa e minimização de potência, colocando-os no mesmo nível de desenvolvimento. A segunda contribuição dessa dissertação é sobre a modalidade de maximização de margem de ruído, de modo a otimizar a estabilidade de redes DSL. Nessa linha de pesquisa, essa dissertação apresenta um novo alogoritmo para a maximização de margem multiusuário, que apresenta desempenho superior a um algoritmo publicado anteriormente na literatura especializada. / This dissertation presents contributions to some strategies of spectrum management
which have received few attention in the literature: power minimization and noise margin
maximization. Regarding power minimization, about 60% of the total power drained by the
DSL transceivers are used in the transmission. The contribution of this dissertation with
respect to this field was to prove mathematically that the algorithms of rate maximization
can also be used to minimize power. This way, the development gap between these two
modes of operation vanishes, turning them in the same level of development. The second
contribution of this dissertation is about the noise margin maximization, in order to optimize
the stability of DSL networks. In this direction, this dissertation presents a new algorithm
of multiuser margin maximization, which shows superior performance when compared to a
previous algorithm published in the specialized literature.
|
519 |
Desenvolvimento de metodologias para o reconhecimento de estruturas quiescentes em mapas solares observados pelo Telescópio Solar para Ondas Submilimétricas (SST)Pereira, André Luiz Garcia 20 August 2018 (has links)
Submitted by Marta Toyoda (1144061@mackenzie.br) on 2018-10-09T18:48:03Z
No. of bitstreams: 2
Andre Luiz Garcia Pereira.pdf: 3744578 bytes, checksum: a771cb04ee2c242cc6b35d79cfdc34ff (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2018-10-17T18:19:38Z (GMT) No. of bitstreams: 2
Andre Luiz Garcia Pereira.pdf: 3744578 bytes, checksum: a771cb04ee2c242cc6b35d79cfdc34ff (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-10-17T18:19:38Z (GMT). No. of bitstreams: 2
Andre Luiz Garcia Pereira.pdf: 3744578 bytes, checksum: a771cb04ee2c242cc6b35d79cfdc34ff (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2018-08-20 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The Submillimeter Solar Telescope (SST) operates simultaneously and independently with a
multibeam focal array at 212 and 405 GHz. Since 1999, the SST daily monitors in different
modes of observation the solar activity generating binary files from which solar maps can be
extracted. The identification of Active Regions in these maps is affected by the strong
atmospheric attenuation and inaccuracies of the telescope's pointing, therefore, maps are
visually inspected to manually extract the Active Regions. This is a lengthy process for
performing a statistical analysis over the 20-year data set already recorded. To automatize the
process artificial intelligence techniques of machine learning and computer vision were
proposed. A Convolutional Neural Network was created within the Keras framework for the
classification of the SST maps and then, a computer vision algorithm in the OpenCV framework
was used for the automatic detection of ARs. This hybrid approach allowed the identification
of more than 400 active regions between January 2002 and December 2017 and their physical
properties were statistically analysed. The results were validated comparing with previous
works which were carried out with a visual identification and manual extraction procedure, and
a good agreement was found. Moreover, we present for the first time, evidence of a positive
correlation between the brightness temperature at 212 GHz and the flux density at 2.8 GHz (the
S component) along the solar cycle. / O Telescópio Solar Submilimétrico (SST) opera simultaneamente e de forma independente,
com uma matriz focal multifeixe em 212 e 405 GHz. Desde 1999, o SST monitora diariamente
em diferentes modos de observação a atividade solar gerando arquivos binários dos quais mapas
solares podem ser extraídos. A identificação de Regiões Ativas nesses mapas é afetada pela
forte atenuação atmosférica e imprecisões dos apontamentos do telescópio, portanto, os mapas
são visualmente inspecionados para extração manual as Regiões Ativas. Este é um processo
demorado para a realização de uma análise estatística ao longo do conjunto de dados de 20 anos
já registrado. Para automatizar o processo, foram propostas técnicas de inteligência artificial de
aprendizado de máquina e de visão computacional. Uma Rede Neural Convolucional foi criada
dentro do framework Keras para a classificação dos mapas SST e, em seguida, um algoritmo
de visão computacional no framework OpenCV para a detecção automática das Regiões Ativas.
Esta abordagem híbrida permitiu a identificação de mais de 400 Regiões Ativas entre janeiro
de 2002 e dezembro de 2017 e a análise estatística de suas propriedades físicas. Os resultados
foram validados a partir da comparação com trabalhos anteriores, que foram realizados com um
procedimento de identificação visual e extração manual, e foi encontrada boa concordância.
Além destes resultados, mostramos pela primeira vez evidências de uma correlação positiva
entre a temperatura de brilho em 212 GHz e o fluxo em 2.8 GHz (componente S).
|
520 |
AGUIA: um gerador semântico de interface gráfica do usuário para ensaios clínicos / AGUIA: a generator semantics for graphical user interface for clinical trialsCorrêa, Miriã da Silveira Coelho 04 March 2010 (has links)
Made available in DSpace on 2015-03-04T18:50:20Z (GMT). No. of bitstreams: 1
Dissertacao_MiriaSCC.pdf: 3267159 bytes, checksum: f201a630eab8fd18b0da112537958c44 (MD5)
Previous issue date: 2010-03-04 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / AGUIA is a web application front-end originally developed to manage clinical, demographic and biomolecular patient data collected during gastrointestinal clinical trials at MD Anderson Cancer Center. The diversity of methodologies involved in patient screening and sample processing, brings corresponding heterogeneity of data types. Thus, this data must be based on a Resource Oriented Architecture that transforms heterogeneous data in semantic data, most specifically in RDF (Resource Description Framework). The database chosen was a S3DB, because it met the necessary requirements of transforming heterogeneous data from different sources in RDF, explicitly distinguishing the description of the domain from its instantiation, while allowing for continuous editing of both. Furthermore, it uses a REST protocol, and is open source and in the public domain which facilitates development and dissemination. Nevertheless, comprehensive and flexible a semantic web format may be, it does not by itself address the issue of representing content in a form that makes sense for domain experts. Accordingly, the goal of the work described here was to identify an additional set of descriptors that provide specifications for the graphic user interface. That goal was pursued by identifying a formalism that makes use of the RDF schema to enable automatic assembly of graphic user interfaces in a meaningful manner. A generalized RDF model was therefore defined such that changes in the graphic descriptors are automatically and immediately reflected into the configuration of the client web browser interface application, which is also made available with this report. Although the design patterns identified reflect, and benefit, from the specific requirements of interacting with data generated by clinical trials, the expectation is that they contain clues for a general purpose solution. In particular, it is suggested that the most useful patterns identified by the users of this system are susceptible to being reusable for other data sources, or at least for other clinical trial semantic web data stores. / AGUIA é uma aplicação web front-end, desenvolvida para gerenciar dados clínicos, demográficos e biomoleculares de pacientes coletados durante os ensaios clínicos gastrointestinais no MD Anderson Cancer Center. A diversidade de metodologias envolvidas na triagem de pacientes e no processamento da amostra traz uma heterogeneidade dos tipos de dados correspondentes. Sendo assim, estes devem ser baseados em uma arquitetura orientada a recurso que transforma dados heterogêneos em dados semânticos, mais especificamente em RDF (Resource Description Framework - Estrutura para a descrição de recursos). O banco de dados escolhido foi o S3DB, por este ter cumprido os requisitos necessários de transformação dos dados heterogêneos de diferentes fontes em RDF, distinguindo explicitamente a descrição do domínio e sua instanciação, permitindo simultaneamente a contínua edição de ambos. Além disso, ele usa um protocolo REST, e é de código aberto e domínio público o que facilita o desenvolvimento e divulgação. Contudo, por mais abrangente e flexível, um formato de web semântica pode por si só, não abordar a questão de representar o conteúdo de uma forma que faça sentido para especialistas do domínio. Assim, o objetivo do trabalho aqui descrito foi identificar um conjunto adicional de descritores que forneceu as especificações para a interface gráfica do usuário. Esse objetivo foi perseguido através da identificação de um formalismo que faz uso do esquema RDF para permitir a montagem automática de interfaces gráficas de uma forma significativa. Um modelo RDF generalizado foi, portanto, definido de tal forma que as mudanças nos descritores gráficos sejam automaticamente e imediatamente refletidas na configuração da aplicação web do cliente, que também está disponível neste trabalho. Embora os padrões de design identificados reflitam e beneficiem os requisitos específicos de interagir com os dados gerados pelos ensaios clínicos, a expectativa é que eles contenham pistas para uma solução de propósito geral. Em particular, sugere-se que os padrões mais úteis identificados pelos utilizadores deste sistema sejam suscetíveis de serem reutilizáveis para outras fontes de dados, ou pelo menos para outros bancos de dados semânticos de ensaios clínicos.
|
Page generated in 0.0789 seconds