Spelling suggestions: "subject:"maquinas"" "subject:"maquinaria""
121 |
[en] ALGORITHMS FOR MOTOR IMAGERY PATTERN RECOGNITION IN A BRAIN-MACHINE INTERFACE / [pt] ALGORITMOS PARA RECONHECIMENTO DE PADRÕES EM IMAGÉTICA MOTORA EM UMA INTERFACE CÉREBRO-MÁQUINAGABRIEL CHAVES DE MELO 14 August 2018 (has links)
[pt] Uma interface cérebro-máquina (ICM) é um sistema que permite a um indivíduo, entre outras coisas, controlar um dispositivo robótico por meio de sinais oriundos da atividade cerebral. Entre os diversos métodos para registrar os sinais cerebrais, destaca-se a eletroencefalografia (EEG), principalmente por ter
uma rápida resposta temporal e não oferecer riscos ao usuário, além de o equipamento ter um baixo custo relativo e ser portátil. Muitas situações podem fazer com que uma pessoa perca o controle motor sobre o corpo, mesmo preservando todas as funções do cérebro, como doenças degenerativas, lesões
medulares, entre outras. Para essas pessoas, uma ICM pode representar a única possibilidade de interação consciente com o mundo externo. Todavia, muitas são as limitações que impossibilitam o uso das ICMs da forma desejada, entre as quais estão as dificuldades de se desenvolver algoritmos capazes de fornecer uma alta confiabilidade em relação ao reconhecimento de padrões dos sinais registrados com EEG. A escolha pelas melhores posições dos eletrodos e as melhores características a serem extraídas do sinal é bastante complexa, pois é altamente condicionada à variabilidade interpessoal dos sinais. Neste trabalho um método é proposto para escolher os melhores eletrodos e as melhores características para pessoas distintas e é testado com um banco de dados contendo registros de sete pessoas. Posteriormente dados são extraídos com um equipamento próprio e uma versão adaptada do método é aplicada visando uma atividade em tempo real. Os resultados mostraram que o método é eficaz para a maior parte das pessoas e a atividade em tempo real forneceu resultados promissores. Foi possível analisar diversos aspectos do algoritmo e da variabilidade inter e intrapessoal dos sinais e foi visto que é possível, mesmo com um equipamento limitado, obter bons resultados mediante análises recorrentes para uma mesma pessoa. / [en] A brain-machine interface (BMI) system allows a person to control robotic devices with brain signals. Among many existing methods for signal acquisition, electroencephalography is the most often used for BCI purposes. Its high temporal resolution, safety to use, portability and low cost are the main reasons for being the most used method. Many situations can affect a person s capability of controlling their body, although brain functions remain healthy. For those people in the extreme case, where there is no motor control, a BCI can be the only way to interact with the external world. Nevertheless, it is still necessary to overcome many obstacles for making the use of BCI systems to become practical, and the most important one is the difficulty to design reliable algorithms for pattern recognition using EEG signals. Inter-subject variability related to the EEG channels and features of the signal are the biggest challenges in the way of making BCI systems a useful technology for restoring function to disabled people. In this paper a method for selecting subject-specific channels and features is proposed and validated with data from seven subjects. Later in the work data is acquired with different EEG equipment and an adapted version of the proposed method is applied aiming online activities. Results showed that the method was efficient for most people and online activities had promising results. It was possible to analyze important aspects concerning the algorithm and inter and intrasubject variability of EEG signals. Also, results showed that it is possible to achieve good results when multiple analyses are performed with the same subject, even with EEG equipment with well known limitations concerning signal quality.
|
122 |
[en] DETERMINISTIC ACOUSTIC SEISMIC INVERSION USING ARTIFICIAL NEURAL NETWORKS / [pt] INVERSÃO SÍSMICA ACÚSTICA DETERMINÍSTICA UTILIZANDO REDES NEURAIS ARTIFICIAISMARCELO GOMES DE SOUZA 02 August 2018 (has links)
[pt] A inversão sísmica é o processo de transformar dados de Sísmica de Reflexão em valores quantitativos de propriedades petroelásticas das rochas. Esses valores, por sua vez, podem ser correlacionados com outras
propriedades ajudando os geocientistas a fazer uma melhor interpretação que resulta numa boa caracterização de um reservatório de petróleo. Existem vários algoritmos tradicionais para Inversão Sísmica. Neste trabalho revisitamos a Inversão Colorida (Impedância Relativa), a Inversão Recursiva, a Inversão Limitada em Banda e a Inversão Baseada em Modelos. Todos esses quatro algoritmos são baseados em processamento digital de sinais e otimização. O presente trabalho busca reproduzir os resultados desses algoritmos através de uma metodologia simples e eficiente baseada em Redes Neurais e na pseudo-impedância. Este trabalho apresenta uma implementação dos algoritmos propostos na metodologia e testa sua validade num dado sísmico público que tem uma inversão feita pelos métodos tradicionais. / [en] Seismic inversion is the process of transforming Reflection Seismic data into quantitative values of petroleum rock properties. These values, in turn, can be correlated with other properties helping geoscientists to make a better interpretation that results in a good characterization of an oil reservoir.There are several traditional algorithms for Seismic Inversion. In this work we revise Color Inversion (Relative Impedance), Recursive Inversion, Bandwidth Inversion and Model-Based Inversion. All four of these algorithms are based on digital signal processing and optimization. The present work seeks to reproduce the results of these algorithms through a simple and efficient methodology based on Neural Networks and pseudo-impedance. This work presents an implementation of the algorithms proposed in the methodology and tests its validity in a public seismic data that has an inversion made by the traditional methods.
|
123 |
[en] A MULTI-AGENT APPROACH TO DATA MINING PROCESSES: APPLICATIONS TO HEALTH CARE / [pt] UMA ABORDAGEM MULTIAGENTE PARA PROCESSOS DE MINERAÇÃO DE DADOS: APLICAÇÕES NA ÁREA DA SAÚDEREINIER MOREJON NOVALES 02 August 2018 (has links)
[pt] A mineração de dados é um tema em alta que atrai pesquisadores de diferentes áreas, como bancos de dados, aprendizado de máquina e sistemas multiagentes. Como consequência do crescimento do volume de dados, há uma necessidade crescente de obter conhecimento desses grandes conjuntos de dados que são muito difíceis de manipular e processar com os métodos tradicionais. Os agentes de software podem desempenhar um papel significativo ao executar processos de mineração de dados de maneira mais eficiente. Por exemplo, eles podem trabalhar para realizar seleção, extração, pré-processamento e integração de dados, bem como mineração paralela, distribuída ou de múltiplas fontes. Este trabalho propõe uma abordagem (na forma de um framework) que usa agentes de software para gerenciar processos de mineração de dados. Para testar sua aplicabilidade, utilizamos vários conjuntos de dados relacionados ao domínio de saúde, representando alguns cenários de uso (hipotireoidismo, diabetes e arritmia). / [en] Data mining is a hot topic that attracts researchers from different areas, such as databases, machine learning, and multi-agent systems. As a consequence of the growth of data volume, there is a growing need to obtain knowledge from these large data sets that are very difficult to handle and process with traditional methods. Software agents can play a significant role performing data mining processes in ways that are more efficient. For instance, they can work to perform selection, extraction, preprocessing and integration of data as well as parallel, distributed, or multisource mining. This work proposes an approach (in the form of a framework) that uses software agents to manage data mining processes. In order to test its applicability, we use several data sets related to health care domain representing some usage scenarios (hypothyroidism, diabetes and arrhythmia).
|
124 |
[en] INSTITUTIONAL OWNERSHIP AS A PREDICTOR OF FUTURE SECURITY RETURNS / [pt] USO DE DADOS DAS CARTEIRAS DE INVESTIDORES INSTITUCIONAIS NA PREDIÇÃO DE RETORNOS DE AÇÕESRAPHAEL ALEXANDER ROTTGEN 29 February 2016 (has links)
[pt] Texto Dados sobre as carteiras de investidores institucionais em
ações agora estão disponíveis em vários países e portanto podem ser
usados em modelos para prever os futuros retornos de ações.
Recentemente, vários produtos comerciais de investimento foram
lançados que explicitamente usam tal tipo de dados na construção da
carteira de investimentos. O intuito deste estudo é aplicar algoritmos de
aprendizado de máquina em cima de dados das carteiras de ações de
investidores institucionais nos Estados Unidos, a fim de avaliar se tais
dados podem ser usados para prever futuros retornos de ações. Nosso
trabalho mostra que um modelo usando um support vector machine
conseguiu separar ações em três classes de futuro retorno com acurácia
acima da esperada se um modelo aleatório fosse usado. / [en] Data on institutional ownership of securities is nowadays publicly
available in a number of jurisdictions and can thus be used in models for
the prediction of security returns. A number of recently launched
investment products explicitly use such institutional ownership data in
security selection. The purpose of the current study is to apply statistical
learning algorithms to institutional ownership data from the United States,
in order to evaluate the predictive validity of features based on such
institutional ownership data with regard to future security returns. Our
analysis identified that a support vector machine managed to classify
securities, with regard to their four-quarter forward returns, into three bins
with significantly higher accuracy than pure chance would predict. Even
higher accuracy was achieved when predicting realized, i.e. past, fourquarter
returns.
|
125 |
Assessment of data-driven bayesian networks in software effort predictionTierno, Ivan Alexandre Paiz January 2013 (has links)
Software prediction unveils itself as a difficult but important task which can aid the manager on decision making, possibly allowing for time and resources sparing, achieving higher software quality among other benefits. One of the approaches set forth to perform this task has been the application of machine learning techniques. One of these techniques are Bayesian Networks, which have been promoted for software projects management due to their special features. However, the pre-processing procedures related to their application remain mostly neglected in this field. In this context, this study presents an assessment of automatic Bayesian Networks (i.e., Bayesian Networks solely based on data) on three public data sets and brings forward a discussion on data pre-processing procedures and the validation approach. We carried out a comparison of automatic Bayesian Networks against mean and median baseline models and also against ordinary least squares regression with a logarithmic transformation, which has been recently deemed in a comprehensive study as a top performer with regard to accuracy. The results obtained through careful validation procedures support that automatic Bayesian Networks can be competitive against other techniques, but still need improvements in order to catch up with linear regression models accuracy-wise. Some current limitations of Bayesian Networks are highlighted and possible improvements are discussed. Furthermore, this study provides some guidelines on the exploration of data. These guidelines can be useful to any Bayesian Networks that use data for model learning. Finally, this study also confirms the potential benefits of feature selection in software effort prediction.
|
126 |
Geração automática e assistida de interfaces de usuário / Automatic and aided generation of user interfacesMrack, Marcelo January 2009 (has links)
A geração automatizada de Interfaces de Usuário (IU) é objeto de estudo há muitos anos. Desde a década de 80, dezenas de projetos foram desenvolvidos e várias soluções apresentadas ao mercado. Entretanto, mesmo com os avanços obtidos neste cenário, inúmeras dificuldades ainda continuam presentes no dia-a-dia dos desenvolvedores de sistemas. A necessidade de processos, sintaxes e linguagens proprietárias associado ao elevado esforço de configuração e à baixa reutilização de tecnologias são os principais problemas nessa área. Objetivando sanar essas dificuldades, este trabalho propõe uma solução diferenciada para o problema, a qual reutiliza e integra-se à maioria das tecnologias comumente presentes nos ambientes de desenvolvimento e que conta com um exclusivo sistema de configuração, capaz de minimizar o trabalho de geração das IU. Sendo um típico gerador baseado em modelos, o software proposto é chamado MERLIN, e objetiva automatizar completamente a geracão de interfaces CRUD, as quais estão presentes em até 30% dos sistemas que operam sobre banco de dados. Para alcançar este objetivo, o software aposta no uso intensivo de heurísticas e na formação de uma estrutura auto-contida e realimentada de configurações, a qual reside unicamente nas classes compiladas da aplicação. Completando a sua arquitetura, um processo de geração em tempo de execução inibe a produção de qualquer linha de código-fonte, o que evita a necessidade de refatoração ao longo da evolução dos sistemas. Com esses elementos em evidência e focando inicialmente a plataforma Java, sinaliza-se uma solução diferenciada, apta para ser utilizada em ambientes profissionais de desenvolvimento. / The automated generation of User Interfaces (UI) has been the object of study for many years. Since the 1980s, dozens of projects have been developed and various solutions presented to the market. However, even with the advances obtained under this scenario, innumerable difficulties still continue to present themselves in the daily routine of system developers. The demands of proprietary methodologies, syntaxes and languages, the high level of effort needed for configuration and low reuse of technologies are the main problems in the area. With the object of rectifying these difficulties, this work proposes a solution specific to the problem, which reuses and combines the majority of the technologies already existing in development environments and relies on an exclusive configuration system, capable to minimize the work of generating the UI. Being a typical model based generator, the software under consideration is called MERLIN, and has as its objective to completely automate the generation of CRUD interfaces, which are present in up to 30% of the systems that interact with data bases. To achieve this objective, the software relies on the intensive use of heuristics and the creation of a self contained configuration feedback structure, which exists solely in the compiled classes of the application. Completing this architecture, a process of execution time generation eliminates the need for any source code, which significantly reduces the costs of refactoring the code throughout the evolution of the systems. With these elements in evidence and focusing initially on the Java platform, indicates that this distinguished solution is ready for use in professional development environments.
|
127 |
[en] OPTIMIZED FINANCIAL TRADE EXECUTION A EMPIRICAL STUDY / [pt] EXECUÇÃO OTIMIZADA DE TRANSAÇÕES FINANCEIRAS: UM ESTUDO EMPÍRICODIEGO CEDRIM GOMES REGO 01 April 2009 (has links)
[pt] Apresentamos um estudo empírico comparativo para o problema de Execução Otimizada de Transações nos mercados financeiros modernos. Construímos um simulador dos mercados financeiros, e então, baseado nessa ferramenta, comparamos o desempenho de algumas estratégias propostas na literatura. Os melhores resultados foram obtidos por estratégias que usam técnicas de aprendizado de máquina. / [en] We present a comparative empirical study for the Optimized
Trade Execution
problem in moderns financial markets. We build a financial
market
simulator and then, based on this tool, we compare the
performance of
many strategies available in the literature. The best
results were achieved
by strategies that make use of machine learning techniques.
|
128 |
Jogos inclusivos : diretrizes de acessibilidade para jogos digitais / Inclusive games: accessibility guidelines for digital gamesCheiran, Jean Felipe Patikowski January 2013 (has links)
Jogos digitais representam um importante e ascendente ramo da indústria de entretenimento. Esses jogos, de diversas formas, afetam o desenvolvimento das habilidades dos milhões de jogadores que diariamente estão engajados em jogos locais ou através da internet. Ao mesmo tempo, o potencial dos jogos digitais é frequentemente negado a pessoas com necessidades especiais (em particular, jogadores com deficiências), uma vez que os recursos de acessibilidade costumam ser mínimos nos jogos tradicionais disponíveis no mercado. De forma a preencher essa lacuna, grupos de pesquisadores, comunidades de interessados e empresas especializadas desenvolvem continuamente jogos projetados para usuários com deficiências específicas. Essa política, todavia, também apresenta limitações, pois esses jogos atendem somente a algumas necessidades especiais e excluem jogadores com outras deficiências. Assim, observamos que existem características segregadoras tanto na falta de mecanismos de acessibilidade nos jogos tradicionais quanto na adoção de um subconjunto de recursos específicos nos jogos especiais, levando-nos à urgência de políticas de implantação de recursos consistentes de acessibilidade que contemplem diversas necessidades especiais nos jogos tradicionais. Esse trabalho concentra-se nas diretrizes de acessibilidade para jogos, dado que elas representam norteadores fundamentais para a supracitada mudança de perspectiva. Assim, devido à dispersão e à falta de padronização das propostas de recomendações identificadas, nossos esforços convergiram para a compilação e a unificação das diretrizes de acessibilidade existentes. Esse processo fundamentou-se em uma técnica de análise de conteúdo que classificou e reorganizou as recomendações sob uma estrutura que é referência para a comunidade de acessibilidade: o documento WCAG 2.0. Utilizando avaliações manuais de acessibilidade de um conjunto pré-definido de jogos, buscamos verificar a consistência das novas diretrizes e validar nossa proposta por meio de um estudo de caso. Descrevemos também, ao longo do texto, os processos e os refinamentos realizados e apresentamos, por fim, algumas reflexões sobre o trabalho e o produto resultante dessa pesquisa. / Digital games are an important, ascending branch of the entertainment industry. These games, in many ways, affect the skill development of millions of players who are daily engaged in local or internet games. At the same time, the potential of digital games is often denied to people with special needs (especially players with disabilities), since the accessibility features are usually minimal in the mainstream games available on the market. In order to fill this gap, research groups, interest communities and specialized companies continually develop games designed for users with specific disabilities. However, this policy also has limitations because these games only address some special needs and exclude players with other disabilities. Thereby, we observe that there are segregating properties both in lack of accessibility mechanisms in mainstream games and in adopting a subset of specific resources in special games, leading us to the urgency for policies to implement solid accessibility features that address multiple special needs in mainstream games. This study focuses on game accessibility guidelines, given that they represent a fundamental guide to the aforementioned change of perspective. Due to dispersion and lack of standardization of the identified recommendations, our efforts converged on the compilation and unification of the existing accessibility guidelines. This process was based on a content analysis technique that classified and reorganized the recommendations under a referential structure for the accessibility community: the WCAG 2.0 document. Using manual accessibility evaluations for a set of games, we have sought to verify the consistency of the new guidelines and to validate our proposal through a case study. We also have described, throughout the text, processes and refinements made and we have presented, finally, some considerations on the work and the resulting product.
|
129 |
Uma abordagem multinível usando algoritmos genéticos em um comitê de LS-SVMPadilha, Carlos Alberto de Araújo January 2018 (has links)
Há muitos anos, os sistemas de comitê já tem se mostrado um método eficiente para aumentar a acurácia e estabilidade de algoritmos de aprendizado nas décadas recentes, embora sua construção tem uma questão para ser elucidada: diversidade. O desacordo entre os modelos que compõe o comitê pode ser gerado quando eles são contruídos sob diferentes circunstâncias, tais como conjunto de dados de treinamento, configuração dos parâmetros e a seleção dos algoritmos de aprendizado. O ensemble pode ser visto como uma estrutura com três níveis: espaço de entrada, a base de componentes e o bloco de combinação das respostas dos componentes. Neste trabalho é proposta uma abordagem multi-nível usando Algoritmos Genéticos para construir um ensemble de Máquinas de Vetor de Suporte por Mínimos Quadrados ou LS-SVM, realizando uma seleção de atributos no espaço de entrada, parametrização e a escolha de quais modelos irão compor o comitê no nível de componentes e a busca por um vetor de pesos que melhor represente a importância de cada classificador na resposta final do comitê. De forma a avaliar a performance da abordagem proposta, foram utilizados alguns benchmarks do repositório da UCI para comparar com outros algoritmos de classificação. Além disso, também foram comparados os resultados da abordagem proposta com métodos de aprendizagem profunda nas bases de dados MNIST e CIFAR e se mostraram bastante satisfatórios. / Many years ago, the ensemble systems have been shown to be an efficient method to increase the accuracy and stability of learning algorithms in recent decades, although its construction has a question to be elucidated: diversity. The disagreement among the models that compose the ensemble can be generated when they are built under different circumstances, such as training dataset, parameter setting and selection of learning algorithms. The ensemble may be viewed as a structure with three levels: input space, the base components and the combining block of the components responses. In this work is proposed a multi-level approach using genetic algorithms to build the ensemble of Least Squares Support Vector Machines (LS-SVM), performing a feature selection in the input space, the parameterization and the choice of which models will compose the ensemble at the component level and finding a weight vector which best represents the importance of each classifier in the final response of the ensemble. In order to evaluate the performance of the proposed approach, some benchmarks from UCI Repository have been used to compare with other classification algorithms. Also, the results obtained by our approach were compared with some deep learning methods on the datasets MNIST and CIFAR and proved very satisfactory.
|
130 |
[en] DEMAND FORECASTING IN THE LOGISTICS MANAGEMENT OF PERISHABLE PRODUCTS SOLD BY VENDING MACHINES / [pt] PREVISÃO DE DEMANDA NA GESTÃO LOGÍSTICA DE UM PRODUTO PERECÍVEL VENDIDO POR MÁQUINA AUTOMÁTICAPAULA ANDRADE JUDICE 29 July 2005 (has links)
[pt] Esta dissertação analisa o problema da gestão de estoque
de sanduíches de uma
empresa prestadora de serviços de alimentação, a Tok Take
Alimentação Ltda. Para
tanto, foi feito um levantamento bibliográfico na área de
gestão de estoques e de
previsão de demanda. Para o estudo de caso, dados
históricos do consumo diário de
sanduíches em um determinado cliente foram coletados e
submetidos à análise por
meio de dois métodos de previsão de demanda: o método de
médias móveis dupla e o
método de amortecimento direto para dados sazonais. Desta
forma, foram
determinados dois modelos que possibilitam a previsão de
demanda diária deste
produto. / [en] This report analyzes the issue of managing the inventory
of sandwiches of a
food vending enterprise, Tok Take Alimentação Ltda. For
that purpose, a
bibliographic survey was made on inventory management and
demand forecasting.
In the case studied it was found that no gain could be
obtained by expanding the
replenishment period. Hence the analysis turned its focus
to demand forcasting. For
the case study, historical data of sandwich consumption at
a specific client site were
colected and submited to analysis by means of two
forecasting methods namely:
double moving average and direct smoothing for seasonal
data. After that, a model
that enables daily forecasting of that product`s demand
was determined.
|
Page generated in 0.0544 seconds