• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • Tagged with
  • 19
  • 17
  • 17
  • 17
  • 16
  • 11
  • 10
  • 8
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Utiliza??o de M?dia M?vel Exponencialmente Ponderada para detectar e corrigir os Estilos de Aprendizagem do estudante

Ribeiro, Patrick Aur?lio Luiz 28 September 2017 (has links)
Incluir a Universidade Federal dos Vales do Jequitinhonha e Mucuri (UFVJM) como ag?ncia financiadora. / Submitted by Jos? Henrique Henrique (jose.neves@ufvjm.edu.br) on 2017-12-14T16:46:41Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) patrick_aurelio_luiz_ribeiro.pdf: 6159348 bytes, checksum: 5978e3ca5ff417ce94712c998e8c5c8a (MD5) / Approved for entry into archive by Rodrigo Martins Cruz (rodrigo.cruz@ufvjm.edu.br) on 2018-01-03T12:20:58Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) patrick_aurelio_luiz_ribeiro.pdf: 6159348 bytes, checksum: 5978e3ca5ff417ce94712c998e8c5c8a (MD5) / Made available in DSpace on 2018-01-03T12:20:58Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) patrick_aurelio_luiz_ribeiro.pdf: 6159348 bytes, checksum: 5978e3ca5ff417ce94712c998e8c5c8a (MD5) Previous issue date: 2017 / Na modalidade de ensino a dist?ncia, os Ambientes Virtuais de Aprendizagem (AVAs) s?o elementos fundamentais no processo de ensino e aprendizagem, atrav?s da disponibiliza??o de conte?dos e ?reas de discuss?o e comunica??o entre os atores do processo. Entretanto, tais ambientes, na sua maioria, caracterizam-se pelo fato de serem est?ticos, abordando m?todos pedag?gicos gen?ricos atrav?s dos quais estudantes com caracter?sticas e Estilos de Aprendizagem (EAs) diferentes buscam o conhecimento. Dessa maneira, ? importante que sejam levados em considera??o os EAs de cada estudante como forma de tornar a aprendizagem mais eficaz. Question?rios psicom?tricos na maioria das vezes s?o utilizados para que as caracter?sticas de aprendizagem do estudante sejam identificadas, por?m nem sempre tais question?rios apresentam resultados precisos quanto ao EAs de determinado estudante. Assim, faz-se necess?ria a utiliza??o de outras t?cnicas de detec??o, haja vista que uma identifica??o precisa ? capaz de melhorar o processo de aprendizagem por meio de escolhas de estrat?gias pedag?gicas melhores. Diante disso, surge a necessidade de utiliza??o de sistemas inteligentes que se adaptem ?s caracter?sticas de aprendizagem do estudante, utilizando como pressupostos as experi?ncias vivenciadas por ele e as an?lises estat?sticas dessas experi?ncias. Isso pode ser feito atrav?s de avalia??es dos EAs apresentados pelo estudante, em que a partir dos resultados um novo modelo de aprendizagem do estudante ? definido para que o conte?do seja disponibilizado de acordo com esse modelo. Nesse intuito a presente abordagem objetivou identificar e corrigir os EAs do estudante por meio da utiliza??o do conceito de M?dia M?vel Exponencialmente Ponderada no processo de decis?o sobre a aplica??o do refor?o de maneira a ajustar o Modelo do Estudante (ME), de modo que os resultados obtidos, ap?s a realiza??o do teste estat?stico n?o-param?trico de Mann-Whitney, mostraram-se significativamente melhores do que os resultados apresentados por Dor?a (2012), cujo trabalho foi refer?ncia para o desenvolvimento desta proposta. / Disserta??o (Mestrado Profissional) ? Programa de P?s-Gradua??o em Educa??o, Universidade Federal dos Vales do Jequitinhonha e Mucuri, 2017. / In Distance Learning, Learning Management Systems (LMS) are extremely important elements in teaching and learning process, because they can offer content and spaces of discussion and comunication between people who are part of that process. However they are static and do not consider students? Learning Styles (LS) to show the content, they just use the same pedagogical methods for all learners. It is important to consider students? Learning Styles because this can make the learning process more efective. Most of the time people use Psychometric Instruments to detect students? preferences, but sometimes the outcomes of those methods are not precise. Because of this other techniques of detection of LS can be used to identify precisely the student?s LS and consequently to choose better pedagogical strategies than when are used manual techniques of detection of LS. For this reason intelligent systems which adapt to students? learning characteristics get importance since they use experiences and statistical analysis over these experiences to be adaptive. It can be done based on learner?s Learning Styles that are adjusted by a part of the system, then these new LS are used by another part of the system to select a pedagogical strategy which fit to student?s characteristics. Thus, this work presents an approach which aimed to identify and to correct the Learning Styles of the learner using for this the Exponentially Weighted Moving Average (EWMA) concept. This concept was used to decide if reinforcement signs have to be used to make the student?s modeling. This approach was tested and the outcomes were submitted to non parametric test Mann-Whitney which pointed they were significantly better than the results of Dor?a (2012), whose work was the base of the work presented here.
12

Estrat?gias de busca reativa utilizando aprendizagem por refor?o e algoritmos de busca local

Santos, Jo?o Paulo Queiroz dos 12 September 2014 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2015-11-27T13:12:56Z No. of bitstreams: 1 JoaoPauloQueirozDosSantos_TESE.pdf: 2943111 bytes, checksum: d4f55a9718f28707aa96893d2b66b4e5 (MD5) / Approved for entry into archive by Elisangela Moura (lilaalves@gmail.com) on 2015-11-27T14:58:26Z (GMT) No. of bitstreams: 1 JoaoPauloQueirozDosSantos_TESE.pdf: 2943111 bytes, checksum: d4f55a9718f28707aa96893d2b66b4e5 (MD5) / Made available in DSpace on 2015-11-27T14:58:26Z (GMT). No. of bitstreams: 1 JoaoPauloQueirozDosSantos_TESE.pdf: 2943111 bytes, checksum: d4f55a9718f28707aa96893d2b66b4e5 (MD5) Previous issue date: 2014-09-12 / T?cnicas de otimiza??o conhecidas como as metaheur?sticas tem conseguido resolversatisfatoriamente problemas conhecidos, mas desenvolvimento das metaheur?sticas ?caracterizado por escolha de par?metros para sua execu??o, na qual a op??o apropriadadestes par?metros (valores). Onde o ajuste de par?metro ? essencial testa-se os par?metrosat? que resultados vi?veis sejam obtidos, normalmente feita pelo desenvolvedor que estaimplementando a metaheuristica. A qualidade dos resultados de uma inst?ncia1 de testen?o ser? transferida para outras inst?ncias a serem testadas e seu feedback pode requererum processo lento de ?tentativa e erro? onde o algoritmo t?m que ser ajustado para umaaplica??o especifica. Diante deste contexto das metaheur?sticas surgiu a Busca Reativaque defende a integra??o entre o aprendizado de m?quina dentro de buscas heur?sticaspara solucionar problemas de otimiza??o complexos. A partir da integra??o que a BuscaReativa prop?e entre o aprendizado de m?quina e as metaheur?sticas, surgiu a ideia dese colocar a Aprendizagem por Refor?o mais especificamente o algoritmo Q-learning deforma reativa, para selecionar qual busca local ? a mais indicada em determinado instanteda busca, para suceder uma outra busca local que n?o pode mais melhorar a solu??ocorrente na metaheur?stica VNS. Assim, neste trabalho propomos uma implementa??o reativa,utilizando aprendizado por refor?o para o auto-tuning do algoritmo implementado,aplicado ao problema do caixeiro viajante sim?trico e ao problema escalonamento sondaspara manuten??o de po?os.
13

Uma t?cnica de lineariza??o por realimenta??o para compensa??o de agarramento em v?lvulas de controle pneum?ticas

Almeida, Tiago Alves de 17 December 2015 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-06-14T20:06:09Z No. of bitstreams: 1 TiagoAlvesDeAlmeida_DISSERT.pdf: 4023553 bytes, checksum: 78962742727907f1310638eedf05cc38 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-06-15T23:24:57Z (GMT) No. of bitstreams: 1 TiagoAlvesDeAlmeida_DISSERT.pdf: 4023553 bytes, checksum: 78962742727907f1310638eedf05cc38 (MD5) / Made available in DSpace on 2016-06-15T23:24:57Z (GMT). No. of bitstreams: 1 TiagoAlvesDeAlmeida_DISSERT.pdf: 4023553 bytes, checksum: 78962742727907f1310638eedf05cc38 (MD5) Previous issue date: 2015-12-17 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / Agarramento em v?lvulas ? um problema muito comum em malhas de controle e geralmente ? a principal causa do mau desempenho de sistemas industriais. Os efeitos desta n?o linearidade mais comumente observados s?o oscila??es nas vari?veis de processo. Para contornar os efeitos indesej?veis, compensadores de atrito t?m sido propostos, com o objetivo de reduzir a variabilidade na sa?da. Neste trabalho ? analisada a compensa??o do atrito em v?lvulas de controle pneum?ticas por meio de uma t?cnica de lineariza??o por realimenta??o. O modelo da v?lvula utilizado inclui tanto zona morta quanto salto. Resultados de simula??o mostram que o uso desse modelo mais completo resulta em controladores com desempenho superior. O m?todo ? tamb?m comparado por meio de simula??es com o m?todo conhecido como Refor?o Constante (CR), bastante utilizado neste problema. / In control loops valve stiction is a very common problem. Generally, it is one of main causes of poor performance of industrial systems. Its most commonly observed effect is oscillation in the process variables. To circumvent the undesirable effects, friction compensators have been proposed in order to reduce the variability in the output. This work analyzes the friction compensation in pneumatic control valves by using feedback linearization technique. The valve model includes both dead zone and jump. Simulations show that the use of this more complete model results in controllers with superior performance. The method is also compared through simulations with the method known as Constant Reinforcement (CR), widely used in this problem.
14

Aprendizado por Refor?o com Valores deInflu?ncia em Sistemas Multi-Agente

Aranibar, Dennis Barrios 19 March 2009 (has links)
Made available in DSpace on 2014-12-17T14:54:54Z (GMT). No. of bitstreams: 1 DennisBA_TESE.pdf: 1043376 bytes, checksum: 6b47eea8aa7b8a53ea716b636db4663b (MD5) Previous issue date: 2009-03-19 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico / We propose a new paradigm for collective learning in multi-agent systems (MAS) as a solution to the problem in which several agents acting over the same environment must learn how to perform tasks, simultaneously, based on feedbacks given by each one of the other agents. We introduce the proposed paradigm in the form of a reinforcement learning algorithm, nominating it as reinforcement learning with influence values. While learning by rewards, each agent evaluates the relation between the current state and/or action executed at this state (actual believe) together with the reward obtained after all agents that are interacting perform their actions. The reward is a result of the interference of others. The agent considers the opinions of all its colleagues in order to attempt to change the values of its states and/or actions. The idea is that the system, as a whole, must reach an equilibrium, where all agents get satisfied with the obtained results. This means that the values of the state/actions pairs match the reward obtained by each agent. This dynamical way of setting the values for states and/or actions makes this new reinforcement learning paradigm the first to include, naturally, the fact that the presence of other agents in the environment turns it a dynamical model. As a direct result, we implicitly include the internal state, the actions and the rewards obtained by all the other agents in the internal state of each agent. This makes our proposal the first complete solution to the conceptual problem that rises when applying reinforcement learning in multi-agent systems, which is caused by the difference existent between the environment and agent models. With basis on the proposed model, we create the IVQ-learning algorithm that is exhaustive tested in repetitive games with two, three and four agents and in stochastic games that need cooperation and in games that need collaboration. This algorithm shows to be a good option for obtaining solutions that guarantee convergence to the Nash optimum equilibrium in cooperative problems. Experiments performed clear shows that the proposed paradigm is theoretical and experimentally superior to the traditional approaches. Yet, with the creation of this new paradigm the set of reinforcement learning applications in MAS grows up. That is, besides the possibility of applying the algorithm in traditional learning problems in MAS, as for example coordination of tasks in multi-robot systems, it is possible to apply reinforcement learning in problems that are essentially collaborative / Propomos um novo paradigma de aprendizado coletivo em sistemas multi-agentes (SMA) como uma solu??o para o problema em que v?rios agentes devem aprender como realizar tarefas agindo sobre um mesmo ambiente, simultaneamente, baseando-se em retornos fornecidos por cada um dos outros agentes. Introduzimos o paradigma proposto na forma do algoritmo de aprendizado por refor?o, denominando-o de aprendizado por refor?o com valores de influ?ncia. Cada agente aprendendo por refor?o avalia a rela??o existente entre o valor do seu estado atual e/ou a a??o executada no estado (cren?as atuais) junto com a recompensa obtida ap?s todos os agentes que est?o interagindo executarem suas a??es (resultado da interfer?ncia dos outros). O agente pondera as opini?es de todos os seus colegas na tentativa de mudar os valores dos seus estados e/ou a??es. A id?ia ? que o sistema como um todo deve chegar a um equil?brio, onde todos os agentes se sentem satisfeitos com os resultados obtidos, significando que os valores dos estados ou pares estado/a??o casam-se com a recompensa obtida por cada agente. Esta forma din?mica de atualizar o valor dos estados e/ou a??es faz deste novo paradigma de aprendizado por refor?o o primeiro a incluir, naturalmente, o fato de que a presen?a de outros agentes no ambiente o torna din?mico. Como resultado direto, inclu?mos implicitamente o estado interno, as a??es e a recompensa obtida por todos os outros agentes dentro do estado interno de cada agente. Isso faz de nossa proposta a primeira solu??o completa para o problema conceitual que surge ao aplicar aprendizado por refor?o em sistemas multi-agente, causado pela diferen?a existente entre o modelo do ambiente e o modelo do agente. Com base no modelo proposto, criamos o algoritmo IVQ-Learning, testado exaustivamente em jogos repetitivos com dois, tr?s e quatro agentes e em jogos estoc?sticos que exijam coopera??o e em jogos que exijam colabora??o. Este algoritmo mostra-se como uma boa op??o na tentativa de obter solu??es que garantam a converg?ncia para o equil?brio de Nash ?timo em problemas cooperativos. Os experimentos realizados deixam claro que o paradigma proposto ? te?rica e experimentalmente superior aos paradigmas tradicionais. Ainda, com a cria??o deste novo paradigma, o conjunto de aplica??es de aprendizado por refor?o em SMA foi ampliado. Ou seja, al?m da possibilidade de aplicar os algoritmos nos problemas tradicionais de aprendizado em SMA, como por exemplo coordena??o de tarefas em sistemas multi-rob?, ? poss?vel aplicar aprendizado por refor?o nos problemas essencialmente colaborativos
15

Roteamento em Redes de Sensores Sem Fios Com Base Em Aprendizagem Por Refor?o

Campos, Leonardo Rene dos Santos 19 December 2011 (has links)
Made available in DSpace on 2014-12-17T14:56:07Z (GMT). No. of bitstreams: 1 LeonardoRSC_DISSERT.pdf: 726277 bytes, checksum: d47bf4e8090a3b1fadc03b4c34ebecda (MD5) Previous issue date: 2011-12-19 / The use of wireless sensor and actuator networks in industry has been increasing past few years, bringing multiple benefits compared to wired systems, like network flexibility and manageability. Such networks consists of a possibly large number of small and autonomous sensor and actuator devices with wireless communication capabilities. The data collected by sensors are sent directly or through intermediary nodes along the network to a base station called sink node. The data routing in this environment is an essential matter since it is strictly bounded to the energy efficiency, thus the network lifetime. This work investigates the application of a routing technique based on Reinforcement Learning s Q-Learning algorithm to a wireless sensor network by using an NS-2 simulated environment. Several metrics like energy consumption, data packet delivery rates and delays are used to validate de proposal comparing it with another solutions existing in the literature / A utiliza??o das redes de sensores e atuadores sem fio nas plantas das ind?strias vem crescendo nos ?ltimos anos, trazendo v?rios benef?cios em rela??o aos sistemas cabeados, como flexibilidade na instala??o e manuten??o da rede. Tais redes consistem basicamente de um n?mero possivelmente grande de dispositivos sensores e atuadores pequenos e aut?nomos que possuem capacidade de comunica??o sem fio. Os dados coletados pelos sensores s?o enviados seja diretamente ou passando atrav?s de n?s intermedi?rios pela rede at? uma esta??o-base conhecida como n? sink. O roteamento nesse ambiente ? uma quest?o essencial j? que est? intimamente ligado ? efici?ncia energ?tica e consequentemente ao tempo de vida da rede. Este trabalho investiga a aplica??o de uma t?cnica de roteamento baseado no algoritmo Q-Learning de Aprendizagem por Refor?o a uma rede de sensores sem fio atrav?s de simula??es no ambiente NS-2. Diversas m?tricas como consumo de energia, taxa de pacotes entregues com sucesso e atrasos s?o utilizadas para validar a proposta comparando-a com outras solu??es existentes na literatura
16

Uma abordagem utilizando aprendizagem por refor?o hier?rquica e computa??o paralela para o problema dos K-Servos

Costa, Mademerson Leandro da 09 June 2017 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-10-18T20:55:13Z No. of bitstreams: 1 MademersonLeandroDaCosta_TESE.pdf: 1891375 bytes, checksum: 6977d7d34bb28c61fa6a511b98c8df53 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-10-24T22:28:38Z (GMT) No. of bitstreams: 1 MademersonLeandroDaCosta_TESE.pdf: 1891375 bytes, checksum: 6977d7d34bb28c61fa6a511b98c8df53 (MD5) / Made available in DSpace on 2017-10-24T22:28:39Z (GMT). No. of bitstreams: 1 MademersonLeandroDaCosta_TESE.pdf: 1891375 bytes, checksum: 6977d7d34bb28c61fa6a511b98c8df53 (MD5) Previous issue date: 2017-06-09 / Um sistema de tarefas em espa?os m?tricos ? um modelo abstrato para uma classe de problemas de otimiza??o online, incluindo o problema de pagina??o de mem?ria, listas de acesso, problemas na ind?stria do petr?leo como o gerenciamento de sondas de produ??o terrestre (workover rigs) e de log?stica na produ??o de petr?leo offshore, o problema dos K-Servos, dentre outros. A utiliza??o da aprendizagem por refor?o na solu??o destes problemas, embora tenha se mostrado eficiente, est? restrita a uma classe simples de problemas, devido ? maldi??o da dimensionalidade inerente ao m?todo. Neste trabalho, apresenta-se uma solu??o que utiliza a aprendizagem por refor?o, baseada em t?cnicas de decomposi??o hier?rquica e computa??o paralela para solu??o de problemas de otimiza??o em espa?os m?tricos, com o objetivo de estender a aplicabilidade do m?todo a problemas complexos na ind?stria petrol?fera, contornando a restri??o da sua utiliza??o a problemas te?ricos de menor porte. A dimens?o da estrutura de armazenamento utilizada pela aprendizagem por refor?o para se obter a pol?tica ?tima cresce em fun??o do n?mero de estados e de a??es, sendo diretamente proporcional ao n?mero n de n?s e k de servos, fazendo com que o crescimento da complexidade do problema se d? de maneira exponencial (?????(??)). Para contorn?-lo, o problema foi modelado com um processo de decis?o em m?ltiplas etapas onde inicialmente utilizamos o algoritmo k-means como m?todo de agrupamento visando decompor o problema em subproblemas de menor dimens?o. Em seguida foi aplicado o algoritmo Q-learning nos subgrupos buscando-se atingir a melhor pol?tica de deslocamento dos servos. Nesta etapa, foram utilizadas t?cnicas de computa??o paralela para que os processos de aprendizado e armazenamento nos subgrupos fossem executados de forma paralela. Desta forma, a dimens?o do problema e o tempo total de execu??o do algoritmo foram reduzidos, viabilizando a aplica??o do m?todo proposto ?s grandes inst?ncias. A abordagem proposta apresentou melhores resultados quando comparada com a aprendizagem por refor?o cl?ssica e o m?todo guloso. Al?m de ter atingido ganhos de speedup e efici?ncia na avalia??o das m?tricas de desempenho paralelo. / A metrical task system is an abstract model for a class of online optimization problems, including paging, access lists, industry oil problems such as the management of workover rigs and logistics in the production of offshore oil, the problem of K-Servos, among others. The use of reinforcement learning to solving these problems, although proved to be efective, is restricted to a simple class of problems due to the curse of dimensionality inherent to the method. This work presents a solution that uses reinforcement learning based on hierarchical decomposition techniques and parallel computing to solve optimization problems in metric spaces. The use of these techniques allowed to extend the applicability of the method to more complex problems, bypassing the restriction of its use to smaller problems. As the size of the storage structure used by reinforcement learning to obtain the optimal policy grows as a function of the number of states and actions, which in turn is proportional to the number n of nodes and k of servers, it is noticed that their growth is given exponentially (?????(??)). To circumvent this, the problem was modeled with a multi-step decision process where we initially used the k-means algorithm as a grouping method to decompose the problem into smaller subproblems. Then, the Q-learning algorithm was applied in the subgroups, aiming at achieving the best server displacement policy. In this step, the learning and storage processes in the subgroups were executed in parallel. In this way, the problem dimension and the total execution time of the algorithm were reduced, making possible the application of the proposed method to the large instances. The proposed approach presented better results when compared to the classical reinforcement learning and the greedy method. In addition to achieving speedup and efficiency gains in the evaluation of parallel performance metrics. Keywords? Metrical Task Systems, The K-Server Problem, Curse of Dimensionality, Hierarchical Reinforcement Learning, Q-Learning Algorithm, Parallel Computing.
17

Aplica??o do m?todo das diferen?as finitas energ?ticas na modelagem do concreto refor?ado com fibras curtas de a?o sob flex?o

Neves, J?lia Barbosa 24 September 2013 (has links)
Submitted by Verena Bastos (verena@uefs.br) on 2015-08-05T21:29:18Z No. of bitstreams: 1 NEVES_JB_2012_R2.pdf: 2142681 bytes, checksum: 2f1f8d4679734685ccd9edf621f7b8c4 (MD5) / Made available in DSpace on 2015-08-05T21:29:18Z (GMT). No. of bitstreams: 1 NEVES_JB_2012_R2.pdf: 2142681 bytes, checksum: 2f1f8d4679734685ccd9edf621f7b8c4 (MD5) Previous issue date: 2013-09-24 / Funda??o de Amparo ? Pesquisa do Estado de S?o Paulo - FAPESP / The prediction of the reinforced concrete beams behavior under bending is essential to design these elements. Usually the models do not incorporate the concrete stress contribution, which may underestimate the structural element strain that use steel fiber reinforced concrete (SFRC) under permanent or temporary loads. This work presents a variational formulation based on the finite difference energy method (EFDM) in predicting the flexural behavior of concrete beams reinforced, that uses SFRC. The proposed model uses the classical lamination theory (CLT) with a damage model (Mazars, 1984) applied to the SFRC. The reinforcement was considered as a layer of a perfect elastic-plastic material. Comparing the load-displacement numerical results with those of the literature to reinforced concrete beams demonstrates the consistency of the proposed model. / A previs?o do comportamento de vigas de concreto armado sob flex?o ? fundamental para o adequado dimensionamento destes elementos. Usualmente, os modelos n?o incorporam a contribui??o do concreto tracionado, o que pode subestimar as deforma??es no elemento estrutural que utilizem o concreto refor?ado com fibras (CRFA) sob cargas de curta e longa dura??o. No presente trabalho ? apresentada uma formula??o variacional com base no m?todo das diferen?as finitas energ?ticas (MDFE) para a previs?o do comportamento ? flex?o de vigas de concreto simples ou armado refor?adas com fibras de a?o. O modelo proposto combina a teoria cl?ssica de laminados (TCL) com um modelo de dano (Mazars, 1984) aplicado ao concreto. O refor?o (armadura longitudinal) foi considerado como uma l?mina de um material elasto-pl?stico perfeito. A compara??o dos resultados num?ricos com resultados encontrados na literatura para vigas de concreto armado, em termos de cargadeslocamento, demonstra a coer?ncia do modelo proposto.
18

Utiliza??o de res?duo lignocelul?sico na obten??o de chapa de madeira aglomerada homog?nea e comp?sito refor?ado com fibra de vidro-E

Silva, Luiz Claudio Ferreira da 10 July 2008 (has links)
Made available in DSpace on 2014-12-17T14:06:58Z (GMT). No. of bitstreams: 1 LuizCFS.pdf: 3453741 bytes, checksum: a917d4da21cccce053bc103345ba7ee6 (MD5) Previous issue date: 2008-07-10 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / This research is about the use of the coconut?s endocarp (nucifera linn) and the waste of derivatives of wood and furniture as raw material to technological use. In that sense, the lignocellulosic waste is used for manufacture of homogeneous wood sheet agglomerate (LHWS) and lignocellulosic load which take part of a polymeric composite with fiber glass E (GFRP-WC). In the manufacturing of the homogeneous wood sheet agglomerate (LHWS), it was used mamona?s resin as waste s agglutinating element. The plates were taken up in a hydraulic press engine, heated, with temperature control, where they were manufactured for different percentage of waste wood and coconuts nuc?fera linn. Physical tests were conducted to determine the absorption of water, density, damp grade (in two hours and twenty-four hours), swelling thickness (in two hours and twenty-four hours), and mechanical tests to evaluate the parallel tensile strength (internal stick) and bending and the static (steady) flexural. The physical test?s results indicate that the LHWS can be classified as bonded wood plate of high-density and with highly water resistant. In the mechanical tests it was possible to establish that LHWS presents different characteristics when submitted to uniaxial tensile and to the static (steady) flexural, since brittle and elasticity module had a variation according to the amount of dry endocarp used to manufacture each trace of LHWS. The GFRP-WC was industrially manufactured by a hand-lay-up process where the fiber glass E was used as reinforcement the lignocellul?sic?s waste as load. The matrix was made with ortofitalic unsaturated polyester resin. Physical and mechanical tests were performed in presence of saturated humidity and dry. The results indicated good performance of the GFRP-WC, as traction as in flexion in three points. The presence of water influenced the modules obtained in the flexural and tensile but there were no significant alteration in the properties analyzed. As for the fracture, the analysis showed that the effects are more harmful in the presence of damp, under the action of loading tested, but despite this, the fracture was well defined starting in the external parts and spreading to the internal regions when one when it reaches the hybrid load / Na presente pesquisam-se a utiliza??o do endocarpo do cocos nuc?fera linn e o res?duo de derivados de madeira e de m?veis como mat?ria-prima para uso tecnol?gico. Nesse sentido, usam-se esses res?duos lignocelul?sico na fabrica??o de chapa de madeira aglomerada homog?nea (CHMC) e, como carga, em comp?sito polim?rico refor?ado com fibra de vidro E (PHFV-MC). Na fabrica??o da chapa de madeira aglomerada homog?nea (CHMC) usou-se a resina ? base de mamona como elemento aglutinante dos res?duos. As chapas foram conformadas em uma prensa hidr?ulica aquecida com controle de temperatura, onde as mesmas foram fabricadas para diferentes percentuais dos res?duos de madeira e do cocos nuc?fera linn. Foram realizados ensaios f?sicos para a determina??o de absor??o de ?gua, densidade, do teor de umidade (em duas horas e vinte e quatro horas), inchamento de espessura (em duas horas e vinte e quatro horas), e ensaios mec?nicos para a determina??o da resist?ncia ? tra??o paralela (ades?o interna) e o ensaio de flex?o est?tica. Os resultados obtidos nos ensaios f?sicos indicam que a CHMC pode ser classificada como chapa de madeira aglomerada de alta densidade e que suporta bem a presen?a de ?gua. Nos ensaios mec?nicos foi poss?vel constatar que a CHMC apresenta caracter?sticas distintas quando submetida ? for?a de tra??o uniaxial e ? flex?o est?tica, uma vez que os m?dulos de ruptura e de elasticidade variaram em fun??o da quantidade do endocarpo seco usado para fabricar cada tra?o da CHMC. A PHFV-MC foi fabricada industrialmente por meio do processo hand-lay-up onde a fibra de vidro-E foi usada como refor?o e os res?duos lignocelul?sicos, como carga. A matriz foi ? base de resina poli?ster ortofit?lica insaturada. Foram realizados ensaios f?sicos e mec?nicos em presen?a de umidade saturada e a seco. Os resultados indicaram um bom desempenho da PHFV-MC, tanto na tra??o quanto na flex?o em tr?s pontos. A presen?a de ?gua influenciou os m?dulos obtidos na flex?o e na tra??o, mas n?o alterou significativamente as propriedades analisadas. Quanto ? fratura, a an?lise mostrou que os efeitos s?o mais danosos em presen?a da umidade, sob a a??o dos carregamentos analisados, mas, apesar disto, a fratura se mostrou bastante caracterizada, iniciando nas regi?es externas e se propagando para as regi?es internas quando atinge a carga h?brida
19

Classifica??o de padr?es atrav?s de um comit? de m?quinas aprimorado por aprendizagem por refor?o

Lima, Naiyan Hari C?ndido 13 August 2012 (has links)
Made available in DSpace on 2014-12-17T14:56:07Z (GMT). No. of bitstreams: 1 NaiyanHCL_DISSERT.pdf: 1452285 bytes, checksum: 018fb1e8fa51e8f7094cce68a18c6c73 (MD5) Previous issue date: 2012-08-13 / Reinforcement learning is a machine learning technique that, although finding a large number of applications, maybe is yet to reach its full potential. One of the inadequately tested possibilities is the use of reinforcement learning in combination with other methods for the solution of pattern classification problems. It is well documented in the literature the problems that support vector machine ensembles face in terms of generalization capacity. Algorithms such as Adaboost do not deal appropriately with the imbalances that arise in those situations. Several alternatives have been proposed, with varying degrees of success. This dissertation presents a new approach to building committees of support vector machines. The presented algorithm combines Adaboost algorithm with a layer of reinforcement learning to adjust committee parameters in order to avoid that imbalances on the committee components affect the generalization performance of the final hypothesis. Comparisons were made with ensembles using and not using the reinforcement learning layer, testing benchmark data sets widely known in area of pattern classification / A aprendizagem por refor?o ? uma t?cnica de aprendizado de m?quina que, embora j? tenha encontrado uma grande quantidade de aplica??es, talvez ainda n?o tenha alcan?ado seu pleno potencial. Uma das possibilidades que n?o foi devidamente testada at? hoje foi a utiliza??o da aprendizagem por refor?o em conjunto com outros m?todos para a solu??o de problemas de classifica??o de padr?es. ? bem documentada na literatura a problem?tica que ensembles de m?quinas de vetor de suporte encontram em termos de capacidade de generaliza??o. Algoritmos como Adaboost n?o lidam apropriadamente com os desequil?brios que podem surgir nessas situa??es. V?rias alternativas j? foram propostas, com margens variadas de sucesso. Esta disserta??o apresenta uma nova abordagem para a constru??o de comit?s de m?quinas de vetor de suporte. O algoritmo apresentado combina o algoritmo Adaboost com uma camada de aprendizagem por refor?o, para ajustar par?metros do comit? evitando que desequil?brios nos classificadores componentes do comit? prejudiquem o desempenho de generaliza??o da hip?tese final. Foram efetuadas compara??es de comit?s com e sem essa camada adicional de aprendizagem por refor?o, testando conjuntos de dados benchmarks amplamente conhecidos na ?rea de classifica??o de padr?es

Page generated in 0.048 seconds