• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2053
  • 152
  • 67
  • 60
  • 60
  • 60
  • 45
  • 44
  • 44
  • 44
  • 24
  • 15
  • 1
  • 1
  • 1
  • Tagged with
  • 2260
  • 1609
  • 876
  • 529
  • 463
  • 371
  • 321
  • 318
  • 253
  • 220
  • 215
  • 196
  • 193
  • 184
  • 179
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

A inteligência civil do Brasil, Portugal e Espanha: Legados tários como constrangimentos à democratização da inteligência de estado na transição e consolidação democrática

Numeriano, Carlos Roberto Magalhães January 2007 (has links)
Made available in DSpace on 2014-06-12T15:49:11Z (GMT). No. of bitstreams: 2 arquivo1621_1.pdf: 4201424 bytes, checksum: e7d01d2eb4a3f1af1b5ce08c6951e386 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O presente estudo é uma análise comparativa entre os órgãos de Inteligência civil de Portugal (Serviço de Informações de Segurança, SIS), Brasil (Agência Brasileira de Inteligência, Abin) e Espanha (Centro Nacional de Inteligência, CNI). O objetivo fundamental é analisar e explicar como os legados autoritários da transição democrática dos três países afetaram e / ou afetam o perfil político-institucional desses órgãos, criando clivagens que bloquearam ou ainda bloqueiam seus processos de democratização nas agendas de transição e consolidação. A sobrevivência de legados autoritários na atividade de Inteligência e a sua conformação como enclaves no campo das relações civis-militares constitui uma das mais importantes características do perfil político-institucional de serviços secretos de países cuja transição não extinguiu totalmente elementos do antigo regime. Como instituições estratégicas na superestrutura do Estado, os serviços de Inteligência são arenas problemáticas nos processos de mudança política. Seus quadros muitas vezes avalizam os termos e o alcance das agendas de transição rumo à democracia no contexto de uma luta pela hegemonia político-institucional na qual jogam militares e civis com interesses conflitantes ou mesmo opostos. A comparação esta baseada sobre os indicadores Fiscalização Externa e Controle Governamental (relacionados com a accountability institucional), Doutrina de Inteligência, Segredo de Estado, Natureza da Transição e Militarização. Os estudos comparativos entre serviços de Inteligência em processos de mudança política são um campo ainda incipiente na Ciência Política. No contexto ibero - sul americano, este trabalho significa o primeiro esforço teórico e analítico para apreender os contornos da área e de seus órgãos como objeto e como problema político-institucional. Trata-se, pois, de um esboço cujo desenho final dependerá de um complexo jogo ao qual são chamados os profissionais de Inteligência, os acadêmicos, os políticos e a sociedade civil
272

Ensinus : um ambiente virtual de uso geral para verificação e suporte ao aprendizado

ZARGAR, Gilce Cleana Brandão January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:34Z (GMT). No. of bitstreams: 2 arquivo5184_1.pdf: 794263 bytes, checksum: 824a76a9f50ceeec0f5af3999c3d498b (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Esse trabalho visou o desenvolvimento de um ambiente virtual de aprendizagem que pudesse ser utilizado em quaisquer áreas de ensino. Para isso, foi concebido o ambiente Ensinus. Sabe-se que a usabilidade é um fator crítico para o sucesso de qualquer sistema interativo. No caso de um ambiente voltado para o ensino, a usabilidade é imprescindível, pois os alunos precisam ter facilidade no uso do mesmo para que o ambiente não se transforme em mais um obstáculo para o processo de ensino-aprendizagem. Por esse motivo, procurou-se projetar o sistema com o foco nos usuários (professores e alunos). Assim, desde as primeiras versões implementadas, utilizadas como protótipos funcionais, o sistema foi apresentado aos usuários para que fosse validada a sua usabilidade. Os testes foram executados em instituições de ensino superior, tendo sido aplicados em diferentes disciplinas. Os resultados dos experimentos realizados demonstraram que o Ensinus possui uma boa usabilidade, tendo sido utilizado sem dificuldades pelos alunos. Além disso, foi constatada a importância que ele tem como ferramenta de apoio ao professor no acompanhamento da evolução da aprendizagem dos alunos
273

Desenvolvimento de uma arquitetura paralela para redes neurais artificiais MLP baseada em FPGAS

Pyetro Amaral Ferreira, Antonyus 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:59:56Z (GMT). No. of bitstreams: 2 arquivo5807_1.pdf: 6535979 bytes, checksum: f0b7d3e91a58a935a96a4b9790f84fab (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Este trabalho apresenta a definição de uma arquitetura, baseada em FPGA, para implementação de Redes Neurais (RNAs) MLP. A arquitetura proposta foi projetada observando-se critérios limitantes como grande quantidade de entradas, redução do consumo de área, utilização de pinos, recursos de interconexão e compromisso entre área/desempenho. Um importante resultado é a utilização de log2m adicionadores para uma RNA com m entradas. Uma RNA cuja topologia é 256:10:10 atingiu um speed-up de 36x, comparado com uma implementação convencional em C rodado em um PC. Uma ferramenta de geração automática do código da RNA em linguagem HDL também foi desenvolvida
274

Alavancando inovação de processos por meio da abordagem analítica : fato ou mito?

Cavalcanti, Cláudia Xavier 28 February 2014 (has links)
Made available in DSpace on 2018-08-01T23:40:34Z (GMT). No. of bitstreams: 1 tese_7522_Dissertação de Claudia.pdf: 1317892 bytes, checksum: f08ec439ad4779ff72f8cd7ede1de1b4 (MD5) Previous issue date: 2014-02-28 / Este trabalho de mestrado tem como objetivo principal investigar a intensidade em que a orientação analítica das empresas pode impactar nas inovações de processos. Esta pesquisa propõe também elaborar um conceito mais abrangente e consistente para um assunto ainda emergente no mundo acadêmico: o conceito sobre abordagem analítica, que na linguagem internacional é conhecido como Business Analytics (BA). A plataforma teórica utilizada se baseia nas discussões acerca do processo decisório e da inteligência competitiva. Na metodologia, foi aplicada a técnica de modelagem de equações estruturais para testaras relações estabelecidas no modelo estrutural proposto, onde foram considerados os constructos Habilidades Analíticas, Tecnologia Analítica, Qualidade de Dados, Comprometimento da Liderança, Estratégia analítica, Abordagem Analítica (BA) e Inovação de Processos. O trabalho de coleta de dados foi realizado através de uma base de dados de Clientes da empresa SAS no Brasil, uma das maiores empresas fornecedoras de soluções analíticas do mundo, com sede nos Estados Unidos e filiais espalhadas em todo mundo, o que proporciona ao trabalho uma maior consistência nos seus resultados. O estudo concluiu que a abordagem analítica (BA) tem um forte impacto na Inovação de Processos e que o constructo Estratégia possui uma grande relevância preditiva em BA. / This research aims to investigate the intensity in which the analytical orientation of companies can impact on their process innovations. This research also proposes to develop a more comprehensive and consistent concept for a subject that is still emerging in the academic world, which is the concept of Business Analytics (BA). The theoretical platform uses is Decision Process and Competitive Intelligence. The methodology that will be applied in this research is the structural equation model (SEM), in order to confirm the relationships established in the proposed structural model, which will be considered the following constructs: Analytical skills, analytical technology, high quality of data, leadership, analytical strategy, Business Analytics and process innovation. The process of data collection is being conducted through a database of clients of SAS, one of the most important providers of analytic solutions in the world, with U.S. headquarters and branches spread all over the world, including Brazil, which gives greater consistency in research results. The study concluded that Business Analytics (BA) has a strong impact on Innovation Process and the strategy construct has a great predictive relevance in BA.
275

Aplicação de métodos de raciocínio baseado em casos de conhecimento intensivo para a web semântica: um estudo sobre o domínio biológico

SEGUNDO, Plácido das Chagas Soares 27 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-05-13T17:12:35Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO_UNIFICADO_DIGITAL_FINAL (1).pdf: 2573159 bytes, checksum: c26fd7c0936cb51a0aab37c9d1e1dd16 (MD5) / Made available in DSpace on 2016-05-13T17:12:35Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO_UNIFICADO_DIGITAL_FINAL (1).pdf: 2573159 bytes, checksum: c26fd7c0936cb51a0aab37c9d1e1dd16 (MD5) Previous issue date: 2015-08-27 / A literatura tem descrito soluções baseadas em web semântica e ontologias como uma estratégia para a implementação de consultas e integração entre fontes de dados, considerando que ontologias e fontes de dados podem apresentar conteúdo complementar em um mesmo domínio. A estratégia tradicional é baseada na execução de consultas em SPARQL (Query Language for RDF) para acesso aos dados de forma integrada a ontologias. Esta estratégia não apresenta expressividade suficiente para derivar novo conteúdo, pois não vai além da álgebra relacional. Uma alternativa à SPARQL é aplicar raciocínio por subsunção disponível para ontologias descritas com Description Logics (DL). No entanto DL por si só não é capaz de determinar o que significa uma instância (dado) sem a existência de uma descrição explícita (axioma). Nesse sentido, há limitações sobre os métodos disponíveis para a web semântica, pois não apresentam uma solução capaz de interpretar de forma automatizada o que significa uma instância (dado) sem a existência de axiomas os quais descrevam o comportamento do domínio. Neste trabalho, é levantada a hipótese de que é possível realizar o aperfeiçoamento nos mecanismos de raciocínio sobre os dados de forma que novos axiomas possam ser gerados segundo a demanda do usuário, e.g. a partir de consultas. Este processo é baseado na utilização da semântica inerente aos registros dos bancos de dados, e dos mapeamentos existentes entre as ontologias e os bancos. Para isso, além das técnicas de web semântica levantadas, são utilizados métodos de Knowledge-intensive Case Based Reasoning (KI-CBR) para a recuperação das informações que representem os melhores resultados. O presente trabalho tem como objetivo apresentar uma proposta de evolução aos métodos de KI-CBR existentes para permitir a recuperação e a geração de casos em ambientes heterogêneos, integrados por meio de várias ontologias e que incluam as restrições disponíveis nas ontologias no processo de definição de solução. O processo de definição de solução é relacionado à extração de novos axiomas a partir do arranjo dos dados e das consultas criadas pelo usuário. Como ponto de partida, será utilizada e modificada a metodologia de KI-CBR incluída na ferramenta jCOLIBRI2. Dados (UniProt/SwissProt, Ensembl e NCBI Taxonomy) e ontologias (Gene Ontology, Chemical Entities of Biological Interest, Protein Ontology e BioTopLite2) do domínio biológico serão utilizados para exemplificação devido a revisão manual, presença de anotações e nível de formalização do conhecimento. A nova ferramenta de CBR derivada do presente trabalho será chamada de IntegrativO CBR e será disponibilizada como um plugin para o editor de ontologias Protégé v.5. A contribuição desta pesquisa se reflete na implementação de uma ferramenta de auxílio para o desenvolvimento de soluções, baseadas em web semântica e ontologias, capaz de recuperar e gerar novos casos em ambientes heterogêneos mediados por ontologias. / The literature describes solutions based on semantic web and ontologies as a strategy integration of data sources. The traditional semantic integration strategy relies on running queries with SPARQL to access data, supported by an ontological representation. This strategy bears a limitation: it does not have enough expressiveness to derive new content due to limited expressiveness. An alternative to SPARQL is to apply reasoning subsumption available for ontologies described in Description Logics (DL). Even in this scenario, DL is not able to determine what an instance is (from data), without explicit statements (axioms). In this sense, there are limitations on the methods available for the semantic web, as it does not provide a solution to enable interpreting data from an ontological point of view. In this work, it is hypothesized that it is possible improve the reasoning mechanisms over the data so that new axioms can be generated according to user demand, e.g. from queries. This process is based on the inherent semantics of the databases, according to an ontological background. For this, along with the semantic web techniques, Knowledge-intensive Case Based Reasoning (CBR-KI) are used to support information retrieval based on similarity analysis to extract the most suitable results. In this sense, this study aims at presenting an evolution to existing KI-CBR methods in order to allow retrieval and generation of cases in heterogeneous environments, integrated through multiple ontologies. It also reuses axioms available in ontologies to define a suitable solution. The solution-making process is related to the extraction of new axioms from the data arrangement and user-created queries. The jCOLIBRI2 tool is used as a basis for the development, as it is delivered as a suite for developing new KI-CBR solutions. Data from biomedical databases (UniProt / SwissProt, Ensembl and NCBI Taxonomy) and biomedical ontologies (Gene Ontology, Chemical Entities of Biological Interest, Protein Ontology and BioTopLite2) are used for exemplification due to manual review of data, presence of data annotations, and level of ontological formalization. The new CBR tool derived from this work is called integrative CBR, and is available as a plugin for the ontology editor Protégé v.5. The contribution of this research is reflected in the implementation of a tool to support the development of solutions based on semantic web and ontologies, able to recover and generate new cases in heterogeneous environments mediated by ontologies.
276

Modelo preditivo de mineração de dados para sucesso de redução de peso na cirurgia bariátrica

SOUZA, Starch Melo de 04 September 2014 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-05-19T16:39:35Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) _dissertacao_StarchSouza_versaoCorrigida_VF.pdf: 1638087 bytes, checksum: d684b3e778a00ee1b1ceecf59729cc5e (MD5) / Made available in DSpace on 2016-05-19T16:39:35Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) _dissertacao_StarchSouza_versaoCorrigida_VF.pdf: 1638087 bytes, checksum: d684b3e778a00ee1b1ceecf59729cc5e (MD5) Previous issue date: 2014-09-04 / CNPQ / A Cirurgia Bariátrica é um dos recursos de melhor efetividade para redução de peso nos casos de Obesidade, controle e resolução nos casos das comorbidades associadas que encontram-se sem controle terapêutico, como a Diabetes. Para aumentar as chances de sucesso terapêutico deste procedimento de grande porte, pode ser realizada uma avaliação prévia do paciente através de um modelo preditivo utilizando-se de variáveis de controle, clínicas, de comorbidades e laboratoriais. O objetivo geral desta pesquisa foi desenvolver um modelo preditivo de mineração de dados para apoio na tomada de decisão do cirurgião ao submeter pacientes com excesso de peso à cirurgia bariátrica, a partir dos dados históricos visando à sua redução de peso. A pesquisa foi do tipo clínica aplicada, transversal, retrospectiva, de caráter analítico. A amostra do estudo foi de 540 pacientes que realizaram seguimento clínico após 1 ano do procedimento cirúrgico. As cinco primeiras fases da metodologia CRISP-DM foram aplicadas na construção do modelo preditivo, e na modelagem foram aplicadas as técnicas de indução de regras, árvore de decisão e regressão logística. A variável independente (o ALVO) considerada foi o IMC ideal, entre 18,5 e 24,9 Kg/m2. O modelo preditivo de mineração de dados para pacientes submetidos à cirurgia bariátrica e com seguimento clínico de um ano, apontou que os preditores de sucesso para redução de peso foram, ser do sexo feminino, ser mais jovem, e apresentar no pré-operatório menor valor de índice de massa corpórea (IMC). O estudo apresentou regras explicativas e o modelo preditivo como auxílio na tomada de decisão, maximizando os que possuem maior expectativa de redução de peso. / The Bariatric Surgery is one of the most effective tools for weight reduction in cases of obesity, control and resolution in cases of associated comorbidities that are out therapeutic control, such as diabetes. To increase the chances of therapeutic success of this major procedure, a preliminary assessment of the patient can be carried out using a predictive model using control variables, clinics, comorbidities and laboratory variables. The objective of this research was to develop a predictive data-mining model to support the surgeon's decision to submit patients for bariatric surgery, from historical data aimed at their weight reduction. The research study was categorized as applied clinical, cross-sectional, retrospective and analytical. The study sample included 540 patients who underwent a complete year of surgery clinical follow-up. The first five phases of the CRISP-DM methodology were applied in the construction of the predictive model, and in modeling, rule induction, decision tree and logistic regression were the techniques applied. The independent variable (Target) was considered reaching the ideal BMI between 18.5 and 24.9 Kg/m2. The predictive model of data mining for patients undergoing bariatric surgery and follow-up of one year, pointed out that the success predictors for weight reduction were being female, being younger, and preoperative lower body mass index (BMI). The study presented explanatory rules and the predictive model as an aid in decision-making, maximizing those with greater expectation of weight reduction.
277

q-Gaussians for pattern recognition

STOSIC, Dusan 01 March 2016 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-07-13T19:23:52Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dusan Stosic - dissertacao de mestrado.pdf: 6434406 bytes, checksum: db312999879f1c3ebb1795ce764a272e (MD5) / Made available in DSpace on 2016-07-13T19:23:52Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dusan Stosic - dissertacao de mestrado.pdf: 6434406 bytes, checksum: db312999879f1c3ebb1795ce764a272e (MD5) Previous issue date: 2016-03-01 / CAPES / Pattern recognition plays an important role for solving many problems in our everyday lives: from simple tasks such as reading texts to more complex ones like driving cars. Subconsciously, the recognition of patterns is instantaneous and an innate ability to every human. However, programming (or “teaching”) a machine how to do the same can present an incredibly difficult task. There are many situations where irrelevant or misleading patterns, poorly represented classes, and complex decision boundaries make recognition very hard, or even impossible by current standards. Important contributions to the field of pattern recognition have been attained through the adoption of methods of statistical mechanics, which has paved the road for much of the research done in academia and industry, ranging from the revival of connectionism to modern day deep learning. Yet traditional statistical mechanics is not universal and has a limited domain of applicability - outside this domain it can make wrong predictions. Non-extensive statistical mechanics has recently emerged to cover a variety of anomalous situations that cannot be described within standard Boltzmann-Gibbs theory, such as non-ergodic systems characterized by long-range interactions, or long-term memories. The literature on pattern recognition is vast, and scattered with applications of non-extensive statistical mechanics. However, most of this work has been done using non-extensive entropy, and little can be found on practical applications of other non-extensive constructs. In particular, non-extensive entropy is widely used to improve segmentation of images that possess strongly correlated patterns, while only a small number of works employ concepts other than entropy for solving similar recognition tasks. The main goal of this dissertation is to expand applications of non-extensive distributions, namely the q-Gaussian, in pattern recognition. We present ourcontributions in the form of two (published) articles where practical uses of q-Gaussians are explored in neural networks. The first paper introduces q Gaussian transfer functions to improve classification of random neural networks, and the second paper extends this work to ensembles which involves combining a set of such classifiers via majority voting. / Reconhecimento de padrões tem um papel importante na solução de diversos problemas no nosso quotidiano: a partir de tarefas simples como ler textos, até as mais complexas como dirigir carros. Inconscientemente, o reconhecimento de padrões pelo cérebro é instantâneo, representando uma habilidade inata de cada ser humano. No entanto, programar (ou “ensinar”) uma máquina para fazer o mesmo pode se tornar uma tarefa extremamente difícil. Há muitas situações onde padrões irrelevantes ou enganosos, classes mal representadas, ou bordas de decisões complexas, tornam o reconhecimento muito difícil, ou mesmo impossível pelos padrões atuais. Diversas contribuições importantes na área de reconhecimento de padrões foram alcançadas através da aplicação de métodos provenientes da mecânica estatística, que estimularam uma grande parte da pesquisa conduzida na academia bem como na indústria, desde o renascimento de conexionismo até o moderno conceito de “deep learning”. No entanto, a mecânica estatística tradicional não é universal e tem um domínio de aplicação limitado - fora deste domínio ela pode fazer previsões erradas. A mecânica estatística não-extensiva surgiu recentemente para atender uma variedade de situações anômalas que não podem ser descritas de forma adequada com a teoria de Boltzmann-Gibbs, tais como sistemas não-ergódicos, caracterizadas por interações de longo alcance, ou memórias de longo prazo. A literatura sobre reconhecimento de padrões é vasta, e dispersa com aplicações da mecânica estatística não-extensiva. No entanto, a maioria destes trabalhos utilizam a entropia não-extensiva, e existem poucas aplicações práticas de outros conceitos não-extensivos. Em particular, a entropia não extensiva é amplamente usada para aperfeiçoar segmentação de imagens que possuem padrões fortemente correlacionados, enquanto apenas um pequeno número de trabalhos empregam outros conceitos não-extensivos para resolver tarefas semelhantes. O objetivo principal desta dissertação é expandir aplicações de distribuições não-extensivas, como a q-Gaussiana, em reconhecimento de padrões. Nos apresentamos as nossas contribuições no formato de dois artigos (publicados) onde exploramos usos práticos da q-Gaussiana em redes neurais. O primeiro artigo introduz funções de transferência baseados na q-Gaussiana para aperfeiçoar a classificação de redes neurais aleatórias, e o segundo artigo estende este trabalho para ensembles, onde um conjunto de tais classificadores são combinados através de votação por maioria.
278

Ferramentas de análise inteligente aplicadas ao planejamento e controle na construção naval

Souza, Karen Barañano January 2011 (has links)
Dissertação(mestrado) - Universidade Federal do Rio Grande, Programa de Pós-Graduação em Engenharia Oceânica, Escola de Engenharia, 2011. / Submitted by Lilian M. Silva (lilianmadeirasilva@hotmail.com) on 2013-04-22T00:35:01Z No. of bitstreams: 1 Ferramentas De Análise Inteligente Aplicadas Ao Planejamento E Controle Na Construção Naval.pdf: 3137434 bytes, checksum: 5991e1972c1e49f53d0396ffef49a88c (MD5) / Approved for entry into archive by Bruna Vieira(bruninha_vieira@ibest.com.br) on 2013-06-03T18:48:35Z (GMT) No. of bitstreams: 1 Ferramentas De Análise Inteligente Aplicadas Ao Planejamento E Controle Na Construção Naval.pdf: 3137434 bytes, checksum: 5991e1972c1e49f53d0396ffef49a88c (MD5) / Made available in DSpace on 2013-06-03T18:48:35Z (GMT). No. of bitstreams: 1 Ferramentas De Análise Inteligente Aplicadas Ao Planejamento E Controle Na Construção Naval.pdf: 3137434 bytes, checksum: 5991e1972c1e49f53d0396ffef49a88c (MD5) Previous issue date: 2011 / O objetivo deste trabalho é desenvolver um sistema baseado em inteligência artificial, com o uso de redes neurais artificiais, mais especificamente as arquiteturas de mapas auto-organizáveis utilizando o algoritmo de kohonen para agrupamento e multilayer perceptron (MLP) utilizando o algoritmo backpropagation para classificação de dados, que possibilite a melhoria do agregamento das diferentes partes estruturais dos navios, identificando os diversos elementos de uma família de produtos e os agrupando de acordo com os atributos de projeto e produtivos, utilizando os princípios da tecnologia de grupo de forma a mobilizar recursos específicos (Células de Manufatura) em sua concepção e minimizar custos. Fazendo uma analise dos principais métodos utilizados na construção naval para gerenciamento da produção, bem como as ferramentas aplicadas, são apresentados conceitos relativos à identificação das famílias de produtos intermediários, processos utilizados na construção naval, estrutura analítica do produto, conceitos de manufatura celular e tecnologia de grupo. A metodologia proposta para atender o objetivo deste trabalho, destaca a aplicação de técnicas inteligentes, sendo descrita a função de cada variável envolvida no sistema de agrupamento∕classificação de dados. De forma a contribuir nas funções de planejamento, com ganhos de eficiência na manufatura, facilidade de programação em seqüência de peças de uma mesma família, melhoria no controle do processo, planos de processo e instruções padronizadas, possibilidade de formação de células de manufatura e aumento da qualidade e controle da construção naval. / The objective of this work is to develop a system based on artificial intelligence, using artificial neuralnetworks, more specifically the self-organizing maps architectures, using Kohonen's algorithm for clustering and multilayer perceptron(MLP), using the backpropagation algorithm for data classification, which enables the enhancement of aggregation of different ships'structural parts, identifying the various elements of a products family and grouping them according to the attributes of project and productives, using group technology principles in order to mobilize specific resources(Manufacturing Cells)in its conception and minimize costs. Making an analysis of the main methods used in shipbuilding for production management, as well as the tools used, concepts are presented on the identification of intermediate products families, processes used in shipbuilding, product analytical structure, concepts of cellular manufacturing and group technology. The methodology proposed to serve the study objective highlights the application of intelligent techniques, being described the function of each variable involved in the system of data grouping/classification. In order to help in planning functions, with efficiency gains in manufacturing, ease of programming in sequences of same family parts, improvement in process control, process plans and standardized instructions, possibility of formation of manufacturing cells and increased shipbuilding control and quality.
279

Ensaios de modelos de regressão linear e não-linear para dados simbólicos de tipo intervalo

REYES, Dailys Maite Aliaga 14 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T20:27:45Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Dailys Maite Aliaga Reyes.pdf: 1031688 bytes, checksum: d2b38d73f1c20d04530a539f28c3bff9 (MD5) / Made available in DSpace on 2018-06-25T20:27:45Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Dailys Maite Aliaga Reyes.pdf: 1031688 bytes, checksum: d2b38d73f1c20d04530a539f28c3bff9 (MD5) Previous issue date: 2017-02-14 / FACEPE / A presente dissertação foi desenvolvida no marco da análise de dados simbólicos de tipo intervalo, especificamente, em modelos de regressão. Os dados simbólicos são extensões de tipos de dados clássicos. Em conjuntos de dados convencionais, os objetos são individualizados, enquanto em dados simbólicos estes são unificados por relacionamentos. Primeiramente, foi realizada uma revisão sobre dados desta natureza e das principais metodologias utilizadas para sua análise. Um novo modelo de precificação de ativos de capital (CAPM pelas siglas em inglês) foi proposto e testado para dados intervalares. A abordagem levou em conta a variação nos intervalos de preços diários em ativos de mercado, observando os preços máximos e mínimos ao invés dos preços de abertura ou fechamento que têm sido mais populares em aplicações econométricas com modelos de CAPM. Para os cálculos envolvendo intervalos de preços e retornos de ativos, as operações básicas da aritmética intervalar foram utilizadas. O modelo proposto (iCAPM) é uma das mais recentes aplicações CAPM intervalares, em que a estimativa do parâmetro β é um intervalo. Nesta ocasião, foi proposta uma nova interpretação para dito parâmetro em conformidade com a interpretação tradicional para o risco sistemático de ativos na área das finanças. Foram apresenta dos dois exemplos ilustrativos com os intervalos de preços diários da Microsoft e de Amazon, usando os retornos do mercado derivados do índice S&P500 do01denovembrode2013ao15dejaneirode2015. Em conformidade com os testes estatísticos aqui realizados, os resultados da aplicação do modelo CAPM intervalar (iCAPM) proposto são consistentes estatísticamente, comum a explicação confiável referente aos retornos dos ativos em questão e aos retornos do mercado. Conjuntamente, foi introduzido um modelo de regressão não-linear simétrica para dados simbólicos de tipo intervalo (SNLRM-IVD), o qual ajusta um único modelo de regressão não-linear aos pontos médios (centros) e amplitudes (ranges) dos intervalos considerando a distribuição de t-Student. O desempenho do modelo foi validado através do critério estatístico da magnitude média doerro relativo, desenvolvendo experimentos no âmbito de simulações de Monte Carlo em relação a vários cenários simbólicos com outliers. Além do mais, o modelo proposto foi ajustado a um conjunto real de dados intervalares. A principal característica deste modelo é que proporciona estimadores não sensíveis à presença de outliers. / The present dissertation was developed within the framework of the symbolic data analysis of interval-valued type, and it is specially related to regression models. Symbolic data are extensions of classic data types. In conventional data sets, objects are individualized, while in symbolic data they are unified by relationships. At first, a deep review about the nature of this kind of data and the main methodologies used for its analysis were performed. A new capital asset pricing model (CAPM) has been proposed and tested for interval symbolic data. The approach considered the daily variation of the price ranges in market assets according to the maximum and minimum prices rather than the opening or closing prices, which have been most popular in econometric applications with CAPM models. For calculations involving price ranges and asset returns, the basic operations concerning the interval arithmetic were used. The proposed model (iCAPM) is one of the most recent interval CAPM applications, in which the estimate of theβ-parameter is, in fact, an interval. On this occasion, a new interpretation was proposed for this parameter in accordance with the traditional interpretation for the systematic risk of the assets in the market. Two figurative examples involving the daily price ranges of Microsoft and Amazon have been presented, using the market returns from the S&P500 index in the period from November 1, 2013 to January 15, 2015. In accordance with the statistical tests performed here, the results of the application of the proposed model (iCAPM) are statistically consistent with a reliable explanation of the assets returns and the market returns in question. Secondly, a non-linear regression model for interval-valued data was introduced (SNLRM-IVD), which sets a single regression model to the midpoints (centers) and ranges of the intervals at once, considering thet-Student distribution. The performance of the model was validated through the statistical criterion of the average magnitude of the relative error, undergoing experiments in the scope of Monte Carlo simulations in relation to several symbolic scenarios with outliers. Finally, the proposed model was fitted to a real set of interval data. The main feature of this SNLRM-IVD is that it provides estimators that are not sensitive to the presence of outliers.
280

Modelo de rede neural crescente de aprendizagem por reforço

VIEIRA, Davi Carnaúba de Lima 03 March 2016 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-03T18:32:40Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Davi Carnaíba de Lima Vieira.pdf: 2812278 bytes, checksum: 49475e006f9c1cb1a583b085a286ad3f (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-09T17:13:59Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Davi Carnaíba de Lima Vieira.pdf: 2812278 bytes, checksum: 49475e006f9c1cb1a583b085a286ad3f (MD5) / Made available in DSpace on 2018-08-09T17:13:59Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Davi Carnaíba de Lima Vieira.pdf: 2812278 bytes, checksum: 49475e006f9c1cb1a583b085a286ad3f (MD5) Previous issue date: 2016-03-03 / CAPES / Os algoritmos da Aprendizagem por Reforço (AR) têm sido amplamente utilizados para a construção de agentes autônomos. Inspirada no comportamento da aprendizagem animal, a AR é um paradigma que serve como base para algoritmos que aprendem por tentativa e erro. Apesar da sua popularidade e sua sólida base matemática e garantia teórica de convergência para uma solução ótima, a AR apresenta restrições de aplicação em tarefas em que o espaço de estados é muito grande. Por meio do agrupamento de estados similares é possível reduzir o tamanho do espaço de estados. Uma vez reduzido, o problema pode ser resolvido utilizando os algoritmos tradicionais da AR. A principal questão que se coloca aqui é como efetuar a agregação, de tal modo que, por um lado, se possa obter uma “boa” representação do espaço de estados, e pelo outro lado, o desempenho do modelo não degrade. Este é um dos grandes desafios da AR. Esta tese propõe agrupar estados similares, por meio do uso do mapa auto-organizável de Fritzke, como forma de reduzir o espaço de estados. A maior parte das pesquisas que envolvem o uso de algoritmos que discretizam o espaço de estados busca aprimorar o momento certo para a partição do espaço de estados, onde particionar e quando parar, enquanto os algoritmos AR permanecem inalterados. Esses trabalhos em geral resultam em algoritmos que não convergem em determinados problemas ou que possuem uma capacidade de aprendizagem “fraca”. O presente trabalho contribui mostrando a fragilidade destes algoritmos ao mesmo tempo em que apresenta uma solução eficaz para o problema. Esta tese compara o algoritmo proposto com quatro algoritmos AR chamados: Tile Coding (TC), Temporal Difference Adaptive Vector Quantification (TD-AVQ), Q(λ) com Discretização Uniforme (Q(λ)-DU) e Interpolating Growing Neural Gas Q-learning (IGNG-Q). Os experimentos mostram que o algoritmo proposto foi capaz de encontrar a solução dos cinco ambientes de teste envolvidos. Em comparação com o algoritmo TC, o algoritmo proposto foi capaz de proporcionar uma redução no uso da memória de 88%, 87%, 98% e 97% nos ambientes Continuous Maze, Slow Puddle World, Mountain Car e Acrobot, respectivamente. No teste, o algoritmo proposto foi o único capaz de produzir uma política utilizável nos ambientes Continuous Maze e Slow Puddle World. O presente trabalho também mostra que o algoritmo n-step Temporal Difference with Elegibility Traces (TD(nλ)) é mais indicado para o uso em ambientes discretizados que o Q(λ). O uso do algoritmo proposto com Discretização Uniforme (DU) foi capaz de mostrar convergência em problemas onde o Q(λ) não conseguiu. O produto final desta tese é um algoritmo robusto capaz de encontrar em tempo hábil uma solução para todos os ambientes de teste envolvidos. / Reinforcement Learning (RL) algorithms has been widely used for the construction of autonomous agents. Inspired by the behavior of animal learning, RL is a paradigm that serves as basis for algorithms that learn by trial and error. Despite its popularity, solid mathematical foundation and theoretical guarantee of convergence to an optimal solution, RL have applicability constraints on tasks where the state space is too large. By aggregating similar states one can reduce the state space size. Once reduced, the problem can be solved using traditional RL algorithms. The main question that arises here is how to realize the aggregation, so on the one hand, you can get a “good” representation of the state space, and on the other hand, the model performance does not degrade. This is one of the challenges of RL. This thesis proposes aggregation of similar states, through the use of Fritzke’s selforganizing map, in order to reduce the state space. Most research involving the use of algorithms that discretize the state space seek to improve the right time for the partition of the state space, where to partition and when to stop, while the RL algorithms remains unchanged. These works often result in algorithms that do not converge on certain problems or have a “weak” learning capacity. This work contributes showing the fragility of these algorithms while presents an effective solution to the problem. This thesis compares the proposed algorithm with four RL algorithms namely: Tile Coding (TC), Temporal Difference Adaptive Vector Quantization (TD-AVQ), Uniform Discretization (DU) and Interpolating Growing Neural Gas Q-learning (IGNG-Q). The experiments show that the proposed algorithm was able to find the solution on five testbed environments. Compared with TC, the proposed algorithm was able to provide a reduction in memory usage of 88%, 87%, 98% and 97% in the environments Continuous Maze, Slow Puddle World, Mountain Car and Acrobot respectively. In the test, the proposed algorithm was the only capable to found an solution for the environments Continuous Maze and Slow Puddle World. This thesis also shows that the RL algorithm proposed is more suitable for the use in discretized environments than Q(λ). The application of TD(nλ) with DU was able to show convergence in problems where Q(λ) failed. The final product of this thesis is a robust algorithm able to find in time a solution for all specified test environments.

Page generated in 0.0579 seconds