• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 6
  • Tagged with
  • 24
  • 24
  • 12
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] MOBILE ROBOT SIMULTANEOUS LOCALIZATION AND MAPPING USING DP-SLAM WITH A SINGLE LASER RANGE FINDER / [pt] MAPEAMENTO E LOCALIZAÇÃO SIMULTÂNEA DE ROBÔS MÓVEIS USANDO DP-SLAM E UM ÚNICO MEDIDOR LASER POR VARREDURA

LUIS ERNESTO YNOQUIO HERRERA 31 July 2018 (has links)
[pt] SLAM (Mapeamento e Localização Simultânea) é uma das áreas mais pesquisadas na Robótica móvel. Trata-se do problema, num robô móvel, de construir um mapa sem conhecimento prévio do ambiente e ao mesmo tempo manter a sua localização nele. Embora a tecnologia ofereça sensores cada vez mais precisos, pequenos erros na medição são acumulados comprometendo a precisão na localização, sendo estes evidentes quando o robô retorna a uma posição inicial depois de percorrer um longo caminho. Assim, para melhoria do desempenho do SLAM é necessário representar a sua formulação usando teoria das probabilidades. O SLAM com Filtro Extendido de Kalman (EKF-SLAM) é uma solução básica, e apesar de suas limitações é a técnica mais popular. O Fast SLAM, por outro lado, resolve algumas limitações do EKF-SLAM usando uma instância do filtro de partículas conhecida como Rao-Blackwellized. Outra solução bem sucedida é o DP-SLAM, o qual usa uma representação do mapa em forma de grade de ocupação, com um algoritmo hierárquico que constrói mapas 2D bastante precisos. Todos estes algoritmos usam informação de dois tipos de sensores: odômetros e sensores de distância. O Laser Range Finder (LRF) é um medidor laser de distância por varredura, e pela sua precisão é bastante usado na correção do erro em odômetros. Este trabalho apresenta uma detalhada implementação destas três soluções para o SLAM, focalizado em ambientes fechados e estruturados. Apresenta-se a construção de mapas 2D e 3D em terrenos planos tais como em aplicações típicas de ambientes fechados. A representação dos mapas 2D é feita na forma de grade de ocupação. Por outro lado, a representação dos mapas 3D é feita na forma de nuvem de pontos ao invés de grade, para reduzir o custo computacional. É considerado um robô móvel equipado com apenas um LRF, sem nenhuma informação de odometria. O alinhamento entre varreduras laser é otimizado fazendo o uso de Algoritmos Genéticos. Assim, podem-se construir mapas e ao mesmo tempo localizar o robô sem necessidade de odômetros ou outros sensores. Um simulador em Matlab é implementado para a geração de varreduras virtuais de um LRF em um ambiente 3D (virtual). A metodologia proposta é validada com os dados simulados, assim como com dados experimentais obtidos da literatura, demonstrando a possibilidade de construção de mapas 3D com apenas um sensor LRF. / [en] Simultaneous Localization and Mapping (SLAM) is one of the most widely researched areas of Robotics. It addresses the mobile robot problem of generating a map without prior knowledge of the environment, while keeping track of its position. Although technology offers increasingly accurate position sensors, even small measurement errors can accumulate and compromise the localization accuracy. This becomes evident when programming a robot to return to its original position after traveling a long distance, based only on its sensor readings. Thus, to improve SLAM s performance it is necessary to represent its formulation using probability theory. The Extended Kalman Filter SLAM (EKF-SLAM) is a basic solution and, despite its shortcomings, it is by far the most popular technique. Fast SLAM, on the other hand, solves some limitations of the EKFSLAM using an instance of the Rao-Blackwellized particle filter. Another successful solution is to use the DP-SLAM approach, which uses a grid representation and a hierarchical algorithm to build accurate 2D maps. All SLAM solutions require two types of sensor information: odometry and range measurement. Laser Range Finders (LRF) are popular range measurement sensors and, because of their accuracy, are well suited for odometry error correction. Furthermore, the odometer may even be eliminated from the system if multiple consecutive LRF scans are matched. This works presents a detailed implementation of these three SLAM solutions, focused on structured indoor environments. The implementation is able to map 2D environments, as well as 3D environments with planar terrain, such as in a typical indoor application. The 2D application is able to automatically generate a stochastic grid map. On the other hand, the 3D problem uses a point cloud representation of the map, instead of a 3D grid, to reduce the SLAM computational effort. The considered mobile robot only uses a single LRF, without any odometry information. A Genetic Algorithm is presented to optimize the matching of LRF scans taken at different instants. Such matching is able not only to map the environment but also localize the robot, without the need for odometers or other sensors. A simulation program is implemented in Matlab to generate virtual LRF readings of a mobile robot in a 3D environment. Both simulated readings and experimental data from the literature are independently used to validate the proposed methodology, automatically generating 3D maps using just a single LRF.
22

[en] SEMANTIC WEB INTEROPERABILITY: ONE STRATEGY FOR THE TAXONOMIC ONTOLOGY ALIGNMENT / [pt] INTEROPERABILIDADE SEMÂNTICA NA WEB: UMA ESTRATÉGIA PARA O ALINHAMENTO TAXONÔMICO DE ONTOLOGIAS

CAROLINA HOWARD FELICISSIMO 07 January 2005 (has links)
[pt] Com a evolução da Web atual para a Web Semântica, acredita- se que as informações disponíveis estarão estruturadas de forma a permitir o processamento automático de seu conteúdo por máquinas. Além do processamento individual, deseja-se uma melhor troca de informações entre aplicações Web. Para estes propósitos, são necessários mecanismos que garantam a interoperabilidade semântica, i.e., identificação e compatibilidade de informações. Neste sentido, ontologias são utilizadas como um recurso para disponibilizar um vocabulário estruturado e livre de ambigüidades. Ontologias fornecem um padrão bem definido para a estruturação da informação e promovem um formalismo passível de processamento automático. Neste trabalho, propomos uma estratégia para interoperabilidade de ontologias. O Componente para Alinhamento Taxonômico de Ontologias - CATO, resultado da implementação desta estratégia proposta, alinha automaticamente as taxonomias de ontologias comparadas. O alinhamento realizado é obtido em três etapas executadas seqüencialmente. A primeira etapa compara lexicalmente os conceitos das ontologias entradas e usa um mecanismo de poda estrutural dos conceitos associados como condição de parada. A segunda etapa compara estruturalmente as hierarquias das ontologias identificando as similaridades entre suas sub-árvores comuns. A terceira etapa refina os resultados da etapa anterior classificando os conceitos identificados como similares em bem similares ou pouco similares, de acordo com um percentual de similaridade prédefinido. / [en] With the Web evolving towards a Semantic Web, it is believed that the available information will be presented in a meaningful way to allow machines to automatically process its content. Besides the individual processing, a better information exchange among Web applications is desired. For this purpose, mechanisms are called for guarantee the semantic interoperability, that is, the identification and compatibility of information. In this direction, ontologies are used as one resource to make available a structured vocabulary, free of ambiguities. Ontologies provide a well-defined standard to structure the information and to promote formalism for automatic processing. In this work, we propose one strategy for ontology interoperability. The Ontology Taxonomic Alignment Component - CATO, which is the result of the implementation of this proposed strategy, provides an automatic taxonomic ontologies alignment. In this way, the alignment is obtained by a three-step process. The first step is the lexical comparison between the concepts from the entries ontologies. It uses a trimming mechanism of the related associated concepts as a stop condition. The second step is the structural comparison of the ontologies structures used to identify the similarities between common sub-trees. The third step refines the results of the previous step, classifying the similar identified concepts as very similar or little similar, according to a pre-defined similarity measurement.
23

[en] ESSAYS ON BANKING / [pt] ENSAIOS EM ECONOMIA BANCÁRIA

SÉRGIO LEÃO 01 August 2018 (has links)
[pt] Esta tese é uma coleção de três ensaios empíricos em economia bancária no Brasil. O capítulo 1 mostra evidências que cidades governadas por prefeitos da base aliada do governo federal recebem mais crédito de bancos públicos federais. Utilizando uma base de dados longitudinal única que cruza informações de crédito em nível municipal com resultados eleitorais no período 1997-2008, eu exploro variações no alinhamento político de cada município ao longo do tempo para estimar seu impacto no montante de crédito. Como resultado, observo que os bancos públicos federais aumentam seus empréstimos em 10 por cento a mais em cidades alinhadas. Em resposta, os bancos privados restringem sua expansão de crédito nessas localidades, embora o efeito líquido seja de um aumento no crédito agregado para cidades alinhadas, deixando a questão de uma provável má alocação de capital entre cidades. Eu também utilizo outra base de dados de crédito única e ainda mais abrangente, disponível somente a partir de 2004, e emprego a metodologia de regressão com descontinuidade em disputas eleitorais apertadas para avaliar possíveis problemas de identificação. Em contraste com a literatura, eu observo que os resultados não são conduzidos por empréstimos direcionados, mas por operações de crédito livre. O capítulo 2 analisa firmas que contribuem para campanhas eleitorais de modo a testar a hipótese de favorecimento de crédito como retribuição a contribuição de campanha. Combinando dados de contribuição de campanha e informações de crédito ao nível da firma, eu exploro variações em uma mesma firma ao longo do tempo para testar se aquelas que contribuem para partidos da base aliada do governo federal recebem mais crédito de bancos públicos federais. Os resultados indicam que contribuintes de campanha de partidos da base aliada têm maior proporção de seu crédito oriundo de bancos públicos federais e tomam de uma maneira geral 20 por cento a mais de crédito que firmas que contribuem para outros partidos. No capítulo 3, eu aproveito da introdução de uma nova forma de seguro depósito voluntário, conhecido por DPGE (Depósito a Prazo com Garantias Especiais), para avaliar questões relevantes relativas a corrida bancária, liquidez de mercado (market liquidity) e liquidez na captação (funding liquidity). Primeiramente, documento uma corrida de depositantes a bancos pequenos e médios no Brasil após o agravamento da crise financeira global de 2008. A seguir, observo que esta corrida bancária foi impulsionada primordialmente por investidores institucionais. Em seguida, demonstro que, em resposta ao enfraquecimento da posição no seu passivo, os bancos reduziram seu ativo liquidando suas posições de crédito. Em quarto lugar, encontro evidências de que a introdução do DPGE ajudou a estabilizar as captações bancárias. Com este novo instrumento, os certificados de depósito (CD) passaram a ser segurados em até 20 milhões de reais, enquanto os demais eram segurados em até 60 mil reais. Por fim, demonstro que bancos com menor liquidez nos ativos foram aqueles que escolheram emitir DPGE, apesar de seu elevado custo (emissores devem pagar prêmio mensal de mais de seis vezes o valor cobrado em depósitos segurados convencionais). Portanto, restaurar a liquidez pelo lado do passivo (funding liquidity) foi mais importante a bancos mais afetados pela liquidez de mercado (market liquidity), ou seja, para aqueles com menos ativos líquidos. Uma investigação dos determinantes da emissão de DPGE mostra que: 1) bancos mais dependentes de cessão de carteira de crédito antes da crise estão mais propensos a emitir no novo esquema de depósito segurado; e 2) bancos com proporção mais elevada de crédito em relação ao ativo estão mais propensos a emitir sob o novo esquema, embora os resultados sejam menos precisos. Tais resultados são importantes por diversas razões. Primeiramente, estão entre os primeiros resultados empíricos a documentar a relação entre liquidez de mercado (ma / [en] This thesis is a collection of three empirical essays on banking using Brazilian data. Chapter 1 provides evidence that cities ruled by a mayor from the presidential coalition s party receive significantly more credit from public federally owned banks. Using a unique longitudinal database that matches branch-level credit information with election outcomes over the period 1997-2008, I explore the within-municipality variation in political alignment to estimate the impact of alignment on the amount of credit. I find that public federal banks increase their lending 10 per cent more in aligned cities. In response, private banks contract credit, but the net effect is an increase in aggregate credit to aligned cities, raising the issue of a misallocation of capital across cities. I also use another unique and more comprehensive credit database, available only since 2004, and apply a regression discontinuity design in close electoral races to address possible identification concerns. In contrast with the received literature, I find that the results are not driven by earmarked lending, but by non-earmarked operations. Chapter 2 focuses the analysis on firms that donate to electoral campaigns in order to test for the hypothesis of favored lending as a reward mechanism for campaign giving. I combine data from firm level campaign contributions with credit information and explore within-firm variation in order to test whether donating to aligned parties results in a better access to credit from public federal banks. Results indicate that campaign contributors to aligned parties have a higher lending share from public federal banks and borrow 20 per cent more than firms that donate to nonaligned parties. In Chapter 3 I take advantage of the introduction of a voluntary deposit insurance program to address several important questions concerning bank runs, market liquidity and funding liquidity. I first document a depositors run on small and medium banks in Brazil after the worsening of the global financial crisis. Second, I find that the bank run was led mainly by institutional investors. Third, I show that, in response to the weakening position on the liability side, banks responded by liquidating their credit position on the asset side of the balance sheet. Fourth, I find evidence that the introduction of a new voluntary insurance instrument called DPGE (Time Deposits with Special Insurance) seemed to have helped stabilize banks positions. Under DPGE, Certificates of Deposit (CD) are insured up to 20 million reais, while standard non-DPGE other time deposits are secured up to 60 thousand reais. Fifth, I show that banks whose assets were more illiquid selected themselves into expensive DPGE (issuers have to pay monthly premium of more than six times the value charged on conventionally insured deposits). Thus, providing funding liquidity was more important for banks that were more affected by market liquidity (having less liquid assets). An investigation of the determinants of issuing DPGE shows that: 1) banks that relied more on credit assignments before the crisis are more likely to issue under the new insurance scheme; 2) banks with higher credit-to-assets ratios are also more likely to issue under the new scheme, although the results on credit-to-assets are a little less precise. These results are important for several reasons. First, they are the first empirical results to document the relationship between market and funding liquidity. In particular, self-selecting into DPGE allows us to see that banks with more illiquid assets need more funding liquidity in the midst of a crisis. Second, the fact of the voluntary nature of the program is interesting per se. By providing voluntary, albeit expensive, insurance, banks may self-select only when they have little option (because of asset-side market illiquidity). Although I do not perform a full welfare analysis, this suggests that mandatory insurance may be sub-optimal for two reasons. First, banks that do not need it may be paying excessive premiums. Second, mandatory insurance may
24

[pt] CARACTERIZAÇÃO DO COMPORTAMENTO MECÂNICO SOB FADIGA MULTIAXIAL DE BAIXO CICLO DAS LIGAS DE AÇO SAE 1020 E ALUMÍNIO 6351-T6 / [en] CHARACTERIZATION OF THE MECHANICAL BEHAVIOR UNDER MULTIAXIAL LOW CYCLE FATIGUE OF SAE 1020 STEEL AND 6351-T6 ALUMINUM ALLOYS

THIAGO ALMEIDA CUNHA 30 June 2020 (has links)
[pt] A falha mecânica conhecida como fadiga é caracterizada pela iniciação e/ou propagação de trincas, causada por forças variáveis. Suas metodologias tradicionais calculam uma tensão elástica uniaxial equivalente que atua no componente, a fim de compará-la com os dados experimentais de comportamento mecânico do material do componente sob cargas uniaxiais. Esta hipótese pode levar a resultados não conservativos, por considerar que o material é igualmente sensível a tensões normais e cisalhantes, o que é falso em várias aplicações práticas. Portanto, dados torcionais e multiaxiais são necessários para melhor prever a vida em fadiga dos componentes. Para executar estes experimentos, o presente trabalho propõe uma variedade de projetos de componentes e metodologias de montagem para que se possa usar em uma máquina de tração-torção Instron 8874 uma garra hidráulica originalmente projetada para uma máquina tração pura Instron 8501. É proposto um método simplificado para estimar, por controle de deslocamento, as propriedades de fadiga de baixo ciclo em cisalhamento (gama)N, evitando assim a necessidade de usar equipamentos caros e diferentes tipos de corpos de prova. Este método é usado para caracterização das ligas Aço SAE 1020 e Alumínio 6351-T6 e os dados levantados são comparados com as propriedades medidas de fadiga de baixo ciclo em tração (epsilon)N, identificando assim se o material é mais sensível a tensões normais ou cisalhantes. Um programa numérico é usado para ajustar as curvas (epsilon)N e (gama)N nos dados experimentais, e seus procedimentos de implementação são discutidos. Por fim, são propostos e calibrados modelos de fadiga multiaxial de plano crítico mais adequados para cada material testado, com base nos dados medidos. / [en] The mechanical failure known as fatigue is characterized by the formation and/or propagation of cracks caused by variable forces. Its traditional methodologies normally calculate an equivalent uniaxial tensile stress acting on the component, in order to compare it with the known experimental mechanical behavior data of the component s material measured under uniaxial loads. This assumption can lead to non-conservative results because it considers the material to be equally sensitive to shear and tensile stresses, which is not true in a wide range of practical applications. Therefore, torsional and multiaxial experimental data is necessary to better predict the fatigue life of components. To execute those experiments, the present work proposes a variety of component designs and assembly methodologies to use on an Instron 8874 axial-torsional testing machine a hydraulic grip originally designed for an Instron 8501 uniaxial testing machine. Furthermore, a simplified method to estimate shear (gamma)N low-cycle fatigue properties via displacement-controlled experiments is proposed to avoid the need of using expensive equipment and different specimen designs, and used for characterization of SAE 1020 Steel and 6351-T6 Aluminum alloys. This data is compared with the measured tensile (epsilon)N low-cycle fatigue properties to identify if these materials are tensile or shear sensitive under multiaxial loading conditions. A numerical computing code is used to fit (epsilon)N and (gamma)N curves to the experimental data, and its implementation procedures are discussed. Finally, the most suitable critical-plane multiaxial fatigue models are proposed and calibrated for each material tested, based on the measured data.

Page generated in 0.089 seconds