• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 6
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 172
  • 113
  • 31
  • 28
  • 28
  • 22
  • 21
  • 20
  • 16
  • 15
  • 15
  • 15
  • 15
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Erros não detectáveis no processo de estimação de estado em sistemas elétricos de potência / Undetectable errors in power system state estimation

Lizandra Castilho Fabio 28 July 2006 (has links)
Na tentativa de contornar os problemas ainda existentes para a detecção e identificação de erros grosseiros (EGs) no processo de estimação de estado em sistemas elétricos de potência (EESEP), realiza-se, neste trabalho, uma análise da formulação dos estimadores aplicados a sistemas elétricos de potência, em especial, o de mínimos quadrados ponderados, tendo em vista evidenciar as limitações dos mesmos para o tratamento de EGs. Em razão da dificuldade de detectar EGs em medidas pontos de alavancamento, foram também analisadas as metodologias desenvolvidas para identificação de medidas pontos de alavancamento. Através da formulação do processo de EESEP como um problema de álgebra linear, demonstra-se o porquê da impossibilidade de detectar EGs em determinadas medidas redundantes, sendo proposto, na seqüência, um método para identificação de medidas pontos de alavancamento. Para reduzir os efeitos maléficos dessas medidas no processo de EESEP verifica-se a possibilidade de aplicar outras técnicas estatísticas para o processamento de EGs, bem como técnicas para obtenção de uma matriz de ponderação adequada. / To overcome the problems still existent for gross errors (GEs) detection and identification in the process of power system state estimation (PSSE), the formulations of the estimators applied to power systems are analyzed, specially, the formulation of the weighted squares estimator. These analyses were performed to show the limitations of these estimators for GEs processing. As leverage points (LP) represent a problem for GEs processing, methodologies for LP identification were also verified. By means of the linear formulation of the PSSE process, the reason for the impossibility of GEs detection in some redundant measurements is shown and a method for LP identification is proposed. To minimize the bad effects of the LP to the PSSE process, the possibility of applying other statistic techniques for GEs processing, as well as techniques to estimate an weighting matrix are also analyzed.
162

Núcleos de inflação no Brasil e poder preditivo da inflação total

Litvac, Basiliki Theophane Calochorios 05 February 2013 (has links)
Submitted by Basiliki Theophane Calochorios Litvac (basiliki.litvac@gmail.com) on 2013-03-06T22:27:11Z No. of bitstreams: 1 dissertacao_Basiliki_final_rev.pdf: 681459 bytes, checksum: 86dfce2ca595dfd933509d266c084a2d (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2013-03-07T12:53:10Z (GMT) No. of bitstreams: 1 dissertacao_Basiliki_final_rev.pdf: 681459 bytes, checksum: 86dfce2ca595dfd933509d266c084a2d (MD5) / Made available in DSpace on 2013-03-07T13:14:10Z (GMT). No. of bitstreams: 1 dissertacao_Basiliki_final_rev.pdf: 681459 bytes, checksum: 86dfce2ca595dfd933509d266c084a2d (MD5) Previous issue date: 2013-02-05 / Este trabalho tem por objetivo avaliar para o caso brasileiro uma das mais importantes propriedades esperadas de um núcleo: ser um bom previsor da inflação plena futura. Para tanto, foram utilizados como referência para comparação dois modelos construídos a partir das informações mensais do IPCA e seis modelos VAR referentes a cada uma das medidas de núcleo calculadas pelo Banco Central do Brasil. O desempenho das previsões foi avaliado pela comparação dos resultados do erro quadrático médio e pela aplicação da metodologia de Diebold-Mariano (1995) de comparação de modelos. Os resultados encontrados indicam que o atual conjunto de medidas de núcleos calculado pelo Banco Central não atende pelos critérios utilizados neste trabalho a essa característica desejada. / This paper aims at evaluating one of the most important desirable properties of a core inflation measure: to be a better predictor of headline inflation over the future. To achieve this goal, two benchmark models using monthly IPCA data were compared with six VAR models for each one of the core measures calculated by the Brazilian Central Bank. The forecasting performance was evaluated comparing the mean square error and by the Diebold-Mariano (1995) test for predictive accuracy. The evidence found indicates that the current set of core inflation measures calculated by the Central Bank does fulfill this desired property.
163

Estudo de métodos de interface imersa para as equações de Navier-Stokes / Study of immersed interface methods for the Navier-Stokes equations

Gabriela Aparecida dos Reis 24 June 2016 (has links)
Uma grande limitação dos métodos de diferenças finitas é que eles estão restritos a malhas e domínios retangulares. Para descrever escoamentos em domínios complexos, como, por exemplo, problemas com superfícies livres, faz-se necessário o uso de técnicas acessórias. O método de interfaces imersas é uma dessas técnicas. Nesse trabalho, primeiramente foi desenvolvido um método de projeção, totalmente livre de pressão, para as equações de Navier-Stokes com variáveis primitivas em malha deslocada. Esse método é baseado em diferenças finitas compactas, possuindo segunda ordem temporal e quarta ordem espacial. Esse método foi combinado com o método de interface imersa de Linnick e Fasel [2] para resolver numericamente as equações de Stokes com quarta ordem de precisão. A verificação do código foi feita por meio do método das soluções manufaturadas e da comparação com resultados de outros autores em problemas clássicos da literatura. / A great limitation of finite differences methods is that they are restricted to retangular meshes and domains. In order to describe flows in complex domains, e.g. free surface problems, it is necessary to use accessory techniques. The immersed interface method is one of such techniques. In the present work, firstly, a projection method was developed, which is completely pressure-free, for the Navier-Stokes equations with primitive variables in a staggered mesh. This method is based on compact finite differences, with temporal second-order precision and spatial foruth-order precision. This method was combined with the immersed interface method from Linnick e Fasel [2] in order to numerically solve the Stokes equations with fourth-order precision. The verification of the code was performed with the manufactured solutions method and by comparing results with other authors for some classical problems in the literature.
164

Soluções aproximadas para algoritmos escaláveis de mineração de dados em domínios de dados complexos usando GPGPU / On approximate solutions to scalable data mining algorithms for complex data problems using GPGPU

Alexander Victor Ocsa Mamani 22 September 2011 (has links)
A crescente disponibilidade de dados em diferentes domínios tem motivado o desenvolvimento de técnicas para descoberta de conhecimento em grandes volumes de dados complexos. Trabalhos recentes mostram que a busca em dados complexos é um campo de pesquisa importante, já que muitas tarefas de mineração de dados, como classificação, detecção de agrupamentos e descoberta de motifs, dependem de algoritmos de busca ao vizinho mais próximo. Para resolver o problema da busca dos vizinhos mais próximos em domínios complexos muitas abordagens determinísticas têm sido propostas com o objetivo de reduzir os efeitos da maldição da alta dimensionalidade. Por outro lado, algoritmos probabilísticos têm sido pouco explorados. Técnicas recentes relaxam a precisão dos resultados a fim de reduzir o custo computacional da busca. Além disso, em problemas de grande escala, uma solução aproximada com uma análise teórica sólida mostra-se mais adequada que uma solução exata com um modelo teórico fraco. Por outro lado, apesar de muitas soluções exatas e aproximadas de busca e mineração terem sido propostas, o modelo de programação em CPU impõe restrições de desempenho para esses tipos de solução. Uma abordagem para melhorar o tempo de execução de técnicas de recuperação e mineração de dados em várias ordens de magnitude é empregar arquiteturas emergentes de programação paralela, como a arquitetura CUDA. Neste contexto, este trabalho apresenta uma proposta para buscas kNN de alto desempenho baseada numa técnica de hashing e implementações paralelas em CUDA. A técnica proposta é baseada no esquema LSH, ou seja, usa-se projeções em subespac¸os. O LSH é uma solução aproximada e tem a vantagem de permitir consultas de custo sublinear para dados em altas dimensões. Usando implementações massivamente paralelas melhora-se tarefas de mineração de dados. Especificamente, foram desenvolvidos soluções de alto desempenho para algoritmos de descoberta de motifs baseados em implementações paralelas de consultas kNN. As implementações massivamente paralelas em CUDA permitem executar estudos experimentais sobre grandes conjuntos de dados reais e sintéticos. A avaliação de desempenho realizada neste trabalho usando GeForce GTX470 GPU resultou em um aumento de desempenho de até 7 vezes, em média sobre o estado da arte em buscas por similaridade e descoberta de motifs / The increasing availability of data in diverse domains has created a necessity to develop techniques and methods to discover knowledge from huge volumes of complex data, motivating many research works in databases, data mining and information retrieval communities. Recent studies have suggested that searching in complex data is an interesting research field because many data mining tasks such as classification, clustering and motif discovery depend on nearest neighbor search algorithms. Thus, many deterministic approaches have been proposed to solve the nearest neighbor search problem in complex domains, aiming to reduce the effects of the well-known curse of dimensionality. On the other hand, probabilistic algorithms have been slightly explored. Recently, new techniques aim to reduce the computational cost relaxing the quality of the query results. Moreover, in large-scale problems, an approximate solution with a solid theoretical analysis seems to be more appropriate than an exact solution with a weak theoretical model. On the other hand, even though several exact and approximate solutions have been proposed, single CPU architectures impose limits on performance to deliver these kinds of solution. An approach to improve the runtime of data mining and information retrieval techniques by an order-of-magnitude is to employ emerging many-core architectures such as CUDA-enabled GPUs. In this work we present a massively parallel kNN query algorithm based on hashing and CUDA implementation. Our method, based on the LSH scheme, is an approximate method which queries high-dimensional datasets with sub-linear computational time. By using the massively parallel implementation we improve data mining tasks, specifically we create solutions for (soft) realtime time series motif discovery. Experimental studies on large real and synthetic datasets were carried out thanks to the highly CUDA parallel implementation. Our performance evaluation on GeForce GTX 470 GPU resulted in average runtime speedups of up to 7x on the state-of-art of similarity search and motif discovery solutions
165

Geometric model of a dual-fisheye system composed of hyper-hemispherical lenses /

Castanheiro, Letícia Ferrari January 2020 (has links)
Orientador: Antonio Maria Garcia Tommaselli / Resumo: A combinação de duas lentes com FOV hiper-hemisférico em posição opostas pode gerar um sistema omnidirecional (FOV 360°) leve, compacto e de baixo custo, como Ricoh Theta S e GoPro Fusion. Entretanto, apenas algumas técnicas e modelos matemáticos para a calibração um sistema com duas lentes hiper-hemisféricas são apresentadas na literatura. Nesta pesquisa, é avaliado e definido um modelo geométrico para calibração de sistemas omnidirecionais compostos por duas lentes hiper-hemisféricas e apresenta-se algumas aplicações com esse tipo de sistema. A calibração das câmaras foi realizada no programa CMC (calibração de múltiplas câmeras) utilizando imagens obtidas a partir de vídeos feitos com a câmara Ricoh Theta S no campo de calibração 360°. A câmara Ricoh Theta S é composto por duas lentes hiper-hemisféricas fisheye que cobrem 190° cada uma. Com o objetivo de avaliar as melhorias na utilização de pontos em comum entre as imagens, dois conjuntos de dados de pontos foram considerados: (1) apenas pontos no campo hemisférico, e (2) pontos em todo o campo de imagem (isto é, adicionar pontos no campo de imagem hiper-hemisférica). Primeiramente, os modelos ângulo equisólido, equidistante, estereográfico e ortogonal combinados com o modelo de distorção Conrady-Brown foram testados para a calibração de um sensor da câmara Ricoh Theta S. Os modelos de ângulo-equisólido e estereográfico apresentaram resultados melhores do que os outros modelos. Portanto, esses dois modelos de projeção for... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The arrangement of two hyper-hemispherical fisheye lenses in opposite position can design a light weight, small and low-cost omnidirectional system (360° FOV), e.g. Ricoh Theta S and GoPro Fusion. However, only a few techniques are presented in the literature to calibrate a dual-fisheye system. In this research, a geometric model for dual-fisheye system calibration was evaluated, and some applications with this type of system are presented. The calibrating bundle adjustment was performed in CMC (calibration of multiple cameras) software by using the Ricoh Theta video frames of the 360° calibration field. The Ricoh Theta S system is composed of two hyper-hemispherical fisheye lenses with 190° FOV each one. In order to evaluate the improvement in applying points in the hyper-hemispherical image field, two data set of points were considered: (1) observations that are only in the hemispherical field, and (2) points in all image field, i.e. adding points in the hyper-hemispherical image field. First, one sensor of the Ricoh Theta S system was calibrated in a bundle adjustment based on the equidistant, equisolid-angle, stereographic and orthogonal models combined with Conrady-Brown distortion model. Results showed that the equisolid-angle and stereographic models can provide better solutions than those of the others projection models. Therefore, these two projection models were implemented in a simultaneous camera calibration, in which the both Ricoh Theta sensors were considered i... (Complete abstract click electronic access below) / Mestre
166

Study of analytical methods for electron track detection from heavy quark decays generated by sqrt(s)=8TeV pp collisions at ALICE / Estudo de métodos analíticos para detecção de traços de elétrons oriundos do decaimento de quarks pesados por colisões pp a raiz(s)=8TeV no ALICE

Luzio, Marco Aurelio 03 May 2017 (has links)
A study of the usage of ALICEs time of flight (TOF), time projection chamber (TPC), and electromagnetic calorimeter (EMCal), aiming at detecting and separating electrons and positrons (e±) originated from different sources, was carried out. To accomplish the objectives of the research, data gathered from the 2012 proton-proton (pp) collision experiment were used. At a center of mass energy of sqrt(s)=8TeV, the collision of the proton beams liberates heavy quarks, charm and bottom, with approximate lifetimes of approximately 10^13s and 10^12s, respectively. The e± generated through weak semileptonic heavy flavor decays are of interest for studying quarks, therefore it served solely as motivation and incentive for the research carried out and described herein. The introduction of carefully selected cuts, with the purpose of separating partial data collected in the three detectors, permitted the understanding of their effect on the results. Furthermore, due to the fact that the TOFs design was not meant to separate e± from the other heavier particles, only the general effects of introducing a simple cut in the beta=v/c values were analyzed. The more specific cuts were only used for the data generated by the events detected by the TPC and the EMCal. A combination of cuts based on the particles energy loss as a function of traveled distance (dE/dx), with the ratio of energy to momentum (E/p) of the particle, was adopted to enable the separation process, thus allowing for the isolation of e± from the other particles, namely pi±, K±, and p/p. The analysis was performed for values of total particle momentum in the range 0<=p<=6GeV/c. A comparison of the raw data with the results obtained by applying this procedure, indicated a substantial increase in the e± yield and efficiency, reaching average values above 90% over the entire momentum range. / Um estudo do uso dos detetores de tempo de voo (TDV), câmara de projeção de tempo (CPT), e calorímetro eletromagnético (CalEM) do ALICE, visando detectar elétrons e pósitrons (e±) originados por diferentes fontes, foi realizado. Para atingir os objetivos da pesquisa, dados coletados durante o experimento de colisões próton-próton em 2012 foram utilizados. Com um nível de enegia do centro de mass igual a raiz(s)=8TeV, a colisão dos feixes de prótons libera quarks pesados, charm e bottom, com tempo de vida de aproximadamente 10^13s e 10^12s, respectivamente. Os e± gerados pelo decaimento fraco semileptônico de sabores pesados é de interesse para o estudo dos quarks, portanto, o conceito serviu somente como motivação e incentivo para a pesquisa realizada e descrita nesta dissertação. A introdução de cortes específicos, com a finalidade de parcialmente separar dados coletados nos três detectores, permitiu adquirir entendimento sobre os efeitos do cortes nos resultados. Adicionalmente, em virtude do projeto do TDV não ter sido feito visando separar e± oriundos do decaimento dos sabores pesados das demais partículas mais massivas, somente os efeitos gerais de introduzir um corte simples nos valores de beta=v/c, foram analisados. Os cortes mais específicos foram somente nos dados detectados pelo CPT e pelo CalEM. Uma combinação de cortes baseados na perda de energia da partícula em função da distância percorrida (dE/dx), com a razão entre a energia e o momento da partícula (E/p), foi adotada para viabilizar o processo de separação, desta forma permitindo a separação dos e± das demais partículas, ou seja, dos pi±, K±, and p/p. A análise foi realizada para valores de momento total das partículas na faixa 0<=p<=6GeV/c. Uma comparação dos dados originais com os resultados obtidos pela aplicação do procedimento, indicou um aumento substancial do rendimento e eficiência dos e±, atingindo valores médios acima de 90% na faixa inteira de momento.
167

O sacrifício de Cristo como superação do sacrifício antigo

Godoy, Edevilson de 04 December 2009 (has links)
Made available in DSpace on 2016-04-29T14:27:29Z (GMT). No. of bitstreams: 1 Edevilson de Godoy.pdf: 2017172 bytes, checksum: 96fe04fb1ddbe914385d650c9d368340 (MD5) Previous issue date: 2009-12-04 / This study examines the sacrifice of Christ as a conquest of ancient sacrifice, from the paradigm of victimizing mechanism explained by Franco-American anthropologist René Girard. The thesis affront the theme of sacrifice in perspective Girard, highlighting the evolution of his thought: from the mimetic process that culminates in the classic concept of the scapegoat as exorcism of community violence, it reaches a more dialectic, in which maintaining the archaic theory, highlights the Christian message of sacrifice as gift of self for the life of another. The research fits into the context of studies on the role of religion in human relations, that is, the phenomenon of religion in community relations, to, from Girard, focusing on the "sacrifice of Christ as the greatest expression of love of history able to redeem sinful man. The study has a humble ambition to show the extraordinary contribution of theory Girard theology. It presents an overall discussion of the thought of Girard. Keep is the dogmatic biblical field, including the possibility of the compatibility between Catholic theology and thought Girard at a specific point and absolutely qualifying: the word sacrifice can be perfectly applied to the event of Christ's passion / Este estudo analisa o sacrifício de Cristo como superação do sacrifício antigo, a partir do paradigma do mecanismo vitimário explicado pelo antropólogo francoamericano René Girard. A tese afronta o tema do sacrifício na perspectiva girardiana, evidenciando a evolução do seu pensamento: partindo do processo mimético que culmina na concepção clássica do bode expiatório como exorcização da violência comunitária, chega a uma concepção mais dialética, na qual mantendo a teoria arcaica, destaca a novidade cristã do sacrifício, enquanto dom de si mesmo pela vida do outro. A pesquisa insere-se no contexto dos estudos sobre a função da religião nas relações humanas, ou seja, o fenômeno religioso nas relações comunitárias, para, a partir de Girard, enfocar o sacrifício de Cristo como a maior expressão de amor da história, capaz de redimir o homem pecador. O estudo tem a humilde ambição de mostrar a extraordinária contribuição da teoria girardiana à teologia. Não apresenta uma discussão global do pensamento de Girard. Atem-se ao campo bíblico dogmático, verificando a possibilidade de uma compatibilidade entre a teologia católica e o pensamento girardiano em um ponto específico e absolutamente qualificante: o termo sacrifício pode perfeitamente ser aplicado ao evento da paixão de Cristo
168

Study of analytical methods for electron track detection from heavy quark decays generated by sqrt(s)=8TeV pp collisions at ALICE / Estudo de métodos analíticos para detecção de traços de elétrons oriundos do decaimento de quarks pesados por colisões pp a raiz(s)=8TeV no ALICE

Marco Aurelio Luzio 03 May 2017 (has links)
A study of the usage of ALICEs time of flight (TOF), time projection chamber (TPC), and electromagnetic calorimeter (EMCal), aiming at detecting and separating electrons and positrons (e±) originated from different sources, was carried out. To accomplish the objectives of the research, data gathered from the 2012 proton-proton (pp) collision experiment were used. At a center of mass energy of sqrt(s)=8TeV, the collision of the proton beams liberates heavy quarks, charm and bottom, with approximate lifetimes of approximately 10^13s and 10^12s, respectively. The e± generated through weak semileptonic heavy flavor decays are of interest for studying quarks, therefore it served solely as motivation and incentive for the research carried out and described herein. The introduction of carefully selected cuts, with the purpose of separating partial data collected in the three detectors, permitted the understanding of their effect on the results. Furthermore, due to the fact that the TOFs design was not meant to separate e± from the other heavier particles, only the general effects of introducing a simple cut in the beta=v/c values were analyzed. The more specific cuts were only used for the data generated by the events detected by the TPC and the EMCal. A combination of cuts based on the particles energy loss as a function of traveled distance (dE/dx), with the ratio of energy to momentum (E/p) of the particle, was adopted to enable the separation process, thus allowing for the isolation of e± from the other particles, namely pi±, K±, and p/p. The analysis was performed for values of total particle momentum in the range 0<=p<=6GeV/c. A comparison of the raw data with the results obtained by applying this procedure, indicated a substantial increase in the e± yield and efficiency, reaching average values above 90% over the entire momentum range. / Um estudo do uso dos detetores de tempo de voo (TDV), câmara de projeção de tempo (CPT), e calorímetro eletromagnético (CalEM) do ALICE, visando detectar elétrons e pósitrons (e±) originados por diferentes fontes, foi realizado. Para atingir os objetivos da pesquisa, dados coletados durante o experimento de colisões próton-próton em 2012 foram utilizados. Com um nível de enegia do centro de mass igual a raiz(s)=8TeV, a colisão dos feixes de prótons libera quarks pesados, charm e bottom, com tempo de vida de aproximadamente 10^13s e 10^12s, respectivamente. Os e± gerados pelo decaimento fraco semileptônico de sabores pesados é de interesse para o estudo dos quarks, portanto, o conceito serviu somente como motivação e incentivo para a pesquisa realizada e descrita nesta dissertação. A introdução de cortes específicos, com a finalidade de parcialmente separar dados coletados nos três detectores, permitiu adquirir entendimento sobre os efeitos do cortes nos resultados. Adicionalmente, em virtude do projeto do TDV não ter sido feito visando separar e± oriundos do decaimento dos sabores pesados das demais partículas mais massivas, somente os efeitos gerais de introduzir um corte simples nos valores de beta=v/c, foram analisados. Os cortes mais específicos foram somente nos dados detectados pelo CPT e pelo CalEM. Uma combinação de cortes baseados na perda de energia da partícula em função da distância percorrida (dE/dx), com a razão entre a energia e o momento da partícula (E/p), foi adotada para viabilizar o processo de separação, desta forma permitindo a separação dos e± das demais partículas, ou seja, dos pi±, K±, and p/p. A análise foi realizada para valores de momento total das partículas na faixa 0<=p<=6GeV/c. Uma comparação dos dados originais com os resultados obtidos pela aplicação do procedimento, indicou um aumento substancial do rendimento e eficiência dos e±, atingindo valores médios acima de 90% na faixa inteira de momento.
169

DIVISÃO DE POLÍGONOS IRREGULARES DO ELIPSÓIDE BIAXIAL NA SUPERFÍCIE DA PROJEÇÃO AZIMUTAL EQUIVALENTE DE LAMBERT / Irregular polygon partitioning on the biaxial ellipsoid on the surface of the Lambert azimuthal equal-area projection

Stanque, Edson Luis 03 October 2007 (has links)
This dissertation supplies the methodology of the measure (area) in the Earth model adopted for Geodesy. This model is the ellipsoid of revolution, in which the system of Cartesian coordinates, the curvilinear coordinate system and the polar coordinate system are described. The coordinate nature in the development of the surface measure calculation is discussed. The following demonstrations are illustrated: the ellipse equation, the eccentricity of the ellipse, the meridian section curvature radius equation, the meridian transversal section curvature radius equation and elliptic integral. It define algebraic geodesic line and geometrically. The juridical basis are the article 3º of Brazilian Federal Law 10.267/2001, which modify article 176 of the Brazilian Federal Law 6.015/1973 (Public Record Law) and adds to this article the paragraphs 3º and 4º, the paragraph 3º of article 225 of the Brazilian Law 6.015/1973 and the article 971 of the Código de Processo Civil (CPC), which require the coordinates of the corners of the real property on the Brazilian Geodetic System (SGB). The partitioning of the regular ellipsoid quadrilateral and the partitioning of the irregular ellipsoid quadrilateral located in the real property Pó de Serra is presented. To become this partitioning, it was used surface of the Lambert azimuthal equal-area projection, i. e., the curvilinear geodetic coordinates in plane coordinates has been transformed. The surface partitioning was determined using the method area equation of the Gauss trapezes connected with the equation of the straight line. The direct problem of the Lambert azimuthal equal-area projection and the inverse problem supply the methodology that become feasible the juridical exigence (articles 176 and 225 of Brazilian Federal Law 6.015/1973 and article 971 of the CPC). The methodology to the geodetic coordinates system with the purpose to calculate the partitioned areas of surface on the ellipsoid can be applied. The calculation of surface measure supplies the effective practice of the mencioned juridical basis. / O propósito deste trabalho é fornecer os fundamentos de cálculo de medida de superfície (área) no modelo de Terra adotado pela Geodésia. Esse modelo é o elipsóide de revolução ao qual se vincula o sistema de coordenadas cartesianas, o sistema de coordenadas curvilíneas e o sistema de coordenadas polares. Discute a natureza das coordenadas no desenvolvimento do cálculo da medida de superfície. Efetuam-se as seguintes demonstrações: equação da elipse, equação da excentricidade da elipse, equação do raio de curvatura da seção meridiana, equação do raio de curvatura da seção transversal meridiana e integral elíptica. Define linha geodésica algébrica e geometricamente. Apresentam-se os instrumentos legais que são o artigo 3º da Lei 10.267/2001, o qual altera o artigo 176, inciso II da Lei 6.015/1973 (Lei de Registros Públicos) e acrescenta a este artigo os parágrafos 3º e 4º, o parágrafo 3º do artigo 225 da Lei 6.015/1973 e o artigo 971 do Código de Processo Civil (CPC), os quais vinculam as coordenadas dos vértices do imóvel ao Sistema Geodésico Brasileiro (SGB). Efetuam-se a divisão do quadrilátero elipsóidico regular e também do quadrilátero elipsóidico irregular localizado na gleba Pó de Serra. Para se fazer esta divisão, usou-se a superfície da projeção azimutal equivalente de Lambert, ou seja, as coordenadas elipsóidicas curvilíneas foram transformadas em coordenadas planas desse sistema de projeção. A divisão destas superfícies foi efetuada pelo método da equação da área dos trapézios de Gauss em conjunto com a equação da reta. Os problemas direto e inverso da projeção azimutal equivalente de Lambert fornecem a metodologia que tornam exeqüíveis os dispositivos legais (artigos 176 e 225 da Lei 6.015/1973 e artigo 971 do CPC). A metodologia de cálculo proposto pode ser aplicada ao sistema de coordenadas geodésicas com a finalidade de calcular as áreas de uma divisão de superfície no elipsóide. Os fundamentos do cálculo de medida de superfície instrumentalizam o efetivo cumprimento dos dispositivos legais retrocitados.
170

Vários algoritmos para os problemas de desigualdade variacional e inclusão / On several algorithms for variational inequality and inclusion problems

Millán, Reinier Díaz 27 February 2015 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2015-05-21T19:19:51Z No. of bitstreams: 2 Tese - Reinier Díaz Millán - 2015.pdf: 3568052 bytes, checksum: b4c892f77911a368e1b8f629afb5e66e (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2015-05-21T19:21:31Z (GMT) No. of bitstreams: 2 Tese - Reinier Díaz Millán - 2015.pdf: 3568052 bytes, checksum: b4c892f77911a368e1b8f629afb5e66e (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-05-21T19:21:31Z (GMT). No. of bitstreams: 2 Tese - Reinier Díaz Millán - 2015.pdf: 3568052 bytes, checksum: b4c892f77911a368e1b8f629afb5e66e (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-02-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Nesta tese apresentamos v arios algoritmos para resolver os problemas de Desigualdade Variacional e Inclus~ao. Para o problema de desigualdade variacional propomos, no Cap tulo 2 uma generaliza c~ao do algoritmo cl assico extragradiente, utilizando vetores normais n~ao nulos do conjunto vi avel. Em particular, dois algoritmos conceituais s~ao propostos e cada um deles cont^em tr^es variantes diferentes de proje c~ao que est~ao relacionadas com algoritmos extragradientes modi cados. Duas buscas diferentes s~ao propostas, uma sobre a borda do conjunto vi avel e a outra ao longo das dire c~oes vi aveis. Cada algoritmo conceitual tem uma estrat egia diferente de busca e tr^es formas de proje c~ao especiais, gerando tr^es sequ^encias com diferente e interessantes propriedades. E feito a an alise da converg^encia de ambos os algoritmos conceituais, pressupondo a exist^encia de solu c~oes, continuidade do operador e uma condi c~ao mais fraca do que pseudomonotonia. No Cap tulo 4, n os introduzimos um algoritmo direto de divis~ao para o problema variacional em espa cos de Hilbert. J a no Cap tulo 5, propomos um algoritmo de proje c~ao relaxada em Espa cos de Hilbert para a soma de m operadores mon otonos maximais ponto-conjunto, onde o conjunto vi avel do problema de desigualdade variacional e dado por uma fun c~ao n~ao suave e convexa. Neste caso, as proje c~oes ortogonais ao conjunto vi avel s~ao substitu das por proje c~oes em hiperplanos que separam a solu c~ao da itera c~ao atual. Cada itera c~ao do m etodo proposto consiste em proje c~oes simples de tipo subgradientes, que n~ao exige a solu c~ao de subproblemas n~ao triviais, utilizando apenas os operadores individuais, explorando assim a estrutura do problema. Para o problema de Inclus~ao, propomos variantes do m etodo de divis~ao de forward-backward para achar um zero da soma de dois operadores, a qual e a modi ca c~ao cl assica do forwardbackward proposta por Tseng. Um algoritmo conceitual e proposto para melhorar o apresentado por Tseng em alguns pontos. Nossa abordagem cont em, primeramente, uma busca linear tipo Armijo expl cita no esp rito dos m etodos tipo extragradientes para desigualdades variacionais. Durante o processo iterativo, a busca linear realiza apenas um c alculo do operador forward-backward em cada tentativa de achar o tamanho do passo. Isto proporciona uma consider avel vantagem computacional pois o operador forward-backward e computacionalmente caro. A segunda parte do esquema consiste em diferentes tipos de proje c~oes, gerando sequ^encias com caracter sticas diferentes. / In this thesis we present various algorithms to solve the Variational Inequality and Inclusion Problems. For the variational inequality problem we propose, in Chapter 2, a generalization of the classical extragradient algorithm by utilizing non-null normal vectors of the feasible set. In particular, two conceptual algorithms are proposed and each of them has three di erent projection variants which are related to modi ed extragradient algorithms. Two di erent linesearches, one on the boundary of the feasible set and the other one along the feasible direction, are proposed. Each conceptual algorithm has a di erent linesearch strategy and three special projection steps, generating sequences with di erent and interesting features. Convergence analysis of both conceptual algorithms are established, assuming existence of solutions, continuity and a weaker condition than pseudomonotonicity on the operator. In Chapter 4 we introduce a direct splitting method for solving the variational inequality problem for the sum of two maximal monotone operators in Hilbert space. In Chapter 5, for the same problem, a relaxed-projection splitting algorithm in Hilbert spaces for the sum of m nonsmooth maximal monotone operators is proposed, where the feasible set of the variational inequality problem is de ned by a nonlinear and nonsmooth continuous convex function inequality. In this case, the orthogonal projections onto the feasible set are replaced by projections onto separating hyperplanes. Furthermore, each iteration of the proposed method consists of simple subgradient-like steps, which does not demand the solution of a nontrivial subproblem, using only individual operators, which explores the structure of the problem. For the Inclusion Problem, in Chapter 3, we propose variants of forward-backward splitting method for nding a zero of the sum of two operators, which is a modi cation of the classical forward-backward method proposed by Tseng. The conceptual algorithm proposed here improves Tseng's method in many instances. Our approach contains rstly an explicit Armijo-type line search in the spirit of the extragradient-like methods for variational inequalities. During the iterative process, the line search performs only one calculation of the forward-backward operator in each tentative for nding the step size. This achieves a considerable computational saving when the forward-backward operator is computationally expensive. The second part of the scheme consists of special projection steps bringing several variants.

Page generated in 0.0515 seconds