• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 2
  • Tagged with
  • 57
  • 25
  • 15
  • 11
  • 11
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Cálculo de área de poligonais geodésicas ou loxodrômicas sobre o elipsóide do Sistema Geodésico WGS-84. / Geodetic or rhumb line polygon area calculation over the WGS-84 datum ellipsoid.

Ricardo Ramos Freire 05 October 2009 (has links)
O cálculo da área de poligonais geodésicas é um desafio matemático instigante. Como calcular a área de uma poligonal sobre o elipsóide, se seus lados não possuem parametrização conhecida? Alguns trabalhos já foram desenvolvidos no intuito de solucionar este problema, empregando, em sua maioria, sistemas projetivos equivalentes ou aproximações sobre esferas autálicas. Tais métodos aproximam a superfície de referência elipsoidal por outras de mais fácil tratamento matemático, porém apresentam limitação de emprego, pois uma única superfície não poderia ser empregada para todo o planeta, sem comprometer os cálculos realizados sobre ela. No Código de Processo Civil, Livro IV, Título I, Capítulo VIII, Seção III artigo 971 diz, em seu parágrafo único, que não havendo impugnação, o juiz determinará a divisão geodésica do imóvel. Além deste, existe ainda a Lei 10.267/2001, que regula a obrigatoriedade, para efetivação de registro, dos vértices definidores dos limites dos imóveis rurais terem suas coordenadas georreferenciadas ao Sistema Geodésico Brasileiro (SGB), sendo que áreas de imóveis menores que quatro módulos fiscais terão garantida isenção de custos financeiros.Este trabalho visa fornecer uma metodologia de cálculo de áreas para poligonais geodésicas, ou loxodrômicas, diretamente sobre o elipsóide, bem como fornecer um programa que execute as rotinas elaboradas nesta dissertação. Como a maioria dos levantamentos geodésicos é realizada usando rastreadores GPS, a carga dos dados é pautada em coordenadas (X, Y, Z), empregando o Sistema Geodésico WGS-84, fornecendo a área geodésica sem a necessidade de um produto tipo SIG. Para alcançar o objetivo deste trabalho, foi desenvolvida parametrização diferente da abordagem clássica da Geodésia geométrica, para transformar as coordenadas (X, Y, Z) em geodésicas. / The area calculation of geodetic polygonal is a compelling mathematical challenge. How could one calculate the area of a polygon over the ellipsoid, if the sides do not have known parameterization? Some works have already been developed in order to solve this problem, employing mostly equivalent projective systems or authalic spheres approaches. Such methods near the ellipsoidal reference surface by other of easier mathematical treatment, but have limited employment, for a single surface cannot be used for the entire planet, without compromising the calculations over it. In the Code of Civil Procedure, Book IV, Title I, Chapter VIII, Section III, Article 971 says, in its sole paragraph, that "if there is no objection, the judge shall determine the division of the geodesic property. Besides this, there is the Law 10.267/2001, which regulates the requirement for effective registration, that the vertices defining the boundaries of the farms should have their geo-referenced coordinates to Brazilian Geodetic System (BGS), and areas of buildings less than four modules have guaranteed tax-free financial costs. This paper aims to provide a methodology of area calculation for traverses delimited by geodetic lines, or rhumb lines, directly on the ellipsoid, and provide a program that executes routines developed on this work. Since most geodetic surveys are developed using GPS equipment, the data input is based on (X, Y, Z) coordinates, using WGS-84 datum, providing the geodetic area without needing a GIS product. In order to achieve the paper objective, it was developed a different parameterization from the classical geometric Geodesy approach, to transform (X, Y, Z) coordinates into geodetic ones.
32

O método dos elementos discretos com superelipsoides usando a parametrização das rotações de Rodrigues. / Discrete element method with superellipsoid using Rodrigues parameterization for rotations.

Marco Antonio Brasiel Sampaio 09 December 2016 (has links)
Este trabalho apresenta uma formulação do Método dos Elementos Discretos (MED) utilizando uma abordagem vetorial para o tratamento das rotações. As rotações são calculadas com a parametrização de Rodrigues. As principais contribuições do trabalho são: o cálculo dos deslocamentos tangentes utilizando o vetor das rotações incrementais da parametrização de Rodrigues; e, a integração do movimento de rotação utilizando o método leapfrog com as expressões da parametrização das rotações de Rodrigues. A formulação é apresentada para partículas esféricas e superelipsóides. O cálculo do deslocamento tangente, que é utilizado para o cálculo das forças de atrito, é feito a partir da velocidade angular da partícula. Em geral, o deslocamento tangente é calculado a partir da velocidade linear instantânea do ponto de contato. Aqui, o deslocamento do ponto de contato é dado pelo movimento da partícula, tanto de translação quanto de rotação. Apesar da abordagem por meio de rotações, é mostrado este cálculo pode ser feito sem o uso de tensores de segunda ordem. O movimento da partícula é descrito por uma abordagem incremental. É apresentada uma formulação do método de integração leapfrog com a utilização da expressão das rotações sucessivas da parametrização de Rodrigues. A detecção do contato entre superelipsóides é feita por um método do tipo \"vetor normal comum\", resolvido como um problema de minimização. Os resultados mostram que a parametrização de Rodrigues pode ser utilizada com método dos elementos discretos tanto para a execução da rotação quanto para o cálculo de grandezas que envolvem este tipo de movimento como o deslocamento tangente. / This work presents a formulation for Discrete Element Method (DEM) adopting a vector ap-proach to solve rotations. Herein, rotations are solved using Rodrigues parameterization. The main contributions of this work are: tangential displacements using the incremental rotation vector from Rodrigues parameterization, and integration of the rotation movement using leap-frog method and Rodrigues rotation tensor. The formulations are presented to spheres and superelliptical particles. Tangential displacements, which are used to get friction forces, are calculated through angular velocity. In most of DEM implementations, tangential displacements are calculated through the instantaneous linear velocity of the contact point. Instead, here the displacement of the contact point is given through the rotation of the particle. It is showed that the vector of in-cremental rotations can be calculated through the angular velocity. Particle movement is described using an updated Lagrangian approach. Leapfrog method is formulated in such a way to use the Rodrigues expression for successive rotations. Contact detection between superellipsoids is solved using a technic called \"common normal approach\", and it is solved as a minimization problem. The results show that the Rodrigues parameterization can be applied to discrete element method to both execute rotations and to evaluate physical quantities that are related to this kind of movement as tangential displacement.
33

Projeto inverso aerodinâmico utilizando o método adjunto aplicado às equações de Euler. / Inverse aerodynamic design using the adjoint method applied to the Euler equations.

Marco Antonio de Barros Ceze 12 August 2008 (has links)
Um desafio constante no projeto aerodinâmico de uma superfície é obter a forma geométrica que permite, baseado em uma determinada medida de mérito, o melhor desempenho possível. No contexto de projeto de aeronaves de transporte, o desempenho ótimo em cruzeiro é a principal meta do projetista. Nesse cenário, o uso da Dinâmica do Fluidos Computacional como não só uma ferramenta de análise mas também de síntese torna-se uma forma atrativa para melhorar o projeto de aeronaves que é uma atividade dispendiosa em termos de tempo e recursos financeiros. O método adotado para projeto aerodinâmico é baseado na teoria de controle ótimo. Essa abordagem para o problema de otimização aerodinâmica foi inicialmente proposta por Jameson (1997) e é chamada de método adjunto. Esse método apresenta uma grande diminuição de custo computacional se comparado com a abordagem de diferenças finitas para a otimização baseada em gradiente. Essa dissertação apresenta o método adjunto contínuo aplicado às equações de Euler. Tal método está inserido no contexto de um ciclo de projeto inverso aerodinâmico. Nesse ciclo, tanto o código computacional de solução das equações do escoamento quanto o código de solução das equações adjuntas foram desenvolvidos ao longo desse trabalho. Além disso, foi adotada uma metodologia de redução do gradiente da função de mérito em relação às variáveis de projeto. O algorítmo utilizado para a busca do mínimo da função de mérito é o steepest descent. Os binômios de Bernstein foram escolhidos para representar a geometria do aerofólio de acordo com a parametrização proposta por Kulfan e Bussoletti (2006). Apresenta-se um estudo dessa parametrização mostrando suas características relevantes para a otimização aerodinâmica. Os resultados apresentados estão divididos em dois grupos: validação do ciclo de projeto inverso e aplicações práticas. O primeiro grupo consiste em exercícios de projeto inverso nos quais são estabelecidas distribuições de pressão desejadas obtidas a partir de geometrias conhecidas, desta forma garante-se que tais distribuições são realizáveis. No segundo grupo, porém, as distribuições desejadas são propostas pelo projetista baseado em sua experiência e, portanto, não sendo garantida a realizabilidade dessas distribuições. Em ambos os grupos, incluem-se resultados nos regimes de escoamento transônico e subsônico incompressível. / A constant endeavor in aerodynamic design is to find the shape that yields optimum performance, according to some context-dependent measure of merit. In particular for transport aircrafts, an optimum cruise performance is usually the designers main goal. In this scenario the use of the Computational Fluid Dynamics (CFD) technique as not only an analysis tool but as a design tool becomes an attractive aid to the time and financial resource consuming activity that is aircraft design. The method adopted for aerodynamic design is based on optimal control theory. This approach to the design problem was first proposed by Jameson (1997) and it is called adjoint method. It shows a great computational cost advantage over the finite difference approach to gradient-based optimization. This dissertation presents an Euler adjoint method implemented in context of an inverse aerodynamic design loop. In this loop both the flow solver and the adjoint solver were developed during the course of this work and their formulation are presented. Further on, a gradient reduction methodology is used to obtain the gradient of the cost function with respect to the design variables. The method chosen to drive the cost function to its minimum is the steepest descent. Bernstein binomials were chosen to represent the airfoil geometry as proposed by Kulfan and Bussoletti (2006). A study of such geometric representation method is carried on showing its relevant properties for aerodynamic optimization. Results are presented in two groups: inverse design loop validation and practical application. The first group consists of inverse design exercises in which the target pressure distribution is from a known geometry, this way such distribution is guaranteed to be realizable. On the second group however, the target distribution is proposed based on the designers knowledge and its not necessarily realizable. In both groups the results include transonic and subsonic incompressible conditions.
34

Modelagem paramétrica de pórticos rolantes: estabilidade estrutural e otimização. / Gantry cranes parametric modeling: structural stability and optimization.

Gustavo Sobue 29 July 2005 (has links)
O objetivo deste trabalho é desenvolver uma ferramenta de automatização de cálculo para projeto estrutural de pórticos rolantes. Com o apoio da geração automática de um modelo de elementos finitos e um memorial de cálculo, o projeto estrutural desses equipamentos pode ser rapidamente verificado quanto ao limite de escoamento do material e resistência à flambagem. Optou-se pela utilização do método dos elementos finitos para o cálculo estrutural, pois se trata de uma ferramenta de cálculo moderna, que permite avaliar soluções para as quais não há ferramentas analíticas disponíveis. Porém, o tempo para geração de modelos de cálculo pode ser longo em relação ao cronograma do projeto, principalmente se houver a necessidade de se alterar a geometria inicial ou se existirem várias condições de carregamento a serem analisadas. A utilização de um pré-processador permite que várias alternativas sejam analisadas para escolha da que melhor atenda aos requisitos de projeto e de custo. Assim como ocorre com outras estruturas de engenharia, não existe uma equação de dimensionamento, mas sim de verificação; as estruturas ótimas são procuradas por tentativa e erro com base na experiência do projetista. Para facilitar a busca de uma estrutura ótima, implementou-se também uma rotina para otimizar as estruturas metálicas do pórtico. Adotou-se como função objetivo nesta implementação a minimização da massa, o que no caso dos pórticos implica em redução da área da seção transversal das vigas. Como restrições a esta redução adotaram-se o limite de escoamento do material e limite de estabilidade da estrutura (flambagem). Foram utilizados os aplicativos Excel (Microsoft), Ansys (Ansys Inc.) e Mathcad (Mathsoft) de maneira integrada a fim de se obter uma interface amigável, uma análise estrutural confiável e a elaboração automática de um memorial de cálculo. / The objective of this work is to develop a tool to generate an automatic structural design of gantry cranes. With an automatic generation of finite element models and also a design report, this routine allows a fast verification against yield of material and structural instability. The use of the finite element method was chosen for the structural design because it is a modern analysis tool that permits the evaluation of geometric configurations for which there are no analytical formulations available. However, the time necessary to build these models may be high, especially if there are changes in the initial geometry and many load cases. The use of a pre-processor allows the evaluation of a series of geometric alternatives, within which would be chosen the one with the lowest cost that attends the client’s specifications. Like many other engineering problems, there are no direct equations to find an adequate structure; there are only verification procedures available; the optimum structures are searched by trial and error, based on the designers’ experience. To accelerate this search process, an optimization routine was developed. Mass reduction was adopted as the objective function, which leads to reduction of the cross section area of the beams. Yield strength and buckling were adopted as restrictions to this optimization. Excel (Microsoft), Ansys (Ansys Inc) and Mathcad (Mathsoft) software were integrated to provide an user-friendly interface, reliable structural analysis and an automatic report generation.
35

Parametrização e sistemas generativos como apoio à tomada de decisões em projetos de arquitetura aplicados à legislação urbana da cidade de Juiz de Fora

Sanches, Leonardo 11 May 2017 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-07-04T18:16:20Z No. of bitstreams: 1 leonardosanches.pdf: 3712402 bytes, checksum: 4c9b191005666c0fa8a3b93e2350adb5 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-08-08T13:58:51Z (GMT) No. of bitstreams: 1 leonardosanches.pdf: 3712402 bytes, checksum: 4c9b191005666c0fa8a3b93e2350adb5 (MD5) / Made available in DSpace on 2017-08-08T13:58:51Z (GMT). No. of bitstreams: 1 leonardosanches.pdf: 3712402 bytes, checksum: 4c9b191005666c0fa8a3b93e2350adb5 (MD5) Previous issue date: 2017-05-11 / As transformações da sociedade proporcionadas pela tecnologia digital nos impelem a estudar quais seriam suas implicações no campo da arquitetura. Há algumas décadas, nota-se o impacto da adoção do desenho auxiliado por computador na apresentação e representação de projetos, no entanto, com as evoluções surgidas com os conceitos de BIM, parametrização e sistemas generativos, destaca-se, como campo para investigação, os possíveis usos destas ferramentas como apoio à tomada de decisões ao longo do processo de projeto. Neste contexto, esta pesquisa teve como objetivo o desenvolvimento de um algoritmo de projeto com base na legislação urbana, que possibilite explorar os meios, processos e conhecimentos necessários para sua criação, bem como as possíveis implicações de sua adoção como suporte ao projeto e simulação de ocupações urbanas. Para o recorte de estudo, foram selecionados os quatro parâmetros definidos pela legislação que podem ser caracterizados como os principais responsáveis pela geração da forma arquitetônica básica: coeficiente de aproveitamento, taxa de ocupação, gabarito e afastamentos. Em geral, os mecanismos utilizados pelas autoridades municipais apresentam semelhanças que permitem a abordagem de uma única cidade para um estudo exploratório, daí a concentração do estudo no Código de Obras da cidade de Juiz de Fora. A pesquisa foi realizada no Programa de Pós-graduação em Ambiente Construído da Universidade Federal de Juiz de Fora e pode ser caraterizada como aplicada e experimental. Neste tipo de pesquisa, os procedimentos metodológicos visam refazer as condições do fato a ser estudado, para observá-lo sob controle e desta forma demonstrar o modo como ele é produzido, bem como seus efeitos. O objeto de estudo foi definido como a aplicação da parametrização especificamente através da produção de um algoritmo de projeto. Como forma de observação, foi estabelecida uma abordagem objetiva de seus resultados através da validação numérica e visual das soluções obtidas com a ferramenta digital em comparação com os métodos convencionais. Por fim, como situação de controle, foram definidos um terreno base e uma área da cidade a partir dos quais seriam realizados os ensaios com o algoritmo. Uma contribuição da pesquisa é explorar a criação e aplicação de novas ferramentas digitais, buscando estabelecer a base para futuros estudos voltados para de automação de tarefas ao longo do processo de projeto arquitetônico. Como resultado, foi possível analisar o desenvolvimento do algoritmo e seu uso em relação: ao ambiente legal, abordando a automatização das operações de adequação; ao produto, com as especificidades do desenvolvimento para terrenos individuais e em conjunto; ao processo de criação do algoritmo, através das implicações da adoção de soluções lógicas para a produção arquitetônica; à usabilidade, com foco na relação usuário-rhinoceros-grasshopper e, por fim, as limitações encontradas ao longo do processo de desenvolvimento. Com o uso do algoritmo em uma situação real foram identificados possíveis pontos fortes e fracos deste tipo de sistema. Destacase como ponto positivo que, a partir do reconhecimento das restrições legais e de uma abordagem sistematizada de solução de problemas, pode-se conseguir que a ação criativa permaneça nas mãos do arquiteto, mas que a parte repetitiva do trabalho seja automatizada. Como ponto negativo, constatou-se a complexidade de se traduzir um problema, em geral, tratado de forma subjetiva e aberta, em uma sequência finita de processamentos que transformam diversos inputs em uma única saída, um volume tridimensional. Além da natureza subjetiva do problema, a própria mecânica de programação do algoritmo requer um desenvolvimento específico, visto que, apesar do computador ser parte importante do processo de projeto, o ensino de computação nos cursos de arquitetura está voltado para uso de ferramentas e não para sua programação. / A scenario where the digital technology considerably transformed society impels us to study its implications on the field of architecture. In the last decades, the computer aided design impact on the AEC industry is clearly noted, especially in the drawing and presentation tools. However, with BIM, parameterization and generative systems, the application of CAD tools as an active support for decision making in the design process, presents itself as a theme for investigation. In this context, this research had as main goal to develop a design algorithm based on urban legislation allowing the exploration of the means, processes and knowledge required for its creation, as well as the possible implications of its adoption as a design support and simulations. The study limits are set on four regulations’ parameters characterized as the main responsible for basic architectural form creation: (1) land use coefficient, (2) occupation rate, (3) maximum height and (4) required distance from site limits. In Brazil, usually, city authorities use similar parameters as building’s design constraints, hence this study focus on the regulations presented by the city of Juiz de Fora/MG. This research was developed within the Graduate Program in Built Environment at Federal University of Juiz de Fora (PROAC/UFJF) and it can be categorized as applied and experimental. The methodological approach in this type of study seeks to replicate the conditions of a fact, doing so, it aims to observe it under control, and thus, to demonstrate how it is produced, as well as its effects. The object of research was set as the application of parameterization specifically through a design algorithm development. As an observation method, numerical and visual validation of solutions in comparison to conventional methods was taken as an objective approach to the results of the digital tool. Finally, a generic site and a city portion were set as a control situation to perform tests with the algorithm. The research contribution is in exploring the creation and application of new digital-based tools, seeking to establish the basis for future studies aimed at tasks automation throughout architectural design process. The algorithm development and its use were an analyzed in five topics. The (1) legal standards, addressing the legal adjustment process automation. (2) Product, with specific requirements for individual sites and city portions; the (3) algorithm coding process, addressing the implications of using logical solutions for architectural production. (4) Usability, focusing on the user-rhinoceros-grasshopper interface and, finally, the (5) limitations encountered throughout the coding process.
36

Estimativa das funções de recuperação de reservas minerais usando copulas / Estimation of recovers function of mineral reserves using copulas

Carmo, Frederico Augusto Rosa do 24 August 2006 (has links)
Orientador: Armando Zaupa Remacre / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Geociencias / Made available in DSpace on 2018-08-07T09:52:07Z (GMT). No. of bitstreams: 1 Carmo_FredericoAugustoRosado_D.pdf: 2790866 bytes, checksum: 70c1d59f281ee0f7a09af528c73582a9 (MD5) Previous issue date: 2006 / Resumo: O objetivo principal desta tese foi desenvolver a metodologia de cópulas aplicada ao problema de estimativas de reservas condicionadas, corrigindo erros de tonelagem e quantidade de minério de um projeto, via uma abordagem diferente da simulação estocástica condicional. É apresentado um resumo teórico que fundamenta o estudo de cópulas. Inicia-se com a apresentação de definições e conceitos importantes da estatística e da probabilidade. Após uma discussão sobre medidas de correlação, é introduzido o conceito de cópulas, desde sua definição e propriedades básicas até o estudo de alguns tipos de cópulas essenciais para a aplicação nesta tese. É discutida toda a fundamentação teórica desenvolvida para o cálculo de recursos recuperáveis. Os conceitos de curvas de tonelagem e teores são introduzidos, pois são a base da parametrização de reservas minerais. É mostrado como a cópula pode ser utilizada num dos pontos principais da geoestatística mineira, principalmente no que diz respeito ao erro das estimativas. Discorre-se primeiramente sobre o conceito de validação cruzada, apresentando a definição de reserva ilusória, ótima e ideal. É definida a reserva ideal utilizando o conceito de cópulas, onde a krigagem, a simulação seqüencial gaussiana e a cópula são comparadas, mostrando as conseqüências da sobreestimativa e da subestimativa em projetos de cava e seqüenciamento na mineração / Abstract: The aim of this thesis was to develop the applied methodology of copulas in the problem of conditional reserves estimation. The copulas have a different approach from sequential gaussian simulation and in this thesis was used to correct the tonnage and ore quantity of a mining project. It is presented a theoretical summary that is the bases to the study of copulas. It is also' presented a set of definitions and important concepts of the statistics and the probability. After a discussion about correlation measures, is introducing the concept of copulas, begining with the definition and basic properties until the study of some types of essential copulas that was applied in this thesis. Whole the theoretical fundamentation is discussed to developed the calculation of recoverable resources. The concepts of tonnage and grades curves are introduced, therefore they are the base of the parametrization of mineral reserves. It is shown how the copulas can be used in the main points of the mining geostatistics, mainly in what concerns the estimation errors. Firstly the cross validation concept is presented and the illusory, best and ideal reserves are defined. The ideal reserves is defined using the concept of copulas, and the results are compared with the kriging and sequential gaussian simulation. With this comparisons is possible shown the consequences of the upper-estimation and under estimation in an open pit projects and sequential mining layout / Doutorado / Administração e Politica de Recursos Minerais / Doutor em Ciências
37

Desenvolvimento de Modelos Químico - Quânticos para o Estudo de Complexos com Íons Lantanídeos e Actinídeos

Oliveira Freire, Ricardo January 2004 (has links)
Made available in DSpace on 2014-06-12T23:03:37Z (GMT). No. of bitstreams: 2 arquivo9526_1.pdf: 10435939 bytes, checksum: 5999b540f1487bd08bd32fdc679af9c5 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / Desde a sua concepção em 1994, o modelo SMLC, Sparkle Model for Lanthanide Complexes, tem sido utilizado apenas para o cálculo das geometrias do estado fundamental de complexos de Eu(III). Neste trabalho, aperfeiçoamos em muito este modelo para o íon Eu(III) e iniciamos o procedimento de extensão do mesmo para os outros íons lantanídeos. Desenvolvemos também uma versão do modelo para actinídeos, SMAC/AM1, em particular para o íon Th(IV). No processo de parametrização destes modelos, dois pontos são de fundamental importância: (i) a escolha de um conjunto de treinamento capaz de representar bem o nosso universo de estruturas de complexos e (ii) a escolha de uma função resposta capaz de possibilitar a reprodução satisfatória das propriedades de interesse, que no nosso caso foram comprimentos e ângulos de ligação envolvendo o íon metálico. Na primeira etapa, a escolha certa de um pequeno, mas representativo conjunto de treinamento foi fundamental, pois no processo de parametrização estas estruturas foram calculadas milhares de vezes até que os parâmetros capazes de reproduzir mais exatamente as estruturas cristalográficas fossem encontrados. Por este motivo, realizamos uma análise de agrupamentos hierárquicos para cada íon utilizando todas as estruturas disponíveis no CSD (Cambridge Structural Database 2003). Esta análise resultou, em geral, na classificação das estruturas em sete grupos distintos onde o critério de separação foi o tipo de ligante presente no complexo. Assim, foi possível, para todos os íons parametrizados, escolher um conjunto de treinamento pequeno, mas capaz de representar qualquer tipo de complexo contendo o íon em questão. Na outra etapa, resolvemos adotar uma função resposta em que as propriedades consideradas, no nosso caso distâncias e ângulos de ligação, estivessem intimamente relacionadas com os parâmetros do íon que estávamos buscando. Esta nova função resposta é composta de duas parcelas: a primeira delas é igual ao quadrado da diferença entre as distâncias interatômicas experimentais, Ri exp e calculadas, Ri calc, que envolvem o íon metálico multiplicado por um peso wi e a segunda parcela é a diferença entre os ângulos experimentais, i exp e os calculados, i calc, em que o íon metálico encontra-se no vértice, multiplicada por um peso wj. Durante o procedimento de parametrização para o íon Eu(III), o primeiro dos lantanídeos a ser parametrizado, inúmeros testes foram realizados e cada termo da função resposta foi exaustivamente analisado até que conseguíssemos encontrar um conjunto de parâmetros que tornasse o nosso método realmente robusto. Com o mesmo procedimento utilizado na concepção dos parâmetros do íon Eu(III), parametrizamos os íons Gd(III) e Tb(III) e estendemos a metodologia para actinídeos - Th(IV). Os modelos foram validados de duas formas distintas. A primeira delas foi através de conjuntos testes contendo várias estruturas para cada íon. A outra forma de validação, foi a realização de cálculos ab initio RHF/STO-3G/ECP para sete estruturas representativas de cada um dos grupos obtidos pela análise de agrupamentos. A análise dos resultados obtidos mostrou que para o íon Eu(III) esta nova versão resolveu vários problemas detectados na versão anterior, SMLC II. Dentre os mais importantes estão: (i) a capacidade de predizer, muito bem, estruturas com qualquer tipo de ligante, ao contrário do SMLC II que só era capaz de predizer muito bem estruturas com ligantes do tipo -dicetonas; (ii) correção dos ligantes nitratos, que nas versões anteriores coordenavam-se de forma monodentada ao íon Eu(III) e que nesta nova versão passaram a coordenar-se corretamente (ligante bidentado); (iii) uma melhora razoável na descrição de ligantes pequenos, como água ou isotiocianato. O avanço do modelo SMLC/AM1 para o íon Eu(III) foi de tal forma significativo que nos possibilitou compará-lo com resultados obtidos a partir de metodologias ab initio. O mesmo foi feito para os outros íons lantanídeos e actnídeos estudados. Para o íon európio (III) o erro médio absoluto obtido com o modelo SMLC/AM1 foi de 0,115 Å e a metodologia ab initio RHF/STO-3G/ECP apresentou um erro médio absoluto de 0,123 Å, ou seja, o modelo SMLC/AM1 foi 6% mais exato. Para os íons Gd(III) e Tb(III), o modelo SMLC/AM1 foi, respectivamente, 16% e 31% mais exato que a metodologia ab initio utilizada. No caso do íon actinídeo Th(IV), o erro médio absoluto obtido com o modelo SMAC/AM1 foi de 0,126 Å e a metodologia ab initio utilizada apresentou um erro de 0,113 Å. Neste caso, o modelo SMAC/AM1 ficou a apenas 10% da metodologia RHF/STO-3G/ECP. Com base nos resultados obtidos com este trabalho, podemos então afirmar que os modelos SMLC/AM1 e SMAC/AM1 apresentaram um nível de exatidão comparável ou, em alguns casos, superior ao da metodologia ab initio, RHF/STO-3G/ECP, na predição, tanto das distâncias entre o íon Ln(III) ou Ac(IV) e os átomos que compõem o poliedro de coordenação, como também entre os átomos do poliedro
38

Parametrizações de Jonquières

Andrade, Pêdra Daricléa Santos 10 August 2015 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In this dissertation, we will present a projective parameterization class that resemble the classic maps of Jonquières. We will have the aim to show how the main properties of your ideal base, such as the structure of sizígias and the free presentation of this ideal. In this sense, we obtain the implicit equation that defines the your image and we explicit the formula the degree of the equation. Finally, we will determine Rees algebra equations associated with the base ideal of the parameterization, using computational methods. This parameterization, called parameterization of Jonquières, is constructed from a Cremona and defines a birational map P^n in a hypersurface W of P^n+1. / Nesta dissertação apresentaremos uma classe de parametrizações projetivas que se assemelham aos mapas clássicos de Jonquières e teremos como objetivos mostrar as principais propriedades do seu ideal base, tais como a estrutura das sizígias e a apresentação livre desse ideal, consequentemente obteremos a equação implícita que define a sua imagem, bem como explicitar a fórmula do grau dessa equação. Por fim, determinaremos as equações da álgebra de Rees associada ao ideal base da parametrização, com o uso de métodos computacionais. Tal parametrização, denominada parametrização de Jonquières, é construída a partir de uma Cremona e define um mapa birracional de P^n em uma hipersuperfície W de P^{n+1}.
39

Modelagem de sinais neuronais utilizando filtros lineares de tempo discreto. / Modeling of neuronal signals using discrete-time linear filters.

Palmieri, Igor 12 June 2015 (has links)
A aquisição experimental de sinais neuronais é um dos principais avanços da neurociência. Por meio de observações da corrente e do potencial elétricos em uma região cerebral, é possível entender os processos fisiológicos envolvidos na geração do potencial de ação, e produzir modelos matemáticos capazes de simular o comportamento de uma célula neuronal. Uma prática comum nesse tipo de experimento é obter leituras a partir de um arranjo de eletrodos posicionado em um meio compartilhado por diversos neurônios, o que resulta em uma mistura de sinais neuronais em uma mesma série temporal. Este trabalho propõe um modelo linear de tempo discreto para o sinal produzido durante o disparo do neurônio. Os coeficientes desse modelo são calculados utilizando-se amostras reais dos sinais neuronais obtidas in vivo. O processo de modelagem concebido emprega técnicas de identificação de sistemas e processamento de sinais, e é dissociado de considerações sobre o funcionamento biofísico da célula, fornecendo uma alternativa de baixa complexidade para a modelagem do disparo neuronal. Além disso, a representação por meio de sistemas lineares permite idealizar um sistema inverso, cuja função é recuperar o sinal original de cada neurônio ativo em uma mistura extracelular. Nesse contexto, são discutidas algumas soluções baseadas em filtros adaptativos para a simulação do sistema inverso, introduzindo uma nova abordagem para o problema de separação de spikes neuronais. / The experimental acquisition of neuronal signals is a major advance in neuroscience. Through observations of electric current and potential in a brain region, it is possible to understand the physiological processes involved in the action potential generation, and create mathematical models capable of simulating the behavior of the neuronal cell. A common practice in this kind of experiment is to obtain readings from an array of electrodes positioned in a medium shared by several neurons, which results in a mixture of neuronal signals in the same time series. This work proposes a discrete-time linear model of the neuronal signal during the firing of the cell. The coefficients of this model are estimated using real samples of the neuronal signals obtained in vivo. The conceived modeling process employs system identification and signal processing concepts, and is dissociated from any considerations about the biophysical function of the neuronal cell, providing a low-complexity alternative to model the neuronal spike. In addition, the use of a linear representation allows the idealization of an inverse system, whose main purpose is to recover the original signal of each active neuron in a given extracellular mixture. In this context, some solutions based on adaptive filters are discussed for the inverse model simulation, introducing a new approach to the problem of neuronal spike separation.
40

Implementação no software estatístico R de modelos de regressão normal com parametrização geral / Normal regression models with general parametrization in software R

Perette, André Casagrandi 23 August 2019 (has links)
Este trabalho objetiva o desenvolvimento de um pacote no software estatístico R com a implementação de estimadores em modelos de regressão normal univariados com parametrização geral, uma particularidade do modelo definido em Patriota e Lemonte (2011). Essa classe contempla uma ampla gama de modelos conhecidos, tais como modelos de regressão não lineares e heteroscedásticos. São implementadas correções nos estimadores de máxima verossimilhança e na estatística de razão de verossimilhanças. Tais correções são efetivas quando o tamanho amostral é pequeno. Para a correção do estimador de máxima verossimilhança, considerou-se a correção do viés de segunda ordem, enquanto que para a estatística da razão de verossimilhanças aplicou-se a correção desenvolvida em Skovgaard (2001). Todas as funcionalidades do pacote são descritas detalhadamente neste trabalho. Para avaliar a qualidade do algoritmo desenvolvido, realizaram-se simulações de Monte Carlo para diferentes cenários, avaliando taxas de convergência, erros da estimação e eficiência das correções de viés e de Skovgaard. / This work aims to develop a package in R language with the implementation of normal regression models with general parameterization, proposed in Patriota and Lemonte (2011). This model unifies important models, such as nonlinear heteroscedastic models. Corrections are implemented for the MLEs and likelihood-ratio statistics. These corrections are effective in small samples. The algorithm considers the second-order bias of MLEs solution presented in Patriota and Lemonte (2009) and the Skovgaard\'s correction for likelihood-ratio statistics defined in Skovgaard (2001). In addition, a simulation study is developed under different scenarios, where the convergence ratio, relative squared error and the efficiency of bias correction and Skovgaard\'s correction are evaluated.

Page generated in 0.0504 seconds