• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 189
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 198
  • 198
  • 140
  • 116
  • 48
  • 42
  • 38
  • 36
  • 31
  • 29
  • 29
  • 27
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Especificação de um modelo para explicação e projeção de retornos do IBRX-100

Mendes, Daniel Lorenzo 24 August 2015 (has links)
Submitted by Daniel Mendes (danielmendes09@gmail.com) on 2015-12-11T13:13:12Z No. of bitstreams: 1 Dissertacao final Daniel Lorenzo Mendes.pdf: 595820 bytes, checksum: ef1f86bcdf354637381b6f3bc2126b61 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2015-12-14T11:47:12Z (GMT) No. of bitstreams: 1 Dissertacao final Daniel Lorenzo Mendes.pdf: 595820 bytes, checksum: ef1f86bcdf354637381b6f3bc2126b61 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2015-12-17T16:41:36Z (GMT) No. of bitstreams: 1 Dissertacao final Daniel Lorenzo Mendes.pdf: 595820 bytes, checksum: ef1f86bcdf354637381b6f3bc2126b61 (MD5) / Made available in DSpace on 2015-12-17T17:00:17Z (GMT). No. of bitstreams: 1 Dissertacao final Daniel Lorenzo Mendes.pdf: 595820 bytes, checksum: ef1f86bcdf354637381b6f3bc2126b61 (MD5) Previous issue date: 2015-08-24 / In this work, we propose an econometric model specification in the short form, estimating by ordinary least squares (OLS) and based in macroeconomic variables, with the goal of explaining trimestral returns of stock index IBRX-100, between 2001 and 2015. Besides, we tested the forecasting efficiency of the model and concluded that the forecast error estimated in a moving sample, estimating OLS at each round, and utilizing auxiliary VAR to forecast variables, is lower than forecast error associated to the Random Walk hypothesis in the one trimester forward horizon. / Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.
162

Monitoramento de perfis lineares / Monitoring of linear profiles

Viviany Leão Fernandes 29 April 2009 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Uma das ferramentas básicas no controle estatístico de processos são os gráficos de controle de Shewhart, úteis no monitoramento das características-chave da qualidade nos processos de produção. Este monitoramento pode ser feito através de gráficos de controle univariados ou multivariados, quando a característica de qualidade é representada, respectivamente, por uma variável aleatória univariada ou multivariada. Em alguns casos, a qualidade pode ser representada por algum tipo de perfil, uma relação linear ou não-linear entre suas características. Este trabalho é dedicado ao estudo da fase II de gráficos de controle, ao monitoramento de uma variável, em um processo de produção, que é representada por um perfil linear, e os coeficientes de regressão são estimados pelo método de mínimos quadrados ordinários e pelo filtro de Kalman. Utiliza-se o gráfico de controle 2 c para o monitoramento dos parâmetros, intercepto e coeficiente de inclinação, do modelo de regressão linear simples. É proposto a aplicação das estimativas do filtro de Kalman ao gráfico de controle 2 c e também o estudo da eficiência deste gráfico com tais estimativas, bem como, a comparação com as estimativas obtidas pelo método de mínimos quadrados ordinários. Através de uma métrica construída com as estimativas do filtro de Kalman e com as estimativas do método de mínimos quadrados ordinários, compara-se o desempenho do gráfico de controle 2 c e verifica-se que este é mais rápido na detecção de mudanças nos parâmetros do modelo do processo quando suas estimativas são geradas pelo filtro de Kalman do que pelo método de mínimos quadrados ordinários. / Shewhart chart is a fundamental tool in statistical process control, and is useful in the monitoring of key quality characteristics in production processes. That monitoring can be done by univariate or by multivariate control charts, when the quality characteristic can be represented by a random variable or random vector. There are however certain cases where the quality can be represented by a profile, linear or nonlinear, between its characteristics. This work is dedicated to the control strategy for Phase II, to the monitoring of variables in a production process following a linear profile and the regression coefficients estimated by least squares and by Kalman filter. Our aim is to compare the performance of the 2 c control chart when the parameters of the model are estimated by those alternative techniques. Control chart 2 c has been used to monitor parameters of simple linear regression model. It has been proposed to apply the Kalman Filter estimates in the control chart 2 c and to analyse the efficiency of this chart considering such estimates, as well as, the comparison with the least squares estimates. The performance of this chart has been compared by those two techniques of estimation and has been confirmed that the control chart 2 c is more efficient when combined with the Filter Kalman estimates than with the least squares estimates.
163

Métodos sem malha: aplicações do Método de Galerkin sem elementos e do Método de Interpolação de Ponto em casos estruturais. / Meshless methods: applications of Galerkin method and point interpolation method in structural cases.

Franklin Delano Cavalcanti Leitão 19 February 2010 (has links)
Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J. / Meshless are certainly very researched in many countries that are in state of art of scientific knowledge. However these methods are still unknown by many brazilian universities. To create more diffusion or, for many people, to introduce them, this work tries to understand the meshless based on solid mechanic applications. So basic concepts of meshless and its historic development are introduced since its origin, with smooth particle hydrodynamic until partition of unity, its more general form. In this context, most traditional form of meshless was investigated deeply: element free Galerkin method and also another different method: point interpolation method. This way characteristics, advantages and disadvantages, comparing to finite elements methods, are introduced by applications in analyses in bars and plates in state of plane stress. This work still researched an important area of meshless application, fracture mechanical, to understand how a crack is computationally represented, particularly, with visibility and diffraction criterions. By these criterions and using fracture mechanical concepts, stress intensity factor is calculated by J-integral concept.
164

Especificação do tamanho da defasagem de um modelo dinâmico

Furlan, Camila Pedrozo Rodrigues 06 March 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2567.pdf: 3332442 bytes, checksum: 1e03b44e1c1f61f90b947fdca5682355 (MD5) Previous issue date: 2009-03-06 / Financiadora de Estudos e Projetos / Several techniques are proposed to determine the lag length of a dynamic regression model. However, none of them is completely satisfactory and a wrong choice could imply serious problems in the estimation of the parameters. This dissertation presents a review of the main criteria for models selection used in the classical methodology and presents a way for determining the lag length from the perspective Bayesian. A Monte Carlo simulation study is conducted to compare the performance of the significance tests, R2 adjusted, final prediction error, Akaike information criterion, Schwarz information criterion, Hannan-Quinn criterion, corrected Akaike information criterion and fractional Bayesian approach. Two estimation methods are also compared, the ordinary least squares and the Almon approach. / Na literatura, muitas técnicas são propostas para determinar o tamanho da defasagem de um modelo de regressão dinâmico. Entretanto, nenhuma delas é completamente satisfatória e escolhas erradas implicam em sérios problemas na estimação dos parâmetros. Este trabalho apresenta uma revisão dos principais critérios de seleção de modelos disponíveis na metodologia clássica, assim como aborda uma maneira de determinar o tamanho da defasagem sob a perspectiva Bayesiana. Um estudo de simulação Monte Carlo é conduzido para comparar a performance dos testes de significância, do R2 ajustado, do erro de predição final, dos critérios de informação de Akaike, Schwarz, Hannan-Quinn e Akaike corrigido e da aproximação Bayesiana fracionada. Também serão comparados os métodos de estimação de Mínimos Quadrados Ordinários e de Almon.
165

Novas estratégias para seleção de variáveis por intervalos em problemas de classificação

Fernandes, David Douglas de Sousa 26 August 2016 (has links)
Submitted by Maike Costa (maiksebas@gmail.com) on 2017-06-20T13:50:43Z No. of bitstreams: 1 arquivototal.pdf: 7102668 bytes, checksum: abe19d798ad952073affbf4950f62d29 (MD5) / Made available in DSpace on 2017-06-20T13:50:43Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 7102668 bytes, checksum: abe19d798ad952073affbf4950f62d29 (MD5) Previous issue date: 2016-08-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In Analytical Chemistry it has been recurring in the literature the use of analytical signals recorded on multiple sensors combined with subsequent chemometric modeling for developing new analytical methodologies. For this purpose, it uses generally multivariate instrumental techniques as spectrometry ultraviolet-visible or near infrared, voltammetry, etc. In this scenario, the analyst is faced with the option of selecting individual variables or variable intervals so to avoid or reduce multicollinearity problems. A well-known strategy for selection of variable intervals is to divide the set of instrumental responses into equal width intervals and select the best interval based on the performance of the prediction of a unique range in the regression by Partial Least Squares (iPLS). On the other hand, the use of interval selection for classification purposes has received relatively little attention. A common practice is to use the iPLS regression method with the coded class indices as response variables to be predicted; that is the basic idea behind the release of the Discriminant Analysis by Partial Least Squares (PLS-DA) for classification. In other words, interval selection for classification purposes has no development of native functions (algorithms). Thus, in this work it is proposed two new strategies in classification problems using interval selection by the Successive Projections Algorithm. The first strategy is named Successive Projections Algorithm for selecting intervals in Discriminant Analysis Partial Least Squares (iSPA-PLS-DA), while the second strategy is called Successive Projections Algorithm for selecting intervals in Soft and Independent Modeling by Class Analogy (iSPA-SIMCA). The performance of the proposed algorithms was evaluated in three case studies: classification of vegetable oils according to the type of raw material and the expiration date using data obtained by square wave voltammetry; classification of unadulterated biodiesel/diesel blends (B5) and adulterated with soybean oil (OB5) using spectral data obtained in the ultraviolet-visible region; and classification of vegetable oils with respect to the expiration date using spectral data obtained in the near infrared region. The proposed iSPA-PLS-DA and iSPA-SIMCA algorithms provided good results in the three case studies, with correct classification rates always greater than or equal to those obtained by PLS-DA and SIMCA models using all variables, iPLS-DA and iSIMCA with a single selected interval, as well as SPA-LDA and GA-LDA with selection of individual variables. Therefore, the proposed iSPA-PLS-DA and iSPA-SIMCA algorithms can be considered as promising approaches for use in classification problems employing interval selection. In a more general point of view, the possibility of using interval selection without loss of the classification accuracy can be considered a very useful tool for the construction of dedicated instruments (e.g. LED-based photometers) for use in routine and in situ analysis. / Em Química Analítica tem sido recorrente na literatura o uso de sinais analíticos registrados em múltiplos sensores combinados com posterior modelagem quimiométrica para desenvolvimento de novas metodologias analíticas. Para esta finalidade, geralmente se faz uso de técnicas instrumentais multivariadas como a espectrometrias no ultravioleta-visível ou no infravermelho próximo, voltametria, etc. Neste cenário, o analista se depara com a opção de selecionar variáveis individuais ou intervalos de variáveis de modo de evitar ou diminuir problemas de multicolinearidade. Uma estratégia bem conhecida para seleção de intervalos de variáveis consiste em dividir o conjunto de respostas instrumentais em intervalos de igual largura e selecionar o melhor intervalo com base no critério de desempenho de predição de um único intervalo em regressão por Mínimos Quadrados Parciais (iPLS). Por outro lado, o uso da seleção de intervalo para fins de classificação tem recebido relativamente pouca atenção. Uma prática comum consiste em utilizar o método de regressão iPLS com os índices de classe codificados como variáveis de resposta a serem preditos, que é a idéia básica por trás da versão da Análise Discriminante por Mínimos Quadrados Parciais (PLS-DA) para a classificação. Em outras palavras, a seleção de intervalos para fins de classificação não possui o desenvolvimento de funções nativas (algoritmos). Assim, neste trabalho são propostas duas novas estratégias em problemas de classificação que usam seleção de intervalos de variáveis empregando o Algoritmo das Projeções Sucessivas. A primeira estratégia é denominada de Algoritmo das Projeções Sucessivas para seleção intervalos em Análise Discriminante por Mínimos Quadrados Parciais (iSPA-PLS-DA), enquanto a segunda estratégia é denominada de Algoritmo das Projeções Sucessivas para a seleção de intervalos em Modelagem Independente e Flexível por Analogia de Classe (iSPA-SIMCA). O desempenho dos algoritmos propostos foi avaliado em três estudos de casos: classificação de óleos vegetais com relação ao tipo de matéria-prima e ao prazo de validade utilizando dados obtidos por voltametria de onda quadrada; classificação de misturas biodiesel/diesel não adulteradas (B5) e adulteradas com óleo de soja (OB5) empregando dados espectrais obtidos na região do ultravioleta-visível; e classificação de óleos vegetais com relação ao prazo de validade usando dados espectrais obtidos na região do infravermelho próximo. Os algoritmos iSPA-PLS-DA e iSPA-SIMCA propostos forneceram bons resultados nos três estudos de caso, com taxas de classificação corretas sempre iguais ou superiores àquelas obtidas pelos modelos PLS-DA e SIMCA utilizando todas as variáveis, iPLS-DA e iSIMCA com um único intervalo selecionado, bem como SPA-LDA e GA-LDA com seleção de variáveis individuais. Portanto, os algoritmos iSPA-PLS-DA e iSPA-SIMCA propostos podem ser consideradas abordagens promissoras para uso em problemas de classificação empregando seleção de intervalos de variáveis. Num contexto mais geral, a possibilidade de utilização de seleção de intervalos de variáveis sem perda da precisão da classificação pode ser considerada uma ferramenta bastante útil para a construção de instrumentos dedicados (por exemplo, fotômetros a base de LED) para uso em análise de rotina e de campo.
166

PI-MQR adaptativo aplicado a um motor de indução trifásico utilizando a plataforma DSPACE1103 / PI-RLS Adaptive applied to an induction motor three-phase using DSPACE1103 platform

Silva, Paulo César da 10 July 2015 (has links)
Made available in DSpace on 2016-12-12T17:38:34Z (GMT). No. of bitstreams: 1 Paulo Cesar da Silva.pdf: 5331875 bytes, checksum: adf5bf8880e8e89421a2fd553c966530 (MD5) Previous issue date: 2015-07-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The electrical parameters of three-phase induction motors vary according to their operating point, with the temperature and also with the natural machine degradation. Since the design regulators are typically performed based on linear and simplified equations of the machine, the parametric variation can cause unwanted responses, since the motor behavior is non-linear and time variant. Thus, it is proposed in this work carry the identification of the electrical parameters of the induction motor using the estimator called Least Squares Recursive (RLS). Thus, with the parametric data updated every sampling period can be recalculated in real time the gains of the regulators are designed for controlling the induction machine and make minor mismatches. The experimental results were obtained with the processing performed by dSPACE hardware (DS1103), which has an interface with Matlab/Simulink, facilitating the use by the user and reducing the time taken for testing bench. The results of numerical and practical simulations show a comparison between the mesh proposal, the parametric identification and update of the gains of the controllers (adaptive control) and the mesh with controllers with fixed gains. / Os parâmetros elétricos do motor de indução trifásico variam conforme o seu ponto de operação, com a temperatura e também com a degradação natural da máquina. Visto que o projeto de reguladores são tipicamente realizados com base em equações lineares e simplicadas da máquina, a variação paramétrica pode causar respostas indesejadas, pois o comportamento do motor é não-linear e variante no tempo. Desta forma propõe-se neste trabalho realizar a identificação dos parâmetros elétricos do motor de indução, utilizando o estimador denominado de Mínimos Quadrados Recursivos (MQR). Assim, com os dados paramétricos atualizados a cada período de amostragem, pode-se recalcular em tempo real, os ganhos dos reguladores que são projetados para o controle da máquina de indução e tornar os descasamentos menores. Os resultados experimentais foram obtidos com o processamento realizado pelo hardware dSPACE (DS1103), que possui uma interface com o Matlab/Simulink, facilitando a utilização por parte do usuário e reduzindo o tempo dispendido para os testes em bancada. Os resultados de simulações numéricas e práticos apresentam uma comparação entre a malha proposta, com a identificação paramétrica e atualiza ção dos ganhos dos controladores (controle adaptativo) e a malha com controladores com ganhos fixos.
167

Progressões e funções: da variação e caracterização das função es do tipo exponencial e logarítmica às técnicas de ajuste de curvas no uso de modelagem matemática

Ferri, Orlando Eduardo da Silva 25 April 2014 (has links)
CAPES / Neste trabalho apresenta-se uma proposta para o ensino de funções exponenciais e logarítmicas, precedido pelo conceito de Progressões que permite ao professor do ensino médio tratar do conceito de função exponenciais e logarítmica de maneira mais clara e construtivista para o aluno. Propõe-se a construção do conhecimento através de atividades de modelagem matemática desenvolvidas a partir do uso de tabelas construídas em planilhas eletrônicas e em um ambiente de geometria dinâmica (GeoGebra), explorando as ideias intuitivas de variação e caracterização dessas funções reais a partir das progressões no domínio discreto. Apresenta-se sugestões de atividades interdisciplinares envolvendo estimativas através do ajuste de curvas. / This work presents a proposal for teaching exponential and logarithmic functions, preceded by the concept of progressions which allows high school teacher dealing with the concept of exponential and logarithmic function more clear and constructive way for the student. Proposes the construction of knowledge through mathematical modeling developed from the use of built in spreadsheets and dynamic geometry (GeoGebra) environment tables activities, exploring the intuitive ideas of variation and characterization of these real functions from progressions in discrete domain. Presents suggestions for interdisciplinary activities involving estimates by adjusting curves.
168

Reconstrução de imagens de ultrassom utilizando regularização l1 através de mínimos quadrados iterativamente reponderados e gradiente conjugado

Passarin, Thiago Alberto Rigo 13 December 2013 (has links)
Este trabalho apresenta um método de reconstrução de imagens de ultrassom por problemas inversos que tem como penalidade para o erro entre solução e dados a norma L2, ou euclidiana, e como penalidade de regularização a norma L1. A motivação para o uso da regularização L1 é que se trata de um tipo de regularização promotora de esparsidade na solução. A esparsidade da regularização L1 contorna o problema de excesso do artefatos, observado em outras implementações de reconstrução por problemas inversos em ultrassom. Este problema é consequência principalmente da limitação da representação discreta do objeto contínuo no modelo de aquisição. Por conta desta limitação, objetos refletores na área imageada quase sempre localizam-se em posições que não correspondem precisamente a uma das posições do modelo discreto, gerando dados que não correspondem aos dados modelados. As formulações do problema com regularização L2 e com regularização L1 são apresentadas e comparadas dos pontos de vista geométrico e Bayesiano. O algoritmo de otimização proposto é uma implementação do algoritmo Iteratively Reweighted Least Squares (IRLS) e utiliza o método do Gradiente Conjugado (CG - Conjugate Gradient) a cada iteração, sendo chamado de IRLS-CG. São realizadas simulações com phantoms computacionais que mostram que o método permite reconstruir imagens a partir da aquisição de dados com refletores em posições não modeladas sem a observação de artefatos. As simulações também mostram melhor resolução espacial do método proposto com relação ao algoritmo delay-and-sum (DAS). Também se observou melhor desempenho computacional do CG com relação à matriz inversa nas iterações do IRLS. / This work presents an inverse problem based method for ultrasound image reconstruction which uses the L2-norm (or euclidean norm) as a penalty for the error between the data and the solution, and the L1-norm as a regularization penalty. The motivation for the use of of L1 regularization is the sparsity promoting property of this type of regularization. The sparsity of L1 regularization circumvents the problem of excess of artifatcts that is observed in other approaches of inverse problem based reconstrucion in ultrasound. Such problem is mainly a consequence of the limitation in the discrete representation of a continuous object in the acquisition model. Due to this limitation, reflecting objects in the imaged area are often localized in positions that do not correspond precisely to one of the positions in the discrete model, therefore generating data that do not correspond to the model data. The formulations of the problem with L2 regularization and with L1 regularization are presented and compared in geometric and Bayesian terms. The optimization algorithm proposed is an implementation of Iteratively Reweighted Least Squares (IRLS) and uses the Conjugate Gradient (CG) method inside each iteration, thus being called IRLS-CG. Simulations with computer phantoms are realized showing that the proposed method allows for the reconstruction of images, without observable artifacts, from data with reflectors located in non-modeled positions. Simulations also show a better spatial resolution in the proposed method when compared to the delay-and-sum (DAS) algorithm. It was also observed better computational performance of CG when compared to the matrix inversion in the iterations of IRLS.
169

Método dos mínimos quadrados aplicado a um problema de geoposicionamento / Least square method applied to a geo-positioning problem

Souza, Willian Burgardt de 08 February 2018 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O objetivo deste trabalho é apresentar o método dos mínimos quadrados para resolver sistemas lineares sobredeterminados, ou seja, sistemas da forma Ax=b, em que A m×n , com m>n. Neste sentido, veremos como a resolução destes sistemas estão relacionados com encontrar a projeção ortogonal b sobre o subespaço gerado pelas colunas de A . Este tipo de sistema é usado ainda para modelar um problema de geoposicionamento, cujo objetivo é determinar a posição de um receptor que recebe o sinal de vários satélites. / The main goal of this work is to present the least squares method to solve overdetermined linear systems, that is, systems of the form Ax = b , where A m×n , with m > n . In this sense, we showed that the resolution of these systems is related to the orthogonal projection problem of b on the subspace generated by the columns of A. This type of system is used to model a problem of geo-positioning, whose objective is to determine the position of a receiver that receives the signal from several satellites.
170

Métodos sem malha: aplicações do Método de Galerkin sem elementos e do Método de Interpolação de Ponto em casos estruturais. / Meshless methods: applications of Galerkin method and point interpolation method in structural cases.

Franklin Delano Cavalcanti Leitão 19 February 2010 (has links)
Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J. / Meshless are certainly very researched in many countries that are in state of art of scientific knowledge. However these methods are still unknown by many brazilian universities. To create more diffusion or, for many people, to introduce them, this work tries to understand the meshless based on solid mechanic applications. So basic concepts of meshless and its historic development are introduced since its origin, with smooth particle hydrodynamic until partition of unity, its more general form. In this context, most traditional form of meshless was investigated deeply: element free Galerkin method and also another different method: point interpolation method. This way characteristics, advantages and disadvantages, comparing to finite elements methods, are introduced by applications in analyses in bars and plates in state of plane stress. This work still researched an important area of meshless application, fracture mechanical, to understand how a crack is computationally represented, particularly, with visibility and diffraction criterions. By these criterions and using fracture mechanical concepts, stress intensity factor is calculated by J-integral concept.

Page generated in 0.0397 seconds