Spelling suggestions: "subject:"critério"" "subject:"critérios""
181 |
Proposta de um método transdisciplinar de pesquisa e sua aplicação na tabacologia, na construção do Teste Projetivo e Transdisciplinar de Tabagismo (TPTT) e na pré-testagem formal deste instrumento / Proposal of a transdisciplinary method of research and its application in tabacology, in the construction of the projective and transdisciplinary test of tabagism (PTTT) and in the formal pre-testing of this instrumentKeppe, Marc André da Rocha 16 April 2014 (has links)
Este trabalho propõe um método transdisciplinar de pesquisa para servir como modelo para estudos, investigações e pesquisas transdisciplinares, utilizando um critério denominado: estatístico-matemático-filosófico. Este método transdisciplinar, denominado método das intersecções foi aplicado: na reconstrução de alguns conceitos tabacológicos; na revisão de pressupostos da tabacologia; em descobertas que trazem novas hipóteses sobre a origem do tabaco e de sua utilização; na investigação sobre a utilização saudável e sobre o uso patológico do tabaco; nos diagnósticos, prognósticos e tratamentos bioecopsicosocioespirituais do tabagismo; na construção do Teste Projetivo e Transdisciplinar de Tabagismo (TPTT) e na prétestagem formal deste instrumento. Algumas conclusões destes estudos podem ser sintetizadas das seguintes formas: 1ª) Algumas descobertas científicas apontam para a origem do tabaco, e de sua utilização, a partir de, pelo menos, 3.200 anos atrás, na civilização egípcia; 2ª) Além da utilização patológica, denominada tabagismo, existem formas saudáveis de consumo do tabaco; 3ª) Os diagnósticos, prognósticos e formas de tratamento do tabagismo podem ser realizados de acordo com o modelo bioecopsicosocioespiritual, que considera as perspectivas: biológica, ecológica, psicológica, sociológica e espiritualista, ampliando a observação e a atuação diante deste problema. 4ª) A pré-testagem formal do Teste Projetivo e Transdisciplinar de Tabagismo (TPTT) demonstrou a possibilidade deste instrumento se constituir em ferramenta útil para se descobrir o índice geral de tabagismo, bem como para se encontrar as perspectivas preponderantes para tal compulsão ou consumo exagerado, e também as motivações que levam à tal utilização do tabaco / This dissertation suggest a transdisciplinary method of research in order to serve as a model in transdisciplinary studies, investigations and researches, utilizing a criterion called: statistics-mathematics-philosophical. This transdisciplinary method called intersections method was applied: in the reconstruction of some concepts of tabacology; in the revision of some assumptions in tabacology; in discoveries that brings new hypothesis about the origin of tobacco and its uses; in the investigation about the healthy and pathologic use of tobacco; in the bioecopsychosocialspiritual diagnostics, forecasts and treatments of tabagism; in the construction of the Projective and Transdisciplinary Test of Tabagism (PTTT) and in the formal pre-testing of this instrument. Some conclusions of these researches can be summarized as follows: 1ª)Some scientific discoveries indicates an origin of tobacco and its uses from 3.200 years ago, at least, in egyptian civilization. 2ª) Besides of the pathologic use called tabagism there are healthy ways of consumption of tobacco. 3ª) The diagnostics, forecasts and treatments of tabagism can be done following the bioecopsychosocialspiritual model that consider the perspectives: biological, ecological, psychological, sociological e spiritualistic, extending the observation and acting over this problem. 4ª) The formal pre-testing of the Projective and Transdisciplinary Test of Tabagism (PTTT) show the possibility of this instrument became a useful tool to find out the general index of tabagism and to achieve the prevalent perspective of this compulsion or overdose and the motivations in order to use tobacco in this way
|
182 |
Abordagens de solução para o problema de alocação de aulas a salas / Solution approaches for the classroom assignment problemCirino, Rafael Bernardo Zanetti 06 May 2016 (has links)
Esta Dissertação aborda o Problema de Alocação de Aulas a Salas (PAAS), também conhecido como Problema de Alocação de Salas (PAS). As instituições de ensino superior, no começo de seus calendários letivos, resolvem um PAAS ao determinar os espaços a serem utilizados para as atividades didáticas. Porém, em muitas destas instituições o PAAS é ainda resolvido manualmente, gerando altas cargas de trabalho para os responsáveis. Neste trabalho, o Instituto de Ciências Matemáticas e de Computação (ICMC) da Universidade de São Paulo (USP) foi tomado como caso de estudo para o PAAS. Um modelo de programação matemática inteiro é proposto e abordado por técnicas de resolução exata, metaheurísticas mono-objetivo e uma abordagem multi-objetivo. Uma estrutura de vizinhança proposta obteve resultados comparáveis à da metodologia exata, para um tempo fixo de execução. Demonstra-se que, a abordagem multi-objetivo é uma possibilidade de contornar algumas dificuldades clássicas do problema, como incertezas sobre a escolha dos pesos das métricas. Os métodos de solução propostos para o problema fornecem, aos responsáveis, bons instrumentos de auxílio à tomada de decisão para o PAAS. / This Dissertation addresses the Classroom Assignment Problem (CAP). All Higher Education Institutes, at the schoolyear\'s begin, faces a CAP to define where the classes will be taught. However, many of those still solves this problem manually, demanding high efforts from the responsible staff. In this study, the Universidade de São Paulo\'s (USP) Instituto de Ciências Matemáticas e de Computação (ICMC) was tackled as study case for the CAP. An Integer Programming Model is proposed and tackled by exact methods, meta-heuristics and a multi-objective approach. A novel neighborhood operator is proposed for the local search and obtains good results, even comparable to the exact method. The multi-objective approach is shown to overcome some of the classical adversity of the mono-objective approach, e.g., choosing weights to quality metric. Those CAP\'s proposed solution methods, gives the responsible staff a good decision making support.
|
183 |
Modelagem estocástica de sequências de disparos de um conjunto de neurônios / Stochastic modeling of spike trains of a set of neuronsArias Rodriguez, Azrielex Andres 13 August 2013 (has links)
O presente trabalho constitui um primeiro esforço por modelar disparos de neurônios usando cadeias estocásticas de memória de alcance variável. Esses modelos foram introduzidos por Rissanen (1983). A ideia principal deste tipo de modelos consiste em que a definição probabilística de cada símbolo depende somente de uma porção finita do passado e o comprimento dela é função do passado mesmo, tal porção foi chamada de \"contexto\" e o conjunto de contextos pode ser representado através de uma árvore. No passado vários métodos de estimação foram propostos, nos quais é necessário especificar algumas constantes, de forma que Galves et al.(2012) apresentaram o \"critério do menor maximizador\" (SMC), sendo este um algoritmo consistente que independe de qualquer constante. De outro lado na área da neurociência vem tomando força a ideia de que o processamento de informação do cérebro é feito de forma probabilística, por esta razão foram usados os dados coletados por Sidarta Ribeiro e sua equipe, correspondentes à atividade neuronal em ratos, para estimar as árvores de contextos que caracterizam os disparos de quatro neurônios do hipocampo e identificar possíveis associações entre eles, também foram feitas comparações de acordo com o estado comportamental do rato (Vigília / Sono), em todos os casos foi usado o algoritmo SMC para a estimação das árvores de contexto. Por último, é aberta uma discussão sobre o tamanho de amostra necessário para a implementação deste tipo de análise. / This work describes an initial effort to model spike trains of neurons using Variable Length Markov Chains (VLMC). These models were introduced by Rissanen(1983). The principal idea of this kind of models is thaht the probabilistic definition of each symbol only depends on a finite part of the past and the length of this relevant portion is a function of the past itself. This portion were called \"context\" and the set of contexts can be represented as a rooted labeled tree. In the past, several methods of estimation were proposed, where is necessary to fix any constants, for this reason Galves et al.(2012) introduced the \"smallest maximizer criterion\" (SMC), which is a consistent and constant free model selection procedure. By the other side, in the neuroscience area has gained strength the idea that the information processing in the brain is done in a probabilistic way, for this reason were used the data collected by Sidarta Ribeiro and his team, related to the neuronal activity in rats, to estimate the context trees that describing the spike trains of four neurons of hipocampus region and to identify associations between them, comparisions were also made according to the behavioural state of the rat (Wake / Sleep), in all cases the algorithm were used the SMC algortithm to estimate the context trees. Finally, is opened a discussion on the sample size required for the implementation of this kind of analysis.
|
184 |
Uma abordagem personalizada no processo de seleção de itens em Testes Adaptativos Computadorizados / A personalized approach to the item selection process in Computerized Adaptive TestingVictor Miranda Gonçalves Jatobá 08 October 2018 (has links)
Testes Adaptativos Computadorizados (CAT) baseados na Teoria de Resposta ao Item permitem fazer testes mais precisos com um menor número de questões em relação à prova clássica feita a papel. Porém a construção de CAT envolve alguns questionamentos-chave, que quando feitos de forma adequada, podem melhorar ainda mais a precisão e a eficiência na estimativa das habilidades dos respondentes. Um dos principais questionamentos está na escolha da Regra de Seleção de Itens (ISR). O CAT clássico, faz uso, exclusivamente, de uma ISR. Entretanto, essas regras possuem vantagens, entre elas, a depender do nível de habilidade e do estágio em que o teste se encontra. Assim, o objetivo deste trabalho é reduzir o comprimento de provas dicotômicas - que consideram apenas se a resposta foi correta ou incorreta - que estão inseridas no ambiente de um CAT que faz uso, exclusivo, de apenas uma ISR sem perda significativa de precisão da estimativa das habilidades. Para tal, cria-se a abordagem denominada ALICAT que personaliza o processo de seleção de itens em CAT, considerando o uso de mais de uma ISR. Para aplicar essa abordagem é necessário primeiro analisar o desempenho de diferentes ISRs. Um estudo de caso na prova de Matemática e suas tecnologias do ENEM de 2012, indica que a regra de seleção de Kullback-Leibler com distribuição a posteriori (KLP) possui melhor desempenho na estimativa das habilidades dos respondentes em relação as regras: Informação de Fisher (F); Kullback-Leibler (KL); Informação Ponderada pela Máxima Verossimilhança (MLWI); e Informação ponderada a posteriori (MPWI). Resultados prévios da literatura mostram que CAT utilizando a regra KLP conseguiu reduzir a prova do estudo de caso em 46,6% em relação ao tamanho completo de 45 itens sem perda significativa na estimativa das habilidades. Neste trabalho, foi observado que as regras F e a MLWI tiveram melhor desempenho nos estágios inicias do CAT, para estimar respondentes com níveis de habilidades extremos negativos e positivos, respectivamente. Com a utilização dessas regras de seleção em conjunto, a abordagem ALICAT reduziu a mesma prova em 53,3% / Computerized Adaptive Testing (CAT) based on Item Response Theory allows more accurate assessments with fewer questions than the classic paper test. Nonetheless, the CAT building involves some key questions that, when done properly, can further improve the accuracy and efficiency in estimating examinees\' abilities. One of the main questions is in regard to choosing the Item Selection Rule (ISR). The classic CAT makes exclusive use of one ISR. However, these rules have differences depending on the examinees\' ability level and on the CAT stage. Thus, the objective of this work is to reduce the dichotomous - which considers only correct and incorrect answers - test size which is inserted on a classic CAT without significant loss of accuracy in the estimation of the examinee\'s ability level. For this purpose, we create the ALICAT approach that personalizes the item selection process in a CAT considering the use of more than one ISR. To apply this approach, we first analyze the performance of different ISRs. The case study in textit test of the ENEM 2012 shows that the Kullback-Leibler Information with a Posterior Distribution (KLP) has better performance in the examinees\' ability estimation when compared with: Fisher Information (F); Kullback-Leibler Information (KL); Maximum Likelihood Weighted Information(MLWI); and Maximum Posterior Weighted Information (MPWI) rules. Previous results in the literature show that CAT using KLP was able to reduce this test size by 46.6% from the full size of 45 items with no significant loss of accuracy in estimating the examinees\' ability level. In this work, we observe that the F and the MLWI rules performed better on early CAT stages to estimate examinees proficiency level with extreme negative and positive values, respectively. With this information, we were able to reduce the same test by 53.3% using an approach that uses the best rules together
|
185 |
O lugar e o tributo: estudo sobre o critério espacial da regra-matriz de incidência tributária no exercício da competência tributária para instituir e arrecadar tributosBritto, Lucas Galvão de 05 October 2012 (has links)
Made available in DSpace on 2016-04-26T20:21:11Z (GMT). No. of bitstreams: 1
Lucas Galvao de Britto.pdf: 1356483 bytes, checksum: da73d05015996a2d841a7d4e9a63f490 (MD5)
Previous issue date: 2012-10-05 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / This study's purpose is the spatial criterion of the matrix-norm of tax incidence. Investigates it from an hermeneutic-analytical point of view, departing from the understanding of how spatial categories help humans in understanding the objects of experience, in order to isolate and transpose these categories to the study of law, testing them with the established theory of place of crime and conducting the analysis results for the formulation of a theory of the place of tribute / Esta pesquisa tem por objeto o critério espacial da regra-matriz de
incidência tributária. Investiga-o desde um ponto de vista analítico-
hemenêutico para, a partir da compreensão de como as categorias
espaciais ajudam o ser humano na compreensão dos objetos da
experiência,transpor as categorias isolada são direito,testando-as com a
já estabelecida teoria do lugar do crime e, conduzindo os resultados da
análise para a formação de uma teoria do lugar do tributo
|
186 |
As regras de subcapitalização no Brasil: distanciamentos e proximidades com os juros sobre o capital próprio e os preços de transferênciaDrezza, Lia Barsi 03 June 2013 (has links)
Made available in DSpace on 2016-04-26T20:21:46Z (GMT). No. of bitstreams: 1
Lia Barsi Drezza.pdf: 1150610 bytes, checksum: 85917f53e22e468577ce238460179f2c (MD5)
Previous issue date: 2013-06-03 / This study assesses the impact of the normative statement contained in Articles
24 and 25 of Law No. 12.249/2010 Brazil s "thin capitalization rules" in view of a
series of other laws currently in effect that regulate the same issues, namely, the
remittance of interest abroad by entities affiliated with enterprises headquartered in tax
havens or in countries featuring low-tax regimes. The analysis seeks to highlight the
conflicts that can arise from regulation by different laws of the same legal facts, as a
means to prevent the occurrence of double taxation by the tax authorities / O presente estudo busca analisar a eficácia social do enunciado normativo
contido nos artigos 24 e 25 da Lei nº 12.249/2010, chamado de regras de
subcapitalização , tendo em vista a existência, no sistema atualmente vigente, de um
conjunto de outros enunciados que acabam por regular o mesmo fato jurídico, qual seja,
a remessa de juros ao exterior, para pessoas jurídicas vinculadas, sediadas em países
com tributação favorecida ou com regime fiscal privilegiado. A partir dessa análise,
buscou-se evidenciar os conflitos que podem surgir da regulamentação, por diferentes
proposições normativas, de fatos jurídicos idênticos, como forma de evitar a ocorrência
de uma dupla tributação por parte dos órgãos fiscais
|
187 |
Fundamentos constitucionais da sujeição passiva tributáriaRego, Arthur Paiva Monteiro 11 May 2015 (has links)
Made available in DSpace on 2016-04-26T20:23:41Z (GMT). No. of bitstreams: 1
Arthur Paiva Monteiro Rego.pdf: 631950 bytes, checksum: 5ff52ee2260024aa72bdfc6f044bd7e2 (MD5)
Previous issue date: 2015-05-11 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / This dissertation investigates the personal criteria of the rule tax incidence
matrix from the Constitution. As preliminary aspects for theme development,
philosophy of language concepts were brought forward to explain the
construction of knowledge, and how to get to the crucial point of law, the rule of
law. From an analytical and hermeneutical method, the structure of the rule of
law was analyzed, using the lessons of Paulo de Barros Carvalho, with regard
to the rule array of tax incidence, focusing on the legal relationship, precisely on
personal criteria. Thus, a study was done on the tax liability, tax constitutional
principles and of its relationship with personal criteria. Finally, we tried to show
that there is a "constitutional recipient tribute" from the examination of the
materiality of taxes put in the Constitution / Esta dissertação buscou investigar o critério pessoal da regra-matriz de
incidência tributária a partir da Constituição da República. Como aspectos
preliminares para desenvolvimento do tema, foram trazidas noções da filosofia
da linguagem, na tentativa de explicar a construção do conhecimento, sendo
forma de se chegar ao elemento basilar do Direito a norma jurídica. A partir de
um método analítico e hermenêutico, foi analisada a estrutura da norma
jurídica, utilizando-se das lições de Paulo de Barros Carvalho, no que se refere
à regra-matriz de incidência tributária, focando na relação jurídica, mais
precisamente no critério pessoal. Assim, foi feito um estudo sobre a obrigação
tributária, os princípios constitucionais tributários e qual a relação deste com o
critério pessoal. Por fim, tentou-se demonstrar que há um destinatário
constitucional do tributo a partir do exame das materialidades dos tributos
postas na Constituição
|
188 |
Modelagem estocástica de sequências de disparos de um conjunto de neurônios / Stochastic modeling of spike trains of a set of neuronsAzrielex Andres Arias Rodriguez 13 August 2013 (has links)
O presente trabalho constitui um primeiro esforço por modelar disparos de neurônios usando cadeias estocásticas de memória de alcance variável. Esses modelos foram introduzidos por Rissanen (1983). A ideia principal deste tipo de modelos consiste em que a definição probabilística de cada símbolo depende somente de uma porção finita do passado e o comprimento dela é função do passado mesmo, tal porção foi chamada de \"contexto\" e o conjunto de contextos pode ser representado através de uma árvore. No passado vários métodos de estimação foram propostos, nos quais é necessário especificar algumas constantes, de forma que Galves et al.(2012) apresentaram o \"critério do menor maximizador\" (SMC), sendo este um algoritmo consistente que independe de qualquer constante. De outro lado na área da neurociência vem tomando força a ideia de que o processamento de informação do cérebro é feito de forma probabilística, por esta razão foram usados os dados coletados por Sidarta Ribeiro e sua equipe, correspondentes à atividade neuronal em ratos, para estimar as árvores de contextos que caracterizam os disparos de quatro neurônios do hipocampo e identificar possíveis associações entre eles, também foram feitas comparações de acordo com o estado comportamental do rato (Vigília / Sono), em todos os casos foi usado o algoritmo SMC para a estimação das árvores de contexto. Por último, é aberta uma discussão sobre o tamanho de amostra necessário para a implementação deste tipo de análise. / This work describes an initial effort to model spike trains of neurons using Variable Length Markov Chains (VLMC). These models were introduced by Rissanen(1983). The principal idea of this kind of models is thaht the probabilistic definition of each symbol only depends on a finite part of the past and the length of this relevant portion is a function of the past itself. This portion were called \"context\" and the set of contexts can be represented as a rooted labeled tree. In the past, several methods of estimation were proposed, where is necessary to fix any constants, for this reason Galves et al.(2012) introduced the \"smallest maximizer criterion\" (SMC), which is a consistent and constant free model selection procedure. By the other side, in the neuroscience area has gained strength the idea that the information processing in the brain is done in a probabilistic way, for this reason were used the data collected by Sidarta Ribeiro and his team, related to the neuronal activity in rats, to estimate the context trees that describing the spike trains of four neurons of hipocampus region and to identify associations between them, comparisions were also made according to the behavioural state of the rat (Wake / Sleep), in all cases the algorithm were used the SMC algortithm to estimate the context trees. Finally, is opened a discussion on the sample size required for the implementation of this kind of analysis.
|
189 |
Monte Carlo simulation studies in log-symmetric regressions / Estudos de simulação de Monte Carlo em regressões log- simétricasVentura, Marcelo dos Santos 09 March 2018 (has links)
Submitted by Franciele Moreira (francielemoreyra@gmail.com) on 2018-03-29T12:30:01Z
No. of bitstreams: 2
Dissertação - Marcelo dos Santos Ventura - 2018.pdf: 4739813 bytes, checksum: 52211670f6e17c893ffd08843056f075 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-03-29T13:40:08Z (GMT) No. of bitstreams: 2
Dissertação - Marcelo dos Santos Ventura - 2018.pdf: 4739813 bytes, checksum: 52211670f6e17c893ffd08843056f075 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-03-29T13:40:08Z (GMT). No. of bitstreams: 2
Dissertação - Marcelo dos Santos Ventura - 2018.pdf: 4739813 bytes, checksum: 52211670f6e17c893ffd08843056f075 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2018-03-09 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / This work deals with two Monte Carlo simulation studies in log-symmetric regression models,
which are particularly useful for the cases when the response variable is continuous, strictly
positive and asymmetric, with the possibility of the existence of atypical observations. In log-
symmetric regression models, the distribution of the random errors multiplicative belongs to
the log-symmetric class, which encompasses log-normal, log- Student-t, log-power-
exponential, log-slash, log-hyperbolic distributions, among others. The first simulation study
has as objective to examine the performance for the maximum-likelihood estimators of the
model parameters, where various scenarios are considered. The objective of the second
simulation study is to investigate the accuracy of popular information criteria as AIC, BIC,
HQIC and their respective corrected versions. As illustration, a movie data set obtained and
assembled for this dissertation is analyzed to compare log-symmetric models with the normal
linear model and to obtain the best model by using the mentioned information criteria. / Este trabalho aborda dois estudos de simulação de Monte Carlo em modelos de regressão log-
simétricos, os quais são particularmente úteis para os casos em que a variável resposta é
contínua, estritamente positiva e assimétrica, com possibilidade da existência de observações
atípicas. Nos modelos de regressão log-simétricos, a distribuição dos erros aleatórios
multiplicativos pertence à classe log-simétrica, a qual engloba as distribuições log-normal,
log-Student- t, log-exponencial- potência, log-slash, log-hyperbólica, entre outras. O primeiro
estudo de simulação tem como objetivo examinar o desempenho dos estimadores de máxima
verossimilhança desses modelos, onde vários cenários são considerados. No segundo estudo
de simulação o objetivo é investigar a eficácia critérios de informação populares como AIC,
BIC, HQIC e suas respectivas versões corrigidas. Como ilustração, um conjunto de dados de
filmes obtido e montado para essa dissertação é analisado para comparar os modelos de
regressão log-simétricos com o modelo linear normal e para obter o melhor modelo utilizando
os critérios de informação mencionados.
|
190 |
Análise quase-estática de estruturas escalonadas laminadas em material compósito via modelo fenomenológico de falhas e elementos finitos estendidos: desenvolvimento de uma ferramenta computacional / Quasi-static analysis of composite materials tapered structures through a phenomenological failure model and extended finite elements: development of a computacional toolAngelo, Marcus Vinicius 13 December 2018 (has links)
Motivados pelas atuais tendências e suportados pelo grande interesse de indústrias do segmento aeronáutico, estudos e desenvolvimentos vêm sendo conduzidos na área de análise estrutural de materiais compósitos. Todavia, mesmo havendo várias contribuições científicas e tecnológicas nesta área, este assunto continua sendo um campo aberto e bastante promissor para novas pesquisas, devido a sua extensa complexidade e imediata aplicação. A ausência de um modelo capaz de projetar com elevada precisão uma estrutura aeronáutica com presença de escalonamento fabricada em material compósito, que pode sofrer modo de falha translaminar, motivou o presente trabalho. É sabido que o método de elementos finitos estendidos (XFEM - eXtendend Finite Element Method, do Inglês) vem sendo usado de maneira robusta para análise de propagação de trincas em elementos estruturais tridimensionais isotrópicos durante os últimos anos, mas não em compósitos. De forma a contribuir com a pequena quantidade de trabalhos científicos referentes a métodos XFEM 3D para análise de estruturas fabricadas em materiais compósitos não convencionais, como estruturas com escalonamento de camadas e laminados espessos, é apresentada uma nova metodologia implementada como uma ferramenta computacional para analisar quase estaticamente este tipo de estrutura. O modelo é baseado no aprimoramento do \"Método da Seção de Ouro\" que é aplicado em conjunto com uma versão aprimorada do critério de falha de Puck, permitindo assim definir com precisão e baixo custo computacional a iniciação e direção de uma trinca. Esta informação é utilizada para iniciar uma rotina baseada em XFEM, que é usada para o enriquecimento dos elementos finitos que vão falhando progressivamente durante a análise. A nova metodologia (implementada computacionalmente) apresenta convergência uma ordem de grandeza maior quando comparada com o algoritmo tradicional, sendo aproximadamente 20 vezes mais eficiente em termos computacionais. O modelo é ainda avaliado quanto a seus resultados em comparação com dados provenientes de ensaios experimentais, demonstrando uma boa convergência entre as previsões computacionais e os resultados obtidos em laboratório. / Supported by current trends and by the great interest of aeronautic industries, studies and developments have been made in the field of high performance composite materials. Nonetheless, even with the scientific and technological contributions, the matter is still a field wide open and promising for new research due to its high complexity and immediate application. The absence of a model capable of universally reproducing mechanical behavior of composite materials tapered structures, which can suffer translaminar failure mode, motivated the present work. It is well known that the eXtended Finite Elements Method (XFEM) has been used robustly for analysis of crack propagation in isotropic tri-dimensional structural elements lately but not for composites. In order to contribute with the scares amount of available works on 3D XFEM application on non-conventional composite material structures, such as tapered structures and thick laminates, a new methodology is presented as a computational tool for quasi-static analysis of this type of component. The model derives from \"Golden Section Method\" that is applied along with an enhanced version of Puck\'s failure criterion, which allows a low computational cost and high precision estimation of crack initiation and direction of propagation. This information is used to trigger an XFEM based routine that is applied for enriching the elements progressively during analysis. The new methodology (computationally implemented) has a convergence rate one order of magnitude greater than traditional implementation, roughly 20 times more efficient in terms of computational processing. Finally, to assure robustness, the model is validated against standardized and specifically developed experiments, showing good convergence between numerical predictions and results obtained in the laboratory.
|
Page generated in 0.0432 seconds