• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 21
  • 14
  • 11
  • 2
  • Tagged with
  • 347
  • 197
  • 138
  • 106
  • 57
  • 56
  • 52
  • 47
  • 41
  • 36
  • 33
  • 32
  • 32
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Pressões respiratórias máximas em indivíduos adultos saudávesi entre 20 e 59 anos de idade : valores de referência

Monteiro, Mariane Borba January 2003 (has links)
Resumo não disponível
92

New Extended Lifetime Distributions

PAIXÃO, Ana Carla Percontini da 31 January 2014 (has links)
Submitted by Etelvina Domingos (etelvina.domingos@ufpe.br) on 2015-03-12T18:21:25Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Ana Carla Percontini da Paixão.pdf: 2309750 bytes, checksum: 1f4caced5454dee673c1e41705168ad0 (MD5) / Made available in DSpace on 2015-03-12T18:21:26Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Ana Carla Percontini da Paixão.pdf: 2309750 bytes, checksum: 1f4caced5454dee673c1e41705168ad0 (MD5) Previous issue date: 2014 / Este trabalho está dividido em quatro capítulos independentes. Nos Capítulos 2 e 3 propomos extensões para a distribuição Weibull. A primeira delas, com cinco parâmetros, é uma composição das distribuições beta e Weibull Poisson. Essa nova distribuição tem como submodelos algumas importantes distribuições descritas na literatura e outras ainda não discutidas tais como: bata exponencial Poisson, Weibull Poisson exponencializada, Rayleigh Poisson exponencializada, beta Weibull, Weibull, exponencial, entre outras. Obtemos algumas propriedades matemáticas tais como momentos ordinários e incompletos, estatísticas de ordem e seus momentos e entropia de Rényi. Usamos o método da máxima verossimilhança para obter estimativas dos parâmetros. A potencialidade desse novo modelo é mostrada por meio de um conjunto de dados reais. A segunda extensão, com quatro parâmetros, é uma composição das distribuições Poisson generalizada e Weibull, tendo a Poisson generalizada exponencial, a Rayleigh Poisson, Weibull Poisson e Weibull como alguns de seus sub-modelos. Várias propriedades matemáticas foram investigadas, incluíndo expressões explícitas para os momentos ordinários e incompletos, desvios médios, função quantílica, curvas de Bonferroni e Lorentz, con abilidade e as entropias de Rényi e Shannon. Estatísticas de ordem e seus momentos são investigados. A estimativa de parâmetros é feita pelo método da máxima verossimilhança e é obtida a matriz de informação obsevada. Uma aplicação a um conjunto de dados reais mostra a utilidade do novo modelo. Nos dois últimos capítulos propomos duas novas classes de distribuições. No Capítulo 4 apresentamos a família G- Binomial Negativa com dois parâmetros extras. Essa nova família inclui como caso especial um modelo bastante popular, a Weibull binomial negativa, discutida por Rodrigues et al.(Advances and Applications in Statistics 22 (2011), 25-55.) Algumas propriedades matemáticas da nova classe são estudadas, incluindo momentos e função geradora. O método de máxima verossimilhança é utilizado para obter estimativas dos parâmetros. A utilidade da nova classe é mostrada através de um exemplo com conjuntos de dados reais. No Capítulo 5 apresentamos a classe Zeta-G com um parâmetro extra e algumas nova distribuições desta classe. Obtemos expressões explícitas para a função quantílica, momentos ordinários e incompletos, dois tipos de entropia, con abilidade e momentos das estatísticas de ordem. Usamos o método da máxima verossimilhança para estimar os parâmetros e a utilidade da nova classe é exempli cada com um conjunto de dados reais.
93

Refinamento de inferências na distribuição Birnbaum-Saunders generalizada com núcleos normal e t de Student sob censura tipo II

BARRETO, Larissa Santana 31 January 2013 (has links)
Submitted by Danielle Karla Martins Silva (danielle.martins@ufpe.br) on 2015-03-13T12:46:16Z No. of bitstreams: 2 tese_larissa_final.pdf: 2339402 bytes, checksum: e15b164d91df893043954285fcb9f7e0 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T12:46:16Z (GMT). No. of bitstreams: 2 tese_larissa_final.pdf: 2339402 bytes, checksum: e15b164d91df893043954285fcb9f7e0 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013 / CAPES / Frequentemente temos interesse em realizar inferências, em um determinado modelo, envolvendo apenas alguns dos seus parâmetros. Tais inferências podem ser feitas através da função de verossimilhança perfilada. Contudo, alguns problemas podem surgir quando tratamos a função de verossimilhança perfilada como uma verossimilhança genuína. Com o objetivo de solucionar estes problemas, vários pesquisadores, dentre eles Barndorff-Nielsen (1983, 1994) e Cox & Reid (1987, 1992), propuseram modificações à função de verossimilhança perfilada. O principal objetivo deste trabalho é utilizar a verossimilhança perfilada e seus ajustes propostos por Barndorff-Nielsen (1983,1994) e Cox & Reid (1987,1992) no aperfeiçoamento de inferências para a distribuição Birnbaum-Saunders generalizada com núcleos normal e t de Student, na presença, ou não, de censura tipo II. Mais precisamente obtemos os estimadores de máxima verossimilhança relacionados às funções de verossimilhança perfilada e perfiladas ajustadas; calculamos os intervalos de confiança do tipo assintótico, bootstrap percentil, bootstrap BCa e bootstrap-t e também apresentamos os testes da razão de verossimilhanças ajustados, o teste bootstrap paramétrico e o teste gradiente. Através de simulações de Monte Carlo avaliamos os desempenhos dos testes e dos estimadores pontuais e intervalares propostos. Os resultados evidenciam que tanto os testes quanto os estimadores baseados nas versões modificadas da verossimilhança perfilada possuem desempenho superior em pequenas amostras quando comparados com suas contrapartidas não modificadas. Adicionalmente, apresentamos alguns exemplos práticos para ilustrar tudo o que foi desenvolvido.
94

Identi cação de Pontos In uentes em uma Amostra da Distribuição de Watson

BARROS, Cristiany de Moura 26 February 2014 (has links)
Submitted by Etelvina Domingos (etelvina.domingos@ufpe.br) on 2015-03-12T19:21:17Z No. of bitstreams: 2 DISSERTAÇÃO Cristiany de Moura Barros.pdf: 2719487 bytes, checksum: e9cac5b971a42a4ca3a64646f5f61563 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T19:21:17Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Cristiany de Moura Barros.pdf: 2719487 bytes, checksum: e9cac5b971a42a4ca3a64646f5f61563 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-02-26 / CAPES / A análise estatística na esfera unitária é mais complexa do que se possa imaginar: a concepção elegante dos modelos probabilísticos é simples, porém usá-los na prática, muitas vezes se torna mais difícil. Esta di culdade normalmente decorre da normaliza ção complicada das constantes associadas com distribuições direcionais. No entanto, devido à respectiva capacidade poderosa de modelagem, distribuições esféricas continuam encontrando inúmeras aplicações. A distribuição direcional fundamental é a distribuição Von-Mises-Fisher, cujo os modelos para dados concentrados em torno de uma média. Mas para os dados que tem uma estrutura adicional, essa distribuição pode não ser adequada: em particular para os dados axialmente simétricos é mais conveniente abordarmos a distribui ção de Watson (1965), que é o foco desta dissertação. Na distribuição de Watson, são utilizados métodos tais como: ponto de corte para dist ância proposto por Cook (1977), teste de outlier para discordância proposto por Fisher et al. (1985), quantil de uma qui-quadrado proposto por Cook (1977) e distância geod ésica. As contribuições dessa dissertação são: a derivação da distância de Cook, o uso da distância geodésica para detecção de outliers e um método de calculo do ponto de corte.
95

Nova generalização para a classe Beta-G de distribuições de probabilidade

SOUZA, Glaucia Tadu de 04 March 2016 (has links)
Submitted by Mario BC (mario@bc.ufrpe.br) on 2016-08-01T12:23:27Z No. of bitstreams: 1 Glaucia Tadu de Souza.pdf: 877784 bytes, checksum: ccbab2806d7ec089da4ec4976e11ce8e (MD5) / Made available in DSpace on 2016-08-01T12:23:27Z (GMT). No. of bitstreams: 1 Glaucia Tadu de Souza.pdf: 877784 bytes, checksum: ccbab2806d7ec089da4ec4976e11ce8e (MD5) Previous issue date: 2016-03-04 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / We propose a new generator of continuous distributions with three extra parameters called the Beta ( (1 − G), (1 − )G + ), which generalizes the Beta-G class. Some special cases are presented. The new density function can be expressed as a difference of linear combinations of exponentiated densities based on the same baseline distribution. Various structural properties of the new class, which hold for any baseline model, are derived including explicit expressions for the moments of order n, the moment generating function, the characteristic function, central moments of order n, the general coefficient, the mean deviations, residual life function, reverse life function and order statistics. We discuss estimation of the model parameters by maximum likelihood and provide an application to a real data set. / Propusemos um novo gerador de distribuições contínuas com três parâmetros adicionais chamado Beta ( (1−G), (1− )G+ ), que generaliza a classe Beta-G. Alguns casos especiais são apresentados. A nova função densidade pode ser expressa como uma diferença de combinações lineares de densidades exponencializadas através da mesma distribuição-base. Várias propriedades estruturais da nova classe, as quais valem para qualquer distribuiçãobase são derivadas, incluindo expressões explicitas para os momentos de ordem n, função geradora de momentos, função característica, momentos centrais de ordem n, coeficiente geral, desvios médios, função de vida residual, função de vida reversa e estatísticas de ordem. Discutimos a estimação dos parâmetros do modelo através do método de máxima verossimilhança e fornecemos uma aplicação a um conjunto de dados reais.
96

Padrão regional de ventilação pulmonar durante as técnicas do Breathstacking e Inspirômetro de Incentivo pela inalação de radioaerossol

Maria Sá Machado Diniz, Denise January 2003 (has links)
Made available in DSpace on 2014-06-12T15:54:59Z (GMT). No. of bitstreams: 2 arquivo6200_1.pdf: 4199376 bytes, checksum: 5a46d3d2af28d10ea5aec5bc448e129b (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / A manobra de sustentação máxima da inspiração (SMI) é utilizada para melhorar a ventilação através de inspirômetros de incentivos (II). O breath-stacking (BS) técnica alternativa ao II não necessita da cooperação do paciente. Os objetivos deste estudo foram analisar o padrão regional de deposição pulmonar, usando as técnicas de BS e II e correlacionar o volume máximo alcançado com o índice de deposição (ID) do radioaerossol. Foram estudados 18 voluntários, saudáveis, com idade de 22,72±2,96 no Instituto de Medicina Nuclear de Fortaleza e na Faculdade Integrada do Ceará. Foram medidos o volume pulmonar alcançado e a captação das imagens cintilográficas, durante as técnicas. O radioaerossol utilizado foi o 99mTc-DTPA. Após a inalação, foram obtidas imagens na câmara de cintilação. Foi realizada uma medida cintilográfica em respiração espontânea, considerada imagem-controle (C). Foram delimitadas regiões de interesse (ROIS) e analisados o ID nos gradientes vertical e horizontal. Para análise estatística, utilizou-se ANOVA, teste t-Student pareado e correlação de Pearson. Para o grupo total, o II favoreceu a deposição em terço médio(p=0,03) e região central(p<0,001) e o BS em inferior(p=0,03) e periférica(p<0,001). No masculino, a deposição em terço superior(p=0,04) foi favorecida pelo II. Não houve correlação entre o volume alcançado e a deposição durante BS e II, nem alteração no volume pulmonar alcançado durante as técnicas. Os resultados sugerem que a técnica de II proporciona um padrão regional de deposição do radioaerossol em vias aéreas centrais, enquanto a BS em vias aéreas de pequeno calibre
97

Modelos para estimativa do grau de saturação do concreto mediante variáveis ambientais que influenciam na sua variação / Models to estimate the saturation degree through environmental variables that affect its variation

Peraça, Maria da Graça Teixeira January 2009 (has links)
Dissertação(mestrado) - Universidade Federal do Rio Grande, Programa de Pós-Graduação em Engenharia Oceânica, Escola de Engenharia, 2009. / Submitted by Lilian M. Silva (lilianmadeirasilva@hotmail.com) on 2013-04-22T19:51:54Z No. of bitstreams: 1 Modelos para estimativa do Grau de Saturação do concreto mediante Variáveis Ambientais que influenciam na sua variação.pdf: 2786682 bytes, checksum: df174dab02a19756db94fc47c6bb021d (MD5) / Approved for entry into archive by Bruna Vieira(bruninha_vieira@ibest.com.br) on 2013-06-03T19:20:55Z (GMT) No. of bitstreams: 1 Modelos para estimativa do Grau de Saturação do concreto mediante Variáveis Ambientais que influenciam na sua variação.pdf: 2786682 bytes, checksum: df174dab02a19756db94fc47c6bb021d (MD5) / Made available in DSpace on 2013-06-03T19:20:55Z (GMT). No. of bitstreams: 1 Modelos para estimativa do Grau de Saturação do concreto mediante Variáveis Ambientais que influenciam na sua variação.pdf: 2786682 bytes, checksum: df174dab02a19756db94fc47c6bb021d (MD5) Previous issue date: 2009 / Nas engenharias, é fundamental estimar o tempo de vida útil das estruturas construídas, o que neste trabalho significa o tempo que os íons cloretos levam para atingirem a armadura do concreto. Um dos coeficientes que influenciam na vida útil do concreto é o de difusão, sendo este diretamente influenciado pelo grau de saturação (GS) do concreto. Recentes estudos levaram ao desenvolvimento de um método de medição do GS. Embora esse método seja eficiente, ainda assim há um grande desperdício de tempo e dinheiro em utilizá-lo. O objetivo deste trabalho é reduzir estes custos calculando uma boa aproximação para o valor do GS com modelos matemáticos que estimem o seu valor através de variáveis ambientais que influenciam na sua variação. As variáveis analisadas nesta pesquisa, são: pressão atmosférica,temperatura do ar seco, temperatura máxima, temperatura mínima, taxa de evaporação interna (Pichê), taxa de precipitação, umidade relativa, insolação, visibilidade, nebulosidade e taxa de evaporação externa. Todas foram analisadas e comparadas estatisticamente com medidas do GS obtidas durante quatro anos de medições semanais, para diferentes famílias de concreto. Com essas análises, pode-se medir a relação entre estes dados verificando que os fatores mais influentes no GS são, temperatura máxima e umidade relativa. Após a verificação desse resultado, foram elaborados modelos estatísticos, para que, através dos dados ambientais, cedidos pelo banco de dados meteorológicos, se possam calcular, sem desperdício de tempo e dinheiro, as médias aproximadas do GS para cada estação sazonal da região sul do Brasil, garantindo assim uma melhor estimativa do tempo de vida útil em estruturas de concreto. / In engineering, it is fundamental to estimate the life-cycle of built structures, which in this study means the period of time required for chlorides to reach the concrete reinforcement. One of the coefficients that affect the life-cycle of concrete is the diffusion, which is directly influenced by the saturation degree (SD) of concrete. Recent studies have led to the development of a measurement method for the SD. Although this method is efficient, there is still waste of time and money when it is used. The objective of this study is to reduce costs by calculating a good approximation for the SD value with mathematical models that predict its value through environmental variables that affect its variation. The variables analysed in the study are: atmospheric pressure, temperature of the dry air, maximum temperature, minimum temperature, internal evaporation rate (Pichê), precipitation rate, relative humidity, insolation, visibility, cloudiness and external evaporation rate. All of them were statistically analysed and compared with measurements of SD obtained during four years of weekly assessments for different families of concrete. By considering these analyses, the relationship among these data can be measured and it can be verified that the most influent variables affecting the SD are the maximum temperature and the relative humidity. After verifying this result, statistical models were developed aiming to calculate, based on the environmental data provided by the meteorological database and without waste of time and money, the approximate averages of SD for each seasonal station of the south region of Brazil, thus providing a better estimative of life-cycle for concrete structures.
98

Análise estocástica do comportamento dinâmico de estruturas via métodos probabilísticos / Stochastic analysis of structural dynamic behavior via probabilistic methods

Fabro, Adriano Todorovic 16 August 2018 (has links)
Orientador: José Roberto de França Arruda / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-16T06:24:37Z (GMT). No. of bitstreams: 1 Fabro_AdrianoTodorovic_M.pdf: 6602156 bytes, checksum: 3a18dd67bde7f65ae2e4dd268670356d (MD5) Previous issue date: 2010 / Resumo: Esta dissertação tem como objetivo geral levar 'a realidade industrial subsídios para a modelagem e análise de sistemas mecânicos lineares com variabilidade, assim como metodologias computacionais para quantificação de incertezas, para fins de aplicação em projeto. Neste sentido, foram realizados estudos sobre técnicas de modelagem e análise estocástica de sistemas mecânicos lineares aplicadas, inicialmente, a algumas estruturas simples, de baixo custo computacional, por meio de simulações em MatLabR. Propõe-se uma abordagem probabilística para a modelagem de incertezas baseada no Princípio da Máxima Entropia para a flexibilidade relativa a uma trinca aberta e não propagante em uma barra modelada através do Método do Elemento Espectral (SEM). Também é apresentada uma abordagem para o tratamento de problemas de campo aleatório utilizando o SEM, onde são utilizadas soluções analíticas da decomposição de Karhunen-Lo'eve. Uma formulação para elementos de viga do tipo Euler-Bernoulli é apresentada e um exemplo em que a rigidez à flexão é modelada como um campo aleatório Gaussiano é tratado. Uma abordagem para análise estocástica do comportamento dinâmico de uma tampa de compressor hermético é proposta. Uma aproximação por elementos finitos obtida com o software Ansys R foi utilizada para representar o comportamento determinístico de uma tampa de compressor, e duas abordagens de modelagem estocástica são comparadas. Um ensaio experimental foi realizado com tampas nominalmente idênticas, sendo medidas apenas frequências naturais com excitação por impacto, de modo a se poder compará-las com os valores obtidos teoricamente / Abstract: This dissertation has as a general objective to bring to the industrial reality subsidies for modeling and analysis of linear mechanical systems with variability, as well as computational methodologies to the uncertainty quantification, aiming industrial design applications. In that sense, theoretical studies about stochastic modeling and analysis for mechanical linear systems were performed. They were applied, firstly, to simple and computationally low cost structures using MatlabR. In that sense, a probabilistic modeling approach based on the Maximum Entropy Principle was proposed to treat the flexibility related to an open and nonpropagating crack in a rod modeled using the Spectral Element Method (SEM). An approach for the treatment of random field problems using SEM, which uses analytical solutions of the Karhunen-Lo'eve Decomposition, is also addressed. An Euler-Bernoulli beam formulation was used, and an example where the flexural stiffness is modeled as a Gaussian random field is presented. A finite element approximation obtained with the software Ansys R was used to represent the deterministic dynamic behavior of a compressor cap shell, and two stochastic modeling approaches were compared. Experiments were performed using nominally identical cap samples. Natural frequencies were measured using impact excitation in order to compare with the theoretical results / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
99

Minimos quadrados totais e maxima verossimilhança em estimulação de frequencias

Lemos, Rodrigo Pinto 27 June 1997 (has links)
Orientador: Amauri Lopes / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-22T14:15:53Z (GMT). No. of bitstreams: 1 Lemos_RodrigoPinto_D.pdf: 3234162 bytes, checksum: 87db9ab9412fc44c6cf428da396f452b (MD5) Previous issue date: 1997 / Resumo: Este trabalho revisa a aplicação de predição linear para a estimação de freqüências em meio ruidoso, estabelecendo uma formulação unificada. Utiliza-se a decomposição em valores singulares para detalhar os subespaços de sinal e de ruído, associados aos dados, buscando compreender a extensão da atuação ruidosa, de forma a reduzí-la à mínima possível. Propõe-se um novo método que otimiza a predição linear no sentido dos mínimos quadrados totais, e para ele se desenvolve uma solução pelo subespaço de sinal. Este método é competitivo com o método Componentes Principais, embora seus desempenhos sejam inferiores ao obtido por Máxima Verossimilhança. Descrevem-se quatro métodos recentes que otimizam a predição linear no sentido dos mínimos quadrados totais e que, considerando a estrutura inserida na matriz de dados pelo filtro de predição, alcançam o desempenho da Máxima Verossimilhança. Demonstra-se analiticamente a equivalência entre esses métodos e se comparam seus desempenhos. Propõe-se um novo método que generaliza os anteriores para o caso de elementos fixos, e mais três métodos para a otimização no sentido dos mínimos quadrados convencional. Demonstra-se a equivalência entre estes últimos e verifica-se que seu desempenho supera o do Componentes Principais / Abstract: This work establishes an unifying framework to the use of linear prediction for estimating the unknown frequencies of signals corrupted by additive noise. The noise and signal subspaces associated to the data are detailed using the singular value decomposition. The noise effects are studied in order to achieve its maximum reduction. A new method is proposed that optimizes linear prediciton in total least squares sense and a signal subspace approach to it is developed. This method is shown to be competitive to Pricipal Components, although both methods still perform a little worser than Maximum Likelihood. In order to make linear prediction perform like Maximum Likelihood, four recent linear prediction methods take into account the structure imposed by the linear prediction filter on the data matrix. These methods are shown to minimize the same objective function and yield equivalent solutions. A new method is proposed that generalizes these methods to the fixed elements case. Another three methods are also proposed that take into account the data matrix structure but using a least squares optimization approach. These methods are shown to be equivalent and to perform better than Principal Components method / Doutorado / Doutor em Engenharia Elétrica
100

Análise dos Arts. 8º e 489, §2º, do Código de Processo Civil de 2015, à luz da teoria dos direitos fundamentais de Robert Alexy

Cerqueira, Maira Ramos 14 June 2017 (has links)
Made available in DSpace on 2018-08-01T23:39:27Z (GMT). No. of bitstreams: 1 tese_11223_MAÍRA.pdf: 1578842 bytes, checksum: f6fecffe1f1cf664e6b8fb1451ec5568 (MD5) Previous issue date: 2017-06-14 / CAPES / Os arts. 8º e 489, §2º, do Código de Processo Civil de 2015 (CPC/2015), que preveem que o juiz ao julgar, deve observar a proporcionalidade e os critérios gerais da ponderação efetuada, remetem a dois conceitos centrais da Teoria dos Direitos Fundamentais de Robert Alexy. Analisou-se, primeiramente, os principais postulados Alexyanos, sobretudo a diferenciação entre regras e princípios, o procedimento de aplicação da máxima da proporcionalidade e as leis de ponderação e colisão. Expôsse que a proporcionalidade, ao menos sob a ótica das premissas Alexyanas, não pode ser compreendida como um princípio, tampouco, como sinônimo de razoabilidade. Ademais, demonstrou-se que os artigos 8º, e 489, §2º incorporaram ao menos prima facie às teorizações de Robert Alexy, pois, os termos “ponderação” e “proporcionalidade” não são destituídos de intenções teóricas prévias. Demonstrou-se que é possível compatibilizar a exigência de observância a “razoabilidade” no momento de aplicação do ordenamento jurídico, prevista no art. 8º, CPC/2015, com a necessidade de se observar a “proporcionalidade”, também prevista no mesmo dispositivo legal, desde que se entenda este termo como regra de julgamento a ser utilizada nos casos de reais colisões entre direitos fundamentais, e aquele como princípio. Demonstrou-se que nas decisões do Supremo Tribunal Federal, em que foram aplicadas à proporcionalidade como critério metodológico para solucionar hipóteses de colisões entre princípios, aplicaram-na, na maioria dos casos, de forma diversa da que fora delineada por Robert Alexy, desvirtuando-se, assim, quase que por completo dos postulados alexyanos. Esse panorama pode, eventualmente, comprometer a garantia de efetivação dos direitos fundamentais. A partir da égide do novo do Código de Processo, espera-se, contudo, que este cenário de indefinição teórica e jurisprudencial a respeito da proporcionalidade e da ponderação, reste alterado, pois, da avaliação, pôde-se concluir que o novo código de processo civil, em virtude da reconfiguração do dever de fundamentação das decisões judiciais, oferece, prima facie, critérios mais seguros para que os postulados alexyanos sejam aplicados, tal como desenvolvidos por Alexy, pois, considerar-se-á, não fundamentada, e, portanto, nula, a decisão que utilizar a proporcionalidade sem demonstrar que o caso se trata de uma efetiva colisão entre direitos fundamentais e, que não siga, sistematicamente, as três etapas procedimentais da máxima da proporcionalidade (adequação, necessidade e proporcionalidade em sentido estrito). / Articles. 8 and 489, § 2, from the Civil Procedure Code of 2015 (CPC / 2015), which provide that the judge in judging, must observe the proportionality and the general criteria of balancing, refer to the law of collision developed by Robert Alexy in his Theory of Fundamental Rights. First, the main Alexyan postulates were analyzed, mainly the differentiation between rules and principles proposed by Alexy. Questions such as: Does the "proportionality" predicted in art. 8, CPC / 2015 refer to the maximum developed by Alexy to be used in the case of collision of principles, or, it had been used to designate a constitutionally foreseen axiom, which requires that the means are proportionate to the desired ends, with a view to prevent state arbitration?; Is it possible to reconcile the requirement of observance to "reasonableness" at the moment of the application of the legal order foreseen in art. 8, CPC / 2015, with the need to observe "proportionality", also provided in the same legal provision ?; And Does the new Code of Civil Procedure provide sufficient parameters for the Alexian postulates to be applied in the way they were developed by Robert Alexy in his Theory of Fundamental Rights ?, were answered throughout the explanations. It was exposed here that proportionality, at least from the viewpoint of Alexyan premises, cannot be understood neither as a principle, nor as a synonym of reasonableness. It has been shown that in the decisions of the Federal Supreme Court, in which proportionality was applied as a methodological criterion in solving hypotheses of collision between principles, apply it in most cases in a different way from those ones outlined by Robert Alexy, misrepresenting thus, almost entirely the Alexandrian postulates. This panorama may eventually jeopardize the guarantee of the realization of fundamental rights. Under the auspices of the new Code of Procedure, however, it is expected that this scenario of theoretical uncertainty and jurisprudence regarding proportionality and balancing, remain modified, because , from the evaluation, it was concluded that the new Code of Civil Procedure , offers, prima facie, safer criteria for the Alexian postulates to be applied, as developed by Alexy, since the proportionality provided in art. 8 is understood as a rule of judgment, and not as a principle, and, provided that the justification of balancing, as provided in art. 489, §2, follows sistematically the three procedural steps of the maxim of proportionality (adequacy, necessity and proportionality in the strict sense).

Page generated in 0.0223 seconds