• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 480
  • 38
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 534
  • 326
  • 112
  • 97
  • 86
  • 78
  • 68
  • 55
  • 55
  • 51
  • 44
  • 38
  • 38
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Controles geoarqueológicos e modelos morfoestratigráficos: implicações para o estudo das ocupações pré-históricas na costa sul-sudeste do Brasil / Geoarchaeological Controls and Morphostratigraphic Models: implications for the study of prehistoric occupation on the south-southeast coast Brazil

Brochier, Laércio Loiola 18 February 2009 (has links)
A presente tese refere-se a uma proposta de abordagem geoarqueológica voltada ao estudo de sítios arqueológicos costeiros, enfocando pressupostos teóricos e metodológicos ligados à uma aproximação entre a Arqueologia, Geociências e Ciências da Informação. Objetivou em um primeiro momento, inserir questões e problemáticas relativas a necessidade de inclusão da incerteza no raciocínio e práticas arqueológicas, vislumbrando as possibilidades de seu tratamento. Neste sentido, a percepção do \"problema da não informação\" constituiu o argumento conceitual para a elaboração de um modelo de raciocínio dialético sobre a aquisição, geração, seleção e transmissão de informações na disciplina. Nessa perspectiva, sobreveio a necessidade da interação constante entre Teorias de Formação e de Recuperação, como passo essencial ao controle das perdas e ganhos informacionais e, ao tratamento das imperfeições, incompletudes, imprecisões e ambiguidades ligadas aos fenômenos arqueológicos e seu registro científico. Um dos aspectos explorados refere-se à percepção das incertezas e vieses envolvidos na interpretação das ocupações costeiras, notadamente quanto às problemáticas de origem e migração das primeiras populações nessas áreas. Em um modelo atual dicotômico entre o interior e o litoral, onde mesmo os sítios mais antigos (somente sambaquis) acham-se dispostos sobre a superfície dos terrenos, a percepção da dinâmica e complexidade dos sistemas costeiros, fica restrita ao enquadramento desses sítios em sucessões de cenários geomórficos e paeogeográficos. Deste modo, pouca atenção é dada às conseqüências de agentes dinâmicos sobre a configuração e seleção de sítios na atual paisagem costeira, bem como, à possibilidade de ocorrência e detecção de diferentes classes de sítios, que foram preservados em profundidade por meio de processos de capeamento sedimentar. Assim, em um segundo momento, foi proposto à utilização do conceito de \"Controles Geoarquelógicos\" (CG) no estudo e explicitação dos condicionantes naturais e analíticos envolvidos em uma pesquisa de caráter regional, cujo enfoque está nas relações informacionais estabelecidas entre sítios arqueológicos e meio (natural e analítico), e cujo resultado (síntese dialética) compreenderia a noção de evento arqueológico. Diante da explicitação da variabilidade envolvida na caracterização do Registro Arqueológico Regional (RAR), bem como, dos condicionantes complexos derivados da estrutura, dinâmica e evolução da paisagem, o evento arqueológico considerado na tese, compreendeu a investigação da probabilidade de preservação de sítios costeiros antigos (teoria de formação) e do seu potencial de detecção (teoria de recuperação). Neste sentido foi utilizado o raciocínio abdutivo para gerar hipóteses sobre a preservação ou não de sítios encobertos, tendo por base os modelos sedimentares e morfoestratigraficos produzidos para a costa sul-sudeste. Por sua vez, a busca de indicadores nas planícies costeiras de Guaratuba-PR e de Caraguatatuba SP, possibilitou apontar condicionantes (variáveis) favoráveis a geração de um modelo de trapeamento de sítios (capeamento e preservação sedimentar) para a região da Baía de Guaratuba. Por fim, foi testado o raciocínio probabilístico Bayesiano e a Teoria de Evidências (Dempster-Shafer) para a inclusão e representação da incerteza na pesquisa de sambaquis, visualizando um método de tratamento das evidências e inferências geradas em sistemas baseados em conhecimento. Esses mesmos métodos também permitiram determinar os pesos para os diferentes indicadores, e as condições de necessidade, suficiência e ambigüidade das variáveis na geração de mapas aplicados à predição da favorabilidade e suscetibilidade de sítios arqueológicos enterrados na planície costeira de Guaratuba. / This thesis refers to a proposal for a geoarchaeological approach focused on the study of coastal archaeological sites, concentrating on theoretical and methodological assumptions related to a closeness between the archeology, the Information Sciences and Geosciences. It aimed in a first moment, to insert issues and problems concerning the need for inclusion of uncertainty in archaeological reasoning and practice, foreseeing the possibilities of their treatment. In this sense, the perception of the \"no information problem\" was the argument for the conceptual development of a model of dialectical thinking about the acquisition, generation, selection and transmission of information in the discipline. Accordingly, the need for constant interaction between Formation and Recovery Theories became an essential step to the control of informational losses and gains, and the treatment of imperfections, incompleteness, inaccuracies and ambiguities relating to archaeological phenomena and their scientific record. One of the aspects exploited, is the perception of slants and uncertainties involved in the interpretation of coastal activities, notably on issues of origin and migration of the first people in those areas. In a current dichotomic model between the interior and the coast, where even the oldest sites (only sambaquis) are found placed on the surface of the land, the perception of the complexity and dynamics of the coastal systems, is restricted to the framework of these sites in a succession of geomorphic and paleogeographics \"scenarios\". Thus, little attention is given to the dynamic agents consequences on the configuration and selection of sites in the coastal landscape, and the possibility of occurrence and detection of different classes of sites, which were preserved indepth by a sedimental capstone process. Therefore, in a second moment, it was proposed to use the concept of \"geoarchaeological control \" (GC) in the study and explanation of natural and analytical conditions involved in a research of regional manner, whose focus is on the informational relations established between archaeological sites and the environment (natural and analytical), whose result (dialectical synthesis) understand the concept of the archaeological event. Given the explicit characterization of the variability involved in the Regional Archaeological Record (RAR), as well as the complex condition agent derived from the structure, dynamics and evolution of the landscape, the archaeological event considered in the thesis, understand the research of the probability of preservation of ancient coastal sites (formation theory) and its potential for detection (recovery theory). In this sense abdutive reasoning was used to generate hypotheses about the preservation or not of covered sites, based on the sedimentary and morphostratigraphic models produced for the south-southeast coast. In turn, the search for indicators in the coastal plains of Guaratuba- PR and Caraguatatuba-SP, it made possible to point constraints (variables) favorable to the generation of a trap model for sites (sedimental capstone and preservation) for the region of Guaratuba Bay. Finally it was tested the probabilistic bayesian reasoning and Evidence Theory (Dempster-Shafer) for the inclusion and representation of uncertainty in the research of sambaquis foreseeing a method of treatment of the evidence and inferences generated by knowledge-based systems. These methods also allowed to determine the weights for different indicators, and the conditions of necessity, sufficiency and ambiguity of the variables in the generation of maps applied to the prediction of favorability and susceptibility of buried archaeological sites in the coastal plain of Guaratuba.
372

[en] COLORIMETRY: PROPAGATION OF ERRORS AND UNCERTAINTY CALCULATIONS IN SPECTROPHOTOMETRIC MEASUREMENTS / [pt] COLORIMETRIA: PROPAGAÇÃO DOS ERROS E CÁLCULO DA INCERTEZA DE MEDIÇÃO NOS RESULTADOS ESPECTROFOTOMÉTRICOS

GUTEMBERG BRUNO DA SILVA 15 June 2004 (has links)
[pt] Colorimetria - Propagação de erros e cálculo da incerteza da medição nos resultados espectrofotométricos trata da medição da cor de objetos, baseada nas medições de irradiância espectral (objetos luminosos) ou de refletância ou transmitância espectral (objetos opacos ou transparentes), seguidas por cálculos colorimétricos conforme o sistema CIE. As medições são normalmente feitas em intervalos de 5nm (ou 10 nm) na faixa espectral de 360 a 780nm, e os três valores triestímulos (X, Y e Z) são calculados usando-se 42-84 pontos medidos por equações padrões. A distribuição dos valores medidos R(lambda) é, provavelmente, normal, com uma correlação entre os valores obtidos variável em posições diferentes do espectro. As distribuições dos valores e as correlações entre X, Y e Z são desconhecidas e dependem da forma da curva espectral da cor e do funcionamento dos instrumentos de medição. No controle instrumental das cores são usadas fórmulas muito complexas, baseadas nas transformações não lineares dos valores X, Y e Z em L*, a*, b*, C* e h°. A determinação da incerteza dos resultados dados em coordenadas CIELAB ou expressos em fórmulas de diferenças (delta)E*, (delta) ECMC ou CIE (delta) E2000 é fundamental no controle instrumental das cores em qualquer indústria. À base de um número elevado de medições repetidas de várias amostras têxteis e padrões cerâmicos, são analisadas a distribuição e outras características estatísticas dos valores R(lambda) diretamente medidos, e - usando o método de propagação de erros - são calculadas as incertezas das medições em termos colorimétricos. A pesquisa de mestrado objeto do presente trabalho desenvolve- se sob a égide de um convênio de cooperação que o Programa de Pós-Graduação em Metrologia da PUC-Rio está celebrando com o SENAI/CETIQT, viabilizado a inclusão dessa pesquisa dentre os dez projetos-piloto que participaram do Convênio FINEP/MCT número 22.01.0692.00, Referência 1974/01, que aportou recursos do Fundo Setorial Verde Amarelo para direcionar o esforço de pesquisa em metrologia para a solução de um problema de interesse do setor têxtil que fez uso de conhecimentos avançados de metrologia da cor. Relacionado à demanda de medições espectrofotométricas com elevado controle metrológico, o desenvolvimento e a orientação acadêmico-científica da presente dissertação de mestrado deu-se nas instalações do SENAI/CETIQT, que possui comprovada competência técnica e científica na área e uma adequada infra-estrutura laboratorial em metrologia da cor de suporte ao trabalho. / [en] Colorimetry - Propagation of Errors and Uncertainty Calculations in Spectrophotometric Measurements treats the measurement of the colour of objects, based on the measurement of spectral irradiance (self-luminous objects) or that of spectral reflectance or transmittance (opaque or transparent objects), followed by colorimetric calculations according to the CIE system. Measurements are generally made in 5nm (or 10 nm) intervals in the spectral range of 360 to 780nm, and the 3 tristimulus values (X, Y and Z) are calculated from the 42-84 measurement points by standard equations. The statistical distribution of the measured R (lambda) values is probably normal; the correlation between the values varies depending on their position in the spectrum. The distribution of and the correlation between the X, Y and Z values are not known and they depend on the form of the spectral curve of each colour and on the operation of the measuring instrument. Complex formulae are used in the instrumental control of colours based on non-linear transformations of the X, Y and Z values into L*a*b*C*h°. The determination of the uncertainty of the results given in CIELAB coordinates or expressed in one of the colour difference formulae (delta)E*, (delta)ECMC or CIE(delta) E2000 is fundamental in the instrumental control of colours in any industry. Based on a large number of repeated measurements of different textile samples and ceramic standards, the distribution and other statistical characteristics of the directly measured R(lambda) values are analysed and - using the propagation of errors method - the uncertainties are calculated in colorimetric terms. The present research, a M. Sc. Dissertation work, was developed under the auspices of a co-operation agreement celebrated between the Post-graduate Programme in Metrology of PUC-Rio and SENAI/CETIQT, allowing for the inclusion of this M.Sc. Dissertation among the ten pilot projects which benefited from the financial support received from the FINEP/MCT Agreement number 22.01.0692.00, Reference 1974/01 (Fundo Verde-Amarelo). The project aims at driving the research effort in metrology to the solution of industrial problems, in this case the solution of a problem identified within the textile sector which requires to its solution advanced knowledge of colour metrology. Related the spectrophotometer measurements under the highest level of metrological control, the development and academic-scientific supervision of this M. Sc. Dissertation was performed at the laboratory facility of SENAI/CETIQT, an institution with proven technical and scientific competence in the field having sophisticated and well equipped laboratories in colour metrology meeting the measurement requirements needed to support the development of this research.
373

Human-help in automated planning under uncertainty / Ajuda humana em planejamento automatizado sob incerteza

Franch, Ignasi Andrés 21 September 2018 (has links)
Planning is the sub-area of artificial intelligence that studies the process of selecting actions to lead an agent, e.g. a robot or a softbot, to a goal state. In many realistic scenarios, any choice of actions can lead the robot into a dead-end state, that is, a state from which the goal cannot be reached. In such cases, the robot can, pro-actively, resort to human help in order to reach the goal, an approach called symbiotic autonomy. In this work, we propose two different approaches to tackle this problem: (I) contingent planning, where the initial state is partially observable, configuring a belief state, and the outcomes of the robot actions are non-deterministic; and (II) probabilistic planning, where the initial state may be partially or totally observable and the actions have probabilistic outcomes. In both approaches, the human help is considered a scarce resource that should be used only when necessary. In contingent planning, the problem is to find a policy (a function mapping belief states into actions) that: (i) guarantees the agent will always reach the goal (strong policy); (ii) guarantees that the agent will eventually reach the goal (strong cyclic policy), or (iii) does not guarantee achieving the goal (weak policy). In this scenario, we propose a contingent planning system that considers human help to transform weak policies into strong (cyclic) policies. To do so, two types of human help are included: (i) human actions that modify states and/or belief states; and (ii) human observations that modify belief states. In probabilistic planning, the problem is to find a policy (a function mapping between world states and actions) that can be one of these two types: a proper policy, where the agent has probability 1 of reaching the goal; or an improper policy, in the case of unavoidable dead-ends. In general, the goal of the agent is to find a policy that minimizes the expected accumulated cost of the actions while maximizes the probability of reaching the goal. In this scenario, this work proposes probabilistic planners that consider human help to transform improper policies into proper policies however, considering two new (alternative) criteria: either to minimize the probability of using human actions or to minimize the expected number of human actions. Furthermore, we show that optimal policies under these criteria can be efficiently computed either by increasing human action costs or given a penalty when a human help is used. Solutions proposed in both scenarios, contingent planning and probabilistic planning with human help, were evaluated over a collection of planning problems with dead-ends. The results show that: (i) all generated policies (strong (cyclic) or proper) include human help only when necessary; and (ii) we were able to find policies for contingent planning problems with up to 10^15000 belief states and for probabilistic planning problems with more than 3*10^18 physical states. / Planejamento é a subárea de Inteligência Artificial que estuda o processo de selecionar ações que levam um agente, por exemplo um robô, de um estado inicial a um estado meta. Em muitos cenários realistas, qualquer escolha de ações pode levar o robô para um estado que é um beco-sem-saída, isto é, um estado a partir do qual a meta não pode ser alcançada. Nestes casos, o robô pode, pró-ativamente, pedir ajuda humana para alcançar a meta, uma abordagem chamada autonomia simbiótica. Neste trabalho, propomos duas abordagens diferentes para tratar este problema: (I) planejamento contingente, em que o estado inicial é parcialmente observável, configurando um estado de crença, e existe não-determinismo nos resultados das ações; e (II) planejamento probabilístico, em que o estado inicial é totalmente observável e as ações tem efeitos probabilísticos. Em ambas abordagens a ajuda humana é considerada um recurso escasso e deve ser usada somente quando estritamente necessária. No planejamento contingente, o problema é encontrar uma política (mapeamento entre estados de crença e ações) com: (i) garantia de alcançar a meta (política forte); (ii) garantia de eventualmente alcançar a meta (política forte-cíclica), ou (iii) sem garantia de alcançar a meta (política fraca). Neste cenário, uma das contribuições deste trabalho é propor sistemas de planejamento contingente que considerem ajuda humana para transformar políticas fracas em políticas fortes (cíclicas). Para isso, incluímos ajuda humana de dois tipos: (i) ações que modificam estados do mundo e/ou estados de crença; e (ii) observações que modificam estados de crenças. Em planejamento probabilístico, o problema é encontrar uma política (mapeamento entre estados do mundo e ações) que pode ser de dois tipos: política própria, na qual o agente tem probabilidade 1 de alcançar a meta; ou política imprópria, caso exista um beco-sem-saída inevitável. O objetivo do agente é, em geral, encontrar uma política que minimize o custo esperado acumulado das ações enquanto maximize a probabilidade de alcançar a meta. Neste cenário, este trabalho propõe sistemas de planejamento probabilístico que considerem ajuda humana para transformar políticas impróprias em políticas próprias, porém considerando dois novos critérios: minimizar a probabilidade de usar ações do humano e minimizar o número esperado de ações do humano. Mostramos ainda que políticas ótimas sob esses novos critérios podem ser computadas de maneira eficiente considerando que ações humanas possuem um custo alto ou penalizando o agente ao pedir ajuda humana. Soluções propostas em ambos cenários, planejamento contingente e planejamento probabilístico com ajuda humana, foram empiricamente avaliadas sobre um conjunto de problemas de planejamento com becos-sem-saida. Os resultados mostram que: (i) todas as políticas geradas (fortes (cíclicas) ou próprias) incluem ajuda humana somente quando necessária; e (ii) foram encontradas políticas para problemas de planejamento contingente com até 10^15000 estados de crença e para problemas de planejamento probabilístico com até 3*10^18 estados do mundo.
374

[en] ACCESS TO INFORMATION, PUBLIC OPINION AND POLITICAL INCENTIVES / [pt] ACESSO À INFORMAÇÃO, OPINIÃO PÚBLICA E INCENTIVOS POLÍTICOS

DANIEL RIBEIRO DE SOUZA CARVALHO 19 July 2004 (has links)
[pt] Neste trabalho é desenvolvida uma teoria sobre como a opinião pública influencia as decisões de política econômica implementadas por governantes em uma economia. Mostra-se que a distribuição na população do acesso à informação a respeito das decisões dos governantes pode ter grande impacto sobre a forma como a opinião pública influencia essas decisões. Busca-se assim explicar como diferenças na maneira pela qual a informação a respeito das decisões dos governantes é difundida na população de uma economia podem gerar importantes mudanças nas decisões de política econômica nela implementadas. A análise é apresentada a partir de um modelo de career concern onde governantes tomam decisões de política econômica envolvendo um conflito de interesses entre grupos que observam imperfeitamente suas decisões. Os resultados obtidos permitem explicar o fato aparentemente contraditório de determinados países da América Latina apresentarem simultaneamente um favorecimento arraigado de grupos abastados por parte da estrutura de gastos públicos e uma alta incerteza associada às decisões de política econômica. Eles também permitem se propor um canal explicando como a distribuição do acesso à informação sobre os governantes pode reduzir a taxa de crescimento de uma economia e assim limitar seu desenvolvimento. Ressalta-se então a importância das instituições políticas e do comportamento da imprensa para países em desenvolvimento. / [en] A theory explaining how public opinion may impact the choice of economic policies made by incumbents is developed in this work. Mentioned impact it s shown to be influenced in important ways by the distribution of access to information about incumbent s choices in the population. Thus, the importance of that distribution for economic policies chosen by politicians in an economy is highlighted. The analysis is based on a career concern model where incumbents choose an economic policy involving conflicting interests among voters who are imperfectly informed about their decisions. Based on the obtained results, an explanation for a fact observed in many Latin American countries it s provided. In those countries, although wealthier groups of society are systematically favored by governmental spending, there is a high degree of uncertainty associated with economic policies chosen by governments. A mechanism explaining how the distribution of access to information about incumbent s choices can hinder economic growth and development in an economy is also presented. The analysis suggests that media behavior and the design of political institutions are important factors for the economic development of developing countries.
375

Hipóteses sobre a elevada taxa de juros brasileira: uma abordagem pós-keynesiana

Perfeito, André Guilherme Pereira 29 August 2013 (has links)
Made available in DSpace on 2016-04-26T20:48:39Z (GMT). No. of bitstreams: 1 Andre Guilherme Pereira Perfeito.pdf: 3054360 bytes, checksum: 8d87f333e047a6920da6f98fa9d61477 (MD5) Previous issue date: 2013-08-29 / This work aim to organize the main contributions of Brazilian economists (both orthodox and heterodox) about the high interest rates level in Brazil under the current economic crises (2008-2013), and also point out the Keynesian critic about those readings under the Liquid Preference theory of interest. To achieve this goal the work is divided in 3 chapters and also a conclusion where we state our opinion about the high level of interest rate in Brazil and point out problems for further research / O presente trabalho busca trazer as contribuições de economistas brasileiros (tanto ortodoxos como heterodoxos) sobre a persistência de elevadas taxas de juros no Brasil à luz da conjuntura econômica recente (2008 a 2013) bem como fornecer um contrapronto crítico sob o ponto de vista da literatura keynesiana onde temos no corolário da Preferência pela Liquidez os fundamentos da taxa de juros monetária. Para tanto organizamos a presente dissertação em três capítulos mais uma conclusão onde apontaremos nossa própria opinião sobre as teses apresentadas bem com sugestões de encaminhamento sobre o tema
376

Determinação de tração em vôo através do método do erro residual.

Rafael Mattar Machiaverni 31 March 2008 (has links)
Uma metodologia para Determinação de Tração em Vôo é apresentada. Trata-se de uma variação do Método do Erro Residual, um dos métodos de Análise do Escoamento/Bocal apresentados no documento SAE AIR 1703A. Na medida em que o valor de tração não é uma medida direta, o método procura minimizar os desvios do resultado dos cálculos, que levam em considerações medições nos bocais do motor, em relação ao valor real. Para isso, são utilizados ensaios em solo, em que se comparam resultados calculados e medidos em bancada. O resultado dessa comparação é um escalar, o FPC, aplicado à razão de pressão no Fan de modo a minimizar os erros de vazão mássica e de tração líquida em relação aos valores calculados. Para cada razão de pressão no Fan (FPR) é obtido um FPC a partir da minimização de uma função que considera o erro residual de tração e vazão em solo. A metodologia apresentada propõe o uso de diferentes pesos para os desvios de tração e vazão. O procedimento é implementado através de rotinas em VISUAL BASIC, no ambiente do MICROSOFT EXCEL. Tais rotinas são usadas com dados de ensaios em vôo e em solo para dois motores de mesmo modelo usados na aviação comercial. Inicialmente, os dados de ensaios são utilizados para a determinação de dados de FPC e tração e vazão em vôo. É possível verificar a repetibilidade do método e a variação da tração líquida com parâmetros como rotação do Fan, altitude e Mach. Em seguida, analisa-se a variação dos pesos da tração e da vazão na determinação de FPC e nos valores finais de tração líquida e vazão mássica. Com esses dados, verifica-se a sensibilidade dos erros residuais para o ensaio em solo e a variação dos valores finais de tração e vazão em relação aos valores de pesos. Finalmente, são feitas considerações sobre o uso da metodologia proposta em uma campanha de ensaios em vôo.
377

Análise dos resultados de ensaios de proficiência via modelos de regressão com variável explicativa aleatória / Analysis of proficiency tests results via regression models with random explanatory variable

Montanari, Aline Othon 21 June 2004 (has links)
Em um programa de ensaio de prociência (EP) conduzido pelo Grupo de Motores, um grupo de onze laboratórios da área de temperatura realizaram medições em cinco pontos da escala de um termopar. Neste trabalho, propomos um modelo de regressão com variável explicativa X (aleatória) representando o termopar padrão que denominaremos por artefato e a variável dependente Y representando as medições dos laboratórios. O procedimento para a realização da comparação é simples, ambos termopares são colocados no forno e as diferenças entre as medições são registradas. Para a análise dos dados, vamos trabalhar com a diferença entre a diferença das medições do equipamento do laboratório e o artefato, e o valor de referência (que é determinado por 2 laboratórios que pertencem a Rede Brasileira de Calibração (RBC)). O erro de medição tem variância determinada por calibração, isto é, conhecida. Assim, vamos encontrar aproximações para as estimativas de máxima verossimilhança para os parâmetros do modelo via algoritmo EM. Além disso, propomos uma estratégia para avaliar a consistência dos laboratórios participantes do programa de EP / In a program of proficiency assay, a group of eleven laboratories of the temperature area had carried through measurements in ¯ve points on the scale of the thermopair. In this work, we propose a regression model with a random explanatory variable representing the temperature measured by the standard thermopair, which will be called device. The procedure for the comparison accomplishment is as follows. The device and the laboratory\'s thermopair to be tested are placed in the oven and the difererences between the measurements are registered. For the analysis of the data, the response variable is the diference between those diference and the reference value, which is determined by two laboratories that belong to the Brazilian Net of Calibration (RBC). The measurement error has variance determined by calibration which is known. Therefore, we ¯and the maximum likelihood estimates for the parameters of the model via EM algorithm. We consider a strategy to establish the consistency of the participant laboratories of the program of proficiency assay
378

Essays on long memory processes. / Ensaios sobre processos de memória longa.

Fernandes Neto, Fernando 28 November 2016 (has links)
The present work aims at discussing the main theoretical aspects related to the occurrence of long memory processes and its respective application in economics and finance. In order to discuss the main theoretical aspects of its occurrence, it is worth starting from the complex systems approach and emergent phenomena, keeping in mind that many of these are computationally irreducible. In other words, the current state of the system depends on all previous states, in such a way that any change in the initial configuration must cause a significant difference in all posterior states. That is, there is a persistence of information over time - this is a concept directly related to long memory processes. Hence, based on complex systems simulations, three factors (possibly there are many others) were related to the rise of long memory processes: agents\' heterogeneity, occurrence of large deviations from the steady states (in conjunction with the motion laws of each system) and spatial complexity (which must influence on information propagation and on the dynamics of agents competition). In relation to the applied knowledge, first it is recognized that the explanatory factors for the rise of long memory processes are common to the structures/characteristics of real markets and it is possible to identify potential stylized facts when filtering the long memory components from time series - a considerable part of information present in time series is a consequence of the autocorrelation structure, which is directly related to the specificities of each market. Given that, in this thesis was developed a new risk contagion technique that does not need any further intervention. This technique is basically given by the calculation of rolling correlations between long memory filtered series of the conditional variances for different economies, such that these filtered series contain the stylized facts (risk peaks), free from possible overreactions caused by market idiosyncrasies. Then, based on the identification of risk contagion episodes related to the 2007/2008 Subprime Crisis in the U.S. and its respective contagion to the Brazilian economy, it was filtered out from the conditional variance of the Brazilian assets (which are an uncertainty measure) aiming at eliminating the contagion episodes and, consequently, it was made a counterfactual projection of what would have happened to the Brazilian economy if the risk contagion episodes had not occurred. Moreover, in conjunction with the evolutionary trend of the Brazilian economy prior to the crisis, it is possible to conclude that 70% of the economic crisis posterior to the 2008 events was caused by macroeconomic policies and only 30% is due to the effects of risk contagion episodes from the U.S. / O presente trabalho tem como objetivo discutir os principais aspectos teóricos ligados à ocorrência dos processos de memória longa e sua respectiva aplicação em economia e finanças. Para discutir os principais aspectos teóricos da sua ocorrência, recorre-se primeiramente à abordagem de sistemas complexos e fenômenos emergentes, tendo em vista que muitos destes são irredutíveis computacionalmente, ou seja, o estado atual do sistema depende de todos os estados anteriores, tal que, qualquer mudança nos instantes iniciais deve causar significativa diferença nos estados posteriores. Em outras palavras, há uma persistência da informação - conceito este intimamente ligado à memória longa. Portanto, com base em simulações de sistemas complexos computacionais, três fatores (podendo haver outros mais) foram relacionados ao surgimento de processos de memória longa: heterogeneidade dos agentes, ocorrência de grandes desvios do equilíbrio do sistema (em consonância com as respectivas leis do movimento de cada sistema estudado) e a complexidade espacial (que deve influenciar na propagação da informação e na dinâmica competitiva dos agentes). Em relação à aplicação do conhecimento, primeiro é reconhecido que os fatores explicativos para o surgimento de processos de memória longa são inerentes a estruturas/características de mercados reais e que é possível identificar potenciais fatos estilizados, ao filtrar as componentes de memória longa de séries temporais - grande parte da informação presente nas séries é função da estrutura de autocorrelação que advém das especificidades de cada mercado. Com base nisso, nesta tese foi desenvolvida uma nova técnica de estimação de contágio de risco, que não necessita intervenções adicionais, tendo em vista a identificação prévia de potenciais fatos estilizados em diferentes economias, utilizando as séries filtradas de variância condicional, tal que a partir destas séries filtradas é calculada uma correlação com horizonte móvel de observações entre choques (picos de risco) de curto prazo livres de possíveis reações causadas por idiossincrasias de cada mercado. Posteriormente, com base na identificação dos episódios ligados à Crise do Subprime de 2007/2008 nos Estados Unidos e seu respectivo contágio para a economia brasileira, filtrou-se a variância condicional dos ativos brasileiros (que é uma medida de incerteza), objetivando-se eliminar os eventos de contágio e, consequentemente, foi feita uma projeção contrafactual da evolução da economia, caso os episódios da crise não tivessem ocorrido. Com base nestes dados e com uma análise da tendência evolutiva da economia brasileira no período anterior à crise, constatou-se que 70% da crise econômica vivenciada no Brasil no período pós-2008 é decorrente de falhas na condução da política macroeconômica e somente 30% decorre dos efeitos do cenário externo na economia.
379

Caracterização do perfil de residentes no enfrentamento das incertezas clínicas relacionadas com o atendimento médico / How do residents in a general hospital in Brazil react to clinical uncertainty?

Levites, Marcelo Rozenfeld 04 May 2015 (has links)
Objetivo: Caracterizar o perfil de percepções e atitudes de médicos residentes frente às diferentes situações geradoras de incertezas na prática assistencial aos pacientes. Método: Estudo descritivo, comparativo e transversal. Amostra não aleatória de 90 residentes da instituição. O estudo foi conduzido entre abril e julho de 2013. Para a avaliação da percepção do enfrentamento da incerteza no cenário clínico foi realizada usando a escala \"Physician Reaction\'s to Uncertainty\", após realizados uma tradução transcultural para português do Brasil. A \"Physician Reaction\'s to Uncertainty\", contém 15 itens que são respondidos de acordo com a variante de escala de Likert de seis pontos (discorda completamente = 1; concorda plenamente = 6). Avaliamos os residentes de acordo com o gênero; idade, menores de 26 anos e 26 anos ou maiores; residentes de primeiro ano comparados com os segundo e terceiro anos e residentes clínicos comparados com os cirurgiões, ortopedistas e ginecologistas/obstetras. Resultados: As residentes mulheres mais jovens e os com menos tempo de treinamento (residentes do primeiro ano), tiveram uma pior percepção do enfrentamento da incerteza na atuação clínica quando comparados aos homens (p=0,002) aos >= 26 anos (p= 0,001) e com mais tempo de treinamento (p < 0,001). Não houve diferença entre os residentes clínicos comparados com os de ortopedia, cirurgia e ginecologia obstetrícia (p=0,792). Conclusões: Os médicos residentes mais jovens e com menor tempo de prática merecem um uma atenção especial para um melhor enfrentamento da incerteza na atuação clínica. São eles que apresentam as maiores dificuldades com o tema. Atuar junto a professores mais experientes e a inserção da formação humanística e filosófica podem ajudar aos colegas residentes com menos prática na medicina / Purpose: The aim of this study was to develop a characterization profile of the perceptions and attitudes of resident physicians in a general hospital in São Paulo, Brazil addressing the uncertainties related to the care of patients. Methods: Descriptive, comparative and cross-sectional study conducted from April to July 2013 with a convenience sample of 90 medical residents who completed the Physicians´ Reactions to Uncertainty (PRU) scale and provided demographic variables of gender, age and specialty. Results: Comparing the Physician´s Reaction to Uncertainty score, authors identified a significant difference between age, year of residence and gender. Physicians who were female, less than 26 years old and who were in their first year of residency and had greater clinical uncertainty than men (p=0.002), older residents (p= 0,001), those in their second and third year of residency (p < 0,001). There were no significant differences by medical speciality (p=0,792). Conclusion: Practical experience and age are important factors in clinical uncertainty in residence groups. The longer physicians are in practice, the less uncertainty they will experience. Ways to decrease the anxiety of and reluctance to disclose uncertainty to patient can include: 1) Practice together with experience doctors; 2) Clinical epidemiology; 3) knowledge of philosophy and 4) Humanistic teaching
380

Determinação entrópica do preço racional da opção européia simples ordinária sobre ação e bond: uma aplicação da teoria da informação em finanças em condição de incerteza / Entropic approach to rational pricing of the simple ordinary option of european-type over stock and bond: an application of information theory in finance under uncertainty

Siqueira, José de Oliveira 17 December 1999 (has links)
Esta tese promove uma integração entre Finanças e Teoria de Informação para criação de um ambiente alternativo para a determinação do preço racional da opção européia simples ordinária sobre ação e ativo de renda fixa (bond). Uma das características deste novo ambiente de determinação de preço racional é poder continuar utilizando o cálculo newtoniano em vez do estocástico. Cria uma notação matemática precisa e completa para a Teoria da Informação e a integra com a teoria de Finanças em condições de incerteza. Integra as abordagens entrópicas de determinação do preço racional da opção européia simples ordinária de Gulko (1998 e 1998a) e de Yang (1997). Define precisamente o mundo com preço da incerteza neutralizado (risk-neutral world), o mundo martingale, o mundo informacionalmente eficiente e o mundo entrópico e suas implicações para a Ciência do Investimento e, mais especificamente, para a determinação do preço racional de ativos básicos e derivativos. Demonstra detalhadamente a fórmula do preço racional da opção européia simples ordinária de Black-Scholes-Merton, melhorando a notação matemática, simplificando (eliminando a abordagem martingale) e complementando a demonstração feita por Baxter & Rennie (1998). Interrompe uma sucessão de trabalhos que estabelecem uma forma equivocada de calcular o preço da opção européia simples ordinária. Esse erro teve sua origem, muito provavelmente, numa edição de Brealey & Myers, que equivocadamente utilizou um resultado de Cox & Rubinstein (1985); esse resultado facilitava o cálculo do preço racional da opção européia simples ordinária por meio de uma tabela que evita o uso direto da fórmula de Black-Scholes-Merton. Brealey & Myers (desde a quarta edição de 1991), Luehrman (nos seus dois artigos da HBR de 1998 e um caso de 1995 pela HBS) e Edleson (caso publicado em 1994 pela HBS) ensinam que o valor percentual encontrado nessa tabela deve ser multiplicado pelo preço do valor mobiliário, quando deveria ser multiplicado pelo valor presente do preço de exercício. Os resultados mais importantes desta tese para Finanças são: (i) desenvolvimento de um método alternativo, robusto e parcimonioso, baseado no princípio da máxima entropia da Teoria da Informação e do Sistema de Distribuições de Pearson para obtenção de uma única medida de probabilidade neutralizadora do preço da incerteza (risk-neutral probability), (ii) obtenção de fórmula prática para a determinação do preço racional da opção européia simples ordinária para ação, (iii) validação da fórmula de Black-Scholes-Merton para ação, (iv) obtenção de uma fórmula adequada para a determinação do preço racional da opção européia simples ordinária sobre um título de renda fixa (bond), (v) estimação da volatilidade implícita entrópica do preço do valor mobiliário e (vi) definição e estimação do valor em risco (value at risk) entrópico. Há ainda dois resultados importantes para a Teoria da Informação e Economia: (i) distinção mais precisa entre incerteza e risco e (ii) desenvolvimento da medida de ganho informacional da previsão aprimorando o resultado de Theil (1967) e Benish (1999) pela utilização do conceito de divergência de Kullback-Leibler. / This thesis integrates Finance and Information Theory in order to create an alternative environment to the calculation of the rational price of the simple ordinary European option over stocks and bonds. One of the features of this new environment is to allow us to continue using the Newtonian calculus instead of the stochastic one. It creates a precise and complete mathematical notation for the Information Theory and integrates it with the Finance Theory under uncertainty conditions. It integrates Gulko’s (1998 and 1998a) and Yang’s (1997) entropic approaches to the calculation of the rational price of the simple ordinary European option. It precisely defines the uncertainty-price-neutral world (risk-neutral world), the martingale world, the informationally efficient world and the entropic world and their implications to the Investment Science and, more specifically, to the calculation of the rational price of ordinary assets and derivatives. It demonstrates with details the Black-Scholes-Merton formula of the rational price of the simple ordinary European option, improves the mathematical notation, simplifies it (by eliminating the martingale approach) and completes the demonstration done by Baxter & Rennie (1998). It breaks a succession of works that established a mistaken way to calculate the price of the simple ordinary European option. This mistake had its origin, much probably, in an edition of Brealey & Myers, who erroneously used a result from Cox & Rubinstein (1985). This result facilitates the calculation of the rational price of the simple ordinary European option by using a table that avoids the direct usage of the Black-Scholes-Merton formula. Brealey & Myers (since the 1991 fourth edition), Luehrman (in his two 1998 articles in HBR and in a 1995 case in HBS) and Edleson (1994 case published in HBS) teach that the percentage value found in this table must be multiplied by the price of the asset, when in reality it should have been multiplied by the present value of the strike price. The most important results of this thesis for Finance are: (i) development of a robust and economic alternative method, based on the maximum-entropy principle of the Information Theory and on Pearson’s Distribution System, to the calculation of a unique uncertainty-price-neutral probability measure (risk-neutral probability), (ii) achievement of a practical formula to the calculation of the rational price of the simple ordinary European option on stocks, (iii) validation of the Black-Scholes-Merton formula on stocks, (iv) achievement of an adequate formula to the calculation of the rational price of the simple ordinary European option on bonds, (v) estimation of the implied entropic volatility of the price of an asset and (vi) definition and estimation of the entropic value-at-risk. There are still two important results to the Information Theory and to Economics: (i) a more precise distinction between uncertainty and risk and (ii) development of the forecast informational gain, an enhancement of the result of Theil (1967) and Benish (1999) by using the Kullback-Leibler divergence concept.

Page generated in 0.0338 seconds