801 |
Réponse linéaire dynamique et auto-cohérente des atomes dans les plasmas quantiques : photo-absorption et effets collectifs dans les plasmas denses / Self-consistent dynamical linear response of atoms in quantum plasmas : photo-absorption and collective effects in dense plasmasCaizergues, Clément 24 April 2015 (has links)
Dans la modélisation de la matière dense, et partiellement ionisée, une question importante concerne le traitement des électrons libres. Vis-à-vis des électrons liés, la nature délocalisée et non discrète de ces électrons est responsable d’une différence de traitement, qui est souvent effectuée dans les modélisations des propriétés radiatives des plasmas. Cependant, afin d’éviter les incohérences dans le calcul des spectres d’absorption, tous les électrons devraient, en principe, être décrits dans un même formalisme.Nous utilisons deux modèles variationnels d’atome-moyen : un modèle semi-classique, et un modèle quantique, qui permettent cette égalité de traitement pour tous les électrons. Nous calculons la section-efficace de photo-extinction, en appliquant le cadre de la théorie de la réponse linéaire dynamique à chacun de ces modèles d’atome dans un plasma. Pour cette étude, nous développons et utilisons une approche auto-cohérente, de type random-phase-approximation (RPA), qui, en allant au-delà de la réponse des électrons indépendants, permet d’évaluer les effets collectifs, par l’introduction de la polarisation dynamique. Cette approche s’inscrit dans le formalisme de la théorie de la fonctionnelle de la densité dépendant du temps (TDDFT), appliquée au cas d’un système atomique immergé dans un plasma.Pour les deux modèles, semi-classique et quantique, nous dérivons, et vérifions dans nos calculs, une nouvelle règle de somme, qui permet d’évaluer le dipôle atomique à partir d’un volume fini dans le plasma. Cette règle de somme s’avère être un outil de premier ordre pour le calcul des propriétés radiatives des atomes dans les plasmas denses. / In modeling dense and partially ionized matter, the treatment of the free electrons remains an important issue. Compared to bound electrons, the delocalized and non-discrete nature of these electrons is responsible to treat them differently, which is usually adopted in the modelings of radiative properties of plasmas. However, in order to avoid inconsistencies in the calculation of absorption spectra, all the electrons should be described in the same formalism.We use two variational average-atom models: a semi-classical and a quantum model, which allow this common treatment for all the electrons. We calculate the photo-extinction cross-section, by applying the framework of the linear dynamical response theory to each of these models of an atom in a plasma. For this study, we develop and use a self-consistent approach, of random-phase-approximation (RPA) type, which, while going beyond the independent electron response, permits to evaluate the collective effects by the introduction of the dynamical polarization. This approach uses the formalism of the time dependent density functional theory (TDDFT), applied in the case of an atomic system immersed in a plasma.For both models, semi-classical and quantum, we derive and verify in our calculations, a new sum rule, which allows the evaluation of the atomic dipole from a finite volume in the plasma. This sum rule turns out to be a crucial device in the calculation of radiative properties of atoms in dense plasmas.
|
802 |
Desenvolvimento de uma ferramenta computacional para avaliação da assistência hospitalar a partir de indicadores de qualidade / Development of a computational tool to evaluate hospital performance through inpatient quality indicatorsSouza, Júlio César Botelho de 25 February 2015 (has links)
Indicadores de qualidade hospitalar correspondem a medidas que contém informações relevantes sobre determinados atributos e dimensões que caracterizam a qualidade de diferentes instituições de saúde. Tais medidas são capazes de sinalizar eventuais deficiências ou práticas de sucesso associadas à qualidade dos serviços de saúde. O presente estudo teve por finalidade desenvolver uma ferramenta computacional de análise, voltada para o gerenciamento hospitalar, com o objetivo de se obter um instrumento que possa ser utilizado para monitorar e avaliar a qualidade dos serviços oferecidos por instituições hospitalares através da análise e gerenciamento de indicadores de qualidade hospitalar. Os indicadores alvo para avaliar a qualidade dos serviços representaram um subconjunto de indicadores de qualidade denominados Inpatient Quality Indicators (IQIs) da Agency for Healthcare Research and Quality (AHRQ). A partir da revisão bibliográfica de textos científicos na área e com base nas dimensões de processo e resultado do Modelo Donabediano, foram selecionados vinte e dois indicadores da AHRQ, que avaliam a mortalidade por determinadas afecções e procedimentos cirúrgicos, bem como a quantidade e a qualidade dos procedimentos realizados nas instituições de saúde. A ferramenta foi construída em dois módulos: um módulo responsável pela geração dos indicadores a partir de dados coletados de um banco de dados relacional; e outro destinado ao estudo e análise das séries temporais dos indicadores, permitindo o acompanhamento da evolução dos mesmos de forma histórica. Os dados utilizados para a geração dos indicadores são oriundos da base de dados do Observatório Regional de Atenção Hospitalar (ORAH), que consiste numa entidade responsável pelo processamento de dados de internação de quarenta hospitais públicos e privados, distribuídos ao longo de vinte e seis municípios da região de Ribeirão Preto, São Paulo, Brasil, que compõem a Departamento Regional de Saúde XIII (DRS-XIII). A ferramenta computacional foi concluída e validade com êxito e suas funcionalidades foram disponibilizadas para gestores de saúde e acadêmicos através do portal web de conteúdo vinculado ao ORAH. Em adição, os resultados obtidos através do uso da ferramenta foram utilizados para analisar a situação da assistência hospitalar na região de Ribeirão Preto através da comparação histórica dos indicadores entre as três microrregiões de saúde que compõem a DRS-XIII: Aquífero Guarani, Vale das Cachoeiras e Horizonte Verde. A análise destes resultados também foi essencial para verificar a capacidade da ferramenta em prover informações relevantes para a gestão hospitalar. A partir da análise dos resultados obtidos, concluímos que a ferramenta permite a definição de um panorama geral da assistência hospitalar na região de Ribeirão Preto. De acordo com os achados deste estudo, também verificamos que os indicadores de qualidade hospitalar da AHRQ cumpriram seu papel como medidas sentinela e foram capazes de identificar certos aspectos associados à realidade. Entretanto, a análise dos resultados também remeteu à necessidade de introduzir novas variáveis que permitam conhecer o real estado dos pacientes e as condições estruturais das diferentes instituições de saúde, visto que os indicadores selecionados, por si só, não fornecem aos gestores de saúde uma avaliação final da qualidade das instituições hospitalares. / Inpatient quality indicators are measures that provide relevant inforrnation on the level of quality of care delivered by hospitals and healthcare services. These measures are capable of signaling eventual problems or successful practices associated with the quality of care provided by health services. This project was aimed to create an instrument to assess the quality of care delivered by hospitals by developing a web application whose functionalities focused on monitoring a subset of inpatient quality indicators (IQIs), extracted from the Agency for Healthcare Research and Quality (AHRQ). Based on literature review and on the components of process and outcomes defined by the Donabedian model, there were selected twenty-two AHRQ\'s inpatient quality indicators that are commonly used to evaluate the mortality associated with certain conditions and procedures, as well as the quantity and quality of certain medical procedures. The software is composed by two components: one is responsible for calculating the indicators using admission data extracted from an operational database; the other one is meant for the study and analysis of time series of the indicators, which allows the monitoring of its values over the years. The indicators were ca1culated using administrative data from the Observatory for Hospital Care\'s database (ORAH, from the acronyrn in Portuguese \"Observatório Regional de Atenção Hospitalar\"). The Observatory for Hospital Care is responsible for processing admission data collected from forty hospitals located throughout Ribeirao Preto region, in the Brazilian state of Sao Paulo. The management of hospitals located in the Ribeirao Preto region is conducted by the Regional Department of Health XIII (DRS-XIII, from the acronyrn in Portuguese \"Departamento Regional de Saúde XIII). The web application\'s services were made available to health service administrators and academic personnel through the ORAH\'s website. The results provided by this computational tool were also used to analyze the situation of care delivered by the hospitals in Ribeirao Preto region, which is subdivided into three microregions: Aquifero Guarani, Horizonte Verde e Vale das Cachoeiras. The historic values of the indicators were compared between these three microregions. The analysis of these results was also important to verify whether the web application is actually able to provi de enough inforrnation to acknowledge the reality of the hospitals in Ribeirao Preto region. According to the results, we verified that the AHRQ\'s inpatient quality indicators have fulfilled their role in signalizing certain aspects related to the quality of care of the hospitals, but they do not provi de enough inforrnation to establish a defini tive quality assessment of hospital services. Therefore, we verified the need of introducing new attributes in order to understand and acknowledge the clinical condition of the hospitalized patients, as well as the structure and resources available in the hospitals.
|
803 |
Epistasia e parâmentros genéticos em ambientes com e sem estresse hídrico em milho / Epistasis and genetic parameters in environments with and without water stress in maizeAndrade, Melina Teixeira 06 April 2017 (has links)
Em estudos recentes, a epistasia tem sido detectada no controle genético de caracteres quantitativos em diversas espécies. Dado o grande número de locos controlando um único caráter, é evidente que ocorram interações inter-alélicas, além de pleiotropia, que resulta do controle de mais de um caráter por um mesmo loco. Também tem sido reportada a presença de epistasia pleiotrópica em animais, que basicamente resulta do efeito da epistasia sobre locos pleiotrópicos ou sobre múltiplos caracteres, afetando a correlação genética entre esses. Desse modo, o objetivo desta pesquisa foi a análise genética de diversos caracteres de importância econômica e agronômica em milho, incluindo estimativas de componentes de variância genética e presença de efeitos epistáticos em ambientes com e sem estresse hídrico; e estimativas de epistasia pleiotrópica. Para isso foi utilizado o delineamento triple test cross (TTC), obtendo-se 300 progênies de retrocruzamentos que foram avaliadas em oito ambientes nos anos agrícolas de 2008/2009 e 2009/2010, na cidade de Piracicaba, São Paulo, Brasil. Ao longo da condução dos experimentos observou-se a ocorrência de déficit hídrico, de modo que os ambientes foram divididos em dois grupos (sem estresse - SE e com estresse - CE). Avaliou-se os caracteres da planta: dias para os florescimentos masculino (FM) e feminino (FF), intervalo entre florescimentos (IF), altura da planta (AP) e espiga (AE), posição relativa da espiga (PRE), acamamento e quebramento de plantas (ACQ), stay green (SG); produção de grãos (PG) e seus componentes de produção: número de fileiras (NF), número de grãos por fileira (NGF), peso de 300 grãos (P300), comprimento de grãos (CG) e prolificidade (PRO). Foram realizadas análises de variâncias individuais para cada ambiente; análises conjuntas de ambientes; e análises conjuntas de grupos, das quais estimaram-se as variâncias aditiva, de dominância, epistática e suas respectivas interações com ambiente; o grau médio de dominância, coeficientes de herdabilidade em nível de médias de progênies e em nível de parcelas e também os efeitos epistáticos em plantas F2. Também foram feitas análises de covariâncias considerando todos os caracteres combinados dois a dois, tendo sido estimados os coeficientes de correlações. A epistasia foi detectada para a maioria dos caracteres nos dois grupos, exceto ACQ, IF, SG e CG, no grupo SE; e ACQ, CG e PRO, no grupo CE. Porém não foi detectada interação epistasia x ambiente em nenhum dos grupos e a interação epistasia x grupos só foi detectada para IF. Os efeitos epistáticos em plantas F2 para PG variaram de -3,03 t ha-1 a 5,13 t ha-1 no grupo SE e -1,94 t ha-1 a 2,87 t ha-1 no grupo CE, mas não foram detectadas altas magnitudes dos coeficientes de correlações entre esses efeitos e as médias gerais dos retrocruzamentos. Foram detectados coeficientes de correlações epistáticas para 29,67% das combinações, indicando a presença de epistasia pleiotrópica entre caracteres. Observou-se a formação de agrupamentos entre caracteres relacionados. Em vista desses resultados, a epistasia se constituiu num componente importante no controle dos caracteres analisados, sugerindo ainda que a epistasia pleiotrópica possa ser responsável pelas interações complexas no genoma. / In recent studies, epistasis has been considered in genetic control of quantitative traits in several species. Due to a large number of loci controlling a single trait, it is evident that inter allele interactions occur in addition to pleiotropy, which results in the control of more than one trait by the same locus. Besides, the presence of pleiotropy, epistasis has been reported in animals, which basically result from the effect of epistasis on pleiotropic loci or on multiple traits, affecting the genetic correlation between them. Thus, the objective of this research was to do genetic analysis of several traits of economic and agronomic importance in maize, including estimates of genetic variance components and the presence of epistatic effects in environments with and without water stress; and estimates of pleiotropic epistasis. For this, the triple test cross (TTC) design was used to obtain 300 backcrosses progenies, which were evaluated in eight environments in the 2008/2009 and 2009/2010 agricultural seasons, in Piracicaba, Sao Paulo State, Brazil. During the conduction of the experiments, the occurrence of water deficit was observed, so that the environments were divided into two groups (without stress - WS and with stress - SS). The traits evaluated were: days to anthesis (DA), days to silking (DS), anthesis-silking interval (ASI), plant height (PH), ear height (EH), ear placement (EP), root and stalk lodging (PL) and stay green (SG), grain yield (GY), kernel rows (KR), kernels per row (KPR), 300-grain weight (300W), kernel depth (KD) and prolificacy (PRO). Individual analysis of variances were performed for each environment; joint analysis of environments; and joint analysis of groups, from which additive, dominance and epistatic variances and their respective interactions with the environment were estimated; besides average degree of dominance, heritability coefficients at level of half-sib progenies and at plots level; also epistatic effects in F2 plants were estimated. Covariance analyses were also performed considering all pairs of traits, two by two, and the correlation coefficients were estimated. Epistasis was detected for most traits in both groups except to PL, ASI, SG and KD, in WS group; and PL, KD, and PRO, in SS group. However, no epistasis x environment interaction was detected in any group and epistasis x group interaction was detected only to ASI. Epistatic effects on F2 plants were detected to GY, oscillating from -3.03 t/ha to 5.13 t/ha in WS group and from -1.94 t/ha to 2.87 t/ha in SS group. However, high magnitudes of correlation coefficients between these F2 epistatic effects and averages of backcrosses were not detected. Epistatic correlation coefficients were detected for 29.67% of pairs of traits, indicating the presence of pleiotropic epistasis. The formation of clusters was observed between related traits. In view of these results, epistasis was considered an important component in the control of traits analyzed, furthermore suggesting that pleiotropic epistasis may be responsible for complex interactions in the genome.
|
804 |
Modelos black-litterman e GARCH ortogonal para uma carteira de títulos do tesouro nacional / Black-Litterman and ortogonal GARCH models for a portfolio of bonds issued by the National TreasuryLobarinhas, Roberto Beier 02 March 2012 (has links)
Uma grande dificuldade da gestão financeira é conseguir associar métodos quantitativos às formas tradicionais de gestão, em um único arranjo. O estilo tradicional de gestão tende a não crer, na devida medida, que métodos quantitativos sejam capazes de captar toda sua visão e experiência, ao passo que analistas quantitativos tendem a subestimar a importância do enfoque tradicional, gerando flagrante desarmonia e ineficiência na análise de risco. Um modelo que se propõe a diminuir a distância entre essas visões é o modelo Black-Litterman. Mais especificamente, propõe-se a diminuir os problemas enfrentados na aplicação da teoria moderna de carteiras e, em particular, os decorrentes da aplicação do modelo de Markowitz. O modelo de Markowitz constitui a base da teoria de carteiras há mais de meio século, desde a publicação do artigo Portfolio Selection [Mar52], entretanto, apesar do papel de destaque da abordagem média-variância para o meio acadêmico, várias dificuldades aparecem quando se tenta utilizá-lo na prática, e talvez, por esta razão, seu impacto no mundo dos investimentos tem sido bastante limitado. Apesar das desvantagens na utilização do modelo de média-variância de Markowitz, a idéia de maximizar o retorno, para um dado nível de risco é tão atraente para investidores, que a busca por modelos com melhor comportamento continuou e é neste contexto que o modelo Black-Litterman surgiu. Em 1992, Fischer Black e Robert Litterman publicam o artigo Portfolio Optimization [Bla92], fazendo considerações sobre o papel de pouco destaque da alocação quantitativa de ativos, e lançam o modelo conhecido por Black-Litterman. Uma grande diferença entre o modelo Black-Litterman e um modelo média-variância tradicional é que, enquanto o segundo gera pesos em uma carteira a partir de um processo de otimização, o modelo Black-Litterman parte de uma carteira de mercado em equilíbrio de longo prazo (CAPM). Outro ponto de destaque do modelo é ser capaz de fornecer uma maneira clara para que investidores possam expressar suas visões de curto prazo e, mais importante, fornece uma estrutura para combinar de forma consistente a informação do equilíbrio de longo prazo (priori) com a visão do investidor (curto prazo), gerando um conjunto de retornos esperados, a partir do qual os pesos em cada ativo são fornecidos. Para a escolha do método de estimação dos parâmetros, levou-se em consideração o fato de que matrizes de grande dimensão têm um papel importante na avaliação de investimentos, uma vez que o risco de uma carteira é fundamentalmente determinado pela matriz de covariância de seus ativos. Levou-se também em consideração que seria desejável utilizar um modelo flexível ao aumento do número de ativos. Um modelo capaz de cumprir este papel é o GARCH ortogonal, pois este pode gerar matrizes de covariâncias do modelo original a partir de algumas poucas volatilidades univariadas, sendo, portanto, um método computacionalmente bastante simples. De fato, as variâncias e correlações são transformações de duas ou três variâncias de fatores ortogonais obtidas pela estimação GARCH. Os fatores ortogonais são obtidos por componentes principais. A decomposição da variância do sistema em fatores de risco permite quantificar a variabilidade que cada fator de risco traz, o que é de grande relevância, pois o gestor de risco poderá direcionar mais facilmente sua atenção para os fatores mais relevantes. Ressalta-se também que a ideia central da ortogonalização é utilizar um espaço reduzido de componentes. Neste modelo de dimensão reduzida, suficientes fatores de risco serão considerados, assim, os demais movimentos, ou seja, aqueles não capturados por estes fatores, serão considerados ruídos insignificantes para este sistema. Não obstante, a precisão, ao desconsiderar algumas componentes, irá depender de o número de componentes principais ser suficiente para explicar grande parte da variação do sistema. Logo, o método funcionará melhor quando a análise de componentes principais funcionar melhor, ou seja, em estruturas a termo e outros sistemas altamente correlacionados. Cabe mencionar que o GARCH ortogonal continua igualmente útil e viável quando pretende-se gerar matriz de covariâncias de fatores de risco distintos, isto é, tanto dos altamente correlacionados, quanto daqueles pouco correlacionados. Neste caso, basta realizar a análise de componentes principais em grupos correlacionados. Feito isto, obtêm-se as matrizes de covariâncias utilizando a estimação GARCH. Em seguida faz-se a combinação de todas as matrizes de covariâncias, gerando a matriz de covariâncias do sistema original. A estimação GARCH foi escolhida pois esta é capaz de captar os principais fatos estilizados que caracterizam séries temporais financeiras. Entende-se por fatos estilizados padrões estatísticos observados empiricamente, que, acredita-se serem comuns a um grande número de séries temporais. Séries financeiras com suficiente alta frequência (observações intraday e diárias) costumam apresentar tais características. Este modelo foi utilizado para a estimação dos retornos e, com isso, obtivemos todas as estimativas para que, com o modelo B-L, pudéssemos gerar uma carteira ótima em um instante de tempo inicial. Em seguida, faremos previsões, obtendo carteiras para as semanas seguintes. Por fim, mostraremos que a associação do modelo B-L e da estimação GARCH ortogonal pode gerar resultados bastante satisfatórios e, ao mesmo tempo, manter o modelo simples e gerar resultados coerentes com a intuição. Este estudo se dará sobre retornos de títulos de renda fixa, mais especificamente, títulos emitidos pelo Tesouro Nacional no mercado brasileiro. Tanto a escolha do modelo B-L, quanto a escolha por utilizar uma carteira de títulos emitidos pelo Tesouro Nacional tiveram como motivação o objetivo de aproximar ferramentas estatísticas de aplicações em finanças, em particular, títulos públicos federais emitidos em mercado, que têm se tornado cada vez mais familiares aos investidores pessoas físicas, sobretudo através do programa Tesouro Direto. Ao fazê-lo, espera-se que este estudo traga informações úteis tanto para investidores, quanto para gestores de dívida, uma vez que o modelo média-variância presta-se tanto àqueles que adquirem títulos, buscando, portanto, maximizar retorno para um dado nível de risco, quanto para aqueles que emitem títulos, e que, portanto, buscam reduzir seus custos de emissão a níveis prudenciais de risco. / One major challenge to financial management resides in associating traditional management with quantitative methods. Traditional managers tend to be skeptical about the quantitative methods contributions, whereas quantitative analysts tend to disregard the importance of the traditional view, creating clear disharmony and inefficiency in the risk management process. A model that seeks to diminish the distance between these two views is the Black-Litterman model (BLM). More specifically, it comes as a solution to difficulties faced when using modern portfolio in practice, particularly those derived from the usage of the Markowitz model. Although the Markowitz model has constituted the basis of portfolio theory for over half century, since the publication of the article Portfolio Selection [Mar52], its impact on the investment world has been quite limited. The Markowitz model addresses the most central objectives of an investment: maximizing the expected return, for a given level of risk. Even though it has had a standout role in the mean-average approach to academics, several difficulties arise when one attempts to make use of it in practice. Despite the disadvantages of its practical usage, the idea of maximizing the return for a given level of risk is so appealing to investors, that the search for models with better behavior continued, and is in this context that the Black-Litterman model came out. In 1992, Fischer Black and Robert Litterman wrote an article on the Black-Litterman model. One intrinsic difference between the BLM and a traditional mean-average one is that, while the second provides the weights of the assets in a portfolio out of a optimization routine, the BLM has its starting point at the long-run equilibrium market portfolio(CAPM). Another highlighting point of the BLM is the ability to provide one clear structucture that is able to combine the long term equilibrium information with the investors views, providing a set of expected returns, which, together, will be the input to generate the weights on the assets. As far as the estimation process is concerned, and for the purpose of choosing the most appropriate model, it was taken into consideration the fact that the risk of a portfolio is determined by the covariation matrix of its assets and, being so, matrices with large dimensions play an important role in the analysis of investments. Whereas, provided the application under study, it is desirable to have a model that is able to carry out the analysis for a considerable number of assets. For these reasons, the Orthogonal GARCH was selected, once it can generate the matrix of covariation of the original system from just a few univariate volatilities, and for this reason, it is a computationally simple method. The orthogonal factors are obtained with principal components analysis. Decomposing the variance of the system into risk factors is highly important, once it allows the risk manager to focus separately on each relevant source of risk. The main idea behind the orthogonalization consists in working with a reduced dimension of components. In this kind of model, sufficient risk factors are considered, thus, the variability not perceived by the model will be considered insigficant noise to the system. Nevertheless, the precision, when not using all the components, will depend on the number of components be sufficient to explain the major part of the variability. Moreover, the model will provide reasonable results depending on principal component analysis performing properly as well, what will be more likely to happen, in highly correlated systems. It is worthy of note that the Orthogonal GARCH is equally useful and feasible when one intends to analyse a portfolio consisting of assets across various types of risk, it means, a system which is not highly correlated. It is common to have such a portfolio, with, for instance, currency rates, stocks, fixed income and commodities. In order to make it to perform properly, it is necessary to separate groups with the same kind of risk and then carry out the principal component analysis by group and then merge the covariance matrices, producing the covariance matrix of the original system. To work together with the orthogonalization method, the GARCH model was chosen because it is able to draw the main stylized facts which characterize financial time series. Stylized facts are statistical patterns empirically observed, which are believed to be present in a number of time series. Financial time series which sufficient high frequency (intraday, daily and even weekly) usually present such behavior. For estimating returns purposes, it was used a ARMA model, and together with the covariance matrix estimation, we have all the parameters needed to perform the BLM study, coming out, in the end, with the optimal portfolio in a given initial time. In addition, we will make forecasts with the GARCH model, obtaining optimal portfolio for the following weeks. We will show that the association of the BLM with the Orthogonal GARCH model can generate satisfactory and coherent with intuition results and, at the same time, keeping the model simple. Our application is on fixed income returns, more specifically, returns of bonds issued in the domestic market by the Brazilian National Treasury. The motivation of this work was to put together statistical tolls and finance uses and applications, more specifically those related to the bonds issued by the National Treasuy, which have become more and more popular due to the \"Tesouro Direto\" program. In conclusion, this work aims to bring useful information either for investors or to debt managers, once the mean-variance model can be useful for those who want to maximize return at a given level or risk as for those who issue bonds, and, thus, seek to reduce their issuance costs at prudential levels of risk.
|
805 |
Performance de cruzamentos de soja em gerações sucessivas de endogamia, com ênfase em produtividade, reação à ferrugem e precocidade / Performance of soybean crosses in successive generations of inbreeding, with emphasis on yield, tolerance to rust and earlinessCarvalho, Renato Sérgio Batista 30 June 2015 (has links)
Entre as principais demandas da agricultura brasileira nos últimos anos, destaca-se a necessidade de cultivares de soja com elevado potencial produtivo, resistentes/tolerantes a doenças, em especial à ferrugem asiática da soja e com ciclo reduzido. O trabalho teve como objetivo principal avaliar cruzamentos de soja em diferentes gerações de endogamia e seleção, com ênfase nos caracteres produtividade de grãos, resistência/tolerância à ferrugem e ciclo (precocidade). Os 49 cruzamentos foram obtidos em um dialelo parcial 7x7, avaliados nas gerações F2 e F2:3 por Oliveira (2011) e, neste trabalho, nas gerações F2:4, F2:5, F5:6 e F5:7. Um total de dez experimentos (combinações de anos agrícolas, locais e manejos de doenças) foram realizados em blocos aumentados e ou blocos casualizados. Os dois manejos de doenças compreenderam um experimento com controle das doenças de fim de ciclo (DFC) e da ferrugem, enquanto que no segundo experimento envolveu somente o controle das DFC. Os caracteres avaliados foram: produtividade de grãos (PG), peso de cem sementes (PCS, representando o tamanho das sementes), número de dias para a maturidade (NDM), altura da planta na maturidade (APM), acamamento (AC), valor agronômico (VA), notas de severidade da ferrugem (NF) e taxas de reação à ferrugem (TRF). As TRFs foram estimadas para cada caráter por meio da diferença entre as médias ajustadas de cada genótipo nos dois experimentos com manejos de doenças. Foram realizadas análises de variância, estimativas de herdabilidade, capacidades médias de combinação (CMC), correlações das CMC entre as gerações, correlações entre caracteres, seleção de linhagens experimentais superiores e estimativas dos ganhos com a seleção. As metodologias de avaliação da resistência (NF) e da tolerância (TRF) possibilitaram a discriminação de genótipos superiores quanto à reação à ferrugem, demonstrando evidências de serem complementares e úteis para uso em conjunto. Observou-se maior tendência de haver correlações das CMC entre as gerações para caracteres de alta herdabilidade. A magnitude da variabilidade dentro de cruzamentos oscilou em consequência da seleção e da abertura de progênies e ou linhagens para a maior parte dos caracteres. Apesar das correlações entre os caracteres (NDM x PG e NDM x NF), foram observados ganhos na seleção de genótipos superiores. Os genitores que mais contribuíram para a obtenção de linhagens experimentais com alta produtividade de grãos, resistentes/tolerantes à ferrugem e precoces foram M-Soy 8001 e IAC 100 no Grupo I e USP 70.080 e USP 70.123 no Grupo II do dialelo. / Among the main demands of Brazilian agriculture in recent years highlights the need for soybean cultivars with high yield potential, resistance / tolerance to diseases, mainly Asian soybean rust (FAS) and reduced cycle. The research aimed to study the genetic relationships of soybean crosses in different generations of inbreeding and selection, with an emphasis on the seed yield, resistance/tolerance to rust and cycle (earliness). The 49 crosses was obtained in a partial diallel 7x7, researching the generations F2 and F2: 3 by Oliveira (2011) and, in this work, the generations F2:4, F2:5, F5:6 and F5:7. A total of ten experiments (combinations of agricultural years, locations and disease managements) were performed in augmented block and or randomized complete-block designs. The two managements involved one experiment with control of the late season leaf diseases (DFC) and rust, whereas the second experiment only involved the control of the DFC. The following traits were evaluated : seed yield (PG), one hundred seed weight (PCS, representing the seed size), number of days to maturity (NDM), plant height at maturity (APM), lodging (AC), agronomic value (VA), notes of rust severity (NF) and the rust reaction rates (TRF). The TRFs for each trait were estimated by the difference between the adjusted means of each genotype in the two experiments with diseases managements. There were obtained analyses of variance and estimates of heritability, average combining ability (CMC), the CMC correlations between generations, correlations between traits, selection of superior experimental lines and the selection gains. The methodologies for measuring the rust resistance by severity notes (NF) and the rust tolerance (TRF) allowed the discrimination of genotypes and showed evidences of being complementary and with benefits for use together. Higher evidences of CMC correlations between generations were observed in the high heritability traits. The magnitude of the variability within crosses oscillated due the selection and the progeny/line opening, for most of the traits. Even with negative correlations between traits ( NDM x PG and NDM x NF), there were observed gains in the selection of superior genotypes. The parents who contributed most to obtain experimental lines with high seed yield, rust resistance / tolerance and earliness were M-Soy 8001 and IAC 100 in the Group I, and USP 70.080 and USP 70.123 in the Group II of the diallel.
|
806 |
Optimizacija problema sa stohastičkim ograničenjima tipa jednakosti – kazneni metodi sa promenljivom veličinom uzorka / Optimization of problems with stochastic equality constraints – penaltyvariable sample size methodsRožnjik Andrea 24 January 2019 (has links)
<p>U disertaciji je razmatran problem stohastičkog programiranja s ograničenjima tipa jednakosti, odnosno problem minimizacije s ograničenjima koja su u obliku matematičkog očekivanja. Za rešavanje posmatranog problema kreirana su dva iterativna postupka u kojima se u svakoj iteraciji računa s uzoračkim očekivanjem kao aproksimacijom matematičkog očekivanja. Oba postupka koriste prednosti postupaka s promenljivom veličinom uzorka zasnovanih na adaptivnom ažuriranju veličine uzorka. To znači da se veličina uzorka određuje na osnovu informacija u tekućoj iteraciji. Konkretno, tekuće informacije o preciznosti aproksimacije očekivanja i tačnosti aproksimacije rešenja problema definišu veličinu uzorka za narednu iteraciju. Oba iterativna postupka su zasnovana na linijskom pretraživanju, a kako je u pitanju problem s ograničenjima, i na kvadratnom kaznenom postupku prilagođenom stohastičkom okruženju. Postupci su zasnovani na istim idejama, ali s različitim pristupom.<br />Po prvom pristupu postupak je kreiran za rešavanje SAA reformulacije problema stohastičkog programiranja, dakle za rešavanje aproksimacije originalnog problema. To znači da je uzorak definisan pre iterativnog postupka, pa je analiza konvergencije algoritma deterministička. Pokazano je da se, pod standardnim pretpostavkama, navedenim algoritmom dobija podniz iteracija čija je tačka nagomilavanja KKT tačka SAA reformulacije.<br />Po drugom pristupu je formiran algoritam za rešavanje samog problema<br />stohastičkog programiranja, te je analiza konvergencije stohastička. Predstavljenim algoritmom se generiše podniz iteracija čija je tačka nagomilavanja, pod standardnim pretpostavkama za stohastičku optimizaciju, skoro sigurno<br />KKT tačka originalnog problema.<br />Predloženi algoritmi su implementirani na istim test problemima. Rezultati numeričkog testiranja prikazuju njihovu efikasnost u rešavanju posmatranih problema u poređenju s postupcima u kojima je ažuriranje veličine uzorka<br />zasnovano na unapred definisanoj šemi. Za meru efikasnosti je upotrebljen<br />broj izračunavanja funkcija. Dakle, na osnovu rezultata dobijenih na skupu<br />testiranih problema može se zaključiti da se adaptivnim ažuriranjem veličine<br />uzorka može uštedeti u broju evaluacija funkcija kada su u pitanju i problemi s<br />ograničenjima.<br />Kako je posmatrani problem deterministički, a formulisani postupci su stohastički, prva tri poglavlja disertacije sadrže osnovne pojmove determinističke<br />i stohastiˇcke optimizacije, ali i kratak pregled definicija i teorema iz drugih<br />oblasti potrebnih za lakše praćenje analize originalnih rezultata. Nastavak disertacije čini prikaz formiranih algoritama, analiza njihove konvergencije i numerička implementacija.<br /> </p> / <p>Stochastic programming problem with equality constraints is considered within thesis. More precisely, the problem is minimization problem with constraints in the form of mathematical expectation. We proposed two iterative methods for solving considered problem. Both procedures, in each iteration, use a sample average function instead of the mathematical expectation function, and employ the advantages of the variable sample size method based on adaptive updating the sample size. That means, the sample size is determined at every iteration using information from the current iteration. Concretely, the current precision of the approximation of expectation and the quality of the approximation of solution determine the sample size for the next iteration. Both iterative procedures are based on the line search technique as well as on the quadratic penalty method adapted to stochastic environment, since the considered problem has constraints. Procedures relies on same ideas, but the approach is different.<br />By first approach, the algorithm is created for solving an SAA reformulation of the stochastic programming problem, i.e., for solving the approximation of the original problem. That means the sample size is determined before the iterative procedure, so the convergence analyses is deterministic. We show that, under the standard assumptions, the proposed algorithm generates a subsequence which accumulation point is the KKT point of the SAA problem. Algorithm formed by the second approach is for solving the stochastic programming problem, and therefore the convergence analyses is stochastic. It generates a subsequence with accumulation point that is almost surely the KKT point of the original problem, under the standard assumptions for stochastic optimization.for sample size. The number of function evaluations is used as measure of efficiency. Results of the set of tested problems suggest that it is possible to make smaller number of function evaluations by adaptive sample size scheduling in the case of constrained problems, too.<br />Since the considered problem is deterministic, but the formed procedures are stochastic, the first three chapters of thesis contain basic notations of deterministic and stochastic optimization, as well as a short sight of definitions and theorems from another fields necessary for easier tracking the original results analysis. The rest of thesis consists of the presented algorithms, their convergence analysis and numerical implementation.</p>
|
807 |
Argumentação e prova no ensino médio: análise de uma coleção didática de matemáticaBarbosa, Edna Santos de Souza 25 May 2007 (has links)
Made available in DSpace on 2016-04-27T17:13:00Z (GMT). No. of bitstreams: 1
Edna Santos de Souza Barbosa.pdf: 1567953 bytes, checksum: b90716cbc17f6d381305c00887af8d3f (MD5)
Previous issue date: 2007-05-25 / Made available in DSpace on 2016-08-25T17:25:36Z (GMT). No. of bitstreams: 2
Edna Santos de Souza Barbosa.pdf.jpg: 1943 bytes, checksum: cc73c4c239a4c332d642ba1e7c7a9fb2 (MD5)
Edna Santos de Souza Barbosa.pdf: 1567953 bytes, checksum: b90716cbc17f6d381305c00887af8d3f (MD5)
Previous issue date: 2007-05-25 / Secretaria da Educação do Estado de São Paulo / The objective of this dissertation is to study the way that matters of argumentation and tests in a didactic collection for average education are dealt, and aims to contribute with the Argumentation and Test in Scholar Mathematics Project (AProvaME). This concerns a documentary research that aims, by means of the use of categories of the available literature related to the idea of argumentation and test, to investigate the matter: How the chosen collection deals with the Argumentation and Test issue. After the survey of tests and exercises presented in the didactic collection of some selected contents, we conclude that, in Algebra, the collection presents a pedagogical boarding that emphasizes the intellectual test. When the subject is Geometry, the emphasis is in the pragmatic test. In the point of view of the purpose of the exercises, the analysis showed that the tasks for learning of the writing predominate for both Algebra and Geometry. We observed that the characteristics presented in the tasks found in the collection confirm aspects we judged relevant when choosing the collection for analysis / Esta dissertação tem o objetivo de estudar como são tratadas as questões da argumentação e da prova em uma coleção didática para o Ensino Médio, e visa contribuir com o Projeto Argumentação e Prova na Matemática Escolar (AProvaME). Trata-se de pesquisa documental que visa, mediante o uso de categorias da literatura disponível relacionadas a idéia de argumentação e de prova, investigar a questão: Como a coleção escolhida trata a questão da Argumentação e da Prova. Após o levantamento de provas e exercícios apresentados na coleção didática em alguns conteúdos selecionados, concluímos que, em Álgebra, a coleção apresenta uma abordagem pedagógica que enfatiza a prova intelectual. Já em Geometria, há ênfase na prova pragmática. No ponto de vista da finalidade dos exercícios, a análise mostrou que predominam as tarefas para aprendizagem da escrita, tanto para Álgebra quanto para Geometria. Observamos que as características apresentadas nas tarefas encontradas na coleção confirmam aspectos que julgamos relevantes ao escolher a coleção para análise
|
808 |
Line search methods with variable sample size / Metodi linijskog pretrazivanja sa promenljivom velicinom uzorkaKrklec Jerinkić Nataša 17 January 2014 (has links)
<p>The problem under consideration is an unconstrained optimization problem with the objective function in the form of mathematical ex-pectation. The expectation is with respect to the random variable that represents the uncertainty. Therefore, the objective function is in fact deterministic. However, nding the analytical form of that objective function can be very dicult or even impossible. This is the reason why the sample average approximation is often used. In order to obtain reasonable good approximation of the objective function, we have to use relatively large sample size. We assume that the sample is generated at the beginning of the optimization process and therefore we can consider this sample average objective function as the deterministic one. However, applying some deterministic method on that sample average function from the start can be very costly. The number of evaluations of the function under expectation is a common way of measuring the cost of an algorithm. Therefore, methods that vary the sample size throughout the optimization process are developed. Most of them are trying to determine the optimal dynamics of increasing the sample size.</p><p>The main goal of this thesis is to develop the clas of methods that can decrease the cost of an algorithm by decreasing the number of function evaluations. The idea is to decrease the sample size whenever it seems to be reasonable - roughly speaking, we do not want to impose a large precision, i.e. a large sample size when we are far away from the solution we search for. The detailed description of the new methods <br />is presented in Chapter 4 together with the convergence analysis. It is shown that the approximate solution is of the same quality as the one obtained by dealing with the full sample from the start.</p><p>Another important characteristic of the methods that are proposed here is the line search technique which is used for obtaining the sub-sequent iterates. The idea is to nd a suitable direction and to search along it until we obtain a sucient decrease in the function value. The sucient decrease is determined throughout the line search rule. In Chapter 4, that rule is supposed to be monotone, i.e. we are imposing strict decrease of the function value. In order to decrease the cost of the algorithm even more and to enlarge the set of suitable search directions, we use nonmonotone line search rules in Chapter 5. Within that chapter, these rules are modied to t the variable sample size framework. Moreover, the conditions for the global convergence and the R-linear rate are presented. </p><p>In Chapter 6, numerical results are presented. The test problems are various - some of them are academic and some of them are real world problems. The academic problems are here to give us more insight into the behavior of the algorithms. On the other hand, data that comes from the real world problems are here to test the real applicability of the proposed algorithms. In the rst part of that chapter, the focus is on the variable sample size techniques. Different implementations of the proposed algorithm are compared to each other and to the other sample schemes as well. The second part is mostly devoted to the comparison of the various line search rules combined with dierent search directions in the variable sample size framework. The overall numerical results show that using the variable sample size can improve the performance of the algorithms signicantly, especially when the nonmonotone line search rules are used.</p><p>The rst chapter of this thesis provides the background material for the subsequent chapters. In Chapter 2, basics of the nonlinear optimization are presented and the focus is on the line search, while Chapter 3 deals with the stochastic framework. These chapters are here to provide the review of the relevant known results, while the rest of the thesis represents the original contribution. </p> / <p>U okviru ove teze posmatra se problem optimizacije bez ograničenja pri čcemu je funkcija cilja u formi matematičkog očekivanja. Očekivanje se odnosi na slučajnu promenljivu koja predstavlja neizvesnost. Zbog toga je funkcija cilja, u stvari, deterministička veličina. Ipak, odredjivanje analitičkog oblika te funkcije cilja može biti vrlo komplikovano pa čak i nemoguće. Zbog toga se za aproksimaciju često koristi uzoračko očcekivanje. Da bi se postigla dobra aproksimacija, obično je neophodan obiman uzorak. Ako pretpostavimo da se uzorak realizuje pre početka procesa optimizacije, možemo posmatrati uzoračko očekivanje kao determinističku funkciju. Medjutim, primena nekog od determinističkih metoda direktno na tu funkciju moze biti veoma skupa jer evaluacija funkcije pod ocekivanjem često predstavlja veliki trošak i uobičajeno je da se ukupan trošak optimizacije meri po broju izračcunavanja funkcije pod očekivanjem. Zbog toga su razvijeni metodi sa promenljivom veličinom uzorka. Većcina njih je bazirana na odredjivanju optimalne dinamike uvećanja uzorka.</p><p>Glavni cilj ove teze je razvoj algoritma koji, kroz smanjenje broja izračcunavanja funkcije, smanjuje ukupne trošskove optimizacije. Ideja je da se veličina uzorka smanji kad god je to moguće. Grubo rečeno, izbegava se koriscenje velike preciznosti (velikog uzorka) kada smo daleko od rešsenja. U čcetvrtom poglavlju ove teze opisana je nova klasa metoda i predstavljena je analiza konvergencije. Dokazano je da je aproksimacija rešenja koju dobijamo bar toliko dobra koliko i za metod koji radi sa celim uzorkom sve vreme.</p><p>Još jedna bitna karakteristika metoda koji su ovde razmatrani je primena linijskog pretražzivanja u cilju odredjivanja naredne iteracije. Osnovna ideja je da se nadje odgovarajući pravac i da se duž njega vršsi pretraga za dužzinom koraka koja će dovoljno smanjiti vrednost funkcije. Dovoljno smanjenje je odredjeno pravilom linijskog pretraživanja. U čcetvrtom poglavlju to pravilo je monotono što znači da zahtevamo striktno smanjenje vrednosti funkcije. U cilju jos većeg smanjenja troškova optimizacije kao i proširenja skupa pogodnih pravaca, u petom poglavlju koristimo nemonotona pravila linijskog pretraživanja koja su modifikovana zbog promenljive velicine uzorka. Takodje, razmatrani su uslovi za globalnu konvergenciju i R-linearnu brzinu konvergencije.</p><p>Numerički rezultati su predstavljeni u šestom poglavlju. Test problemi su razliciti - neki od njih su akademski, a neki su realni. Akademski problemi su tu da nam daju bolji uvid u ponašanje algoritama. Sa druge strane, podaci koji poticu od stvarnih problema služe kao pravi test za primenljivost pomenutih algoritama. U prvom delu tog poglavlja akcenat je na načinu ažuriranja veličine uzorka. Različite varijante metoda koji su ovde predloženi porede se medjusobno kao i sa drugim šemama za ažuriranje veličine uzorka. Drugi deo poglavlja pretežno je posvećen poredjenju različitih pravila linijskog pretraživanja sa različitim pravcima pretraživanja u okviru promenljive veličine uzorka. Uzimajuci sve postignute rezultate u obzir dolazi se do zaključcka da variranje veličine uzorka može značajno popraviti učinak algoritma, posebno ako se koriste nemonotone metode linijskog pretraživanja.</p><p>U prvom poglavlju ove teze opisana je motivacija kao i osnovni pojmovi potrebni za praćenje preostalih poglavlja. U drugom poglavlju je iznet pregled osnova nelinearne optimizacije sa akcentom na metode linijskog pretraživanja, dok su u trećem poglavlju predstavljene osnove stohastičke optimizacije. Pomenuta poglavlja su tu radi pregleda dosadašnjih relevantnih rezultata dok je originalni doprinos ove teze predstavljen u poglavljima 4-6.</p>
|
809 |
Gráficos de controle fuzzy para o monitoramento da média e amplitude de processos univariados /Mendes, Amanda dos Santos January 2019 (has links)
Orientador: Marcela Aparecida Guerreiro Machado Freitas / Resumo: O controle de qualidade, principalmente por meio do uso de gráficos de controle, torna-se essencial na indústria para garantir um processo livre de causas especiais de variabilidade. Como os dados amostrais podem incluir incertezas advindas da subjetividade humana e dos sistemas de medição, a teoria dos conjuntos fuzzy pode ser aplicada aos gráficos de controle quando dados precisos não estiverem disponíveis. Para tal feito, os valores da característica de qualidade são fuzzificados a partir da inserção de incertezas e transformados em valores representativos para uma melhor comparação com o gráfico de controle tradicional. Este trabalho propõe o uso da lógica fuzzy aos gráficos de controle para monitorar a média e a amplitude de processos univariados, assim como dois gráficos de controle fuzzy baseados nas regras especiais de decisão: Synthetic e Side Sensitive Synthetic. O desempenho do gráfico de controle é medido pelo número médio de amostras até sinal (NMA). Verificou-se neste trabalho que os gráficos de controle fuzzy possuem maior eficiência que os gráficos de controle tradicionais para menores valores de α-cut, ou seja, maior incerteza inserida no processo e para cenários onde se tem uma maior diferença entre os limitantes de incerteza dos números fuzzy. / Abstract: Quality control, mainly through the use of control charts, becomes essential in the industry to ensure a process free from special causes of variability. As sample data may include uncertainties arising from human subjectivity and measurement systems, fuzzy set theory can be applied to control charts when accurate data is not available. For this purpose, the quality characteristic values are fuzzified from the insertion of uncertainties and transformed into representative values for a better comparison with the traditional control chart. This work proposes the use of fuzzy logic to control charts to monitor the mean and range of univariate processes, as well as two fuzzy control charts based on the special run rules: Synthetic and Side Sensitive Syntehtic. The performance of the control chart is measured by the average run length (ARL). It was verified in this work that the fuzzy control charts have higher efficiency than the traditional control charts for lower values of α-cut, that is, greater uncertainty inserted in the process and for scenarios where there is a greater difference between the limiting uncertainties of fuzzy numbers. / Mestre
|
810 |
Acquisition compressée en IRM de diffusion / Compressive sensing in diffusion MRIMerlet, Sylvain 11 September 2013 (has links)
Cette thèse est consacrée à l'élaboration de nouvelles méthodes d'acquisition et de traitement de données en IRM de diffusion (IRMd) afin de caractériser la diffusion des molécules d'eau dans les fibres de matière blanche à l'échelle d'un voxel. Plus particulièrement, nous travaillons sur un moyen de reconstruction précis de l'Ensemble Average Propagator (EAP), qui représente la fonction de probabilité de diffusion des molécules d'eau. Plusieurs modèles de diffusion tels que le tenseur de diffusion ou la fonction de distribution d'orientation sont très utilisés dans la communauté de l'IRMd afin de quantifier la diffusion des molécules d'eau dans le cerveau. Ces modèles sont des représentations partielles de l'EAP et ont été développés en raison du petit nombre de mesures nécessaires à leurs estimations. Cependant, il est important de pouvoir reconstruire précisément l'EAP afin d'acquérir une meilleure compréhension des mécanismes du cerveau et d'améliorer le diagnostique des troubles neurologiques. Une estimation correcte de l'EAP nécessite l'acquisition de nombreuses images de diffusion sensibilisées à des orientations différentes dans le q-space. Ceci rend son estimation trop longue pour être utilisée dans la plupart des scanners cliniques. Dans cette thèse, nous utilisons des techniques de reconstruction parcimonieuses et en particulier la technique connue sous le nom de Compressive Sensing (CS) afin d’accélérer le calcul de l'EAP. Les multiples aspects de la théorie du CS et de son application à l'IRMd sont présentés dans cette thèse. / This thesis is dedicated to the development of new acquisition and processing methods in diffusion MRI (dMRI) to characterize the diffusion of water molecules in white matter fiber bundles at the scale of a voxel. In particular, we focus our attention on the accurate recovery of the Ensemble Average Propagator (EAP), which represents the full 3D displacement of water molecule diffusion. Diffusion models such that the Diffusion Tensor or the Orientation Distribution Function (ODF) are largely used in the dMRI community in order to quantify water molecule diffusion. These models are partial EAP representations and have been developed due to the small number of measurement required for their estimations. It is thus of utmost importance to be able to accurately compute the EAP and order to acquire a better understanding of the brain mechanisms and to improve the diagnosis of neurological disorders. Estimating the full 3D EAP requires the acquisition of many diffusion images sensitized todifferent orientations in the q-space, which render the estimation of the EAP impossible in most of the clinical dMRI scanner. A surge of interest has been seen in order to decrease this time for acquisition. Some works focus on the development of new and efficient acquisition sequences. In this thesis, we use sparse coding techniques, and in particular Compressive Sensing (CS) to accelerate the computation of the EAP. Multiple aspects of the CS theory and its application to dMRI are presented in this thesis.
|
Page generated in 0.0593 seconds