• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 7
  • 4
  • 2
  • Tagged with
  • 44
  • 24
  • 21
  • 12
  • 12
  • 9
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Análisis probabilístico de riesgo geotécnico en excavaciones profundas utilizando anclajes post-tensados en edificaciones de Lima Metropolitana / Probabilistic analysis of geotechnical risk in deep excavations using post-tensioned anchors in buildings of Metropolitan Lima

Agreda Principe, Santos Oliver, Avila Ascencio, Erick Andrés 30 July 2020 (has links)
La presente investigación tuvo como objetivo principal, determinar el riesgo geotécnico de excavaciones profundas utilizando anclajes post-tensados en edificaciones de Lima Metropolitana, aplicando métodos probabilísticos a partir de un abordaje estadístico simple, basado en la hipótesis fundamental de la distribución normal gaussiana de las variables envueltas.En primer lugar, se utilizó el parámetro fundamental de los anclajes post-tensados, la capacidad última de adherencia en la interacción suelo-lechada de cemento τult, (resistencia en la ruptura). Este parámetro se obtuvo de dieciséis (16) ensayos de arrancamiento a escala natural de anclajes post-tensados cimentados en el conglomerado de Lima Metropolitana, obtenidos de la tesis de maestría de Puelles (2011). En segundo lugar, se realizó un diseño de anclajes post-tensados de edificaciones en Lima Metropolitana de 3, 4 y 5 anillos de 10.50, 13.50 y 16.50 m de profundidad respectivamente. Para ello, se utilizó la metodología FHWA con el objetivo de obtener la capacidad de carga de diseño (TD) de anclajes post-tensados. Además, se ejecutó modelos y modelamientos en el software Slide v6.0 (método equilibrio límite), para realizar el análisis de estabilidad de los mismos. Para ello, se tuvo en cuenta las siguientes variables: los parámetros geotécnicos representativos de Lima Metropolitana, la profundidad de estudio (10.50 a 16.50 m.) y la sobrecarga de edificaciones colindantes. Por último, con los parámetros obtenidos (τult y TD) se definió las curvas estadísticas de distribución de solicitación y resistencia. Luego, se aplicó los métodos probabilísticos e interpretación respectiva, determinado así el riesgo geotécnico para cada caso de estudio. / The main objective of this research was to determine the geotechnical risk of deep excavations using post-tensioned anchors in buildings in Metropolitan Lima, applying probabilistic methods based on a simple statistical approach, based on the fundamental hypothesis of the Gaussian normal distribution of the variables wrapped. Firstly, the fundamental parameter of the post-tensioned anchors was used, the ultimate capacity of adhesion in the soil-cement grout interaction τult, (resistance to rupture). This parameter was obtained from sixteen (16) natural scale pull-out tests of post-tensioned anchorages cemented in the conglomerate of Metropolitan Lima, obtained from the master's thesis of Puelles (2011). Secondly, a design of post-tensioned anchorages of buildings in Metropolitan Lima of 3, 4 and 5 rings of 10.50, 13.50 and 16.50 m depth, respectively, was carried out. For this, the FHWA methodology was used with the objective of obtaining the design load capacity (TD) of post-tensioned anchors. In addition, models and modeling were executed in the Slide v6.0 software (limit equilibrium method), to perform their stability analysis. For this, the following variables were taken into account: the representative geotechnical parameters of Metropolitan Lima, the study depth (10.50 to 16.50 m.) And the overload of neighboring buildings. Finally, with the obtained parameters (τult and TD) the statistical curves of the distribution of stress and resistance were defined. Then, the probabilistic methods and respective interpretation were applied, thus determining the geotechnical risk for each case study. / Tesis
22

Managing large-scale scientific hypotheses as uncertain and probabilistic data / Gerência de hipóteses científicas de larga-escala como dados incertos e probabilísticos

Gonçalves, Bernardo Nunes 28 January 2015 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2015-04-02T17:47:07Z No. of bitstreams: 1 bernardo-thesis.pdf: 1669339 bytes, checksum: fbd578e31ff13004edbe4fe1eec0ef5f (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2015-04-02T17:47:51Z (GMT) No. of bitstreams: 1 bernardo-thesis.pdf: 1669339 bytes, checksum: fbd578e31ff13004edbe4fe1eec0ef5f (MD5) / Made available in DSpace on 2015-04-02T17:48:29Z (GMT). No. of bitstreams: 1 bernardo-thesis.pdf: 1669339 bytes, checksum: fbd578e31ff13004edbe4fe1eec0ef5f (MD5) Previous issue date: 2015-01-28 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Fundação Carlos Chagas Filho de Amparo à Pesquisa do estado do Rio de Janeiro / Tendo em vista a mudança de paradigma que faz da ciência cada vez mais guiada por dados, nesta tese propomos um método para codifica e gerência de hipóteses científicas determinísticas de larga escala como dados incertos e probabilísticos. Na forma de equações matemáticas, hipóteses relacionam simetricamente aspectos do fenômeno de estudo. Para computação de predições, no entanto, hipóteses determinísticas podem ser abstraídas como funções. Levamos adiante a no de Simon de equações estruturais para extrair de forma eficiente a então chamada ordenação causal implícita na estrutura de uma hipótese. Mostramos como processar a estrutura preditiva de uma hipótese através de algoritmos originais para sua codifica ‹o como um conjunto de dependências funcionais (df's) e então realizamos inferência causal em termos de raciocínio acíclico pseudo-transitivo sobre df's. Tal raciocínio revela importantes dependências causais implícitas nos dados preditivos da hipótese, que conduzem nossa síntese do banco de dados probabilístico. Como na área de modelos gráficos (IA), o banco de dados probabilístico deve ser normalizado de tal forma que a incerteza oriunda de hipóteses alternativas seja decomposta em fatores e propagada propriamente recuperando sua distribuição de probabilidade conjunta via junção 'lossless.' Isso é motivado como um princípio teórico de projeto para gerência e análise de hip teses. O método proposto é aplicável a hipóteses determinísticas quantitativas e qualitativas e é demonstrado em casos realísticos de ciência computacional. / In view of the paradigm shift that makes science ever more data-driven, in this thesis we propose a synthesis method for encoding and managing large-scale deterministic scientific hypotheses as uncertain and probabilistic data. In the form of mathematical equations, hypotheses symmetrically relate aspects of the studied phenomena. For computing predictions, however, deterministic hypotheses can be abstracted as functions. We build upon Simon's notion of structural equations in order to efficiently extract the (so-called) causal ordering between variables, implicit in a hypothesis structure (set of mathematical equations). We show how to process the hypothesis predictive structure effectively through original algorithms for encoding it into a set of functional dependencies (fd's) and then performing causal reasoning in terms of acyclic pseudo-transitive reasoning over fd's. Such reasoning reveals important causal dependencies implicit in the hypothesis predictive data and guide our synthesis of a probabilistic database. Like in the field of graphical models in AI, such a probabilistic database should be normalized so that the uncertainty arisen from competing hypotheses is decomposed into factors and propagated properly onto predictive data by recovering its joint probability distribution through a lossless join. That is motivated as a design-theoretic principle for data-driven hypothesis management and predictive analytics. The method is applicable to both quantitative and qualitative deterministic hypotheses and demonstrated in realistic use cases from computational science.
23

Multi-label classification based on sum-product networks / Classificação multi-rótulo baseada em redes soma-produto

Llerena, Julissa Giuliana Villanueva 06 September 2017 (has links)
Multi-label classification consists of learning a function that is capable of mapping an object to a set of relevant labels. It has applications such as the association of genes with biological functions, semantic classification of scenes and text categorization. Traditional classification (i.e., single-label) is therefore a particular case of multi-label classification in which each object is associated with exactly one label. A successful approach to constructing classifiers is to obtain a probabilistic model of the relation between object attributes and labels. This model can then be used to classify objects, finding the most likely prediction by computing the marginal probability or the most probable explanation (MPE) of the labels given the attributes. Depending on the probabilistic models family chosen, such inferences may be intractable when the number of labels is large. Sum-Product Networks (SPN) are deep probabilistic models, that allow tractable marginal inference. Nevertheless, as with many other probabilistic models, performing MPE inference is NP- hard. Although, SPNs have already been used successfully for traditional classification tasks (i.e. single-label), there is no in-depth investigation on the use of SPNs for Multi-Label classification. In this work we investigate the use of SPNs for Multi-Label classification. We compare several algorithms for learning SPNs combined with different proposed approaches for classification. We show that SPN-based multi-label classifiers are competitive against state-of-the-art classifiers, such as Random k-Labelsets with Support Vector Machine and MPE inference on CutNets, in a collection of benchmark datasets. / A classificação Multi-Rótulo consiste em aprender uma função que seja capaz de mapear um objeto para um conjunto de rótulos relevantes. Ela possui aplicações como associação de genes com funções biológicas, classificação semântica de cenas e categorização de texto. A classificação tradicional, de rótulo único é, portanto, um caso particular da Classificação Multi-Rótulo, onde cada objeto está associado com exatamente um rótulo. Uma abordagem bem sucedida para classificação é obter um modelo probabilístico da relação entre atributos do objeto e rótulos. Esse modelo pode então ser usado para classificar objetos, encon- trando a predição mais provável por meio da probabilidade marginal ou a explicação mais provavél dos rótulos dados os atributos. Dependendo da família de modelos probabilísticos escolhidos, tais inferências podem ser intratáveis quando o número de rótulos é grande. As redes Soma-Produto (SPN, do inglês Sum Product Network) são modelos probabilísticos profundos, que permitem inferência marginal tratável. No entanto, como em muitos outros modelos probabilísticos, a inferência da explicação mais provavél é NP-difícil. Embora SPNs já tenham sido usadas com sucesso para tarefas de classificação tradicionais, não existe investigação aprofundada no uso de SPNs para classificação Multi-Rótulo. Neste trabalho, investigamos o uso de SPNs para classificação Multi-Rótulo. Comparamos vários algoritmos de aprendizado de SPNs combinados com diferentes abordagens propostos para classi- ficação. Mostramos que os classificadores Multi-Rótulos baseados em SPN são competitivos contra classificadores estado-da-arte, como Random k-Labelsets usando Máquinas de Suporte Vetorial e inferência exata da explicação mais provavél em CutNets, em uma coleção de conjuntos de dados de referência.
24

Análise da resposta dinâmica de passarelas de pedestres considerando-se uma modelagem probabilística do caminhar humano. / Analysis of the dynamic response of footbridges considering a probabilistic modeling of human gait.

Jorge Maurício dos Santos Souza 11 October 2012 (has links)
Nowadays, the pedestrian footbridges present greater slenderness and have been constructed with increasingly daring structures. This fact have generated very slender footbridges and consequently changed the serviceability and ultimate limit states associated to their design. Therefore, in this investigation, the walking loading was modelled based on a probabilistic approach, in order to describe the walking force in a given pedestrian population, aiming a human comfort analysis. The pedestrian walking dynamic action is modelled considering the random nature of the following parameters: pedestrian weight, step frequency and dynamic coefficients. The mathematical model is then applied to calculate the probability of having the structure dynamic response in a particular acceleration range. The investigated structural model is associated to a steel-concrete composite footbridge, built in the campus of the Institute of Traumatology and Orthopaedics (INTO), at the city of Rio de Janeiro, Brazil. Based on the use of probabilistic methods, it was possible to determine whether the footbridge peak accelerations exceed or not the human comfort criteria established in the design standards and recommendations. The results have indicated that the peak accelerations calculated based on the deterministic methods may be overestimated in some design situations / Passarelas de pedestres com arquitetura moderna, esbeltas e leves são uma constante nos dias atuais, apresentando grandes vãos e novos materiais. Este arrojo arquitetônico tem gerado inúmeros problemas de vibrações excessivas, especialmente sobre passarelas mistas (aço-concreto). As normas e recomendações de projeto consideram, ainda, que as forças induzidas pelo caminhar humano são determinísticas. Todavia, o caminhar humano e as respectivas forças dinâmicas geradas apresentam comportamento randômico. Deste modo, o presente trabalho de pesquisa objetiva contribuir com os projetistas estruturais, a partir do emprego de uma abordagem probabilística para avaliação do estado limite de utilização deste tipo de estrutura, associado a vibrações excessivas que podem vir a causar desconforto humano. Para tal, utiliza-se como modelo estrutural uma passarela de pedestres mista (aço-concreto) construída no campus do Instituto de Traumatologia e Ortopedia (INTO), na cidade do Rio de Janeiro. Com base na utilização dos métodos probabilísticos, torna-se possível determinar a probabilidade dos valores das acelerações de pico da estrutura ultrapassarem ou não os critérios de conforto humano estabelecidos em normas e recomendações de projeto. Os resultados apontam para o fato de que os valores das acelerações de pico calculadas com base exclusivamente nos métodos determinísticos podem ser superestimados em algumas situações de projeto.
25

Análise da resposta dinâmica de passarelas de pedestres considerando-se uma modelagem probabilística do caminhar humano. / Analysis of the dynamic response of footbridges considering a probabilistic modeling of human gait.

Jorge Maurício dos Santos Souza 11 October 2012 (has links)
Nowadays, the pedestrian footbridges present greater slenderness and have been constructed with increasingly daring structures. This fact have generated very slender footbridges and consequently changed the serviceability and ultimate limit states associated to their design. Therefore, in this investigation, the walking loading was modelled based on a probabilistic approach, in order to describe the walking force in a given pedestrian population, aiming a human comfort analysis. The pedestrian walking dynamic action is modelled considering the random nature of the following parameters: pedestrian weight, step frequency and dynamic coefficients. The mathematical model is then applied to calculate the probability of having the structure dynamic response in a particular acceleration range. The investigated structural model is associated to a steel-concrete composite footbridge, built in the campus of the Institute of Traumatology and Orthopaedics (INTO), at the city of Rio de Janeiro, Brazil. Based on the use of probabilistic methods, it was possible to determine whether the footbridge peak accelerations exceed or not the human comfort criteria established in the design standards and recommendations. The results have indicated that the peak accelerations calculated based on the deterministic methods may be overestimated in some design situations / Passarelas de pedestres com arquitetura moderna, esbeltas e leves são uma constante nos dias atuais, apresentando grandes vãos e novos materiais. Este arrojo arquitetônico tem gerado inúmeros problemas de vibrações excessivas, especialmente sobre passarelas mistas (aço-concreto). As normas e recomendações de projeto consideram, ainda, que as forças induzidas pelo caminhar humano são determinísticas. Todavia, o caminhar humano e as respectivas forças dinâmicas geradas apresentam comportamento randômico. Deste modo, o presente trabalho de pesquisa objetiva contribuir com os projetistas estruturais, a partir do emprego de uma abordagem probabilística para avaliação do estado limite de utilização deste tipo de estrutura, associado a vibrações excessivas que podem vir a causar desconforto humano. Para tal, utiliza-se como modelo estrutural uma passarela de pedestres mista (aço-concreto) construída no campus do Instituto de Traumatologia e Ortopedia (INTO), na cidade do Rio de Janeiro. Com base na utilização dos métodos probabilísticos, torna-se possível determinar a probabilidade dos valores das acelerações de pico da estrutura ultrapassarem ou não os critérios de conforto humano estabelecidos em normas e recomendações de projeto. Os resultados apontam para o fato de que os valores das acelerações de pico calculadas com base exclusivamente nos métodos determinísticos podem ser superestimados em algumas situações de projeto.
26

Multi-label classification based on sum-product networks / Classificação multi-rótulo baseada em redes soma-produto

Julissa Giuliana Villanueva Llerena 06 September 2017 (has links)
Multi-label classification consists of learning a function that is capable of mapping an object to a set of relevant labels. It has applications such as the association of genes with biological functions, semantic classification of scenes and text categorization. Traditional classification (i.e., single-label) is therefore a particular case of multi-label classification in which each object is associated with exactly one label. A successful approach to constructing classifiers is to obtain a probabilistic model of the relation between object attributes and labels. This model can then be used to classify objects, finding the most likely prediction by computing the marginal probability or the most probable explanation (MPE) of the labels given the attributes. Depending on the probabilistic models family chosen, such inferences may be intractable when the number of labels is large. Sum-Product Networks (SPN) are deep probabilistic models, that allow tractable marginal inference. Nevertheless, as with many other probabilistic models, performing MPE inference is NP- hard. Although, SPNs have already been used successfully for traditional classification tasks (i.e. single-label), there is no in-depth investigation on the use of SPNs for Multi-Label classification. In this work we investigate the use of SPNs for Multi-Label classification. We compare several algorithms for learning SPNs combined with different proposed approaches for classification. We show that SPN-based multi-label classifiers are competitive against state-of-the-art classifiers, such as Random k-Labelsets with Support Vector Machine and MPE inference on CutNets, in a collection of benchmark datasets. / A classificação Multi-Rótulo consiste em aprender uma função que seja capaz de mapear um objeto para um conjunto de rótulos relevantes. Ela possui aplicações como associação de genes com funções biológicas, classificação semântica de cenas e categorização de texto. A classificação tradicional, de rótulo único é, portanto, um caso particular da Classificação Multi-Rótulo, onde cada objeto está associado com exatamente um rótulo. Uma abordagem bem sucedida para classificação é obter um modelo probabilístico da relação entre atributos do objeto e rótulos. Esse modelo pode então ser usado para classificar objetos, encon- trando a predição mais provável por meio da probabilidade marginal ou a explicação mais provavél dos rótulos dados os atributos. Dependendo da família de modelos probabilísticos escolhidos, tais inferências podem ser intratáveis quando o número de rótulos é grande. As redes Soma-Produto (SPN, do inglês Sum Product Network) são modelos probabilísticos profundos, que permitem inferência marginal tratável. No entanto, como em muitos outros modelos probabilísticos, a inferência da explicação mais provavél é NP-difícil. Embora SPNs já tenham sido usadas com sucesso para tarefas de classificação tradicionais, não existe investigação aprofundada no uso de SPNs para classificação Multi-Rótulo. Neste trabalho, investigamos o uso de SPNs para classificação Multi-Rótulo. Comparamos vários algoritmos de aprendizado de SPNs combinados com diferentes abordagens propostos para classi- ficação. Mostramos que os classificadores Multi-Rótulos baseados em SPN são competitivos contra classificadores estado-da-arte, como Random k-Labelsets usando Máquinas de Suporte Vetorial e inferência exata da explicação mais provavél em CutNets, em uma coleção de conjuntos de dados de referência.
27

Retroanálise probabilista aplicada à análise dinâmica da cravação de estacas. / Probabilistic back-analysis applied to dynamic loading test for pile driving.

Rojas Saldívar, Raúl Eliseo 22 April 2008 (has links)
Um ensaio de carga dinâmica pode ser efetuado em tubulões, estacas hélice continua, estacas moldadas in situ ou estacas cravadas. Tal ensaio se baseia na Teoria da Propagação de Onda em estacas e visa avaliar a capacidade de carga estática mobilizada a partir do evento dinâmico. A análise do ensaio é feita mediante um programa (p.e. CAPWAP ou DLTWAVE), computacional que leva em conta tanto os sinais de força e velocidade obtidas em campo e o modelo do sistema estaca-solo Este trabalho apresenta uma metodologia para atualização bayesiana dos parâmetros de Smith da teoria de propagação de onda, levando em conta não só os sinais registrados, mas também a informação geotécnica-probabilista prévia sobre estes parâmetros. Uma aproximação semelhante já foi aplicada pelo orientador da pesquisa à estimativa de parâmetros geotécnicos de rochas a partir de medidas de deslocamento em túneis, e de campos de permeabilidade a partir de observações piezométricas em barragens. A técnica proposta está baseada firmemente em conhecimento empírico geotécnico que fornece o ensaio e erro do procedimento usual de comparação de sinais: a atualização bayesiana permite aos parâmetros afetados por incerteza maior ter um ajuste proporcionalmente maior de acordo com observações. O máximo deslocamento elástico (quake), o fator de amortecimento (damping) e a resistência estática unitária, de cada trecho da estaca, são considerados variáveis aleatórias com distribuições prévias estimadas dependendo do local de cravação da estaca. Discute-se e calcula-se a correlação cruzada entre parâmetros diferentes e autocorrelação ao longo de profundidade da estaca. As observações são escolhidas do sinal calculado por um software de análise de sinais de cravação, em espaços regulares ao longo do tempo. Postula-se um modelo linear de observação, pesquisa-se tal linearidade, também, deriva-se uma matriz de sensibilidade (ligando cada parâmetro a cada observação), e estimam-se também as incertezas nas observações (sinais). O resultado final é uma distribuição de parâmetros de Smith ao longo da profundidade de estacas, atualizada de acordo com as observações. A aproximação proposta é aplicada em sinais de um dos momentos da cravação, no final da cravação (\'end of driving\', EOD). / An dynamic loading test can be performed in concrete piles, bored piles, drilled shafts, auger cast-in-place (continuous flight auger) piles. Such essay bases on the Theory of the Propagation of Wave in piles with the aim of evaluate the capacity of static load mobilized from the dynamic event. The analysis of the test is made by a PC program (p.e. CAPWAP or DLTWAVE), that takes into account the signals of force and velocity obtained in field and the pile-soil model. This work presents a methodology for bayesian updating of Smith\'s parameters, taking into account not just the recorded signals, but also the prior geotechnical-probabilistic information about these parameters. A similar approach has already been applied by the senior author to the estimation of rock geotechnical parameters from displacement measurements in tunnels, and of permeability fields in embankment dams from piezometric observations. The proposed technique is deemed more firmly based on sound geotechnical knowledge than the usual trial and error signal matching procedure: bayesian updating allows for parameters affected by larger uncertainty to undergo proportionately larger adjustment according to observations. Quake, damping and static resistance are considered random variables, with prior distributions assessed from information about the geotechnical characteristics of the soils the pile is driven into. Cross-correlation between different parameters and auto-correlation along pile depth are discussed and estimated. Signals measured at some properly selected times are the chosen observations. A linear observation model, linking observations to parameters, is postulated, linearity is investigated, a sensitivity matrix (linking each parameter to each observation) is derived, and uncertainty in the observations (signals) is estimated. The final result is a distribution of Smith\'s parameters along pile depth, updated in accordance with the observations. The proposed approach is tested in end of driving (EOD) signal.
28

Contributions to the analysis of dispersed count data / Contribuições à análise de dados de contagem

Ribeiro Junior, Eduardo Elias 18 February 2019 (has links)
In many agricultural and biological contexts, the response variable is a nonnegative integer value which we wish to explain or analyze in terms of a set of covariates. Unlike the Gaussian linear model, the response variable is discrete with a distribution that places probability mass at natural numbers only. The Poisson regression is the standard model for count data. However, assumptions of this model forces the equality between mean and variance, which may be implausible in many applications. Motivated by experimental data sets, this work intended to develop more realistic methods for the analysis of count data. We proposed a novel parametrization of the COM-Poisson distribution and explored the regression models based on it. We extended the model to allow the dispersion, as well as the mean, depending on covariates. A set of count statistical models, namely COM-Poisson, Gamma-count, discrete Weibull, generalized Poisson, double Poisson and Poisson-Tweedie, was reviewed and compared, considering the dispersion, zero-inflation, and heavy tail indexes, together with the results of data analyzes. The computational routines developed in this dissertation were organized in two R packages available on GitHub. / Em diversos estudos agrícolas e biológicos, a variável resposta é um número inteiro não negativo que desejamos explicar ou analisar em termos de um conjunto de covariáveis. Diferentemente do modelo linear Gaussiano, a variável resposta é discreta com distribuição de probabilidade definida apenas em valores do conjunto dos naturais. O modelo Poisson é o modelo padrão para dados em forma de contagens. No entanto, as suposições desse modelo forçam que a média seja igual a variância, o que pode ser implausível em muitas aplicações. Motivado por conjuntos de dados experimentais, este trabalho teve como objetivo desenvolver métodos mais realistas para a análise de contagens. Foi proposta uma nova reparametrização da distribuição COM-Poisson e explorados modelos de regressão baseados nessa distribuição. Uma extensão desse modelo para permitir que a dispersão, assim como a média, dependa de covariáveis, foi proposta. Um conjunto de modelos para contagens, nomeadamente COM-Poisson, Gamma-count, Weibull discreto, Poisson generalizado, duplo Poisson e Poisson-Tweedie, foi revisado e comparado, considerando os índices de dispersão, inflação de zero e cauda pesada, juntamente com os resultados de análises de dados. As rotinas computacionais desenvolvidas nesta dissertação foram organizadas em dois pacotes R disponíveis no GitHub.
29

Identification of causality in genetics and neuroscience / Identificação de causalidade em genética e neurociência

Ribeiro, Adèle Helena 28 November 2018 (has links)
Causal inference may help us to understand the underlying mechanisms and the risk factors of diseases. In Genetics, it is crucial to understand how the connectivity among variables is influenced by genetic and environmental factors. Family data have proven to be useful in elucidating genetic and environmental influences, however, few existing approaches are able of addressing structure learning of probabilistic graphical models (PGMs) and family data analysis jointly. We propose methodologies for learning, from observational Gaussian family data, the most likely PGM and its decomposition into genetic and environmental components. They were evaluated by a simulation study and applied to the Genetic Analysis Workshop 13 simulated data, which mimic the real Framingham Heart Study data, and to the metabolic syndrome phenotypes from the Baependi Heart Study. In neuroscience, one challenge consists in identifying interactions between functional brain networks (FBNs) - graphs. We propose a method to identify Granger causality among FBNs. We show the statistical power of the proposed method by simulations and its usefulness by two applications: the identification of Granger causality between the FBNs of two musicians playing a violin duo, and the identification of a differential connectivity from the right to the left brain hemispheres of autistic subjects. / Inferência causal pode nos ajudar a compreender melhor as relações de dependência direta entre variáveis e, assim, a identificar fatores de riscos de doenças. Em Genética, a análise de dados agrupados em famílias permite investigar influências genéticas e ambientais nas relações entre as variáveis. Neste trabalho, nós propomos métodos para aprender, a partir de dados Gaussianos agrupados em famílias, o mais provável modelo gráfico probabilístico (dirigido ou não dirigido) e também sua decomposição em dois componentes: genético e ambiental. Os métodos foram avaliados por simulações e aplicados tanto aos dados simulados do Genetic Analysis Workshop 13, que imitam características dos dados do Framingham Heart Study, como aos dados da síndrome metabólica do estudo Corações de Baependi. Em Neurociência, um desafio consiste em identificar interações entre redes funcionais cerebrais - grafos. Nós propomos um método que identifica causalidade de Granger entre grafos e, por meio de simulações, mostramos que o método tem alto poder estatístico. Além disso, mostramos sua utilidade por meio de duas aplicações: 1) identificação de causalidade de Granger entre as redes cerebrais de dois músicos enquanto tocam um dueto de violino e 2) identificação de conectividade diferencial do hemisfério cerebral direito para o esquerdo em indivíduos autistas.
30

Retroanálise probabilista aplicada à análise dinâmica da cravação de estacas. / Probabilistic back-analysis applied to dynamic loading test for pile driving.

Raúl Eliseo Rojas Saldívar 22 April 2008 (has links)
Um ensaio de carga dinâmica pode ser efetuado em tubulões, estacas hélice continua, estacas moldadas in situ ou estacas cravadas. Tal ensaio se baseia na Teoria da Propagação de Onda em estacas e visa avaliar a capacidade de carga estática mobilizada a partir do evento dinâmico. A análise do ensaio é feita mediante um programa (p.e. CAPWAP ou DLTWAVE), computacional que leva em conta tanto os sinais de força e velocidade obtidas em campo e o modelo do sistema estaca-solo Este trabalho apresenta uma metodologia para atualização bayesiana dos parâmetros de Smith da teoria de propagação de onda, levando em conta não só os sinais registrados, mas também a informação geotécnica-probabilista prévia sobre estes parâmetros. Uma aproximação semelhante já foi aplicada pelo orientador da pesquisa à estimativa de parâmetros geotécnicos de rochas a partir de medidas de deslocamento em túneis, e de campos de permeabilidade a partir de observações piezométricas em barragens. A técnica proposta está baseada firmemente em conhecimento empírico geotécnico que fornece o ensaio e erro do procedimento usual de comparação de sinais: a atualização bayesiana permite aos parâmetros afetados por incerteza maior ter um ajuste proporcionalmente maior de acordo com observações. O máximo deslocamento elástico (quake), o fator de amortecimento (damping) e a resistência estática unitária, de cada trecho da estaca, são considerados variáveis aleatórias com distribuições prévias estimadas dependendo do local de cravação da estaca. Discute-se e calcula-se a correlação cruzada entre parâmetros diferentes e autocorrelação ao longo de profundidade da estaca. As observações são escolhidas do sinal calculado por um software de análise de sinais de cravação, em espaços regulares ao longo do tempo. Postula-se um modelo linear de observação, pesquisa-se tal linearidade, também, deriva-se uma matriz de sensibilidade (ligando cada parâmetro a cada observação), e estimam-se também as incertezas nas observações (sinais). O resultado final é uma distribuição de parâmetros de Smith ao longo da profundidade de estacas, atualizada de acordo com as observações. A aproximação proposta é aplicada em sinais de um dos momentos da cravação, no final da cravação (\'end of driving\', EOD). / An dynamic loading test can be performed in concrete piles, bored piles, drilled shafts, auger cast-in-place (continuous flight auger) piles. Such essay bases on the Theory of the Propagation of Wave in piles with the aim of evaluate the capacity of static load mobilized from the dynamic event. The analysis of the test is made by a PC program (p.e. CAPWAP or DLTWAVE), that takes into account the signals of force and velocity obtained in field and the pile-soil model. This work presents a methodology for bayesian updating of Smith\'s parameters, taking into account not just the recorded signals, but also the prior geotechnical-probabilistic information about these parameters. A similar approach has already been applied by the senior author to the estimation of rock geotechnical parameters from displacement measurements in tunnels, and of permeability fields in embankment dams from piezometric observations. The proposed technique is deemed more firmly based on sound geotechnical knowledge than the usual trial and error signal matching procedure: bayesian updating allows for parameters affected by larger uncertainty to undergo proportionately larger adjustment according to observations. Quake, damping and static resistance are considered random variables, with prior distributions assessed from information about the geotechnical characteristics of the soils the pile is driven into. Cross-correlation between different parameters and auto-correlation along pile depth are discussed and estimated. Signals measured at some properly selected times are the chosen observations. A linear observation model, linking observations to parameters, is postulated, linearity is investigated, a sensitivity matrix (linking each parameter to each observation) is derived, and uncertainty in the observations (signals) is estimated. The final result is a distribution of Smith\'s parameters along pile depth, updated in accordance with the observations. The proposed approach is tested in end of driving (EOD) signal.

Page generated in 0.082 seconds