• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 4
  • 1
  • 1
  • Tagged with
  • 20
  • 20
  • 11
  • 8
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Desarrollo y análisis de algoritmos probabilísticos para la reconstrucción de modelos metabólicos a escala genómica

Reyes Chirino, Raymari 09 December 2013 (has links)
This doctoral project is focused on the development and analysis of algorithms for the reconstruction of genome-scale metabolic models, such algorithms include decision-making based on probabilistic criteria. As a fundamental result of the doctoral research, the web application Computational Platform to Access Biological Information (COPABI), which can reconstruct genome-scale metabolic models of biological systems, has been developed. During its computational implementation, it was followed the methodology used for the reconstruction of the first genome-scale metabolic model of a photosynthetic microorganism, the Synechocystis sp. PCC6803. Different mathematical algorithms were applied to compare the models that were automatically generated by COPABI with those published in the literature for different species. / El presente proyecto doctoral se ha centrado en el desarrollo y análisis de algoritmos para la reconstrucción de modelos metabólicos a escala genómica; tales algoritmos incluyen la toma de decisiones a partir de criterios probabilísticos. Como resultado fundamental de la investigación doctoral cabe destacar que se ha desarrollado la aplicación web Computational Platform to Access Biological Information (COPABI) que permite reconstruir modelos metabólicos a escala genómica de sistemas biológicos. Durante su implementación computacional, se ha seguido la metodología usada para la reconstrucción del primer modelo metabólico a escala genómica de un microorganismo fotosintético, la Synechocystis sp. PCC6803. Se aplicaron diferentes algoritmos matemáticos para comparar los modelos generados automáticamente por COPABI con los publicados en la literatura para diferentes especies. / Reyes Chirino, R. (2013). Desarrollo y análisis de algoritmos probabilísticos para la reconstrucción de modelos metabólicos a escala genómica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/34344 / TESIS
12

Multi-label classification based on sum-product networks / Classificação multi-rótulo baseada em redes soma-produto

Llerena, Julissa Giuliana Villanueva 06 September 2017 (has links)
Multi-label classification consists of learning a function that is capable of mapping an object to a set of relevant labels. It has applications such as the association of genes with biological functions, semantic classification of scenes and text categorization. Traditional classification (i.e., single-label) is therefore a particular case of multi-label classification in which each object is associated with exactly one label. A successful approach to constructing classifiers is to obtain a probabilistic model of the relation between object attributes and labels. This model can then be used to classify objects, finding the most likely prediction by computing the marginal probability or the most probable explanation (MPE) of the labels given the attributes. Depending on the probabilistic models family chosen, such inferences may be intractable when the number of labels is large. Sum-Product Networks (SPN) are deep probabilistic models, that allow tractable marginal inference. Nevertheless, as with many other probabilistic models, performing MPE inference is NP- hard. Although, SPNs have already been used successfully for traditional classification tasks (i.e. single-label), there is no in-depth investigation on the use of SPNs for Multi-Label classification. In this work we investigate the use of SPNs for Multi-Label classification. We compare several algorithms for learning SPNs combined with different proposed approaches for classification. We show that SPN-based multi-label classifiers are competitive against state-of-the-art classifiers, such as Random k-Labelsets with Support Vector Machine and MPE inference on CutNets, in a collection of benchmark datasets. / A classificação Multi-Rótulo consiste em aprender uma função que seja capaz de mapear um objeto para um conjunto de rótulos relevantes. Ela possui aplicações como associação de genes com funções biológicas, classificação semântica de cenas e categorização de texto. A classificação tradicional, de rótulo único é, portanto, um caso particular da Classificação Multi-Rótulo, onde cada objeto está associado com exatamente um rótulo. Uma abordagem bem sucedida para classificação é obter um modelo probabilístico da relação entre atributos do objeto e rótulos. Esse modelo pode então ser usado para classificar objetos, encon- trando a predição mais provável por meio da probabilidade marginal ou a explicação mais provavél dos rótulos dados os atributos. Dependendo da família de modelos probabilísticos escolhidos, tais inferências podem ser intratáveis quando o número de rótulos é grande. As redes Soma-Produto (SPN, do inglês Sum Product Network) são modelos probabilísticos profundos, que permitem inferência marginal tratável. No entanto, como em muitos outros modelos probabilísticos, a inferência da explicação mais provavél é NP-difícil. Embora SPNs já tenham sido usadas com sucesso para tarefas de classificação tradicionais, não existe investigação aprofundada no uso de SPNs para classificação Multi-Rótulo. Neste trabalho, investigamos o uso de SPNs para classificação Multi-Rótulo. Comparamos vários algoritmos de aprendizado de SPNs combinados com diferentes abordagens propostos para classi- ficação. Mostramos que os classificadores Multi-Rótulos baseados em SPN são competitivos contra classificadores estado-da-arte, como Random k-Labelsets usando Máquinas de Suporte Vetorial e inferência exata da explicação mais provavél em CutNets, em uma coleção de conjuntos de dados de referência.
13

Métodos Bayesianos aplicados em taxonomia molecular / Bayesian methods applied in molecular taxonomy

Edwin Rafael Villanueva Talavera 31 August 2007 (has links)
Neste trabalho são apresentados dois métodos de agrupamento de dados visados para aplicações em taxonomia molecular. Estes métodos estão baseados em modelos probabilísticos, o que permite superar alguns problemas apresentados nos métodos não probabilísticos existentes, como a dificuldade na escolha da métrica de distância e a falta de tratamento e aproveitamento do conhecimento a priori disponível. Os métodos apresentados combinam por meio do teorema de Bayes a informação extraída dos dados com o conhecimento a priori que se dispõe, razão pela qual são denominados métodos Bayesianos. O primeiro método, método de agrupamento hierárquico Bayesiano, está baseado no algoritmo HBC (Hierarchical Bayesian Clustering). Este método constrói uma hierarquia de partições (dendrograma) baseado no critério da máxima probabilidade a posteriori de cada partição. O segundo método é baseado em um tipo de modelo gráfico probabilístico conhecido como redes Gaussianas condicionais, o qual foi adaptado para problemas de agrupamento. Ambos métodos foram avaliados em três bancos de dados donde se conhece a rótulo da classe. Os métodos foram usados também em um problema de aplicação real: a taxonomia de uma coleção brasileira de estirpes de bactérias do gênero Bradyrhizobium (conhecidas por sua capacidade de fixar o \'N IND.2\' do ar no solo). Este banco de dados é composto por dados genotípicos resultantes da análise do RNA ribossômico. Os resultados mostraram que o método hierárquico Bayesiano gera dendrogramas de boa qualidade, em alguns casos superior que o melhor dos algoritmos hierárquicos analisados. O método baseado em redes gaussianas condicionais também apresentou resultados aceitáveis, mostrando um adequado aproveitamento do conhecimento a priori sobre as classes tanto na determinação do número ótimo de grupos, quanto no melhoramento da qualidade dos agrupamentos. / In this work are presented two clustering methods thought to be applied in molecular taxonomy. These methods are based in probabilistic models which overcome some problems observed in traditional clustering methods such as the difficulty to know which distance metric must be used or the lack of treatment of available prior information. The proposed methods use the Bayes theorem to combine the information of the data with the available prior information, reason why they are called Bayesian methods. The first method implemented in this work was the hierarchical Bayesian clustering, which is an agglomerative hierarchical method that constructs a hierarchy of partitions (dendogram) guided by the criterion of maximum Bayesian posterior probability of the partition. The second method is based in a type of probabilistic graphical model knows as conditional Gaussian network, which was adapted for data clustering. Both methods were validated in 3 datasets where the labels are known. The methods were used too in a real problem: the clustering of a brazilian collection of bacterial strains belonging to the genus Bradyrhizobium, known by their capacity to transform the nitrogen (\'N IND.2\') of the atmosphere into nitrogen compounds useful for the host plants. This dataset is formed by genetic data resulting of the analysis of the ribosomal RNA. The results shown that the hierarchical Bayesian clustering method built dendrograms with good quality, in some cases, better than the other hierarchical methods. In the method based in conditional Gaussian network was observed acceptable results, showing an adequate utilization of the prior information (about the clusters) to determine the optimal number of clusters and to improve the quality of the groups.
14

Métodos Bayesianos aplicados em taxonomia molecular / Bayesian methods applied in molecular taxonomy

Villanueva Talavera, Edwin Rafael 31 August 2007 (has links)
Neste trabalho são apresentados dois métodos de agrupamento de dados visados para aplicações em taxonomia molecular. Estes métodos estão baseados em modelos probabilísticos, o que permite superar alguns problemas apresentados nos métodos não probabilísticos existentes, como a dificuldade na escolha da métrica de distância e a falta de tratamento e aproveitamento do conhecimento a priori disponível. Os métodos apresentados combinam por meio do teorema de Bayes a informação extraída dos dados com o conhecimento a priori que se dispõe, razão pela qual são denominados métodos Bayesianos. O primeiro método, método de agrupamento hierárquico Bayesiano, está baseado no algoritmo HBC (Hierarchical Bayesian Clustering). Este método constrói uma hierarquia de partições (dendrograma) baseado no critério da máxima probabilidade a posteriori de cada partição. O segundo método é baseado em um tipo de modelo gráfico probabilístico conhecido como redes Gaussianas condicionais, o qual foi adaptado para problemas de agrupamento. Ambos métodos foram avaliados em três bancos de dados donde se conhece a rótulo da classe. Os métodos foram usados também em um problema de aplicação real: a taxonomia de uma coleção brasileira de estirpes de bactérias do gênero Bradyrhizobium (conhecidas por sua capacidade de fixar o \'N IND.2\' do ar no solo). Este banco de dados é composto por dados genotípicos resultantes da análise do RNA ribossômico. Os resultados mostraram que o método hierárquico Bayesiano gera dendrogramas de boa qualidade, em alguns casos superior que o melhor dos algoritmos hierárquicos analisados. O método baseado em redes gaussianas condicionais também apresentou resultados aceitáveis, mostrando um adequado aproveitamento do conhecimento a priori sobre as classes tanto na determinação do número ótimo de grupos, quanto no melhoramento da qualidade dos agrupamentos. / In this work are presented two clustering methods thought to be applied in molecular taxonomy. These methods are based in probabilistic models which overcome some problems observed in traditional clustering methods such as the difficulty to know which distance metric must be used or the lack of treatment of available prior information. The proposed methods use the Bayes theorem to combine the information of the data with the available prior information, reason why they are called Bayesian methods. The first method implemented in this work was the hierarchical Bayesian clustering, which is an agglomerative hierarchical method that constructs a hierarchy of partitions (dendogram) guided by the criterion of maximum Bayesian posterior probability of the partition. The second method is based in a type of probabilistic graphical model knows as conditional Gaussian network, which was adapted for data clustering. Both methods were validated in 3 datasets where the labels are known. The methods were used too in a real problem: the clustering of a brazilian collection of bacterial strains belonging to the genus Bradyrhizobium, known by their capacity to transform the nitrogen (\'N IND.2\') of the atmosphere into nitrogen compounds useful for the host plants. This dataset is formed by genetic data resulting of the analysis of the ribosomal RNA. The results shown that the hierarchical Bayesian clustering method built dendrograms with good quality, in some cases, better than the other hierarchical methods. In the method based in conditional Gaussian network was observed acceptable results, showing an adequate utilization of the prior information (about the clusters) to determine the optimal number of clusters and to improve the quality of the groups.
15

Multi-label classification based on sum-product networks / Classificação multi-rótulo baseada em redes soma-produto

Julissa Giuliana Villanueva Llerena 06 September 2017 (has links)
Multi-label classification consists of learning a function that is capable of mapping an object to a set of relevant labels. It has applications such as the association of genes with biological functions, semantic classification of scenes and text categorization. Traditional classification (i.e., single-label) is therefore a particular case of multi-label classification in which each object is associated with exactly one label. A successful approach to constructing classifiers is to obtain a probabilistic model of the relation between object attributes and labels. This model can then be used to classify objects, finding the most likely prediction by computing the marginal probability or the most probable explanation (MPE) of the labels given the attributes. Depending on the probabilistic models family chosen, such inferences may be intractable when the number of labels is large. Sum-Product Networks (SPN) are deep probabilistic models, that allow tractable marginal inference. Nevertheless, as with many other probabilistic models, performing MPE inference is NP- hard. Although, SPNs have already been used successfully for traditional classification tasks (i.e. single-label), there is no in-depth investigation on the use of SPNs for Multi-Label classification. In this work we investigate the use of SPNs for Multi-Label classification. We compare several algorithms for learning SPNs combined with different proposed approaches for classification. We show that SPN-based multi-label classifiers are competitive against state-of-the-art classifiers, such as Random k-Labelsets with Support Vector Machine and MPE inference on CutNets, in a collection of benchmark datasets. / A classificação Multi-Rótulo consiste em aprender uma função que seja capaz de mapear um objeto para um conjunto de rótulos relevantes. Ela possui aplicações como associação de genes com funções biológicas, classificação semântica de cenas e categorização de texto. A classificação tradicional, de rótulo único é, portanto, um caso particular da Classificação Multi-Rótulo, onde cada objeto está associado com exatamente um rótulo. Uma abordagem bem sucedida para classificação é obter um modelo probabilístico da relação entre atributos do objeto e rótulos. Esse modelo pode então ser usado para classificar objetos, encon- trando a predição mais provável por meio da probabilidade marginal ou a explicação mais provavél dos rótulos dados os atributos. Dependendo da família de modelos probabilísticos escolhidos, tais inferências podem ser intratáveis quando o número de rótulos é grande. As redes Soma-Produto (SPN, do inglês Sum Product Network) são modelos probabilísticos profundos, que permitem inferência marginal tratável. No entanto, como em muitos outros modelos probabilísticos, a inferência da explicação mais provavél é NP-difícil. Embora SPNs já tenham sido usadas com sucesso para tarefas de classificação tradicionais, não existe investigação aprofundada no uso de SPNs para classificação Multi-Rótulo. Neste trabalho, investigamos o uso de SPNs para classificação Multi-Rótulo. Comparamos vários algoritmos de aprendizado de SPNs combinados com diferentes abordagens propostos para classi- ficação. Mostramos que os classificadores Multi-Rótulos baseados em SPN são competitivos contra classificadores estado-da-arte, como Random k-Labelsets usando Máquinas de Suporte Vetorial e inferência exata da explicação mais provavél em CutNets, em uma coleção de conjuntos de dados de referência.
16

Contributions to the analysis of dispersed count data / Contribuições à análise de dados de contagem

Ribeiro Junior, Eduardo Elias 18 February 2019 (has links)
In many agricultural and biological contexts, the response variable is a nonnegative integer value which we wish to explain or analyze in terms of a set of covariates. Unlike the Gaussian linear model, the response variable is discrete with a distribution that places probability mass at natural numbers only. The Poisson regression is the standard model for count data. However, assumptions of this model forces the equality between mean and variance, which may be implausible in many applications. Motivated by experimental data sets, this work intended to develop more realistic methods for the analysis of count data. We proposed a novel parametrization of the COM-Poisson distribution and explored the regression models based on it. We extended the model to allow the dispersion, as well as the mean, depending on covariates. A set of count statistical models, namely COM-Poisson, Gamma-count, discrete Weibull, generalized Poisson, double Poisson and Poisson-Tweedie, was reviewed and compared, considering the dispersion, zero-inflation, and heavy tail indexes, together with the results of data analyzes. The computational routines developed in this dissertation were organized in two R packages available on GitHub. / Em diversos estudos agrícolas e biológicos, a variável resposta é um número inteiro não negativo que desejamos explicar ou analisar em termos de um conjunto de covariáveis. Diferentemente do modelo linear Gaussiano, a variável resposta é discreta com distribuição de probabilidade definida apenas em valores do conjunto dos naturais. O modelo Poisson é o modelo padrão para dados em forma de contagens. No entanto, as suposições desse modelo forçam que a média seja igual a variância, o que pode ser implausível em muitas aplicações. Motivado por conjuntos de dados experimentais, este trabalho teve como objetivo desenvolver métodos mais realistas para a análise de contagens. Foi proposta uma nova reparametrização da distribuição COM-Poisson e explorados modelos de regressão baseados nessa distribuição. Uma extensão desse modelo para permitir que a dispersão, assim como a média, dependa de covariáveis, foi proposta. Um conjunto de modelos para contagens, nomeadamente COM-Poisson, Gamma-count, Weibull discreto, Poisson generalizado, duplo Poisson e Poisson-Tweedie, foi revisado e comparado, considerando os índices de dispersão, inflação de zero e cauda pesada, juntamente com os resultados de análises de dados. As rotinas computacionais desenvolvidas nesta dissertação foram organizadas em dois pacotes R disponíveis no GitHub.
17

Predição de mortalidade em cirurgia de coronária e/ou valva no InCor: validação de dois modelos externos e comparação com o modelo desenvolvido localmente (InsCor) / Mortality prediction in coronary bypass surgery and/or heart valve surgery at InCor: Validation of two external risk models and comparison to the locally developed model (InsCor)

Mejia, Omar Asdrubal Vilca 16 April 2012 (has links)
Objetivo: Novas tendências na avaliação de risco trazem evidências de que modelos externos recalibrados ou remodelados funcionam melhor localmente. O objetivo deste estudo foi validar dois modelos externos e formular um modelo local, comparando-os na predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP. Método: Entre 2007 e 2009, 3.000 pacientes foram sequencialmente operados de coronária e/ou valva no InCor-HCFMUSP. No banco de dados, foi realizada a validação dos modelos 2000 Bernstein-Parsonnet (2000BP) e EuroSCORE (ES), mediante testes de calibração e discriminação. O InsCor de 2.000 pacientes foi elaborado mediante a utilização de técnicas de bootstrap. Nos próximos 1.000 pacientes foi realizada a validação interna do modelo, e seu desempenho medido frente ao 2000BP e ES. Resultados: Houve uma diferença significativa na prevalência dos fatores de risco entre as populações do estudo, ES e 2000BP. Na validação externa dos modelos, o ES apresentou uma boa calibração (P=0,596); no entanto, o 2000BP revelou-se inadequado (P=0,047). Na discriminação, a área abaixo da curva ROC revelou-se boa para ambos os modelos, ES (0,79) e 2000BP (0,80). Utilizando a técnica de bootstrap, 10 variáveis: idade >70 anos, sexo feminino, cirurgia associada, infarto do miocárdio <90 dias, reoperação, cirurgia da valva aórtica, cirurgia da valva tricúspide, creatinina <2mg/dl, fração de ejeção <30% e estado pré-operátorio crítico (eventos), foram selecionadas para formulacão do InsCor. Na validação interna do InsCor, a calibração foi adequada, com P=0,184. Na discriminação, a área abaixo da curva ROC foi boa (0,79). Neste grupo, a área abaixo da curva ROC foi de 0,81 e 0,82 para o ES e 2000BP, respectivamente, mostrando-se apropriada para ambos os modelos. Conclusões: O InsCor e o ES tiveram melhor desempenho que o 2000BP em todas as fases da validação; pórem o novo modelo, além de se identificar com os fatores de risco locais, é mais simples e objetivo para a predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP / Background: New trends in risk assessment bring evidence that recalibrated or remodeled external models work best locally. The aim of this study was to validate two external models and formulate a local model, comparing them to predict mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. Method Between 2007 and 2009, 3.000 patients were sequentially operated to coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. The database was assessment to validate the models 2000 Bernstein-Parsonnet (2000BP) and EuroSCORE (ES) through calibration and discrimination tests. The InsCor of 2,000 patients (2/3 of database) was elaborated using bootstrap techniques. Over the next 1000 patients (1/3 of database) the internal validation of the InsCor was performed and its performance compared against the 2000BP and ES. Results: Significant difference in the prevalence of risk factors was found among the external and study populations (P<0,001). In the external validation of these models, the ES showed good calibration (P = 0.596); however, 2000BP was inadequate (P = 0.047). In discrimination, the area under the ROC curve was good for both models, ES (0.79) and 2000BP (0.80). With the bootstrap technique, 10 variables: age> 70 years, female, CABG + valve surgery, myocardial infarction <90 days, reoperation, aortic valve surgery, tricuspid valve surgery, creatinine <2mg/dl, ejection fraction <30% and critical preoperative state (events) were chosen to formulate the InsCor. In the validation of InsCor, the calibration was appropriate with P = 0.184. In discrimination, the area under the ROC curve was good (0.79). In this group, the area under the ROC curve was 0.81 and 0.82 for ES and 2000BP, respectively, being suitable for both models. Conclusions: The InsCor and ES outperformed the 2000BP at all stages of validation, but the new model, besides identifying itself with the local risk factors, is more simple and objective for the prediction of mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP.
18

Análise de resíduos em modelos de regressão von Mises. / Analysis of residues in von Mises regression models.

LEAL, Grayci-Mary Gonçalves. 10 July 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-10T16:48:23Z No. of bitstreams: 1 GRAYCI-MARY GONÇALVES LEAL - DISSERTAÇÃO PPGMAT 2006..pdf: 956853 bytes, checksum: 4fd52ea4cb6e8e47a91cfe0b76a5c4bb (MD5) / Made available in DSpace on 2018-07-10T16:48:23Z (GMT). No. of bitstreams: 1 GRAYCI-MARY GONÇALVES LEAL - DISSERTAÇÃO PPGMAT 2006..pdf: 956853 bytes, checksum: 4fd52ea4cb6e8e47a91cfe0b76a5c4bb (MD5) Previous issue date: 2006-04 / Capes / Dados envolvendo medidas angulares estão presentes nas mais diversas áreas do conhecimento. Para analisá-los é necessário utilizar uma teoria estatística específica e apropriada, diferente da que utilizamos para dados lineares. Particularmente, quando o interesse for formular, ajustar e fazer diagnósticos em modelos de regressão, uma vez que, neste contexto, a natureza da variável deve ser considerada. Neste trabalho, utilizamos os modelos de regressão von Mises para investigar a associação tipo circular-linear e apresentamos dois resíduos padronizados que foram obtidos a partir da componente da função desvio e cujas distribuições de probabilidades podem ser aproximadas pela distribuição normal padrão, definida para dados lineares. / Datainvolvingangulararepresentinthemostdiverseareasofscience. Toanalyze them is necessary to introduce an appropriate theory and to study specific and appropriate statistics as well, different from that we use for linear data. When the interest is to formulate, to adjust and to make diagnostics on regression models, the nature of the variables must be considered. In this work, we use the von Mises regression models to investigate the circular-linear association and discuss two standardized residuals defined from the component of the deviance function whose probability distributions can be approximated by the normal standard distribution defined for linear data.
19

Predição de mortalidade em cirurgia de coronária e/ou valva no InCor: validação de dois modelos externos e comparação com o modelo desenvolvido localmente (InsCor) / Mortality prediction in coronary bypass surgery and/or heart valve surgery at InCor: Validation of two external risk models and comparison to the locally developed model (InsCor)

Omar Asdrubal Vilca Mejia 16 April 2012 (has links)
Objetivo: Novas tendências na avaliação de risco trazem evidências de que modelos externos recalibrados ou remodelados funcionam melhor localmente. O objetivo deste estudo foi validar dois modelos externos e formular um modelo local, comparando-os na predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP. Método: Entre 2007 e 2009, 3.000 pacientes foram sequencialmente operados de coronária e/ou valva no InCor-HCFMUSP. No banco de dados, foi realizada a validação dos modelos 2000 Bernstein-Parsonnet (2000BP) e EuroSCORE (ES), mediante testes de calibração e discriminação. O InsCor de 2.000 pacientes foi elaborado mediante a utilização de técnicas de bootstrap. Nos próximos 1.000 pacientes foi realizada a validação interna do modelo, e seu desempenho medido frente ao 2000BP e ES. Resultados: Houve uma diferença significativa na prevalência dos fatores de risco entre as populações do estudo, ES e 2000BP. Na validação externa dos modelos, o ES apresentou uma boa calibração (P=0,596); no entanto, o 2000BP revelou-se inadequado (P=0,047). Na discriminação, a área abaixo da curva ROC revelou-se boa para ambos os modelos, ES (0,79) e 2000BP (0,80). Utilizando a técnica de bootstrap, 10 variáveis: idade >70 anos, sexo feminino, cirurgia associada, infarto do miocárdio <90 dias, reoperação, cirurgia da valva aórtica, cirurgia da valva tricúspide, creatinina <2mg/dl, fração de ejeção <30% e estado pré-operátorio crítico (eventos), foram selecionadas para formulacão do InsCor. Na validação interna do InsCor, a calibração foi adequada, com P=0,184. Na discriminação, a área abaixo da curva ROC foi boa (0,79). Neste grupo, a área abaixo da curva ROC foi de 0,81 e 0,82 para o ES e 2000BP, respectivamente, mostrando-se apropriada para ambos os modelos. Conclusões: O InsCor e o ES tiveram melhor desempenho que o 2000BP em todas as fases da validação; pórem o novo modelo, além de se identificar com os fatores de risco locais, é mais simples e objetivo para a predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP / Background: New trends in risk assessment bring evidence that recalibrated or remodeled external models work best locally. The aim of this study was to validate two external models and formulate a local model, comparing them to predict mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. Method Between 2007 and 2009, 3.000 patients were sequentially operated to coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. The database was assessment to validate the models 2000 Bernstein-Parsonnet (2000BP) and EuroSCORE (ES) through calibration and discrimination tests. The InsCor of 2,000 patients (2/3 of database) was elaborated using bootstrap techniques. Over the next 1000 patients (1/3 of database) the internal validation of the InsCor was performed and its performance compared against the 2000BP and ES. Results: Significant difference in the prevalence of risk factors was found among the external and study populations (P<0,001). In the external validation of these models, the ES showed good calibration (P = 0.596); however, 2000BP was inadequate (P = 0.047). In discrimination, the area under the ROC curve was good for both models, ES (0.79) and 2000BP (0.80). With the bootstrap technique, 10 variables: age> 70 years, female, CABG + valve surgery, myocardial infarction <90 days, reoperation, aortic valve surgery, tricuspid valve surgery, creatinine <2mg/dl, ejection fraction <30% and critical preoperative state (events) were chosen to formulate the InsCor. In the validation of InsCor, the calibration was appropriate with P = 0.184. In discrimination, the area under the ROC curve was good (0.79). In this group, the area under the ROC curve was 0.81 and 0.82 for ES and 2000BP, respectively, being suitable for both models. Conclusions: The InsCor and ES outperformed the 2000BP at all stages of validation, but the new model, besides identifying itself with the local risk factors, is more simple and objective for the prediction of mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP.
20

O ensino dos modelos probabilísticos discretos no ensino médio

Santana, Jailson Santos 16 April 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This work aims to support Basic Education teachers by providing a detailed materials for teaching Combinatorial Analysis, Probability and Probabilistic Models, taking into account aspects related to day-to- day using mathematical concepts in problem situations. We also propose a teaching sequence on the topics mentioned above for the Basic Education teachers to broaden and diversify their strategies education. / Este trabalho tem como objetivo dar suporte ao professor da Educação Básica fornecendo um material detalhado para o ensino da Análise Combinatória, Probabilidade e Modelos Probabilísticos, levando-se em consideração aspectos relacionados ao dia-a-dia, utilizando conceitos matemáticos em situações problemas. Propomos ainda uma sequência didática sobre os temas acima citados para que os professores da Educação Básica possam ampliar e diversificar as suas estratégias de ensino.

Page generated in 0.1032 seconds