• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • Tagged with
  • 27
  • 27
  • 20
  • 19
  • 7
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Dados hiperespectrais na determinação do conteúdo relativo de água na folha em cana-de-açúcar / Hyperspectral data to determine the relative water content in the sugarcane leaf

Magda Maria Zuleta Bonilla 23 July 2015 (has links)
A cadeia produtiva da cana-de-açúcar vem sofrendo problemas de diversas naturezas, sendo a mais comum a estiagem, agravada pelas mudanças climáticas que reduzem a disponibilidade de água no solo, afetando diretamente a produtividade da cultura. Uma grande proporção da cultura da cana-de-açúcar não é irrigada, sendo sujeita a alterações entre estações úmidas e secas em condições tropicais e subtropicais, mas quando é irrigada, tem-se observado um incremento significativo na produtividade da cultura. As necessidades hídricas da cultura devem ser atendidas, tanto, na quantidade requerida, quanto no momento oportuno. Para isto, devem ser quantificados parâmetros relacionados com o seu estado hídrico. No entanto, os métodos empregados convencionalmente são demorados, custosos e invasivos. Como alternativa que ajuda a reduzir tempo e custos, o sensoriamento remoto hiperespectral vem sendo utilizado para estimar o estado hídrico em diferentes escalas, uma vez que permite a captura de grande quantidade de informação rapidamente. Para o presente trabalho, o comportamento espectral da vegetação de 400 a 2500 nm, foi utilizado na quantificação de alguns parâmetros que estabelecem o seu estado hídrico. As avaliações tanto em casa de vegetação quanto em laboratório foram feitas em folhas de cana-de-açúcar submetidas a déficit hídrico programado. Para os dados de laboratório foram obtidos R2 > 0,8 na região do visível e R2 < 0,55, na região do infravermelho próximo para CRA (conteúdo relativo de água). Para EEA (espessura equivalente da água) foi obtido um R2 < 0,6 na região do infravermelho próximo. / The sugarcane agribusiness has been suffering several kinds of problems. The most common is the drought caused by the weather changes, which reduce the water availability in the soil, affecting directly the crop yield. A large proportion of the sugarcane crop is not irrigated undergoing changes between wet and dry seasons in tropical and subtropical conditions, but when it is irrigated, it has been possible to observe an increase in the crop yield. The crop water requirements must be provided, both at the required amount and at the right time. To do this, parameters related to its moisture status have to be quantized. However, conventional methods are slow, invasive and expensive. As an alternative to reduce time and costs, the hyperspectral remote sensing has been being used to estimate the water status at different scales, because it allows capturing big amounts of information quickly. In the present study, the spectral behavior of vegetation between 400 and 2500 nm was used to quantify some parameters that establish its water status. The evaluations were conducted both in the greenhouse and the laboratory on sugarcane leaves under programmed water deficit. The laboratory data obtained were R2> 0.8 in the visible region and R2 <0.55 in the near infrared region for the RWC (relative water content). For the EWT (equivalent water thickness) was obtained a R2 <0.6 in the near infrared region.
12

Validação externa de modelos de predição de pneumonia pós cirurgia cardíaca / External validation of prediction models for pneumonia after cardiac surgery

Marisa da Silva Santos 06 April 2010 (has links)
Este trabalho versa sobre a validação externa de um modelo para predição de pneumonias em pacientes submetidos a cirurgias cardíacas. Também apresenta uma revisão dos métodos e técnicas para análise crítica e avaliação de desempenho dos modelos preditivos em medicina e discorre sobre aplicações do nomograma. Método: Dados de uma série de 527 pacientes, consecutivamente submetidos a cirurgias cardíacas entre Junho de 2000 e Agosto de 2002, foram utilizados para desenvolver os modelos de prognósticos. Foram realizadas análise de regressão logística múltipla e árvore de classificação e regressão (CART) para identificar fatores preditivos para a ocorrência de pneumonia. Diversos fatores de risco simples e convencionais pré-operatórios foram avaliados. Os modelos foram validados internamente com um método de bootstrap Um nomograma foi desenvolvido para melhorar a aplicabilidade clínica. O desempenho do nomograma foi avaliado por meio de medidas de calibração, discriminação e indicadores globais. Em uma segunda etapa estudo em um hospital público foi realizado com 333 pacientes adultos submetidos a cirurgias cardíacas entre Outubro de 2006 e Maio de 2007. Modelos construídos previamente por meio de regressão logística (LRM) e árvore de classificação e regressão (CART) foram validados com dados externos. Resultados: Um modelo de nomograma simples foi desenvolvido e validado internamente, mostrando discriminação moderada e boa calibração (AUC 0,79; escore Brier 0,064, ângulo de discriminação 0,13; Hosmer-Lemeshow p = 0,27). Pneumonia ocorreu em 7,6% dos pacientes da amostra de validação externa. LRM apresentou melhor desempenho com baixa discriminação (R2 7,1%, Brier=0,06, AUC=0,694) e com calibração adequada (Hosmer-Lemeshow p=0,08). Conclusões: As probabilidades preditas mostraram concordância global com a freqüência observada de pneumonia após cirurgia cardíaca. O nomograma forneceu uma predição satisfatória da probabilidade de pneumonia. Sua aplicabilidade para o uso clínico pode facilitar a informação do paciente e do cirurgião antes da cirurgia cardíaca. Foi validado externamente um modelo capaz de identificar pacientes de alto risco para pneumonia submetidos à cirurgias cardíacas. CART apresentou um bom desempenho na derivação e maiores perdas do que LRM, quanto à discriminação e calibração, na amostra de validação. / This study concerns the external validation of a prediction model for pneumonias after cardiac surgery. It also presents a review of methods and techniques for critical appraisal and performance assessment of clinical predictive models and nomogram applications. Methods: A consecutive series of 527 patients who underwent cardiac surgeries between June 2000 and August 2002 was used to develop a prognostic model.. Multiple logistic regression analysis was performed to predict the occurrence of pneumonia. Diverse simple and conventional preoperative risk factors were evaluated. The model was internal validated with bootstrap. A nomogram was developed to enhance clinical applicability. The performance was evaluated by calibration, discrimination and global measures. Prospective study was done to validate models predicting pneumonia after cardiac surgery with 333 adult patients who underwent cardiac surgery from October 2006 to May 2007. Previously constructed logistic regression (LRM) and classification and regression tree (CART) models were validated with external data. Results: a simple nomogram model was developed and showing low discrimination and good calibration (AUC 0.79, Brier score 0.064, discrimination slope 0.13, Hosmer-Lemeshow p=0.27). Pneumonia occurred in 7.5% of patients in the external validation set. LRM performed better with moderate discrimination (R2 7.1%, Brier=0.06, AROC=0.694) and calibration (Hosmer-Lemeshow P=0.08). Conclusions: Overall agreement between the predicted probabilities and observed frequencies was good in the development and the internal validation set. The nomogram predicts the probability of pneumonia for individual patients and may help in informing patients and surgeons before undergoing cardiac surgery. We validated a model that can identify which patients undergoing cardiac surgery are at high risk for pneumonia. CART performs well in derivation, and looses more discrimination and calibration than LRM in the validation set.
13

Validação externa de modelos de predição de pneumonia pós cirurgia cardíaca / External validation of prediction models for pneumonia after cardiac surgery

Marisa da Silva Santos 06 April 2010 (has links)
Este trabalho versa sobre a validação externa de um modelo para predição de pneumonias em pacientes submetidos a cirurgias cardíacas. Também apresenta uma revisão dos métodos e técnicas para análise crítica e avaliação de desempenho dos modelos preditivos em medicina e discorre sobre aplicações do nomograma. Método: Dados de uma série de 527 pacientes, consecutivamente submetidos a cirurgias cardíacas entre Junho de 2000 e Agosto de 2002, foram utilizados para desenvolver os modelos de prognósticos. Foram realizadas análise de regressão logística múltipla e árvore de classificação e regressão (CART) para identificar fatores preditivos para a ocorrência de pneumonia. Diversos fatores de risco simples e convencionais pré-operatórios foram avaliados. Os modelos foram validados internamente com um método de bootstrap Um nomograma foi desenvolvido para melhorar a aplicabilidade clínica. O desempenho do nomograma foi avaliado por meio de medidas de calibração, discriminação e indicadores globais. Em uma segunda etapa estudo em um hospital público foi realizado com 333 pacientes adultos submetidos a cirurgias cardíacas entre Outubro de 2006 e Maio de 2007. Modelos construídos previamente por meio de regressão logística (LRM) e árvore de classificação e regressão (CART) foram validados com dados externos. Resultados: Um modelo de nomograma simples foi desenvolvido e validado internamente, mostrando discriminação moderada e boa calibração (AUC 0,79; escore Brier 0,064, ângulo de discriminação 0,13; Hosmer-Lemeshow p = 0,27). Pneumonia ocorreu em 7,6% dos pacientes da amostra de validação externa. LRM apresentou melhor desempenho com baixa discriminação (R2 7,1%, Brier=0,06, AUC=0,694) e com calibração adequada (Hosmer-Lemeshow p=0,08). Conclusões: As probabilidades preditas mostraram concordância global com a freqüência observada de pneumonia após cirurgia cardíaca. O nomograma forneceu uma predição satisfatória da probabilidade de pneumonia. Sua aplicabilidade para o uso clínico pode facilitar a informação do paciente e do cirurgião antes da cirurgia cardíaca. Foi validado externamente um modelo capaz de identificar pacientes de alto risco para pneumonia submetidos à cirurgias cardíacas. CART apresentou um bom desempenho na derivação e maiores perdas do que LRM, quanto à discriminação e calibração, na amostra de validação. / This study concerns the external validation of a prediction model for pneumonias after cardiac surgery. It also presents a review of methods and techniques for critical appraisal and performance assessment of clinical predictive models and nomogram applications. Methods: A consecutive series of 527 patients who underwent cardiac surgeries between June 2000 and August 2002 was used to develop a prognostic model.. Multiple logistic regression analysis was performed to predict the occurrence of pneumonia. Diverse simple and conventional preoperative risk factors were evaluated. The model was internal validated with bootstrap. A nomogram was developed to enhance clinical applicability. The performance was evaluated by calibration, discrimination and global measures. Prospective study was done to validate models predicting pneumonia after cardiac surgery with 333 adult patients who underwent cardiac surgery from October 2006 to May 2007. Previously constructed logistic regression (LRM) and classification and regression tree (CART) models were validated with external data. Results: a simple nomogram model was developed and showing low discrimination and good calibration (AUC 0.79, Brier score 0.064, discrimination slope 0.13, Hosmer-Lemeshow p=0.27). Pneumonia occurred in 7.5% of patients in the external validation set. LRM performed better with moderate discrimination (R2 7.1%, Brier=0.06, AROC=0.694) and calibration (Hosmer-Lemeshow P=0.08). Conclusions: Overall agreement between the predicted probabilities and observed frequencies was good in the development and the internal validation set. The nomogram predicts the probability of pneumonia for individual patients and may help in informing patients and surgeons before undergoing cardiac surgery. We validated a model that can identify which patients undergoing cardiac surgery are at high risk for pneumonia. CART performs well in derivation, and looses more discrimination and calibration than LRM in the validation set.
14

Framework para sistema tutor adaptativo ao raciocínio crítico em contabilidade - STARCC / Framework for adaptive tutoring system for critical thinking in accounting - STARCC

Souza, Marcelo Cunha de 13 June 2019 (has links)
O desenvolvimento de habilidades cognitivas de análise, síntese e avaliação, diretamente ligadas à capacidade de raciocínio crítico, constitui um importante objetivo do processo educacional, há décadas a educação contábil é criticada pela deficiência de seus egressos na aquisição e no uso dessas habilidades. Algumas críticas estão diretamente relacionadas ao conteúdo tecnicista da formação (currículo), outras se referem à metodologia aplicada nas salas de aula (pedagogia). O cenário atual, de avanços tecnológicos, cria um ambiente de constantes mudanças a profissão contábil, sendo necessário que haja mudanças na forma e no conteúdo dos cursos para acompanhar essas mudanças. O corpo doutores e pesquisadores em Contabilidade, não é suficiente para protagonizar essa mudança, e o uso de tecnologias podem auxiliar. Diante desse cenário o presente estudo buscou identificar em que medida os sistemas tutores adaptativos auxiliam o estudante de Contabilidade no desenvolvimento das habilidades de raciocínio crítico, propondo um framework para desenvolvimento de Sistemas Tutores Adaptativos ao Raciocínio Crítico em Contabilidade (STARCC). Como resultado o presente estudo desenvolveu um método de classificação do nível de raciocínio crítico em estudantes da disciplina de História da Contabilidade, com base nos logs de acesso do sistema de apoio ao ensino; do processamento da linguagem natural dos textos produzidos para a disciplina; e no índice Flesch-Kincaid de legibilidade dos materiais produzidos. Analises demonstram que o modelo classifica os estudantes com acurácia de 86,20% em relação ao processo realizado por um professor. Entretanto os resultados precisam ser analisados com cuidado, dado que o modelo deve ser testado e melhorado em outras disciplinas e, em outro conjunto de dados, para que possa ser fonte confiável de classificação do nível de raciocínio crítico dos estudantes. Como sugestão de pesquisas futuras pode-se comparar os resultados do modelo de classificação, baseado em inteligência artificial, dessa pesquisa com os resultados de testes consagrados pela literatura, como por exemplo o California Critical Thinking Skills Test (CCTST); o Ennis-Weir Critical Thinking Essay Test (EWCTET). O framework STARCC, mostrou-se útil para elaboração de sistemas de apoio ao processo de ensino e aprendizagem no curso de História da Contabilidade e pesquisas futuras devem submetê-lo a testes em relação a atributos como: facilidade, utilidade e custo benefício em utilizá-lo / The development of cognitive abilities of analysis, synthesis and, evaluation, directly linked to the capacity for critical thinking, is an important objective of the educational process, for decades accounting education has been criticized for the deficiency of its graduates in the acquisition and use of these skills. Some criticisms are directly related to the technical content of the training (curriculum), others refer to the methodology applied in classrooms (pedagogy). The current scenario, of technological advances, creates an environment of constant changes in the accounting profession, being necessary that there are changes in the form and the content of the courses to follow these changes. The body doctors and researchers in Accounting are not enough to star in this change, and the use of technologies can help. Given this scenario, the present study sought to identify the extent to which adaptive tutors systems help the Accounting student in the development of critical reasoning skills, proposing a framework for the development of Adaptive Tutoring Systems for Critical Thinking in Accounting (STARCC). As a result the present study developed a method of classifying the level of critical reasoning in students of the discipline of Accounting History, based on the access logs of the teaching support system; of the processing of the natural language of the texts produced for the discipline; and the Flesch-Kincaid Index of readability of the materials produced. Analyzes show that the model classifies the students with an accuracy of 86.20% in relation to the process performed by a teacher. However, the results need to be carefully analyzed, since the model must be tested and improved in other disciplines and in another set of data so that it can be a reliable source of classification for students\' critical reasoning level. As a suggestion of future research, it is possible to compare the results of the artificial intelligence-based classification model of this research with the results of tests established in the literature, such as the California Critical Thinking Skills Test (CCTST); the Ennis-Weir Critical Thinking Essay Test (EWCTET). The STARCC framework has proved to be useful for the elaboration of support systems for the teaching and learning process in the course of Accounting History and future research should subject it to tests in relation to attributes such as ease, utility and cost benefit.
15

Caracterização de canais multipercurso utilizando filtros digitais parametrizados com técnicas de traçado de raios

MELLO JÚNIOR, Harold Dias de 23 June 2006 (has links)
Submitted by camilla martins (camillasmmartins@gmail.com) on 2016-12-13T14:47:27Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_CaracterizacaoCanaisMultipercurso.pdf: 548976 bytes, checksum: 6cfd0649d63af13ba65327d296f4d825 (MD5) / Rejected by Edisangela Bastos (edisangela@ufpa.br), reason: on 2016-12-15T12:18:19Z (GMT) / Submitted by camilla martins (camillasmmartins@gmail.com) on 2016-12-20T12:42:59Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_CaracterizacaoCanaisMultipercurso.pdf: 548976 bytes, checksum: 6cfd0649d63af13ba65327d296f4d825 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2016-12-20T16:04:28Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_CaracterizacaoCanaisMultipercurso.pdf: 548976 bytes, checksum: 6cfd0649d63af13ba65327d296f4d825 (MD5) / Made available in DSpace on 2016-12-20T16:04:28Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_CaracterizacaoCanaisMultipercurso.pdf: 548976 bytes, checksum: 6cfd0649d63af13ba65327d296f4d825 (MD5) Previous issue date: 2006-06-23 / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Neste trabalho, o canal rádio-móvel com efeito de multipercurso é caracterizado por um filtro de resposta finita ao impulso (FIR) cujos parâmetros são obtidos a partir de técnicas de traçado de raios. Como exemplo de aplicação deste tipo de abordagem, simulou-se o comportamento de um canal em um cenário exterior (outdoor) definido, derivando-se a resposta impulsiva a partir da resposta em freqüência, sendo esse resultado representado por um filtro FIR. Aspectos relacionados á dispersividade temporal e ao desenvolvimento também são discutidos. / In this work, multipath radio propagation channels are characterized by FIR filters. The filters parameters are obtained from ray-tracing techniques, jointly with electromagnetic theory needed to is application. As study of case, modeling of an outdoor wideband channel impulse response is undertaken and time dispersion issues are discussed.
16

Contribuição para o diagnóstico da doença de Chagas crônica na prática clínica / Contribution to the diagnosis of chronic Chagas disease in clinical practice

Pedro Emmanuel Alvarenga Americano do Brasil 13 December 2010 (has links)
Em diferentes diretrizes para doença de Chagas crônica há diferentes algoritmos de execução de testes sorológicos. No entanto, há poucas referências quanto aos pacientes que devem ser submetidos à investigação sorológica, além dos indícios de que os testes ELISA possuem limitações e que o uso da PCR é controverso. Este trabalho contém resultados de dois estudos; o primeiro teve como objetivo rever a literatura sobre diagnóstico de doença de Chagas crônica e sumarizar a performance dos testes ELISA e PCR, e o segundo desenvolver um modelo de predição clínica para doença de Chagas crônica. O primeiro estudo foi uma revisão sistemática. Resumos relevantes foram procurados em bases remotas (MEDLINE, LILACS, EMBASE, SCOPUS, ISIWeb) e em bibliografia de textos completos. As investigações originais foram consideradas elegíveis para este trabalho quando estimassem sensibilidade e especificidade, ou confiabilidade (ou permitissem sua estimação) de testes ELISA ou PCR para o diagnóstico de doença de Chagas crônica. A heterogeneidade mostrou-se elevada em cada teste (ELISA e PCR) e o efeito de ponto de corte foi detectado em subgrupos. A sensibilidade e a especificidade sumárias do teste ELISA foram 97,7% [96,7%-98,5%] e 96,3% [94,6%-97,6%] respectivamente. O teste ELISA com antígenos recombinantes apresentou medidas sumárias de sensibilidade e especificidade de 99,3% [97,9%-99,9%] e 97,5% [88,5%-99,5%], respectivamente. A heterogeneidade da PCR não foi explicada, porém foi detectado um efeito de ponto de corte. A sensibilidade sumária da PCR foi de 50% a 90%, e sua especificidade sumária foi de aproximadamente 100%. Há testes comerciais cujos relatórios técnicos não são acessíveis e por isso não foram incluídos nesta revisão. O segundo trabalho foi um estudo transversal com pacientes recrutados sequencialmente por estarem sob suspeita de serem portadores de doença de Chagas. Neste estudo foram incluídos 352 pacientes e a prevalência da doença de Chagas foi de 20,74%. Os preditores que compuseram o modelo final foram: referenciamento por banco de sangue, número de irmãos com doença de Chagas, presença de BRD 3 grau ao ECG, presença de EV isolada ao ECG, relato de ter residido em área rural no passado, presença de BDAS ao ECG, radiografia com sinal de cardiomegalia, ausência de hipertensão arterial, número de parentes com AVE, relato de ter habitado em vivenda de estuque/taipa no passado. Esse modelo apresentou uma área sob a curva ROC de 0,90. Um nomograma foi elaborado para estimativa individual de probabilidades de ser portador de doença de Chagas crônica.
17

SimAffling um ambiente computacional para suporte e simulação do processo de DNA shuffling

Cheung, Luciana Montera 06 November 2008 (has links)
Made available in DSpace on 2016-06-02T19:02:39Z (GMT). No. of bitstreams: 1 2372.pdf: 3456814 bytes, checksum: 7894f1e8062bb948621e2d222d01e3b0 (MD5) Previous issue date: 2008-11-06 / Financiadora de Estudos e Projetos / The Molecular Evolution of the living organisms is a slow process that occurs over the years producing mutations and recombinations at the genetic material, i.e. at the DNA. The mutations can occur as nucleotide remotion, insertion and/or substitution at the DNA chain. The Directed Molecular Evolution is an in vitro process that tries to improve biological functions of specific molecules producing mutations at the molecule s genetic material, mimicking the natural process of evolution. Many technics that simulate in vitro molecular evolution, among them the DNA shuffling, have been used aiming to improve specific properties of a variety of commercially important products as pharmaceutical proteins, vaccines and enzymes used in industries. The original DNA shuffling methodology can be sumarized by the following steps: 1) selection of the parental sequences; 2) random fragmentation of the parental sequences by an enzyme; 3) repeated cycles of PCR (Polymerase Chain Reaction), in order to reassemble the DNA fragments produced in the previous step; 4) PCR amplification of the reassembled sequences obtained in step 3). The DNA shuffling technic success can be measured by the number of recombinat molecules found at the DNA shuffling library obtained, since these recombinant molecules potentially have improved functionalities in relation to their parent since their sequence may accumulate beneficial mutations originated from distinct parent sequences. Nowadays some few models can be found in the literature whose purpose is to suggest optimization to this process aiming the increase of the genetic diversity of the DNA shuffling library obtained. This research work presents a comparative study of four models used to predict/estimate the DNA shuffling results. In addition a computational tool for simulating the DNA shuffling proccess is proposed and implemented in an environment where other functionalities related to the analyses of the parental sequences and the resulting sequences from the DNA shuffling library is also implemented. / A Evolução Molecular dos organismos vivos é um processo lento que ocorre ao longo dos anos e diz respeito às mutações e recombinações sofridas por um determinado organismo em seu material genético, ou seja, em seu DNA. As mutações ocorrem na forma de remoções, inserções e/ou substituições de nucleotídeos ao logo da cadeia de DNA. A Evolução Molecular Direta é um processo laboratorial, ou seja, in vitro, que visa melhorar funções biológicas específicas de moléculas por meio de mutações/recombinações em seu material genético, imitando o processo natural de evolução. Diversas técnicas que simulam a evolução molecular em laboratório, entre elas a técnica de DNA shuffling, têm sido amplamente utilizadas na tentativa de melhorar determinadas propriedades de uma variedade de produtos comercialmente importantes como vacinas, enzimas industriais e substâncias de interesse famacológico. A metodologia original de DNA shuffling pode ser sumarizada pelas seguintes etapas: 1) seleção dos genes de interesse, dito parentais; 2) fragmentação enzimática dos genes; 3) ciclos de PCR (Polymerase Chain Reaction), para que ocorra a remontagem dos fragmentos; 4) amplificação das seqüências remontadas cujo tamanho é igual a dos parentais. O sucesso ou não da técnica de DNA shuffling pode ser medido pelo número de moléculas recombinantes encontradas na biblioteca de DNA shuffling obtida, uma vez que estas podem apresentar melhorias funcionais em relação aos parentais pelo fato de, possivelmente, acumularem em sua seqüência mutações benéficas presentes em parentais distintos. Atualmente podem ser encontradas na literatura algumas poucas modelagens computacionais capazes de sugerir otimizações para o processo, com vistas em aumentar a diversidade genética da biblioteca resultante. O presente trabalho apresenta um estudo comparativo de quatros modelos para predição/estimativa de resultados de experimentos de DNA shuffling encontrados na literatura bem como a proposta e implementação de uma ferramenta computacional de simulação para o processo de DNA shuffling. A ferramenta de simulação foi implementada em um ambiente que disponibiliza outras funcionalidades referentes à análise das seqüências a serem submetidas ao shuffling bem como ferramentas para análise das seqüências resultantes do processo.
18

Contribuição para o diagnóstico da doença de Chagas crônica na prática clínica / Contribution to the diagnosis of chronic Chagas disease in clinical practice

Pedro Emmanuel Alvarenga Americano do Brasil 13 December 2010 (has links)
Em diferentes diretrizes para doença de Chagas crônica há diferentes algoritmos de execução de testes sorológicos. No entanto, há poucas referências quanto aos pacientes que devem ser submetidos à investigação sorológica, além dos indícios de que os testes ELISA possuem limitações e que o uso da PCR é controverso. Este trabalho contém resultados de dois estudos; o primeiro teve como objetivo rever a literatura sobre diagnóstico de doença de Chagas crônica e sumarizar a performance dos testes ELISA e PCR, e o segundo desenvolver um modelo de predição clínica para doença de Chagas crônica. O primeiro estudo foi uma revisão sistemática. Resumos relevantes foram procurados em bases remotas (MEDLINE, LILACS, EMBASE, SCOPUS, ISIWeb) e em bibliografia de textos completos. As investigações originais foram consideradas elegíveis para este trabalho quando estimassem sensibilidade e especificidade, ou confiabilidade (ou permitissem sua estimação) de testes ELISA ou PCR para o diagnóstico de doença de Chagas crônica. A heterogeneidade mostrou-se elevada em cada teste (ELISA e PCR) e o efeito de ponto de corte foi detectado em subgrupos. A sensibilidade e a especificidade sumárias do teste ELISA foram 97,7% [96,7%-98,5%] e 96,3% [94,6%-97,6%] respectivamente. O teste ELISA com antígenos recombinantes apresentou medidas sumárias de sensibilidade e especificidade de 99,3% [97,9%-99,9%] e 97,5% [88,5%-99,5%], respectivamente. A heterogeneidade da PCR não foi explicada, porém foi detectado um efeito de ponto de corte. A sensibilidade sumária da PCR foi de 50% a 90%, e sua especificidade sumária foi de aproximadamente 100%. Há testes comerciais cujos relatórios técnicos não são acessíveis e por isso não foram incluídos nesta revisão. O segundo trabalho foi um estudo transversal com pacientes recrutados sequencialmente por estarem sob suspeita de serem portadores de doença de Chagas. Neste estudo foram incluídos 352 pacientes e a prevalência da doença de Chagas foi de 20,74%. Os preditores que compuseram o modelo final foram: referenciamento por banco de sangue, número de irmãos com doença de Chagas, presença de BRD 3 grau ao ECG, presença de EV isolada ao ECG, relato de ter residido em área rural no passado, presença de BDAS ao ECG, radiografia com sinal de cardiomegalia, ausência de hipertensão arterial, número de parentes com AVE, relato de ter habitado em vivenda de estuque/taipa no passado. Esse modelo apresentou uma área sob a curva ROC de 0,90. Um nomograma foi elaborado para estimativa individual de probabilidades de ser portador de doença de Chagas crônica.
19

Energia metabolizável de alimentos energéticos para suínos: predição via meta-análise, determinação e validação por simulação bootstrap / Metabolizable energy of energetic food for swine: prediction via meta-analysis, determination and validation by bootstrap simulation

Langer, Carolina Natali 19 July 2013 (has links)
Made available in DSpace on 2017-07-10T17:47:55Z (GMT). No. of bitstreams: 1 Carolina_Natali_Langer.pdf: 3347830 bytes, checksum: e0c654ce879cbbab0be9d34b37c74f3d (MD5) Previous issue date: 2013-07-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The proposed objectives in this study were the metabolizable energy (ME) prediction of corn, sorghum and wheat bran from the chemical and energy composition of these foods in national and international literature data; the stepwise procedure validation of regressive selection by bootstrap simulation; the ME determination of these foods for growing pigs and subsequent validation of equations estimated in ME values observed in the experiment, using the bootstrap resampling procedure. For the ME prediction in chemical composition function, we used data from trials of pig metabolism and chemical composition of corn, sorghum and wheat bran, available in national and international scientific literature. Five models of multiple linear regression were adjusted to estimate the ME. In the stepwise procedure validation of regressive selection, it was used the non-parametric bootstrap resampling method, with each sample replacement, from the database formed via meta-analysis. It was observed the significance percentage by regressive (SPR) and the joint occurrence percentage of the model regressive (JOPMR). In the complete model and in the model without the digestible energy inclusion (DE), the DE and the gross energy (GE) were the regressive which presented the highest SPR (DE = 100% and GE = 95.7%), respectively, suggesting the importance of such regressive to explain the ME of energetic foods for pigs. However, the JOPMR were low, with values among 2.6 and 23.4%, indicating a low reliability of the predicted models to estimate the ME of corn, sorghum and wheat bran for pigs. Based on the SPR, the regressive of the models ME4 = 3824.440 - 105.294Ash + 45.008EE - 37.257DA1*CP (R2 = 0.90); ME5 = 3982.994 - 79.970Ash - 44.778DA1*CP - 43.416DA2*Ash (R2 = 0.92) are valid to estimate the ME of energetic food for pigs. In the field trial, we used 44 crossbred pigs, male and castrated, with an average initial weight of 24.3 ± 1.12 kg, in a randomized block experimental design, with ten treatments and a reference ratio. The ten treatments consisted of six corn and two sorghum cultivars, which replaced in 30% the RR, and two wheat brans, which replaced 20% of the RR. The method of total collection of feces and urine was used for determining the ME of food by using ferric oxide as a fecal marker to define the beginning and end of the collection period. The ME values of corn, sorghum and wheat bran for pigs vary from 3.161 to 3.275, from 3.317 to 3.457 and from 2.767 to 2.842 kcal kg-1 of natural matter, respectively. The validation of the ME prediction models was performed through adjusting the linear regression models of 1st degree from the observed values experimentally determined in function of ME predicted values, calculated by replacement of chemical and energetic composition values of foods, determined in laboratory, in the estimated models via meta-analysis, using the ordinary minimum squares method. The validation of 1st degree models and prediction models of ME was verified by testing the joint null hypothesis for the linear regression parameters (H0: β0 = 0 and β1 = 1). The crossvalidation percentage of each estimated model was evaluated by the same validation tests described in the single test validation. The model ME1 generated similar predicted EM values (p>0.05) to the experimentally observed ME values for national corn and sorghum cultivars in single test validation and had the highest percentage of validation (68%) in 200 bootstrap samples. The other models had a low percentage of cross-validation (0 to 29.5%), and the validated model by both procedures, and that can be used for national corn and sorghum is the ME1 = 2.547 + 0.969DE / Os objetivos propostos neste trabalho foram a predição da energia metabolizável (EM) do milho, sorgo e farelo de trigo a partir da composição química e energética desses alimentos em dados de literatura nacional e internacional; a validação do procedimento stepwise de seleção de regressoras por simulação bootstrap; a determinação da EM desses alimentos para suínos em crescimento e a subsequente validação das equações estimadas nos valores de EM observados no experimento, com utilização do método de reamostragem bootstrap. Para a predição da EM em função de composição química, foram utilizados dados de ensaios de metabolismo de suínos e de composição química do milho, sorgo e farelo de trigo, disponibilizados na literatura científica nacional e internacional. Foram ajustados cinco modelos de regressão linear múltipla para estimar a EM. Na validação do procedimento stepwise de seleção de regressoras, utilizou-se o método de reamostragem bootstrap não paramétrico, com reposição de cada amostra, a partir do banco de dados formado via metaanálise. Foi observado o percentual de significância por regressora (PSR) e o percentual de ocorrência conjunta de regressoras do modelo (POCRM). No modelo completo e no modelo sem inclusão de energia digestível (ED), a ED e a energia bruta (EB) foram as regressoras que apresentaram os maiores PSR (ED = 100% e EB = 95,7%), respectivamente, sugerindo a importância de tais regressoras para explicar a EM de alimentos energéticos para suínos. Entretanto, os POCRM apresentaram-se baixos, com valores entre 2,6 e 23,4%, indicando uma baixa confiabilidade dos modelos preditos para estimar a EM do milho, sorgo e farelo de trigo para suínos. Com base no PSR, as regressoras dos modelos EM4 = 3824,44 - 105,29MM + 45,01EE - 37,26DA1*PB (R2 = 0,90) e EM5 = 3982,99 - 79,97MM - 44,78DA1*PB - 43,42DA2*MM (R2 = 0,92) são válidas para estimar a EM de alimentos energéticos para suínos. No experimento de campo, foram utilizados 44 suínos mestiços, machos e castrados, com peso médio inicial de 24,3 ± 1,12 kg, em delineamento experimental de blocos ao acaso, com dez tratamentos e uma ração referência (RR). Os dez tratamentos consistiram em seis cultivares de milho e dois de sorgo, que substituíram em 30% a RR, e dois farelos de trigo, que substituíram em 20% a RR. O método da coleta total de fezes e urina foi utilizado para determinação da EM dos alimentos. Os valores de EM dos milhos, sorgos e farelos de trigo para suínos variam de 3.161 a 3.275, de 3.317 a 3.457 e de 2.767 a 2.842 kcal kg-1 de matéria natural, respectivamente. A validação dos modelos de predição da EM foi realizada por meio do ajuste de modelos de regressão linear de 1º grau dos valores observados determinados em ensaio sobre os valores preditos de EM, calculados por substituição dos valores de composição química e energética dos alimentos, determinados em laboratório, nos modelos estimados via meta-análise, utilizando-se do método dos mínimos quadrados ordinários. A validação dos modelos de 1º grau e dos modelos de predição da EM foi verificada por meio de teste da hipótese de nulidade conjunta para os parâmetros da regressão linear (H0: β0 = 0 e β1 = 1). O percentual de validação cruzada de cada modelo estimado foi avaliado por meio dos mesmos testes de validação descritos no teste único de validação. O modelo EM1 gerou valores de EM predita semelhantes (p>0,05) aos valores de EM observados em experimento para milhos e sorgos nacionais em teste único de validação e apresentou o maior percentual de validação (68%) em 200 amostras bootstrap. Os demais modelos tiveram baixo percentual de validação cruzada (0 a 29,5%) e o modelo validado por ambos os procedimentos, e que pode ser utilizado para o milho e sorgo nacionais é o EM1a = 2,547 + 0,969ED
20

Predição de mudanças conjuntas de artefatos de software com base em informações contextuais / Predicting co-changes of software artifacts based on contextual information

Wiese, Igor Scaliante 18 March 2016 (has links)
O uso de abordagens de predição de mudanças conjuntas auxilia os desenvolvedores a encontrar artefatos que mudam conjuntamente em uma tarefa. No passado, pesquisadores utilizaram análise estrutural para construir modelos de predição. Mais recentemente, têm sido propostas abordagens que utilizam informações históricas e análise textual do código fonte. Apesar dos avanços obtidos, os desenvolvedores de software ainda não usam essas abordagens amplamente, presumidamente por conta do número de falsos positivos. A hipótese desta tese é que informações contextuais obtidas das tarefas, da comunicação dos desenvolvedores e das mudanças dos artefatos descrevem as circunstâncias e condições em que as mudanças conjuntas ocorrem e podem ser utilizadas para realizar a predição de mudanças conjuntas. O objetivo desta tese consiste em avaliar se o uso de informações contextuais melhora a predição de mudanças conjuntas entre dois arquivos em relação às regras de associação, que é uma estratégia frequentemente usada na literatura. Foram construídos modelos de predição específicos para cada par de arquivos, utilizando as informações contextuais em conjunto com o algoritmo de aprendizagem de máquina random forest. Os modelos de predição foram avaliados em 129 versões de 10 projetos de código aberto da Apache Software Foundation. Os resultados obtidos foram comparados com um modelo baseado em regras de associação. Além de avaliar o desempenho dos modelos de predição também foram investigadas a influência do modo de agrupamento dos dados para construção dos conjuntos de treinamento e teste e a relevância das informações contextuais. Os resultados indicam que os modelos baseados em informações contextuais predizem 88% das mudanças corretamente, contra 19% do modelo de regras de associação, indicando uma precisão 3 vezes maior. Os modelos criados com informações contextuais coletadas em cada versão do software apresentaram maior precisão que modelos construídos a partir de um conjunto arbitrário de tarefas. As informações contextuais mais relevantes foram: o número de linhas adicionadas ou modificadas, número de linhas removidas, code churn, que representa a soma das linhas adicionadas, modificadas e removidas durante um commit, número de palavras na descrição da tarefa, número de comentários e papel dos desenvolvedores na discussão, medido pelo valor do índice de intermediação (betweenness) da rede social de comunicação. Os desenvolvedores dos projetos foram consultados para avaliar a importância dos modelos de predição baseados em informações contextuais. Segundo esses desenvolvedores, os resultados obtidos ajudam desenvolvedores novatos no projeto, pois não têm conhecimento da arquitetura e normalmente não estão familiarizados com as mudanças dos artefatos durante a evolução do projeto. Modelos de predição baseados em informações contextuais a partir de mudanças de software são relativamente precisos e, consequentemente, podem ser usados para apoiar os desenvolvedores durante a realização de atividades de manutenção e evolução de software / Co-change prediction aims to make developers aware of which artifacts may change together with the artifact they are working on. In the past, researchers relied on structural analysis to build prediction models. More recently, hybrid approaches relying on historical information and textual analysis have been proposed. Despite the advances in the area, software developers still do not use these approaches widely, presumably because of the number of false recommendations. The hypothesis of this thesis is that contextual information of software changes collected from issues, developers\' communication, and commit metadata describe the circumstances and conditions under which a co-change occurs and this is useful to predict co-changes. The aim of this thesis is to use contextual information to build co-change prediction models improving the overall accuracy, especially decreasing the amount of false recommendations. We built predictive models specific for each pair of files using contextual information and the Random Forest machine learning algorithm. The approach was evaluated in 129 versions of 10 open source projects from the Apache Software Foundation. We compared our approach to a baseline model based on association rules, which is often used in the literature. We evaluated the performance of the prediction models, investigating the influence of data aggregation to build training and test sets, as well as the identification of the most relevant contextual information. The results indicate that models based on contextual information can correctly predict 88% of co-change instances, against 19% achieved by the association rules model. This indicates that models based on contextual information can be 3 times more accurate. Models created with contextual information collected in each software version were more accurate than models built from an arbitrary amount of contextual information collected from more than one version. The most important pieces of contextual information to build the prediction models were: number of lines of code added or modified, number of lines of code removed, code churn, number of words in the discussion and description of a task, number of comments, and role of developers in the discussion (measured by the closeness value obtained from the communication social network). We asked project developers about the relevance of the results obtained by the prediction models based on contextual information. According to them, the results can help new developers to the project, since these developers have no knowledge about the architecture and are usually not familiar with the artifacts history. Thus, our results indicate that prediction models based on the contextual information are useful to support developers during the maintenance and evolution activities

Page generated in 0.0452 seconds