• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 882
  • 40
  • 38
  • 37
  • 36
  • 33
  • 27
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 920
  • 397
  • 391
  • 391
  • 375
  • 187
  • 172
  • 164
  • 151
  • 123
  • 113
  • 111
  • 108
  • 84
  • 81
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
571

[pt] DETERMINAÇÃO DO COMPORTAMENTO ESTATÍSTICO DE INTERFERÊNCIAS ENVOLVENDO REDES DE COMUNICAÇÕES QUE UTILIZAM SATÉLITES NÃO GEOESTACIONÁRIOS: IMPLEMENTAÇÃO NUMÉRICA DO MÉTODO ANALÍTICO / [en] DETERMINING THE STATISTICAL BEHAVIOR OF THE INTERFERENCE GENERATED BY SATELLITE NETWORKS THAT USE NON-GEOSTATIONARY SATELLITE: NUMERICAL IMPLEMENTATION OF THE ANALYTIC METHOD

JORGE EDUARDO AMORES MALDONADO 23 November 2005 (has links)
[pt] Este trabalho apresenta a descrição e implementação numérica do Método Analítico que determina a interferência em ambientes que envolvem redes de satélites não geoestacionários. Este método está baseado no conhecimento da função densidade de probabilidade (pdf) da posição de um satélite localizado numa órbita elíptica (ou circular) ao redor da Terra. Esta função densidade de probabilidade é utilizada para calcular as interferências produzidas ou experimentadas por elementos de redes NGSO assim como por elementos de outros tipos de redes de telecomunicações (serviço fixo terrestre, redes que utilizam satélites geoestacionários, entre outras). Comparado com os métodos baseados em simulação, é importante ressaltar que o método analítico equivale a uma simulação de tempo infinito, e portanto, não apresenta os problemas de confiabilidade associados com os métodos de simulação. / [en] This thesis presents the numerical algorithm description for the implementation of the analytical approach to assess interference in environments involving NGSO satellite networks proposed in [1]. For completeness purposes it also included to analyze the interference sensitivity to system and network parameters without the reliability problems and the excessive computer effort, often associated with direct computer simulation methods. The Analytical Approach is based on the knowledge of the probability density function (pdf) of the position of a single satellite placed in an elliptical (or circular) orbit around the Earth. This pdf is used to calculate the statistical behavior of interferences produced (or experimented) by NGSO network elements, as well as by elements of other types of telecommunications networks (fixed terrestrial Services, Fixed Satellite Services, among others). To illustrate the applicability of the method several results are presented, each one performed with different parameters and environments. It is worth pointing out that compared with direct computer simulaton methods, the Analytical one generates more reliable and precise results with less required computer time.
572

Ensino e aprendizagem do modelo Poisson: uma experiência com modelagem

Miguel, Maria Inez Rodrigues 25 October 2005 (has links)
Made available in DSpace on 2016-04-27T16:57:10Z (GMT). No. of bitstreams: 1 Doutorado Maria Inez Miguel.pdf: 1466295 bytes, checksum: cab4a04224edf6b54669d1e1fa9d3e99 (MD5) Previous issue date: 2005-10-25 / This researche concentrates on the teaching and learning of the Poisson s Model, whose questioning refers to the use of the Mathematical Modeling, to the steps to be considered and to the results both in the didactic interaction and in the acquisition achieved and mistakes made by the participating pupils. We considered the hypotheses that pair-work, computer use and practical experiments might favor the development of the didactical situations in order to validate it or not. For that purpose, a teaching sequence was elaborated based on our interpretation of the Mathematic Modeling Process suggested by Henry (1997) and it was applied to a group of University undergraduates students from the second year of the College of Electric Engineering and Computer Science. We adopted the Didactic Engineering as methodology, which allows for the validation of hypotheses through the confrontation between the two analysis, a priori and a posteriori, and favors the realignment of the activities during the process. The theoretical framework was constructed with some elements of Chevallard s praxeology and Godino s ontological-semiotic approach to cognition and mathematic instruction; the first guided the analysis of the didactic books and the elaboration and presentation of the proposed tasks in the intended sequence; the second was the basis for the determination of meaningful elements in Poisson s Model to be considered in the teaching and guide the result analysis, allowing for the identification of the knowledge acquired that were in accordance with the intended institutional guidelines and those that could be considered learning mistakes. This research lead to the conclusion that not only the use of the Mathematic Modeling is favorable for the study carried out but also that it made it possible for all the modeling steps to be interpreted, adapted and considered essential for the purposes to be achieved, emphasizing that the experiment carried out should be carefully chosen to serve as motivation for the target public and, if possible, contemplate interdisciplinary. Among the several significant elements of Poisson s Model taken as reference, many were acquired by the group of participating pupils. However, some difficulties related to the use of the software, to the interpretation of terms such as: at least, at most, etc and to the symbolic representation persisted throughout the whole process. The construction of Poisson s Model as hypotheses about the experiment carried out proved to be a viable and efficient strategy, guaranteeing relative easiness in the application the model in the most varied situations, including those with proximity with the Binomial Model; that result allows for the suggestion of the introduction of the mentioned model in the way it is presented, replacing the classical way, consisting of definition, example and exercises, or even, through the proximity with the Binomial Model. The use of a software proved to be efficient to expedite the representations and to make it easier for the visualization of properties; however, learning to handle the software cannot be simultaneous to learning the target content under the risk of compromising it. Pair work proved that information exchange, enriched and complemented by the backgrounds of the two individuals involved, allowed for the emergence of new questions and guaranteed greater reliability in the execution of the proposed tasks. / Esta tese é centrada no ensino e na aprendizagem do Modelo de Poisson, seu questinamento refere-se ao uso da Modelagem Matemática, das etapas a serem consideradas e dos resultados, tanto na interação didática como nas aquisições e erros dos alunos participantes. As hipóteses de que o trabalho em dupla, o uso do computador e o experimento realizado na prática pudessem favorecer o desenvolvimento do projeto foram admitidas, a fim de serem validadas, ou não. Para tal, uma seqüência de ensino, elaborada com base nas etapas de Modelagem Matemática de Henry, foi aplicada a um grupo de alunos do segundo ano de graduação em Engenharia Elétrica e Ciência da Computação de uma Instituição de Ensino Superior. No estudo, a metodologia adotada foi a Engenharia Didática que permite a validação das hipóteses pela confrontação entre as análises a priori e a posteriori e favorece o realinhamento das atividades durante o processo. As bases teóricas foram a praxeologia de Chevallard e o enfoque ontológico-semiótico da cognição e instrução matemática de Godino. A primeira norteou a análise dos livros didáticos, a elaboração e a apresentação das tarefas propostas na seqüência pretendida; a segunda fundamentou a determinação de elementos de significado do Modelo de Poisson para serem considerados no ensino e orientar a análise dos resultados, possibilitando a identificação dos conhecimentos adquiridos que estão conforme a pauta institucional e os que podem ser considerados erros de aprendizagem. A pesquisa permitiu concluir que, não só o uso da Modelagem Matemática é favorável ao estudo realizado, como também todas as etapas de modelagem puderam ser interpretadas, adaptadas e consideradas essenciais, para que os objetivos fossem atingidos, salientando-se que o experimento realizado deve ser cuidadosamente selecionado, a fim de servir de motivação aos sujeitos visados e, se possível, contemplar a interdisciplinaridade. Entre os diversos elementos de significado do Modelo de Poisson tomados como referência, muitos foram adquiridos pelo grupo de alunos participantes, embora algumas dificuldades relacionadas à utilização do aplicativo, à interpretação de termos do tipo: ao menos, no máximo, etc., e à representação simbólica persistiram durante todo o processo. A construção do Modelo de Poisson baseada nas hipóteses citadas sobre o experimento realizado mostrou ser uma estratégia viável e eficiente, garantindo relativa facilidade na aplicação do modelo nas mais variadas situações, inclusive, naquelas de aproximação ao Modelo Binomial. O resultado permite que se sugira a introdução do referido modelo nos moldes apresentados, em lugar do modo clássico com definição, exemplo e exercícios, ou ainda, por meio da aproximação ao Modelo Binomial. O uso de um aplicativo mostrou-se eficiente para agilizar as representações e facilitar a visualização de propriedades; no entanto, a aprendizagem da manipulação do aplicativo não pode concorrer simultaneamente com o estudo do conteúdo pretendido sob pena de comprometê-lo. O trabalho em dupla revelou que as trocas de informações, enriquecidas e complementadas pelas duas formações dos sujeitos envolvidos, permitiram o levantamento de novas questões e maior confiabilidade na realização das tarefas propostas.
573

Leitura e interpretação de gráficos e tabelas: um estudo exploratório com alunos da 8ª série do ensino fundamental

Vasconcelos, Paulo Ramos 14 May 2007 (has links)
Made available in DSpace on 2016-04-27T16:58:14Z (GMT). No. of bitstreams: 1 Paulo Ramos Vasconcelos.pdf: 7144639 bytes, checksum: c4b5702ae8b69946853295f69e698368 (MD5) Previous issue date: 2007-05-14 / Secretaria da Educação do Estado de São Paulo / The purpose of this dissertation was to investigate the development of reading, comprehension of tables and graphs and the concept of arithmetic mean with students from 8th grade, in order to offer relevant data to answer the following research question: What are the effects from the point of view of application and development that a teaching intervention by a non traditional approach turned to the solving of problem-situations involving statistical contents to the statistical literacy of students from 8th grade? For such, a research of intervening character was developed with students from 8th grade of a school from the State public network of São Paulo, constituted of two moments: the first was composed of two phases in the first one the diagnostic-instrument was applied: pre-test; in the second one, the diagnostic-instrument post-test, based on the contents proposed by the Parâmetros Curriculares Nacionais. At the second moment, a teaching intervention was applied based on a sequence of activities involving problem-situations related to problems that are inserted in the daily life of students. The results observed considered the student s comprehension as for reading and comprehension of graphs and tables as: localization of maximum/minimum points, intervals of increase / decrease, the building of column, line graphs, etc.; conceptualization of measures of central tendency, inference and estimative degree based on the data from the graphs. It was concluded that the teaching intervention based on a non-traditional approach contributed to the teaching-learning of statistical concepts, broadening the student s knowledge about the content block of Information Treatment . It was observed that the group of problem-situations proposed enabled the perception of operative invariants linked to the concepts and to the group of significants constituting, thus, a conceptual field / O objetivo desta dissertação foi investigar o desenvolvimento da leitura e interpretação de tabelas e gráficos e o conceito de média aritmética com alunos da 8ª série do Ensino Fundamental, a fim de oferecer subsídios relevantes, para responder à seguinte questão de pesquisa: Quais são os efeitos do ponto de vista da aplicação e desenvolvimento que uma intervenção de ensino proporciona por meio de uma abordagem não tradicional voltada à resolução de situações-problema que envolvem conteúdos estatísticos para o letramento estatístico de alunos da 8ª série do Ensino Fundamental? Para tanto, foi desenvolvida uma pesquisa de caráter intervencionista com alunos da 8ª série do Ensino Fundamental de uma escola da rede pública estadual de São Paulo, constituída de dois momentos: o primeiro compôs-se de duas fases na primeira foi aplicado o instrumento-diagnóstico: pré-teste; na segunda, o instrumento-diagnóstico pós-teste, com base nos conteúdos propostos pelos Parâmetros Curriculares Nacionais. No segundo momento, foi aplicada uma intervenção de ensino com base em uma seqüência de atividades envolvendo situações-problema relacionadas a problemas que estão inseridos no cotidiano dos alunos. Os resultados observados consideraram a compreensão do aluno quanto à leitura e a interpretação de gráficos e tabela como: localização de pontos de máximo/mínimo, intervalos de crescimento/decrescimento, a construção de gráficos de colunas, gráficos linhas, etc; conceitualização das medidas de tendência central, grau de inferência e estimativa com base nos dados dos gráficos. Conclui-se que a intervenção de ensino apoiada em uma abordagem não tradicional contribuiu para o ensino-aprendizagem de conceitos estatísticos, ampliando o conhecimento do aluno sobre o bloco de conteúdo Tratamento da Informação . Observou-se que o conjunto de situações-problema propostas possibilitou a percepção dos invariantes operatórios associados aos conceitos e ao conjunto de significantes, desse modo, constituindo um campo conceitual
574

Otimização do processo de aprendizagem da estrutura gráfica de Redes Bayesianas em BigData

FRANÇA, Arilene Santos de 20 February 2014 (has links)
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-07-31T13:38:32Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_OtimizacaoProcessoAprendizagem.pdf: 1776244 bytes, checksum: 70399c027bdcfb2e5676cb7cc2b4d049 (MD5) / Approved for entry into archive by Ana Rosa Silva (arosa@ufpa.br) on 2014-09-05T12:32:05Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_OtimizacaoProcessoAprendizagem.pdf: 1776244 bytes, checksum: 70399c027bdcfb2e5676cb7cc2b4d049 (MD5) / Made available in DSpace on 2014-09-05T12:32:05Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_OtimizacaoProcessoAprendizagem.pdf: 1776244 bytes, checksum: 70399c027bdcfb2e5676cb7cc2b4d049 (MD5) Previous issue date: 2014 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede. / Automation at data management and analysis has been a crucial factor for companies which need efficient solutions in an each more competitive corporate world. The explosion of the volume information, which has remained increasing in recent years, has demanded more and more commitment to seek strategies to manage and, especially, to extract valuable strategic informations from the use of data mining algorithms, which commonly need to perform exhausting queries at the database in order to obtain statistics that solve or optimize the parameters of the model of knowledge discovery selected; process which requires intensive computing to perform calculations and frequent access to the database. Given the effectiveness of uncertainty treatment, Bayesian networks have been widely used for this process, however, as the amount of data (records and/or attributes) increases, it becomes even more costly and time consuming to extract relevant information in a knowledge base. The goal of this work is to propose a new approach to optimization of the Bayesian Network structure learning in the context of BigData, by using the MapReduce process, in order to improve the processing time. To that end, it was generated a new methodology that includes the creation of an Intermediary Database, containing all the necessary probabilities to the calculations of the network structure. Through the analyzes presented at this work, it is shown that the combination of the proposed methodology with the MapReduce process is a good alternative to solve the scalability problem of the search frequency steps of K2 algorithm and, as a result, to reduce the response time generation of the network.
575

Modelagem da disponibilidade de uma unidade geradora da UHE-Tucuruí

MOREIRA, Pedro Igor Carvalho 04 July 2013 (has links)
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-11-12T16:11:38Z No. of bitstreams: 2 license_rdf: 22974 bytes, checksum: 99c771d9f0b9c46790009b9874d49253 (MD5) Dissertacao_ModelagemDisponibilidadeUnidade.pdf: 2938493 bytes, checksum: c9fb17fbdb7f0bba297ede0cc1d161b5 (MD5) / Approved for entry into archive by Ana Rosa Silva (arosa@ufpa.br) on 2014-11-13T11:48:58Z (GMT) No. of bitstreams: 2 license_rdf: 22974 bytes, checksum: 99c771d9f0b9c46790009b9874d49253 (MD5) Dissertacao_ModelagemDisponibilidadeUnidade.pdf: 2938493 bytes, checksum: c9fb17fbdb7f0bba297ede0cc1d161b5 (MD5) / Made available in DSpace on 2014-11-13T11:48:58Z (GMT). No. of bitstreams: 2 license_rdf: 22974 bytes, checksum: 99c771d9f0b9c46790009b9874d49253 (MD5) Dissertacao_ModelagemDisponibilidadeUnidade.pdf: 2938493 bytes, checksum: c9fb17fbdb7f0bba297ede0cc1d161b5 (MD5) Previous issue date: 2013 / Com o advindo do marco regulatório do Setor Elétrico Brasileiro, a partir de 2004, os agentes que atuam neste mercado têm experimentado um acirramento nas disputas por novos negócios, evidenciando um aumento de competitividade. A Disponibilidade dos Ativos Físicos e os Custos com Manutenção se apresentam como os pontos chave para a competitividade dos agentes. O presente trabalho tem por objetivo apresentar uma metodologia de Análise de Disponibilidade de Sistemas Reparáveis, durante as etapas de projeto ou de operação do sistema, contemplando a mensuração dos Custos com Manutenção versus o Desembolso com Aquisição para um nível esperado de desempenho. A metodologia para a Análise de Disponibilidade sugerida se utiliza da construção do Diagrama de Blocos do Sistema com respectivas descrições funcionais, exportação das informações para o formato de Árvore de Sucesso, composta de portas lógicas dos tipos "E" e "OU" as quais caracterizam um subsistema integrante do sistema principal. O analista pode reavaliar a topologia do sistema, agregando ou retirando redundâncias com a finalidade de ajustar o desempenho do projeto aos requisitos de Disponibilidade, Custo de Aquisição e Custos de Manutenção. Como resultados do trabalho foram identificadas lacunas normativas que definem a forma de controle do desempenho dos ativos, estabelecida uma sistemática de integração entre técnicas de modelagem de confiabilidade e disponibilidade, estabelecidos e incorporados indicadores de desempenho de Manutenção Programada em um agente do mercado, foram modelados e discutidos diferentes cenários para um Sistema de Circulação de Óleo de Mancal e foi aplicado o modelo a toda uma Unidade Geradora Hidráulica por meio da implementação computacional do modelo aos componentes críticos dos principais sistemas. / Since 2004, the regulatory rules in the Brazilian Electricity Sector has changed. The agents who act in this market have experienced a rise in new business disputes, showing an increase in competitiveness. The availability of physical assets and maintenance costs are presented as key points of these agents competitiveness. This work aims to present a methodology of Availability Analysis of Repairable Systems during the design or operational phases, covering the measurement of maintenance costs versus the acquisition costs to an expected performance level. The suggested methodology takes the System Block Diagram and exports to the Successful Tree Analysis format, composed by logic gates "AND" and "OR" where each represents a subsystem in the main system. The analyst may re-evaluate the system's topology, adding or removing redundancies in order to adjust the performance to the requirements of availability, acquisition and maintenance costs. As results of this work were identified gaps in the standards rules which defines how to control the assets performance, was established a systematic integration of modeling techniques for reliability and availability, performance indicators of Scheduled Maintenance were incorporated, different scenarios were modeled for an Oil Circulation System and was applied to an entire Hydraulic Generating Unit by modeling the critical components in the main systems.
576

Regressão logística politômica ordinal: Avaliação do potencial de Clonostachys rosea no biocontrole de Botrytis cinerea / Polytomous ordinal logistic regression: Assessing the potential of Clonostachys rosea in biocontrol of Botrytis cinerea

Lara, Evandro de Avila e 23 July 2012 (has links)
Made available in DSpace on 2015-03-26T13:32:17Z (GMT). No. of bitstreams: 1 texto completo.pdf: 764829 bytes, checksum: 8dbd03463c4800428f75900ca1340eb0 (MD5) Previous issue date: 2012-07-23 / The use of logistic regression modeling as a tool for modeling statistical probability of an event as a function of one or more independents variables, has grown among researchers in several areas, including Phytopathology. At about the dichotomous logistic regression in which the dependent variable is the type binary or dummy, is the extensive number of studies in the literature that discuss the modeling assumptions and the interpretation of the analyzes, as well as alternatives for implementation in statistical packages. However, when the variable response requires the use three or more categories, the number of publications is scarce. This is not only due to the scarcity of relevant publications on the subject, but also the inherent difficulty of coverage on the subject. In this paper we address the applicability of the model polytomous ordinal logistic regression, as well as differences between the proportional odds models, nonproportional and partial proportional odds. For this, we analyzed data from an experiment in which we evaluated the potential antagonistic fungus Clonostachys rosea in biocontrol of the disease called "gray mold", caused by Botrytis cinerea in strawberry and tomato. The partial proportional odds models and nonproportional were adjusted and compared, since the proportionality test score accused rejection of the proportional odds assumption. The estimates of the model coefficients as well as the odds ratios were interpreted in practical terms for Phytopathology. The polytomous ordinal logistic regression is introduced as an important statistical tool for predicting values, showing the potential of C. rosea in becoming a commercial product to be developed and used in the biological control of the disease, because the application of C. rosea was as or more effective than the use of fungicides in the control of gray mold. / O uso da regressão logística como uma ferramenta estatística para modelar a probabilidade de um evento em função de uma ou mais variáveis explicativas, tem crescido entre pesquisadores em várias áreas, inclusive na Fitopatologia. À respeito da regressão logística dicotômica, na qual a variável resposta é do tipo binária ou dummy, é extenso o número de trabalhos na literatura que abordam a modelagem, as pressuposições e a interpretação das análises, bem como alternativas de implementação em pacotes estatísticos. No entanto, quando a variável resposta requer que se utilize três ou mais categorias, o número de publicações é escasso. Isso devido não somente à escassez de publicações relevantes sobre o assunto, mas também à inerente dificuldade de abrangência sobre o tema. No presente trabalho aborda-se a aplicabilidade do modelo de regressão logística politômica ordinal, bem como as diferenças entre os modelos de chances proporcionais, chances proporcionais parciais e chances não proporcionais. Para isso, foram analisados dados de um experimento em que se avaliou o potencial do fungo antagonista Clonostachys rosea no biocontrole da doença denominada mofo cinzento , causada por Botrytis cinerea em morangueiro e tomateiro. Os modelos de chances proporcionais parciais e não proporcionais foram ajustados e comparados, uma vez que o teste score de proporcionalidade acusou rejeição da pressuposição de chances proporcionais. As estimativas dos coeficientes dos modelos bem como das razões de chances foram interpretadas em termos práticos para a Fitopatologia. A regressão logística politômica ordinal se apresentou como uma importante ferramenta estatística para predição de valores, mostrando o potencial do C. rosea em se tornar um produto comercial a ser desenvolvido e usado no controle biológico da doença, pois a aplicação de C. rosea foi tão ou mais eficiente do que a utilização de fungicidas no controle do mofo cinzento.
577

Avaliação de testes diagnósticos na ausência de padrão ouro considerando relaxamento da suposição de independência condicional, covariáveis e estratificação da população: uma abordagem Bayesiana

Pereira, Gilberto de Araujo 16 December 2011 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 4040.pdf: 1510214 bytes, checksum: 7dfe4542c20ffa8a47309738bc22a922 (MD5) Previous issue date: 2011-12-16 / Financiadora de Estudos e Projetos / The application of a gold standard reference test in all or part of the sample under investigation is often not feasible for the majority of diseases affecting humans, either by a lack of consensus on which testing may be considered a gold standard, the high level of invasion of the gold standard technique, the high cost of financially large-scale application, or by ethical questions, so to know the performance of existing tests is essential for the process of diagnosis of these diseases. In statistical modeling aimed to obtain robust estimates of the prevalence of the disease (x ) and the performance parameters of diagnostic tests (sensitivity (Se) and specificity (Sp)), various strategies have been considered such as the stratification of the population, the relaxation of the assumption of conditional independence, the inclusion of covariates, the verification type (partial or total) and the techniques to replace the gold standard. In this thesis we propose a new structure of stratification of the population considering both the prevalence rates and the parameters of test performance among the different strata (EHW). A Bayesian latent class modeling to estimate these parameters was developed for the general case of K diagnostic tests under investigation, relaxation of the assumption of conditional independence according to the formulations of the fixed effect (FECD) and random (RECD) with dependent order (h _ k) and M covariates. The application of models to two data sets about the performance evaluation of diagnostic tests used in screening for Chagas disease in blood donors showed results consistent with the sensitivity studies. Overall, we observed for the structure of stratification proposal (EHW) superior performance and estimates closer to the nominal values when compared to the structure of stratification when only the prevalence rates are different between the strata (HW), even when we consider data set with rates of Se, Sp and x close among the strata. Generally, the structure of latent class, when we have low or high prevalence of the disease, estimates of sensitivity and specificity rates have higher standard errors. However, in these cases, when there is high concordance of positive or negative results of the tests, the error pattern of these estimates are reduced. Regardless of the structure of stratification (EHW, HW), sample size and the different scenarios used to model the prior information, the model of conditional dependency from the FECD and RECD had, from the information criteria (AIC, BIC and DIC), superior performance to the structure of conditional independence (CI) and to FECD with improved performance and estimates closer to the nominal values. Besides the connection logit, derived from the logistic distribution with symmetrical shape, find in the link GEV, derived from the generalized extreme value distribution which accommodates symmetric and asymmetric shapes, a interesting alternative to construct the conditional dependence structure from the RECD. As an alternative to the problem of identifiability, present in this type of model, the criteria adopted to elicit the informative priors by combining descriptive analysis of data, adjustment models from simpler structures, were able to produce estimates with low standard error and very close to the nominal values. / Na área da saúde a aplicação de teste de referência padrão ouro na totalidade ou parte da amostra sob investigação é, muitas vezes, impraticável devido à inexistência de consenso sobre o teste a ser considerado padrão ouro, ao elevado nível de invasão da técnica, ao alto custo da aplicação em grande escala ou por questões éticas. Contudo, conhecer o desempenho dos testes é fundamental no processo de diagnóstico. Na modelagem estatística voltada à estimação da taxa de prevalência da doença (x ) e dos parâmetros de desempenho de testes diagnósticos (sensibilidade (S) e especificidade (E)), a literatura tem explorado: estratificação da população, relaxamento da suposição de independência condicional, inclusão de covariáveis, tipo de verificação pelo teste padrão ouro e técnicas para substituir o teste padrão ouro inexistente ou inviável de ser aplicado em toda a amostra. Neste trabalho, propomos uma nova estrutura de estratificação da população considerando taxas de prevalências e parâmetros de desempenho diferentes entre os estratos (HWE). Apresentamos uma modelagem bayesiana de classe latente para o caso geral de K testes diagnósticos sob investigação, relaxamento da suposição de independência condicional segundo as formulações de efeito fixo (DCEF) e efeito aleatório (DCEA) com dependência de ordem (h _ K) e inclusão de M covariáveis. A aplicação dos modelos a dois conjuntos de dados sobre avaliação do desempenho de testes diagnósticos utilizados na triagem da doença de Chagas em doadores de sangue apresentou resultados coerentes com os estudos de sensibilidade. Observamos, para a estrutura de estratificação proposta, HWE, desempenho superior e estimativas muito próximas dos valores nominais quando comparados à estrutura de estratificação na qual somente as taxas de prevalências são diferentes entre os estratos (HW), mesmo quando consideramos dados com taxas de S, E e x muito próximas entre os estratos. Geralmente, na estrutura de classe latente, quando temos baixa ou alta prevalência da doença, as estimativas das sensibilidades e especificidades apresentam, respectivamente, erro padrão mais elevado. No entanto, quando há alta concordância de resultados positivos ou negativos, tal erro diminui. Independentemente da estrutura de estratificação (HWE, HW), do tamanho amostral e dos diferentes cenários utilizados para modelar o conhecimento a priori, os modelos de DCEF e de DCEA apresentaram, a partir dos critérios de informação (AIC, BIC e DIC), desempenhos superiores à estrutura de independência condicional (IC), sendo o de DCEF com melhor desempenho e estimativas mais próximas dos valores nominais. Além da ligação logito, derivada da distribuição logística com forma simétrica, encontramos na ligação VEG , derivada da distribuição de valor extremo generalizada a qual acomoda formas simétricas e assimétricas, interessante alternativa para construir a estrutura de DCEA. Como alternativa ao problema de identificabilidade, neste tipo de modelo, os critérios para elicitar as prioris informativas, combinando análise descritiva dos dados com ajuste de modelos de estruturas mais simples, contribuíram para produzir estimativas com baixo erro padrão e muito próximas dos valores nominais.
578

Procedimentos sequenciais Bayesianos aplicados ao processo de captura-recaptura

Santos, Hugo Henrique Kegler dos 30 May 2014 (has links)
Made available in DSpace on 2016-06-02T20:04:52Z (GMT). No. of bitstreams: 1 6306.pdf: 1062380 bytes, checksum: de31a51e2d0a59e52556156a08c37b41 (MD5) Previous issue date: 2014-05-30 / Financiadora de Estudos e Projetos / In this work, we make a study of the Bayes sequential decision procedure applied to capture-recapture with fixed sample sizes, to estimate the size of a finite and closed population process. We present the statistical model, review the Bayesian decision theory, presenting the pure decision problem, the statistical decision problem and the sequential decision procedure. We illustrate the theoretical methods discussed using simulated data. / Neste trabalho, fazemos um estudo do procedimento de decisão sequencial de Bayes aplicado ao processo de captura-recaptura com tamanhos amostrais fixados, para estimação do tamanho de uma população finita e fechada. Apresentamos o modelo estatístico, revisamos a teoria de decisão bayesiana, apresentando o problema de decisão puro, o problema de decisão estatística e o procedimento de decisão sequencial. Ilustramos os métodos teóricos discutidos através de dados simulados.
579

Análise bayesiana objetiva para as distribuições normal generalizada e lognormal generalizada

Jesus, Sandra Rêgo de 21 November 2014 (has links)
Made available in DSpace on 2016-06-02T20:04:53Z (GMT). No. of bitstreams: 1 6424.pdf: 5426262 bytes, checksum: 82bb9386f85845b0d3db787265ea8236 (MD5) Previous issue date: 2014-11-21 / The Generalized Normal (GN) and Generalized lognormal (logGN) distributions are flexible for accommodating features present in the data that are not captured by traditional distribution, such as the normal and the lognormal ones, respectively. These distributions are considered to be tools for the reduction of outliers and for the obtention of robust estimates. However, computational problems have always been the major obstacle to obtain the effective use of these distributions. This paper proposes the Bayesian reference analysis methodology to estimate the GN and logGN. The reference prior for a possible order of the model parameters is obtained. It is shown that the reference prior leads to a proper posterior distribution for all the proposed model. The development of Monte Carlo Markov Chain (MCMC) is considered for inference purposes. To detect possible influential observations in the models considered, the Bayesian method of influence analysis on a case based on the Kullback-Leibler divergence is used. In addition, a scale mixture of uniform representation of the GN and logGN distributions are exploited, as an alternative method in order, to allow the development of efficient Gibbs sampling algorithms. Simulation studies were performed to analyze the frequentist properties of the estimation procedures. Real data applications demonstrate the use of the proposed models. / As distribuições normal generalizada (NG) e lognormal generalizada (logNG) são flexíveis por acomodarem características presentes nos dados que não são capturadas por distribuições tradicionais, como a normal e a lognormal, respectivamente. Essas distribuições são consideradas ferramentas para reduzir as observações aberrantes e obter estimativas robustas. Entretanto o maior obstáculo para a utilização eficiente dessas distribuições tem sido os problemas computacionais. Este trabalho propõe a metodologia da análise de referência Bayesiana para estimar os parâmetros dos modelos NG e logNG. A função a priori de referência para uma possível ordem dos parâmetros do modelo é obtida. Mostra-se que a função a priori de referência conduz a uma distribuição a posteriori própria, em todos os modelos propostos. Para fins de inferência, é considerado o desenvolvimento de métodos Monte Carlo em Cadeias de Markov (MCMC). Para detectar possíveis observações influentes nos modelos considerados, é utilizado o método Bayesiano de análise de influência caso a caso, baseado na divergência de Kullback-Leibler. Além disso, uma representação de mistura de escala uniforme para as distribuições NG e logNG é utilizada, como um método alternativo, para permitir o desenvolvimento de algoritmos de amostrador de Gibbs. Estudos de simulação foram desenvolvidos para analisar as propriedades frequentistas dos processos de estimação. Aplicações a conjuntos de dados reais mostraram a aplicabilidade dos modelos propostos.
580

Estimativas de máxima verosimilhança e bayesianas do número de erros de um software.

Silva, Karolina Barone Ribeiro da 24 February 2006 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1 DissKBRS.pdf: 617246 bytes, checksum: 9436ee8984a49f5df072023b717747c6 (MD5) Previous issue date: 2006-02-24 / In this work we present the methodology of capture-recapture, under the classic and bayesian approach, to estimate the number of errors of software through inspection by distinct reviewers. We present the general statistical model considering independence among errors and among reviewers and consider the particular cases of equally detectable errors (homogeneous) and reviewers not equally e¢ cient (heterogeneous) and of errors not equally detectable (heterogeneous) and equally e¢ cient reviewers (homogeneous). After that, under the assumption of independence and heterogeneity among errors and independence and homogeneity among reviwers, we supposed that the heterogeneity of the errors was expressed by a classification of these in easy and di¢ cult of detecting, admitting known the probabilities of detection of an easy error and of a di¢ cult error. Finally, under the hypothesis of independence and homogeneity among errors, we presented a new model considering heterogeneity and dependence among reviewers. Besides, we presented examples with simulate and real data. / Nesta dissertação apresentamos a metodologia de captura-recaptura, sob os enfoques clássico e bayesiano, para estimar o número de erros de um software através de sua inspeção por revisores distintos. Apresentamos o modelo estatístico geral considerando independência entre erros e entre revisores e consideramos os casos particulares de erros igualmente.detectáveis (homogêneos) e revisores não igualmente eficientes (heterogêneos) e de erros não igualmente detectáveis (heterogêneos) e revisores igualmente eficientes (homogêneos). Em seguida, sob a hipótese de heterogeneidade e independência entre erros e homogeneidade e independência entre revisores, supusemos que a heterogeneidade dos erros era expressa por uma classificação destes em fácil e difícil de detectar, admitindo conhecidas as probabilidades de detecção de um erro fácil e de um erro difícil. Finalmente, sob a hipótese de independência e homogeneidade entre erros, apresentamos um novo modelo considerando heterogeneidade e dependência entre revisores. Além disso, apresentamos exemplos com dados simulados e reais.

Page generated in 0.074 seconds