31 |
Respondent driven sampling (RDS) aplicado à população de homens que fazem sexo com homens no Brasil / Respondent driven sampling (RDS) applied to the population of men who have sex with men in BrazilMota, Rosa Maria Salani January 2012 (has links)
MOTA, Rosa Maria Salani. Respondent Driven Sampling (RDS) aplicado à população de homens que fazem sexo com homens no Brasil. 2012. 189 f. Tese (Doutorado em Saúde Pública) - Universidade Federal do Ceará. Faculdade de Medicina, Fortaleza, 2012. / Submitted by denise santos (denise.santos@ufc.br) on 2014-01-13T11:52:45Z
No. of bitstreams: 1
2012_tese_rmsmota.pdf: 6131750 bytes, checksum: cb9fb63c55db61f8c6b8276aaa755008 (MD5) / Approved for entry into archive by denise santos(denise.santos@ufc.br) on 2014-01-13T11:53:07Z (GMT) No. of bitstreams: 1
2012_tese_rmsmota.pdf: 6131750 bytes, checksum: cb9fb63c55db61f8c6b8276aaa755008 (MD5) / Made available in DSpace on 2014-01-13T11:53:07Z (GMT). No. of bitstreams: 1
2012_tese_rmsmota.pdf: 6131750 bytes, checksum: cb9fb63c55db61f8c6b8276aaa755008 (MD5)
Previous issue date: 2012 / The estimators for population parameters in samples collected by sampling Respondent Driven Sampling (RDS) are sensitive to the presence of observations ignored and tends to underestimate the population parameters. The absence of a clearly defined sampling frame for the collection of samples from populations considered hidden and/or difficult access made the RDS became an important tool for biological and behavioral surveillance in these populations at higher risk for HIV, especially Brazil. Considered a method of sampling in the reference chain, RDS uses information about the connections of social networks for specific asymptotically unbiased estimators of population characteristics and accuracy of these estimators. Multicenter cross-sectional epidemiological and behavioral surveillance for MSM populations in 18 years or more was conducted in 10 cities (Manaus, Recife, Salvador, Campo Grande, Brasilia, Curitiba, Itajaí, Santos, Belo Horizonte and Rio de Janeiro) in 2009 and collected in each municipality, a sample through RDS. This study offered the rapid test for diagnosis of HIV infection to those who agreed to participate in a pre-counseling. All participants were asked about testing for HIV prior to the research and about which the diagnosis obtained. By simulating a dichotomous variable (eg, HIV serology positive or negative) without comment ignored in recruiting network in Rio de Janeiro and later recruited 18 deletions, that is, the unknown sample is evaluated from a number of observations significantly smaller than the original sample and the parameter in question (HIV prevalence) is underestimated. Still, with the allocation of single serology ignored in the descriptive context, it is observed in samples with attribution, biological markers indicating that more accurate values. Multicentre study for the group of participants who self-reported positive or negative serology for HIV rapid test and performed the research notes to self-reports, high correlation (0.88) and 100% sensitivity with gold standard rapid test for HIV diagnosis. Finally, estimating the prevalence of HIV in the samples observed by county and general, and the proposed allocation of the self-reported HIV positive and HIV serology subsequent assignment of + / - through three proposed charges: are all negative, proximity of the participants in the network recruitment and by logistic regression. It is found in samples collected from the estimated overall HIV prevalence was equal to 11.1%, by municipality, the lower prevalence in Santos (2.6%) and highest in Rio de Janeiro (17.6%).With the charges tend to increase the prevalence and the highest estimates are found with the imputation logistic regression in 7 of 9 municipalities assessed by this methodology. The estimated overall HIV logistic regression is 14.2% and, by municipality, the lower prevalence in Recife (5.2%) and highest in Brasilia (23.7%). The allocation of serology for HIV by the Logistic Regression occurs by municipality and by a model with a minimum accuracy of 70%. / Os estimadores para parâmetros populacionais em amostras coletadas pelo método de amostragem Respondent Driven Sampling (RDS) são sensíveis à presença de observações ignoradas e tendem a subestimar os parâmetros populacionais. A ausência de um quadro de amostragem bem definido para a coleta de amostras em populações consideradas escondidas e/ou de acesso difícil fez com que o RDS se tornasse uma importante ferramenta de vigilância comportamental e biológica nessas populações com maior risco para o HIV, em especial no Brasil. Considerado um método de amostragem em cadeia de referência, o RDS utiliza informações sobre as conexões das redes sociais para obter estimadores contingentes assintoticamente imparciais das características populacionais e a precisão desses estimadores. Estudo multicêntrico de corte transversal para vigilância epidemiológica e comportamental em populações de HSH com 18 anos ou mais foi realizado em dez cidades brasileiras (Manaus, Recife, Salvador, Campo Grande, Brasília, Curitiba, Itajaí, Santos, Belo Horizonte e Rio de Janeiro) no ano de 2009 e, coleta, em cada município, uma amostra pelo RDS. Neste estudo, foi oferecido o teste rápido para diagnóstico da infecção por HIV àqueles que aceitam participar de um pré-aconselhamento. Todos os participantes foram inquiridos sobre a realização de testes anti-HIV anteriores ao da pesquisa e sobre qual o diagnóstico obtido. Com a simulação de uma variável dicotômica (exemplo: sorologia para HIV positiva ou negativa) sem observações ignoradas na rede de recrutamento do Rio de Janeiro e posteriores exclusões de 18 recrutados, encontra-se que, a amostra com ignorados é avaliada com base em um número de observações significativamente menor que o da amostra original e o parâmetro em questão (prevalência do HIV) é subestimado. Ainda, com a imputação única das sorologias ignoradas, no contexto descritivo, observam-se, nas amostras com imputação, marcadores biológicos que indicam valores mais acurados. No estudo multicêntrico, para o grupo de participantes que autorrelatou sorologia positiva ou negativa para o HIV e realizou teste rápido na pesquisa, observa-se para os autorrelatos elevada concordância (0,88) e sensibilidade de 100% com o padrão-ouro teste rápido para diagnóstico do HIV. Finalmente, estimando a prevalência para o HIV nas amostras observadas por município e geral, e, com a proposta da imputação pelo autorrelato do HIV positivo e posterior atribuição de sorologia HIV +/- mediante três propostas de imputações: todos são negativos, proximidade dos participantes na rede de recrutamento e pela regressão logística. Encontra-se nas amostras coletadas a estimativa geral da prevalência do HIV igual a 11,1% sendo, por município, a menor prevalência em Santos (2,6%) e a maior no Rio de Janeiro (17,6%). Com as imputações as prevalências tendem a aumentar e as maiores estimativas são encontradas com a imputação por meio da regressão logística em sete de nove municípios avaliados por essa metodologia. A estimativa geral do HIV pela regressão logística é 14,2% sendo, por município, a menor prevalência no Recife (5,2%) e a maior em Brasília (23,7%). A imputação da sorologia de infecção por HIV pela regressão logística ocorre por município e por intermédio de um modelo com acurácia mínima igual a 70%.
|
32 |
Comparação de métodos para estimação da distribuição do consumo alimentar usualLaureano, Greice Helen da Costa January 2014 (has links)
Já há inúmeros métodos de estimação da distribuição do consumo alimentar usual. De uma forma geral, eles são de difícil entendimento e implementados em softwares pagos. Em vista disso, este trabalho propõe um novo método de estimação da distribuição do consumo alimentar usual que foi intitulado como MEID (Method for Estimate Intake Distribution). Neste trabalho esse método foi comparado com os métodos SPADE (Statistical Program to Assess Dietary Exposure), NCI (National Cancer Institute) e MSM (Multiple Source Method), por meio de um estudo de simulação. Para cada método foram estimados a média e os percentis da distribuição do consumo usual e foram utilizadas como medidas de acurácia o vício e o vício relativo, já para medir a precisão foi utilizado o Erro Quadrático Médio (EQM). Salienta-se que o método proposto neste trabalho utilizou o software livre R em todo seu escopo. Os resultados mostraram que os métodos NCI, SPADE e MSM realizaram estimações parecidas e obtiveram EQM e vícios superiores ao MEID, principalmente quando se tratava do percentil 95. Em suma, verificou-se que o estimador MEID foi mais acurado e preciso na estimação da distribuição do consumo alimentar usual quando comparado aos demais, como também se mostrou mais simples e de interface implementável em qualquer software com linguagem similar ao do software R. / There are already numerous methods for estimating the distribution of usual dietary intake. In general, they are difficult to understand and implemented in paid software. In this light, this paper proposes a new method for estimating the distribution of usual dietary intake: MEID (Method for Intake Distribution Estimate). In this work this method was compared with the SPADE (Statistical Program to Assess Dietary Exposure), NCI (National Cancer Institute) and MSM (Multiple Source Method) methods, by means of a simulation study. For each method, the mean and the percentiles of usual intake were estimated, and for accuracy measurements, the bias and relative bias were used. The precision was measured using the Mean Squared Error (MSE). The proposed method in this paper uses the free software R. The results have shown that the NCI, MSM and SPADE methods performed similar estimations, and obtained MSE and bias higher than MEID, especially in the 95th percentile. In short, it was found that the MEID estimator was more accurate and precise in estimating the distribution of usual dietary intake, when compared to other estimators, while also being simpler than those. It was also shown that it’s implementable in any language similar to the R software.
|
33 |
Estimativas para soluções fracas limitadas de uma classe geral de equações parabólicas degeneradas não conservativasBrum, Valéria de Fátima Maciel Cardoso January 2011 (has links)
Neste trabalho, investigamos diversas propriedades das soluções u(•, t) limitadas do problema de valor inicial α λ 2 n u = |u| △u + b(x, t)|u| |∇u| , x ∈ R , t > 0, u(., 0) = u0 ∈ Lp0 (Rn) ∩ L∞ (Rn ), 0 < p < ∞ onde α ≥ 1 e λ ≥ α − 1 são constantes dadas, b ∈ L∞ (Rn × [0, ∞)), com ênfase em resultados sobre a norma do sup ∥u(•, t)∥L∞ (Rn ) destas soluções. A análise utiliza uma combinação de estimativas de energia e principios de comparação apropriados para o problema. / In this work we will investigate several important properties of bounded weak solutions u(•, t) of the initial-value problem α λ 2 n u = |u| △u + b(x, t)|u| |∇u| , x ∈ R , t > 0, u(., 0) = u0 ∈ Lp0 (Rn) ∩ L∞ (Rn ), 0 < p < ∞ where α ≥ 1, λ ≥ α − 1 are given constants and b ∈ L∞ (Rn × [0, ∞)). Our emphasis is to obtain supnorm estimates ∥u(•, t)∥L∞ (Rn ) for these solutions. Our analysis is based on e suitable combination of generalized energy estimates and comparison principles specific for this problem.
|
34 |
Classificação de biopotenciais via cadeias de Markov ocultasFrondana, Iara Moreira 17 February 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2012. / Submitted by Elna Araújo (elna@bce.unb.br) on 2012-07-23T21:07:15Z
No. of bitstreams: 1
2012_IaraMoreiraFrondana.pdf: 1802825 bytes, checksum: af77ac073d2c7223ec002546d0407e82 (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2012-07-26T01:10:34Z (GMT) No. of bitstreams: 1
2012_IaraMoreiraFrondana.pdf: 1802825 bytes, checksum: af77ac073d2c7223ec002546d0407e82 (MD5) / Made available in DSpace on 2012-07-26T01:10:34Z (GMT). No. of bitstreams: 1
2012_IaraMoreiraFrondana.pdf: 1802825 bytes, checksum: af77ac073d2c7223ec002546d0407e82 (MD5) / Este trabalho concentra-se na investigação do uso de Modelos de Markov Ocultos (HMM) para classificação de sinais de eletroencefalograa (EEG) obtidos por estímulos visuais. EEG e um biopotencial que possui grande aplicação na área médica, tanto para diagnósticos quanto para a investigação de sistemas de interface entre cérebro e computador (BCI - Brain-Computer Interfaces). A bibliografia recente apresenta vários estudos sobre aplicação de modelos HMM para classificação de sinais de EEG e mostram que o HMM é adequado por ser um modelo genérico que abrange diversas complexidades que surgem em dados de séries temporais. Este trabalho está dividido em três partes. Primeiro é apresentado o modelo HMM, o processo de estimação a ser utilizado e os critérios AIC e BIC para seleção dos modelos. A segunda parte apresenta estudos de simulação que utilizam diferentes condições amostrais para avaliar o procedimento de estimação, qualidade das estimativas e critérios de seleção. Finalmente, e feito o uso de um processo de estimação que inicializa o algoritmo EM com diferentes conjuntos de pontos iniciais aleatórios, para classificar sinais de EEG. Os sinais foram obtidos de estímulos visuais num estudo experimental conduzido por pesquisadores da Universidade do Texas em El Paso. As simulações realizadas mostram que os resultados obtidos para os estimadores são adequados e o critério AIC é superior ao BIC na indicação da ordem apropriada para o modelo. O estudo com dados experimentais apresenta indicações de que o modelo HMM consegue identificar as diferenças entre os sinais captados quando são comparados grupos de estímulos visuais envolvendo figuras abstratas e expressões aritméticas. _________________________________________________________________________________ ABSTRACT / This work focus in the investigation of Hidden Markov Models (HMM) applied to classification of electroencephalograph (EEG) data obtained by visual stimuli. EEG is a biopotencial signal with large application in medical el, as in diagnosis of diseases and investigation of brain-computer interfaces (BCI). The recent literature presents several studies on application od HMM models for classification of EEG signals and show that the HMM is suitable for being a generic model that includes several complexities arising in time series data. This work is divided into three main parts. First, it introduces the HMM model, the estimation process to be used and the AIC and BIC criteria for choosing models. Then the work presents simulation studies using different sampling conditions for evaluating the estimation procedure, quality of the estimates and selection criteria. Finally, it is used an estimation process for classification od EEG signals using different sets of random starting points for initialization of an EM algorithm. For the application study, EEG signals were obtained from visual stimuli in an experimental study conducted by researchers at the University of Texas at El Paso. The simulation study showed that the results obtained are suitable for the estimators and the AIC criterion is superior to the BIC criteria when indicationg the proper order for the model. The application in experimental data indicated that the HMM model can identify differences between signals obtained from visual stimuli involving abstract figures and arithmetic expressions.
|
35 |
Falácia da conjunção : efeitos do treino com regras probabilísticas sobre a escolha e a estimativa de estímulos compostosSouza, Pablo Cardoso de 29 June 2007 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Psicologia, 2007. / Submitted by Aline Jacob (alinesjacob@hotmail.com) on 2010-02-25T15:25:42Z
No. of bitstreams: 1
2007_PabloCardosodeSouza.pdf: 1288260 bytes, checksum: 6d20ee511952da5698284a6c988ebb18 (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-03-03T00:09:07Z (GMT) No. of bitstreams: 1
2007_PabloCardosodeSouza.pdf: 1288260 bytes, checksum: 6d20ee511952da5698284a6c988ebb18 (MD5) / Made available in DSpace on 2010-03-03T00:09:07Z (GMT). No. of bitstreams: 1
2007_PabloCardosodeSouza.pdf: 1288260 bytes, checksum: 6d20ee511952da5698284a6c988ebb18 (MD5)
Previous issue date: 2007-06-29 / A falácia da conjunção ocorre quando um estímulo composto é julgado como sendo tão provável, ou mais provável, do que qualquer um dos seus estímulos constituintes. O objetivo do presente estudo consistiu em verificar se (1) o treino com a regra da conjunção, e (2) o tipo de estímulo empregado, afetaria a incidência da falácia. Estudantes universitários foram divididos em dois grupos, Com Figuras e Com Frases, os quais diferiam em termos do estímulo utilizado ao longo do experimento (figuras e frases, respectivamente). Na Fase Antes da Regra, alguns estímulos simples foram correlacionados com alta, e outros com baixa, probabilidade de pontos (treino). Em seguida, os participantes deveriam escolher entre estímulos simples e compostos e estimar as probabilidades de pontos para cada estímulo (teste). Na Fase Com a Regra foram utilizados outros estímulos e, entre o treino e o teste, os participantes receberam a regra da conjunção. Na Fase Após a Regra foram empregados alguns estímulos da primeira fase, como também estímulos novos durante o treino e o teste. O resultados mostraram que, na Fase Antes da Regra, os participantes de ambos os grupos apresentaram escolhas e estimativas do composto iguais ou maiores que aquelas dos estímulos simples, principalmente no Grupo Com Figuras. Nas fases Com a Regra e Após a Regra houve uma redução nas escolhas e estimativas do composto para ambos os grupos. Foi concluído que o treino com a regra da conjunção diminuiu a incidência da falácia a despeito do tipo de estímulo empregado. _________________________________________________________________________________ ABSTRACT / The conjunction fallacy occurs when a compound stimulus is judged as equally probable as, or more probable than, each of its constituents stimuli. The present study aimed to verify whether (1) the conjunction rule training, and (2) the stimuli type, would affect the incidence of fallacy. College students were assigned to two groups, With-Figures and With-Phrases, which differed in terms of the type of stimuli employed across the experiment (figures and phrases, respectively). During the Before-Rule Phase, some simple stimuli were correlated with high, and others with low, probability of points (training). Later, the participants were required to choose between simple and compound stimuli, and to estimate the probability of points for each stimulus (testing). During the With-Rule Phase, new stimuli were used, and between training and testing, the participants received the conjunction rule. During the After-Rule Phase, some first-phase stimuli, as well as new stimuli, were used during training and testing. The results showed that, during the Before- Rule Phase, most participants presented compound choices or estimates that were equal to, or higher than, those presented for the simple stimuli, mainly in the With-Figures Group. During the With-Rule and After-Rule phases, there was a reduction in compound choices and estimates for both groups. It was concluded that the conjunction-rule training decreased the incidence of fallacy despite of the type of stimuli.
|
36 |
Influência dos Erros da Câmera de Infravermelho Na Estimativa de Parâmetros TermofísicosSilva, Renata Nunes Tavares da 08 1900 (has links)
Submitted by Eduarda Figueiredo (eduarda.ffigueiredo@ufpe.br) on 2015-03-10T14:40:46Z
No. of bitstreams: 2
Estudo da Influência dos Erros na Estimativa de Parâmetros Termofísicos_Tese de Doutorado_Renata Nunes Tavares da Silva.pdf: 4314250 bytes, checksum: 65ae2d9dd81fbc2ec1acaf9373753eec (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-10T14:40:47Z (GMT). No. of bitstreams: 2
Estudo da Influência dos Erros na Estimativa de Parâmetros Termofísicos_Tese de Doutorado_Renata Nunes Tavares da Silva.pdf: 4314250 bytes, checksum: 65ae2d9dd81fbc2ec1acaf9373753eec (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2012-08 / A termografia por infravermelho é uma técnica de ensaio não-destrutivo que obtém
imagens térmicas de objetos. Ela pode ser usada de forma quantitativa na solução de
problemas inversos de condução de calor. Normalmente esses problemas inversos são
resolvidos a partir da: (a) obtenção de temperaturas a partir de um instrumento de
medição; (b) solução do problema direto; e (c) minimização do erro entre as temperaturas
experimentais e estimadas. As diferenças são a forma de medir as temperaturas e o
método de minimização empregado. O principal objetivo desse trabalho é analisar como
os erros da câmera de infravermelho influenciam na precisão da estimativa de parâmetros
termofísicos de materiais. Foi realizado um levantamento dos erros de uma câmera de
infravermelho real. Também foram simulados experimentos computacionais para a
geração de imagens térmicas do resfriamento de uma placa de gesso. Depois foram
adicionados os erros levantados. Para simular diferentes resoluções de câmeras, foram
implementadas diferentes máscaras com várias distribuições e quantidade de pixels. Para
representar a temperatura superficial da amostra foram usados três índices, calculados a
partir das máscaras implementadas. Os índices utilizados foram: a temperatura média
superficial, temperatura média quadrática superficial, e temperatura máxima superficial.
Também foi desenvolvido um método automático baseado na técnica de Levenberg-
Marquardt para resolver o problema inverso de condução de calor as diferentes
combinações máscara_índice. Os resultados mostraram que o erro sistemático que varia
apenas com a distância do pixel ao centro da imagem provoca uma maior influência, ou
seja, um erro percentual do parâmetro estimado em relação ao parâmetro de referência,
nas estimativas da capacidade térmica do gesso. Enquanto que um erro sistemático que
depende apenas da temperatura registrada no pixel da imagem influencia mais na
estimativa da condutividade térmica gesso. Para um desvio médio de 1,46 °C houve
erro% de 15% no rcp, e para um desvio médio de 0,81°C o erro% foi de 25% no k.
Comprovando a importância da frequência das calibrações da câmera de infravermelho
que será usada para medir temperaturas a serem usadas em problemas inversos de
transferência de calor. Os erros aleatórios provocaram os maiores erros percentuais nas
estimativas feitas com a temperatura máxima superficial da amostra. Para esse tipo de
erro, a maior influência é na estimativa da condutividade térmica do gesso. A diferença
entre usar a temperatura média ou máxima não é tão importante se os erros considerados são os sistemáticos, mas se os erros são aleatórios a diferença é enorme.
|
37 |
Detecção de dados atipicos e metodos de regressão com alto ponto de rupturaMachado, Helymar da Costa 17 April 1997 (has links)
Orientador: Gabriela Stangenhaus / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-22T04:02:22Z (GMT). No. of bitstreams: 1
Machado_HelymardaCosta_M.pdf: 4843890 bytes, checksum: d92608cb421a49bc3a9b5850b381092c (MD5)
Previous issue date: 1997 / Resumo: As técnicas de diagnóstico para detecção de dados atípicos comumente utilizadas na análise de regressão linear têm por base o método de estimação dos mínimos quadrados dos resíduos. No entanto, se no conjunto de dados houver observações atípicas, estas obsetVações influenciarão o ajuste, afetando o estimador obtido por esse método. Quando isto OCOITe, pode haver efeitos de maceramento (isto é, não se detectam as observações atipicas, ou seja, aquelas que se distanciam das demais) e/ou "swamping" (isto é, c1assifica se como atípica uma observação comum). Neste traba1ho são abordados métodos de estimação com alto ponto de ruptura, ou seja, métodos cujos esticadores não são afetados quando houver observações atípicas no conjunto de dados. Como alternativa para o método dos mínimos quadrados dos resíduos são abordados mais deta1hadamente o método da mínima mediana dos quadrados dos resíduos e o método dos quadrados aparados mínimos. As técnicas de diagnóstico baoadas em tais métodos são resistentes a dados atípicos, conseguindo identificá-los. Para obtenção de uma solução para os estimadores dos métodos de estimação resistentes às observações atípicas utilizam-se algoritmos que se baseiam nos chamado conjuntos elementares, que consistem de subconjuntos das observações do conjunto de dados. Assim, são apresentados vários algoritmos baseados nos conjuntos elementares, sendo que alguns algori1mos consistem na enumeração completa ou parcial (através de uma amostra aleatória) de todos os possíveis conjuntos elementares, enquanto que outros são resolvidos através de programação linear. / Abstract: Not informed. / Mestrado / Mestre em Estatística
|
38 |
Aprimorando metodo para detecção de frequencias baseado na norma-minimaColares, Ricardo Fialho 26 September 1997 (has links)
Orientador: Amauri Lopes / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-22T21:47:16Z (GMT). No. of bitstreams: 1
Colares_RicardoFialho_M.pdf: 6743255 bytes, checksum: 80941de30b4a94d8e4a67978ab3eff8f (MD5)
Previous issue date: 1997 / Resumo: : Este trabalho aborda a aplicação da predição linear na análise de sinais discretos. Examinaremos a sua utilização no problema de estimação de freqüências de um sinal sujeito à ruído. O critério baseado nos mínimos-quadrados será utilizado para a obtenção do preditor ótimo nas formas forward, backward e forward-backward. A ferramenta de decomposição em valores singulares (DVS) será utilizada para a obtenção da solução de norma-mínima para esses preditores. Tal solução particular será detalhadamente estudada para investigar o comportamento dos zeros do polinômio associado ao filtro de erro de predição. A análise desenvolvida trouxe contribuições ao conhecimento dos métodos baseados na norma-mínima, as quais propiciaram a elaboração de uma proposta de um novo método para detecção de freqüências baseado no método FBLP Modificado. Os resultados de simulações obtidos para o método proposto mostram uma SNR de limiar inferior àquela obtida para o método FBLP Modificado. Os resultados também indicam que o novo método é capaz de estimar freqüências em SNR's inferiores àquelas obtidas mesmo para o método da Máxima Verossimilhança / Abstract: This work is concerned with the application of the linear prediction on the discrete signals analysis, aiming the frequency estimation at low signal to noise ratios. The linear prediction is optimized using least squares criterion and each of the following forms: forward, backward, forward-backward. For each one of this cases, a minimum norm solution is obtained through singular value decomposition and a polynomial is formed using the optimized coefficients. The study of the behavior of their zeroes led to new insight into the minimum norm based frequency detection methods, allowing the proposal of a new method, based on the Modified FBLP. The simulation results have shown that this new method is able to detect frequencies at lower signal to noise ratios, even when compared with the Maximum Likelihood method / Mestrado / Mestre em Engenharia Elétrica
|
39 |
Metodologia para ajuste e comparação de modelos em confiabilidadeMarques, Denilson 19 February 2004 (has links)
Orientador: Katia Lucchesi Cavalca / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-03T23:40:03Z (GMT). No. of bitstreams: 1
Marques_Denilson_M.pdf: 10523181 bytes, checksum: a1bf827906db8a9736141efe1bbae47d (MD5)
Previous issue date: 2004 / Resumo: Este trabalho apresenta uma metodologia para ajuste de modelos em confiabilidade e estudos comparativos envolvendo duas ou mais amostras. A primeira etapa é a seleção da distribuição estatística mais adequada a um determinado processo de falha. Essa seleção é realizada através de Gráficos de Probabilidade e do Coeficiente de Determinação. Em seguida, os parâmetros da distribuição são estimados através do Método de Máxima Verossimilhança. Para a distribuição Exponencial, há expressões diretas que fornecem as estimativas dos parâmetros. Para a distribuição Normal e Weibull, as equações para obtenção das estimativas dos parâmetros são resolvidas numericamente empregando-se o método de Newton-Raphson. Devido à incerteza inerente a cada estimativa, intervalos de confiança aproximados pela distribuição Normal são calculados e o tamanho aproximado da amostra é fornecido em função de um intervalo com uma magnitude e nivel de confiança específico. Com os modelos completamente definidos para cada a.1J1ostra, testes de hipóteses são realizados com objetivo de verificar a existência de diferenças estatisticamente significativas e o Teste da Razão de Verossimilhança é empregado. A metodologia desenvolvida foi aplicada a um exemplo da literatura consultada e três casos reais foram abordados / Abstract: This investigation presents a methodology for fitting models in reliability and comparative studies involving two or more samples. The first stage is the selection of the most appropriate distribution to determined failure processo This selection is carried through Probability Plots and the Coefficient of Determination. After that, the parameters of the distribution are estimated through Maximum Likelihood Method. For the Exponential distribution, there are direct expressions that supply the estimates for the parameters. For the Normal and Weibull distributions, the equations to obtain the estimates for the parameters are solved numerically using the Newton-Raphson Method. Due to inherent uncertainty to each estimate, confidence intervals approached by the Normal distribution are calculated and the approximated sample size is supplied in function of an interval with a specific magnitude and confidence leveI. With the models completely defined for each sample, hypothesis tests are carried out with the objective to verify the existence af statiscally significant differences and the Likelihood Ratio Test is used. The developed methodology was applied to an example of consulted literature and three real cases had been analyzed. / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
|
40 |
Aplicabilidade de metricas por pontos de função em sistemas baseados em WebDrach, Marcos David 25 February 2005 (has links)
Orientadores: Ariadne Maria Brito Rizzoni Carvalho, Thelma Cecilia dos Santos Chiossi / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-04T13:53:20Z (GMT). No. of bitstreams: 1
Drach_MarcosDavid_M.pdf: 1097883 bytes, checksum: 0be02ee41451affd5b6b6ef00b77ddf1 (MD5)
Previous issue date: 2005 / Resumo: Métricas de software são padrões quantitativos de medidas de vários aspectos de um projeto ou produto de software, e se constitui em uma poderosa ferramenta gerencial, contribuindo para a elaboração de estimativas de prazo e custo mais precisas e para o estabelecimento de metas plausíveis, facilitando assim o processo de tomada de decisões e a subsequente obtenção de medidas de produtividade e qualidade. A métrica de Análise por Pontos de Função - FPA, criada no final da década de 70 com o objetivo de medir o tamanho de software a partir de sua especificação funcional, foi considerada um avanço em relação ao método de contagem por Linhas de Código Fonte - SLOC, a única métrica de tamanho empregada na época. Embora vários autores tenham desde então publicado várias extensões e alternativas ao método original no sentido de adequá-lo a sistemas específicos, sua aplicabilidade em sistemas Web ainda carece de um exame mais crítico. Este trabalho tem por objetivo realizar uma análise das características computacionais específicas da plataforma Web que permita a desenvolvedores e gerentes de projeto avaliarem o grau de adequação da FPA a este tipo de ambiente e sua contribuição para extração de requisitos e estimativa de esforço / Abstract: Software metrics are quantitative standards of measurement for many aspects of a software project or product, consisting of a powerful management tool that contributes to more accurate delivery time and cost estimates and to the establishment of feasible goals, facilitating both the decision-making process itself and the subsequent obtention of data measuring productivity and quality. The metric Function Point Analysis - FPA, created at the end of 70¿s to measure software size in terms of its functional specification, was considered an advance over the Source Line Of Code - SLOC counting method, the only method available at that time. Although many authors have published various extensions and alternatives to the original method, in order to adapt it to specific systems, its applicability in Web-based systems still requires a deeper and more critical examination. This work aims to present an analysis of the specific computational characteristics of the Web platform that allows developers and project managers to evaluate the adequacy of the FPA method to this environment and its contribution to the requirement extraction and effort estimation / Mestrado / Engenharia de Computação / Mestre Profissional em Computação
|
Page generated in 0.1134 seconds