Spelling suggestions: "subject:"amostragem (estatística)"" "subject:"amostragem (statística)""
11 |
Algoritmo para identificação de características para amostragem estratificadaRatke, Cláudio January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-22T11:20:47Z (GMT). No. of bitstreams: 1
232779.pdf: 456462 bytes, checksum: fb2b05ec39562530ec43de8e3a4077d6 (MD5) / Este trabalho apresenta um algoritmo para identificar características que possam ser utilizadas num processo de amostragem estratificada. O algoritmo localiza as características e os seus respectivos valores que dividem o conjunto de dados em estratos, de tal forma que a variância do estimador, de uma média ou proporção, seja inferior à variância do estimador baseado em uma amostra aleatória simples. O algoritmo implementa o cálculo da variância do estimador baseado nos três métodos de alocação: uniforme, proporcional e alocação ótima de Neyman com custo fixo. Foi também implementado um novo método denominado GRD, baseado no princípio do ganho de informação, que exige menos recursos de processamento. O algoritmo foi aplicado em um conjunto de dados simulados para produzir estratos pré-definidos, e também, em um conjunto de dados real. Além disso, o algoritmo foi implementado parcialmente em um Gerenciador de Banco de Dados.
This work presents an algorithm developed to identify characteristics that can be used to define strata in a stratified sampling process. The algorithm finds the characteristics, and its respective values, that split the data set into strata, in such a way that the variance of the estimator, of the mean or proportion, is smaller than the variance of the estimator based on a simple random sampling process. The algorithm implements the calculation of the variance of the estimator based on the three methods of allocation:
uniform, proportional and Neyman optimum allocation with fixed cost. It has also implemented a new method called GRD, based on the principle of the information gain, that demands less am simulated data, built to produce well defined strata, and in a real data set. Moreover, the algorithm was partially implemented in a Data Base Management System (DBMS).
|
12 |
Caracterização probabilística do preparo amostral de particulados.Resende, Tulio Viegas Bicalho January 2014 (has links)
Programa de Pós-Graduação em Engenharia Mineral. Departamento de Engenharia de Minas, Universidade Federal de Ouro Preto. / Submitted by Oliveira Flávia (flavia@sisbin.ufop.br) on 2014-08-28T19:12:41Z
No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
DISSERTAÇÃO_CaracterizaçãoProbabilísticaPreparo.pdf: 1927169 bytes, checksum: 5a26a98f1fef3f24b78b723ea7722295 (MD5) / Approved for entry into archive by Gracilene Carvalho (gracilene@sisbin.ufop.br) on 2014-08-29T16:41:49Z (GMT) No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
DISSERTAÇÃO_CaracterizaçãoProbabilísticaPreparo.pdf: 1927169 bytes, checksum: 5a26a98f1fef3f24b78b723ea7722295 (MD5) / Made available in DSpace on 2014-08-29T16:41:49Z (GMT). No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
DISSERTAÇÃO_CaracterizaçãoProbabilísticaPreparo.pdf: 1927169 bytes, checksum: 5a26a98f1fef3f24b78b723ea7722295 (MD5)
Previous issue date: 2014 / Neste trabalho foi desenvolvido um método de caracterização do erro de preparo amostral, sendo este estruturado a partir da teoria da amostragem e da estatística de controle de processos. A aplicação da metodologia permitiu o desenvolvimento e o tratamento de uma série de dados de erro de preparo de amostras de três classes de produtos (sinter feed, lump ore e hematitinhas) de duas plantas de concentração de minério ferro localizadas no quadrilátero ferrífero. Onde se verificou que os erros absolutos de preparação das amostras estudadas são bem representados por uma distribuição de Weibull, enquanto o processo de preparação e medida apresenta uma resposta normal. Foram ainda discutidas estatisticamente a existência de correlações dos erros de preparo amostral com o teor de ferro elementar do minério e com o aumento da fração grossa. Não foram identificadas interações significativamente diferentes entre as classes de produto com o erro de preparação amostral, enquanto que para o teor de ferro dos produtos estudados foi verificada correlação com o erro de preparação. Porém tal resultado estatístico não pode ser comprovado pela existência de aproximações no método desenvolvido. ____________________________________________________________________________ / ABSTRACT: In this work it was developed a method for probabilistic characterization of the sampling preparation error, supported by the sampling theory associated with statistical process control concepts. The technique allowed the measurement of the sampling preparation error of three classes of iron ore products extracted from two processing plants located in the iron ore quadrangular. To the absolute sampling preparation errors, it was shown that the populations were well represented by a Weibull distribution, whereas, the preparation and measurement process were represented by a normal response. The existence of correlations among sampling preparations errors with the iron contents and the increasing in coarse fraction were statistically discussed. For the iron content of the products it was detected correlation with the preparation error. But that statistical result couldn1’t be verified by the existence of some critical assumptions in the developed method.
|
13 |
Análise do processo de amostragem aleatória estratificada bivariadaNassar, Silvia Modesto January 1979 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Produção, Florianópolis, 1979. / Made available in DSpace on 2013-12-05T19:07:43Z (GMT). No. of bitstreams: 0
Previous issue date: 1979Bitstream added on 2016-01-08T13:30:59Z : No. of bitstreams: 1
104076.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / No presente trabalho são analisados vários problemas relativos à estimação da média de uma população finita, quando se utiliza o processo de amostragem aleatória estratificada bivariada. Os seguintes tópicos são de particular interesse: a escolha das variáveis estratificadoras, a determinação do tamanho ótimo da amostra total e a caracterização do número de estratos de cada variável estratificadora. Foi deduzida uma expressão geral aproximada para a variância da estimativa da média populacional que, a seguir, é particularizada para o importante caso em que as variáveis estratificadoras seguem uma distribuição normal bidimensional. Considerando o custo da amostragem como uma restrição e a minimização da variância da estimativa da média como objetivo, são determinados os valores ótimos do tamanho da amostra total e do número de estratos de cada variável estratificadora. O trabalho é concluído com uma análise quantitativa do comportamento da variância da estimativa da média populacional, de onde resultam importantes características relativas à estrutura e ao número de estratos recomendados no processo de estratificação.
|
14 |
Discriminante para mistura de distribuições GEVCruvinel, Evelyn de Castro 10 April 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-07-12T20:57:13Z
No. of bitstreams: 1
2017_EvelyndeCastroCruvinel.pdf: 1101267 bytes, checksum: 57658ca66591821f9ee516305aa0cb62 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-08-03T18:28:12Z (GMT) No. of bitstreams: 1
2017_EvelyndeCastroCruvinel.pdf: 1101267 bytes, checksum: 57658ca66591821f9ee516305aa0cb62 (MD5) / Made available in DSpace on 2017-08-03T18:28:12Z (GMT). No. of bitstreams: 1
2017_EvelyndeCastroCruvinel.pdf: 1101267 bytes, checksum: 57658ca66591821f9ee516305aa0cb62 (MD5)
Previous issue date: 2017-08-03 / Este trabalho apresenta o estudo de um discriminante não linear da mistura de duas distribuições de valor extremo generalizada, conhecidas como GEV, com o parâmetro de escala comum. Como o parâmetro de forma da GEV pode assumir valor positivo, negativo ou nulo foram considerados seis casos possíveis para mistura de duas distribuições GEV. Para uma amostra classificada e não classificada de uma população com distribuição mistura de duas GEV são obtidas as expressões a serem resolvidas para obter os estimadores de máxima verossimilhança dos parâmetros do modelo, bem como sua função de discriminante. A avaliação do modelo proposto é feita por meio de simulações Monte Carlo utilizando amostras de tamanho n = 50 e n =100 para dois conjuntos de parâmetros para cada caso possível de mistura de duas distribuições GEV. São apresentadas duas aplicações em dados reais que ilustram a eficiência da análise discriminante do modelo de mistura de duas distribuições GEV em situações bimodais. / This work presents the study of a nonlinear discriminant of the mixture of two generalized extreme value distributions, known as GEV, with the common scale parameter. As the GEV shape parameter can assume positive, negative or zero value, six possible cases were considered for mixing two GEV distributions. For a classified and unclassified sample of a population with mixed distribution of two GEV, the expressions to be solved are obtained to obtain the maximum likelihood estimators of the parameters of the model, as well as its discriminant function. The evaluation of the proposed model is done using Monte Carlo simulations using samples of size n = 50 and n = 100 for two sets of parameters for each possible case of mixing of two GEV distributions. Two applications are presented in real data that illustrates the efficiency of the discriminant analysis of the mixing model of two GEV distributions in bimodal situations.
|
15 |
Modelos dinâmicos com estimação via filtro de partículasNascimento, Igor Ferreira do 29 May 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2014-11-07T10:19:55Z
No. of bitstreams: 1
2014_IgorFerreiradoNascimento.pdf: 907611 bytes, checksum: 846dbfdbf323ebf776c62aee9fb02ffa (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2014-11-10T17:19:35Z (GMT) No. of bitstreams: 1
2014_IgorFerreiradoNascimento.pdf: 907611 bytes, checksum: 846dbfdbf323ebf776c62aee9fb02ffa (MD5) / Made available in DSpace on 2014-11-10T17:19:35Z (GMT). No. of bitstreams: 1
2014_IgorFerreiradoNascimento.pdf: 907611 bytes, checksum: 846dbfdbf323ebf776c62aee9fb02ffa (MD5) / Esta dissertação apresenta, de forma detalhada, as metodologias discutidas nos principais artigos seminais na área de Filtro de Partículas (FP). O FP _e uma técnica alvo de recentes estudos que apresenta soluções numéricas para problemas de difícil solução analítica. Tal técnica será abordada nos modelos dinâmicos e, para isso,necessitaria de recursos como Amostragem de Importância e Monte Carlo Sequencial,também discutidos neste trabalho. Os resultados encontrados nos FP seminais que foram estudados nesta dissertação, Gordon et al. (1993) e Pitt e Shephard (1999),tiveram estimativas próximas as soluções analítica encontradas no Filtro de Kalman.Além disso, foram comparadas duas técnicas de estimação dos parâmetros estáticos dos artigos de Liu e West (2001) e de Storvik (2002). Foram obtidos bons resultados,tanto para estimação dos estados latentes, quanto para os parâmetros estáticos.Dessa forma, a técnica de FP mostrou-se ser uma excelente opção de estimação por meio de aproximações numéricas online, no âmbito dos Modelos Dinâmicos. _______________________________________________________________________________________ ABSTRACT / The technique FP has been the subject of recent studies and provides numerical solutions to dificult problems analytical solution. This technique will be discussed in Dynamic Models and, therefore, require resources such as Importance Sampling and Sequential Monte Carlo, also discussed in this paper. The results found in seminal FP that were studied in this dissertation, Gordon et al. (1993) and Pitt e Shephard(1999), provides close estimates to analytical solutions found in the Kalman filter estimates. In addition, two techniques for the estimation of static parameters ofarticles Liu e West (2001) and Storvik (2002) were compared. Good results wereobtained both for estimates of latent states, as for the static parameters. Thus, theFP technique proved to be an excellent choice of estimates by means of numerical approximations online, under the Dynamic Models.
|
16 |
O projeto economico do grafico de controle X para sistemas com deterioraçãoCosta, Antonio Fernando Branco 17 July 2018 (has links)
Orientador : Sebastião de Amorim / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-17T18:00:38Z (GMT). No. of bitstreams: 1
Costa_AntonioFernandoBranco_D.pdf: 6726989 bytes, checksum: f2fbe2de34c0f6c6949f504f51bf7fb4 (MD5)
Previous issue date: 1989 / Resumo: Neste trabalho, nós consideramos o modelo básico de Duncan, para o planejamento econômico de gráficos de controle, mas com a hipótese de taxa de falha constante relaxada, de forma a admitir deterioração do processo. Sem perda de generalidade, nós tratamos dos gráficos de controle X. Adotamos a distribuição de Weibull para o tempo de falha do sistema e estabelecemos três delineamentos alternativos que denominamos delineamento balanceado ou delineamento com o intervalo entre mostragens h variável, delineamento com o tamanho da amostra n variável e o delineamento com o fator de abertura k variável. O delineamento balanceado consiste em se tomar uma nova amostra no instante em que a probabilidade de ocorrência da causa assinalável, dada a sua não ocorrência até o instante da última amostragem, alcance um dado valor PI' O espaçamento entre amostragens torna-se, desta maneira, decrescente com o tempo. O delineamento com n variável, toma amostras pequenas no início do ciclo, quando a taxa de falha é baixa e vai aumentando n à medida que o tempo passa e a taxa de falha cresce. O delineamento com k variável estreita os limítes do gráfico de controle à medida em que cresce a taxa de falha. Em todos os casos, os delineamentos são explicitamente determinados e se mostram eficientes com respeito ao delineamento usual, por reduzirem a esperança de T2, o tempo entre a ocorrência de uma causa assinalável e sua detecção, para um mesmo número esperado de ítens amostrados e de alarmes falsos. Eles são particularmente eficientes em situações de intensa deterioração, pequenas mudanças na média do processo e elevados custos com amostragens / Abstract: We consider the Duncan basic modeI for the economic construction of controI charts, but with the assumption of constant failure rate relaxed to allow for process deterioration. Without Ioss of generality, we consider the X controI charts. We assume a Weibull distribution for the in-control functioning time and establish three alternative designs: the baIanced design or design with the intervaI betwen sampIes h variable, the design with the sample size n variable and the design with the width
of the control limits k variable. The balanced design takes a new sample at the instant when the accumulated conditional
probability or occurrence ot the assignable cause, given its nonoccurrence until the instant of the Iast sample, reaches a given
fixed value PI. Under the assumption of process deterioration, the balanced design tends to sample at decreasing intervals.
The design with n variable takes small samples in the beginning of the cycle, when the failure rate is low and increases
n with time, when the failure rate increases. The design with k variable, narrows the control chart limits when the failure rate
increases. The three designs are explicitly determined and come out to be efficient with respect to the usual design by reducing T2, the time between the occurrence and detection of the assignable cause, while using the same expected number of samples and provide the same expected number of false alarms. They are particularly efficient in a situation of intense process deterioration, small shifts and heavy sampling costs / Doutorado / Doutor em Engenharia Elétrica
|
17 |
Comparação das estimações do tamanho de uma população por captura-recaptura utilizando amostragem simples, multipla e sequencialBullon Camarena, Luz Jeanet 14 February 1995 (has links)
Orientador: Cicilia Yuko Wada / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatitica e Ciencia da Computação / Made available in DSpace on 2018-07-20T04:52:31Z (GMT). No. of bitstreams: 1
BullonCamarena_LuzJeanet_M.pdf: 1809737 bytes, checksum: ad51d5533dc9b09ad4120c8f01426491 (MD5)
Previous issue date: 1995 / Resumo: Neste trabalho, são apresentados os modelos e esquemas de amostragem no método de Captura- Recaptura, C-R, para estimação do tamanho de uma população fechada N. A comparação dos estimadores destes modelos é realizada através dos intervalos de confiança baseados na distribuição assintótica e intervalos de confiança obtidos utilizando o método bootstrap.Primeiramente, são considerados os modelos de C-R de duas amostras (ou ocasiões) com os estimadores de Petersen (1896) e Chapman (1952), também é estudada a distribuição assintótica do estimador de Petersen, (Sen, 1987). Em segundo lugar, são considerados os modelos de múltiplas amostras, com os estimadores de Leite et aI. (1988) e o de Petersen (ponderado) multiamostral (Sen, 1987). Em terceiro lugar, é realizado o estudo de métodos de C-R de amostragem seqüencial (Sen, 1987) tanto no caso do tamanho de amostra fixo como estocástico. Para os casos de amostragem simples e múltipla, e para amostragem seqüencial de tamanho de amostra fixo, o método bootstrap apresenta-se como uma alternativa para a avaliação das estimativas de N e a estimação da sua variabilidade. Simulações de experimentos de C-R são feitas apresentando-se as estimativas e os intervalos de confiança em cada esquema de amostragem. Os programas de computação correspondentes foram desenvolvidos usando o software estatístico SAS e o software matemático Mathematica. / Abstract: Not informed / Mestrado / Mestre em Estatística
|
18 |
Redução do adensamento amostral no ajuste de modelos de semivariogramas / The effects of the reduction in density sampling when adjusting semivariogram modelsFerreira, Matheus de Paula 30 July 2015 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-01-12T15:03:46Z
No. of bitstreams: 1
texto completo.pdf: 1371110 bytes, checksum: 581fed4ae8bb926e72283face6e16e2c (MD5) / Made available in DSpace on 2016-01-12T15:03:46Z (GMT). No. of bitstreams: 1
texto completo.pdf: 1371110 bytes, checksum: 581fed4ae8bb926e72283face6e16e2c (MD5)
Previous issue date: 2015-07-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A Geoestatística é o ramo da estatística que visa descrever o comportamento espacial dos dados, analisando as variáveis de acordo com a localização espacial. Atualmente os procedimentos geoestatísticos são aplicados nas mais diversas áreas científicas, sendo uma ferramenta de extrema importância na agricultura de precisão, em estudos do solo e mapeamentos em geral. Ao se falar de dados georreferenciados, logo se tem em mente o processo de amostragem a ser utilizado. Esse processo é uma etapa crucial, uma vez que é de extrema importância para a análise dos dados, além do valor financeiro associado ao mesmo. O custo e/ou tempo necessário para a realização da amostragem e de suas análises deve ser o mínimo possível. Nesse contexto, se faz necessário realizar estudos que visem obter soluções que minimizem o adensamento amostral. Com o objetivo de avaliar o efeito deste adensamento amostral no ajuste de diferentes modelos de semivariograma e a coerência entre as mensurações da dependência espacial obtidas pelo semivariograma e o Índice de Moran, realizou-se a análise da redução do número de pontos na grade do adensamento em um conjunto composto por 154 amostras de dados de atributos físicos do solo, provenientes de um projeto de pesquisa desenvolvido no Departamento de Engenharia Civil da Universidade Federal de Viçosa. Os resultados mostraram que ao reduzir os pontos em aproximadamente cinquenta por cento, os parâmetros do semivariograma mantiveram-se próximos aos obtidos ao utilizar a base de dados original, havendo coerência entre as mensurações da dependência espacial descrita tanto pelo semivariograma quanto pelo Índice de Moran. Maiores reduções no adensamento de amostragem não apresentaram tais similaridades. / Geostatistics is a branch of statistics that describes the spatial behavior of the data, analyzing the variables according to the spatial location. Currently geostatistical procedures are applied in various scientific fields, being an extremely important tool in precision agriculture, soil studies and mapping in general. When speaking of georeferenced data, the sampling process to be used has to be decided from the beginning. This process is a crucial step since it is extremely important for analyzing the data, besides the financial value associated therewith. The cost and / or time required to perform the sampling and their analysis must be minimized. In this context, it is necessary to conduct studies aiming to achieve solutions to minimize sample density. In order to evaluate the effect of sample density in the setting of different models of semivariogram and consistency between measures of spatial dependence obtained by the semivariogram and the Moran index, some analysis were conducted by reducing the number of points in the grid density in a set composed of 154 samples of physical attributes of soil data, from a research project developed at the Department of Civil Engineering at the Federal University of Viçosa. The results showed that when the number of points is reduced in approximately fifty percent, the semivariogram parameters remained close to those obtained by using the original database and that there is a consistency between measurements in the spatial dependence between the semivariogram and Moran index. Further reductions in the sampling density did not show such similarities.
|
19 |
Identificação e avaliação de potenciais interações medicamentosas em prescrição de pacientes internados no Hospital Universitário da UFSCBackes, Patricia January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências da Saúde, Programa de Pós-Graduação em Farmácia, 2013. / Made available in DSpace on 2013-12-06T00:07:35Z (GMT). No. of bitstreams: 1
317821.pdf: 1903645 bytes, checksum: d4674297853693164f442fa10c18db5f (MD5)
Previous issue date: 2013 / Interações medicamentosas (IM) ocorrem quando as esferas de atividade de dois medicamentos se sobrepõem, então a ação de um afetará, quali- ou quantitativamente o comportamento do outro. Especialmente em hospitais, a polimedicação é uma das ferramentas terapêuticas mais comumente utilizadas, porém, aumenta o risco de interações medicamentosas (IM). A identificação dos riscos potenciais aos quais pacientes estão submetidos pode contribuir para sua prevenção. Neste âmbito, o presente trabalho foi proposto para investigar o cenário atual de interações medicamentosas no Hospital Universitário da UFSC. Foi efetuada a análise de 1074 prescrições, durante o período de 12 meses, nos setores de Clínica Médica 1, 2 e 3 do hospital, utilizando a base de dados Micromedex para caracterizar as potenciais interações medicamentosas (PIM) mais frequentes quanto à severidade, tempo de início do efeito e qualidade da documentação. Para as PIM mais graves foi analisado também o desfecho; e para as PIM mais importantes e frequentes, discutiu-se ainda a importância e manejo clínico. Observou-se que 65% de todas as prescrições continham PIM, sendo que 34% das PIM eram interações "importantes" ou contraindicadas, 44% tinham início de efeito tardio, e cerca de 60% do total de PIM tinha documentação boa a excelente. Na análise entre clínicas, os percentuais de interações contraindicadas, moderadas e graves foram semelhantes. Análise estatística demonstrou relação positiva entre o número de PIM e a quantidade de medicamentos em cada prescrição. Metoclopramida foi o fármaco mais envolvido em interações contraindicadas, enquanto que AAS + heparina foi a interação "importante" mais frequente. Grande parte das PIM analisadas (inclusive as "importantes") requer monitoramento de sinais e sintomas, e não necessariamente substituição da medicação. Se à primeira vista o grande número de PIM poderia sugerir a ocorrência de erros de prescrição, aplicando uma análise mais abrangente, ou seja, sistêmica, observa-se que são diversas e sequenciais as causas que contribuem para que a IM de fato ocorra, e que os profissionais são peças-chave neste processo. A partir do cenário visualizado, percebem-se muitas IM potencialmente relevantes, mas que ainda se sabe pouco sobre a ocorrência das mesmas na prática clínica. Assim, algumas interações podem ser melhores investigadas para eventualmente fossem adicionadas a alertas e embasar intervenções e decisões. A inclusão de IM em projetos de educação continuada dos profissionais na instituição seria importante, visando à elucidação do tema, diminuir a ocorrência de IM preveníveis, e assim auxiliar na promoção da segurança do paciente.<br> / Abstract : Drug interactions (DI) occur when the spheres of activity of two or more drugs overlap, so the action of one drug will affect, qualitatively or quantitatively, the behavior of another. Specially in hospitals, multidrug therapy is one of the most used practices, however, increasing then the risk of drug interactions. Identification of the potential risks of which the patients are subjected may be useful in averting them to occur. In this sense, the present thesis is focused to investigate the current scenario of potential drug interactions in the University Hospital of UFSC. An analysis of 1074 prescriptions, covering a 12-month period, of patients once hospitalized in the Clinical Medicine Sectors 1, 2 and 3, were realized. The database used was Micromedex® to classify the most often potential drug interaction (PDI), on severity, onset of the reaction, and quality of documentation. For the most severe PDI, the clinical denouement was also computed, and important and frequent PDI gave rise to the discussion on drug interaction clinical relevance and management. Results showed that 65% of all prescriptions contained PDI, which 34% were classified as major or contraindicated interactions, 44% had a delayed onset and, good or excellent documentation was found in about 60% of PDI. On inter-department analysis, the fractions of contraindicated, major and moderate PDI were similar. Statistical analysis demonstrated a positive correlation between number of PDI and quantity of drugs in each prescription. Metoclopramide was the drug most involved in contraindicated PDI, while AAS + heparin was the major most frequent PDI on our sample. The majority of PDI (including the most severe ones) require patient´s symptoms attention and not necessarily the drug replacement. Apparently the large number of PDIs can induce the hypothesis of prescription errors; however looking at the big picture and with a systemic approach, there are several and successive reasons that may contribute of the PDI clinical occurrence, and, that health-care providers play a key role in this process. Based on the results, we can see lots of drug interactions potentially relevant, but little is known about their real occurrence. Thereby, some interactions could be better explored for eventually be added on systems alerts and to base decisions and interventions. The inclusion of the matter 'drug interactions' on health-care provider's continued education would be also important, aiming to elucidate the issue, minimize the occurence preventable drug interactions, and to lower the risks and to foment patient's safety.
|
20 |
Priorização da análise pericial pela amostragem estatística de dados de discos rígidos suspeitos / Prioritization in forensic analysis based on statistical data sampling of suspect hard drivesTessmann, Cristiano Rodrigues 10 February 2012 (has links)
Dissertação (Mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2012. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2012-05-21T15:19:39Z
No. of bitstreams: 1
2012_CristianoRodriguesTessmann.pdf: 1111662 bytes, checksum: ab718be03dd7fa72430e54ea61de97cf (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2012-05-23T11:35:31Z (GMT) No. of bitstreams: 1
2012_CristianoRodriguesTessmann.pdf: 1111662 bytes, checksum: ab718be03dd7fa72430e54ea61de97cf (MD5) / Made available in DSpace on 2012-05-23T11:35:31Z (GMT). No. of bitstreams: 1
2012_CristianoRodriguesTessmann.pdf: 1111662 bytes, checksum: ab718be03dd7fa72430e54ea61de97cf (MD5) / Os notórios avanços da informática e sua democratização foram responsáveis por facilitar no ambiente doméstico certos tipos de crime, como os relacionados à pirataria e pedofilia. O que elevou drasticamente a quantidade e a diversificação de equipamentos submetidos à análise
Pericial por suspeita de envolvimento em crimes. Frente à demanda crescente de análises, este trabalho propõe a análise de pequenas amostras de dados de forma a determinar os objetos questionados com maior potencialidade de conter os vestígios procurados em um caso envolvendo crimes relacionados à informática,
priorizando estes objetos para a análise pericial, possibilitando que os primeiros resultados conclusivos sejam obtidos em um tempo reduzido.
Como forma de aumentar a precisão dos resultados, propõe-se o uso de técnicas de Raciocínio Baseado em Casos para determinar as palavras-chave a serem usadas nas buscas realizadas
nos dados amostrados. Os resultados deste trabalho apontam que, apesar do acesso a um volume de dados reduzido, o
tempo necessário para a análise não é proporcionalmente menor, devido ao tempo de busca necessário a estes dados nos dispositivos analisados (HDD).
Outro importante resultado é o fato de a análise por amostragem só ter utilidade prática em busca de conteúdos muito representativos no objeto questionado.
O trabalho conclui que o método proposto é viável, e que é possível o uso dos resultados obtidos para a priorização proposta. ______________________________________________________________________________ ABSTRACT / The notable advances in information technology and its democratization were responsible for facilitating at the home environment certain types of crime, such as those related to piracy and pedophilia. This demonstration increased the amount and diversity of equipment subjected to
forensic analysis by suspicion of involvement in certain crimes, what poses a challenge to the forensic community.
Given this growing demand for analysis, this work proposes the analysis of small samples of data to be analyzed to determine which questioned objects have the greatest potential to contain relevant evidence, prioritizing the forensic analysis of these objects in a case
involving computer-related crimes, allow the first conclusive results to be obtained in a short time. In order to increase the accuracy of the results, we propose the use of Case-Based Reasoning to determine the keywords to be used in searches to be performed on the data sampled.
The results present in this dissertation show that, despite access to a small volume of data, the time required for analysis is not proportionally lower due to the time necessary to search the data analyzed in the devices (HDD). Another important fact about the results is that the analysis by sampling only have practical
use for content very representative object in question. The work concludes that the proposed method is feasible and that it is possible to use results obtained for the proposed prioritization.
|
Page generated in 0.1035 seconds