• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • Tagged with
  • 14
  • 14
  • 14
  • 6
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Teste de Student-Newman-Keuls bootstrap : proposta, avaliação e aplicação e dados de produtividade da graviola

GONÇALVES, Bruna de Oliveira 12 February 2015 (has links)
Os Procedimentos de Comparações Múltiplas (PCM) podem ser utilizados para comparar médias de tratamentos. Há muitos testes de comparações múltiplas e, para escolher o melhor, devem ser levados em conta o controle do erro tipo I (testes exatos, conservadores ou liberais) e o poder desses testes. Para melhorar o seu desempenho, em relação ao erro tipo I e poder, métodos de reamostragem bootstrap têm sido utilizados em alguns estudos sobre PCM. O teste de Student-Newman-Keuls (SNK) possui boas qualidades estatísticas que poderiam ser melhoradas com o uso do bootstrap. Assim, os objetivos deste trabalho foram propor uma versão utilizando o bootstrap paramétrico do teste de comparações múltiplas SNK (SNKB), avaliar o desempenho do teste SNKB e compará-lo com o teste SNK. O desempenho foi avaliado pelas taxas de erro tipo I por experimento e pelo poder por meio de um estudo de simulação Monte Carlo em condições de normalidade e não normalidade dos resíduos. Foram realizadas N=1000 simulações de experimento com k tratamentos (k = 5, 10, 20 e 80) com r repetições (r = 4, 10 e 20). Diferentes hipóteses sobre as médias foram consideradas. Sob H0 completa, as médias foram consideradas todas iguais, sob H1, as médias foram todas diferentes, considerando a mesma variância, e, sob H0 parcial, foram considerados dois grupos cujas médias eram diferentes entre si. Ambos os testes apresentaram valores de taxas de erro tipo I próximos do nível nominal de 0,05 sob H0 completa e normalidade. Sob H0 completa e não normalidade, os testes SNK e SNKB controlaram as taxas de erro tipo I por experimento na maior parte dos casos simulados para k=5 e k=10, enquanto que, para k=20 e k=80, ambos os testes foram considerados liberais em alguns cenários. Sob H0 parcial, o teste SNKB foi liberal em todos os casos simulados, enquanto que o teste SNK foi, em geral, conservador para δ ≤ 2 e liberal para os demais valores de δ. O poder do teste proposto em geral superou o poder do teste original nas situações de normalidade e não normalidade. Assim, em situações práticas, se as diferenças entre as médias dos tratamentos forem pequenas (δ ≤ 2), o teste SNK é mais indicado por controlar o erro tipo I e apresentar valores de poder satisfatórios. Nos demais casos, o teste SNKB é mais recomendado, apesar de ambos serem liberais para δ ≥ 4, se a situação for de H0 parcial. Além disso, os testes SNK e SNKB foram aplicados em dados reais de um experimento delineado para avaliar os controles químico e mecânico de pragas da gravioleira com o objetivo de comparar os resultados obtidos pelos dois testes. / Multiple Comparisons Procedures (MCP) are used to compare treatment means. There are many tests with this purpose and to choose the best one, two features must be analysed: the control of type I error rate (exact, conservative or liberal tests) and the power. Bootstrap resampling methods have been used in some studies to improve the performance of MCP. The Student-Newman-Keuls (SNK) test shows good statistical qualities that can be improved with the use of bootstrap. Therefore, this study aimed to propose a SNK parametric bootstrap version (SNKB) and compare it with the original SNK test. The performance was evaluated by experimentwise error rates and power using a Monte Carlo simulation study considering normal and non-normal situations. We considered N = 1000 simulations of k treatments (k = 5, 10, 20 e 80) with r repetitions (r = 4, 10 and 20). Under null hypothesis, the means were considered all equal, under H1 the means were all different, but the variance was the same and, under partial H0, we considered two groups with different means. Both tests showed type I error rates values close to the nominal level of 0.05 under H0 and normality. Under H0 and non-normality, both tests controlled the experimentwise error rates in most simulated cases for k=5 and k=10, whereas, for k=20 and k=80, the tests were considered liberal in some scenarios. Under H0 partial, the SNKB test was liberal in all simulated cases, while SNK test was generally conservative for δ ≤ 2 and liberal to other δ values. In general, the power of the proposed test surpassed the power of original test under normality and non-normality. Thus, in practice, if the differences between the treatment means are small (δ ≤ 2), the SNK test works better given that it controls the type I error and the power is satisfactory. In the other cases, the SNKB test is recommended, although both are liberal for δ ≥ 4, if we are under partial H0. Furthermore, the tests were applied to a real experiment designed to evaluate the chemical and mechanical controls of pests soursop in order to compare the results of both tests. / Fundação de Amparo à Pesquisa do Estado de Minas Gerais - FAPEMIG
2

Testes baseados em correlação canônica para avaliar a consonância de painéis sensoriais

ROCHA, Marcela Costa 20 March 2015 (has links)
Um painel sensorial é considerado consonante quando todos os julgadores pontuam um produto de maneira semelhante. Dessa forma, a consonância entre os julgadores que compõem um painel sensorial é uma das características necessárias para a confiabilidade da análise sensorial e pode ser mensurada pelo seu nível de unidimensionalidade. Na literatura existem testes para a unidimensionalidade de um painel sensorial, mas sua aplicação é restrita à análise para um atributo sensorial por vez. Diante disso, o objetivo do presente trabalho foi a generalização de cinco testes propostos para avaliar a consonância de painéis sensoriais, a saber: teste de Fujikoshi, teste Monte Carlo para unidimensionalidade, dois testes bootstrap paramétricos e teste sobre autovalores Monte Carlo. Tal generalização consistiu em utilizar a matriz de correlação canônica, de forma que fosse possível inferir sobre a consonância de painéis levando em consideração todos os atributos simultaneamente. A avaliação do desempenho das generalizações propostas, em termos de poder e taxa de erro tipo I, foi feita via simulação Monte Carlo. A generalização do teste sobre autovalores Monte Carlo foi aplicada para avaliar a consonância do painel de um experimento realizado por Pereira (2005). O teste sobre autovalores Monte Carlo apresentou desempenho igual ou superior aos demais testes e, por esse motivo, é recomendado para a análise da unidimensionalidade multivariada de painéis sensoriais. / A sensory panel is considered to be consonant when all referees point out a product in a similar way. Thus, the consonance between the referees that compose a sensory panel is one of the necessary characteristics for the reliability of sensory analysis, and can be measured by its level of unidimensionality. In literature there are tests for unidimensionality of a sensory panel, but its application is restricted to the analysis for one sensory attribute at a time. Thus, the objective of this study was the generalization of five tests proposed to evaluate the line of sensory panels, namely: the Fujikoshi test, the Monte Carlo test for unidimensionality, two parametric bootstrap tests and Monte Carlo test of eigenvalues. Such generalization is to use the canonical correlation matrix, so that it was possible to infer about the consonance of panels considering all attributes simultaneously. The performance evaluation of the proposed generalizations, in terms of power and type I error rate, was done through Monte Carlo simulation. The generalization of Monte Carlo test of eigenvalues test was applied to assess the panel’s consonance from an experiment conducted by Pereira (2005). The Monte Carlo test of eigenvalues performed equally to or higher than the other tests and, therefore, it is recommended for the analysis of multivariate unidimensionality of sensory panels.
3

Distribuição normal de Kumaraswamy bivariada

MONTEIRO, Michelle Aparecida Corrêa 16 April 2015 (has links)
A distribuição normal é a mais importante distribuição de probabilidade, usada na modelagem de dados contínuos. Entretanto, há casos em que a suposição da distribuição relacionada ao modelo normal é violada e a busca por outras distribuições que modelem esses casos se faz necessário. Um dos pontos que pode justificar a ausência de normalidade é a falta de simetria. Uma distribuição que tem como principal característica modelar dados de comportamento assimétrico é a Kumaraswamy. A junção da flexibilidade de modelar dados assimétricos da distribuição de Kumaraswamy com distribuições conhecidas, tais como normal e weibull, permitiu a criação de uma família de distribuições generalizadas. As distribuições multivariadas destacam-se pela importância de aplicações na modelagem de dados em diversas área do conhecimento. No entanto, observa-se a existência de poucas distribuições que modelem caudas mais pesadas e situações de assimetria. Este trabalho teve como objetivo, estudar a classe de distribuições generalizadas de Kumaraswamy, deduzir a distribuição normal de Kumaraswamy bivariada, apresentar a função de verossimilhança e as expressões de seus estimadores. Implementou-se o procedimento de estimação com uso das funções escores no software R e uma abordagem de simulação. Foram avaliadas a estimação de dados simulados e também aplicação em exemplos reais com distribuição assimétrica. Conclui-se, portanto que, a distribuição normal de Kumaraswamy bivariada foi deduzida em relação à sua função de densidade conjunta, marginais, condicionais e implementada para o estudo de simulação. Os estimadores comportaram de maneira precisa, consistente e não tendenciosa. A distribuição normal de Kumarawamy bivariada se ajustou satisfatoriamente aos dados reais de temperatura média e precipitação total. / The normal distribution is the most important probability distribution, used in modeling of continuous data. However, there are cases where the assumption of distribution related to normal model is violated and the search for other distributions that model these cases is necessary. One of the points that can justify the absence of normality is the lack of symmetry. A distribution whose main characteristic shape asymmetric behavior data is Kumaraswamy. The combination of the flexibility of the modeling asymmetric data distribution Kumaraswamy with known distributions, such as normal andWeibull, enabled the creation of a family of generalized distributions. The multivariate distributions we highlight the importance of applications in data modeling in various field of knowledge. However, there is the existence of few distributions that model heavier tails and asymmetry situations. This study aimed to study the class of generalized distributions Kumaraswamy deduct the normal distribution bivariate Kumaraswamy, present the likelihood function and the expressions of their estimators. Implemented the estimation procedure using the scores functions in textit software R and a simulation approach. We evaluated the simulated data estimation and also in real application examples with asymmetric distribution. It can be concluded therefore that the normal distribution bivariate Kumaraswamy was deduced in relation to their joint density function, marginal, conditional and implemented for the simulation study. The estimators behaved precisely, consistent and unbiased. The normal distribution bivariate Kumarawamy adjusted satisfactorily to the actual data of average temperature and total precipitation. / Programa Institucional de Bolsas de Pós-Graduação - PIB-PÓS
4

Modelagem inteligente para previsão de séries de vazões afluentes

BRITO, Bethânia Oliveira de 26 February 2016 (has links)
A geração de energia elétrica é assunto estratégico para o desenvolvimento econômico de qualquer nação e geralmente está ligada aos recursos naturais disponíveis. A exploração de tais fontes devem ser aproveitadas de maneira a maximizar os benefícios proporcionados e minimizar os impactos negativos ao meio ambiente e sociedade. A estratégia de previsão de séries de vazões consiste em estimar o fluxo de água com determinada antecedência visando minimizar as incertezas e os riscos auxiliando na redução dos fatores que prejudicam o planejamento das hidroelétricas e maximizando os resultados obtidos, pois a geração de energia elétrica a partir do sistema hidráulico depende principalmente das séries de vazões afluentes (TUCCI, 2002). Para realizar previsão de séries de vazões, encontram-se na literatura diversos modelos, dentre estes, as redes neurais artificiais, programação genética, modelos autorregressivos, entre outros. A fim de melhorar o desempenho das previsões de vazões propõe-se neste trabalho a construção de ensembles, que consiste em combinar componentes individuais. Neste trabalho, utilizou-se uma base dados do Operador Nacional de Sistemas (ONS) de duas usinas localizadas no Rio Grande: Água Vermelha e Itutinga. Os modelos que mais se destacaram como componentes individuais foram a rede neural artificial (RNA) com algorítimos de treinamento Backpropagation (BPM) e Gradient Method (GRAD) e a Programação Genética (PG). O ensemble BPM foi o que apresentou maior eficiência e capacidade de generalização. O MAPE da previsão dos modelos do período seco é menor que no período úmido. Não houve um modelo que se destacou em todos os casos quanto aos erros de previsão, sendo que os resultados dependem das características da usina e do período em estudo. Fazer previsões por períodos levaram a menores erros que quando considerado todo o ano. Após a combinação das componentes individuais, na maioria dos casos houve melhoria do desempenho, sendo que o melhor caso foi capaz de prover uma diminuição de até 14% do erro médio absoluto percentual (MAPE) em relação a melhor componente individual. / The generation of power is of strategic importance for the economic development of any nation. The ability to generate power is fundamentally linked to the availability of natural resources. The exploitation of such resources should be guided by principles to maximize the benefit provided and minimize the negative impact on the environment and society. The generation of electricity from hydraulic system depends mainly on the water inflow series (TUCCI, 2002). The forecast strategy series streamflow estimates the water flow with the goal of minimizing uncertainties and risks while reducing factors that hinder the planning of hydroelectric energy production. There are several models in the literature for performing streamflow series forecasting. They include: artificial neural networks, genetic programming, and autoregressive models, among others. In this paper, we propose the construction of ensembles - the combination of individual components - in order to improve the performance of forecasts of streamflow rates. We used one database from the Operador Nacional do Sistema Elétrico (ONS) in two plants located in Rio Grande: Água Vermelha and Itutinga. The models that stood out were the artificial neural network (ANN) with the training algorithms Backpropagation (BPM), Gradient Method (GRAD), and genetic programming (GP). The ensemble BPM showed greater efficiency and generalizability. The forecast MAPE of models for dry periods is less than for the wet season. Model results depended upon the characteristics of the plant and the period under study. Making predictions by periods led to minor mistakes when taken throughout the year. After combining the individual components, there was up to a 14% reduction of the average percentage absolute error (MAPE). / Programa Institucional de Bolsas de Pós-Graduação - PIB-PÓS
5

Reconhecimento automático de expressões faciais baseado em modelagem estatística

Pedroso, Felipe José Coelho 28 March 2013 (has links)
Made available in DSpace on 2016-12-23T14:07:23Z (GMT). No. of bitstreams: 1 Felipe Jose Coleho Pedroso_frontispicio.pdf: 1036866 bytes, checksum: 151c0d29a07012b8556291c387c1425f (MD5) Previous issue date: 2013-03-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / As expressões faciais são alvos constante de estudos desde Charles Darwin, em 1872. Pesquisas na área de psicologia e, em destaque, os trabalhos de Paul Ekman afirmam que existem expressões faciais universais básicas e elas são manifestadas em todos os seres humanos independente de fatores como gênero, idade, cultura e ambiente social. Ainda pode-se criar novas expressões mais complexas combinando as expressões fundamentais de alegria, tristeza, medo, nojo, raiva, surpresa e desprezo, além da face neutra. O assunto ainda é atual, uma vez que há uma grande necessidade de implementar interfaces homem-máquinas (IHM) capazes de identificar a expressão de um indivíduo e atribuir uma saída condizente com a situação observada. Pode-se citar como exemplos iterações homem-robô, sistemas de vigilância e animações gráficas. Nesse trabalho é proposto um sistema automático para identificar expressões faciais. O sistema é dividido em três etapas: localização de face, extração de características e identificação da expressão facial. O banco de dados Japanese Facial Expression Database - JAFFE foi utilizado para treinamentos e testes . A localização da face é realizada de maneira automática através do framework proposto por Viola-Jones e é estimado o centro da face. Na sequência, utiliza-se o algoritmo Active Appearance Model -AAM para descrever estatisticamente um modelo de forma e textura para o banco de dados. Com esse descritor é possível gerar um vetor de aparência capaz de representar, com redução de dimensão, uma face e, consequentemente, a expressão facial contida nela através de um algoritmo iterativo de busca a partir de um modelo médio. Esse vetor é utilizado na etapa de reconhecimento das expressões faciais, onde são testados os classificadores baseados no vizinho mais próximo k-NN e a máquina de vetores de suporte - SVM com kernel RBF para tratar o problema de forma não linear. É proposto um mecanismo de busca na saída do bloco de detecção de faces para diminuir o erro do modelo, pois o sucesso do algoritmo é altamente dependente do ponto inicial de busca. Também é proposto uma mudança no algoritmo AAM para redução do erro de convergência entre a imagem real e o modelo sintético que a representa, abordando o problema de forma não linear. Testes foram realizados utilizando a validação cruzada leave one out para todas as expressões faciais e o classificador SVM-RBF. O sistema apresentou um taxa de acerto de 55,4%, com sensibilidade 60,25% e especificidade 93,95% / Facial expressions are constant targets of studies since Charles Darwin in 1872. Research in psychology and highlighted the work of Paul Ekman claim that there are universal basic facial expressions and they are expressed in all human beings regardless of factors such as gender, age, culture and social environment. Although you can create new more complex expressions combining the fundamental expressions of happiness, sadness, fear, disgust, anger, surprise and contempt, beyond the neutral face. The matter is still relevant, since there is a great need to implement human machine interfaces (HMI) able to identify the expression of an individual and assign an output consistent with the observed situation. One can cite as examples iterations man-robot surveillance and motion graphics. In this work it/ s proposed an automatic system to identify facial expressions. The system is divided into three blocks: face localization, feature extraction and identification of facial expression. The Japanese Facial Expression Database - JAFFE was used for training and testing. The location of the face is done automatically using the framework proposed by Viola and Jones estimating center of the face. Following the Active Appearance Model - AAM algorithm is used to describe statistical model of shape and texture to the database. With this descriptor is possible to generate a vector capable of representing faces with reduced dimension and hence the facial expression contained therein through an iterative search algorithm from an average model. This vector is used in recognizing facial expressions block, where the classifiers are tested based on the nearest neighbor k-NN and support vector machine - SVM with RBF kernel to address the problem of non-linear way. A mechanism to decrease the error of the model is proposed before the output of the face detection block, because the success of the algorithm is highly dependent on the starting point of the search. A change in the AAM algorithm is also proposed to reduce the convergence error between actual and synthetic model that is addressing the problem of nonlinear way. Tests were conducted using leave one out cross validation for all the facial expressions and the final classifier was SVM-RBF. The system has an accuracy rate of 55.4%, with 60,25% sensitivity and 93,95% specificity
6

Ensino e aprendizagem do modelo Poisson: uma experiência com modelagem

Miguel, Maria Inez Rodrigues 25 October 2005 (has links)
Made available in DSpace on 2016-04-27T16:57:10Z (GMT). No. of bitstreams: 1 Doutorado Maria Inez Miguel.pdf: 1466295 bytes, checksum: cab4a04224edf6b54669d1e1fa9d3e99 (MD5) Previous issue date: 2005-10-25 / This researche concentrates on the teaching and learning of the Poisson s Model, whose questioning refers to the use of the Mathematical Modeling, to the steps to be considered and to the results both in the didactic interaction and in the acquisition achieved and mistakes made by the participating pupils. We considered the hypotheses that pair-work, computer use and practical experiments might favor the development of the didactical situations in order to validate it or not. For that purpose, a teaching sequence was elaborated based on our interpretation of the Mathematic Modeling Process suggested by Henry (1997) and it was applied to a group of University undergraduates students from the second year of the College of Electric Engineering and Computer Science. We adopted the Didactic Engineering as methodology, which allows for the validation of hypotheses through the confrontation between the two analysis, a priori and a posteriori, and favors the realignment of the activities during the process. The theoretical framework was constructed with some elements of Chevallard s praxeology and Godino s ontological-semiotic approach to cognition and mathematic instruction; the first guided the analysis of the didactic books and the elaboration and presentation of the proposed tasks in the intended sequence; the second was the basis for the determination of meaningful elements in Poisson s Model to be considered in the teaching and guide the result analysis, allowing for the identification of the knowledge acquired that were in accordance with the intended institutional guidelines and those that could be considered learning mistakes. This research lead to the conclusion that not only the use of the Mathematic Modeling is favorable for the study carried out but also that it made it possible for all the modeling steps to be interpreted, adapted and considered essential for the purposes to be achieved, emphasizing that the experiment carried out should be carefully chosen to serve as motivation for the target public and, if possible, contemplate interdisciplinary. Among the several significant elements of Poisson s Model taken as reference, many were acquired by the group of participating pupils. However, some difficulties related to the use of the software, to the interpretation of terms such as: at least, at most, etc and to the symbolic representation persisted throughout the whole process. The construction of Poisson s Model as hypotheses about the experiment carried out proved to be a viable and efficient strategy, guaranteeing relative easiness in the application the model in the most varied situations, including those with proximity with the Binomial Model; that result allows for the suggestion of the introduction of the mentioned model in the way it is presented, replacing the classical way, consisting of definition, example and exercises, or even, through the proximity with the Binomial Model. The use of a software proved to be efficient to expedite the representations and to make it easier for the visualization of properties; however, learning to handle the software cannot be simultaneous to learning the target content under the risk of compromising it. Pair work proved that information exchange, enriched and complemented by the backgrounds of the two individuals involved, allowed for the emergence of new questions and guaranteed greater reliability in the execution of the proposed tasks. / Esta tese é centrada no ensino e na aprendizagem do Modelo de Poisson, seu questinamento refere-se ao uso da Modelagem Matemática, das etapas a serem consideradas e dos resultados, tanto na interação didática como nas aquisições e erros dos alunos participantes. As hipóteses de que o trabalho em dupla, o uso do computador e o experimento realizado na prática pudessem favorecer o desenvolvimento do projeto foram admitidas, a fim de serem validadas, ou não. Para tal, uma seqüência de ensino, elaborada com base nas etapas de Modelagem Matemática de Henry, foi aplicada a um grupo de alunos do segundo ano de graduação em Engenharia Elétrica e Ciência da Computação de uma Instituição de Ensino Superior. No estudo, a metodologia adotada foi a Engenharia Didática que permite a validação das hipóteses pela confrontação entre as análises a priori e a posteriori e favorece o realinhamento das atividades durante o processo. As bases teóricas foram a praxeologia de Chevallard e o enfoque ontológico-semiótico da cognição e instrução matemática de Godino. A primeira norteou a análise dos livros didáticos, a elaboração e a apresentação das tarefas propostas na seqüência pretendida; a segunda fundamentou a determinação de elementos de significado do Modelo de Poisson para serem considerados no ensino e orientar a análise dos resultados, possibilitando a identificação dos conhecimentos adquiridos que estão conforme a pauta institucional e os que podem ser considerados erros de aprendizagem. A pesquisa permitiu concluir que, não só o uso da Modelagem Matemática é favorável ao estudo realizado, como também todas as etapas de modelagem puderam ser interpretadas, adaptadas e consideradas essenciais, para que os objetivos fossem atingidos, salientando-se que o experimento realizado deve ser cuidadosamente selecionado, a fim de servir de motivação aos sujeitos visados e, se possível, contemplar a interdisciplinaridade. Entre os diversos elementos de significado do Modelo de Poisson tomados como referência, muitos foram adquiridos pelo grupo de alunos participantes, embora algumas dificuldades relacionadas à utilização do aplicativo, à interpretação de termos do tipo: ao menos, no máximo, etc., e à representação simbólica persistiram durante todo o processo. A construção do Modelo de Poisson baseada nas hipóteses citadas sobre o experimento realizado mostrou ser uma estratégia viável e eficiente, garantindo relativa facilidade na aplicação do modelo nas mais variadas situações, inclusive, naquelas de aproximação ao Modelo Binomial. O resultado permite que se sugira a introdução do referido modelo nos moldes apresentados, em lugar do modo clássico com definição, exemplo e exercícios, ou ainda, por meio da aproximação ao Modelo Binomial. O uso de um aplicativo mostrou-se eficiente para agilizar as representações e facilitar a visualização de propriedades; no entanto, a aprendizagem da manipulação do aplicativo não pode concorrer simultaneamente com o estudo do conteúdo pretendido sob pena de comprometê-lo. O trabalho em dupla revelou que as trocas de informações, enriquecidas e complementadas pelas duas formações dos sujeitos envolvidos, permitiram o levantamento de novas questões e maior confiabilidade na realização das tarefas propostas.
7

Otimização do processo de aprendizagem da estrutura gráfica de Redes Bayesianas em BigData

FRANÇA, Arilene Santos de 20 February 2014 (has links)
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-07-31T13:38:32Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_OtimizacaoProcessoAprendizagem.pdf: 1776244 bytes, checksum: 70399c027bdcfb2e5676cb7cc2b4d049 (MD5) / Approved for entry into archive by Ana Rosa Silva (arosa@ufpa.br) on 2014-09-05T12:32:05Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_OtimizacaoProcessoAprendizagem.pdf: 1776244 bytes, checksum: 70399c027bdcfb2e5676cb7cc2b4d049 (MD5) / Made available in DSpace on 2014-09-05T12:32:05Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_OtimizacaoProcessoAprendizagem.pdf: 1776244 bytes, checksum: 70399c027bdcfb2e5676cb7cc2b4d049 (MD5) Previous issue date: 2014 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede. / Automation at data management and analysis has been a crucial factor for companies which need efficient solutions in an each more competitive corporate world. The explosion of the volume information, which has remained increasing in recent years, has demanded more and more commitment to seek strategies to manage and, especially, to extract valuable strategic informations from the use of data mining algorithms, which commonly need to perform exhausting queries at the database in order to obtain statistics that solve or optimize the parameters of the model of knowledge discovery selected; process which requires intensive computing to perform calculations and frequent access to the database. Given the effectiveness of uncertainty treatment, Bayesian networks have been widely used for this process, however, as the amount of data (records and/or attributes) increases, it becomes even more costly and time consuming to extract relevant information in a knowledge base. The goal of this work is to propose a new approach to optimization of the Bayesian Network structure learning in the context of BigData, by using the MapReduce process, in order to improve the processing time. To that end, it was generated a new methodology that includes the creation of an Intermediary Database, containing all the necessary probabilities to the calculations of the network structure. Through the analyzes presented at this work, it is shown that the combination of the proposed methodology with the MapReduce process is a good alternative to solve the scalability problem of the search frequency steps of K2 algorithm and, as a result, to reduce the response time generation of the network.
8

Modelagem da disponibilidade de uma unidade geradora da UHE-Tucuruí

MOREIRA, Pedro Igor Carvalho 04 July 2013 (has links)
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-11-12T16:11:38Z No. of bitstreams: 2 license_rdf: 22974 bytes, checksum: 99c771d9f0b9c46790009b9874d49253 (MD5) Dissertacao_ModelagemDisponibilidadeUnidade.pdf: 2938493 bytes, checksum: c9fb17fbdb7f0bba297ede0cc1d161b5 (MD5) / Approved for entry into archive by Ana Rosa Silva (arosa@ufpa.br) on 2014-11-13T11:48:58Z (GMT) No. of bitstreams: 2 license_rdf: 22974 bytes, checksum: 99c771d9f0b9c46790009b9874d49253 (MD5) Dissertacao_ModelagemDisponibilidadeUnidade.pdf: 2938493 bytes, checksum: c9fb17fbdb7f0bba297ede0cc1d161b5 (MD5) / Made available in DSpace on 2014-11-13T11:48:58Z (GMT). No. of bitstreams: 2 license_rdf: 22974 bytes, checksum: 99c771d9f0b9c46790009b9874d49253 (MD5) Dissertacao_ModelagemDisponibilidadeUnidade.pdf: 2938493 bytes, checksum: c9fb17fbdb7f0bba297ede0cc1d161b5 (MD5) Previous issue date: 2013 / Com o advindo do marco regulatório do Setor Elétrico Brasileiro, a partir de 2004, os agentes que atuam neste mercado têm experimentado um acirramento nas disputas por novos negócios, evidenciando um aumento de competitividade. A Disponibilidade dos Ativos Físicos e os Custos com Manutenção se apresentam como os pontos chave para a competitividade dos agentes. O presente trabalho tem por objetivo apresentar uma metodologia de Análise de Disponibilidade de Sistemas Reparáveis, durante as etapas de projeto ou de operação do sistema, contemplando a mensuração dos Custos com Manutenção versus o Desembolso com Aquisição para um nível esperado de desempenho. A metodologia para a Análise de Disponibilidade sugerida se utiliza da construção do Diagrama de Blocos do Sistema com respectivas descrições funcionais, exportação das informações para o formato de Árvore de Sucesso, composta de portas lógicas dos tipos "E" e "OU" as quais caracterizam um subsistema integrante do sistema principal. O analista pode reavaliar a topologia do sistema, agregando ou retirando redundâncias com a finalidade de ajustar o desempenho do projeto aos requisitos de Disponibilidade, Custo de Aquisição e Custos de Manutenção. Como resultados do trabalho foram identificadas lacunas normativas que definem a forma de controle do desempenho dos ativos, estabelecida uma sistemática de integração entre técnicas de modelagem de confiabilidade e disponibilidade, estabelecidos e incorporados indicadores de desempenho de Manutenção Programada em um agente do mercado, foram modelados e discutidos diferentes cenários para um Sistema de Circulação de Óleo de Mancal e foi aplicado o modelo a toda uma Unidade Geradora Hidráulica por meio da implementação computacional do modelo aos componentes críticos dos principais sistemas. / Since 2004, the regulatory rules in the Brazilian Electricity Sector has changed. The agents who act in this market have experienced a rise in new business disputes, showing an increase in competitiveness. The availability of physical assets and maintenance costs are presented as key points of these agents competitiveness. This work aims to present a methodology of Availability Analysis of Repairable Systems during the design or operational phases, covering the measurement of maintenance costs versus the acquisition costs to an expected performance level. The suggested methodology takes the System Block Diagram and exports to the Successful Tree Analysis format, composed by logic gates "AND" and "OR" where each represents a subsystem in the main system. The analyst may re-evaluate the system's topology, adding or removing redundancies in order to adjust the performance to the requirements of availability, acquisition and maintenance costs. As results of this work were identified gaps in the standards rules which defines how to control the assets performance, was established a systematic integration of modeling techniques for reliability and availability, performance indicators of Scheduled Maintenance were incorporated, different scenarios were modeled for an Oil Circulation System and was applied to an entire Hydraulic Generating Unit by modeling the critical components in the main systems.
9

Gráficos de controle adaptativos para monitoramento de perfis / Gráficos de controle adaptativos para monitoramento de perfis / Adaptive control charts for monitoring profiles / Adaptive control charts for monitoring profiles

Viviany Leão Fernandes 23 May 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização. / Production processes need to be continually evaluated so that they are able to produce in the most effective and efficient way. Statistical process control (SPC) consists of a set of tools used for this purpose. The monitoring can be periodically performed through the SPC tools. The most important tool of SPC is the control chart. In this thesis, we focus on the monitoring of a response variable through the parameters or coefficients of a linear regression model. It is proposed adaptive χ2 control charts for monitoring the coefficients of linear regression models. More specifically, seven adaptive χ2 control charts are proposed for monitoring a simple linear regression model, being distinguished by the following properties: variable sample size; variable sampling interval; variable warning and control limits; variable sample size and sampling interval; variable sample size and limits; variable sampling interval and limits and finally, all design parameters varying. Performance measures of these charts were obtained through properties of Markov chain, for both the zero-state and the steady-state situation. It was found that the average time until a signal in the case of small to moderate shifts in the coefficients of the regression model decreased. The proposed charts were applied to an example of semiconductors manufacturing process. Moreover, a sensitivity analysis of the proposed charts is performed for different shifts magnitudes in the process parameters, namely the intercept and the slope, comparing the performance between the developed charts and also with the fixed parameter χ2 chart. The proposed charts in this thesis are suitable for several applications. In this work, it was also considered quality characteristics represented by nonlinear regression models. To the considered nonlinear regression model, the proposal is to use a method that divides the nonlinear profile in linear parts. More specifically, an algorithm for this purpose, proposed in the literature, was utilized. It approximates nonlinear profile by a set of linear profiles. It was possible to validate this technique, showing that it is robust in the sense that it allows different types of nonlinear profiles to be considered. In this way, techniques such as control charts developed here can be used to monitor each linear part. Furthermore, we present the methodology to decompose a nonlinear profile in linear parts in a detailed and complete way, allowing its widespread use.
10

Decomposição aleatória de matrizes aplicada ao reconhecimento de faces / Stochastic decomposition of matrices applied to face recognition

Mauro de Amorim 22 March 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Métodos estocásticos oferecem uma poderosa ferramenta para a execução da compressão de dados e decomposições de matrizes. O método estocástico para decomposição de matrizes estudado utiliza amostragem aleatória para identificar um subespaço que captura a imagem de uma matriz de forma aproximada, preservando uma parte de sua informação essencial. Estas aproximações compactam a informação possibilitando a resolução de problemas práticos de maneira eficiente. Nesta dissertação é calculada uma decomposição em valores singulares (SVD) utilizando técnicas estocásticas. Esta SVD aleatória é empregada na tarefa de reconhecimento de faces. O reconhecimento de faces funciona de forma a projetar imagens de faces sobre um espaço de características que melhor descreve a variação de imagens de faces conhecidas. Estas características significantes são conhecidas como autofaces, pois são os autovetores de uma matriz associada a um conjunto de faces. Essa projeção caracteriza aproximadamente a face de um indivíduo por uma soma ponderada das autofaces características. Assim, a tarefa de reconhecimento de uma nova face consiste em comparar os pesos de sua projeção com os pesos da projeção de indivíduos conhecidos. A análise de componentes principais (PCA) é um método muito utilizado para determinar as autofaces características, este fornece as autofaces que representam maior variabilidade de informação de um conjunto de faces. Nesta dissertação verificamos a qualidade das autofaces obtidas pela SVD aleatória (que são os vetores singulares à esquerda de uma matriz contendo as imagens) por comparação de similaridade com as autofaces obtidas pela PCA. Para tanto, foram utilizados dois bancos de imagens, com tamanhos diferentes, e aplicadas diversas amostragens aleatórias sobre a matriz contendo as imagens. / Stochastic methods offer a powerful tool for performing data compression and decomposition of matrices. These methods use random sampling to identify a subspace that captures the range of a matrix in an approximate way, preserving a part of its essential information. These approaches compress the information enabling the resolution of practical problems efficiently. This work computes a singular value decomposition (SVD) of a matrix using stochastic techniques. This random SVD is employed in the task of face recognition. The face recognition is based on the projection of images of faces on a feature space that best describes the variation of known image faces. These features are known as eigenfaces because they are the eigenvectors of a matrix constructed from a set of faces. This projection characterizes an individual face by a weighted sum of eigenfaces. The task of recognizing a new face is to compare the weights of its projection with the projection of the weights of known individuals. The principal components analysis (PCA) is a widely used method for determining the eigenfaces. This provides the greatest variability eigenfaces representing information from a set of faces. In this dissertation we discuss the quality of eigenfaces obtained by a random SVD (which are the left singular vectors of a matrix containing the images) by comparing the similarity with eigenfaces obtained by PCA. We use two databases of images, with different sizes and various random sampling applied on the matrix containing the images.

Page generated in 0.107 seconds