• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • Tagged with
  • 7
  • 7
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Discretização para aprendizagem bayesiana: aplicação no auxílio à validação de dados em proteção ao vôo.

Jackson Paul Matsuura 00 December 2003 (has links)
A utilização de redes Bayesianas, que são uma representação compacta de distribuições de probabilidades conjuntas de um domínio, vem crescendo em diversas áreas e aplicações. As redes Bayesianas podem ser construídas a partir do conhecimento de especialistas ou por algoritmos de aprendizagem Bayesiana que inferem as relações entre as variáveis do domínio a partir de um conjunto de dados de treinamento. A construção manual de redes Bayesianas, pode ser trabalhosa, cara e estar propenso a erros vem cada vez mais sendo preterida pelo uso de algoritmos de aprendizagem Bayesiana, mas os algoritmos de aprendizagem em geral pressupõem que as variáveis utilizadas na aprendizagem sejam discretas ou, caso sejam contínuas, apresentem uma distribuição gaussiana, o que normalmente não ocorre na prática. Portanto para o uso da aprendizagem Bayesiana é necessário que as variáveis sejam discretizadas segundo algum critério, que no caso mais simples pode ser uma discretização uniforme. A grande maioria dos métodos de discretização existentes, porém, não são adequados à aprendizagem Bayesiana, pois foram desenvolvidos no contexto de classificação e não de descoberta de conhecimento. Nesse trabalho é proposto e utilizado um método de discretização de variáveis que leva em conta as distribuições condicionais das mesmas no processo de discretização, objetivando um melhor resultado do processo de aprendizagem Bayesiana. O método proposto foi utilizado em uma base de dados real de informações de Proteção ao Vôo e a rede Bayesiana construída foi utilizada no auxílio à validação de dados, realizando uma triagem automatizada dos dados. Foi realizada uma comparação entre o método proposto de discretização e um dos métodos mais comuns. Os resultados obtidos mostram a efetividade do método de discretização proposto e apontam para um grande potencial dessa nova aplicação da aprendizagem e inferência Bayesiana.
2

Estudo de técnicas em análise de dados de detectores de ondas gravitacionais.

Helmo Alan Batista de Araújo 08 July 2008 (has links)
Neste trabalho inicialmente se investiga a possibilidade de utilização de uma inovadora transformada de tempo-frequência, conhecida como transformada S, para a análise de dados do detector de ondas gravitacionais ALLEGRO. Verifica-se que sua utilidade para este detector é limitada por causa da estreita largura de banda do mesmo. No entanto, argumenta-se que pode ser útil para detectores interferométricos. Em seguida, é apresentado um método robusto para a análise de dados baseado em um teste de hipótese conhecido como critério de Neyman-Pearson, para a determinação de eventos candidatos a sinais impulsivos. O método consiste na construção de funções de distribuição de probabilidade para a energia média ponderada dos blocos de dados gravados pelo detector, tanto na situação de ausência de sinal como para o caso de sinal misturado ao ruído. Com base nessas distribuições é possível encontrar a probabilidade do bloco de dados, (no qual um evento candidato é localizado), não coincidir com um bloco de ruído. Essa forma de busca por sinais candidatos imersos no ruído apresenta concordância com outro método utilizado para esse fim. Conclui-se que este é um método promissor, pois não é necessário passar por um processo mais refinado na busca por eventos candidatos, assim diminuindo o tempo de processamento computacional.
3

O modelo de fronteira elipsoidal: um modelo paramétrico para a distribuição de inputs de soma constante com controle nos pesos.

José Virgílio Guedes de Avellar 18 June 2010 (has links)
O objetivo desta pesquisa foi o desenvolvimento de um modelo paramétrico capaz de distribuir inputs (entradas) com soma constante, de forma a gerar soluções DEA (do inglês Data Envelopment Analysis) CCR (modelo DEA utilizado para problemas com retorno de escala constante) fortemente eficientes com controle nos pesos. Para isso, foi construída uma fronteira de eficiência paramétrica em formato elipsoidal, generalizando o modelo esférico já existente na literatura, já que um elipsóide com excentricidades nulas é uma esfera. O Modelo de Fronteira Elipsoidal (EFM, do inglês Ellipsoidal Frontier Model), apresenta a propriedade da distribuição coerente e a capacidade de distribuir inputs considerando outros inputs e outputs (saídas) presentes no problema. Outra característica do modelo EFM, inédita até onde se tem conhecimento, é a possibilidade de gerar soluções CCR fortemente eficientes com controle nos pesos para todas as DMUs, uma distribuição de pesos diferente para cada combinação de excentricidades, proporcionando ao decisor a vantagem de poder eleger, dentre todas as soluções DEA fortemente eficientes, a que possui a distribuição de pesos mais adequada.
4

Uso de redes de crença para seleção de declarações de importação.

Marcos Antonio Cardoso Ferreira 00 December 2003 (has links)
O Sistema Integrado de Comércio Exterior (SISCOMEX) automatiza as operações de importação e exportação e atua como uma plataforma que sincroniza as ações de todos os órgãos governamentais envolvidos. O módulo importação usa uma técnica denominada Seleção Parametrizada com o objetivo de selecionar para conferência declarações de importação com infrações e liberar ou descartar as que não possuem. Contudo, o desempenho atual dessa técnica é considerado insatisfatório porque regularmente seleciona declarações de importação sem qualquer infração e libera declarações contendo infração. O principal motivo para esse comportamento é creditado à forma como os parâmetros de seleção são fixados e à liberdade limitada para diferenciar e ordenar as declarações selecionadas. Além disso, ela é completamente dependente do julgamento do usuário e ignora o histórico de infrações. Nesse trabalho é proposta uma nova técnica para selecionar declarações de importação para conferência e fiscalização, a qual permite ordená-las de acordo com a possibilidade de infração e permite que seja integrada ao sistema atual. Essa técnica denominada Seleção Probabilística é baseada em Redes de Crença. A Rede de Crença é representada por grafo acíclico dirigido (GAD) o qual exibe o relacionamento de causa e efeito entre diversas variáveis. A técnica é implementada utilizando a linguagem Java, sua API para acesso a banco de dados, JDBCTM, e o Banco de Dados MySQLTM. Dois conjuntos contendo dados de operações reais foram coletados e extraídos. O maior dos conjuntos foi usado para a modelagem e o outro foi usado para avaliar a Seleção Probabilística. Foram obtidos alguns resultados e sobre estes efetuadas análises que mostraram o bom desempenho da técnica proposta. No final são mostradas as conclusões e algumas sugestões para futuros trabalhos.
5

APLICAÇÃO DE ANÁLISE ESTATÍSTICA NAS CURVAS σ-N DA LIGA DE ALUMÍNIO 7050-T7451 DE APLICAÇÃO ESTRUTURAL

Canto, Osmari Ademir Hoffmann do 28 August 2013 (has links)
Made available in DSpace on 2017-07-21T20:42:45Z (GMT). No. of bitstreams: 1 Osmari Ademir.pdf: 5711833 bytes, checksum: b01e1ba889748fa3eef4d7ca30cbe837 (MD5) Previous issue date: 2013-08-28 / Given the importance of presenting ever more reliable results with respect to the fatigue life of aluminum alloy 7050-T7451 application of this structural work guided their main focus on carrying out a statistical analysis of fatigue data collected from Axial fatigue tests conducted on specimens of this alloy. The data collected from these tests may be treated by various types of distribution functions, each function has some special features that have direct relation to the nature of the data collected thus different functions may have different results when applied to the same data set. Therefore it is not always clear which distribution function presented the results more reliable in relation to the data analyzed. For the statistical treatment of the data we used the statistical tool Minitab Release 13.0 which were analyzed four functions of distribution, Weibull, Lognormal Base and Loglogística and Normal. The choice of the function that best represented the data was based on two methods, graph method, where we obtained a qualitative analysis of the distribution of fatigue data and analytical method which produced a quantitative analysis of the results. For the definition of the function that showed the best results, comparisons were made of the most relevant statistics, especially the value of Anderson Darling test that was used in the work of adhesion. In addition to this statistical comparisons were also made errors regarding the probability of failure of 50% and also the values of the confidence intervals. The curves σ - N were plotted from the best figures for each voltage level. The results obtained after the statistical treatment of all values of fatigue life showed that for higher voltage levels (low cycle fatigue) any of the four functions studied can provide good adhesion to the fatigue data with errors quite small, as expected. For the values for medium voltage levels, which began to appear more substantial dispersions four functions still showed good adhesion, but showed most significant errors. When dealing with data sets of high cycle fatigue where stress levels were lower, the functions not performed well in fitting to the data, therefore, showed very high values of Anderson Darling statistic in which case the function is Loglogística was very efficient achieving produce good results even in groups where there were censored values (samples that did not fail). Thus it can be stated that the fatigue curves obtained from this method provide more reliable results, ensuring more security in predicting fatigue life of components built with aluminum alloy 7050-T7451. / Havendo a necessidade de se apresentar resultados cada vez mais confiáveis no que diz respeito à vida em fadiga da liga de alumínio 7050-T7451 de aplicação estrutural o presente trabalho norteia seu foco principal na realização de uma análise estatística dos dados de fadiga coletados a partir de ensaios de fadiga axial realizados em espécimes desta liga. Os dados coletados a partir destes ensaios podem ser tratados por vários tipos de funções de distribuição. Cada função apresenta particularidades que possuem relação direta com a natureza dos dados coletados. Dessa forma funções diferentes podem apresentar resultados diferentes quando aplicadas ao mesmo conjunto de dados. Sendo assim, nem sempre fica claro qual função de distribuição apresentou o resultado mais confiável em relação aos dados analisados. Para o tratamento estatístico, utilizou-se a ferramenta MINITAB Release 13.0 onde foram analisadas quatro funções de distribuição, Weibull, Lognormal Base e, Loglogística e Normal. A escolha da função que melhor representou os dados foi baseada em dois métodos, o primeiro foi o método gráfico, onde foi obtida uma analise qualitativa da distribuição dos dados de fadiga, o segundo foi o método analítico que permite fazer uma análise quantitativa dos resultados. Para a definição da função que apresentou o melhor resultado, foram realizadas comparações das estatísticas de maior relevância, principalmente o valor de Anderson Darling, que foi o teste de aderência utilizado no trabalho. Além deste método foram também realizadas comparações entre os erros referentes à probabilidade de falha a 50% e também dos valores dos intervalos de confiança. As curvas – N foram plotadas a partir dos melhores valores apresentados para cada nível de tensão. Os resultados obtidos após o tratamento estatístico de todos os valores de vida em fadiga mostraram que para os níveis de tensão mais elevados (fadiga de baixo ciclo), qualquer uma das quatro funções estudadas consegue apresentar boa aderência aos dados de fadiga com erros considerados pequenos. Para os valores referentes a níveis de tensão médios, onde começaram a surgir dispersões mais consideráveis, as quatro funções ainda mostraram boa aderência, mas apresentaram erros mais significativos. Ao tratar os conjuntos de dados de fadiga de alto ciclo, as funções não obtiveram um bom desempenho na aderência aos dados, pois, apresentaram valores muito elevados para a estatística de Anderson Darling. Nesses casos a função Loglogística se mostrou mais eficiente conseguindo apresentar melhores resultados até mesmo em conjuntos onde houveram valores censurados (amostras que não falharam). Com isso, pode-se afirmar que as curvas de fadiga obtidas a partir deste método fornecem resultados mais confiáveis, garantindo maior segurança na previsão de vida em fadiga de componentes construídos com a liga de alumínio 7050-T7451.
6

Estabelecimento da vida em fadiga de reparo estrutural rebitado através da simulação de Monte Carlo

Victoria Bradfield Quintiliano Basso 16 October 2009 (has links)
Durante sua vida em serviço, uma aeronave está sujeita a inúmeros fatores que podem levar a danos estruturais. Quando isso acontece, uma solução possível é a instalação de reparos estruturais rebitados. A instalação de tais reparos com objetivo de restaurar a resistência estática da estrutura cria um novo problema de fadiga na estrutura, ao introduzir concentradores de tensão (furos rebitados), que anteriormente não existia. Tradicionalmente, para se levar em conta o espalhamento estatístico inerente ao comportamento da iniciação de trincas por fadiga em estruturas metálicas, faz-se uso de coeficientes de segurança conhecidos como scatter factors (em inglês, fatores de dispersão estatística), com valor variando entre três e quatro, para dividir a vida obtida através de uma curva S-N e estabelecer a vida em fadiga do reparo. Este trabalho pretende, utilizando a simulação de Monte Carlo, mostrar que probabilidades inaceitáveis de iniciação de trincas por fadiga podem ser obtidas quando são utilizados fatores de segurança pré-estabelecidos para determinar a vida de um reparo. Um estudo de caso é apresentado para demonstrar este fato. Além disso, são realizados estudos paramétricos, utilizando a simulação de Monte Carlo, para investigar a influência dos parâmetros de entrada na simulação - quantidade de furos na fileira mais externa do reparo, variação da vida média (obtida através de curva S-N) e variação dos desvios padrões - nas vidas em fadiga obtidas através do modelo de iniciação probabilística de trincas. Os resultados obtidos através destes estudos indicam que a variação da vida média apenas desloca o resultado no eixo x de uma distribuição normal, enquanto o aumento do número de furos na fileira mais externa e o aumento dos desvios padrões aumentam as probabilidades de iniciação de trincas por fadiga de forma prematura. Em outro estudo paramétrico, alterou-se a seqüência de números randômicos e pode-se mostrar que a distribuição de probabilidades de iniciação da primeira trinca sofre modificações que são tão maiores quanto menores se tornam as probabilidades de iniciação. Recomendou-se, portanto, o uso da distribuição mais conservativa. São apresentados, também, dois gráficos das probabilidades de iniciação de trincas por fadiga em reparos rebitados, com vidas calculadas utilizando-se fatores de segurança com valores três e quatro, respectivamente, variando o número de furos na fileira crítica e os desvios padrões. Estes gráficos apresentam probabilidades inaceitáveis de iniciação de trincas para um conjunto específico de número de furos e desvios padrões para ambos os fatores de segurança. Os resultados deste trabalho indicam que a vida em fadiga de um reparo estrutural não deve ser estabelecida da maneira tradicional, fazendo-se uso dos fatores de dispersão estatística pré-estabelecidos, mas sim através de estudo probabilístico, utilizando-se curvas de probabilidade acumulada de iniciação da primeira trinca de fadiga, de modo a garantir a segurança e a confiabilidade da estrutura.
7

Determinação da distribuição de probabilidade no tempo para a ocorrência de falha empregando análise de tendência

Milena Regina Jaloretto Alves 26 August 2010 (has links)
O cenário atual do mercado de aviação motiva a busca por novas tecnologias que possibilitem aos operadores a redução nos custos de operação de suas aeronaves. O conceito de monitoramento da saúde e prognóstico de falhas vem ao encontro deste interesse, possibilitando redução de custos de manutenção, além de maximização da vida útil dos equipamentos, aumento da segurança e despachabilidade. O presente trabalho propõe uma metodologia baseada em análise de tendência para a obtenção de uma distribuição de probabilidade associada ao instante predito de ocorrência de falha para um sistema aeronáutico. Essa metodologia consiste na utilização de métodos de Monte Carlo e bootstrap para a obtenção de um intervalo de confiança para o instante de falha, estimado por meio de regressão. A metodologia proposta é testada por meio de séries temporais simuladas com tendências lineares, quadráticas e exponenciais, sendo também avaliada em um estudo de caso envolvendo dados reais.

Page generated in 0.1144 seconds