• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 156
  • 33
  • 10
  • 6
  • 6
  • 6
  • 6
  • 6
  • 1
  • Tagged with
  • 200
  • 200
  • 44
  • 43
  • 28
  • 27
  • 20
  • 19
  • 18
  • 16
  • 16
  • 14
  • 14
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Função de Green na frente de luz: equação de Bethe-Salpeter.

Jorge Henrique de Oliveira Sales 00 December 2000 (has links)
Nesta tese usamos o conceito de propagador quântico quadridimensional representado nas coordenadas da frente de luz para definir a função de Green no tempo x+(= t+z). Calculamos a correção perturbativa à função de Green de dois corpos na frente de luz considerando os diagramas "escada"e "escada-cruzado". Construímos um conjunto hierárquico de equações acopladas para a função de Green de dois corpos na frente de luz, que é fisicamente equivalente à equação de Bethe-Salpeter quadridimensional. Aplicamos este formalismo para analisar sistemas de dois bósons e de dois férmions. Mostramos que a corrente eletromagnética de um sistema composto por dois bósons carregados, tem uma estrutura de muitos corpos mesmo na aproximação de impulso, quando descrita com o tempo x+. Em termos da componente de dois corpos do sistema ligado, a corrente contém operadores de dois corpos. Discutimos o processo de criação de par pelo fóton no referencial de Drell-Yan, e interpretamos isto como uma contribuição do modo zero para a corrente. Construímos um conjunto de equações hierárquicas acopladas para a função de Green de dois férmions no modelo de Yakawa na frente de luz, que é equivalente ao propagador de dois férmions na aproximação "escada". Demonstramos que a expansão sistemática do kernal da equação de Bethe-Salpeter na frente de luz elimina naturalmente as divergências nas integrais nos momentos transversos. A renormalização da equação de Bethe-Salpeter na frente de luz e na aproximação "escada" segue da expansão sistemática do seu kernel derivada das equações hierárquicas para as funções de Green.
92

Identificação da eficiência de empresas de telecomunicações empregando análise de envoltória de dados e redes neurais de Kohonen.

Marcus Vinicius Pereira de Souza 00 December 2002 (has links)
Análise de Envoltória de Dados (Data Envelopment Analysis - DEA) é uma metodologia baseada em programação matemática usada para comparar a eficiência de organizações que desempenham atividades similares, como por exemplo, empresas de um mesmo ramo de negócios, agências governamentais, hospitais e universidades. Estas organizações que utilizam tipos similares de entradas (recursos) e produzem saídas (produtos) similares são conhecidos como DMUs (Decision Making Units).Rede Neural de Kohonen é uma metodologia que objetiva a identificação de agrupamentos em um conjunto de objetos a partir: 1) da descrição das características específicas destes objetos, e 2) da definição da função de medida de similaridade entre esses objetos. Esta técnica tem sido aplicada com sucesso em problemas de classificação de padrões como reconhecimento de imagens e de processamento de sinais.Esta dissertação objetiva investigar e comparar a aplicação dessas duas metodologias, DEA e Rede Neural de Kohonen, na análise da eficiência relativa de um grupo de 21 empresas de telefonia fixa que atuam no Brasil a partir dos seus dados reais (receita liqüída, acessos fixos em serviço, força de trabalho geral e investimento).
93

Transferência de calor conjugada (condução/conveção) em tubos concêntricos aletados.

Cláudia Regina Andrade 00 December 1998 (has links)
Neste trabalho simula-se numericamente o escoamento entre tubos concêntricos aletados, com o tubo interno sujeito à condição de contorno de temperatura constante ou fluxo de calor prescrito. Utiliza-se uma abordagem de transferência de calor conjugada onde a condução no sólido e a convecção no fluído são estudadas de forma acoplada, em um único domínio. O sistem original de equações diferenciais parciais (continuidade, quantidade de movimento, energia e modelo de turbulência) é discretizado através da técnica de elementos finitos (método de Petrov-Galerkin). O sistema de equações algébricas resultante é resolvido por meio de algoritmos interativos, utilizando uma formulação agregada e seqüencial ( onde cada grandeza é resolvida separadamente ao invés de uma solução simultânea para todas as variáveis). Os resultados mostram que a relação altura/espaçamento das aletas e a razão entre as condutividades térmicas do sólido/fluido influenciam significativamente nas trocas de calor com o fluido.Verifica-se também a ocorrência de bolhas de recirculação secundáriano escoamento e regiões com fluxo de calor local reverso. Os resultados obtidos para o número de Nusselt mostram que a variação da condição de contorno na superfície interna do tubo (valores prescritos para fluxo de calor e temperatura) é mais relevante no caso do escoamento laminar do que em regime turbulento. Além disso, através da comparação entre a abordagem conjugada bidimensional e a formulação desacoplada unidimensional (coeficiente de convecção constante e uniforme na interface sólido-fluido) confirma-se a validade da abordagem convencional para analisar a performance do trocador de calor. Contudo, os dados obtidos via formulação desacoplada para prever a distribuição de temperaura nas aletas apresentam grandes divergências quando comparados com os resultados da abordagem conjugada.
94

Sistema criptográfico com gerenciamento de chaves públicas integrado: uma proposta.

Jefferson Brandão Moreira 00 December 2003 (has links)
A crescente demanda experimentada nos últimos anos pela informação traz como uma de suas contrapartidas, a necessidade da utilização de mecanismos para a sua proteção. Preservar o conhecimento é uma necessidade premente e permanente dos dias de hoje. Nesta direção propõe-se um trabalho com o intuito de salvaguardar as informações digitais tramitadas entre os diversos elos de desenvolvimento de qualquer projeto de comunicações seguras, a exemplo do que pode vir a ocorrer em projetos como aquele do CC-SIVAM. Associado a um projeto de comunicações digitais seguras tem-se a interligação de diversas áreas do conhecimento, sendo que serão abordados aqui, aqueles referentes à criptografia e sistemas computacionais. O plano do trabalho desenvolvido obedece à linha cronológica desde o surgimento da criptografia até os dias atuais onde selecionamos os conceitos e técnicas a serem aplicados no desenvolvimento do produto final. Foi feita uma tentativa de inclusão da maior quantidade de informações a respeito de um projeto de comunicações digitais seguras para que o conjunto dessas fosse autocontida.Tem-se, ainda, um protótipo com grande quantidade de funcionalidades voltadas à segurança, implementadas.
95

Análise de fatores envolvidos em acidentes e incidentes aeronáuticos, com ênfase em contaminantes de cabine

Emilio Melhem Bumachar Neto 30 March 2011 (has links)
Este trabalho apresenta uma análise estatística efetuada sobre dados a respeito de acidentes e incidentes (i.e. eventos) aeronáuticos, conforme registrados pelo NTSB, com ênfase no envolvimento dos contaminantes mais comuns ao ar da cabine. Algoritmo de Particionamento Recursivo (RPA), ou Indução de Árvore de Decisão, foi escolhido como o método de mineração de dados para a análise. Após uma visão geral sobre o funcionamento do sistema de condicionamento do ambiente de cabine, são apresentados os contaminantes mais comuns, listando seus efeitos sobre a saúde e concentrações aceitáveis. O envolvimento dos contaminantes nos acidentes e incidentes foi inferindo a partir das narrativas e conclusões associados a esses eventos. O monóxido de carbono esteve envolvido em um número significativo de eventos. Numa árvore feita a partir da ocorrência de fatalidade, seguindo o algoritmo de particionamento de forma a minimizar a impureza, a ocorrência de monóxido de carbono aparece apenas no sexto nível da lista (após cinco partições), indicando relevância muito baixa. Numa árvore feita a partir da ocorrência de monóxido de carbono, ao contrário, a ocorrência de fatalidade é o fator que desencadeia o primeiro particionamento, indicando relevância muito alta. O efeito drástico que a presença de monóxido de carbono tem no risco de morte num acidente confirma que os parâmetros estão relacionados. Concluiu-se que apesar de a ocorrência de monóxido de carbono aumentar drasticamente o risco de morte, sua influência na taxa de fatalidades como um todo é diminuta devido à raridade dos casos. Preponderam fatores de risco de exposição mais frequente. Os fatores que mais influenciam o risco de fatalidade, aparecendo próximos à raiz da árvore, são a gravidade do dano à aeronave, a ocorrência ou não de incêndio em solo, a condição de visibilidade, e o assento único na aeronave.
96

Análise paramétrica de fusão de imagens via abordagem estatística

Natalia Reolon dos Santos 01 August 2014 (has links)
Técnicas de fusão de imagens têm papel importante em diversas áreas do conhecimento graças à possibilidade de concentrarem informações complementares e redundantes, sem distorcê-las, em uma única visualização que seja mais apropriada para interpretação humana ou automática. Há muitas maneiras de se efetuar a fusão de imagens e muitas variáveis a serem consideradas no processo. Este trabalho introduz uma parametrização estatística para avaliação dos fatores considerados em um processo de análise do desempenho de fusão de imagens baseada em transformada wavelet discreta (DWT). São propostos procedimentos experimentais para a avaliação dos resultados da fusão de imagens em função das variáveis envolvidas, através das combinações de diferentes tipos de wavelets, número de níveis de decomposição, imagens de teste e regras de fusão. A análise é efetuada via implementação computacional dos conceitos estatísticos de análise de variância (ANOVA). Os principais objetivos do trabalho são, portanto, definir um método consistente de análise para os resultados de desempenho de fusão de imagens e avaliar a influência das variáveis de projeto. É usado um procedimento automatizado de variação dos parâmetros de fusão baseada em DWT. Esta abordagem permite uma avaliação rápida e adequada de parâmetros e regras de fusão para a aplicação desejada e permite mudanças incrementais para adaptação a novos desenvolvimentos ou aplicações.
97

Redes complexas e autômatos celulares aplicados à criptografia

Heverton Barros de Macêdo 15 December 2014 (has links)
As conexões entre as células de um autômato celular tradicional são realizadas conforme um reticulado. Esse padrão de conexão faz com que o comprimento médio do menor caminho entre as células seja grande, exigindo que o autômato celular efetue várias evoluções para que o comportamento dinâmico de uma regra alcance todo o reticulado. O presente trabalho propõe a modificação na estrutura de conexão dos autômatos celulares empregando conceitos de redes complexas. É apresentado um processo de construção capaz de produzir redes que evoluem tanto para frente quanto para trás. O processo de construção de redes emprega uma variante de grafos dirigidos rotulados, permitindo que as redes geradas evoluam a partir do mesmo conjunto de regras utilizado pelo autômato celular tradicional. Experimentos empregando o cálculo de entropia, além de testes sobre aleatoriedade, foram realizados com o objetivo de investigar o comportamento dinâmico obtido por quatro redes distintas, geradas a partir do processo de construção de redes aqui proposto. Os experimentos indicam que, dependendo da estrutura de conexão, é possível reduzir de forma significativa a quantidade de evoluções necessárias para que uma perturbação inicial se propague por todas as células do reticulado. Uma aplicação direta dos resultados encontrados nesse trabalho consiste na elaboração de métodos criptográficos significativamente mais rápidos do que aqueles que empregam os autômatos celulares tradicionais.
98

Penalização e lagrangeano aumentado

GOMES, Hermínio Simões 03 April 1981 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2018-04-12T18:38:12Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_PenalizacaoLagrangeanoAumentado.pdf: 3622644 bytes, checksum: 0a2519b79178cebba8a3c88caa6a1b07 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2018-05-04T14:12:45Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_PenalizacaoLagrangeanoAumentado.pdf: 3622644 bytes, checksum: 0a2519b79178cebba8a3c88caa6a1b07 (MD5) / Made available in DSpace on 2018-05-04T14:12:45Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_PenalizacaoLagrangeanoAumentado.pdf: 3622644 bytes, checksum: 0a2519b79178cebba8a3c88caa6a1b07 (MD5) Previous issue date: 1981-04-03 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Na resolução de problemas de programação não-linear, a dimensão do problema ou sua estrutura pode, em certos casos, se constituir em um obstáculo difícil de ser transposto. Muitos algoritmos foram desenvolvidos para programação não-linear e, na sua maioria, procuram usar a informação das derivadas segundas (matrizes hessianas), e devido a isso, as suas aplicabilidades são, em geral, limitadas a problemas de médio porte. Devido a problema de memória ou dificuldade de se codificar os hessianos, a necessidade de se desenvolver algoritmos que não usam matrizes se evidenciou. Certos problemas não apresentam estruturas particulares que possam ser aproveitadas para facilitarem as suas resoluções, ou,se apresentam, estas são difíceis ou até impossíveis de serem aproveitadas. Algoritmos que usam basicamente a informação de derivadas primeiras(gradientes), são, em geral, mais fáceis de serem implementados e reduzem consideravelmente a necessidade de memória. Os algoritmos que usam Penalização e Lagrangeano Aumentado se enquadram dentro das necessidades expostas. Em problemas de grande porte, o lagrangeano aumentado,é particularmente bom, e pode ser empregado com êxito em problemas que não necessitam de uma precisão elevada. Nosso trabalho se propõe a fornecer uma base sobre a teoria da função Penalidade e Lagrangeano Aumentado, e também, poder fornecer a interessados, programas com os métodos e suas aplicações. Uma comparação entre os métodos Penalidade e Lagrangeano Aumentado é fornecida, e diversos aspectos sobre a aplicação dos algoritmos são evidendiados. Um número satisfatório de problemas testes mostra o desempenho dos algoritmos. Uma aplicação a um problema de grande porte é feita utilizando o lagrangeano aumentado. Não nos detivemos nos diversos tipos de funções Penalidade ou funções aumentadas; tratamos das formas que achamos mais importantes.
99

Métodos estocásticos em otimização de carteiras : aspectos não-lineares e genéticos

Carvalho, Ana Paula Pinto de January 2010 (has links)
Orientador: André Ricardo Oliveira da Fonseca. / Dissertação (mestrado) - Universidade Federal do ABC. Programa de Pós-guaduação em Matemática Aplicada.
100

As superfícies de costa triplamente periódicas

Azevedo, Pablo Vinicius Almeida January 2009 (has links)
Orientador: Prof. Dr. Valério Ramos Batista. / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Matemática, 2009. / A tese de mestrado versa sobre o artigo A family of triply periodic Costa surfaces, que apresenta uma demonstração completa de unicidade e convergência para uma família contínua a um parâmetro de Superfícies Mínimas Triplamente Periódicas. No artigo, a demonstração é norteada por simulações numéricas em MatLab, que motivam as provas teóricas. Entretanto, o presente trabalho não contemplará esta parte numérica, por dar prioridade aos argumentos Geométricos do artigo. De fato, a Geometria é uma importante ferramenta para outras áreas, mesmo da própria Matemática, não apenas por facilitar demonstrações, mas também por torná-las acessíveis. Dentre as sub-áreas da Matemática, obviamente a mais visual é a Geometria, que mesmo equipada com técnicas como Variáveis Complexas, Diferenciabilidade, Homologia, etc., não perde sua concretividade: curvas, superfícies, rotação, etc. O trabalho [RamosBatista2] é inovador, pois apresenta as primeiras superfícies mínimas triplamente periódicas cuja construção explícita não pode ser realizada pelo Método de Conjugação de Plateau. Além da unicidade e convergência mencionadas acima, traz uma descrição explícita dos membros-limite. É raro encontrar um estudo tão completo como neste artigo. A família de superfícies é obtida pelo método de construção reversa introduzido por Karcher em 1989. Tal método consiste dos seguintes passos: 1) esboço da superfície; 2) compacticação; 3) hipóteses de simetria; 4) equação algébrica; 5) obtenção dos dados de Weierstraÿ; 6) vericação de involuções e hipóteses de simetria; 7) análise de períodos; e 8) mergulho. As ferramentas teóricas deste método são apresentadas no Capítulo 2 da presente Tese de Mestrado. / This present work deals with the article A family of triply periodic Costa surfaces, which brings a complete demonstration for including uniqueness and convergence of a continuous one-parameter family of Triply Periodic Minimal Surfaces. In the paper, the theoretical proofs are motivated by numerical evidences obtained through the software MatLab. However, this present work will not include the numerics, because we give preference to the geometric arguments of the paper. Indeed, Geometry is an important tool for other research areas, even inside Mathematics itself, not just for easing demonstrations a lot, but also because it makes them accessible. Among the sub-areas in Mathematics, obviously the most visually appealing is the Geometry. Even equipped with techniques like Complex Variables, Dierentiability and Homology, it never loses its concreteness: curves, surfaces, rotations, etc. The paper [RamosBatista2] is innovative because presents the rst triply periodic minimal surfaces of which the explicit construction cannot be accomplished by Plateau's Conjugate Method. Besides uniqueness and convergence mentioned above, it brings an explicit description of the limit-members. Such a complete study is rare to nd. The family of surfaces is obtained via the reverse construction method introduced by Karcher in 1989. This method consists of the following steps: 1) drafting the soughtafter surface; 2) compactication; 3) symmetry hypotheses; 4) algebraic equation; 5) Weierstraÿ data; 6) checking involutions from symmetry hypotheses; 7) period analysis; 8) embeddedness. The main theoretical tools for this method are presented in Chapter 2 of this Master Thesis.

Page generated in 0.0506 seconds