• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 246
  • 9
  • Tagged with
  • 256
  • 256
  • 104
  • 82
  • 56
  • 47
  • 40
  • 29
  • 25
  • 22
  • 21
  • 16
  • 16
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Estudo do desempenho operacional dos aeroportos brasileiros relativo ao movimento de cargas.

Daniele Silva Oliveira 07 December 2007 (has links)
Devido à crescente representatividade das receitas provenientes da movimentação e da armazenagem da carga aérea na composição da receita total nos principais aeroportos do Brasil e do mundo, aumenta a quantidade de trabalhos que tratam desse assunto. Entretanto, ainda há muitos aspectos não explorados como a análise comparativa de aeroportos relativa ao movimento de cargas. Baseado nessa carência, o presente trabalho foi desenvolvido em três etapas: (1) definição dos principais indicadores de desempenho aplicáveis à realidade brasileira por meio de revisão de literatura e de painel com especialistas do setor; (2) coleta de dados nos principais aeroportos brasileiros; e (3) aplicação de técnicas quantitativas de análise multivariada para comparar o desempenho dos aeroportos. A aplicação da análise de componentes principais resultou em uma comparação dos aeroportos por meio de fatores relacionados à infra-estrutura, operação, localização e demanda. A análise de agrupamento resultou na formação de seis grupos de aeroportos distintos entre si. Os resultados do trabalho são principalmente úteis aos administradores de aeroportos, de forma a comparar o desempenho operacional relativo ao movimento de cargas dos grupos de aeroportos e proporcionar sugestões para a melhoria de seus desempenhos.
72

Análise dos fatores críticos de sucesso da implantação de sistemas ERP por meio da modelagem por equações estruturais.

Rodrigo Otávio Ribeiro 13 March 2009 (has links)
Os ERP (Enterprise Resource Planning) são sistemas de informação geralmente vendidos como pacotes de software que visam à integração dos processos de negócio de uma organização. Por ser um sistema que possui vários módulos funcionando de forma integrada, cada módulo sendo utilizado em uma área da organização, o projeto de implantação de um ERP envolve em geral grande parte da empresa e dos funcionários, requerendo uma grande quantidade de recursos e uma forte coordenação. Por este motivo, grande parte dos projetos ERP não são bem-sucedidos, tendo problemas em relação ao prazo, ao orçamento e quanto à receptividade e efetiva utilização do sistema por todos os potenciais usuários. Muitos trabalhos, desde o final dos anos 90, têm se debruçado sobre os fatores que contribuem para o sucesso do projeto de implantação de um sistema ERP. A literatura menciona então uma grande quantidade do que se convencionou chamar FCS-Fatores Críticos de Sucesso (em inglês, Critical Success Factors). Além de trabalhos exploratórios e estudos de caso sobre FCS, vários estudos também propuseram modelos quantitativos relacionando um conjunto de FCS ao sucesso do projeto. Nestes modelos, os FCS são tratados como variáveis exógenas independentes. Estudos qualitativos, no entanto, concluíram que os FCS estão relacionados entre si, e que não é possível prever o sucesso do projeto sem conhecer estes inter-relacionamentos. Nenhum estudo, porém, mensurou estas inter-relações. Assim, este trabalho visou a construir um modelo causal relacionando os FCS ao sucesso do projeto, considerando porém a existência das inter-relações entre os FCS. Para isto, foi escolhida a técnica de análise multivariada conhecida como Modelagem por Equações Estruturais (SEM - Structural Equation Modeling), por sua capacidade de análise de modelos com diversos tipos de relações entre todas as variáveis. Para construção do modelo causal, foram escolhidos inicialmente os FCS que fariam parte do modelo, e elaborado um conjunto de itens para mensurar cada um dos FCS. Foi definido também que seriam consideradas as quatro dimensões do sucesso do projeto (processo, correspondência, interação e expectativa) e elaborados itens para mensurar cada uma destas dimensões. Os itens elaborados para mensuração dos FCS e das dimensões do sucesso foram colocados num questionário, que foi submetido a executivos de TI de empresas médias e grandes atuantes no estado de São Paulo. O conjunto de respostas obtidas para este questionário formaram a massa de dados para modelagem. Por meio da técnica SEM, foram inicialmente analisados e refinados os modelos de mensuração dos FCS e do sucesso. Em seguida, foi elaborado o modelo causal relacionando os FCS ao sucesso. Os resultados mostram uma grande correlação entre os FCS, comprovando a tese dos trabalhos qualitativos que fizeram esta afirmação.
73

Um estudo sobre o método da mistura de gaussianas para formação de grupos de dados.

Ernée Kozyreff Filho 17 July 2009 (has links)
O presente texto discorre sobre o método da mistura de gaussianas aplicado à formação de agrupamentos (clusters) de observações a partir de um conjunto maior de dados. Trata-se de um problema sem solução analítica e, assim, utiliza-se o algoritmo EM (Expectation Maximization) para encontrar soluções por meio de dois procedimentos: inicializações aleatórias e pré-estimativas via métodos hierárquicos de formação de clusters. Conclui-se que a segunda opção é robusta quando se utiliza o método de Ward, enquanto que a primeira também propicia bons resultados, mas que são raros dentre muitas soluções ruins ou pontos de singularidade. Apresenta-se também um exemplo dos métodos estudados com dados reais de empresas brasileiras para ilustrar e complementar o trabalho.
74

Propriedades físicas de ligas semicondutoras de nitretos do grupo III e de semicondutores magnéticos (III,MT)V.

Clóvis Caetano 14 September 2009 (has links)
Apresentamos neste trabalho o estudo teórico de dois tipos de materiais importantes para o desenvolvimento de novas tecnologias em eletrônica, fotônica e spintrônica. A metodologia utilizada foi uma combinação de cálculos de estrutura eletrônica dentro da Teoria do Funcional da Densidade e de análises estatísticas através do método da Aproximação Quase-Química Generalizada. Na primeira parte do trabalho, fizemos um estudo completo das ligas semicondutoras de nitretos do grupo III: InGaN, AlGaN e AlInN na estrutura wurtzita, com destaque para a liga InGaN. Calculamos as propriedades estruturais dessas ligas e mostramos que os parâmetros de rede seguem a lei de Vegard se considerarmos a estatística, demonstrando a importância da utilização de um método estatístico que leve em conta o maior número possível de configurações da liga. Com relação às propriedades termodinâmicas, construímos os diagramas de fase das ligas InGaN e AlInN, estimando suas temperaturas críticas e regiões de separação de fase, comparando com resultados anteriores calculados para a estrutura zinc-blende. Finalmente, com relação às propriedades eletrônicas, calculamos o gap de energia em função da composição das ligas, além do parâmetro bowing. Para a liga InGaN, encontramos o valor 1,44 eV para o bowing, o que concorda com a maior parte dos dados experimentais e corrobora trabalhos recentes que defendem um valor pequeno para o bowing dessa liga. Outro sistema estudado foi a heteroestrutura (GaN)n/(InGaN)1, formada por uma única camada de InGaN crescida entre n camadas de GaN. Esse sistema, que já foi crescido experimentalmente, possui algumas vantagens em relação à liga bulk, como o fato de não sofrer decomposição spinodal. Um dos nossos resultados foi o cálculo da variação do gap em função da concentração de In na monocamada através do novo método LDA-1/2. A segunda parte do trabalho trata das ligas de semicondutores magnéticos (Ga,MT)As, (Ga,MT)N e (Al,MT)N, onde MT é um metal de transição (Mn ou Cr). Nós analisamos as propriedades estruturais, eletrônicas, magnéticas e termodinâmicas dessas ligas na estrutura zinc-blende em todo o intervalo de composição. Nosso principal resultado foi a verificação de que, em geral, ao contrário das ligas semicondutoras comuns, o parâmetro de rede dessas ligas não segue a lei de Vegard, apresentando mudanças abruptas de acordo com a composição da liga. Além de relacionarmos essa variação com o caráter meio-metálico da liga, nós encontramos uma expressão mais geral que a lei de Vegard e que ajusta muito bem os resultados calculados. Através dessa expressão pudemos quantificar a influência da magnetização sobre o parâmetro de rede das ligas de semicondutores magnéticos. Outro estudo que fizemos foi avaliar a influência da tensão biaxial sobre a estabilidade das ligas GaMnAs e GaCrAs. Nós concluímos que é possível aumentar a estabilidade dessas ligas através do crescimento das mesmas sobre substratos com constantes de rede menores que as do GaAs, substrato mais comum. Por fim, fizemos um estudo dos compostos binários MnN e CrN nas estruturas zinc-blende, wurtzita e NiAs. Nós avaliamos o efeito da tensão biaxial sobre o estado magnético desses compostos. Descobrimos que a tensão biaxial pode provocar uma mudança de estrutura cristalina, levando os materiais da estrutura wurtzita para a estrutura mais simétrica h-MgO.
75

MECTIP: um método computacional para análise de séries temporais utilizando suavização exponencial NARMAX e redes neurais.

Luciano Heitor Gallegos Marin 29 October 2009 (has links)
Este trabalho propõe um método computacional para tratamento, identificação e previsão de sistemas dinâmicos naturais, permitindo o tratamento de dados ruidosos, efetuando a identificação de sistemas dinâmicos desconhecidos analiticamente e gerando simulações e previsões. Para este método computacional são utilizados técnicas estatísticas de suavização exponencial para o tratamento de dados, técnica estatística auto-regressiva e de médias móveis não-linear com entrada de dados exterior Nonlinear Auto Regressive Moving Average with eXogenous inputs - NARMAX integrado a redes neurais artificiais do tipo feedforward para identificação e previsão, permitindo que estes procedimentos sejam efetuados de forma automática, isentando especialistas e demais interessados do tratamento manual de dados e da escolha de modelos analíticos específicos para a este tipo de trabalho. Foi implementado um protótipo para o método computacional proposto e aplicado a um estudo de caso envolvendo bacias hidrográficas em dois cenários reais e complexos no território brasileiro.
76

Estudo de técnicas em análise de dados de detectores de ondas gravitacionais.

Helmo Alan Batista de Araújo 08 July 2008 (has links)
Neste trabalho inicialmente se investiga a possibilidade de utilização de uma inovadora transformada de tempo-frequência, conhecida como transformada S, para a análise de dados do detector de ondas gravitacionais ALLEGRO. Verifica-se que sua utilidade para este detector é limitada por causa da estreita largura de banda do mesmo. No entanto, argumenta-se que pode ser útil para detectores interferométricos. Em seguida, é apresentado um método robusto para a análise de dados baseado em um teste de hipótese conhecido como critério de Neyman-Pearson, para a determinação de eventos candidatos a sinais impulsivos. O método consiste na construção de funções de distribuição de probabilidade para a energia média ponderada dos blocos de dados gravados pelo detector, tanto na situação de ausência de sinal como para o caso de sinal misturado ao ruído. Com base nessas distribuições é possível encontrar a probabilidade do bloco de dados, (no qual um evento candidato é localizado), não coincidir com um bloco de ruído. Essa forma de busca por sinais candidatos imersos no ruído apresenta concordância com outro método utilizado para esse fim. Conclui-se que este é um método promissor, pois não é necessário passar por um processo mais refinado na busca por eventos candidatos, assim diminuindo o tempo de processamento computacional.
77

Projeto de experimento para análise de vibração em aeronaves de asas rotativas.

Josmar Carreiro Freitas 02 October 2010 (has links)
Este trabalho tem por objetivo estudar o emprego da metodologia de Projeto de Experimentos, empregando-se Quadrados Latinos na análise de vibrações em aeronaves de asas rotativas. São avaliados os efeitos devido ao rotor principal, na condição de vôo à frente, para emprego como ferramenta inicial de controle preditivo de manutenção e permitir o desenvolvimento futuro de sistemas de gravação de dados. Para tanto, identificam-se as freqüências de interesse que são transmitidas à fuselagem e desenvolve-se o processo de planejamento de experimento, monitoramento e análise de resultados, aplicando-se um modelo estatístico fundamentado na Análise de Variância com intervalo de confiança de 95%. O Projeto de Experimentos propriamente dito abrange três princípios básicos visando garantir a isenção de tendências nos dados obtidos: randomization, replication e blocking. Propõe-se então um método para análise de vibrações apresentando-se passos a serem seguidos permitindo o seu desenvolvimento em uma seqüência sistemática. Neste contexto, identificam-se as variáveis influenciadoras do processo, seus valores de interesse e emprega-se uma ferramenta que permita eliminar a influência de fatores indesejados, permanecendo apenas o efeito da velocidade, por ser conhecido. Em seguida, são efetuadas verificações da validade dos dados permitindo análises consistentes. A aplicação do método proposto é realizada através de uma modelagem computacional, empregando-se o software "R", para a avaliação do incremento de vibração das aeronaves Eurocopter modelo AS-355. Apresenta-se ainda um estudo preliminar para as aeronaves Sikorsky modelo Sea King, denotando a flexibilidade de aplicação em aeronaves com características diferentes, sendo de interesse a conclusão deste último em estudos futuros.
78

Sistema híbrido para detecção de falhas aplicado ao helicóptero 3DOF.

Guilherme Monteiro Garcia 30 August 2010 (has links)
A pronta detecção da ocorrência de falhas em sistemas de engenharia é de grande significância. Nas últimas quatro décadas a área de detecção de falhas tem feito grandes avanços, principalmente pela melhoria dos sistemas computacionais. Devido ao grande escopo da área de detecção de falhas e às dificuldades de soluções em tempo real, várias técnicas foram desenvolvidas ao longo dos anos. Este trabalho apresenta duas técnicas distintas de detecção de falhas, as inovações de um Filtro de Kalman e o cálculo da distância de Mahalanobis; estas são aplicadas a uma planta didática que representa o comportamento de um helicóptero com três graus de liberdade. Foram simuladas falhas abruptas e incipientes nos dois motores do helicóptero, além de perturbações abruptas e incipientes. As técnicas são implementadas de forma separada e num esquema híbrido; apresenta-se o desempenho destas tanto sozinhas quanto usadas em conjunto no esquema híbrido proposto. A técnica das inovações do Filtro de Kalman mostrou-se melhor em relação à rejeição aos distúrbios e o esquema híbrido proposto apresenta um desempenho superior na detecção das falhas, mas não tão bom na rejeição aos distúrbios. Como continuidade do trabalho é proposta a implementação de uma terceira técnica no esquema híbrido.
79

Utilização de técnicas de análise estatística para auxílio ao prognóstico de falhas das unidades de indicação visual do EMB-170/190.

Leonardo Ramos Rodrigues 26 March 2008 (has links)
Com a finalidade de maximizar a vida útil dos equipamentos e minimizar os custos de operação e manutenção ao longo da vida útil de uma aeronave, a cada dia que passa operadores, fabricantes de aeronaves e equipes de manutenção têm demonstrado mais interesse em sistemas de prognóstico de falhas. Porém, para garantir a qualidade de um sistema de prognóstico de falhas é necessário garantir o acesso e a qualidade dos dados usados nos algoritmos de predição. Especificamente no caso de equipamentos eletrônicos, a quantidade de dados disponíveis para monitorar a degradação dos equipamentos geralmente é reduzida, aumentando as restrições para o prognóstico desses componentes. Este trabalho mostra a implementação de um algoritmo de prognóstico para as Display Units, que são componentes eletrônicos, em uma aeronave já existente, que não foi concebida para possuir funcionalidade de prognóstico para seus sistemas.
80

A design method based in entropy statistics.

André Izecson de Carvalho 28 March 2008 (has links)
Desde o início da história da aviação, cada nova aeronave é criada para que seja mais econômica, mais rápida, mais leve, melhor do que as que a antecederam. Compreender a evolução tecnológica da aviação é extremamente útil quando se deseja projetar uma nova aeronave. Saviotti (1984) e, posteriormente, Frenken (1997) propuseram um método de análise da evolução tecnológica de aeronaves. Esse método, baseado em conceitos de teoria da informação desenvolvidos por Shannon (1948), especialmente o conceito de entropia estatística, se mostrou bastante eficaz. O método, porém, é essencialmente uma ferramenta de análise, e não de projeto. Baseado em um banco de dados de aeronaves, o método é capaz de determinar em que medida cada uma delas foi influenciada por seus predecessores (o que se denomina "convergência") e, por sua vez, influenciou seus sucessores (o que se denomina "difusão"). Neste trabalho, uma ferramenta de auxílio ao projeto de aeronaves é proposta. Essa ferramenta se baseia no método de entropia estatística. Dadas especificações da aeronave que se deseja projetar, e um banco de dados com informações de diversas aeronaves, é realizada a minimização da entropia do sistema, o que conduz a uma aeronave com alto índice de convergência, ou seja, que tenha absorvido o mais possível da tecnologia de aeronaves existentes. A minimização da entropia é realizada através de um algoritmo genético. O algoritmo foi selecionado devido a sua robustez ao lidar com grandes quantidades de informação, minimizando diversas variáveis independentes simultaneamente mesmo na ausência de uma modelagem física do sistema. Foram realizadas diversas análises para avaliar a eficácia do método da entropia estatística. Em especial, um design criado pelo método foi comparado com três outros projetos com as mesmas especificações, realizados por times distintos de engenheiros utilizando-se de métodos convencionais. Além disso, foi avaliada a gama de especificações na qual o método é eficaz, e os seus limites. Como forma de avaliar mais completamente a qualidade dos resultados produzidos pelo método, estes foram testados, através de uma análise de desempenho das aeronaves obtidas, para avaliar se eram internamente consistentes.

Page generated in 0.0175 seconds