• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 899
  • 23
  • 6
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 945
  • 275
  • 274
  • 213
  • 196
  • 153
  • 151
  • 135
  • 131
  • 120
  • 120
  • 114
  • 83
  • 80
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Aplicação de teorias do erro humano no processo da engenharia de requisitos.

Milene Elizabeth Rigolin Ferreira Lopes 01 April 2011 (has links)
Muitos projetos de software falham devido à má estruturação e execução do processo de Engenharia de Requisitos (ER) e na maioria dos casos o fator humano inserido nesta atividade é crucial para a falha, pois são atividades essencialmente humanas e subjetivas. Com o intuito de auxiliar o ser humano na execução e contribuir para a melhora do processo da ER, prevenindo ou minimizando alguns de seus problemas, tais como, perda de requisitos e incompleteza, esse trabalho propõe analisar esses problemas sob a ótica de teorias do erro humano. Para isso realiza-se um levantamento dos erros e problemas principais, verifica-se a ocorrência dos erros no processo da ER, através da aplicação de questionários aos especialistas da área, efetua-se um mapeamento entre os erros e problemas, estima-se a chance de ocorrência do erro dada a presença do problema e sugerem-se soluções para esses erros com o intuito de solucionar os problemas do processo avaliado. A abordagem proposta deu origem a um método de diagnóstico que lista em ordem de prioridade os erros que podem estar ocorrendo no processo avaliado. Objetivando validar a abordagem, são feitos testes com especialistas da área da ER através do uso de um protótipo em formato de página web. Os questionários mostraram que os erros humanos ocorrem nas atividades do processo da ER e que existem erros que possuem um grau elevado de importância para o processo. A validação com os especialistas mostrou que a abordagem é válida, pois auxilia na organização e na percepção de lacunas do processo.
282

Uma metodologia de identificação e tratamento de pontos fora da curva ("outliers")

Arie Zeyulun Lionel Dotan 01 January 1996 (has links)
"Outliers" são pontos que se desviam do restante dos pontos de uma amostra, parecendo ter sido gerados por um mecanismo distinto. Os "outliers" podem contaminar as características de uma amostra e causar uma tendenciosidade ou até mesmo falha de estimadores. Este trabalho tem como objetivo avaliar e comparar novas metodologias de identificação e tratamento de "outliers" com as metodologias de regressão robusta e convencional existentes. Foi avaliada uma nova metodologia de identificação de "outliers", LTS-n, minimização da somatória dos resíduos ao quadrado, comparando-a com as seguintes metodologias: (a) LMS: minimização da mediana do resíduo ao quadrado; (b) LTS-h: minimização da somatória de, aproximadamente, metade dos resíduos ao quadrado, ordenados; e (c) metodologia convencional de "Banda" (margem em torno de uma curva de referência). Foi sugerida uma nova metodologia de tratamento de "outliers" cujo princípio primordial consiste em não se descartar totalmente os "outliers" mas sim suavizar o critério de eliminação dos mesmos, WLS, com atribuição de peso parcial (entre zero e um) aos "outliers" marginais. A avaliação foi realizada através da comparação com a metodologia convencional RLS, que atribui peso 0 ou 1. Para tanto, foi desenvolvido um software empregando as metodologias citadas anteriormente. Após a análise de diversos exemplos, concluiu-se que as metodologias de regressão robusta são ferramentas mais eficientes na identificação de "outliers" do que a metodologia Banda, cujas curvas de referência tornam-se tendenciosas devido à presença dos "outliers". A metodologia LTS-n é menos resistente aos "outliers" que as outras regressões robustas (LMS, LTS-h). A WLS é significativamente diferente da RLS quando a amostra possui um percentual elevado de "outliers" (acima de 10%). A grande vantagem desta metodologia consiste em não se descartar "outliers" marginais. O uso desta metodologia mostrou-se interessante tanto para amostras pequenas (n<15), quando não se deseja descartar observações de forma arbitrária, como também para grandes massas de dados em sistemas automáticos de decisões.
283

Sistema de espalhamento espectral em quadratura usando código convencional em canal de rádio móvel

João Carlos Rodrigues 01 May 1996 (has links)
Neste trabalho, é apresentado um estudo sobre um sistema de modulação em quadratura usando espalhamento espectral e código convolucional. O esquema de recepção é coerente. É feita uma descrição do sistema e sua comparação com a norma IS-95, que apresenta o esquema de telefonia móvel usando espalhamento espectral. As variáveis envolvidas no processo são analisadas. Aplica-se o método do filtro Doppler para simular o processo de desvanecimento por multipercurso e investigar o desempenho do sistema em canais móveis e suburbano, em velocidades de 30 km/h e 80 km/h.
284

Algoritmos de navegação inercial com múltiplas taxas de amostragem para fusão ins/gps/câmera com federação de filtros

Renan de Freitas Elias Campos 09 December 2011 (has links)
Sistemas de navegação inercial (INS) solidários fazem uso de medidas discretas no tempo de incrementos angulares e de velocidade, oriundas, respectivamente, da integração de girômetros e acelerômetros para estimar atitude, posição e velocidade com relação à Terra. A taxa de amostragem dos algoritmos que processam as medidas dos sensores é relacionado com a acurácia requerida e a carga computacional demandada. De modo a obter-se uma solução de navegação com boa acurácia e carga computacional reduzida, os algoritmos precisam ser executados em múltiplas taxas de amostragem e sistemas de coordenadas distintos - a saber, o do corpo B e da horizontal local NED. Independentemente das taxas de amostragem empregadas pelos algoritmos, os erros de navegação tendem a crescer indefinidamente com o tempo quando o INS opera em modo autônomo (stand-alone). Neste trabalho, foram analisados diversos algoritmos de navegação inercial distintos, comparando-se a carga computacional demandada e acurácia em modo autônomo que se obtêm com cada um. Com relação à solução de navegação fornecida pelos algoritmos, para que os erros tornem-se limitados, viabilizando operações de longa duração, sensores adicionais não inerciais devem ser utilizados. Assumida a disponibilidade de medidas de GPS e câmera, a acurácia da navegação pode ser melhorada por meio da fusão de dados provindos de nós de processamento locais, os quais fornecem, respectivamente, os resultados da integração INS/GPS e da INS/câmera. Neste trabalho, foram investigadas as fusões por federação de filtros - cuja otimalidade requer conhecimento da correlação entre os nós de processamento local - e por interseção de covariâncias (IC), que é subótima, mas não diverge quando há correlação desconhecida entre os sinais a serem fundidos. Para ambos métodos de fusão analisados, o INS e os nós locais são corrigidos periodicamente de acordo com o resultado da fusão, visando melhorar a acurácia da solução de navegação. A acurácia das fusões é avaliada comparando-se com o desempenho obtido por um filtro de Kalman global, o qual processa todas as medidas de todos os sensores simultaneamente.
285

Estimação de atitude usando medidas vetoriais para controle em três eixos de satélite de baixo custo com foco em implementações numericamente robustas

Renan Gustavo Godoi 04 December 2012 (has links)
A estimação de atitude e velocidade angular para um satélite pode ser realizada tanto por métodos instantâneos, quanto por de estimação recursiva de estado, que quando implementados com precisão restrita na representação das variáveis em ambiente embarcado, podem apresentar comportamentos adversos como consequência de erros de truncamento numérico no processamento embarcado. Neste contexto, o presente trabalho apresenta um estudo sobre o desempenho de cada um desses métodos de estimação de atitude e velocidade angular aplicados a 2 configurações distintas de satélites estabilizados em 3 eixos. A primeira configuração considera um satélite estabilizado por rotação dual, que utiliza como algoritmo estimador de atitude uma formulação do filtro estendido de Kalman (EKF), que sofre deveras com problemas de instabilidade numérica em ambiente embarcado 32 bits. São consideradas, então, quatro formulações alternativas ao EKF: o filtro com processamento sequencial das medidas (EKFSeq), o filtro com fatoração de Cholesky da matriz de covariância da inovação (EKFChol) e os filtros de raiz quadrada (SRKF) e com fatoração UD da matriz de covariância (UDKF), todas algebricamente equivalentes ao EKF, mas com características melhoradas de susceptibilidade a erros numéricos. A segunda configuração analisada considera um satélite estabilizado por triedro de rodas de reação e emprega somente algoritmos estimadores baseados em abordagens instantâneas: TRIAD, interseção de cones e QUEST para a estimação de atitude combinados com abordagens derivativas para a estimação de velocidade angular. O desempenho dos algoritmos estimadores é analisado para cada configuração de satélite por meio de simulações do tipo hardware-in-the-loop (HIL), sendo os algoritmos implementados em ambiente embarcado com 32 bits, o que permite verificar a susceptibilidade de cada formulação a erros numéricos. Por fim, considera-se também, para cada configuração, uma análise acerca do efeito desses erros de origem numérica no desempenho em malha fechada do sistema.
286

Analysis of error in temperature measurement.

Valdir Araújo de Souza 00 December 2000 (has links)
This work presents the numerical investigation of temperature measurement error using thermocouple for different configurations utilizing a computational tool based on finite element method (Galerkin Method). The numerical code performs a two-dimensional analysis while most of the analytical models are one-dimensional. The results are then compared with the analytical, experimental and some numerical results obtained through the finite difference method. In this work five configurations are analysed: in the first configuration the error is analysed when the thermocouple is placed on a surface of a large dimensions body with an insulated wall except at the thermocouple contact region. In this configuration a technique to reduce the error in the temperature measurement is also presented. The second configuration shows the temperature measurement error when the thermocouple is embedded in a solid with constant heat flux over the opposing wall. The third configuration presents the influence of the role in a solid with a constant heat flux on the opposing surface. In the fourth configuration the temperature measurement error is investigated when the thermocouple is placed inside solids varying the depth of the thermocouple insertion for different types of materials error is analysed when a thin flat plate is surrounded either side by fluids at measurement error is analysed when a thin flat plate is surrounded either side by fluids at different temperature. The simulation were performed in a steady-state condition for all configurations and it was observed that the error is high when the thermal conductivity of the body is low and the heat transfer coefficient over the thermocouple is high. On the other hand the error is reduced when the thermocouple radius is small and also when the body dimension is large.
287

Detecção de falhas em sistemas dinâmicos empregando transformadas wavelet adaptativas.

Henrique Mohallem Paiva 00 December 2003 (has links)
Este trabalho revisita um método de detecção de falhas baseado em wavelets e propõe uma melhoria na técnica utilizando wavelets adaptativas, implementadas através de bancos de filtros. A dificuldade associada às restrições não-lineares de reconstrução perfeita dos filtros é contornada adotando uma abordagem descrita na literatura, que permite caracterizar os filtros utilizando um conjunto de parâmetros angulares livres de restrições. Esta parametrização é discutida no trabalho e algumas de suas características de relevância para a técnica proposta são demonstradas. A abordagem adotada para a parametrização dos filtros possibilita a utilização de algoritmos simples de busca para otimização sem restrições. Escolheu-se o algoritmo dos poliedros flexíveis, que minimiza localmente uma função de custo, partindo de uma condição inicial conveniente. Para definir tal ponto de partida, propõe-se nesse trabalho um algoritmo que permite a obtenção de um conjunto de parâmetros angulares que caracterize uma wavelet mãe tradicional. Para validação da técnica proposta, foi desenvolvido um esquema de computação analógica para simular a ocorrência de falhas abruptas em um servomecanismo. Três técnicas de detecção de falhas são utilizadas no processamento dos sinais experimentais: wavelets adaptativas, wavelets fixas e observadores de estados. Os resultados mostram que as técnicas baseadas em wavelets são menos susceptíveis a falsos alarmes, a falhas não detectadas e à diminuição na relação sinal/ruído, necessitando, contudo, de um tempo maior para detectar a ocorrência de uma falha que a técnica baseada em observadores de estados. Observa-se ainda que a introdução de wavelets adaptativas melhora o desempenho do sistema de detecção wavelet sem aumentar o seu atraso de resposta.
288

Uma solução para compressão de imagens de sensoriamento remoto baseada em FPGA COTS

Antonio Lopes Filho 22 October 2013 (has links)
Motivado pelos avanços tecnológicos dos instrumentos de sensoriamento remoto o que, por sua vez, implica a necessidade de compressores de imagens embarcados em satélites e motivado também pela tendência ao uso de dispositivos comerciais (COTS) em aplicações espaciais, este trabalho propõe uma solução completa em hardware para compressão de imagens de sensoriamento remoto. Como requisitos, considera-se um nível de compressão mínimo é quatro vezes (4:1), com qualidade melhor do que 50 dB e taxa de processamento acima de 5 Mpixel/s. Como solução para compressão, optou-se pelo padrão JPEG-LS, de baixa complexidade, com a adição de recursos de mitigação de erros provocados pelos efeitos da radiação espacial em órbitas baixas, visando sua implementação em dispositivos lógicos programáveis (FPGA) COTS. A susceptibilidade do compressor JPEG-LS, com e sem adição de métodos clássicos de mitigação de erros, como a redundância modular tripla (TMR) e a codificação Hamming, é avaliada utilizando-se um esquema de injeção aleatória de eventos singulares, transitórios (SET) e comutação de bit (SEU), para levantamento de taxas relativas de erros, por simulação, e do respectivo impacto em área, por síntese. Para simular os efeitos da radiação no espaço, emprega-se um modelo com uma distribuição gaussiana de incidência de eventos de duração fixa, menor do que o período de clock, e com uma distribuição uniforme para seleção do sinal e do respectivo bit afetado. Ao longo da simulação, a contagem de erros é efetuada através da comparação dos dados gerados com um padrão de referência, sem erros. O método para avaliação de susceptibilidade proposto possibilita, através de rápidas iterações entre simulação e síntese, a obtenção de informações relevantes que permitem estimar a relação custo-benefício referente à adição de diferentes medidas de mitigação. A solução completa abrange o empacotamento dos dados resultantes da compressão, considerando tópicos como armazenamento temporário e controle da taxa de compressão, para acomodar flutuações na taxa de dados; multiplexação dos dados de diferentes bandas espectrais; formatação dos blocos de dados; e adição de codificação Reed-Solomon, para mitigar erros relativos ao enlace de transmissão. Dentre as contribuições do trabalho destaca-se: a avaliação de um compressor de imagens implementado em hardware com resultados que excedem os requisitos de projeto; a proposta de um método de avaliação de susceptibilidade que se diferencia pela injeção de SETs, pelo levantamento de taxas de erros e pelo tempo relativamente rápido de execução; uma estimativa melhor do que 100 vezes para redução na susceptibilidade do algoritmo de compressão com adição de mitigação de erros, obtida com o emprego do método proposto; e uma avaliação em hardware dos princípios envolvidos na concepção da solução completa, com resultados positivos.
289

Efeitos dos erros não modelados da instrumentação de ensaio em vôo na estimação de parâmetros aerodinâmicos de uma aeronave.

Ilka Rodrigues de Santana 28 November 2005 (has links)
Este trabalho avalia os efeitos na estimação de parâmetros aerodinâmicos de uma aeronave devido a erros não modelados da instrumentação de ensaio em vôo. O algoritmo utilizado para estimação dos parâmetros da aeronave é do tipo output error e a ferramenta estatística para análise da distribuição dos parâmetros estimados foi Monte Carlo. A análise estatística dos efeitos dos erros não modelados foi realizada com dados sintéticos de vôo, o que facilitou bastante as diferentes combinações de tipos de erros tais como ruído de medição, erro de polarização, fator de escala, atraso temporal, erros interferentes associados com cruzamento entre variáveis, latência dinâmica dos sensores e desalinhamento geométrico dos sensores. Foi verificado que o ruído de medição, o fator de escala e o cruzamento de variável não causam grandes erros nos parâmetros aerodinâmicos estimados enquanto que os demais tipos de erros geram erros que invalidam a estimativa dos parâmetros aerodinâmicos.
290

Estudo dos erros cíclicos nas máquinas de medir a três coordenadas / not availalbe

Nakazato, Márcia Kimie 06 November 2003 (has links)
Os erros cíclicos nas escalas das máquinas de medir a três coordenadas (MM3Cs) exercem influência significativa nos resultados das medições efetuadas em comprimentos pequenos. Um dos fatores que contribuem para a ocorrência dos erros cíclicos é a acuracidade limitada dos métodos utilizados na fabricação de escalas. As MM3Cs utilizam escalas desenhadas e fabricadas por métodos fotográficos ou riscadas em máquinas tipo \"step and repeat\". Ambos os métodos produzem um erro sistemático entre traços sucessivos. Desta forma, a medida que o número de traços aumenta as parcelas do erro sistemático somam-se e quando atingem um determinado valor este erro é compensado. Esta correção é feita a cada distância cujo valor corresponde ao de um período cíclico de baixa freqüência e o processo repete-se até que toda a escala seja riscada. Outro fator que contribui para a existência dos erros cíclicos origina-se da resolução exigida pela MM3C, que é sempre bastante alta e ultrapassa as capacidades existentes atualmente para fabricação de escalas. O que se faz para lidar com o problema da resolução é subdividir eletronicamente o espaço entre traços consecutivos da escala. Esta divisão eletrônica está associada a um sinal seno gerado pelas franjas de Moiré. A digitalização e subdivisão deste sinal geram erros periódicos, também conhecidos como erros cíclicos de alta freqüência. Embora diversos erros das MM3Cs tenham sido largamente estudados, ainda hoje, não foi realizada uma observação sistemática para que se tenha a exata medida da influência dos erros cíclicos, na medição a três coordenadas. Para suprir essa necessidade e contribuir na busca de novos métodos de avaliação, este trabalho apresenta os procedimentos de medição dos erros cíclicos de baixa e de alta freqüência, bem como a aplicação de Análise de Fourier aos conjuntos de dados obtidos. A medição da distância entre as linhas consecutivas da régua móvel da MM3C também foi realizada e os resultados comprovaram a existência dos erros de fabricação, a ocorrência de compensação periódica e também sugeriram os erros de subdivisão eletrônica. Além disso, no levantamento dos erros cíclicos de baixa freqüência foi confirmada a existência de um período cíclico de quatro milímetros. / Cyclic errors in scales of Coordinate Measuring Machines (CMMs) have a significant influence in measuring results on a very small displacement hindering most of the measuring tasks. One of the factors that contribute to the appearance of the cyclic errors is the limited accuracy of the used manufacturing methods of the scales. CMMs use scales drawn and manufactured by photographic methods or marked in step and repeat machines. In both methods the distances between succeeding lines are prone to systematic errors and therefore, with the increasing of the number of lines systematic errors are added up. Error compensation is provided when the amount of errors reaches a predetermined value. The error correction made at predetermined lengths defines a period what one can call the low frequency cyclic error. This process must be repeated all along the scale. Another factor that contributes to the existence of cyclic errors originates from high resolution required by CMM that goes beyond the existent manufacturing capacities of scales. This problem is somewhat solved by means of an electronic signals splitting up. The electronic sign obtained as two consecutive lines on the scale is probed can be associated to a sine signal what is generated by Moiré type fringes. Digital conversion and electronic division of these signals also generate periodic errors and can be called high frequency cyclic error. Although several types of errors in CMMs have been largely studied,there is a lack regarding the cyclic errors. A huge need for a systematic study and observation of these errors is needed to permit an exact measure of its influence on coordinate measurements. To cope with the urgent need and to contribute in the search for new evaluation methods of the cyclic errors, this work presents a measuring procedure of low and high frequency cyclic errors and the application of Fourier Analysis to the testing data. Measurements of distances between consecutive lines of the scale were also obtained and the results have shown the existent manufacturing errors and suggested frequencies and period of errors of electronic division. A cyclic period of four millimeters was confirmed in the low frequency tests.

Page generated in 0.0435 seconds