• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 303
  • 32
  • 11
  • 5
  • 3
  • 1
  • Tagged with
  • 364
  • 151
  • 149
  • 139
  • 138
  • 126
  • 67
  • 57
  • 53
  • 45
  • 45
  • 45
  • 41
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Classificação de amostras de imagens geo-referenciadas para correção geométrica de imagens dos satélites CBERS

Emiliano Ferreira Castejon 04 July 2011 (has links)
A série de satélites CBERS é o resultado da cooperação entre o Brasil e China. As imagens CBERS são distribuídas gratuitamente mas para que seja possível utilizá-las, é necessário aplicar um método de correção geométrica de forma manual ou assistida. Somente após a correção existe correspondência entre as posições de pontos das imagens e as posições dos respectivos objetos na superfície da Terra. A partir de um método automático de correção, que usa como referência amostras de imagens previamente corrigidas, é proposta uma forma de aperfeiçoamento pela seleção automática das amostras de referência. São usadas técnicas de classificação e diferentes conjuntos de atributos radiométricos extraídos das imagens. Pelo estudo do comportamento de diferentes modelos de classificação foi possível definir qual o modelo que seleciona de forma ótima as melhores amostras. Para demonstrar a eficácia e o ganho de desempenho o método de correção proposto é aplicado em um conjunto de imagens CBERS usando as amostras de imagens selecionadas automaticamente.
222

Modelamento de processos de mudança de fase sólido-líquido bi-dimensionais através da técnica de elementos finitos para regiões arbitrárias

Luiz Antonio Diemer Lopes 01 January 1996 (has links)
No presente trabalho é desenvolvida uma ferramenta computacional para solução de problemas de mudança de fase sólido-líquido através da técnica de elementos finitos. Esta ferramenta permite uma abordagem integral do problema, desde a geração da malha computacional sobre o domínio de cálculo, a montagem da formulação de elementos finitos e solução do sistema algébrico resultante, até o pós-processamento gráfico dos resultados. O programa se propõe a resolver qualquer geometria bidimensional, para qualquer material de mudança de fase, sujeitos a condições iniciais e de contorno (temperatura, fluxo de calor e convecção) arbitrárias. O problema de mudança de fase é suposto controlado por condução e é adotada a formulação entálpica da equação da energia. Várias técnicas de ponderação do gradiente de entalpia em relação à temperatura são implementadas e comparadas. São analisadas as influências de parâmetros como refinamento da malha e intervalo de tempo na solução transiente sobre a precisão dos resultados.
223

EARLY-FIX : um framework para predição de manutenção corretiva de software utilizando métricas de produto

Gabriel de Souza Pereira Moreira 14 December 2011 (has links)
A manutenção de software tem consumido mais de 50% do esforço de desenvolvimento e até 90% do ciclo de vida de um software. Localizar e corrigir defeitos após a entrega de um software apresenta frequentemente custos elevados em relação às fases anteriores do projeto. A predição de defeitos tem atraído crescente interesse na indústria e na comunidade científica. Uma das abordagens adotadas vem sendo utilização de métricas de produto de software, obtidas através de análise estática de código, como insumos para predição de manutenção corretiva. Neste contexto, diversas técnicas de predição têm sido propostas e utilizadas, baseadas em técnicas estatísticas de regressão e de aprendizado de máquina. Entretanto, a grande variedade de métricas de software e técnicas tem dificultado a adoção da prática de predição de defeitos em projetos reais, por exigirem conhecimento especializado e elevado esforço de investigação. Neste trabalho de pesquisa, é investigado, concebido, implementado e verificado um framework, denominado EARLY-FIX, para predição de manutenção corretiva de software, utilizando métricas de produto. O EARLY-FIX representa a principal contribuição desta pesquisa e endereça problemas enfrentados para obtenção das informações necessárias para predição de defeitos em projetos de software desenvolvidos com processos iterativos. O EARLY-FIX compõe-se de métodos de medição e de calibração que permitem sua execução automatizada, possibilitando sua implementação em projetos de forma transparente e não-intrusiva. O EARLY-FIX envolve ainda modelos de indicadores preditivos que visam a identificação de módulos com maior propensão a manutenções corretivas. Desta forma, os indicadores fornecem insumos para priorização de atividades de qualidade, como inspeção, refatoração e testes. Finalmente, realiza-se a implementação e a verificação do EARLY-FIX em uma análise histórica, considerando dois projetos da indústria desenvolvidos segundo o paradigma Orientado a Objetos. Comparações entre os modelos gerados por cinco técnicas de regressão estatística estão entre os principais resultados obtidos nesta pesquisa.
224

Validação experimental dos mecanismos de detecção de erros implementados no computador de bordo do satélite SSR.

Antônio Carlos de Oliveira Pereira Júnior 00 December 1997 (has links)
Este trabalho apresenta os resultados da avaliação experimental da cobertura e latência dos mecanismos de detecção de erros implementados no computador de bordo do Satélite de Sensoriamento Remoto (SSR), desenvolvido pelo Instituto Nacional de Pesquisas Espaciais (INPE). A avaliação foi obtida usando a ferramenta de injeção de falhas físicas RIFLE, sendo adaptado ao computador do SSR através de um novo Módulo de Adaptação. A injeção de falhas consiste na emulação de falhas de curta duração (um ciclo de memória) nos pinos do processador. Dois conjuntos de experiências foram realizados: o primeiro conjunto de falhas foi injetado com uma distribuição aleatória ao longo do código do programa e o segundo ao longo do tempo de execução. Além dos mecanismos de detecção de erros originalmente implementados, foi proposto e avaliado um novo mecanismo de detecção de erros. Este novo mecanismo foi implementado exclusivamente por software. Em função da distribuição de falhas, foi obtida uma cobertura de 16,1% a 56,4%, apresentando uma baixa latência. Uma análise do impacto das falhas no sistema também é apresentado. Esta análise mostrou que 41,3% a 83,4% das falhas não apresentaram nenhum impacto macroscópico no comportamento do sistema e os erros causados por essas falhas foram "overwritten" ou descartados em conseqüência da execução normal do programa. Uma pequena percentagem de falhas (9,1% a 6,2%) causou erro no resultado produzido. Assumindo que todas as falhas detectadas podem ser recuperadas pelos mecanismos de recuperação (não desenvolvidos até o momento), acredita-se que o sistema possa tolerar de 93,8% a 99,9% das falhas transitórias.
225

Comparação do arrasto de onda obtido com a metodologia ESDU com o obtido pelo BLWF

Marcelo Fernandes de Oliveira 17 March 2006 (has links)
Este trabalho tem como objetivo a comparação de metodologias normalmente empregadas pelas EMBRAER (Empresa Brasileira de Aeronáutica) na determinação do arrasto de onda de asas operando em regime transônico. Os métodos avaliados neste trabalho são métodos que, devido à sua boa precisão e rápida velocidade de processamentos, são bastante adequados para serem utilizados no desenvolvimento de uma aeronave, principalmente durante seu projeto preliminar. A parcela do arrasto de onda é bastante significativa para aeronaves voando com velocidade acima de Mach 0.6 e sua importância é cada vez maior à medida que sua velocidade aumenta. No entanto, devido ao grande número de configurações possíveis para a aeronave em fase inicial de concepção, torna-se bastante difícil e custoso a determinação do arrasto de onda através de cálculos computacionais complexos ou ensaios em túnel. Técnicas que permitam uma estimativa rápida, porém confiável, da importância deste tipo de arrasto devem então ser empregadas. A metodologia utilizada deve ser de fácil aplicação, de modo a se avaliar, em um curto espaço de tempo, diversas configurações possíveis e, deste modo, auxiliar na escolha da melhor configuração. Tendo isso em mente, neste trabalho foi analisada a metodologia descrita pelo ESDU, cuja formulação remete a resultados já consagrados na indústria aeronáutica e/ou baseados em procedimentos experimentais, e uma metodologia numérica, BLWF, que utiliza-se de malhas computacionais e do cálculo do escoamento potencial. Inicialmente será apresentada uma breve descrição dos tipos de arrasto que se fazem presentes durante o vôo, bem como a importância de cada uma dessas parcelas. Em seguida, com finalidade ilustrativa, serão apresentados os cálculos e a distribuição do arrasto total em uma aeronave teórica voando na faixa transônica. As descrições dos métodos empregados são apresentada nos capítulos 5 e 6, que é seguido por uma confrontação e análise dos resultados obtidos utilizando-se as duas metodologias apresentadas. Os resultados obtidos pelo ESDU, embora extremamente rápidos, apresentam boa precisão para cálculos preliminares. No entanto, para asas que utilizam perfis supercríticos, a metodologia ESDU tende a sub-avaliar a contribuição do arrasto de onda. O BLWF, por exigir um maior número de parâmetros de entrada e tempo de simulação, é recomendado para uma fase já mais avançada do projeto. Deve-se levam em consideração que, apesar de importante, o arrasto da aeronave não é o único fator relevante na escolha de uma determinada configuração. Parâmetros como qualidade de vôo e até mesmo custos de fabricação jamais devem ser negligenciados.
226

Desenvolvimento e validação de código computacional na determinação do volume de equivalência em titulação potenciométrica ácido-base automatizada

Mauro Sergio Silva Arantes 30 September 2014 (has links)
A titulação potenciométrica é uma das técnicas de análise quantitativa mais utilizadas nos laboratórios de indústrias e centros de pesquisas. No entanto, em muitos casos, esse tipo de análise ainda é feito de forma manual, que é morosa e requer a intervenção constante do analista. A sua automatização requer o desenvolvimento de um software, para fazer a interface com o usuário, de código robusto e confiável na determinação do volume de equivalência. Diante disso, o objetivo deste trabalho foi elaborar e validar um código computacional para a determinação do volume de equivalência em titulação potenciométrica ácido-base automatizada que produza resultados com a melhor aproximação possível do valor real. Para o cálculo do volume equivalente utilizou-se do método da derivada segunda e para certos casos em que o desvio relativo entre o volume equivalente calculado e o volume equivalente real é alto, foi proposto pelo autor um método alternativo ao da derivada que produz um resultado com maior exatidão. Este método alternativo determina o volume de equivalência com base em uma análise dos dados próximos à variação brusca do valor de pH. O código computacional foi desenvolvido na linguagem Delphi e foi denominado "TITAB" (Titulador Ácido-Base). Sua interface com o usuário possui dois módulos: o módulo de simulação e o módulo de titulação automatizada. O módulo de simulação foi criado com o objetivo de simular as diversas situações que podem ocorrer em uma titulação potenciométrica e assim, poder testar e validar o código computacional que calcula o volume equivalente. Os resultados obtidos com o código computacional proposto foram comparados com os resultados obtidos pelo software CURTIPOT, desenvolvido na Universidade de São Paulo, e tomado aqui como código de referência. Os testes de validação mostraram que os resultados obtidos com o código proposto são consistentes e que, em certas situações, produzem um resultado melhor que o código de referência.
227

A alternância de código nas falas de nipo-brasileiros de Aliança e Fukuhaku-mura dos informantes isseis na pesquisa: as línguas faladas nas comunidades nikkei do Brasil / The alternation of code in the discourse of Japanese-Brazilians on Alliance and Fukuhaku-mura of informants isseis in research: the languages spoken in the communities nikkei of Brazil

Gardenal, Luiz Maximiliano Santin 01 August 2008 (has links)
Esta pesquisa trouxe à tona um aspecto da variação lingüística na fala de informantes Isseis das Comunidades nipo-brasileiras Aliança e Fukuhaku-Mura, a alternância de códigos, resultante do contato das línguas japonesa e portuguesa. A análise baseou-se na teoria da pesquisa sociolingüística variacionista, e o lócus teve sua ênfase dada em seu aspecto micro onde a alternância, juntamente com a escolha lingüística, é justificada pela construção da identidade por parte dos envolvidos na conversação, no ambiente da entrevista. / This research is about a linguistic variation aspect, the codealternation, resultant of the contact of the Japanese and Portuguese languages, in the speech of japanese immigrants living in two communities in Brazil, Aliança and Fukuhaku-Mura. The analysis was based on the theory of the sociolinguistics variations and had its emphasis given in its micro aspect where the alternation, as the same way of the linguistic choice, is justified by the construction of the identity by the informers involved.
228

Loops de código: automorfismos e representações / Code loops: automorphisms and representations

Pires, Rosemary Miguel 16 May 2011 (has links)
Neste trabalho, estudamos Loops de Código. Para este estudo, introduzimos os loops de código a partir de códigos pares e depois, provamos que loops de código de posto $n$ podem ser caracterizados como imagem homomórfica de certos loops de Moufang livres com n geradores. Além disso, introduzimos o conceito de vetores característicos associados a um loop de código. Com os resultados da teoria estudada, classificamos todos os loops de código de posto 3 e 4, encontramos todos os grupos de automorfismos externos destes loops e, finalmente, determinamos todas as suas respectivas representações básicas. / This work is about code loops. For this study, we introduce the code loops from even codes and then we prove that code loops of rank n can be characterized as a homomorphic image of a certain free Moufang loops with $n$ generators. Moreover, we introduce the concept of characteristic vectors associated with code loops. With the results of this theory, we classify all the code loops of rank 3 and 4, we find all the groups of outer automorphisms of these loops and finally we determine all their basic representations.
229

Guerra e antropofagia em Jean de Léry e Claude D\'Abbeville: dos fragmentos míticos ao código compartilhado / War and anthropophagy according to Jean de Léry e Claude d\'Abbeville: from the mythic fragments to the shared codes

Fujimoto, Juliana 16 April 2008 (has links)
Os fragmentos míticos tupinambá sobre a origem da guerra presentes nas obras de Jean de Léry e de Claude d\'Abbeville constituem fontes privilegiadas para analisarmos tanto a tradução européia da alteridade indígena, a partir do enfoque naqueles que foram classificados dentre os piores costumes indígenas - a guerra e a antropofagia -; quanto uma possível re-fundação nativa da guerra e da antropofagia a partir das novidades conhecidas desde o encontro com a alteridade européia. Isso porque esses registros contêm elementos do cristianismo professado pelos europeus com os quais os nativos tiveram contato, assim como elementos da leitura tupinambá, em termos míticos, da alteridade européia. Nesse sentido, essas narrativas podem ser compreendidas também como códigos construídos e compartilhados por europeus e indígenas desde o encontro entre essas populações. No contexto estudado é a linguagem da religião cristã que constitui o principal instrumento de mediação na comunicação entre europeus (sobretudo, os missionários) e indígenas e de tradução da alteridade americana para a cultura européia. Dessa forma, nesse trabalho, tentaremos analisar os registros de Léry e de d\'Abbeville sobre o início das guerras inter-tribais, tendo em vista o fato destes constituírem uma tradução da guerra e da antropofagia indígena para o público europeu, assim como um possível código construído e compartilhado entre indígenas e europeus, no contexto das relações entre franceses e indígenas (Léry) e no contexto da relação entre indígenas e missionários jesuítas (d\'Abbeville). / The tupinambá\'s mythic fragments about the origin of the war related by Jean de Léry and Claude d\'Abbeville are good fonts to we analyze so the translation of the Indian, based upon approach in those that were classified between the worst Indian customs - the war and the anthropophagy - ; as a possible re-foundation of these customs, based upon the news which Indians knew since their fist encounter with the European. These registers have elements of the Christianism professed for the Europeans that Indians knew, as elements of the Indian read, in mythic terms, of the other European. In this sense, these narratives can be understood too as a code constructed and shared for Europeans and Indians since the encounter between these people. In this study, the Christian religion language is the main mediation instrument of the communication between Europeans (above all missionaries) and Indians, and the main translation\'s instrument of the American difference for the European culture. Therefore, in this study, we will try to analyze the Lery\'s and the d\'Abbeville\'s texts about the origin of the war, considering the fact that theses texts are a translation of the war and of the anthropophagy to the European public, and considering too that these are a possible code shared between Indians and Europeans, into the context of the relationship among Frenchs and Indians (Léry) and into the context of the relationship among Jesuits missionaries and Indians (d\'Abbeville).
230

Análise de redes ópticas de alta velocidade baseadas na tecnologia CDMA e códigos bidimensionais (comprimento de onda/tempo) / Analysis of high-speed optical wavelength/time CDMA networks

Sanches, Anderson Leonardo 02 March 2010 (has links)
Esta dissertação apresenta uma análise realista de redes OCDMA (acesso múltiplo por divisão de código) baseadas em dois formatos de modulação distintos, qual sejam, OOK (chaveamento on-off) e PPM (modulação por posição de pulso). O desempenho desses formatos de modulação sob dois esquemas de codificação bidimensionais (2-D), isto é, pulsos únicos por linha (SPR) e múltiplos pulsos por linha (MPR) também são avaliados. Em ambos os casos, os efeitos simultâneos de muitos mecanismos dispersivos e ruídos (incluindo a interferência de acesso múltiplo, MAI) que prejudicam o desempenho geral do sistema foram também considerados. Outros mecanismos de degradação foram também incluídos, tais como o ruído de intensidade relativa (RIN) na etapa de transmissão, efeitos dispersivos da fibra óptica, como as dispersões de velocidade de grupo (GVD) e dos modos de polarização de primeira ordem (PMD), assim como os ruídos de batimento, APD, e térmicos na recepção. O efeito da GVD e PMD, bem como a influência dos ruídos, sobre o desempenho dos códigos SPR e MPR também são investigados. Outro efeito estudado nesta dissertação é a influência do fotodetetor APD sobre o ruído de batimento da rede OCDMA não-coerente. Para mitigar os ruídos do sistema e a BER, o algoritmo FEC RS (255,239) foi adotado em ambas as redes analisadas. Novas expressões para a taxa de erro de bit (BER) incluindo todos os ruídos e mecanismos de dispersão são apresentadas para os códigos SPR e MPR. Os resultados indicam que os esquemas de modulação OOK e PPM sem mecanismos adicionais de mitigação da MAI e de outros efeitos de ruídos não são suficientes para acomodar 32 usuários simultâneos em meio livre de erros (BER < \'10 POT.-12\'). Isto ocorre devido à alta BER na entrada do decodificador FEC, que afeta severamente a correção de erros na deteção. / This dissertation presents a comprehensive analysis of an OCDMA (optical code division multiple access) network based on two distinct modulation formats, namely, OOK (on-off keying) and PPM (pulse position modulation). We also investigate how each of these modulation formats performs under two distinct two dimensional (2-D) coding schemes, i.e., single-pulse per row (SPR) and multiple-pulse per row (MPR). For both cases, we have accounted for the simultaneous effect of many different dispersion and noise mechanisms (including multiple access interference, MAI) that impair the overall system performance. We have included the laser relative intensity noise (RIN) at the transmitter side, the fiber dispersive effects, such as group velocity dispersion (GVD) and first order polarization mode dispersion (PMD), as well as beat, APD, and thermal noises at the receiver side. The effect of GVD and PMD, as well as the influence of noises, on the performance of SPR and MPR codes is also investigated. Another effect studied in this dissertation is the influence of the avalanche photodetector (APD) photodetector on the beat noise of an incoherent OCDMA network. To mitigate systems noises and bit error rate (BER), we have adopted a FEC RS (255,239) algorithm in both networks investigated here. New expressions for the BER with all noises and dispersion mechanisms were also derived for the SPR and MPR code schemes. Results indicated that OOK and PPM modulation schemes without additional mechanisms to mitigate MAI and other noise effects are not sufficient to accommodate 32 simultaneous users in an error-free environment (BER < \'10 POT.-12\'). This occurs due to the already high BER at the FEC decoder input, which severely affects forward error corrections at the receiver side.

Page generated in 0.1835 seconds