• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 1
  • Tagged with
  • 12
  • 5
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Complexidade e algoritmos de jogos de blocos / Complexity and blocks games algorithms

Andrà Castro Ramos 17 July 2014 (has links)
CoordenaÃÃo de AperfeÃoamento de Pessoal de NÃvel Superior / A noÃÃo de jogo eletrÃnico remete a entretenimento reservado Ãs horas vagas, mas, alÃm de uma indÃstria bilionÃria, tambÃm à origem potencial de diversos temas de pesquisa, tanto voltados a suas respectivas Ãreas quanto de interesse da prÃpria indÃstria de jogos. Nesse contexto, nas Ãltimas dÃcadas, foram produzidos trabalhos que lidam com esse tipo de produto como base para problemas a serem tratados pela teoria dos algoritmos. Neste trabalho trazemos resultados de complexidade e algoritmos relacionados a 3 jogos com caracterÃsticas em comum, Bloxorz, On The Edge e Bobbin 3D. / The electronic game concept refers to reserved entertainment to spare time , but in addition to a billion dollar industry , is also potential source of several research topics , both directed to their respective areas of interest as own gaming industry . In this context, in recent decades, work has been done to deal with this type of product based on for problems to be addressed by the theory of algorithms. In this work we bring complexity results and algorithms related to three games with common characteristics , Bloxorz , On The Edge and Bobbin 3D.
2

Comparação de Modelos Genético-estatisticos para Seleção de Híbridos de Milho em Ensaios Preliminares

GUILHEN, J. H. S. 30 June 2016 (has links)
Made available in DSpace on 2018-08-01T22:57:26Z (GMT). No. of bitstreams: 1 tese_10028_Dissertação Final José Henrique Soler Guilhen.pdf: 3722988 bytes, checksum: 4b68b139b816cd54352c1e770f2628ab (MD5) Previous issue date: 2016-06-30 / As dificuldade que a população poderá passar com a falta de alimento e os disafios para asua produção nos anos futuros, vem preocupando e desenvolvendo diversas pesquisas no meio academico sobre o assunto e os possíveis resultados. Dentre as preocupações e esperaça ao mesmo tempo para uma amortização das perspectivas contestualizadas dos pesquisadores se encontra a cultura do milho (Zea mays). O milho é uma das principais fontes de alimenteo de forma direta e indireta para a população mundial. Trabalhos que busquem melhor eficiencia estatíscas, como a tecnica de modelos mistos (REML/BLUP), vem sendo adotados como uma possível amortização da falta alimentar no futuro. Além disto, modelos que expliquer melhor os valores estimados em relação aos observados e ensaios que resultem em híbridos com maiores maiores produtividades são de esta menessidade no panorana atual. Mediante está contestualização os objetivos do presente estudo foi selecionar o modelo que explique melhor os resultados observados e selecionar híbridos altamente produtivos. O experimento foi montado em um delineamento de blocos aumentados, dois ensaios separados, o ensaio 1 com 1801 linhagens hibridizada com o testador G24 e o ensaio 2 formado por 1551 linhagens hibridizado com o testador G8. A análise estatística foi realizada através da metodologia de modelos mistos (REML/BLUP). Foram testados 8 diferentes modelos, divididos em três classes. Os modelos selecionados foram os que apresentaram uma melhor precisão, baseado no log(L), AIC, BIC, acurácia e medidas de tempo e com e sem informação de parentesco. Com os modelos selecionados foram realizados testes de seleção de híbridos dentro de cada ensaio e no conjunto e estudou-se a coincidencia entre os ensaios em avaliação. Os melhores ajustes foram para os modelos M3, M6 e M8. Os menores tempos foram respostas dos modelos que não consideram informação de parentesco. A coincidência entre os 5% selecionados fenotipicamente e genotipicamente para todas as análises foi de 0,41 a 0,60. A coincidência entre os diferentes modelos e ensaios foi de 43,45 a 96,67%. Com este trabalho podemos concluir que os melhores modelos de modo geral entre ajustes e tempo foram os modelos M3 e M6 e o ensaio 1 que resultou nos melhores híbridos provenientes no experimento.
3

Uma família de códigos corretores de erro para criptossistemas eficientes baseados em decodificação de síndromes. / A family of error-correcting codes to eficient cryptosystems based on syndrome decoding.

Misoczki, Rafael 05 October 2010 (has links)
A criptografia é uma ciência que tem especial destaque no mundo moderno, evidenciando a necessidade em pesquisar algoritmos e técnicas para seu aperfeiçoamento. Apesar das soluções atualmente empregadas serem baseadas em problemas suficientemente seguros, se comparados ao poderio computacional necessário para resolvê-los, seu emprego futuro é questionado. Pesquisas demonstram potencial vulnerabilidade destes sistemas, caso tenhamos à disposição computadores quânticos sendo utilizados para fraudá-los. Alternativas têm sido estudadas e o criptossistema proposto por Robert J. McElice se mostra como uma das mais interessantes, visto sua versão convencional, baseada em códigos de Goppa, ter a segurança até o momento inafetada, inclusive se levado em conta a disponibilidade de tecnologia quântica. Entretanto, tal solução sofria com o tamanho de suas grandes chaves criptográficas, representando um entrave para sua aplicação na prática. Objetivando minimizar esta deficiência, neste trabalho, propomos a classe de códigos de Goppa quase-diádicos, que admitem uma matriz de paridade ou matriz geradora com representação muito compacta, produzindo chaves do tipo McEliece que são até um fator t = O(n) menores que as chaves genéricas, em notação que omite fatores logarítmicos, produzidas a partir de códigos de Goppa de comprimento n, para a correção de t erros em característica 2. No caso binário, essa família também mantém a capacidade de corrigir o número total projetado de erros em vez de apenas a metade; esta propriedade falta a todas as tentativas anteriores de construção de códigos compactos para fins de criptografia, incluindo (BERGER et al., 2009). Além disso, a complexidade de todas as operações criptográficas típicas torna-se O(n). Esta proposta foi submetida e selecionada para publicação e apresentação no XVI Workshop Selected Areas in Cryptography (SAC2009), ocorrido entre 13 e 14 de Agosto de 2009, em Calgary, Alberta, Canadá, de referência bibliográfica (MISOCZKI; BARRETO, 2009). Este evento foi realizado em cooperação com a International Association for Cryptologic Research (IACR) e teve seus artigos publicados pela Springer em Lecture Notes in Computer Science, volume 5867. / Cryptography is a science that is especially prominent in the modern world, highlighting the need to find algorithms and techniques for its improvement. Despite the fact that solutions currently used are based on problems that are sufficiently secure, if compared to the computing power needed to solve them, their future use is questioned. Researches demonstrated the potential vulnerability of these systems, if quantum computers are used to defraud them. Alternatives have been studied and the cryptosystem proposed by Robert J. McElice has been considered as one of the most interesting, since its conventional version, based on Goppa codes, has the security so far unaffected, even if taken into account the availability of quantum technology. However, this solution suffered with the large size of their cryptographic keys, an obstacle to its implementation in practice. Aiming to minimize this shortcoming, in this paper, we propose the class of quasidyadic Goppa codes, which admits a generator or parity-check matrix with very compact representation, producing McEliece keys that are up to a factor t = O(n) lower than the generic keys, in notation which omits logarithmic factors, produced from Goppa codes of length n, to correct t errors in characteristic 2. In the binary case, this family also retains the ability to correct the projected total number of errors, rather than just half; this property lacks in all previous attempts to build compact code for encryption, including (BERGER et al., 2009). Moreover, the complexity of all typical cryptographic operations becomes O(n). This proposal was submitted and selected for publication and presentation in the XVI Workshop Selected Areas in Cryptography (SAC2009), occurred in August, 13th and 14th, 2009, in Calgary, Alberta, Canada, with bibliographic reference (MISOCZKI; BARRETO, 2009). This event was held in cooperation with the International Association for Cryptologic Research (IACR) and had his papers published by Springer in Lecture Notes in Computer Science, volume 5867.
4

Uma família de códigos corretores de erro para criptossistemas eficientes baseados em decodificação de síndromes. / A family of error-correcting codes to eficient cryptosystems based on syndrome decoding.

Rafael Misoczki 05 October 2010 (has links)
A criptografia é uma ciência que tem especial destaque no mundo moderno, evidenciando a necessidade em pesquisar algoritmos e técnicas para seu aperfeiçoamento. Apesar das soluções atualmente empregadas serem baseadas em problemas suficientemente seguros, se comparados ao poderio computacional necessário para resolvê-los, seu emprego futuro é questionado. Pesquisas demonstram potencial vulnerabilidade destes sistemas, caso tenhamos à disposição computadores quânticos sendo utilizados para fraudá-los. Alternativas têm sido estudadas e o criptossistema proposto por Robert J. McElice se mostra como uma das mais interessantes, visto sua versão convencional, baseada em códigos de Goppa, ter a segurança até o momento inafetada, inclusive se levado em conta a disponibilidade de tecnologia quântica. Entretanto, tal solução sofria com o tamanho de suas grandes chaves criptográficas, representando um entrave para sua aplicação na prática. Objetivando minimizar esta deficiência, neste trabalho, propomos a classe de códigos de Goppa quase-diádicos, que admitem uma matriz de paridade ou matriz geradora com representação muito compacta, produzindo chaves do tipo McEliece que são até um fator t = O(n) menores que as chaves genéricas, em notação que omite fatores logarítmicos, produzidas a partir de códigos de Goppa de comprimento n, para a correção de t erros em característica 2. No caso binário, essa família também mantém a capacidade de corrigir o número total projetado de erros em vez de apenas a metade; esta propriedade falta a todas as tentativas anteriores de construção de códigos compactos para fins de criptografia, incluindo (BERGER et al., 2009). Além disso, a complexidade de todas as operações criptográficas típicas torna-se O(n). Esta proposta foi submetida e selecionada para publicação e apresentação no XVI Workshop Selected Areas in Cryptography (SAC2009), ocorrido entre 13 e 14 de Agosto de 2009, em Calgary, Alberta, Canadá, de referência bibliográfica (MISOCZKI; BARRETO, 2009). Este evento foi realizado em cooperação com a International Association for Cryptologic Research (IACR) e teve seus artigos publicados pela Springer em Lecture Notes in Computer Science, volume 5867. / Cryptography is a science that is especially prominent in the modern world, highlighting the need to find algorithms and techniques for its improvement. Despite the fact that solutions currently used are based on problems that are sufficiently secure, if compared to the computing power needed to solve them, their future use is questioned. Researches demonstrated the potential vulnerability of these systems, if quantum computers are used to defraud them. Alternatives have been studied and the cryptosystem proposed by Robert J. McElice has been considered as one of the most interesting, since its conventional version, based on Goppa codes, has the security so far unaffected, even if taken into account the availability of quantum technology. However, this solution suffered with the large size of their cryptographic keys, an obstacle to its implementation in practice. Aiming to minimize this shortcoming, in this paper, we propose the class of quasidyadic Goppa codes, which admits a generator or parity-check matrix with very compact representation, producing McEliece keys that are up to a factor t = O(n) lower than the generic keys, in notation which omits logarithmic factors, produced from Goppa codes of length n, to correct t errors in characteristic 2. In the binary case, this family also retains the ability to correct the projected total number of errors, rather than just half; this property lacks in all previous attempts to build compact code for encryption, including (BERGER et al., 2009). Moreover, the complexity of all typical cryptographic operations becomes O(n). This proposal was submitted and selected for publication and presentation in the XVI Workshop Selected Areas in Cryptography (SAC2009), occurred in August, 13th and 14th, 2009, in Calgary, Alberta, Canada, with bibliographic reference (MISOCZKI; BARRETO, 2009). This event was held in cooperation with the International Association for Cryptologic Research (IACR) and had his papers published by Springer in Lecture Notes in Computer Science, volume 5867.
5

Uma abordagem para integração e teste de módulos baseada em agrupamento e algoritmos de otimização multiobjetivos

Assunção, Wesley Klewerton Guez 24 August 2012 (has links)
Resumo: Para encontrar defeitos de comunicaçõ entre diferentes partes de um sistema é realizado o teste de integração, no qual cada módulo desenvolvido deve ser integrado e testado com os módulos já existentes. Entretanto, um módulo a ser integrado e testado, pode necessitar de recursos de outro módulo ainda em desenvolvimento, levando a necessidade de se construir um stub. Stubs são simula_c~oes de recursos essenciais para o teste mas que ainda não estão disponíveis. O stub não faz parte do sistema, então a construção de stubs implica em custo adicional. Para minimizar a necessidade de stubs e conseqüentemente reduzir o custo do projeto, várias estratégias para integrar e testar módulos foram propostas. Porém, nenhuma dessas estratégias considera uma característica presente na maioria dos sistemas, que é a modularização. Dado este fato, este trabalho propõe uma estratégia que considera agrupamentos de módulos durante o estabelecimento de ordens para a integração e teste. Esta estratégia é implementada em uma abordagem chamada MECBA-Clu, uma abordagem baseada em algoritmos de otimização multiobjetivos e diferentes medidas de acoplamento para avaliar diversos fatores que inuenciam o custo de construção de stubs. A abordagem MECBA-Clu é avaliada através da condução de um experimento com oito sistemas reais, quatro Orientados a Objetos e quatro Orientados a Aspectos, no qual os três diferentes algoritmos evolutivos multiobjetivos NSGA-II, SPEA2 e PAES foram aplicados. Os resultados apontam que o espaço de busca fica restrito a determinadas áreas em que as soluções podem ser encontradas. Além disso, de acordo com quatro indicadores de qualidade utilizados, observa-se que o algoritmo PAES obteve o melhor resultado, seguido pelo NSGA-II e por fim o SPEA2. Exemplos da utilização da abordagem também são apresentados.
6

Complexidade e algoritmos de jogos de blocos / Complexity and blocks games algorithms

Ramos, André Castro January 2014 (has links)
RAMOS, André Castro Ramos. Complexidade e algoritmos de jogos de blocos. 2014. 52 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2014. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-08T18:23:46Z No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-13T12:37:09Z (GMT) No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) / Made available in DSpace on 2016-07-13T12:37:09Z (GMT). No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) Previous issue date: 2014 / The electronic game concept refers to reserved entertainment to spare time , but in addition to a billion dollar industry , is also potential source of several research topics , both directed to their respective areas of interest as own gaming industry . In this context, in recent decades, work has been done to deal with this type of product based on for problems to be addressed by the theory of algorithms. In this work we bring complexity results and algorithms related to three games with common characteristics , Bloxorz , On The Edge and Bobbin 3D. / A noção de jogo eletrônico remete a entretenimento reservado às horas vagas, mas, além de uma indústria bilionária, também é origem potencial de diversos temas de pesquisa, tanto voltados a suas respectivas áreas quanto de interesse da própria indústria de jogos. Nesse contexto, nas últimas décadas, foram produzidos trabalhos que lidam com esse tipo de produto como base para problemas a serem tratados pela teoria dos algoritmos. Neste trabalho trazemos resultados de complexidade e algoritmos relacionados a 3 jogos com características em comum, Bloxorz, On The Edge e Bobbin 3D.
7

Complexidade e algoritmos de jogos de blocos / Complexity and blocks games algorithms

Ramos, André Castro January 2014 (has links)
RAMOS, André Castro. Complexidade e algoritmos de jogos de blocos. 2014. 51 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2014. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-05-27T20:03:26Z No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-05-27T20:03:57Z (GMT) No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) / Made available in DSpace on 2016-05-27T20:03:57Z (GMT). No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) Previous issue date: 2014 / The electronic game concept refers to reserved entertainment to spare time , but in addition to a billion dollar industry , is also potential source of several research topics , both directed to their respective areas of interest as own gaming industry . In this context, in recent decades, work has been done to deal with this type of product based on for problems to be addressed by the theory of algorithms. In this work we bring complexity results and algorithms related to three games with common characteristics , Bloxorz , On The Edge and Bobbin 3D. / A noção de jogo eletrônico remete a entretenimento reservado às horas vagas, mas, além de uma indústria bilionária, também é origem potencial de diversos temas de pesquisa, tanto voltados a suas respectivas áreas quanto de interesse da própria indústria de jogos. Nesse contexto, nas últimas décadas, foram produzidos trabalhos que lidam com esse tipo de produto como base para problemas a serem tratados pela teoria dos algoritmos. Neste trabalho trazemos resultados de complexidade e algoritmos relacionados a 3 jogos com características em comum, Bloxorz, On The Edge e Bobbin 3D.
8

Uso do tempo de resposta para melhorar a convergência do algoritmo de testes adaptativos informatizados

Maia Júnior, Antonio Geraldo Pinto 08 July 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015. / Submitted by Patrícia Nunes da Silva (patricia@bce.unb.br) on 2015-11-23T15:47:56Z No. of bitstreams: 1 2015_AntonioGeraldoPintoMaiaJunior_Parcial.pdf: 2852414 bytes, checksum: 1303cf1106fe5224e001f2e527d46d67 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2015-12-03T10:59:49Z (GMT) No. of bitstreams: 1 2015_AntonioGeraldoPintoMaiaJunior_Parcial.pdf: 2852414 bytes, checksum: 1303cf1106fe5224e001f2e527d46d67 (MD5) / Made available in DSpace on 2015-12-03T10:59:49Z (GMT). No. of bitstreams: 1 2015_AntonioGeraldoPintoMaiaJunior_Parcial.pdf: 2852414 bytes, checksum: 1303cf1106fe5224e001f2e527d46d67 (MD5) / O presente trabalho tem como objetivo central melhorar os Testes Adaptativos Informatizados (Computerized Adaptative Tests, CATs na sigla, em inglês) clássicos, que são aqueles administrados por computador e que ajustam os itens do teste à medida que ele é realizado. Isso é possível, pois, dada a resposta do respondente, estima-se a sua habilidade momentânea, obtendo-se o próximo item a ser administrado, com base em um critério estatístico (Máxima Informação, Máxima Informação Global ou Máxima Informação Esperada). Para isso, inseriu-se a covariável Tempo de Resposta ao modelo. Pois, acreditou-se que há informação nessa covariável e, portanto, ao se considerá-la, o teste pode ser encurtado, melhorando, assim, a convergência do algoritmo. Nessa perspectiva, fez-se uma revisão bibliográfica de TRI (sigla de Teoria de Resposta ao Item) e CAT, para se estruturar o novo modelo com a covariável Tempo de Resposta, calculando-se todas as equações que serão utilizadas na aplicação. Por fim, a aplicação com dados simulados concluiu nosso estudo, pois, ao comparar a convergência do algoritmo de um CAT tradicional em relação ao novo CAT, observou-se que os objetivos do presente trabalho foram cumpridos. ___________________________________________________________________________ ABSTRACT / Computerized adaptive tests (CATs) are tests administered by computer which adjust the test items as the test is carried out. This work proposes to improve CATs by taking into account the time that the respondents use to answer the different questions to obtain provisional estimates of their ability in order to choose the next item. This information is used to modify the classical criteria (maximal information, overall maximum information or maximum information expected). It is believed that the use of this covariate may improve the convergence of the CAT algorithm, thus allowing for shorter tests. The dissertation presents a review of TRI and CAT and the new model which takes into account the response time. An application using simulated data is used to compare the convergence of a traditional CAT algorithm and that of the model using the response time.
9

Emprego de antenas adaptativas para a estimação de dados em ambiente CDMA / Applying adaptive antennas for data estimation in CDMA medium

Puttini, Saulo Benigno January 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2006. / Submitted by Priscilla Brito Oliveira (priscilla.b.oliveira@gmail.com) on 2009-11-19T11:04:39Z No. of bitstreams: 1 2006_Saulo Benigno Puttini.pdf: 821913 bytes, checksum: eddf4de73e711bc66889683da5bb64d2 (MD5) / Approved for entry into archive by Carolina Campos(carolinacamposmaia@gmail.com) on 2010-01-20T19:23:39Z (GMT) No. of bitstreams: 1 2006_Saulo Benigno Puttini.pdf: 821913 bytes, checksum: eddf4de73e711bc66889683da5bb64d2 (MD5) / Made available in DSpace on 2010-01-20T19:23:39Z (GMT). No. of bitstreams: 1 2006_Saulo Benigno Puttini.pdf: 821913 bytes, checksum: eddf4de73e711bc66889683da5bb64d2 (MD5) Previous issue date: 2006 / Este trabalho fundamenta-se em propor e avaliar o desempenho de um modelo receptor adaptativo, com utilização de arranjo de sensores, a ser empregado em meios de multiplicidade de acesso via divisão por códigos (CDMA) para fins de estimação de dados. Inicialmente é apresentado um estudo sobre arranjos de antenas, desenvolvendo-se o equacionamento de um arranjo linear e uniforme (ULA). Enfatiza-se o emprego deste para fins de separação espacial de usuários, sendo relatadas e ilustradas algumas formas de conformação de feixe. A seguir, o trabalho aborda o emprego de algoritmos adaptativos, especialmente o método de Wiener e filtro de Mínima Média Quadrática (LMS), para arranjos de sensores, originando os tão conhecidos arranjos adaptativos. Prosseguindo, aborda-se o problema de estimação da direção de chegada (DOA), sendo ilustrados alguns métodos amplamente difundidos na literatura especializada. Algumas simulações de espectro espacial de potência são realizadas, visando a avaliar, principalmente, a capacidade de resolução e a imunidade em relação ao ruído. É apresentado, então, uma metodologia de estimação de DOA como resultado secundário de arranjos adaptativos. Na continuidade, são mostradas algumas características da técnica de espalhamento espectral, essencial para a implementação do acesso múltiplo por divisão no código. Neste contexto, discute-se o problema de sincronismo nas aplicações CDMA, sendo apresentado um algoritmo de detecção de atrasos, baseado em correlação temporal. Finalmente, exibe-se o receptor CDMA adaptativo proposto, avaliado sob diferentes situações de ruído, interferência, controle de potência e quantidade de sensores. É dado tratamento especial às situações de acompanhamento de usuários em movimento, no qual se enfoca a capacidade do receptor em adaptar seu diagrama de radiação às condições de mudança de direção das fontes de sinal. Por meio das simulações, constata-se que, tendo como única informação disponível os códigos de espalhamento, o receptor mostra-se capaz de recuperar o sinal original, separar espacialmente as fontes de interesse e rastrear os usuários do sistema, quando estes se encontravam em movimento. Os resultados apresentados são extremamente satisfatórios. Percebeu-se uma alta imunidade do modelo em relação ao aumento de ruído de fundo do ambiente e uma considerável robustez em relação à interferência co-canal. _________________________________________________________________________________________ ABSTRACT / This work founds in proposing and evaluating the performance of an adaptive receptor model, applying array of sensors, for use in code division multiple access (CDMA) mediums for data estimation. First, a basic study about antenna arrays is presented, followed by the development of the algebraic equations of the linear uniform array (ULA). It is emphasized the use of these arrays for spatial separation, along with some considerations and illustrations of beamforming techniques. Moving forward, the thesis approaches the employment of adaptive algorithms, especially the Wiener and Least Mean Square (LMS) filters, in array of sensors, resulting in the widely known adaptive arrays. Next, the problem of direction of arrival (DOA) estimation is attended, with several well recognized methods being displayed. Some simulations of power spatial spectrum are made, aiming to evaluate, mainly, the resolution ability and the noise immunity. Thus, a methodology applying adaptive algorithms for DOA estimation with array of sensors is signalized as a secondary result. The spread spectrum technique, along with its features and peculiarities, is showed on the continuity, emphasizing the use of the Direct Sequence Spread Spectrum (DSSS) for CDMA mediums. Under this context, the synchronization problem is raised and treated, culminating in the presentation of an algorithm, based on temporal correlation, for delay detection. This algorithm was applied in the proposed receptor model. Finally, a CDMA adaptive receptor model is proposed, exhibited and tested under different conditions of noise, interference, power control and number of sensors. Special treatment is dedicated to the tracking of mobile users, where it is witnessed the aptness of the model in adapting its radiation pattern for dynamic situations. Through the simulations, it is showed that the receptor model is able to spatially separate the sources, recover the original signal and track the mobile users, having as sole previous information the code sequence of the sources itself. The attained results are pretty satisfactory. The model came up to be highly immune to medium noise and considerably robust to co-channel interference.
10

[en] FOMAL ANALYSIS OF PROTOCOLS AND DISTRIBUTED ALGORITHMS: A BASED-LANGUAGE APPROACH / [pt] ANÁLISE FORMAL DE PROTOCOLOS E ALGORITMOS DISTRIBUÍDOS: UMA ABORDAGEM BASEADA EM LINGUAGEM

CARLOS BAZILIO MARTINS 03 April 2006 (has links)
[pt] Neste trabalho propomos uma arquitetura para a verificação formal de protocolos e algoritmos distribuídos. Esta pode ser vista como uma camada mais abstrata sobre o processo tradicional de verificação formal, onde temos a especificação e propriedade a serem verificadas, o verificador e o resultado retornado por este. O objetivo é simplificar o processo de especificação e verificação formal de protocolos e algoritmos distribuídos através de um ambiente mais dedicado. A parte principal desta arquitetura é a linguagem de especificação LEP, que contém construções de domínio-especifíco para simplificar a especificação destes sistemas. Outra característica desta linguagem é separar as especificações da topologia e do protocolo propriamente dito. Acreditamos que esta separação é válida pois torna mais clara a intenção das partes e ainda permite, por exemplo, o reuso de uma topologia entre diferentes especificações de protocolos. Assim, visamos oferecer uma linguagem cujos exemplos de especificações devem se assemelhar às descrições de algoritmos encontradas nos livros didáticos. Além disso, de forma a se ter a entrada e a saída dos verificadores formais de forma a obter a saída no nível de abstração de LEP. / [en] In this work we propose an architecture for the formal verification of protocols and distribued algoritms. This can be see as a more abstract layer over the ordinary process of formal verification, where we have just the specification of the protocol and properties to be verified, and the formal tool. Our goal is to simplifu the specification and formal verification of protocols and distributed algorithms through a dedicated environment. The core of the architecture is its input specification language (Lep), which provides domain-specific constructions for simplifying the specification of those systems. With LEP the specification of the protocol and the specification of the topology to be referred to protocol are given separetely. We feel that this division improves the legibility of both and allows the reuse of the specification of a topology among distinct protocols. Using this approach we try to offer a language whose specifications should be similar to the descriptions of the algorithms found on the didactic books. Moreover, in order to have the input and output of the architecture compatible, we also propose a way of processing the result of the formal verification tool. Then we could have the result on the abstract level of LEP.

Page generated in 0.044 seconds