• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 339
  • 16
  • 5
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 362
  • 227
  • 67
  • 55
  • 36
  • 34
  • 34
  • 30
  • 28
  • 28
  • 25
  • 25
  • 23
  • 23
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Ensaios em dívida soberana

Delfino, Denísio Augusto Liberato 22 June 2012 (has links)
Submitted by Denísio Liberato (denisioliberato@bb.com.br) on 2012-07-23T15:29:29Z No. of bitstreams: 1 TESE_versão_final_23072012.pdf: 1132720 bytes, checksum: 866d5e254e7f90dedcaaf1e8e4ac25ab (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2012-07-23T15:38:45Z (GMT) No. of bitstreams: 1 TESE_versão_final_23072012.pdf: 1132720 bytes, checksum: 866d5e254e7f90dedcaaf1e8e4ac25ab (MD5) / Made available in DSpace on 2012-07-23T15:45:40Z (GMT). No. of bitstreams: 1 TESE_versão_final_23072012.pdf: 1132720 bytes, checksum: 866d5e254e7f90dedcaaf1e8e4ac25ab (MD5) Previous issue date: 2012-06-22 / O objetivo central desta tese é colaborar com a literatura de finanças internacionais, abordando a discussão sobre os limites 'toleráveis' de endividamento aos quais os governos estão submetidos, bem como, sobre os fatores que afetam a forma como os países denominam suas dívidas no mercado internacional. A análise dos limites de endividamento é baseada num modelo onde crises de dívida auto-realizáveis podem ocorrer quando o nível de endividamento encontra-se em determinado intervalo. Uma vez nesta região, a dívida pode (ou não) ser rolada e, caso os credores não concedam novos empréstimos, a crise torna-se, de fato, uma profecia auto-realizável. Os resultados encontrados indicam que o limite de endividamento, além de bastante persistente, é muito dependente da razão dívida/PIB, bem como, dos históricos de inflação, crises bancárias e de defaults (ou reestruturações) de dívida soberana. Posteriormente, é feita uma aplicação do modelo estimado aos países da periferia do euro, na qual os resultados sugerem que países como Portugal e Grécia, mesmo após a adoção da moeda única, apresentam dificuldades em administrar os seus níveis de endividamento. Em conjunto, os resultados apresentados sugerem que quanto pior o histórico macroeconômico, menor será a capacidade do país 'tolerar' dívidas. Em relação à denominação da dívida, o estudo procura identificar em que medida a volatilidade da taxa de câmbio real efetiva, controlada por diversos fatores, impacta a forma como países se endividam no mercado internacional. Os resultados indicam que a baixa volatilidade cambial é condição fundamental para que a moeda doméstica seja utilizada em transações internacionais. Além disso, porte econômico, estabilidade de regras, respeito aos contratos e ampla liquidez dos mercados financeiros domésticos, são fatores que contribuem para a aceitação de uma moeda nos contratos de dívida internacional. Evidências adicionais do estudo sugerem que a ampla liquidez internacional, observada principalmente nos anos 2000, foi incapaz de ampliar de maneira significativa o número de moedas utilizadas no mercado internacional de dívidas. Ainda em relação a este tema, a tese analisa os primeiros passos da economia brasileira no sentido de alongar o perfil da dívida pública interna, por intermédio da emissão de títulos denominados em reais no mercado internacional. / The aim of this dissertation is to collaborate with the international finance literature, addressing the debate on the "acceptable" sovereign debt limits debt, as well as addressing on debt denomination in the international market. The analysis of debt limits is based on a model in which self-fulfilling debt crises can occur when the debt level reaches a certain range. Once this range is reached, the debt may (or may not) be rolled over and, if creditors do not grant new loans, the crisis becomes, in fact, a self-fulfilling prophecy. The results indicate that the indebtedness limit, besides being persistent, depends highly on the debt/GDP ratio, as well as on historical inflation, banking crises and default (or restructuring) of sovereign debt. Subsequently, an application of the estimated model is made to peripheral countries of the Euro Zone. The results suggest that countries like Portugal and Greece, even after the adoption of the single currency, have difficulties in managing their debt levels. The results also suggest that the worse the macroeconomic history, the lower the country's ability "to tolerate" debt. In relation to debt denomination, the study seeks to identify to what extent the volatility of real effective exchange rate, controlled by several factors, have an influence on how countries gain access to the international bond market. The results indicate that low exchange rate volatility is a fundamental condition for debt denominated in local currency in international markets. Moreover, the size of the economy, stability of regulations, enforcement of contracts and ample liquidity in domestic financial markets are factors that contribute to the acceptance of a currency in international debt contracts. Additional evidence of the study suggests that the broad international liquidity, mainly observed in the 2000s, was unable to expand significantly the number of currencies used in international debts. Still regarding this issue, the dissertation analyzes the first steps of the Brazilian economy in order to extend the profile of its public debt through the issuance of bonds denominated in Reais in the international market.
342

RELAÇÃO ENTRE AS DEZ PRINCIPAIS BOLSAS DE VALORES DO MUNDO E SUAS CO-INTEGRAÇÕES / RELATION AMONG THE TOP TEN STOCK MARKETS IN THE WORLD AND THEIR CO-INTEGRATIONS

Wolff, Laion 09 August 2011 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Globalization provoked in financial markets by means stock exchanges an interchange among the markets over the world. The aim of this study was to examine the relationship of the ten major main economic index of the world represented in New York (DJIA, S&P500 e Nasdaq), Tokyo (NIKKEI 225), London (FSTE 100), São Paulo (IBOV), Shanghai (SSE180), Paris (CAC-40), Frankfurt (DAX-30) and Buenos Aires (Merval) and looking for its co-integration, to demonstrate the behavior of these indexes and the long run equilibrium, from January of 2010 to March of 2011. To investigate the equilibrium and the long rum behavior the error correction model was used jointly with co-integration test and impulse response based on Cholesky decomposition. The results of this study show that the index of stock markets has long term equilibrium, and American markets, Argentina and English showed a strong influence over other markets. With this research we can infer that a relationship exists between the stock markets under study, confirming that the economy in a country can influence the others. In this sense, the contribution of this study, given this range of discussions involving the interconnection of economies with respect to trades made on the stock exchanges, was to show the relationships and influences in the world. / A internacionalização somada à abertura dos mercados financeiros transformou as economias antes fechadas em economias abertas, provocou um intercâmbio entre as economias mundiais por meio das bolsas de valores. O objetivo deste estudo é examinar a relação entre os dez principais índices econômicos do mundo, sendo eles: Nova York (DJIA, S&P500 e Nasdaq), Tóquio (Nikkei 225), Londres (FSTE 100), São Paulo (IBOV), Shangai (SSE180), Paris (CAC), Frankfurt (DAX-30) e Bueno Aires (Merval), por meio da análise de co-integrações para demonstrar o comportamento desses índices e seus equilíbrios no período de janeiro de 2010 a março de 2011. Para investigar e verificar o comportamento em longo prazo, foi utilizado o modelo de correção de erros e teste de impulso-resposta baseado na decomposição de Cholesky. Os resultados deste estudo mostram que existe equilíbrio em longo prazo entre os índices do mercado de ações. Os mercados americano, argentino e inglês mostraram forte influência sobre os demais mercados. Com esta pesquisa, verifica-se que existe uma relação entre os mercados de ações estudados, confirmando que a economia de um país influencia as demais. A contribuição deste estudo é verificar a assertiva das discussões atuais sobre a dependência das economias mundiais com as negociações por meio da bolsa de valores.
343

[en] CHANNEL ESTIMATION AND MULTIUSER DETECTION TECHNIQUES FOR MACHINE-TYPE COMMUNICATIONS / [pt] ESTIMAÇÃO DE CANAL E TÉCNICAS DE DETECÇÃO PARA COMUNICAÇÕES ENTRE MÁQUINAS

ROBERTO BRAUER DI RENNA 24 August 2021 (has links)
[pt] Esse trabalho realiza uma extensa revisão bibliográfica da literatura, onde pontos de inovação são observados e novas soluções para os principais problemas no uplink são propostas. Baseados no algoritmo adaptativo Recursive Least Squares (RLS), são apresentadas duas variações regularizadas que conjuntamente detectam a atividade e decodificam os sinais dos dispositivos, sem a necessidade de estimação explícita do canal. Além disso, duas técnicas de detecção por listas são desenvolvidas de modo a refinar o processo de ajuste dos pesos do algoritmo RLS e assim mitigar possíveis propagações de erros. Dividindo o problema em grafos fatoriais, são propostos algoritmos baseados em troca de mensagens de modo a realizar conjuntamente a estimação de canal e detecção de atividade. Além de uma nova derivação das mensagens, são exploradas técnicas de agendamento dinâmico, com base na convergência do algoritmo. Por fim, é apresentada uma solução completa baseada na troca de mensagens, que realiza conjuntamente a estimação de canal, detecção de atividade e decodificação dos dados transmitidos. Resultados numéricos são fornecidos com o objetivo de comparar o desempenho dos algoritmos propostos aos existentes na literatura. Análises de complexidade computacional, evolução dos estados, convergência e ordem de diversidade também são realizadas, assim como a derivação da soma das taxas para o uplink. Por fim, são apresentadas as conclusões obtidas dos trabalhos realizados e discutidas direções para trabalhos futuros. / [en] This work, presents an extensive literature review that highlights innovation opportunities and presents novel solutions for the main uplink mMTC problems. Based on the adaptive Recursive Least Squares (RLS) algorithm, the proposed regularized techniques jointly performs activity detection and signal decoding, without the need to perform explicit channel estimation. In order to improve the detection performance, a list detection technique that uses two candidate-list schemes is developed. Rewriting the problem with factor-graphs, novel message-passing algorithms with dynamic scheduling that jointly estimates the channels and detects devices activity are proposed. Lastly, a complete message-passing solution is presented, where LDPC decoding beliefs are introduced in the system, in a way that the algorithm besides the channel estimation and activity detection, also jointly decodes the signals. In order to evaluate the proposed techniques, numerical results are provided as well as a computational complexity, state-evolution, convergence and a diversity analysis. Uplink sum-rate expressions that take into account metadata collisions, interference and a variable activity probability for each user are also derived. Finally, conclusions and future directions are discussed.
344

O uso dos dados da missão GOCE para a caracterização e a investigação das implicações na estrutura de densidade das Bacias Sedimentares do Amazonas e Solimões, Brasil / The use of the GOCE mission data for characterizations and implications on the density structure of the Sedimentary Basins of Amazon and Solimões, Brazil

Bomfim, Everton Pereira 11 December 2012 (has links)
A maneira mais direta de detectar as anomalias da densidade é pelo estudo do potencial gravitacional e de suas derivadas. A disponibilidade global e a boa resolução dos dados do satélite GOCE, aliadas à disponibilidade de dados de gravimetria terrestre, são ideais para a comparação e classificação das bacias de larga escala, como as bacias sedimentares do Solimões e do Amazonas dentro do Craton amazônico. Foram processados um conjunto de dados, produtos GOCE EGG_TRF_2 Level 2, ao longo das trajetórias do satélite para remover o ruído (shift/drift) nos gradientes da gravidade a partir da técnica crossover (XO). Calculamos a redução das massas topográfica a fim de obter os componentes do gradiente da gravidade e anomalia da gravidade usando modelagem direta com prismas esféricos a partir do modelo de elevação digital, ETOPO1. Desta maneira, a comparação dos dados somente do satélite GOCE com as reduções das massas topográficas referentes aos componentes do gradiente da gravidade permitiram estimar quantidades invariantes que trouxeram uma melhoria na interpretação dos dados do tensor de gravidade. Além disso, comparamos dados terrestres do campo de gravidade com dados do campo de gravidade dos modelos geopotenciais EGM2008 e GOCE, uma vez que os dados terrestres podem ser afetados por erros em longos comprimentos de onda devido a erros de nivelamento, diferentes referenciais de altitudes, e aos problemas em interligar diferentes campanhas de medidas da gravidade. Portanto, estimamos uma melhora e uma nova representação dos mapas das anomalias de gravidade e do tensor gradiente da gravidade nas áreas inacessíveis do Craton Amazônico. As observações forneceram novas entradas para determinar campos regionais a partir dados brutos pre-processados (gradiente de gravidade EGG_TRF_2 L2), bem como a partir de um modelo geopotencial mais recente até grau e ordem 250 dos harmonicos esféricos derivados de dados somente do satélite GOCE para a representação do campo de gravidade como geóide, anomalias da gravidade e os componentes tensor da gravidade, os quais foram quantidades importantes para interpretação, modelagem e estudo dessas estruturas. Finalmente, obtivemos um modelo isostático considerando a estrutura de densidade litosférica estudada através de uma modelagem direta 3D da distribuição de densidade por prismas esféricos usando a geometria do embasamento e descontinuidade do Moho. Além do que, constatamos através da modelagem direta das soleiras de diabásios dentro dos sedimentos mostramos que somente as soleiras dentro da Bacia do Amazonas não são as únicas responsáveis pela anomalia de gravidade positiva que coincide aproximadamente com as espessuras máximas dos sedimentos da Bacia. Talvez, isso possa ser também um resultado de movimentos relativos do Escudo das Guianas situado ao norte da Bacia, e o Escudo Brasileiro situado ao sul. Embora isso seja apenas uma evidência adicional preliminar, não podemos confirmá-las a partir das estimativas do campo da gravidade. Portanto, é necessário outros tipos de dados geofísicos, como por exemplo, evidências mais claras advindas do paleomagnetismo. / The most direct way to detect density anomalies is the study of the gravity potential field and its derivatives. The global availability and good resolution of the GOCE mission coupled with the availability of terrestrial gravity data are ideal for the scope of intercomparison and classification of the two large-scale Amazon and Solimoes sedimentary basins into area of the Amazon Craton. The GOCE data set obtained in satellite tracks were processed from EGG_TRF_2 Level 2 Products generated with the correction needed to remove the noise (shift/drift), and so, to recover the individual components of the gravity gradient tensor using the crossover (XO) points technique. We calculated the topographic masses reductions in order to obtain the gravity gradient components and gravity anomaly (vertical component) using forward modelling from tesseroids from Digital Elevation Model, ETOPO1. Thus, the comparison of the only-satellite GOCE data with the reductions of the topographic masses for the gradient components allowed to estimate invariants quantities for bring an improvement in the interpretation of the gravity tensor data. Furthermore, we compared the terrestrial data gravity field with EGM2008 and GOCE-deduced gravity field because the terrestrial fields may be affected by errors at long wavelengths due to errors in leveling, different height references, and problems in connecting different measurement campaigns. However, we have estimated an improvement and new representations of the gravity anomalies maps and gravity gradient tensor components primary in inaccessible areas of the Amazon Craton. GOCE observations provide new inputs to determine the regional fields from the preprocessed raw data (EGG_TRF_2 L2 gravity gradients), as well from the most recent global geopotential model available up to degree and order 250 developed in spherical harmonics derived only-satellite GOCE data for representing of geoid and others gravity field as gravity anomaly and gravity gradient tensor components, which are important quantities for modelling and studying these structures. Finally, we obtained the isostatic model considering the lithospheric density structure studied through a 3D direct modelling of density distribution using the geometry of basement and Moho discontinuity, assumed to be known as initial constraint. In addition, we found through direct modeling sills and sediment has shown that the diabase sills are not the only ones responsible for positive gravity anomaly map that transects the Amazon Basin, roughly coincident with the maximum thickness of sedimentary rocks or the trough of the basin. Maybe, this could be the result of the relative movements of the Guiana Shield, situated at the north of the Amazon basin, and the Brazilian Shield, situated at the south. Although this is only a preliminary additional evidence, we cannot confirm it only from the data of gravity. It is necessary others types of geophysical data, for example, more clear evidences obtained from paleomagnetism.
345

Avaliação da atividade e resistência à clivagem proteolítica de L-asparaginases recombinantes obtidas por reação em cadeia da polimerase propensa a erro / Evaluation of the activity and resistance to proteolytic cleavage of recombinant L-asparaginases obtained by error-Prone polymerase chain reaction

Rodrigues, Mariane Augusta Domingues 30 March 2016 (has links)
A L-Asparaginase II de Escherichia coli (EcA II) é uma enzima amplamente utilizada no tratamento da Leucemia Linfoblástica Aguda (LLA), atuando na depleção do aminoácido L-asparagina, o qual é fundamental para a multiplicação das células cancerosas. Contudo, o tratamento com a EcA II está associado a altos índices de hipersensibilidade, devido à formação de anticorpos anti-L-asparaginase e à clivagem da enzima pelas proteases sanguíneas asparagina endopeptidase (AEP) e catepsina B (CTSB). Também ocorre neurotoxicidade associada ao efeito L-glutaminase da enzima. O principal objetivo do presente trabalho é a obtenção de mutantes da EcA II (gene ansB) com equivalente eficiência catalítica, maior resistência à clivagem proteolítica e menor atividade glutaminase. Para este propósito, através da reação em cadeia da polimerase propensa a erro (epPCR) do gene ansB, foi construída uma biblioteca de 1128 clones expressos no vetor pET15b em BL21(DE3). Nenhum mutante com atividade asparaginásica equivalente à EcA II selvagem apresentou atividade glutaminásica inferior à esta. Dentre os clones triados obtivemos um mutante (T161I) resistente à clivagem proteolítica pela CTSB e dois mutantes (Q190L e P40S/S206C) resistentes à clivagem proteolítica por ambas AEP e CTSB. Estes três mutantes apresentaram atividade asparaginásica e glutaminásica equivalentes a EcA II selvagem. Nossos resultados mostram promissoras possibilidades de EcA II mutantes com maior estabilidade frente às proteases sanguíneas humanas e possivelmente menos imunogênicas. / Escherichia coli L-asparaginase (EcA II) is an enzyme widely used in the treatment of acute lymphoblastic leukemia (ALL), acting in the depletion of the amino acid L-asparagine, which is essential for cancer cells proliferation. However, treatment with L-asparaginase is associated with a high rate of hypersensitivity, due to formation of anti-L-asparaginase antibody and the enzyme cleavage by the serum proteases asparagine endopeptidase (AEP) and cathepsin B (CTSB). Furthermore, the neurotoxicity is associated with the effect of the enzyme L-glutaminase activity. The main aim of the current work is to obtain variants of EcA II (gene ansB) with an equivalent catalytic efficiency, greater resistance to proteolytic cleavage and a reduced glutaminase activity. For such purpose, through error-prone polymerase chain reaction (epPCR) of gene ansB, a library of 1128 clones was constructed in pET15b vector and expressed in BL21(DE3). None mutant with an asparaginase activity equivalent to EcA II wild type showed a reduced glutaminase activity. Among the screened clones, one mutant (T161I) was resistant to CTSB proteolytic cleavage and two mutants (Q190L e P40S/S206C) were resistant to both CTSB and AEP proteolytic cleavages. These three mutants were EcA II wild type equivalents in asparaginase and glutaminase activities. Our data show promising new possibilities of mutant EcA II presenting higher stability against human serum proteolytic cleavage and maybe lower immunogenicity.
346

Next generation access networks: flexible OCDMA systems and cost-effective chaotic VCSEL sources for secure communications / Redes de acesso de próxima geração: sistemas OCDMA flexíveis e fontes VCSEL caóticas de baixo custo para comunicações seguras

Raddo, Thiago Roberto 22 August 2017 (has links)
The significant advances in fiber-optic technology have broadened the optical network\'s reach into end-user business premises and even homes, allowing new services and technologies to be delivered to the customers. The next wave of innovation will certainly generate numerous opportunities provided by the widespread popularity of emerging solutions and applications such as tactile Internet, telemedicine and real time 3-D content generation, making them part of everyday life. Nevertheless, to support such an unprecedented and insatiable demand of data traffic, higher capacity and security, flexible bandwidth allocation and cost-efficiency have become crucial requirements for technologies candidate for future optical access networks. To this aim, optical code-division multiple-access (OCDMA) technology is considered as a prospective candidate, particularly due to features like asynchronous transmissions, flexible as well as conscious bandwidth resource distribution and support to differentiated services at the physical layer, to name but a few. In this context, this thesis proposes new mathematical formalisms for bit error rate, packet throughput and packet delay to assess the performance of flexible OCDMA networks capable of providing multiservice multirate transmissions according to users\' requirements. The proposed analytical formalisms do not require the knowledge a priori of the users\' code sequences, which means that the network performance can be addressed in a simple and straightforward manner using the code parameters only. In addition, the developed analytical formalisms account for a general number of distinct users\' classes as well as general probability of interference among users. Hence, these formalisms can be successfully applied for performance evaluation of flexible OCDMA networks not only under any number of users\' classes in a network, but also for most spreading codes with good correlation properties. The packet throughput expression is derived assuming Poisson, binomial and Markov chain approaches for the composite packet arrivals with the latter defined as benchmark. Then, it is shown via numerical simulation the Poisson-based expression is not appropriate for a reliable throughput estimate when compared to the benchmark (Markov) results. The binomial-based throughput equation, by its turn, provides results as accurate as the benchmark. In addition, the binomial-based throughput is numerically more convenient and computationally more efficient than the Markov chain approach, whereas the Markov-based one is computationally expensive, particularly if the number of users is large. The bit error rate (BER) expressions are derived considering gaussian and binomial distributions for the multiple-access interference and it is shown via numerical simulations that accurate performance of flexible OCDMA networks is only obtained with the binomial-based BER expression. This thesis also proposes and investigates a network architecture for Internet protocol traffic over flexible OCDMA with support to multiservice multirate transmissions, which is independent of the employed spreading code and does not require any new optical processing technology. In addition, the network performance assumes users transmitting asynchronously using receptors based on intensity-modulation direct-detection schemes. Numerical simulations shown that the proposed network performs well when its users are defined with high-weight code or when the channel utilization is low. The BER and packet throughput performance of an OCDMA network that provides multirate transmissions via multicode technique with two codes assigned to each single user is also addressed. Numerical results show that this technique outperforms classical techniques based on multilength code. Finally, this thesis addresses a new breakthrough technology that might lead to higher levels of security at the physical layer of optical networks. This technology consists in the generation of deterministic chaos from a commercial free-running vertical-cavity surface-emitting laser (VCSEL). The chaotic dynamics is generated by means of mechanical strains loaded onto an off-the-shelf quantum-well VCSEL using a simple and easily replicable holder. Deterministic chaos is then achieved, for the first time, without any additional complexity of optical feedback, parameter modulation or optical injection. The simplicity of the proposed system, which is based entirely on low-cost and easily available components, opens the way to the widespread use of commercial and free-running VCSEL devices for chaos-based applications. This off-the-shelf and cost-effective optical chaos generator has the potential for not only paving the way towards new security platforms in optical networks like, for example, successfully hiding the user information in an unpredictable, random-like signal against eventual eavesdroppers, but also for influencing emerging chaos applications initially limited or infeasible due to the lack of low-cost solutions. Furthermore, it leads the way to future realization of emerging applications with high-integrability and -scalability such as two-dimensional arrays of chaotic devices comprising hundreds of individual sources to increase requirements for random bit generation, cryptography or large-scale quantum networks. / Os avanços relacionados a tecnologia fotônica ampliaram o alcance das redes de comunicação óptica tanto em instalações de estabelecimentos comerciais quanto em residências, permitindo que novos serviços e tecnologias fossem entregues aos clientes. A próxima onda de inovação certamente gerará inúmeras oportunidades proporcionadas pela popularidade de soluções emergentes e aplicações como a Internet tátil, a telemedicina e a geração de conteúdo 3-D em tempo real, tornando-os parte da vida cotidiana. No entanto, para suportar a crescente demanda de tráfego atual, uma maior capacidade e segurança, alocação flexível de largura de banda e custo-eficiência tornaram-se requisitos cruciais para as tecnologias candidatas a futuras redes de acesso óptico. Para este fim, a tecnologia de acesso múltiplo por divisão de código óptico (OCDMA) é considerada um candidato em potencial, particularmente devido a características como transmissões assíncronas, distribuição flexível de banda larga e suporte a serviços diferenciados na camada física, para citar apenas alguns. Neste contexto, esta tese propõe novos formalismos matemáticos para a taxa de erro de bits, taxa de transferência de pacotes e atraso de pacotes para avaliar o desempenho de redes OCDMA flexíveis capazes de fornecer transmissões em múltiplas qualidades de serviço (QoS) de acordo com as necessidades dos usuários. Os formalismos analíticos propostos não requerem o conhecimento a priori das sequências de código dos usuários, o que significa que o desempenho da rede pode ser abordado de forma simples e direta usando apenas os parâmetros de código. Além disso, os formalismos analíticos desenvolvidos representam um número geral de classes de usuários distintos, bem como a probabilidade geral de interferência entre os usuários. Portanto, esses formalismos podem ser aplicados com sucesso na avaliação de desempenho de redes OCDMA flexíveis não apenas em qualquer número de classes de usuários em uma rede, mas também para a maioria dos códigos de espalhamento com boas propriedades de correlação. A expressão de taxa de transferência de pacotes é derivada assumindo aproximações de Poisson, binomial e de cadeia de Markov para as chegadas de pacotes compostos, com a última definida como benchmark. Em seguida, é mostrado via simulação numérica que a expressão baseada em Poisson não é apropriada para uma estimativa confiável de taxa de transferência quando comparada aos resultados de benchmark (Markov). A equação de taxa de transferência binomial, por sua vez, fornece resultados tão precisos quanto o benchmark. Além disso, a taxa de transferência binomial é numericamente mais conveniente e computacionalmente eficiente quando comparada com abordagem de Markov, enquanto esta última é computacionalmente dispendiosa, particularmente se o número de usuários é grande. As expressões de taxa de erro de bit (BER) são derivadas considerando distribuições gaussianas e binomiais para a interferência de acesso múltiplo e é mostrado por meio de simulações numéricas que o desempenho exato de redes OCDMA flexíveis é obtido somente com a expressão binomial de BER. Esta tese também propõe e investiga uma arquitetura de rede para o tráfego de protocolo de Internet sobre OCDMA flexível com suporte a transmissões de QoS e de múltiplas taxas, que é independente do código de espalhamento empregado e não requer qualquer nova tecnologia de processamento óptico. Além disso, o desempenho da rede assume que os usuários transmitem de forma assíncrona usando receptores baseados em esquemas de detecção direta de modulação de intensidade. As simulações numéricas mostraram que a rede proposta possui melhor desempenho quando seus usuários são definidos com peso de código alto ou quando a utilização do canal é baixa. O desempenho da BER e da taxa de transferência de pacotes de uma rede OCDMA que fornece transmissões de múltiplas taxas por meio de uma técnica multi-código com dois códigos atribuídos a cada usuário é também abordado. Os resultados numéricos mostram que esta técnica supera as técnicas clássicas baseadas no código de comprimento múltiplo. Finalmente, esta tese aborda uma nova tecnologia que pode levar a níveis mais elevados de segurança na camada física de redes ópticas. Esta tecnologia consiste na geração de caos determinístico a partir de um laser de emissão superficial com cavidade vertical (VCSEL). A dinâmica caótica é gerada através da aplicação de forças mecânicas em um VCSEL comercial usando um suporte simples e facilmente replicável. O caos determinístico é então alcançado, pela primeira vez, sem qualquer complexidade adicional de realimentação óptica, modulação de parâmetros ou injeção óptica. A simplicidade do sistema proposto, o qual se baseia inteiramente em componentes de baixo custo e que são facilmente encontrados, abre o caminho para o uso de dispositivos VCSEL comerciais para aplicações baseadas em caos. Este gerador de caos óptico tem o potencial não só de pavimentar o caminho para novas plataformas de segurança em redes ópticas, como, por exemplo, ocultar com êxito as informações do usuário em um sinal imprevisível e aleatório contra eventuais invasores, como também tem o potencial de influenciar aplicações de caos emergentes inicialmente limitadas ou inviáveis devido à falta de soluções de baixo custo. Além disso, ele conduz o caminho para a realização futura de aplicações emergentes com alta integridade e escalabilidade, tais como matrizes bidimensionais de dispositivos caóticos que compreendem centenas de fontes individuais para aumentar as necessidades de geração de bit aleatória, criptografia ou redes quânticas de grande escala.
347

Modelagem de redes CDMA-PON baseadas em técnicas de cancelamento paralelo e códigos corretores de erros / Modeling of CDMA-PON networks using parallel interference cancellation and error correcting codes techniques

Reis Junior, José Valdemir dos 06 October 2009 (has links)
A oferta de novos serviços para os usuários finais, como o denominado triple play, que consiste no tráfego simultâneo de voz, vídeo e dados utilizando a mesma infra-estrutura de comunicação, vem exigindo que as estruturas de rede das operadoras ofereçam largura de banda adequada e qualidade de serviço. Nesse contexto, as redes ópticas passivas (PON) vêm se destacando em virtude de oferecerem maior largura de banda a custos relativamente baixos. Nas redes ópticas passivas, trechos de fibras ópticas podem ser compartilhados entre diversos assinantes, exigindo, para isso, a utilização de técnicas de controle de acesso múltiplo. Destaque maior é dado à técnica de acesso múltiplo por divisão de códigos ópticos (OCDMA), por apresentar características tais como maior segurança e capacidade flexível sob demanda. O desempenho dessa tecnologia é basicamente limitado pela interferência de acesso múltiplo, ou interferência multiusuário (MAI). No presente trabalho, cenários OCDMA-PON utilizando códigos ópticos unidimensionais, baseados na codificação prima modificada (MPC), e bidimensionais, baseados na codificação óptica ortogonal de múltiplos comprimentos de onda (MWOOC), são descritos, e seus respectivos desempenhos investigados. Os desempenhos desses sistemas são verificados utilizando-se os seguintes esquemas de modulação: 1) On-off Keying (OOK), cujo formalismo para a codificação padded MPC (PMPC) e double padded MPC (DPMPC) foi aqui desenvolvido, 2) por posição de pulso (PPM), considerando os ruídos poissonianos de deteção, cujo formalismo foi também aqui desenvolvido, 3) por posição de pulso (PPM) considerando apenas a interferência de acesso múltiplo (MAI), 4) semelhante ao (3), porém, utilizando a técnica mitigadora de MAI via cancelamento paralelo de interferência (PIC), e 5) semelhante ao (4) porém utilizando modulação por chaveamento de frequência (FSK). Em seguida, a codificação bidimensional MWOOC, utilizando modulação OOK, é analisada com e sem a utilização de PIC. Além desses esquemas, são também incluídas, pela primeira vez nesses formalismos, técnicas de correção posterior de erro (FEC) baseadas no algoritmo Reed-Solomon (RS). A figura de mérito adotada nas simulações é baseada no cálculo da taxa de erro de bit (BER). Os resultados obtidos para os diversos casos investigados neste trabalho indicam que a combinação PIC/FEC deve ser considerada de modo a se obter níveis de BER compatíveis com a região livre de erros (BER < \'10 POT.-12\') para os cenários de redes de acesso atuais e futuros (visando atender a 32 ou 64 usuários simultâneos). / The advent of new services offered to end users, such as the so called triple play, which consists in the simultaneous traffic of voice, video, and data through the same communication infrastructure, has been pushing telecom operators towards providing adequate bandwidth as well as quality of service. This has brought the spotlight to passive optical networks (PONs) by virtue of their considerably higher bandwidth at relatively low cost. In PONs, certain fiber optic spans can be shared among different users as long as multiple access control techniques are used. One such technique is the optical code division multiple access (OCDMA) technique, which, in addition, presents improved data security and flexible capacity on demand. The performance of this technology is basically limited by multi access interference (MAI), which becomes more severe as the number of simultaneous users increases. In the present work, OCDMA-PON scenarios utilizing one- and two-dimensional optical codes separately such as modified prime codes (MPC) and multi-wavelength optical orthogonal codes (MWOOC), are described and thoroughly investigated. The performances of these systems are investigated based on the following modulation schemes: 1) On-off keying (OOK), where a new formalism for the double-padded MPC is proposed, 2) Pulse position modulation (PPM), and 3) Frequency shift keying (FSK) together with MAI mitigation technique based on parallel interference cancelation (PIC). Besides these schemes, it is also included for the first time in these formalisms forward error correction techniques (FEC) based on the Reed-Solomon (RS) algorithm. The figure of merit adopted in all simulations is the bit error rate (BER). The results obtained for the cases investigated in this work indicate that the combination PIC/FEC must be considered if one is interested in obtaining BER levels compatible with the error-free region (BER < \'10 POT.-12\') for the current and future access network scenarios (aiming at attending 32 or 64 simultaneous users).
348

Single and multirate FFH-OCDMA networks based on PSK modulation formats / Redes FFH-OCDMA convencionais e de múltiplas taxas baseadas em formatos de modulação PSK

Sanches, Anderson Leonardo 13 May 2015 (has links)
Aiming to achieve the better efficiency in the use of bandwidth (spectral efficiency), as well as a compromise with the energy utilized in the process (power efficiency), the service operators are obliged to change the way in which the information is conveyed. The simplicity of the OOK modulation format has always been the main reason for using it in optical communications. Hence, once the coherent technologies had reached the maturity from a commercial point of view, they have become real alternatives to extend the capacity of networks. In this thesis, the performance of single and multirate FFH-OCDMA networks based on coherent modulation formats is addressed. The following modulation formats are assumed: binary and quadrature phase shift keying (BPSK and QPSK). For single rate networks, BPSK or QPSK are used as the modulation format for all users. For multirate networks, on the other hand, BPSK and QPSK modulation formats are employed for low and high rate transmission users, respectively. For both networks, new bit error rate (BER) formalisms regarding the main deleterious source in OCDMA are derived, namely multipleaccess interference (MAI). The mathematical formalism developed here accounts for any kind of users\' signal waveforms (which are accurately accounted for at the desired user\'s receiver). As a result, it can be successfully used to carry out performance analysis of any OCDMA network. Moreover, it is shown that both low and high rate users can surprisingly achieve similar BER levels. In addition, it is demonstrated that incoherent OOK-based networks are not good candidates for future single and multirate FFH-OCDMA implementations in this interference limited scenario. On the other hand, our results pave the way for BPSK- and QPSK -based networks, which are seen as potential candidates for next generation passive optical networks (NG-PON2), where higher data rates and a vast amount of users will be major network requirements. / No intuito de alcançar uma melhor eficiência no uso da largura de banda (eficiência espectral), bem como um compromisso com a energia utilizada no processo de transmissão de informações (eficiência em potência), as operadoras de serviços estão sendo obrigadas a alterar o modo em que a informações estão sendo transmitidas. Neste sentido, a simplicidade do formato de modulação OOK sempre foi a principal razão para a sua utilização em sistemas de comunicações ópticas. Assim, uma vez que a tecnologia coerente tem alcançado a maturidade do ponto de vista comercial, estas são reais alternativas para aumentar a capacidade das redes de comunicação ópticas. Nesta tese, são avaliados os desempenhos de redes FFH-OCDMA convencionais e de múltiplas taxas baseadas em formatos de modulação coerentes. Os seguintes formatos de modulação assumidos são: modulação por chaveamento de fase binário e por quadratura (BPSK e QPSK). Para redes convencionais, BPSK e QPSK são utilizados como formatos de modulação para todos os usuários. Por outro lado, para redes de múltiplas taxas de transmissão, os formatos de modulação BPSK e QPSK são empregados para baixas e altas taxas, respectivamente. Para ambas as redes, foram derivados novos formalismos matemáticos considerando a principal fonte deletéria de desempenho em OCDMA, comumente chamada de MAI, no cálculo da BER. Os formalismos matemáticos desenvolvidos são generalizados para quaisquer tipos de formas de onda empregada nos sinais dos usuários (as quais são contabilizadas precisamente no receptor do usuário de interesse). Como resultados, o formalismo matemático pode ser utilizado com sucesso para realizar a análise de desempenho de qualquer rede OCDMA. Adicionalmente, é demonstrado que ambos os usuários em baixa ou alta taxa de transmissão podem surpreendentemente alcançar níveis similares de BER. Concomitantemente, é observado que redes incoerentes baseadas em OOK não são boas candidatas para implementações convencionais e de múltiplas taxas de transmissão considerando esse cenário limitado por interferência. Por outro lado, os resultados trilham o caminho para redes baseadas em BPSK e QPSK, as quais são potenciais candidatas para a próxima geração de redes ópticas passivas (NG-PON2), onde os maiores requisitos são as altas taxas de transmissão e grande capacidade de inserção simultânea de usuários.
349

Uma comparação entre procedimentos de estabelecimento de controle de estímulos entre pares de letras com grafias semelhantes e no reconhecimento de sílabas: tentativa e erro, fading e shaping de estímulos / The establishment of stimulus control over pairs of graphically similar letters and syllables: a comparison among trial and error, fading and stimulus shaping

Abdelnur, Aline de Carvalho 15 May 2007 (has links)
Made available in DSpace on 2016-04-29T13:18:04Z (GMT). No. of bitstreams: 1 Aline Abdelnur.pdf: 2517751 bytes, checksum: f53036a619b1c97b72702d9cd3cb701c (MD5) Previous issue date: 2007-05-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The purpose of this study was to compare 3 procedures to establish stimulus control between graphically similar letters. The participants were 12 non literate children, ages 2 to 6.The children were first exposed to an identity matching to sample test with letters. Then, they were randomly assigned to 1 of 3 simple discrimination training procedures: trial and error (in which all trials involved the two final letters), fading (in which intensity of S- was manipulated) and stimulus shaping (in which meaningful pictures were progressively shaped in the final letters). Each child received training in a simple discrimination task with 1 to 3 pairs of similar letters (a/o, a/e, b/d e f/t) and their reversals. Errors in the pretest determined the pairs of letters to be trained. They were then submitted to the the same identity MTS test with letters and to an identity MTS test with syllables, in which the consonants and vowels trained were combined to form 7 syllables, the sample stimuli. The incorrect comparisons were: the sequence vowel plus consonant (equal to the sample) and a syllable with the sample s consonant and a different vowel. A test with the simultaneous presentation of a syllable formed by a consonant + vowel (a true syllable in Portuguese) and a vowel+ consonant (a non existent syllable in Portuguese) was then conducted. Seven syllables were tested. A short simple discrimination training of those syllables with 100% errors during test and a second MTS test with syllables were conducted. Results showed that, although both stimulus control shaping procedures resulted in fewer errors during discrimination training, they were not fully effective in controlling discriminative behavior on the final trials of training and on the identity MTS posttest with letters. Training with fading resulted in more errors in the last trials. The syllable training seemed to be insufficient to establish control by the relative position of letters. Problems with the sequence of training stimuli used for stimulus shaping and the syllable training are discussed / O objetivo desta pesquisa foi comparar 3 procedimentos de estabelecimento de controle de estímulos na aquisição de discriminações entre letras de grafia semelhante. Os participantes foram 12 crianças, com idade entre 2 e 6 anos, que freqüentavam o ensino infantil e não eram alfabetizadas. As crianças foram inicialmente expostas a um pré-teste de matching de identidade de letras com 22 tentativas. Então, elas foram aleatoriamente expostas a 1 dentre 3 procedimentos de treino de discriminação simples entre pares de letras semelhantes: tentativa-e-erro (em que todas as tentativas eram formadas pelas letras finais), fading (em que a intensidade do S- foi manipulada) e shaping de estímulos (em que figuras com significado foram progressivamente modificadas até atingir a forma das letras finais). Cada criança recebeu treino de discriminação simples entre 1 a 3 pares de letras similares (a/o, a/e, b/d e f/t) e suas reversões a depender de seu desempenho no pré-teste. Procedeu-se então ao pós-teste de matching de identidade de letras e a um pré-teste de matching de identidade de sílabas, no qual 7 sílabas formadas pela combinação de consoantes e vogais treinadas eram apresentadas como estímulos modelo. Os estímulos de comparação incorretos eram: a seqüência vogal + consoante (iguais do modelo) e uma sílaba formada pela consoante do modelo e uma vogal diferente. Após este pré-teste, os 7 pares de seqüências consoante + vogal e vogal + consoante compuseram um pré-teste de sílaba x não-sílaba. Os pares com dois erros foram então treinados. Depois deste treino, pós-testes de matching de identidade de sílabas e o pós-teste sílaba x não-sílaba foram conduzidos. Os resultados mostraram que, embora os procedimentos de modelagem do controle de estímulos (fading e shaping) tenham gerado menos erros na aquisição da discriminação, eles não foram totalmente efetivos em gerar transferência de controle de estímulos para a discriminação final requerida entre as letras nas tentativas finais dos treinos e no pós-teste de matching de identidade de letras. Ainda, o procedimento de fading gerou mais erros nas tentativas finais de treino. O treino de sílaba x não-sílaba parece ter sido insuficiente em gerar controle pela posição relativa das letras. Possíveis falhas no planejamento do material de shaping de estímulos e no treino de sílabas são discutidas
350

Avaliação da atividade e resistência à clivagem proteolítica de L-asparaginases recombinantes obtidas por reação em cadeia da polimerase propensa a erro / Evaluation of the activity and resistance to proteolytic cleavage of recombinant L-asparaginases obtained by error-Prone polymerase chain reaction

Mariane Augusta Domingues Rodrigues 30 March 2016 (has links)
A L-Asparaginase II de Escherichia coli (EcA II) é uma enzima amplamente utilizada no tratamento da Leucemia Linfoblástica Aguda (LLA), atuando na depleção do aminoácido L-asparagina, o qual é fundamental para a multiplicação das células cancerosas. Contudo, o tratamento com a EcA II está associado a altos índices de hipersensibilidade, devido à formação de anticorpos anti-L-asparaginase e à clivagem da enzima pelas proteases sanguíneas asparagina endopeptidase (AEP) e catepsina B (CTSB). Também ocorre neurotoxicidade associada ao efeito L-glutaminase da enzima. O principal objetivo do presente trabalho é a obtenção de mutantes da EcA II (gene ansB) com equivalente eficiência catalítica, maior resistência à clivagem proteolítica e menor atividade glutaminase. Para este propósito, através da reação em cadeia da polimerase propensa a erro (epPCR) do gene ansB, foi construída uma biblioteca de 1128 clones expressos no vetor pET15b em BL21(DE3). Nenhum mutante com atividade asparaginásica equivalente à EcA II selvagem apresentou atividade glutaminásica inferior à esta. Dentre os clones triados obtivemos um mutante (T161I) resistente à clivagem proteolítica pela CTSB e dois mutantes (Q190L e P40S/S206C) resistentes à clivagem proteolítica por ambas AEP e CTSB. Estes três mutantes apresentaram atividade asparaginásica e glutaminásica equivalentes a EcA II selvagem. Nossos resultados mostram promissoras possibilidades de EcA II mutantes com maior estabilidade frente às proteases sanguíneas humanas e possivelmente menos imunogênicas. / Escherichia coli L-asparaginase (EcA II) is an enzyme widely used in the treatment of acute lymphoblastic leukemia (ALL), acting in the depletion of the amino acid L-asparagine, which is essential for cancer cells proliferation. However, treatment with L-asparaginase is associated with a high rate of hypersensitivity, due to formation of anti-L-asparaginase antibody and the enzyme cleavage by the serum proteases asparagine endopeptidase (AEP) and cathepsin B (CTSB). Furthermore, the neurotoxicity is associated with the effect of the enzyme L-glutaminase activity. The main aim of the current work is to obtain variants of EcA II (gene ansB) with an equivalent catalytic efficiency, greater resistance to proteolytic cleavage and a reduced glutaminase activity. For such purpose, through error-prone polymerase chain reaction (epPCR) of gene ansB, a library of 1128 clones was constructed in pET15b vector and expressed in BL21(DE3). None mutant with an asparaginase activity equivalent to EcA II wild type showed a reduced glutaminase activity. Among the screened clones, one mutant (T161I) was resistant to CTSB proteolytic cleavage and two mutants (Q190L e P40S/S206C) were resistant to both CTSB and AEP proteolytic cleavages. These three mutants were EcA II wild type equivalents in asparaginase and glutaminase activities. Our data show promising new possibilities of mutant EcA II presenting higher stability against human serum proteolytic cleavage and maybe lower immunogenicity.

Page generated in 0.0328 seconds