• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 3
  • 3
  • 1
  • Tagged with
  • 21
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Técnicas resolutivas para problemas mal postos

Borges, Altemir José 24 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas, Programa de Pós-Graduação em Matemática e Computação Científica, Florianópolis, 2010 / Made available in DSpace on 2012-10-24T22:24:37Z (GMT). No. of bitstreams: 1 280833.pdf: 697674 bytes, checksum: e8a5b8acb0f9edd4095e86fb4ca90188 (MD5) / Este trabalho apresenta alguns dos métodos diretos e alguns dos iterativos mais comumente utilizados para resolver problemas mal postos discretos, focalizando diferentes estratégias de escolha do parâmetro de regularização. Os métodos diretos aqui abordados são o da GCV, da curva-L, do ponto fixo, da quase-otimalidade e o da discrepância. Os métodos iterativos são o LSQR, GMRES e o RRGMRES. Estes métodos são aplicados na resolução dos problemas teste Heat, Baart, Deriv2, Foxgood, Gravity, I\_laplace, Phillips, Shaw, Tomo e Wing, da literatura. Nos métodos iterativos são adotados os critérios de parada de Morigi e da discrepância. Para os métodos iterativos, aqui também é apresentado um novo critério de parada baseado no decrescimento da norma do resíduo e no crescimento da norma da solução. Este novo critério desempenhou melhor performance que os critérios de Morigi e da discrepância, na maioria dos problemas testes abordados.
2

Seleção, purificação e modificação de argilas para aplicação em Nano-Sistemas 1D

Zanini, Ariel Elder 12 1900 (has links)
Submitted by LIVIA FREITAS (livia.freitas@ufba.br) on 2014-07-10T18:47:37Z No. of bitstreams: 1 Zanini_Tese_DSc_PEI_2013_v60_Pos_Defesa_Final.pdf: 5511591 bytes, checksum: 59fb7453678ea98ea75c47a222a2c6b0 (MD5) / Approved for entry into archive by LIVIA FREITAS (livia.freitas@ufba.br) on 2014-07-10T18:47:50Z (GMT) No. of bitstreams: 1 Zanini_Tese_DSc_PEI_2013_v60_Pos_Defesa_Final.pdf: 5511591 bytes, checksum: 59fb7453678ea98ea75c47a222a2c6b0 (MD5) / Made available in DSpace on 2014-07-10T18:47:51Z (GMT). No. of bitstreams: 1 Zanini_Tese_DSc_PEI_2013_v60_Pos_Defesa_Final.pdf: 5511591 bytes, checksum: 59fb7453678ea98ea75c47a222a2c6b0 (MD5) / A nanotecnologia, e em especial os nanocompósitos, são provavelmente um dos temas mais cotados da pesquisa e literatura mundial contemporâneas. A partir do dia 29 de dezembro de 1959, quando Richard Feynman se constitui no precursor deste conceito na sua famosa palestra para a Sociedade Americana de Física (APS, American Physics Society) e em concomitância alguns cientistas da linha de polímeros confirmam que pequenas quantidades de nano-sistemas conseguem dar grandes benefícios a algumas propriedades da matriz polimérica, o número de pesquisas e pesquisadores se acelerara consideravelmente, motivados por esta inovação tecnológica. Assim, estudam e aplicam uma diversidade de materiais, tais como: nanopartículas de metais e seus óxidos, nanotubos de diversas composições e geometrias e alguns sistemas cristalinos naturais como as esmectitas, materiais que hoje constituem a família dos nanosistemas, 3D (esferas), 2D (tubos) e 1D (lamelas). A forma lamelar, matéria prima deste trabalho, se encontra na natureza em abundância, como constituinte principal das argilas bentoníticas. O objetivo geral desta tese é fazer uma proposta para a seleção, a purificação e a modificação de argilas para aplicação em nano-sistemas 1D. Um dos focos do trabalho consiste em definir as diferenças entre o que a teoria propõe para as estruturas químicas destes materiais e a realidade analítica. É estudado também como os métodos industriais, geralmente, não apenas conservam as impurezas oriundas do minério mas também geram novas impureza, particularmente no processo industrial mais utilizado Zanini, A.-Tese de D.Sc., PEI/EP/UFBA, 2013 Preliminares viii que é a sodificação. Além disso, em nível de laboratório foi desenvolvido o método de “elutriação iterativa”, onde um sistema particulado é submetido a diferentes fluxos de solvente em colunas de diferentes diâmetros, o que permite em uma única operação conseguir diferentes seleções do material particulado. Foram desenvolvidos também métodos para determinar a capacidade de troca catiônica (CTC) das argilas, com uma metodologia equivalente ao processo industrial de sodificação, e que permite ter uma avaliação do excesso de reativo necessário para desalojar totalmente o cátion sódio interlamelar. Foram desenvolvidos modelos matemáticos simples para determinar a densidade na forma tactoidal e na forma de suspensões aquosas. Os resultados positivos das propostas permitiram transformar o processo original em um outro mais elaborado, que foi chamado de “Elutriação Matricial Iterativa”, onde determinadas colunas, denominadas “colunas-reatores”, poderiam receber materiais selecionados em outras colunas e submetê-los a processos sequenciais de transformação, o que foi objeto de um depósito de patente nacional sob protocolo BR102013016298-1. O resultado final consiste no fato de ter sido desenvolvido, e testado em scale-up (escala ampliada), um processo que pode ser levado à escala industrial de forma fácil e econômica. Este processo possui uma metodologia analítica de avaliação dos resultados e ferramentas de cálculo para as correções e/ou modificações do processo para qualquer material particulado, ou ainda o projeto de novas colunas para a melhoria dos processos existentes ou ampliação das ações de separação e processamento. Como recomendações para futuras pesquisas, sugere-se dedicar mais atenção às impurezas e suas possíveis ações indesejáveis, não só para o uso em nanotecnologia, mas também para usos como alimentação e cosméticos, entre outros. Além disso, como sequência dos trabalhos realizados, sugere-se ampliar o leque de aplicações e inovar a organofilização das esmectitas com cátions orgânicos que, além de aumentar o valor de d001 (distância interplanar basal), façam parte do processo de polimerização, como um iniciador ou um monômero. / Nanotechnology, particularly nanocomposites, are probably one of the most quoted contemporary research and literature themes worldwide. Starting on December 29th, 1959, when Richard Feynman becomes the precursor of this concept in his famous lecture to the American Physical Society (APS) and concomitantly some polymer scientists confirm that small amounts of nano-systems can provide great benefits to some properties of the polymer matrix, the number of researches and researchers had accelerated considerably, motivated by this technological innovation. Thus, they study and apply a variety of materials such as: nanoparticles of metals and their oxides, nanotubes of different compositions and geometries and some crystalline natural systems as smectites, materials which today constitute the family of nanosystems, 3D (spheres) 2D (tubes) and 1D (lamellae). The lamellar form, raw material for this work, is found in nature in abundance, as the main constituent of bentonite clays. The aim of this Ph.D. thesis is to make a proposal for the selection, purification and modification of clays for use in 1D nano-systems . One focus of the work is to define the differences between what the theory proposes to the chemical structures of these materials and their analytical reality. Industrial methods generally not only retain the impurities originating from the mineral, but also generate new impurity, particularly in the most used industrial process, sodification, which is also studied in this work. In addition, on laboratory level the “iterative elutriation” method was developed, where a particulate system is subjected to different solvent flows in columns with varying Zanini, A.-Tese de D.Sc., PEI/EP/UFBA, 2013 Preliminares x diameters, which allows in a single operation getting different selections of the particulate material. Methods to determine the cation exchange capacity (CEC) of the clay were also developed with a method equivalent to the sodification industrial process, which gives an evaluation of the excess of reagent needed to fully displace the interlamellar sodium cation. Simple mathematical models have been developed to determine the density in the tactoidal form and also the density of aqueous suspensions. The positive results of the proposals allowed transforming the original process into another more elaborate, which was called “Iterative Matrix Elutriation”, where certain columns, called “reactor-columns” could receive materials selected in other columns and subjecting them to sequential transformation processes, which was the subject of a national patent deposit under protocol BR102013016298-1. The final result is the fact that it was developed, and scale-up tested, a process that can easily and cost effectively be taken on an ndustrial scale. This process has a set of analytical methods for evaluation of results, and calculation tools for corrections and/or modifications of the process for any particulate material, or the design of new columns to the improvement of existing processes or additional separation and processing operations. As recommendations for future research, it is suggested paying more attention to clay impurities and their possible undesirable actions, not only for use in nanotechnology but also for use in food and cosmetic applications, among others. Moreover, continuing the work carried out here, it is suggested to expand the range of its applications and innovate the organophilization of smectites with organic cations that, in addition to increasing the value of d001 (basal interplanar distance), take part of the polymerization process, such as a initiator or a monomer.
3

Projeto de entrelaçadores para códigos turbo

Jar e Silva, Marcel January 2006 (has links)
Made available in DSpace on 2014-06-12T17:42:14Z (GMT). No. of bitstreams: 2 arquivo6945_1.pdf: 934856 bytes, checksum: 6dde6929102773555ee9224146f061b8 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Os entrelaçadores possuem um papel crucial para que os códigos turbo atinjam desempenho próximo da capacidade do canal. Apesar de terem sido introduzidos primeiramente como simples permutações aleatórias, atualmente existem várias classes de entrelaçadores, tais como, S-aleatórios, DRP, polinomiais e quasi-cíclicos, que produzem melhor desempenho para códigos turbo em um canal AWGN e/ou são mais simples de serem armazenados. Este trabalho tem dois objetivos principais. O primeiro é fazer estudos comparativos entre classes de entrelaçadores que apresentam a propriedade da economia de memória em relação aos entrelaçadores aleatórios. Este estudo visa suprir uma lacuna na literatura, que normalmente compara novas classes de entrelaçadores com a classe dos entrelaçadores S-aleatórios. O segundo objetivo é o desenvolvimento de uma nova classe de entrelaçadores que também apresenta a característica da economia de memória, além de garantir altos fatores de espalhamento. Os entrelaçadores pertencentes a esta classe são batizados como entrelaçadores quasi-retangulares
4

Decodificação híbrida para códigos LDPC

Guimarães, Walter Prado de Souza 22 February 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-17T14:27:28Z No. of bitstreams: 2 Tese Walter Guimaraes.pdf: 1074140 bytes, checksum: 9576e862fa9714c03f55d10649568935 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-17T14:27:28Z (GMT). No. of bitstreams: 2 Tese Walter Guimaraes.pdf: 1074140 bytes, checksum: 9576e862fa9714c03f55d10649568935 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-02-22 / CAPES / Os códigos Low-Density Parity-Check (LDPC) constituem uma família definida a partir de matrizes esparsas de verificação de paridade e que apresentam excelente desempenho no canal com ruído aditivo Gaussiano branco (RAGB). Devido às suas boas características, têm sido largamente empregados na codificação de canais em sistemas de transmissão via satélite, sistemas de telefonia móvel e sistemas de radiodifusão de TV digital. O sucesso desses códigos é devido à sua representação na forma de grafos, ao uso de métodos de construção mais simplificados e ao processo de decodificação iterativa. Esta tese introduz um método de decodificação iterativa híbrida que, diferentemente da maioria dos modelos existentes, associa a correção de erros à correção de apagamentos em canais com RAGB, como uma forma de melhorar o desempenho do código LDPC nestes canais. O alvo dessa abordagem é a região de patamar de erros dos códigos LDPC, em que os padrões de erros, em sua maioria, são de pequena cardinalidade e resultantes do que se conhece por conjunto de armadilhas. Alguns aspectos do funcionamento e da operação otimizada da decodificação iterativa híbrida são explorados e discutidos. Para confirmar a eficácia da técnica de decodificação introduzida, são apresentados resultados de simulação em computador para códigos LDPC empregados no padrão IEEE802.11n, acompanhados da respectiva análise.
5

Métodos tipo Newton inexatos para problemas inversos

Margotti, Fábio Junior 25 October 2012 (has links)
Dissertação (Mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas, Programa de Pós-Graduação em Matemática e Computação Científica, Florianópolis, 2011 / Made available in DSpace on 2012-10-25T22:52:46Z (GMT). No. of bitstreams: 1 291662.pdf: 1027652 bytes, checksum: 9e51b4ba7a328f2f1b06375a27637852 (MD5) / Essa dissertação se dedica ao estudo de dois algoritmos do tipo Newton inexatos, usados para a obtenção de soluções regularizadas de problemas inversos não lineares e mal postos. O estudo abrange as propriedades de convergência e estabilidade das soluções computadas pelos algoritmos iterativos em questão, além de estabelecer e analisar taxas de convergência mediante condições de fonte assumidas. Uma implementação numérica de identificação de parâmetro num problema elíptico é feita ao final do trabalho e dá o suporte necessário para a verificação dos resultados teóricos.
6

Métodos de projeção para regularização com informação a priori

Coliboro, Thiane Poncetta Pereira 23 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas, Programa de Pós-Graduação em Matemática e Computação Científica, Florianópolis, 2011 / Made available in DSpace on 2012-10-23T15:29:57Z (GMT). No. of bitstreams: 1 289274.pdf: 1269253 bytes, checksum: 502dbaeb243e877082999d36551b55bb (MD5) / Apresentamos três métodos de projeção para problemas discretos mal postos de grande porte que incorporam informação a priori da solução do problema. Os métodos são baseados em uma transformação do funcional de Tikhonov da forma geral (com uma seminorma como termo regularizante) para a forma padrão [26, 53]. Os dois primeiros métodos combinam o processo de bidiagonalização de Golub-Kahan [15] com a regularização de Tikhonov na forma geral, calculando soluções aproximadas em subespaços de Krylov. O parâmetro de regularização ? é escolhido pelo Método de Ponto Fixo (FP) de Bazán [3]. O terceiro método não depende da determinação do parâmetro ? sendo, portanto, uma alternativa para a Regularização de Tikhonov. São apresentadas algumas generalidades sobre problemas inversos e problemas discretos mal-postos. Também é feito um estudo sobre projeções oblíquas, conceito essencial na tranformação para a forma padrão. A performance dos métodos quando aplicados a problemas testes bem conhecidos e ao tratamento de imagens é ilustrada numericamente.
7

Att avsudda bilder / Image deblurring

Kienmayer, Mattis January 2019 (has links)
Denna uppsats rör vid problemet med suddiga bilder och vad man kan göra för att försöka återställa den eftersökta skarpa bilden. Problemet tacklas med hjälp av linjär-algebraiska medel, både regularisering och iterativa metoder. Som resultat visar sig DFPM (dynamical functional particle method) jämförbar med både konjugerad gradient-metoden och LSQR-algoritmen (least squares QR), dock med användning av andra parametrar än de teoretiskt optimala. Utöver tidigare kända metoder presenteras och testas även ett alternativt minimeringsproblem.
8

Decodificação Iterativa de Códigos LDPC em Canais Discretos com Quantização Uniforme

CORDEIRO, Moisés Alves 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T17:36:02Z (GMT). No. of bitstreams: 2 arquivo2523_1.pdf: 1662188 bytes, checksum: ca366b30d35fcf4e22eb4ea7ea20d578 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A decodificação de códigos baseados em matrizes de verificação de paridade esparsas (LDPC, do inglês low-density parity-check) é realizada através do algoritmo soma-produto (ASP). Este trabalho apresenta um estudo do funcionamento do ASP e do seu desempenho em um canal com ruído aditivo Gaussiano branco (AWGN, do inglês additive white Gaussian noise) através de simulações computacionais. Em seguida, esta análise é estendida quando um quantizador uniforme com 2q níveis de quantização é incorporado ao sistema de comunicações. O passo de quantização ótimo é identificado para vários parâmetros do código e do canal. Este estudo indica que para q = 1 (quantização abrupta) ocorre uma perda de desempenho de aproximadamente 1,8 dB em relação ao canal AWGN enquanto que para q = 4 essa perda é reduzida para aproximadamente 0,12 dB
9

O algoritmo talus na resolução do problema do controle ótimo

Cecília Parga Carneiro, Savana 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T17:37:57Z (GMT). No. of bitstreams: 2 arquivo3958_1.pdf: 1858605 bytes, checksum: 010b7efbaa0ac4aef2becd712d518c7a (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Esta dissertação tem por objetivo principal propor um procedimento para resolução de problemas de controle ótimo com a utilização do Princípio do Máximo de Pontryagin e algoritmos probabilísticos, principalmente o Talus, visando melhoria da acurácia e aumento de eficiência deste processo. Para tanto, apresenta-se o desenvolvimento histórico da teoria do controle ótimo e resumem-se as principais características dos algoritmos utilizados. Além disso, uma vez definido o método, resolveram-se alguns exemplos com a finalidade de comparação de desempenho com a programação dinâmica interativa e a parametrização de controle, formas mais usuais de solução. Para completar a abordagem, sugeriram-se algumas possibilidades para utilizar o Talus na resolução de equações diferenciais. A partir disso, foi possível garantir a efetividade do objetivo inicial e propor temas para estudos futuros
10

Decodificação iterativa de códigos baseados em matrizes de verificação de paridade esparsas

VASCONCELOS, Marcos Müller January 2007 (has links)
Made available in DSpace on 2014-06-12T17:39:33Z (GMT). No. of bitstreams: 2 arquivo6919_1.pdf: 4119217 bytes, checksum: 3f1efa22858eeae0d86c8392becd8174 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Códigos baseados em matrizes esparsas têm desempenhado um importante papel em teoria da codificação. Os códigos low-density parity-check (LDPC) constituem uma famosa família de códigos definidos a partir de matrizes de verificação de paridade esparsas que apresentam desempenhos excelentes no canal com ruído aditivo Gaussiano branco (RAGB). O sucesso desses códigos se deve a sua representação através de grafos, que permite a operação de um algoritmo de decodificação iterativo cuja complexidade cresce linearmente com o comprimento dos blocos. Esta dissertação apresenta um estudo sobre códigos LDPC e sua principal ferramenta de análise, a density evolution. Para isso, a representação gráfica de códigos de bloco lineares e o funcionamento do algoritmo de decodificação Soma-Produto são apresentados. Algumas técnicas de projeto de códigos LDPC são discutidas e seu desempenho no canal RAGB é avaliado por meio de simulações. Baseando-se nestas ferramentas, a density evolution para os canal RAGB é derivada em forma integral e em forma aproximada. Por fim, uma modificação no algoritmo Soma-Produto é proposta para decodificação de códigos LDPC no canal Gilbert-Elliott

Page generated in 0.0995 seconds