Spelling suggestions: "subject:"iterative"" "subject:"iteratively""
1 |
Técnicas resolutivas para problemas mal postosBorges, Altemir José 24 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas, Programa de Pós-Graduação em Matemática e Computação Científica, Florianópolis, 2010 / Made available in DSpace on 2012-10-24T22:24:37Z (GMT). No. of bitstreams: 1
280833.pdf: 697674 bytes, checksum: e8a5b8acb0f9edd4095e86fb4ca90188 (MD5) / Este trabalho apresenta alguns dos métodos diretos e alguns dos iterativos mais comumente utilizados para resolver problemas mal postos discretos, focalizando diferentes estratégias de escolha do parâmetro de regularização. Os métodos diretos aqui abordados são o da GCV, da curva-L, do ponto fixo, da quase-otimalidade e o da discrepância. Os métodos iterativos são o LSQR, GMRES e o RRGMRES. Estes métodos são aplicados na resolução dos problemas teste Heat, Baart, Deriv2, Foxgood, Gravity, I\_laplace, Phillips, Shaw, Tomo e Wing, da literatura. Nos métodos iterativos são adotados os critérios de parada de Morigi e da discrepância. Para os métodos iterativos, aqui também é apresentado um novo critério de parada baseado no decrescimento da norma do resíduo e no crescimento da norma da solução. Este novo critério desempenhou melhor performance que os critérios de Morigi e da discrepância, na maioria dos problemas testes abordados.
|
2 |
Seleção, purificação e modificação de argilas para aplicação em Nano-Sistemas 1DZanini, Ariel Elder 12 1900 (has links)
Submitted by LIVIA FREITAS (livia.freitas@ufba.br) on 2014-07-10T18:47:37Z
No. of bitstreams: 1
Zanini_Tese_DSc_PEI_2013_v60_Pos_Defesa_Final.pdf: 5511591 bytes, checksum: 59fb7453678ea98ea75c47a222a2c6b0 (MD5) / Approved for entry into archive by LIVIA FREITAS (livia.freitas@ufba.br) on 2014-07-10T18:47:50Z (GMT) No. of bitstreams: 1
Zanini_Tese_DSc_PEI_2013_v60_Pos_Defesa_Final.pdf: 5511591 bytes, checksum: 59fb7453678ea98ea75c47a222a2c6b0 (MD5) / Made available in DSpace on 2014-07-10T18:47:51Z (GMT). No. of bitstreams: 1
Zanini_Tese_DSc_PEI_2013_v60_Pos_Defesa_Final.pdf: 5511591 bytes, checksum: 59fb7453678ea98ea75c47a222a2c6b0 (MD5) / A nanotecnologia, e em especial os nanocompósitos, são provavelmente um dos
temas mais cotados da pesquisa e literatura mundial contemporâneas. A partir do dia 29
de dezembro de 1959, quando Richard Feynman se constitui no precursor deste conceito
na sua famosa palestra para a Sociedade Americana de Física (APS, American Physics
Society) e em concomitância alguns cientistas da linha de polímeros confirmam que
pequenas quantidades de nano-sistemas conseguem dar grandes benefícios a algumas
propriedades da matriz polimérica, o número de pesquisas e pesquisadores se acelerara
consideravelmente, motivados por esta inovação tecnológica. Assim, estudam e
aplicam uma diversidade de materiais, tais como: nanopartículas de metais e seus
óxidos, nanotubos de diversas composições e geometrias e alguns sistemas cristalinos
naturais como as esmectitas, materiais que hoje constituem a família dos nanosistemas,
3D (esferas), 2D (tubos) e 1D (lamelas). A forma lamelar, matéria prima deste trabalho,
se encontra na natureza em abundância, como constituinte principal das argilas
bentoníticas. O objetivo geral desta tese é fazer uma proposta para a seleção, a purificação e a modificação de argilas para aplicação em nano-sistemas 1D. Um dos focos do trabalho consiste em definir as diferenças entre o que a teoria propõe para as estruturas químicas destes materiais e a realidade analítica. É estudado também como os métodos industriais, geralmente, não apenas conservam as impurezas oriundas do minério mas também geram novas impureza, particularmente no processo industrial mais utilizado Zanini, A.-Tese de D.Sc., PEI/EP/UFBA, 2013 Preliminares viii
que é a sodificação. Além disso, em nível de laboratório foi desenvolvido o método de
“elutriação iterativa”, onde um sistema particulado é submetido a diferentes fluxos de solvente em colunas de diferentes diâmetros, o que permite em uma única operação conseguir diferentes seleções do material particulado. Foram desenvolvidos também métodos para determinar a capacidade de troca catiônica (CTC) das argilas, com uma
metodologia equivalente ao processo industrial de sodificação, e que permite ter uma avaliação do excesso de reativo necessário para desalojar totalmente o cátion sódio interlamelar. Foram desenvolvidos modelos matemáticos simples para determinar a
densidade na forma tactoidal e na forma de suspensões aquosas. Os resultados
positivos das propostas permitiram transformar o processo original em um outro mais elaborado, que foi chamado de “Elutriação Matricial Iterativa”, onde determinadas colunas, denominadas “colunas-reatores”, poderiam receber materiais selecionados em outras colunas e submetê-los a processos sequenciais de transformação, o que foi objeto de um depósito de patente nacional sob protocolo BR102013016298-1. O resultado final consiste no fato de ter sido desenvolvido, e testado em scale-up (escala ampliada), um processo que pode ser levado à escala industrial de forma fácil e econômica. Este processo possui uma metodologia analítica de avaliação dos resultados e ferramentas de cálculo para as correções e/ou modificações do processo para qualquer material particulado, ou ainda o projeto de novas colunas para a melhoria dos processos
existentes ou ampliação das ações de separação e processamento. Como recomendações para futuras pesquisas, sugere-se dedicar mais atenção às impurezas e suas possíveis ações indesejáveis, não só para o uso em nanotecnologia, mas também para usos como alimentação e cosméticos, entre outros. Além disso, como sequência dos trabalhos realizados, sugere-se ampliar o leque de aplicações e inovar a organofilização das esmectitas com cátions orgânicos que, além de aumentar o valor de d001 (distância interplanar basal), façam parte do processo de polimerização, como um iniciador ou um monômero. / Nanotechnology, particularly nanocomposites, are probably one of the most quoted contemporary research and literature themes worldwide. Starting on December 29th, 1959, when Richard Feynman becomes the precursor of this concept in his famous lecture to the American Physical Society (APS) and concomitantly some polymer scientists confirm that small amounts of nano-systems can provide great benefits to some properties of the polymer matrix, the number of researches and researchers had accelerated considerably, motivated by this technological innovation. Thus, they study and apply a variety of materials such as: nanoparticles of metals and their oxides, nanotubes of different compositions and geometries and some crystalline natural systems as smectites, materials which today constitute the family of nanosystems, 3D (spheres) 2D (tubes) and 1D (lamellae). The lamellar form, raw material for this work, is found in nature in abundance, as the main constituent of bentonite clays. The aim of this Ph.D. thesis is to make a proposal for the selection, purification and modification of clays for use in 1D nano-systems . One focus of the work is to define the differences between what the theory proposes to the chemical structures of these materials and their analytical reality. Industrial methods generally not only retain the impurities originating from the mineral, but also generate new impurity, particularly
in the most used industrial process, sodification, which is also studied in this work. In addition, on laboratory level the “iterative elutriation” method was developed, where a particulate system is subjected to different solvent flows in columns with varying Zanini, A.-Tese de D.Sc., PEI/EP/UFBA, 2013 Preliminares x diameters, which allows in a single operation getting different selections of the particulate material. Methods to determine the cation exchange capacity (CEC) of the clay were also developed with a method equivalent to the sodification industrial process, which gives an evaluation of the excess of reagent needed to fully displace the interlamellar sodium cation. Simple mathematical models have been developed to determine the density in the tactoidal form and also the density of aqueous suspensions. The positive results of the proposals allowed transforming the original process into another more elaborate, which was called “Iterative Matrix Elutriation”, where certain columns, called “reactor-columns” could receive materials selected in other columns and subjecting them to sequential transformation processes, which was the subject of a national patent deposit under protocol BR102013016298-1. The final result is the fact that it was developed, and scale-up tested, a process that can easily and cost effectively be taken on an ndustrial scale. This process has a set of analytical methods for evaluation of results, and calculation tools for corrections and/or modifications of the process for any particulate material, or the design of new columns to the improvement of existing processes or additional separation and processing operations. As recommendations for future research, it is suggested paying more attention to clay impurities and their possible undesirable actions, not only for use in nanotechnology but also for use in food and cosmetic applications, among others. Moreover, continuing the work carried out here, it is suggested to expand the range of its applications and innovate the organophilization of smectites with organic cations that, in addition to increasing the value of d001 (basal interplanar distance), take part of the polymerization process, such as a initiator or a monomer.
|
3 |
Projeto de entrelaçadores para códigos turboJar e Silva, Marcel January 2006 (has links)
Made available in DSpace on 2014-06-12T17:42:14Z (GMT). No. of bitstreams: 2
arquivo6945_1.pdf: 934856 bytes, checksum: 6dde6929102773555ee9224146f061b8 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2006 / Os entrelaçadores possuem um papel crucial para que os códigos turbo atinjam desempenho próximo
da capacidade do canal. Apesar de terem sido introduzidos primeiramente como simples permutações
aleatórias, atualmente existem várias classes de entrelaçadores, tais como, S-aleatórios,
DRP, polinomiais e quasi-cíclicos, que produzem melhor desempenho para códigos turbo em um
canal AWGN e/ou são mais simples de serem armazenados. Este trabalho tem dois objetivos principais.
O primeiro é fazer estudos comparativos entre classes de entrelaçadores que apresentam a
propriedade da economia de memória em relação aos entrelaçadores aleatórios. Este estudo visa
suprir uma lacuna na literatura, que normalmente compara novas classes de entrelaçadores com a
classe dos entrelaçadores S-aleatórios. O segundo objetivo é o desenvolvimento de uma nova classe
de entrelaçadores que também apresenta a característica da economia de memória, além de garantir
altos fatores de espalhamento. Os entrelaçadores pertencentes a esta classe são batizados como
entrelaçadores quasi-retangulares
|
4 |
Decodificação híbrida para códigos LDPCGuimarães, Walter Prado de Souza 22 February 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-17T14:27:28Z
No. of bitstreams: 2
Tese Walter Guimaraes.pdf: 1074140 bytes, checksum: 9576e862fa9714c03f55d10649568935 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-17T14:27:28Z (GMT). No. of bitstreams: 2
Tese Walter Guimaraes.pdf: 1074140 bytes, checksum: 9576e862fa9714c03f55d10649568935 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013-02-22 / CAPES / Os códigos Low-Density Parity-Check (LDPC) constituem uma família definida a partir de matrizes
esparsas de verificação de paridade e que apresentam excelente desempenho no canal com ruído
aditivo Gaussiano branco (RAGB). Devido às suas boas características, têm sido largamente empregados
na codificação de canais em sistemas de transmissão via satélite, sistemas de telefonia móvel
e sistemas de radiodifusão de TV digital. O sucesso desses códigos é devido à sua representação na
forma de grafos, ao uso de métodos de construção mais simplificados e ao processo de decodificação
iterativa. Esta tese introduz um método de decodificação iterativa híbrida que, diferentemente da
maioria dos modelos existentes, associa a correção de erros à correção de apagamentos em canais
com RAGB, como uma forma de melhorar o desempenho do código LDPC nestes canais. O alvo
dessa abordagem é a região de patamar de erros dos códigos LDPC, em que os padrões de erros, em
sua maioria, são de pequena cardinalidade e resultantes do que se conhece por conjunto de armadilhas.
Alguns aspectos do funcionamento e da operação otimizada da decodificação iterativa híbrida
são explorados e discutidos. Para confirmar a eficácia da técnica de decodificação introduzida, são
apresentados resultados de simulação em computador para códigos LDPC empregados no padrão
IEEE802.11n, acompanhados da respectiva análise.
|
5 |
Métodos tipo Newton inexatos para problemas inversosMargotti, Fábio Junior 25 October 2012 (has links)
Dissertação (Mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas, Programa de Pós-Graduação em Matemática e Computação Científica, Florianópolis, 2011 / Made available in DSpace on 2012-10-25T22:52:46Z (GMT). No. of bitstreams: 1
291662.pdf: 1027652 bytes, checksum: 9e51b4ba7a328f2f1b06375a27637852 (MD5) / Essa dissertação se dedica ao estudo de dois algoritmos do tipo Newton inexatos, usados para a obtenção de soluções regularizadas de problemas inversos não lineares e mal postos. O estudo abrange as propriedades de convergência e estabilidade das soluções computadas pelos algoritmos iterativos em questão, além de estabelecer e analisar taxas de convergência mediante condições de fonte assumidas. Uma implementação numérica de identificação de parâmetro num problema elíptico é feita ao final do trabalho e dá o suporte necessário para a verificação dos resultados teóricos.
|
6 |
Métodos de projeção para regularização com informação a prioriColiboro, Thiane Poncetta Pereira 23 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas, Programa de Pós-Graduação em Matemática e Computação Científica, Florianópolis, 2011 / Made available in DSpace on 2012-10-23T15:29:57Z (GMT). No. of bitstreams: 1
289274.pdf: 1269253 bytes, checksum: 502dbaeb243e877082999d36551b55bb (MD5) / Apresentamos três métodos de projeção para problemas discretos mal postos de grande porte que incorporam informação a priori da solução do problema. Os métodos são baseados em uma transformação do funcional de Tikhonov da forma geral (com uma seminorma como termo regularizante) para a forma padrão [26, 53]. Os dois primeiros métodos combinam o processo de bidiagonalização de Golub-Kahan [15] com a regularização de Tikhonov na forma geral, calculando soluções aproximadas em subespaços de Krylov. O parâmetro de regularização ? é escolhido pelo Método de Ponto Fixo (FP) de Bazán [3]. O terceiro método não depende da determinação do parâmetro ? sendo, portanto, uma alternativa para a Regularização de Tikhonov. São apresentadas algumas generalidades sobre problemas inversos e problemas discretos mal-postos. Também é feito um estudo sobre projeções oblíquas, conceito essencial na tranformação para a forma padrão. A performance dos métodos quando aplicados a problemas testes bem conhecidos e ao tratamento de imagens é ilustrada numericamente.
|
7 |
Att avsudda bilder / Image deblurringKienmayer, Mattis January 2019 (has links)
Denna uppsats rör vid problemet med suddiga bilder och vad man kan göra för att försöka återställa den eftersökta skarpa bilden. Problemet tacklas med hjälp av linjär-algebraiska medel, både regularisering och iterativa metoder. Som resultat visar sig DFPM (dynamical functional particle method) jämförbar med både konjugerad gradient-metoden och LSQR-algoritmen (least squares QR), dock med användning av andra parametrar än de teoretiskt optimala. Utöver tidigare kända metoder presenteras och testas även ett alternativt minimeringsproblem.
|
8 |
Decodificação Iterativa de Códigos LDPC em Canais Discretos com Quantização UniformeCORDEIRO, Moisés Alves 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T17:36:02Z (GMT). No. of bitstreams: 2
arquivo2523_1.pdf: 1662188 bytes, checksum: ca366b30d35fcf4e22eb4ea7ea20d578 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A decodificação de códigos baseados em matrizes de verificação de paridade esparsas (LDPC,
do inglês low-density parity-check) é realizada através do algoritmo soma-produto (ASP).
Este trabalho apresenta um estudo do funcionamento do ASP e do seu desempenho em um
canal com ruído aditivo Gaussiano branco (AWGN, do inglês additive white Gaussian noise)
através de simulações computacionais. Em seguida, esta análise é estendida quando um
quantizador uniforme com 2q níveis de quantização é incorporado ao sistema de comunicações.
O passo de quantização ótimo é identificado para vários parâmetros do código e do canal.
Este estudo indica que para q = 1 (quantização abrupta) ocorre uma perda de desempenho
de aproximadamente 1,8 dB em relação ao canal AWGN enquanto que para q = 4 essa perda
é reduzida para aproximadamente 0,12 dB
|
9 |
O algoritmo talus na resolução do problema do controle ótimoCecília Parga Carneiro, Savana 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T17:37:57Z (GMT). No. of bitstreams: 2
arquivo3958_1.pdf: 1858605 bytes, checksum: 010b7efbaa0ac4aef2becd712d518c7a (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2008 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Esta dissertação tem por objetivo principal propor um procedimento para
resolução de problemas de controle ótimo com a utilização do Princípio do
Máximo de Pontryagin e algoritmos probabilísticos, principalmente o Talus,
visando melhoria da acurácia e aumento de eficiência deste processo. Para
tanto, apresenta-se o desenvolvimento histórico da teoria do controle ótimo e
resumem-se as principais características dos algoritmos utilizados. Além disso,
uma vez definido o método, resolveram-se alguns exemplos com a finalidade
de comparação de desempenho com a programação dinâmica interativa e a
parametrização de controle, formas mais usuais de solução. Para completar a
abordagem, sugeriram-se algumas possibilidades para utilizar o Talus na
resolução de equações diferenciais. A partir disso, foi possível garantir a
efetividade do objetivo inicial e propor temas para estudos futuros
|
10 |
Decodificação iterativa de códigos baseados em matrizes de verificação de paridade esparsasVASCONCELOS, Marcos Müller January 2007 (has links)
Made available in DSpace on 2014-06-12T17:39:33Z (GMT). No. of bitstreams: 2
arquivo6919_1.pdf: 4119217 bytes, checksum: 3f1efa22858eeae0d86c8392becd8174 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2007 / Códigos baseados em matrizes esparsas têm desempenhado um importante papel em teoria
da codificação. Os códigos low-density parity-check (LDPC) constituem uma famosa família
de códigos definidos a partir de matrizes de verificação de paridade esparsas que apresentam
desempenhos excelentes no canal com ruído aditivo Gaussiano branco (RAGB). O sucesso
desses códigos se deve a sua representação através de grafos, que permite a operação de um
algoritmo de decodificação iterativo cuja complexidade cresce linearmente com o comprimento
dos blocos. Esta dissertação apresenta um estudo sobre códigos LDPC e sua principal ferramenta
de análise, a density evolution. Para isso, a representação gráfica de códigos de bloco
lineares e o funcionamento do algoritmo de decodificação Soma-Produto são apresentados.
Algumas técnicas de projeto de códigos LDPC são discutidas e seu desempenho no canal
RAGB é avaliado por meio de simulações. Baseando-se nestas ferramentas, a density evolution
para os canal RAGB é derivada em forma integral e em forma aproximada. Por fim, uma
modificação no algoritmo Soma-Produto é proposta para decodificação de códigos LDPC no
canal Gilbert-Elliott
|
Page generated in 0.0995 seconds