• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1897
  • 97
  • 88
  • 88
  • 85
  • 51
  • 35
  • 33
  • 33
  • 31
  • 30
  • 17
  • 3
  • 3
  • 2
  • Tagged with
  • 1983
  • 961
  • 474
  • 418
  • 309
  • 306
  • 229
  • 220
  • 205
  • 203
  • 197
  • 193
  • 184
  • 134
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
471

Qualidade física do solo e rendimento de grãos num argissolo em processo de recuperação / Soil physical quality and yield of crops on a paleudult in recovery process

Sequinatto, Leticia January 2010 (has links)
A recuperação física de solos degradados pela compactação, atingindo um estado de qualidade física adequada, é fundamental para a produção agrícola sustentável. A avaliação de parâmetros físicos, no tempo, é essencial para indicar a qualidade ou degradação do solo decorrente das ações agrícolas de manejo. O objetivo do trabalho foi avaliar a eficiência de alternativas integradas de manejo do solo para a recuperação física, bem como o tempo necessário à obtenção de qualidade adequada. Para isso, vem sendo conduzido um experimento, desde 2002, em Eldorado do Sul (RS), sobre um Argissolo Vermelho, franco-argilo-arenoso, caracterizado por um elevado grau de compactação inicial e que se constituía em um campo natural degradado. Os tratamentos, manejados sob semeadura direta, englobaram três coberturas do solo no inverno (pousio, aveia preta + ervilhaca e nabo forrageiro), duas profundidades de atuação da haste sulcadora de adubo da semeadora e três condições de tráfego (tráfego de rodados de trator, colhedora e sem tráfego). No verão, semeia-se milho e soja, em rotação anual. Independentemente das coberturas de inverno, a conversão do campo natural degradado a um sistema de produção de grãos, em semeadura direta, reestruturou positivamente o solo, atingindo qualidade física para desempenhar adequadamente as suas funções, em sete anos. Isso foi possível devido à utilização integrada do tráfego controlado e da atuação da haste sulcadora da semeadora em maiores profundidades. Houve recuperação e evolução da estrutura do solo, perante o incremento dos teores de matéria orgânica (e de suas frações), aumento da porosidade e melhor distribuição dos poros e a diminuição da densidade do solo, no tempo. Esses parâmetros influenciaram o comportamento físico-hídrico do solo. A maior retenção de água no solo deu-se na camada superficial, em altos potenciais matriciais. Em menores potenciais matriciais de água no solo, houve maior retenção e água disponível às plantas, no solo trafegado. O índice S indicou melhor qualidade do solo na camada superficial e no solo não trafegado, sendo que a presença de poros grandes neste, aumentou a permeabilidade ao ar. O rendimento do milho e da soja foi maior nos tratamentos com plantas de cobertura de solo no inverno, sem ser afetado pela condição de tráfego e pelas profundidades de atuação da haste. O sistema de manejo do solo adotado foi considerado sustentável, uma vez que atuou conservando os recursos naturais (solo e água), recuperou as funções primordiais do solo e atingiu alto rendimento de culturas produtoras de grãos. / The physical recovery of soils degraded by compaction, reaching a state of adequate physical quality, is indispensable for the sustainable agricultural production. The evaluation of physical parameters, in due course, is essential to indicate the quality or soil degradation resulting from agricultural actions of management. The objective was to evaluate the efficiency of integrated alternatives of soil management for physical recovery, also the required time to obtain the appropriate quality. For this, an experiment has been conducted since 2002, in Eldorado do Sul (RS) on a Paleudult, sandy clay loam, characterized by a high degree of initial compaction and that was in degraded native grassland. The treatments, managed under no-tillage, have involved three winter cover crops (fallow, black oats + vetch, oilseed radish – Raphanus Sativus L.), two driller chisel-type furrow opener action depths and three traffic conditions (tractor wheel traffic, harvester and without traffic). In summer corn and soybean are sown in annual rotation. Regardless of winter cover crops, the conversion of degraded native grassland to a grain production system, under no-tillage, restructured positively the soil, reaching a physical quality to perform adequately their roles in seven years. This was possible before the integrated use of controlled traffic and the performance of higher furrow opener working depths. There was a positive development of soil structure, given the increase in organic matter content (and its fractions), the porosity increase and a better distribution of pores and reduction of soil density, in time. These parameters influenced the physico-hydric soil behavior. The greater water retention occurred in the surface soil layer, in higher potentials. At lower potentials, there was greater retention and plant available water, in trafficked soil. The index S indicated better soil quality in the surface soil layer and in the no-trafficked soil, where the presence of large pores increased the permeability to air. Under favorable water conditions, the yield of corn and soybeans were higher for winter cover crops, without being affected by traffic condition and the depths of action of the furrow opener. The soil management system adopted was considered sustainable as it appeared conserving natural resources (soil and water), recovered the essential functions of the soil and reached good yield of grain crops.
472

Efeitos do treinamento muscular inspiratório em pacientes com insuficiência cardíaca : impacto na capacidade funcional, na oscilação da ventilação, e na qualidade de vida

Chiappa, Gaspar Rogério da Silva January 2003 (has links)
Introdução: Pacientes com insuficiência cardíaca (IC) apresentam redução de força e resistência dos músculos inspiratórios. Objetivo: Avaliar os efeitos do treinamento muscular inspiratório sobre a capacidade funcional, oscilação da ventilação, e sobre a qualidade de vida na IC. Pacientes e Métodos: Foram selecionados 33 pacientes com IC, que apresentavam fraqueza da musculatura inspiratória. Os pacientes foram randomizados para participarem de um programa de treinamento muscular inspiratório (TMI) de 12 semanas, 7 sessões por semana de trinta minutos por sessão, com incremento semanal de 30% PImáx, com Threshold Inspiratory Muscle Trainer (grupo TMI, n=17) e um grupo controle (n=16), que realizaram o mesmo programa de treinamento, porém sem carga resistiva. Antes e após o TMI, foram avaliadas a força e a resistência da musculatura inspiratória, a capacidade funcional, a oscilação da ventilação durante o teste cardiopulmonar (TCP), e a qualidade de vida. Resultados: No grupo TMI houve aumento da PImáx (60,9±1,8 vs 129,6±2,8 cmH2O, ANOVA: p<0,001); da resistência, de 56,9±3 % para 65,5±2,9 %, (ANOVA: p<0,001); da distância percorrida no teste de caminhada, de 449,1±17,4 m para 550±17,2 m, (ANOVA: p<0,001) e no consumo de oxigênio no pico de exercício, de 17,2±0,5 para 20,6±0,7 ml/kg.min, (ANOVA: p<0,001). A oscilação da ventilação foi reduzida de 0,07±0,005 para 0,03±0,006 (ANOVA: p<0,001). Houve também melhora na qualidade de vida. Não houve alteração no grupo controle. Conclusão: O treinamento muscular inspiratório tem impacto sobre a musculatura ventilatória, melhorando a capacidade funcional em pacientes com insuficiência cardíaca.
473

Uma abordagem para indexação e buscas Full-Text baseadas em conteúdo em sistemas de armazenamento em nuvem

MACHADO, Marco André Santos 02 September 2013 (has links)
Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-11T19:17:29Z No. of bitstreams: 2 Dissertaçao marco machado.pdf: 1819409 bytes, checksum: 14795aacd4dc5db579f77a32e1eba511 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T13:12:18Z (GMT) No. of bitstreams: 2 Dissertaçao marco machado.pdf: 1819409 bytes, checksum: 14795aacd4dc5db579f77a32e1eba511 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T13:12:18Z (GMT). No. of bitstreams: 2 Dissertaçao marco machado.pdf: 1819409 bytes, checksum: 14795aacd4dc5db579f77a32e1eba511 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-09-02 / FACEPE / O “universo digital” cresce de forma exponencial e a previsão é que em 2015 chegue a quase 8 zettabytes. É cada vez mais complexo processar, armazenar, gerenciar, garantir a segurança e disponibilizar estas informações. O armazenamento em nuvem é apontado como melhor solução para lidar com estes problemas e muitos sistemas têm sido desenvolvidos com este fim. Grande parte destes sistemas tiram proveito da arquitetura peer-to-peer (p2p) para evitar gargalos, pontos únicos de falha e conseguir escalar de forma fácil. A maioria dos sistemas de armazenamento em nuvem existentes não permite que o usuário faça buscas mais complexas, por exemplo, levando em consideração o conteúdo dos arquivos ou informações presente nos metadados. Com isso essa pesquisa tem como objetivo propor uma abordagem para extração e indexação de conteúdo dos arquivos, de forma que o sistema permita que sejam realizadas buscas full-text baseadas no conteúdo dos arquivos em sistemas de armazenamento em nuvem com arquitetura peer-to-peer. Além disso, essa pesquisa também tem como objetivo investigar uma maneira eficiente para armazenar o índice de busca dentro da arquitetura P2P, de forma que seja possível replicar as informações com facilidade, permita elasticidade, garanta disponibilidade e, com isso, permitir que as buscas encontrem a maior quantidade de resultados relevantes possível.
474

Avaliação e desempenho da injeção ótima de polímeros em reservató-rios de petróleo

Dantas, Vinícius 19 December 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-10T15:41:03Z No. of bitstreams: 2 TESE Vinícius Dantas.pdf: 7342372 bytes, checksum: 911dd411fc685c93f20e4810224c4c2a (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-10T15:41:03Z (GMT). No. of bitstreams: 2 TESE Vinícius Dantas.pdf: 7342372 bytes, checksum: 911dd411fc685c93f20e4810224c4c2a (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-12-19 / Os problemas relacionados à extração de petróleo geralmente estão relacionados à maior produtividade no campo. Dessa forma, o foco desse trabalho é subsidiar a melhor distribuição de injeção de massa de polímeros nos poços injetores capaz de resultar na otimização da recuperação de óleo. Propõe-se então fornecer técnicas computacionais que possam melhorar o fator de recuperação de hidrocarbonetos melhorando assim, a eficiência do projeto de vazão de injeção de polímeros dissolvidos na água. No processo de otimização, serão executados várias estratégias visando um melhor projeto de vazões de injeções e consumo de polímero. Para resolver este problema, é adotada uma metodologia que combina estratégias de otimização global e local, que é conhecida como estratégia híbrida de otimização. Todos os casos serão executadas através da ferramenta comercial de simulação de reservatórios IMEX (Implicit Explicit Black Oil Simulator) que faz parte do pacote de programas da CMG (Computer Modelling Group Ltd.). Os problemas de otimização serão divididos em duas partes, a primeira irá tratar das otimizações globais e em uma segunda etapa será utilizado otimização local fazendo uma hibridização dos métodos. Com esta metodologia, espera-se que haja um melhoramento no varrido no reservatório e com isso uma melhor recuperação de petróleo e consequentemente maximizando a função objetivo, Valor Presente Líquido (VPL). O trabalho proposto irá analisar a quantidade de massa de polímero injetada em um reservatório sintético e em um reservatório baseado em dados reais, avaliando as vazões de injeção de cada poço injetor, bem como, o tamanho do banco de polímeros e sua concentração.
475

Sistemas baseados em mapas auto-organizáveis para organização automática de documentos texto

CORRÊA, Renato Fernandes 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:50:25Z (GMT). No. of bitstreams: 2 arquivo1971_1.pdf: 1243968 bytes, checksum: c2b0ffac3863dd2dac1588531b3c8f78 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho propõe e avalia sistemas híbridos para organização automática de documentos texto baseado em Mapas Auto-Organizáveis (do inglês Self-Organizing Maps - SOM). O objetivo é obter um sistema que ao combinar SOM com outros algoritmos de agrupamento seja capaz de gerar mapas de documentos de qualidade a um custo computacional baixo para grandes coleções de documentos texto. Um mapa de documentos é resultado de pós-processamento de uma rede neural SOM treinada com os vetores representativos dos documentos de uma coleção. Um mapa de documentos é considerado de boa qualidade quando este representa bem as relações de similaridade de conteúdo entre documentos de uma coleção. Um mapa de documentos possibilita a organização de uma coleção de documentos texto de acordo com a similaridade de conteúdo e tem aplicação na melhoria dos processos de recuperação de informação, exploração, navegação e descoberta de conhecimento sobre uma coleção. Vários trabalhos na literatura de redes neurais têm utilizado SOM para criar mapas de documentos. Entretanto, o treinamento de redes SOM ainda é uma tarefa cara computacionalmente para grandes coleções de documentos texto. Alguns métodos propostos na literatura para construir mapas de documentos mais rapidamente reduzem drasticamente a qualidade do mapa gerado; além disso, sistemas híbridos envolvendo SOM com outros algoritmos de agrupamento têm sido pouco investigados na literatura. Estes fatos motivaram o presente trabalho. Os resultados mostram que a combinação cuidadosa de algoritmos tradicionais de agrupamento como K-means e Leader com redes SOM é capaz de produzir sistemas híbridos bastante eficientes. Por este motivo, sistemas híbridos foram propostos, visando à construção automática de mapas de documentos com qualidade e a um custo computacional mais baixo. Estes sistemas híbridos representam um avanço na área de sistemas de organização automática de documentos texto, bem como sistemas neurais híbridos baseados em SOM, fornecendo resultados importantes para diversas aplicações práticas no projeto de sistemas, tais como engenhos de busca, sistemas para bibliotecas digitais e sistemas para descoberta de conhecimento em texto
476

Octopus: um framework para testes em sistemas distribuídos

FERREIRA, Renato Viana 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:58:04Z (GMT). No. of bitstreams: 2 arquivo3246_1.pdf: 4182276 bytes, checksum: 9458e021d82b1824fb037ce7e8a48b0b (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Testar software é uma tarefa complexa e em sistemas distribuídos tal tarefa é ainda mais complicada. As atividades de testes podem consumir de 50% até 75% do esforço total de desenvolvimento de um software distribuído. Com o aumento da demanda em serviços online e o alto custo de downtime é necessária uma rígida validação da escalabilidade, disponibilidade e tolerância a falha das aplicações. No entanto, as ferramentas para testes convencionais não são adequadas para cenários com distribuição extrema e grande carga de usuários, causando grande esforço para os engenheiros e grandes custos para corporações. Baseado na necessidade de uma nova geração de ferramentas, apresentamos o Octopus, um framework para automação de testes de desempenho, escala, carga, estresse e recuperação que busca reduzir o esforço necessário para setup, execução, coleta e análise de resultados. Com o uso do framework, o engenheiro de testes pode instalar e executar aplicações em múltiplas máquinas, coletar dados de desempenho de todas as máquinas de teste e simular falhas escrevendo uma quantidade de código equivalente a um teste unitário. Como o tempo de setup e de análise de resultados é reduzido, mais execuções são possíveis na mesma quantidade de tempo, aumentando a qualidade final do produto ou serviço em testes e também a satisfação dos clientes
477

VIF - uma estrutura de índice invertido em blocos baseada em uma B+-Tree

MIRANDA, Oscar Gomes de January 2003 (has links)
Made available in DSpace on 2014-06-12T15:58:52Z (GMT). No. of bitstreams: 2 arquivo4736_1.pdf: 1906932 bytes, checksum: aa7a99e257aca29fb1c18db5712ba23e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / A explosão de uso da World Wide Web (Web) e seu crescimento exponencial são fatos reais hoje em dia. A grande quantidade de dados em formato textual disponível de forma dispersa na Web tornou o uso de sistemas de busca bastante popular. Pesquisas mostram que cerca de 57% de usuários da internet fazem uma consulta a cada dia. Esta necessidade de uso tem sido a alavanca da popularidade dos sistemas de busca que, mesmo tendo evoluído de forma significativa nos últimos anos, precisam manter-se atualizados com estruturas capazes de indexar toda essa informação para atender esta demanda de crescimento da Web. Esta dissertação apresenta um levantamento de técnicas no estado-da-arte sobre estruturas de índices para sistemas de Recuperação de Informação (RI) apresentando as estruturas: Arquivo invertido, que é o foco principal deste trabalho; Array de sufixos. que, mesmo oferecendo facilidades na busca em consultas por proximidade, tem um custo de espaço de armazenamento muito alto; e Arquivo de assinaturas, que foi amplamente utilizada em sistemas de RI na década de 80, porém foi superada pelas técnicas modernas aplicadas a estruturas de arquivo invertido. Dentre estas técnicas cita-se a compressão do índice através do uso de codificação Elias e Golomb os quais, além de trazer economia de espaço, melhoram o desempenho tanto no processo de consulta quanto no processo de construção do índice. Além disso, são descritos em detalhes métodos eficientes de acesso e de construção e manipulação do índice. Como resultado do trabalho é proposto o VIF - Vertical Inverted File - implementado na prática a partir de experiência pessoal adquirida durante o trabalho realizado no engenho de busca Radix. O VIF é uma estrutura de índice invertido organizada em blocos baseada em uma estrutura de dados dinâmica B+-Tree que possibilita a inserção eficiente de pequenas quantidades de documentos HTML e, também, oferece uma forma nativa de otimização no processamento de consultas através de salto de blocos. No Radix foram feitos testes sobre a estrutura onde obteve-se ganhos de cerca de 78% de espaço utilizado comparado com a estrutura utilizada anteriormente. Outros testes mostraram melhoria média de 26.5% no tempo de processamento consultas usando salto em blocos comparado com processamento sem otimização, considerando o tempo no processamento das consultas mais realizadas pelos usuários do sistema
478

Um sistema de recuperação e extração de informação utilizando conceitos da web semântica

CARDOSO, Rafael Cunha January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:13Z (GMT). No. of bitstreams: 2 arquivo4978_1.pdf: 1542925 bytes, checksum: e49f4b7f816d2f33dd3c206e9c8ecd8f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / A crescente quantidade de dados disposta diariamente na Web faz com que os sistemas de recuperação e extração de informações desempenhem um papel importante dentro dessa realidade. Entretanto, os resultados das buscas na Web freqüentemente frustram as expectativas dos usuários no tocante à qualidade das informações recuperadas. A Web Semântica, considerada a nova geração da Web, apresenta conceitos e ferramentas que visam inserir significado nos documentos existentes na WWW atual, permitindo com isso sanar algumas das limitações existentes. Um dos principais conceitos sobre os quais a Web Semântica se fundamenta, é a Ontologia. Estas podem ser vistas como especificações formais de um determinado domínio de conhecimento que possibilitam um entendimento comum sobre determinado tema de discussão. Este trabalho visa melhorar a qualidade das informações recuperadas de sites na Web através da utilização de conceitos e fundamentos da Web Semântica aliada às técnicas da Web já estabilizadas. Para tanto, foi definida uma arquitetura e desenvolvido um protótipo de um sistema que objetiva realizar recuperação e extração de dados sobre um domínio específico de conhecimento, utilizando uma ontologia (baseada nos fundamentos da Web Semântica) desenvolvida para auxiliar o processo de extração de informação relevante a partir de um conjunto específico de dados da Web.
479

Membranas compósitas de poliestireno/polianilina para a extração de DNA de meios aquosos

BRANDÃO, Winnie Queiroz 29 July 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-03-08T12:47:57Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) VersãoFinal_Dissertação Winnie Brandão.pdf: 3866454 bytes, checksum: 7c557a3aa4c5f7cd118decbc7ad66dbb (MD5) / Made available in DSpace on 2017-03-08T12:47:57Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) VersãoFinal_Dissertação Winnie Brandão.pdf: 3866454 bytes, checksum: 7c557a3aa4c5f7cd118decbc7ad66dbb (MD5) Previous issue date: 2016-07-29 / FACEPE / A extração de DNA a partir de amostras biológicas é um passo necessário em quase todos os processos biotecnológicos. No entanto, não apenas as amostras contendo DNA são geralmente distintas na origem, como não existe um único processo comum para estes métodos de extração, ou mesmo um único material que satisfaça todos os requisitos necessários para realizar estas tarefas. Como consequência, o desenvolvimento de novos materiais ou métodos para a melhoria dos protocolos de extração de DNA, em termos de rendimento, pureza, tempo e custo, continua sendo de grande interesse. Neste trabalho, descrevemos a preparação de um novo tipo de membrana compósita de poliestireno/polianilina (PS/PANI) que não só exibe altos níveis de captura de cadeias de DNA a partir de soluções aquosas, mas também permite essa liberação de maneira simples e eficiente. A membrana compósita consiste de fibras de PS produzidas pela técnica de eletrofiação e modificadas com nanogrãos de PANI depositados através de uma polimerização química in situ. As membranas obtidas foram caracterizadas por microscopia eletrônica de varredura (MEV), medidas de ângulo de contato, espectroscopia UV-Vis e por espectroscopia de infravermelho por transformada de Fourier (FTIR). Utilizamos solução aquosa de DNA de esperma de salmão como um sistema modelo para examinar a capacidade de adsorção destas membranas para moléculas de ácido nucleico. Em experimentos realizados no modo batelada, encontramos uma capacidade máxima de adsorção de 153,8 mg de DNA por grama de PANI, com o limite de saturação sendo alcançado em apenas 9 min. Além disso, demonstramos que é possível conseguir a liberação completa do DNA adsorvido por simples alteração do pH do meio aquoso. Os processos de adsorção e dessorção foram acompanhados por imagens de fluorescência. Realizamos também experimentos de adsorção de DNA através da adaptação da membrana a uma coluna de centrifugação. Os resultados correspondentes indicam que nessa configuração experimental as membranas compósitas de PS/PANI se mostram um material bastante promissor para a purificação de ácidos nucleicos e outras biomoléculas. / Extraction of nucleic acids from biological samples is a necessary step in almost all biotechnological procedures. However, whereas DNA-containing samples are usually distinct in origin and no single common methodology exists for these extraction methods, there is no single material that satisfies the necessary requirements to carry out these tasks. Consequently, the development of new materials or methods to the improvement of DNA extraction protocols (in terms of yield, purity, time, and cost) continues to be of great interest. In this work, we describe the preparation of a novel type of polyaniline/polystyrene (PANI/PS) membrane that not only exhibits high levels of capture of DNA strands dissolved in aqueous solutions but also allows for their simple and efficient posterior release. The composite membrane consists of electrospun PS fibers modified with deposited PANI nanograins through an in situ chemical polymerization. The membranes were characterized by scanning electron microscopy (SEM), contact angle, UV-Vis spectroscopy and Fourier transform infrared spectroscopy (FTIR). We have used aqueous solution sodium salt of Salmon Sperm DNA as a model system to examine the adsorption capacity of these membranes for nucleic acid molecules. In batch-mode experiments, we have found a maximum adsorption capacity of 153.8 mg of DNA per gram of PANI, with the saturation limit being reached within only 9 min. In addition, we have demonstrated that it is possible to achieve the complete release of the adsorbed DNA by simple changes on the pH of the aqueous medium. The adsorption and desorption procedures were followed by fluorescence imaging. We also performed DNA adsorption experiments by adapting the composite membrane to a spin column. Under this experimental setup, the PANI/PS composite membranes appear as promising material for the efficient purification of nucleic acids and other valuable biomolecules.
480

Aplicação de um planejamento fatorial na recuperação da liga metálica (FeSiMn) de escória empregando-se a mesa oscilatória Wilfley

GALVAO, Raulim de Oliveira 03 March 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-02T22:44:51Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Raulim de Oliveira Galvão.pdf: 4275390 bytes, checksum: ba916a0591cb348433e842a6b8f76ded (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-07T21:08:28Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Raulim de Oliveira Galvão.pdf: 4275390 bytes, checksum: ba916a0591cb348433e842a6b8f76ded (MD5) / Made available in DSpace on 2018-08-07T21:08:28Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Raulim de Oliveira Galvão.pdf: 4275390 bytes, checksum: ba916a0591cb348433e842a6b8f76ded (MD5) Previous issue date: 2017-03-03 / O presente trabalho desenvolveu-se para o beneficiamento de liga metálica de FeSiMn em escórias aplicando o método de concentração gravimétrica em mesa oscilatória do tipo Wilfley. Para alcançar os objetivos do trabalho teve-se que levar em conta os princípios fundamentais do processo de separação de partículas que promovem uma classificação dos sólidos por meio do cisalhamento horizontal, resultante do movimento oscilatório de uma superfície sob a polpa em escoamento. No primeiro momento foram identificados os parâmetros operacionais, parâmetros do material e instrumentação necessária para os ensaios. Os experimentos foram realizados com uma amostra representativa proveniente da empresa Ferro Ligas Marabá (FERMAR). Foi aplicada uma análise da variância baseado num desenho fatorial 23 (3 variáveis, 2 níveis), variando a granulometria da alimentação, a inclinação do deque e a amplitude de oscilação da mesa. Como variáveis de resposta foram consideradas a recuperação mássica do material pesado e a sua recuperação metalúrgica. Durante os ensaios foram observados que uma amplitude maior promove uma maior recuperação da liga metálica presente nas frações finas para uma inclinação em 2°. A análise da variância (ANOVA) foi feita utilizando ferramenta estatística para a determinação da variável com maior influência no processo de concentração. Para a recuperação metalúrgica a granulometria, inclinação do deque, amplitude e a interação entre os fatores inclinação e amplitude resultaram em efeitos significativos. / The present work was developed for the alloying of FeSiMn alloy in slag using the method of gravimetric concentration in Wilfley type oscillatory table. In order to achieve the objectives of the work it was necessary to take into account the fundamental principles of the particle separation process that promote a classification of the solids by means of the horizontal shear, resulting from the oscillatory movement of a surface under the pulp. At the first moment the operational parameters, parameters of the material and the instrumentation required for the tests were identified. The experiments were carried out with a representative sample from Ferro Ligas Marabá (FERMAR). A variance analysis based on a factorial design 23 (3 variables, 2 levels) was applied, varying the grain size of the feed, the incline of the deck and the amplitude of oscillation of the table. As response variables we considered the recovery of the heavy material and its metallurgical recovery. During the tests it was observed that a larger amplitude promotes a greater recovery of the metal alloy present in the fine fractions for a slope in 2 °. Analysis of variance (ANOVA) was done using a statistical tool to determine the variable with the greatest influence on the concentration process. For the metallurgical recovery the particle size, slope of the deck, amplitude and the interaction between the slope and amplitude factors resulted in significant effects.

Page generated in 0.0534 seconds