• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5395
  • 422
  • 156
  • 128
  • 128
  • 125
  • 70
  • 58
  • 56
  • 56
  • 55
  • 31
  • 6
  • 3
  • 2
  • Tagged with
  • 5975
  • 2379
  • 1751
  • 977
  • 964
  • 911
  • 895
  • 881
  • 697
  • 692
  • 672
  • 553
  • 515
  • 459
  • 441
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
521

Processamento de linguagem natural para indexação automática semântico-ontológica

Câmara Júnior, Auto Tavares da 11 April 2013 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Ciência da Informação, Programa de Pós-Graduação em Ciência da Informação, 2013. / Submitted by Elna Araújo (elna@bce.unb.br) on 2013-07-29T21:19:34Z No. of bitstreams: 1 2013_AutoTavaresDaCamaraJunior.pdf: 1417675 bytes, checksum: 57e0a94a4470cf0e11089ed79a440dfc (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-07-30T15:57:34Z (GMT) No. of bitstreams: 1 2013_AutoTavaresDaCamaraJunior.pdf: 1417675 bytes, checksum: 57e0a94a4470cf0e11089ed79a440dfc (MD5) / Made available in DSpace on 2013-07-30T15:57:34Z (GMT). No. of bitstreams: 1 2013_AutoTavaresDaCamaraJunior.pdf: 1417675 bytes, checksum: 57e0a94a4470cf0e11089ed79a440dfc (MD5) / A pesquisa propõe uma arquitetura de indexação automática de documentos utilizando mecanismos de processamento de linguagem natural em nível semântico. Por meio do arranjo de ferramentas e recursos existentes, agregado ao desenvolvimento de software para integração, é construído um sistema de indexação automática que utiliza conhecimento modelado em uma ontologia para análise semântica. A aplicação da arquitetura é exemplificada e posta à prova em um conjunto de laudos periciais de crimes cibernéticos produzidos pela Perícia Criminal da Polícia Federal. Os resultados de pesquisa apontam para a melhoria que o aprofundamento à análise semântica do processamento de linguagem natural oferece para a seleção automática de descritores e, por extensão, para a recuperação da informação. Dentre as contribuições inéditas desta tese incluem-se a arquitetura de sistema de informação para indexação automática proposta, a ontologia construída para a análise semântica e as implementações em linguagem de programação Python. Por fim, o trabalho insere-se em uma área de pesquisa que tem sido cada vez mais investigada, no entanto ainda carece de resultados amadurecidos, qual seja o processamento de linguagem natural em língua portuguesa. __________________________________________________________________________ ABSTRACT / The research proposes an automatic indexing architecture of documents using natural language processing mechanisms on semantic level. By organizing existing tools and resources, added to software development for integration, an automatic indexing system which uses knowledge modeled by ontology to semantic analysis is built. The applicability of the architecture is exemplified and put into proof on forensics reports of cybercrimes produced by Federal Police Forensics Experts. The research results point to the benefits that semantic analysis on natural language processing offers to automatic descriptor selection and information retrieval. As contributions of this thesis there are the proposed automatic indexing information system architecture, the ontology built to semantic analysis and the implementations on Python programming language. Concluding, the work inserts itself in a research area that has been increasingly more investigated, however still demanding mature results, which is natural language processing on portuguese language.
522

Modelagem de articulações para humanos virtuais baseada em anatomia

Maciel, Anderson January 2001 (has links)
Técnicas de Processamento de Imagens e de Computação Gráfica vêm sendo empregadas há bastante tempo para o diagnóstico por imagens em Medicina. Mais recentemente, aplicações baseadas em modelos anatômicos, tanto extraídos de volumes de imagens como criados com base em estudos de anatomia, despontam com força. Tais modelos visam suportar simulação de movimento e de fisiologia. Porém, para que isso se torne realidade, modelos anatômicos do corpo humano precisam ser construídos e aperfeiçoados. Entre outras funcionalidades, esses modelos devem ser capazes de representar o movimento articulado do corpo humano. O problema de modelagem das articulações já foi considerado em diversos trabalhos, principalmente em Robótica e Animação. Entretanto, esses trabalhos não levaram em conta fidelidade anatômica com profundidade suficiente para que pudessem ser utilizados em aplicações de Medicina. O principal objetivo deste trabalho, portanto, é a criação de uma estratégia de representação de articulações embasada em características anatômicas para modelagem de esqueletos humanos virtuais. Um estudo da anatomia do esqueleto humano é apresentado, destacando os tipos de articulações humanas e aspectos do seu movimento. Também é apresentado um estudo dos modelos de articulações encontrados na literatura de Computação Gráfica, e são comentados alguns sistemas de software comercial que implementam corpos articulados. Com base nesses dois estudos, procurou-se identificar as deficiências dos modelos existentes em termos de fidelidade anatômica e, a partir disso, propor uma estratégia de representação para articulações humanas que permitisse a construção de corpos humanos virtuais anatomicamente realísticos. O modelo de articulações proposto foi projetado com o auxílio de técnicas de projeto orientado a objetos e implementado no âmbito do projeto Virtual Patients. Usando as classes do modelo, foi construído um simulador de movimentos, que recebe a descrição de um corpo articulado através de um arquivo em formato XML e apresenta uma animação desse corpo. A descrição do movimento também é especificada no mesmo arquivo. Esse simulador foi utilizado para gerar resultados para verificar a correção e fidelidade do modelo articular. Para isso, um joelho virtual foi construído, seus movimentos foram simulados e comparados com outros joelhos: o modelo de outro simulador, um modelo plástico anatômico e o joelho real.
523

Medição de campos de velocidade em fluídos com técnicas "intraframe" de processamento digital de imagens (PIV)

Laan, Flavio Tadeu van der January 2001 (has links)
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
524

Reconhecimento automático de locutor utilizando medidas de invariantes dinâmicas não-lineares

Petry, Adriano January 2002 (has links)
As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcançados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.
525

Detecção e reconhecimento de números seriais em cédulas da segunda família do real

Ulian, Ian Alves 13 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, Mestrado Profissional em Engenharia Elétrica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-03-23T16:13:30Z No. of bitstreams: 1 2016_IanAlvesUlian.pdf: 56283650 bytes, checksum: 13dd86f31b81c621d88c505bfaa461dd (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-04-06T23:24:31Z (GMT) No. of bitstreams: 1 2016_IanAlvesUlian.pdf: 56283650 bytes, checksum: 13dd86f31b81c621d88c505bfaa461dd (MD5) / Made available in DSpace on 2017-04-06T23:24:31Z (GMT). No. of bitstreams: 1 2016_IanAlvesUlian.pdf: 56283650 bytes, checksum: 13dd86f31b81c621d88c505bfaa461dd (MD5) / Um sistema de monitoramento de cédulas de Real se mostra de extrema importância para questões criminais e econômicas. Nesse caso, faz-se necessário um eficiente método de detecção e reconhecimento de número serial de cédulas. Este trabalho apresenta uma proposta robusta para a utilização de um sistema de reconhecimento óptico de caracteres (OCR) em situações complexas de reconhecimento automático de números seriais da Segunda Família do Real. Todos os resultados são promissores, o que mostra ser factível a utilização da abordagem proposta em aplicações reais. / A tracking system for Real banknote shows extremely importance for criminal and economic purposes. In this case, an efficient method for detecting and recognizing the banknote serial number is required. This work presents a robust proposal to use an Optical Character Recognition (OCR) system in complex situations in an automatic serial number recognition of the Second Series of Real. All shown results are promising, showing to be feasible the use of the proposed approach in real applications.
526

O problema do pixel mistura: um estudo comparativo

Caimi, Daniel January 1993 (has links)
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
527

Imagens ecocardiográficas fetais integradas a banco de dados

Ramos, Eunice Santos da Silva January 1998 (has links)
Este trabalho discorre no escopo de informática médica, no âmbito da Unidade de Cardiologia Fetal do Instituto de Cardiologia - Fundação Universitária de Cardiologia do RS. Sabe-se que a medicina gera um grande volume de dados, sejam eles, textuais, numéricos, gráficos ou mesmo imagens ou sons geradas por equipamentos de ultra-som, tomógrafos computadorizados, ressonância magnética, RX, entre outros. Este trabalho desenvolve a integração das imagens ecocardiográficas fetais ao banco de dados. Atualmente, a tendência observada no desenvolvimento de sistemas de informações é a utilização de banco de dados que sejam capazes de manipular informações completas sobre seus pacientes, tais como: consultas, medicamentos, internações, bem como os laudos de exames com suas respectivas imagens quando estes possuírem. É com base nestas tendências que foram definidos os tópicos relevantes a serem estudados e implementados neste trabalho, integrando os estudos ecocardiográficos fetais com as informações do banco de dados da unidade de cardiologia fetal (UCF). Neste trabalho está apresentado o modelo do banco de dados da UCF. Para esta modelagem foram realizados estudos para aquisição de conhecimento da área e também para compreender as necessidades da unidade Da mesma forma, as imagens ecocardiográficas fetais foram estudadas para que fosse possível serem modeladas junto ao banco de dados. Para esta modelagem foi necessário fazer uma breve revisão dos conceitos utilizados pelo paradigma de orientação a objetos, uma vez que o modelo foi desenvolvido utilizando esta metodologia. As imagens ecocardiográficas fetais receberam grande atenção, uma vez que para elas foram criadas classes distintas. Também para aumentar a funcionalidade foram estudados conceitos de imagem digital, para posterior aplicação sobre as imagens do domínio. Foram realizados estudos sob manipulação de imagens, como modificação do brilho, medidas, filtros e formas de armazenamento. Considerando os formatos de gravação, dois padrões foram contemplados neste trabalho: o utilizado pela placa disponível no instituto denominado DT-IRIS e o DICOM que é um padrão internacional de armazenamento e comunicação de imagens médicas. Por fim, a implementação do protótipo procura demonstrar a viabilidade do modelo proposto, disponibilizando dados textuais, imagens e ainda realizando manipulações sobre estas imagens do domínio.
528

Filtragem de imagens com preservação das bordas usando a Transformada Wavelet

Jung, Claudio Rosito January 2002 (has links)
A filtragem de imagens visando a redução do ruído é uma tarefa muito importante em processamento de imagens, e encontra diversas aplicações. Para que a filtração seja eficiente, ela deve atenuar apenas o ruído na imagem, sem afetar estruturas importantes, como as bordas. Há na literatura uma grande variedade de técnicas propostas para filçtragem de imagens com preservação de bordas, com as mais variadas abordagens, deentrte as quais podem ser citadas a convolução com máscaras, modelos probabilísticos, redes neurais, minimização de funcionais e equações diferenciais parciais. A transformada wavelet é uma ferramenta matemática que permite a decomposição de sinais e imagens em múltiplas resoluções. Essa decomposição é chamada de representação em wavelets, e pode ser calculada atrravés de um algorítmo piramidal baseado em convoluções com filtros passa-bandas e passa-baixas. Com essa transformada, as bordas podem ser calculadas em múltiplas resoluções. Além disso, como filtros passa-baixas são utilizados na decomposição, a atenuação do ruído é um processo intrínseco à transformada. Várias técnicas baseadas na transformada wavelet têm sido propostas nos últimos anos, com resultados promissores. Essas técnicas exploram várias características da transformada wavelet, tais como a magnitude de coeficientes e sua evolução ao longo das escalas. Neste trabalho, essas características da transformada wavelet são exploradas para a obtenção de novas técnicas de filtragem com preservação das bordas.
529

Obtenção de micro e nanofibras de TiO2 por electrospinning : caracterização de propriedades e atividade fotocatalítica

Alves, Annelise Kopp January 2008 (has links)
Este trabalho versou sobre a obtenção de micro e nanofibras de óxido de titânio pela técnica de electrospinning de uma solução polimérica. A obtenção do sistema sol-gel, precursor de óxidos e aditivos, foi baseada na hidrólise e condensação de sais, como propóxido de titânio, cloreto de zircônio e nitrato de cério. Foram investigadas soluções poliméricas de PVA, PVB, PVP e POE, em diferentes concentrações, 5, 10, 15 e 20%, em meio aquoso, ou alcoólico. Esses sistemas foram caracterizados quanto a sua viscosidade e condutividade iônica. Após um período de 24h de repouso, as soluções poliméricas contendo os íons de interesse foram submetidas ao processo de electrospinning. Utilizaram-se como parâmetros de processo: tensão elétrica entre 5 e 20kV, capilares entre 0,3 e 2,5mm, e distâncias entre 100 e 150mm. Após 30 minutos, as fibras foram coletadas em um cilindro rotativo, formando um não-tecido. As fibras assim obtidas foram submetidas a um tratamento térmico até a temperatura de 1000°C, com taxa de aquecimento de 86K/h. Após o tratamento térmico, as fibras foram caracterizadas quanto a sua morfologia, área superficial, cristalinidade (fases cristalinas e tamanho de cristalito), e atividade fotocatalítica. O sistema contendo PVP em solução alcoólica e formulado com propóxido de titânio (TiP) e ácido acético na proporção de 1:1 (PVP:TiP+ácido acético) mostrou-se o mais adequado para a produção de fibras. Após o tratamento térmico, as fibras de óxido de titânio apresentaram diâmetros médios entre 150 e 525nm. Dependendo da formulação utilizada, fibras tratadas termicamente acima de 700°C deram origem à fase anatase ou a uma mistura das fases anatase e rutilo. A área superficial dessas fibras aumenta com o aumento da temperatura de tratamento térmico até o máximo de 142,1m2/g, quando tratadas a 650°C, diminuindo após essa temperatura. A atividade fotocatalítica foi comparada ao produto comercial TiO2 P25, para a descoloração de uma solução contendo 20ppm de azul de metileno e outra contendo 20ppm de alaranjado de metila. Para ambos os sistemas, as fibras com tratamento térmico a 650°C obtiveram a maior eficiência, degradando totalmente o corante em 65 e 55 minutos, respectivamente para o azul de metileno e o alaranjado de metila. O padrão P25 degradou tais compostos em 45 minutos. / The synthesis of titanium oxide micro and nanofiber using electrospinning of a polymer solution was studied in this thesis. The development of a sol-gel system, containing oxide precursor and additives, was based on the hydrolysis and condensation of salts such as titanium propoxide, zirconium chloride and cerium nitrate. Polymer solutions, PVA, PVB, PVP and POE, have been investigated for different concentrations, 5, 10, 15 and 20%, in water or alcohol. These systems were characterized by theirs viscosity and ionic conductivity. After a period of 24 hours, the polymer solutions containing the ions of interest were submitted to the electrospinning process. The operation parameters were: electric tension between 5 and 20kV, capillaries between 0.3 and 2.5mm, and distances between 100 and 150mm. After 30 minutes, the fibers were collected in a rotating cylinder, as a non-tissue. Fibres thus obtained were subjected to heat treatment until the temperature of 1000°C, with heating rate of 86K/h. After heat treatment, the fibres were characterized by their morphology, surface area, crystallinity (crystalline phases and critalitte size), and photocatalytic activity. The system containing PVP in alcoholic solution and made of titanium propoxide (TiP) and acetic acid in the proportion of 1:1 (PVP: TiP + acetic acid) proved to be the most suitable for the production of fibres. After heat treatment, the fibres of titanium oxide had average diameters between 150 and 525nm. Depending on the composition used, fibres heat treated above 700°C led to anatase or a mixture of anatase and rutile phases. The surface area of these fibers increases with increasing temperature heat treatment up to 142.1 m2/g, when treated at 650°C, decreasing after this temperature. The photocatalytic activity of the fibers was compared to commercial TiO2 P25, for discoloration of a solution containing 20ppm of methylene blue and another containing 20ppm of methylorange. For both systems, fibers with heat treatment at 650°C degraded completely the dyes in 65 and 55 minutes, respectively, for the methylene blue and methylorange. The standard P25 deteriorated such compounds in 45 minutes.
530

Relação entre os parâmetros processuais e o controle de tipo e tamanho de fases na obtenção de partículas nanoestruturadas de ZrO2 por sol-gel

Santos, Venina dos January 2008 (has links)
Neste trabalho, foi investigada a síntese via sol-gel de zircônia nanoestruturada, com o objetivo de relacionar a influência dos parâmetros processuais com tipo e tamanho de fases formadas. Foi utilizado como precursor o n-propóxido de zircônio, e variando-se parâmetros como pH (usando HNO3, CH3COOH e NH4OH), solvente (etanol e n-propanol), temperatura de síntese e tempo e temperatura de tratamento térmico. Os tamanhos de partícula e a polidispersão das dispersões coloidais foram determinadas in situ usando espalhamento dinâmico de luz. Em meio acético, a maior parte da população encontra-se abaixo de 100 nm. Com a introdução de NaCl, o tamanho máximo de partícula alcançou 71 nm. Para outros meios reacionais (HNO3 e na ausência de ácido ou base), o maior tamanho de partícula ficou na ordem de micrômetro. Após a evaporação do solvente, os pós foram tratados termicamente a distintas temperaturas até 800°C por até 12 h, e então caracterizados por difração de raios X (DRX), análises térmicas (ATD/ATG), microscopia eletrônica de varredura (MEV), microscopia eletrônica de transmissão (MET), espectroscopia por infravermelho com transformada de Fourier (FTIR), espectroscopia Raman. Determinou-se a área superficial, pelo método BET, e a granulometria, por dispersão de laser. A estrutura da zircônia sintetizada se mostrou amorfa para tratamentos térmicos até 400°C. As análises térmicas apresentaram curvas muito semelhantes: ~40 e ~200ºC, considerável perda de massa pela desidratação, e um pico endotérmico devido à liberação de voláteis. A 450ºC observou-se um pico exotérmico e perda de massa devido à condensação. Um novo pico exotérmico sem perda de massa foi atribuído à transformação t®m, confirmada por DRX, seguida de queda na curva ATD devido supostamente à sinterização das partículas. A perda de água e a presença da ligação zircônio e oxigênio (Zr–O) foram confirmadas por FTIR. Com o aumento da temperatura de tratamento térmico, as bandas relacionadas à perda de água diminuíram e desapareceram, sugerindo a reação de condensação Zr(OH)4 ® ZrO2 + 2H2O. O tamanho de cristalito, estimado por TEM e DRX (método single-line) variou significativamente de acordo com o meio reacional empregado e tratamento térmico. Em meio acético, a 400 e 500°C, foram obtidos cristalitos na fase tetragonal, de 7,6 a 11,6 nm, respectivamente. Em meio nítrico, nas mesmas temperaturas, foi obtida a fase monoclínica, com cristalitos de 28 a 31 nm. A faixa de maior freqüência para os tamanhos de cristalito foi entre 35,1 e 40 nm, para todas as condições investigadas. Os resultados de área superficial específica mostraram que dependendo do meio ocorreram variações de 74 a 126 m2 g-1 e a curva de distribuição de diâmetro de poros mostrou que os pós devem apresentar mesoporos menores que 4 nm. Estas características potencializam os pós de ZrO2 sintetizados para aplicações tais como, na fabricação de membranas cerâmicas para processos de ultrafiltração. / In this study the synthesis of nanostructured zirconia via sol-gel was investigated, with the aim of relating the influence of the processing parameters with the type and size of the phases. Zirconium n-propoxide was used as the precursor and several parameters were investigated, such as pH (using HNO3, CH3COOH and NH4OH), solvent (ethanol and npropanol), synthesis temperature and thermal treatment time and temperature. The particle sizes and the polydispersion of colloidal dispersions were determined in situ using dynamic light scatting. In acetic medium, most of the population was found to be below 100 nm. With the introduction of NaCl, the maximum particle size reached 71 nm. For other reaction media (HNO3 and without acid or base), the largest particle size was in the order of micrometers. After evaporation of the solvent, the powders were thermally treated at distinct temperatures up to 800°C for up to 12 h, and then characterized by X-ray diffraction (XRD), thermal analysis (TDA/TGA), scanning electronic microscopy (SEM), transmission electron microscopy (TEM), and Fourier transform infrared spectroscopy (FTIR), Raman spectroscopy. The surface area was determined by the BET method, and the granulometry, by laser dispersion. The structure of the zirconia synthesized was shown to be amorphous for thermal treatments up to 400°C.The thermal analysis showed very similar curves: ~40 and ~200ºC, considerable mass loss by dehydration and an endothermic peak due to the release of volatiles. At 450ºC, an exothermic peak and mass loss by condensation reaction were observed. A new exothermic peak without mass loss was attributed to the t®m transformation, confirmed by XRD, followed by a drop in the DTA curve presumably due to sinterization of the particles. The water loss and the presence of a zirconium-oxygen bond (Zr–O) were confirmed by FTIR. With the increase in the thermal treatment temperature, the bands relating to water loss decreased and disappeared, suggesting the condensation reaction Zr(OH)4® ZrO2 + 2H2O. The crystalline size, estimated by TEM and XRD (singleline method) varied significantly according to the reaction medium and thermal treatment employed. In acetic medium, at 400 and 500°C, crystallites in the tetragonal phase of 7.6 to 11.6 nm were obtained, respectively. In nitric acid medium, at the same temperatures, the monoclinic phase was obtained, with crystallites of 28 to 31 nm. The greatest frequency range for the crystallite size was between 35.1 and 40 nm, for all of the conditions investigated. The results of specific surface area varied between 74 to 126 m2 g-1. The curve of distribution of pores in diameter showed that the powders should submit mesoporos smaller than 4 nm. These features indicate that the sintetized zirconia powders can be potentially used to obtain ceramic membranes for ultrafiltration processes.

Page generated in 0.0893 seconds