• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1419
  • 26
  • 17
  • 6
  • 4
  • 4
  • 4
  • 4
  • 3
  • 1
  • Tagged with
  • 1491
  • 822
  • 215
  • 179
  • 171
  • 168
  • 167
  • 146
  • 138
  • 121
  • 114
  • 109
  • 108
  • 107
  • 102
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1201

Simulação do processo de desacidificação do produto líquido orgânico do craqueamento termo catalítico de óleo de palma

SANTOS, André Luiz Bonelar dos 02 July 2015 (has links)
Submitted by Cássio da Cruz Nogueira (cassionogueirakk@gmail.com) on 2017-02-13T15:10:35Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_SimulacaoProcessoDesacidificacao.pdf: 8150686 bytes, checksum: 1cc8cb22ce4b00ee907ba262cba9637b (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-02-16T12:03:25Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_SimulacaoProcessoDesacidificacao.pdf: 8150686 bytes, checksum: 1cc8cb22ce4b00ee907ba262cba9637b (MD5) / Made available in DSpace on 2017-02-16T12:03:25Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_SimulacaoProcessoDesacidificacao.pdf: 8150686 bytes, checksum: 1cc8cb22ce4b00ee907ba262cba9637b (MD5) Previous issue date: 2015-07-02 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A abordagem proposta para condução deste trabalho tem por objetivo a simulação e a análise comparativa entre duas rotas de processo, possíveis de serem aplicadas na etapa de desacidificação do produto liquido orgânico (PLO) obtido através do processo de Craqueamento Termocatalítico do óleo de palma, visando definir qual dos processos apresenta a maior eficiência operacional. Foi utilizado para a elaboração do diagrama de fluxo do processo o simulador de processos ASPEN HYSYS Versão 8.4, parte integrante do pacote computacional Aspen ONE da Aspen Technology. Os processos analisados foram o da extração liquido-liquido e o da destilação fracionada. Para o processo de desacidificação via extração liquido-liquido o diagrama de fluxo foi concebido com três estágios de extração em série, seguido de dois vasos separadores e duas colunas de destilação fracionada, uma com 10 pratos teóricos para recuperação dos hidrocarbonetos contidos na corrente de rafinado e outra com 5 pratos teóricos, para adequação da acidez contida na corrente rica em hidrocabornetos ao limite definido na norma ANP. Para o processo de desacidificação via destilação fracionada o diagrama de fluxo do processo foi constituído de uma coluna, com 25 pratos teóricos. Na simulação foram avaliados os impactos no rendimento e no consumo de insumos e utilidades do processo, causados pelas variações da acidez da corrente de alimentação, teor de água no etanol utilizado como solvente, número de pratos da coluna bem como as iniciativas de recuperação de energia perdidas ao longo do fluxo. Nas condições simuladas, ambos os processos demonstraram ser eficaz no processo de desacidificação do PLO, sendo obtido na extração liquido-liquido 80% e na destilação fracionada 91% de remoção da acidez total, entretanto a destilação fracionada demonstrou ser mais eficiente, por apresentar um custo operacional 34,1% inferior ao obtido pela extração liquido-liquido. / The suggested approach to lead this work aims at the simulation comparative analysis between two process routes, both able to be applied in the deacidification process and both responsible to adequate the Organic Liquid Product (OLP) acid obtained by the process of Thermocatalytic cracking of oil palm for separation of the fractions in derivatives step, in order to define which process performs the higher operational efficiency. To elaborate the process flow diagram it was used the process simulator ASPEN HYSYS Version 8.4, part of the package Aspen ONE from Aspen Technology. The analyzed cases were the liquid-liquid extraction and the fractional distillation. For the acidification process by liquid-liquid extraction the flow diagram was designed through three extraction stages in series, followed by two separator vessels and two distillation columns, one of them containing 10 theoretical plates for recovery of the hydrocarbons contained in the refined stream, and the other containing 05 theoretical plates to suit the acidity contained in the stream with high hydrocarbonets level to the limit set in the ANP standard. For the acidification process via fractional distillation it was designed a process flow diagram which consists of a column with 25 theoretical plates. In the simulation it was evaluated the impacts on yield and energy consumption of the process variations caused by the acidity of the feed stream, water content of the ethanol used as the solvent, number of plates of the column and energy recovery initiatives lost along the flow . In the simulated conditions, both processes have proven to be effective in the acidification process of the PLO, being obtained from the liquid-liquid extraction 80% and the fractional distillation 91% of the total acidity removal, however, the fractional distillation proved to be more effective for presenting an operating cost lower than the 34.1% obtained by liquid-liquid extraction.
1202

Seleção e construção de features relevantes para o aprendizado de máquina. / Relevant feature selection and construction for machine learning.

Lee, Huei Diana 27 April 2000 (has links)
No Aprendizado de Máquina Supervisionado - AM - é apresentado ao algoritmo de indução um conjunto de instâncias de treinamento, no qual cada instância é um vetor de features rotulado com a classe. O algoritmo de indução tem como tarefa induzir um classificador que será utilizado para classificar novas instâncias. Algoritmos de indução convencionais baseam-se nos dados fornecidos pelo usuário para construir as descrições dos conceitos. Uma representação inadequada do espaço de busca ou da linguagem de descrição do conjunto de instâncias, bem como erros nos exemplos de treinamento, podem tornar os problemas de aprendizado difícies. Um dos problemas centrais em AM é a Seleção de um Subconjunto de Features - SSF - na qual o objetivo é tentar diminuir o número de features que serão fornecidas ao algoritmo de indução. São várias as razões para a realização de SSF. A primeira é que a maioria dos algoritmos de AM, computacionalmente viáveis, não trabalham bem na presença de muitas features, isto é a precisão dos classificadores gerados pode ser melhorada com a aplicação de SSF. Ainda, com um número menor de features, a compreensibilidade do conceito induzido pode ser melhorada. Uma terceira razão é o alto custo para coletar e processar grande quantidade de dados. Existem, basicamente, três abordagens para a SSF: embedded, filtro e wrapper. Por outro lado, se as features utilizadas para descrever os exemplos de treinamento são inadequadas, os algoritmos de aprendizado estão propensos a criar descrições excessivamente complexas e imprecisas. Porém, essas features, individualmente inadequadas, podem algumas vezes serem, convenientemente, combinadas gerando novas features que podem mostrar-se altamente representativas para a descrição de um conceito. O processo de construção de novas features é conhecido como Construção de Features ou Indução Construtiva - IC. Neste trabalho são enfocadas as abordagens filtro e wrapper para a realização de SSF, bem como a IC guiada pelo conhecimento. É descrita uma série de experimentos usando SSF e IC utilizando quatro conjuntos de dados naturais e diversos algoritmos simbólicos de indução. Para cada conjunto de dados e cada indutor, são realizadas várias medidas, tais como, precisão, tempo de execução do indutor e número de features selecionadas pelo indutor. São descritos também diversos experimentos realizados utilizando três conjuntos de dados do mundo real. O foco desses experimentos não está somente na avaliação da performance dos algoritmos de indução, mas também na avaliação do conhecimento extraído. Durante a extração de conhecimento, os resultados foram apresentados aos especialistas para que fossem feitas sugestões para experimentos futuros. Uma parte do conhecimento extraído desses três estudos de casos foram considerados muito interessantes pelos especialistas. Isso mostra que a interação de diferentes áreas de conhecimento, neste caso específico, áreas médica e computacional, pode produzir resultados interessantes. Assim, para que a aplicação do Aprendizado de Máquina possa gerar frutos é necessário que dois grupos de pesquisadores sejam unidos: aqueles que conhecem os métodos de AM existentes e aqueles com o conhecimento no domínio da aplicação para o fornecimento de dados e a avaliação do conhecimento adquirido. / In supervised Machine Learning - ML - an induction algorithm is typically presented with a set of training instances, where each instance is described by a vector of feature values and a class label. The task of the induction algorithm (inducer) is to induce a classifier that will be useful in classifying new cases. Conventional inductive-learning algorithms rely on existing (user) provided data to build their descriptions. Inadequate representation space or description language as well as errors in training examples can make learning problems be difficult. One of the main problems in ML is the Feature Subset Selection - FSS - problem, i.e. the learning algorithm is faced with the problem of selecting some subset of features upon which to focus its attention, while ignoring the rest. There are a variety of reasons that justify doing FSS. The first reason that can be pointed out is that most of the ML algorithms, that are computationally feasible, do not work well in the presence of a very large number of features. This means that FSS can improve the accuracy of the classifiers generated by these algorithms. Another reason to use FSS is that it can improve comprehensibility, i.e. the human ability of understanding the data and the rules generated by symbolic ML algorithms. A third reason for doing FSS is the high cost in some domains for collecting data. Finally, FSS can reduce the cost of processing huge quantities of data. Basically, there are three approaches in Machine Learning for FSS: embedded, filter and wrapper approaches. On the other hand, if the provided features for describing the training examples are inadequate, the learning algorithms are likely to create excessively complex and inaccurate descriptions. These individually inadequate features can sometimes be combined conveniently, generating new features which can turn out to be highly representative to the description of the concept. The process of constructing new features is called Constructive Induction - CI. Is this work we focus on the filter and wrapper approaches for FSS as well as Knowledge-driven CI. We describe a series of experiments for FSS and CI, performed on four natural datasets using several symbolic ML algorithms. For each dataset, various measures are taken to compare the inducers performance, for example accuracy, time taken to run the inducers and number of selected features by each evaluated induction algorithm. Several experiments using three real world datasets are also described. The focus of these three case studies is not only comparing the induction algorithms performance, but also the evaluation of the extracted knowledge. During the knowledge extraction step results were presented to the specialist, who gave many suggestions for the development of further experiments. Some of the knowledge extracted from these three real world datasets were found very interesting by the specialist. This shows that the interaction between different areas, in this case, medical and computational areas, may produce interesting results. Thus, two groups of researchers need to be put together if the application of ML is to bear fruit: those that are acquainted with the existing ML methods, and those with expertise in the given application domain to provide training data.
1203

Propagação em grafos bipartidos para extração de tópicos em fluxo de documentos textuais / Propagation in bipartite graphs for topic extraction in stream of textual data

Faleiros, Thiago de Paulo 08 June 2016 (has links)
Tratar grandes quantidades de dados é uma exigência dos modernos algoritmos de mineração de texto. Para algumas aplicações, documentos são constantemente publicados, o que demanda alto custo de armazenamento em longo prazo. Então, é necessário criar métodos de fácil adaptação para uma abordagem que considere documentos em fluxo, e que analise os dados em apenas um passo sem requerer alto custo de armazenamento. Outra exigência é a de que essa abordagem possa explorar heurísticas a fim de melhorar a qualidade dos resultados. Diversos modelos para a extração automática das informações latentes de uma coleção de documentos foram propostas na literatura, dentre eles destacando-se os modelos probabilísticos de tópicos. Modelos probabilísticos de tópicos apresentaram bons resultados práticos, sendo estendidos para diversos modelos com diversos tipos de informações inclusas. Entretanto, descrever corretamente esses modelos, derivá-los e em seguida obter o apropriado algoritmo de inferência são tarefas difíceis, exigindo um tratamento matemático rigoroso para as descrições das operações efetuadas no processo de descoberta das dimensões latentes. Assim, para a elaboração de um método simples e eficiente para resolver o problema da descoberta das dimensões latentes, é necessário uma apropriada representação dos dados. A hipótese desta tese é a de que, usando a representação de documentos em grafos bipartidos, é possível endereçar problemas de aprendizado de máquinas, para a descoberta de padrões latentes em relações entre objetos, por exemplo nas relações entre documentos e palavras, de forma simples e intuitiva. Para validar essa hipótese, foi desenvolvido um arcabouço baseado no algoritmo de propagação de rótulos utilizando a representação em grafos bipartidos. O arcabouço, denominado PBG (Propagation in Bipartite Graph), foi aplicado inicialmente para o contexto não supervisionado, considerando uma coleção estática de documentos. Em seguida, foi proposta uma versão semissupervisionada, que considera uma pequena quantidade de documentos rotulados para a tarefa de classificação transdutiva. E por fim, foi aplicado no contexto dinâmico, onde se considerou fluxo de documentos textuais. Análises comparativas foram realizadas, sendo que os resultados indicaram que o PBG é uma alternativa viável e competitiva para tarefas nos contextos não supervisionado e semissupervisionado. / Handling large amounts of data is a requirement for modern text mining algorithms. For some applications, documents are published constantly, which demand a high cost for long-term storage. So it is necessary easily adaptable methods for an approach that considers documents flow, and be capable of analyzing the data in one step without requiring the high cost of storage. Another requirement is that this approach can exploit heuristics in order to improve the quality of results. Several models for automatic extraction of latent information in a collection of documents have been proposed in the literature, among them probabilistic topic models are prominent. Probabilistic topic models achieve good practical results, and have been extended to several models with different types of information included. However, properly describe these models, derive them, and then get appropriate inference algorithms are difficult tasks, requiring a rigorous mathematical treatment for descriptions of operations performed in the latent dimensions discovery process. Thus, for the development of a simple and efficient method to tackle the problem of latent dimensions discovery, a proper representation of the data is required. The hypothesis of this thesis is that by using bipartite graph for representation of textual data one can address the task of latent patterns discovery, present in the relationships between documents and words, in a simple and intuitive way. For validation of this hypothesis, we have developed a framework based on label propagation algorithm using the bipartite graph representation. The framework, called PBG (Propagation in Bipartite Graph) was initially applied to the unsupervised context for a static collection of documents. Then a semi-supervised version was proposed which need only a small amount of labeled documents to the transductive classification task. Finally, it was applied in the dynamic context in which flow of textual data was considered. Comparative analyzes were performed, and the results indicated that the PBG is a viable and competitive alternative for tasks in the unsupervised and semi-supervised contexts.
1204

\"Análise de fármacos em fluidos biológicos empregando o acoplamento SPME-LC/MS\" / \"Analysis of pharmaceutical compounds in biological fluids using on-line SPME-LC/MS\"

Alves, Claudete 19 April 2006 (has links)
Os métodos convencionais para a determinação de fármacos em fluidos biológicos baseiam-se em técnicas cromatográficas e imunoquímicas. O tratamento prévio de amostras biológicas, o qual abrange as etapas de extração, pré-concentração e “clean-up", tem sido requerido nas análises de fármacos, para aumentar a sensibilidade e seletividade analítica. No entanto, nos últimos anos, com o avanço das técnicas instrumentais, diversas técnicas têm sido avaliados para a análise de diferentes fármacos em fluidos biológicos, destacando-se entre elas a Microextração em Fase Sólida (SPME) e a Cromatografia Líquida acoplada a Espectrometria de Massas (LC/MS). A SPME apresenta uma série de vantagens em relação às técnicas de extração tradicionais, ou seja: não requer instrumentação analítica sofisticada, não utiliza solvente orgânico, permite automação das análises, a reutilização das fibras extratoras e integra em um único sistema, a extração, concentração e introdução da amostra no sistema cromatográfico. Neste trabalho, foi desenvolvida uma interface versátil e de baixo custo, que permite o acoplamento das técnicas SPME-LC/MS para análise dos fármacos antidepressivos tricíclicos e anticonvulsivantes. O planejamento fatorial empregado mostrou ser uma ferramenta estatística importante e simples, sendo obtido mais informações com um número menor de experimentos, avaliando não só os efeitos principais como os efeitos de interação de todas as variáveis nas respostas. As condições cromatográficas otimizadas foram adequadas para a análise por LC/MS. Os níveis de detecção alcançados ressaltam a importância e destaque da técnica de cromatografia líquida de alta eficiência acoplada à espectrometria de massas (LC/MS). O método desenvolvido, tanto para os fármacos antidepressivos tricíclicos como para os anticonvulsivantes, mostrou especificidade, precisão, linearidade e limite de quantificação adequado para a análise. / Conventional methods used for the determination of drugs in biological fluids are based on chromatographic and immunochemical techniques. The biological samples treatment - which includes extraction, pre-concentration and clean up steps – has been required in drugs analysis in order to increase both analytical sensitivity and selectivity. Nevertheless, lately, within the advancements in instrumentation, different techniques have been evaluated for the analysis of different drugs in biological fluids, such as: solid phase microextraction (SPME) and liquid chromatography coupled to mass spectrometry (LC/MS). SPME presents many advantages towards the conventional extraction techniques (soxhlet, LLE and SPE), which include: use of simple analytical instrumentation, analysis automation, reuse of extractor fibers and integration of extraction, concentration and sample introduction in the same chromatographic system. In this work, a versatile and low cost interface was developed, which allows the coupling of SPME-LC/MS techniques to tricyclic antidepressants and anticonvulsivant drugs analysis. The employed factorial design has shown to be a simple and useful statistical tool. With this device more information could be obtained with fewer experiments by evaluating not only the main interaction effects but also the interaction effects of all variables on the results. The optimized chromatographic conditions were adequate for LC/MS analysis. The obtained detection levels highlight the importance of high performance liquid chromatography coupled to mass spectrometry (LC/MS). The developed method, for both tricyclic antidepressants and anticonvulsivants drugs, has presented specificity, accuracy, linearity and adequate limit of detection for this analysis.
1205

Extração de diterpenos de café verde: modelagem fenomenológica e caracterização de parâmetros via método lattice Boltzmann / Diterpene extraction of green coffee beans: phenomenological modeling and characterization of parameters by lattice Boltzmann method

Rosa, Robson Humberto 15 September 2014 (has links)
Por meio do método lattice Boltzmann (LBM), este projeto de pesquisa propõe a simulação computacional da extração dos compostos diterpênicos do café verde em sistemas com fluido pressurizado. Para isso foi adotado um modelo fenomenológico dinâmico e de primeira ordem quanto à dependência espacial. Usando a rede D1Q2, o LBM foi implementado com duas funções de distribuição de partículas, acompanhadas das respectivas funções de distribuição de equilíbrio. Cada função refere-se à concentração em uma dada fase (sólida e fluida). A previsão das curvas de rendimento pressupõe o conhecimento dos parâmetros do processo, tais como a difusividade mássica interna (intrapartícula), o coeficiente de partição volumétrica e a difusividade mássica axial. Para o devido ajuste destes parâmetros contra dados experimentais, foi desenvolvido um código computacional utilizando a técnica de gradiente descendente. Resultados numéricos das simulações foram comparados com dados experimentais e mostraram-se satisfatórios. Adicionalmente, foi realizada a análise da influência dos parâmetros supracitados mediante a criação de uma interface gráfica amigável para o código computacional original. Este projeto de pesquisa, além de fomentar a agregação de valor ao café, desenvolveu competências em modelagem e simulação de processos de extração de espécies químicas a partir de métodos numéricos. / Using the lattice Boltzmann method (LBM), this research project proposes a computer simulation of diterpene compounds extraction from green coffee beans in high pressure fluid systems. In order to do so, a dynamic phenomenological model with first-order spatial dependence was adopted. LBM was implemented on D1Q2 lattice, using two particle distribution functions, followed by the respective equilibrium distribution functions. Each function refers to the extract concentration in each phase, namely solid and fluid. Prediction of extract yield curves relies on process parameters such as internal (i.e., intraparticle) mass diffusivity, volumetric partition coefficient and axial mass diffusivity. Values of aforesaid parameters were fitted against experimental data via descendent gradient technique coupled to the LBM computer code and numerically simulated result were consistent. Besides modeling and simulation, this project performed the influence analysis of those process parameters. To this end, a user-friendly graphical interface for the original computer code was created. While fostering value to be added to coffee, this research project develops skills in modeling and simulation of chemical species extraction through numerical methods.
1206

Determinação dos desreguladores endócrinos bisfenol-A, b-estradiol, 17 a-etinilestradiol e estrona no rio Paraíba do Sul / Determination of Disruptors Endocrine Bisphenol-A, ?-estradiol, 17?-ethinylestradiol and estrone of the Paraíba do Sul River

Chaves, Kélen Siqueira 18 December 2015 (has links)
O Rio Paraíba do Sul é um dos mais importantes mananciais da região sudeste, mas devido ao aumento da população e ao crescimento industrial da região, o rio vem sofrendo grandes alterações de natureza antropológica muito em parte devido a elevada carga de descarte de esgoto doméstico e industrial. Assim, é de se esperar, que o rio receba grande concentração de contaminantes tanto em matéria orgânica como também outros contaminantes, como os microcontaminantes. Dentre esses compostos se incluem os fármacos, produtos de higiene pessoal, pesticidas e os Desreguladores Endócrinos (DEs), que é uma classe de substância que vem sendo muito investigada atualmente devido aos efeitos causados em organismos expostos e que chegam ao ambiente principalmente através do descarte de efluente doméstico e industrial. Os DEs são substâncias exógenas, que podem afetar negativamente o funcionamento do sistema endócrino levando a alterações no crescimento, desenvolvimento e reprodução. Essas substâncias vêm sendo detectadas em todo o mundo em pequenas concentrações (?g e ng), mas mesmo assim possuem capacidade de interagir com organismos expostos e causar algum tipo de efeito. Neste trabalho foram analisadas amostras de água superficial, a 0,60 m e 1,20 m de profundidade, na cidade de Aparecida no Estado de São Paulo, em um ponto próximo a captação de água para abastecimento público, sendo este mesmo ponto a aproximadamente 50 m a jusante do descarte de esgoto do Santuário Nacional e de bairros próximos. As amostras foram analisadas pelo método de HPLC-UV que foi desenvolvido para análise dos DEs Bisfenol-A (BFA), ?-estradiol (E2), 17?-etinilestradiol (EE2) e Estrona (E1). O método foi validado e se mostrou adequado. Foram realizados estudos das variáveis precipitação pluviométrica, radiação ultravioleta (UV), pH, temperatura da água e número de visitantes presentes na cidade, em função da concentração dos DEs encontrados nas amostras. Os resultados mostraram a presença dos analitos de interesse em concentrações elevadas. O BFA foi efetivamente detectado em 16,7% das amostras em concentrações que variaram de 0,032 ± 0,009 a 0,088 ±0,06 ?g.L-1. O E2 foi efetivamente detectado em 39,2% das amostras com valores variando de 0,009 ± 0,002 a 0,40 ±0,08 ?g.L-1. O EE2 foi efetivamente detectado em 45,1% das amostras com valores variando de 0,07 ± 0,01 a 0,6 ±0,1 ?g.L-1 . O E1 foi efetivamente detectado em 90,2% das amostras com valores variando de 0,107 ± 0,08 a 0,91 ±0,07 ?g.L-1. A análise estatística dos resultados mostrou que somente parte das variáveis estudadas apresentou correlação. Foram estabelecidas correlações entre índice pluviométrico e BFA, temperatura e concentrações de E1 e EE2, pH e concentrações de BFA, E1 e EE2 e número de visitantes com EE2. As demais variáveis não apresentaram nenhuma correlação. / The Paraíba do Sul River is one of the most important water sources in the Brazilian Southeast, but due to increasing population and industrial growth in the region, the river has undergone great anthropological changes mostly due to high domestic sewage disposal and industrial charges. Thus, it is expected that the river receives large concentration of contaminants both in organic matter as well as other contaminants, such as microcontaminants. Among these compounds include pharmaceuticals, personal care products, pesticides and Endocrine Disruptors (EDs), which is a class of substances that has been widely currently investigated due to the effects in exposed organisms and reach the environment mainly through the disposal domestic and industrial effluent. The EDs are exogenous substances that can adversely affect the functioning of the endocrine system leading to changes in growth, development and reproduction. These substances have been detected worldwide in small concentrations (?g and ng), but yet have the capacity to interact with exposed organisms and cause some kind of effect. In the present study the river water samples were collected at surface, at 0.60 m and 1.20 m deep in the city of Aparecida in São Paulo, at a point close to abstraction of water for public supply, which is also located about 50 m downstream of the sewage disposal of the National Shrine and nearby neighborhoods. The samples were analyzed by HPLC-UV method developed for analysis of EDs Bisphenol A (BFA), ?-estradiol (E2), 17?-ethinylestradiol (EE2), and estrone (E1). The method was validated and proved adequate. Studies have been conducted considering as variables the rainfall, ultraviolet radiation (UV), pH, water temperature and number of visitors present in the city, depending on the concentration of EDs found in the samples. The results showed the presence of the analytes at high concentrations. The BFA was effectively detected in 16.7% of the samples at concentrations ranging from 0.032 ± 0.009 to 0.088 ± 0.06 ?g.L-1. E2 was effectively detected in 39.2% of the samples with values ranging from 0.009 ± 0.002 to 0.40 ± 0.08 ?g.L-1. The EE2 was effectively detected in 45.1% of the samples with values ranging from 0.07 ± 0.01 to 0.6 ± 0.1 ?g.L-1. The E1 was effectively detected in 90.2% of the samples with values ranging from 0.107 ± 0.08 to 0.91 ± 0.07 ?g.L-1. Statistical analysis of the results showed that only part of the variables correlated. Correlations have been established between rainfall and BFA, temperature and concentrations of E1 and EE2, pH and concentrations of BFA, E1 and EE2 and number of visitors with EE2. The other variables did not show any correlation.
1207

Desenvolvimento e validação de método para a identificação de micro-organismos metabolicamente ativos em biofilmes de amostras ambientais através da análise de rRNA 16S. / Development and validation of method for the identification of metabolically active microorganisms in biofilms of environmental samples by 16S rRNA analysis.

Nammoura Neto, Georges Mikhael 19 February 2018 (has links)
A otimização e padronização de métodos moleculares são fundamentais para evitar distorções nos resultados causadas por processamento de ácidos nucleicos da abundância relativa de micro-organismos de uma amostra. Nos estudos sobre identificação microbiana, a etapa de validação é, na maioria dos casos, negligenciada. As principais etapas em que podem ocorrer vieses capazes de alterar a informação sobre a composição da comunidade microbiana são a extração e a RT-PCR. O rRNA é a molécula ideal para identificar os micro-organismos metabolicamente ativos por estar em maior quantidade dentro da célula. A inexistência de um protocolo de extração de RNA gold standard e de kits comerciais específicos para cada tipo de amostra ambiental pode comprometer as etapas posteriores à extração. O protocolo de extração de RNA adaptado neste trabalho mostrou alta eficácia na lise celular e na remoção de contaminantes co-extraidos, garantindo a integridade e a qualidade do rRNA extraído de amostras contendo altas concentrações de contaminantes. Devido as diferentes características químicas das amostras ambientais, o uso deste protocolo adaptado pode preservar a informação sobre os indivíduos metabolicamente ativos de uma comunidade microbiana. Foram utilizados consórcios artificiais na validação da etapa de PCR. O efeito sinérgico do uso de aditivos, da Taq polimerase de alto rendimento, do programa de sub-ciclagem e da limitação do programa de amplificação em 10 ciclos, mantiveram a proporção dos moldes dos consórcios analisados próximo ao esperado. Após a padronização da técnica de ARDRA, foi definido que há necessidade de entre 500 e 550 UFC para uma cobertura completa da diversidade de lodo ativado. O uso de enzimas combinadas MspI/HaeIII e HhaI/RsaI em uma mesma reação double digest proporcionou a separação dos clones de lodo ativado utilizando menos etapas de ARDRA. E o critério de corte em 3% do total agrupamentos, possibilitou selecionar os perfis mais representativos sem a perda de grupos importantes para a análise das bibliotecas. Foi concluído que, o uso de um protocolo inadequado de extração de RNA de amostras complexas pode gerar extratos contendo contaminantes co-extraidos que interferem na atividade da Taq polimerase e nas enzimas de restrição. Após o sequenciamento de nova geração, foi observado que o uso de diferentes iniciadores de PCR e do pré-processamento manual para os dados obtidos, foram essenciais para ampliar a cobertura observada para a amostra de lodo e melhorar a resolução dos resultados e a profundidade de identificação taxonômica, respectivamente. / The optimization and standardization of molecular methods are fundamental to avoid distortions in the results caused by nucleic acid processing of the relative abundance of microorganisms in a sample. In the studies on microbial identification, the validation step is, in most cases, neglected. The main steps in which biases capable of altering the composition of the microbial community can occur are extraction and RT-PCR. The rRNA is the ideal molecule to identify metabolically active microorganisms because they are in the greatest amount within the cell. The lack of a gold standard RNA extraction protocol and specific commercial kits for each type of environmental sample may compromise the post-extraction steps. The RNA extraction protocol adapted in this work showed high efficacy in cell lysis and in the removal of co-extracted contaminants, guaranteeing the integrity and quality of the rRNA extracted from samples containing high concentrations of contaminants. Due to the different chemical characteristics of the environmental samples, the use of this adapted protocol can preserve the information about the metabolically active individuals of a microbial community. Artificial consortia were used to validate the PCR step. The synergistic effect of the use of additives, the high yield Taq polymerase, the sub-cycling program and the limitation of the amplification program in 10 cycles, kept the proportion of the molds of the consortia analyzed close to the expected. After standardization of the ARDRA technique, it was defined that there is a need for between 500 and 550 CFU for a complete coverage of the diversity of activated sludge. The use of MspI / HaeIII and HhaI / RsaI combined enzymes in the same double digest reaction provided the separation of activated sludge clones using fewer ARDRA steps. And the criterion of cut in 3% of the total groupings, allowed to select the most representative profiles without the loss of important groups for the analysis of the libraries. It was concluded that the use of an inadequate RNA extraction protocol from complex samples can generate extracts containing co-extracted contaminants that interfere with Taq polymerase activity and restriction enzymes. After the sequencing of the new generation, it was observed that the use of different PCR primers and manual preprocessing for the obtained data were essential to increase the coverage observed for the sludge sample and to improve the resolution of the results and the depth of taxonomic identification, respectively.
1208

Desenvolvimento de procedimentos analíticos limpos e com alta sensibilidade para a determinação de espécies de interesse ambiental / Development of clean analytical procedures with high sensitivity for determination of species of environmental interest

Melchert, Wanessa Roberto 28 May 2009 (has links)
Procedimentos analíticos limpos e com alta sensibilidade foram desenvolvidos para a determinação de espécies de interesse ambiental (carbaril, sulfato e cloro livre). Os procedimentos foram baseados no acoplamento de sistemas de análises em fluxo com microbombas solenoides à espectrofotometria com longo caminho óptico ou em procedimentos de extração em ponto nuvem, visando a concentração das espécies de interesse sem o emprego de solventes tóxicos. A determinação de carbaril em águas naturais foi baseada em uma dupla extração em ponto nuvem: uma etapa de clean-up para a remoção de substâncias orgânicas interferentes e outra de pré-concentração do indofenol formado na reação com a forma oxidada do p-aminofenol. Resposta linear foi observada entre 10 e 500 µg L-1, com absortividade molar aparente estimada em 4,6x105 L mol-1 cm-1. O limite de detecção foi estimado em 7 µg L-1 e coeficiente de variação em 3,4% (n = 8). Recuperações entre 91 e 99% foram estimadas para adições de carbaril em amostras de águas naturais. Uma cela simples e de baixo custo com 30 cm de caminho óptico foi construída para medidas espectrofotométricas. A cela apresenta características desejáveis como baixa atenuação do feixe de radiação e volume interno (75 µL) comparável a de uma cela convencional. O desempenho da cela foi avaliado na determinação de fosfato utilizando o método azul de molibdênio com resposta linear obtida entre 0,05 e 0,8 mg L-1 de fosfato (r = 0,999). O aumento na sensibilidade (30,4 vezes) em comparação com o obtido com uma cela de fluxo convencional de 1 cm está de acordo com o estimado pela lei de Lambert-Beer. A formação do indofenol foi também explorada para a determinação de carbaril no procedimento em fluxo com celas de 30 e 100 cm. Respostas lineares; limite de detecção e coeficiente de variação foram estimados entre 50 - 750 e 5 - 200 µg L-1; 4,0 e 1,7 µg L-1 e 2,3 e 0,7%, respectivamente, para as celas de 30 e 100 cm. O procedimento proposto foi seletivo para a determinação de carbaril, sem interferências de outros pesticidas carbamatos. O resíduo gerado foi tratado com persulfato de potássio e irradiação ultravioleta, com redução de 94% do carbono orgânico total, não sendo o resíduo degradado considerado tóxico, frente às bactérias Vibrio-fischeri. A determinação de sulfato foi baseada em medidas turbidimétricas com cela de fluxo de 1 cm, com resposta linear observada entre 20 - 200 mg L-1. Deriva de linha base não foi observada em função do fluxo pulsado gerado pelas microbombas solenoides. O limite de detecção e o coeficiente de variação (n = 20) foram estimados em 3 mg L-1 e 2,4%, respectivamente, com frequência de amostragem de 33 determinações por hora. Para aumentar a sensibilidade, uma cela de fluxo de 100 cm foi empregada e deriva de linha base foi evitada utilizando uma etapa de limpeza periódica com EDTA em meio alcalino. Resposta linear foi observada entre 7 - 16 mg L-1 com limite de detecção de 150 µg L-1 e coeficiente de variação de 3,0% (n = 20). A frequência de amostragem foi estimada em 25 determinações por hora. Resultados obtidos para amostras de águas naturais e de chuva foram concordantes a nível de confiança de 95% com o procedimento turbidimétrico em batelada. A determinação de cloro livre em águas naturais e de torneira foi baseada na reação com N,N-dietil-p-fenilenodiamina, com resposta linear entre 5 e 100 µg L-1 de hipoclorito e limite de detecção e coeficiente de variação estimados em 0,23 µg L-1 e 3,4%, respectivamente. A frequência de amostragem foi estimada em 58 determinações por hora. / Clean analytical procedures with high sensitivity for the determination of species of environmental interest (carbaryl, sulphate and chlorine) were developed. Flow systems with solenoid micropumps were coupled to long optical pathlength spectrophotometry or cloud point extraction procedures, aiming the concentration of species for determination without employing toxic solvents. Carbaryl determination in natural waters was based on a double cloud point extraction: a clean-up step for removal of interfering organic species and pre-concentration of the indophenol blue, formed in the reaction with the oxidized of p-aminophenol. Linear response was observed between 10 and 50 µg L-1, with apparent molar absortivity estimated as 4.6x105 L mol-1 cm-1. Detection limit was estimated as 7 mg L-1 and the coefficient of variation as 3.4% (n = 8). Recoveries between 91 and 99% were obtained for carbaryl spiked to natural waters. A simple and low cost flow cell with 30 cm optical path was constructed for spectrophotometric measurements. The cell shows desirable characteristics such as reduced attenuation of the radiation beam and internal volume (75 µL) comparable to conventional flow cells. The performance was evaluated by phosphate determination by the molibdenium blue method, with linear response between 0.05 and 0.8 mg L-1 of phosphate (r = 0.999). The increase in sensitivity (30.4 fold) in comparison to the obtained with a conventional 1 cm optical path flow cell agreed to theoretical value estimated by the Lambert-Beer law. The determination of carbaryl was also carried out in a flow system coupled to 30 and 100 cm optical path flow cells, also exploiting the formation of indophenol compound. Linear responses, detection limits and coefficients of variation were 50 - 750 and 5 - 200 µg L-1;4.0 and 1.7 µg L-1 and 2.3 and 0.7%, respectively, for 30 and 100 cm cells. The proposed procedure was selective for the determination of carbaryl, without interferences of other carbamate pesticides. The waste of the analytical procedure was treated with potassium persulphate and ultraviolet irradiation, with decrease of 94% of total organic carbon. The residue after treatment was not toxic for Vibrio-fischeri bacteria. Sulphate determination was based on turbidimetric measurements with 1-cm flow cell, with linear response between 20 and 200 mg L-1. Baseline drift was avoided in view of the pulsed flow related to the solenoid micropumps. The detection limit and the coefficient of variation were estimated as 3 mg L-11 and 2.4%, respectively, for a sampling rate of 33 determinations per hour. Aiming the increase in sensitivity, a 100 cm optical path flow cell was employed and baseline drift was avoided with a washing, step employing EDTA in alkaline medium. Linear response was observed between 7 - 16 mg L-1, with a detection limit of 150 µg L-1, coefficient of variation of 3.0% (n = 20) and sampling rate of 25 determinations per hour. Results obtained natural and rain for water samples agreed at 95% confidence level with the batch turbidimetric procedure. The determination of free chlorine in natural and tap waters was based on the reaction with N,N-diethyl-p-phenylenediamine, with linear response between 5 and 100 µg L-1, and detection limit and coefficient of variation estimated as 0.23 µg L-1 and 3.4%, respectively. Sampling rate was estimated as 58 determinations per hour.
1209

Extração de óleo de amêndoas de baru via solventes alcoólicos: avaliação da composição do óleo, das alterações proteicas e estudo da recuperação do solvente / Extraction of baru almond oil by alcoholic solvents: evaluation of oil composition, of proteic fraction and study of recovery of solvents

Aracava, Keila Kazue 12 February 2019 (has links)
Na presente Tese de Doutorado objetivou-se avaliar a viabilidade técnica da substituição do solvente hexana, de fonte não renovável e industrialmente utilizado na extração de óleos vegetais, por solventes geralmente reconhecidos como seguros (GRAS), tais como álcoois de cadeia curta, etanol ou isopropanol, com diferentes graus de hidratação. Em adição, uma propriedade específica dos álcoois de cadeia curta foi estudada, miscibilidade parcial entre álcoois e óleo, objetivando-se a recuperação do solvente, etapa posterior ao processo de extração de óleo, denominada de dessolventização. Nesse sentido, torta de amêndoas de baru proveniente da prensagem mecânica industrial foi submetida à extração, com etanol ou isopropanol, absoluto ou azeotrópico, nas temperaturas de 60 a 90 °C, em um único estágio de contato. Os resultados mostraram que a adição de água ao solvente alcoólico impactou negativamente na eficiência de extração de óleo, enquanto o aumento da temperatura favoreceu este processo, sendo que com solvente isopropanol absoluto, a 80 °C, foi possível extrair aproximadamente 91 % do óleo disponível. Em temperaturas acima de 80 °C, os solventes utilizados, com exceção do etanol azeotrópico, apresentaram rendimentos de extração de óleo estatisticamente iguais. A composição em ácidos graxos dos óleos obtidos da extração alcoólica sequencial foi característica de óleo de amêndoas de baru, com predominância dos ácidos graxos insaturados oleico e linoleico e do saturado palmítico (aproximadamente 51, 28 e 7 %, respectivamente), independentemente da condição de processo empregada. Ainda, a extração alcoólica sequencial não influenciou nos teores dos isômeros α- e γ- tocoferol e no teor total de tocoferóis. Em relação ao estudo da fração proteica, dos sólidos desengordurados provenientes da extração alcoólica sequencial em três e dois estágios, para as temperaturas 60 e 90 °C, respectivamente, tanto a solubilidade proteica como a estabilidade térmica dos sólidos foram afetadas, sendo o índice de solubilidade de nitrogênio afetado negativamente pela hidratação do solvente alcoólico, temperatura de processo e número de estágios de contato. De uma maneira geral, a extração de óleo com solventes alcoólicos proporcionou a obtenção de um material sólido desengordurado com melhorias na capacidade de absorção de água e de óleo. Adicionalmente, verificou-se que o processo de extração alcoólica exerceu influência negativa na atividade emulsificante e positiva na capacidade de formação e estabilidade de espuma. Ademais, no estudo da recuperação do solvente, dados de equilíbrio de fases determinados para sistemas lipídicos compostos por óleo de torta de amêndoas de baru, obtido da prensagem mecânica industrial, e solventes alcoólicos, na faixa de temperatura de 15 a 60 °C, mostraram que a temperatura exerceu maior influencia na solubilidade mútua dos componentes dos sistemas com solventes absolutos em comparação aos sistemas com solventes azeotrópicos, enquanto a hidratação do solvente levou a diminuição da solubilidade, com consequente redução do coeficiente de partição do óleo. Parâmetros do modelo NRTL ajustados aos dados experimentais apresentaram adequada descrição do comportamento dos sistemas lipídicos, com desvios nas frações mássicas variando de 0,0014 a 0,0086. / The aim of this Ph.D. Thesis was to evaluate the technical feasibility of replacing the solvent hexane, from a non-renewable source and industrially used in the extraction of vegetable oils, by solvents generally recognized as safe (GRAS), such as short chain alcohols, ethanol or isopropanol, with different levels of hydration. In addition, a specific property of the short-chain alcohols, the partial miscibility between alcohols and oil, has been studied aiming at recovering the solvent after the oil extraction process, called desolventization. In this sense, baru almond cake from industrial mechanical pressing was subjected to extraction with ethanol or isopropanol, absolute or azeotropic degress, at temperatures from 60 up to 90 °C, in a single contact stage. Results showed that the addition of water to the alcoholic solvent negatively affected the oil extraction efficiency, while the increase in temperature favored this process. It was possible to extract approximately 91 % of the oil with absolute isopropanol solvent at 80 °C. At temperatures above 80 °C, the solvents, with the exception of azeotropic ethanol, showed no statistical differences regarding extraction yields. The fatty acid composition of oils obtained from sequential alcoholic extraction was characteristic of baru almond oil, with predominance of oleic and linoleic unsaturated fatty acids and palmitic saturated fatty acid (approximately 51, 28 and 7%, respectively), regardless of the condition of used. Also, the sequential alcoholic extraction did not influence the contents of the α- and γ-tocopherol isomers and the total content of tocopherols. In relation to the protein fraction study, of the defatted solids from the sequential alcoholic extraction in three and two stages, for the temperatures of 60 and 90 °C, respectively, the protein solubility and the thermal stability of the solids were affected, being the nitrogen solubility index negatively affected by the hydration of the alcoholic solvent, by the process temperature and by the number of contact stages. In general, the extraction of oil with alcoholic solvents provided a defatted solid material with improvements in water and oil absorption capacities. Additionally, it was verified that the process of alcoholic extraction exerted a negative influence on the emulsifying activity and a positive on the capacity of foam formation and stability. Moreover, in the study of solvent recovery, phase equilibrium data determined for lipid systems composed of baru almond cake oil, obtained from industrial mechanical pressing, and alcoholic solvents, in the temperature range from 15 up to 60 °C, showed that the temperature exhibited the higher influence on the mutual solubility of the components of the system with absolute solvents compared to systems with azeotropic solvents, while the hydration of the solvent led to a decrease in solubility, with consequent reduction of the partition coefficient of the oil. NRTL model parameters adjusted to the experimental data presented an adequate description of the behavior of the lipid systems, with deviations in mass fractions varying from 0.0014 to 0.0086.
1210

Extração de energia através da técnica power harvesting baseada em vibrações mecânicas e transdutores piezelétricos /

Souza, Flavilene da Silva January 2018 (has links)
Orientador: Jozue Vieira Filho / Resumo: Neste trabalho foram realizados estudos, análises, simulações e implementações de um sistema de power harvesting utilizando transdutores piezelétricos, com o objetivo de extrair a máxima potência. A fim de alcançar tal objetivo, o sistema mecânico e a interface elétrica foram analisados com foco na quantidade de potência extraída. Com os resultados básicos desses estudos, tem-se que o desempenho de tais sistemas depende da interação eletromecânica, da deformação, da frequência de excitação e da carga conectada. Com exceção do último, esses parâmetros não interferem no modelo tradicional de simulação no SPICE. Para aprimorar os resultados da simulação, foi proposta uma metodologia para a modelagem do sistema mecânico com a interface elétrica, implementada e avaliada em MATLAB/Simulink e em SPICE com VHDL-AMS. Além disso, um novo circuito eletrônico, denominado Conversor Direto CA-CC com Chaveamento Sincronizado - CDCS, foi projetado para maximizar a potência média extraída e reduzir sua dependência com a frequência de excitação e com a carga conectada. Os resultados das simulações foram comparados com dados experimentais para os circuitos eletrônicos retificador em ponte e SSHI em paralelo. A modelagem desenvolvida em SPICE com VHDL-AMS apresentou melhores resultados, pois permite uma modelagem mais precisa dos componentes eletrônicos sem comprometer o domínio mecânico. Comparado com três circuitos existentes na literatura (retificador em ponte, SSHI em paralelo e SECE), o cir... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: In this work studies, analysis, simulations and the implementation of power harvesting system using piezoelectric transducer were done aiming to extract its maximum power. In order to achieve this goal, the mechanical system and electrical interface were analyzed especially focused on the amount of power that can be able to extracted. The conclusion of these studies was that the system performance depends of the electromechanical interaction, deformation, excitation frequency and the connected load. Except for the latter, these parameters does not interfered in the standard model by SPICE. To improve the simulation results, a novel methodology for modeling the mechanical system with electrical interface was proposed. It was implemented and evaluated in MATLAB/Simulink and in SPICE with VHDL-AMS. In addition, a new electronic circuit, well know as Direct AC-DC Converter with Synchronous Switch (CDSS), was designed to improve the extract power and the response at the frequency of excitation and the connected load. The simulation results were compared with experimental data for the electronic circuits: bridge rectifier and P-SSHI. The SPICE with VHDL-AMS model offered the best results, since it allows accurate model for the electrical component without compromising the mechanical system. The performance of the proposed circuit was compared with three electronic circuits (bridge rectifier, P-SSHI and SECE). The results show that the proposed circuit presented the higher power ext... (Complete abstract click electronic access below) / Doutor

Page generated in 0.052 seconds