• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1365
  • 26
  • 24
  • 23
  • 23
  • 22
  • 18
  • 13
  • 5
  • 3
  • 3
  • 3
  • 3
  • 2
  • 1
  • Tagged with
  • 1425
  • 612
  • 201
  • 178
  • 173
  • 169
  • 169
  • 147
  • 141
  • 123
  • 122
  • 115
  • 85
  • 84
  • 82
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Usando bases de dados relacionais para geração semi-automática de ontologias destinadas à extração de dados

Vivan, Orlando Miguel January 2003 (has links)
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
392

Modelo de metadados para armazenamento e recuperação de imagens estáticas no formato DICOM

Machado, Miriam Schacker January 2002 (has links)
Em linhas gerais, este trabalho aborda os temas de armazenamento de grandes volumes de imagens no formato DICOM, e a recuperação das mesmas com base em informações associadas a estas imagens (metadados independentes do conteúdo), informações obtidas na fase da interpretação das imagens (metadados descritivos de conteúdo), ou usando informações visuais que foram anotadas nas imagens ou extraídas das mesmas, por médicos especialistas em imagens médicas (metadados dependentes do conteúdo). Este trabalho foi desenvolvido com o propósito de elaborar uma modelagem conceitual que permita a descrição dos dados relevantes de imagens no formato DICOM, de maneira a facilitar a recuperação das mesmas posteriormente. As classes pertencentes ao modelo conceitual, decorrentes dessa modelagem, viabilizam a documentação de imagens médicas estáticas no formato DICOM. Visando o armazenamento de um grande volume de imagens médicas por um longo período de tempo, e considerando o desenvolvimento de uma solução economicamente viável para as instituições que provêm diagnóstico médico por imagens, o modelo propõe o armazenamento das imagens em um ambiente separado do banco de dados. Portanto, este trabalho apresenta uma solução que gerencia a localização das imagens em mídias on-line, near-line e off-line. Este gerenciamento mantém o banco de dados atualizado quanto à localização atual das imagens, mantém as imagens armazenadas e distribuídas em mídias conforme a disponibilidade dos recursos físicos de armazenamento, e auxilia na recuperação das imagens. Este modelo serviu como base para a implementação de um sistema protótipo que possibilita a descrição e a recuperação de imagens DICOM. Os resultados obtidos através da implementação do sistema protótipo, em termos de armazenamento, recuperação e gerenciamento da localização das imagens nos diferentes ambientes (online, near-line e off-line), são apresentados e discutidos.
393

Abordagem baseada em conceitos para descoberta de conhecimento em textos

Loh, Stanley January 2001 (has links)
Esta tese apresenta uma abordagem baseada em conceitos para realizar descoberta de conhecimento em textos (KDT). A proposta é identificar características de alto nível em textos na forma de conceitos, para depois realizar a mineração de padrões sobre estes conceitos. Ao invés de aplicar técnicas de mineração sobre palavras ou dados estruturados extraídos de textos, a abordagem explora conceitos identificados nos textos. A idéia é analisar o conhecimento codificado em textos num nível acima das palavras, ou seja, não analisando somente os termos e expressões presentes nos textos, mas seu significado em relação aos fenômenos da realidade (pessoas, objetos, entidades, eventos e situações do mundo real). Conceitos identificam melhor o conteúdo dos textos e servem melhor que palavras para representar os fenômenos. Assim, os conceitos agem como recursos meta-lingüísticos para análise de textos e descoberta de conhecimento. Por exemplo, no caso de textos de psiquiatria, os conceitos permitiram investigar características importantes dos pacientes, tais como sintomas, sinais e comportamentos. Isto permite explorar o conhecimento disponível em textos num nível mais próximo da realidade, minimizando o problema do vocabulário e facilitando o processo de aquisição de conhecimento. O principal objetivo desta tese é demonstrar a adequação de uma abordagem baseada em conceitos para descobrir conhecimento em textos e confirmar a hipótese de que este tipo de abordagem tem vantagens sobre abordagens baseadas em palavras. Para tanto, foram definidas estratégias para identificação dos conceitos nos textos e para mineração de padrões sobre estes conceitos. Diferentes métodos foram avaliados para estes dois processos. Ferramentas automatizadas foram empregadas para aplicar a abordagem proposta em estudos de casos. Diferentes experimentos foram realizados para demonstrar que a abordagem é viável e apresenta vantagens sobre os métodos baseados em palavras. Avaliações objetivas e subjetivas foram conduzidas para confirmar que o conhecimento descoberto era de qualidade. Também foi investigada a possibilidade de se realizar descobertas proativas, quando não se tem hipóteses iniciais. Os casos estudados apontam as várias aplicações práticas desta abordagem. Pode-se concluir que a principal aplicação da abordagem é permitir análises qualitativa e quantitativa de coleções textuais. Conceitos podem ser identificados nos textos e suas distribuições e relações podem ser analisadas para um melhor entendimento do conteúdo presente nos textos e, conseqüentemente, um melhor entendimento do conhecimento do domínio.
394

Extração semântica de dados semi-estruturados através de exemplos e ferramentas visuais

Silveira, Iraci Cristina da January 2001 (has links)
Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.
395

Efeitos do fogo sobre o banco de sementes de gramíneas exóticas invasoras e sobrevivência de plântulas arbóreas em áreas em restauração no Cerrado

Tinoco, Carla Faleiro 14 March 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Biológicas, Departamento de Ecologia, Programa de Pós-Graduação em Ecologia, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-07-14T17:51:28Z No. of bitstreams: 1 2017_CarlaFaleiroTinoco.pdf: 1518582 bytes, checksum: 07f1f47a6353fa7e573fec7367b2508b (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-07-27T22:29:45Z (GMT) No. of bitstreams: 1 2017_CarlaFaleiroTinoco.pdf: 1518582 bytes, checksum: 07f1f47a6353fa7e573fec7367b2508b (MD5) / Made available in DSpace on 2017-07-27T22:29:45Z (GMT). No. of bitstreams: 1 2017_CarlaFaleiroTinoco.pdf: 1518582 bytes, checksum: 07f1f47a6353fa7e573fec7367b2508b (MD5) Previous issue date: 2017-07-27 / O sucesso de esforços de restauração no Cerrado depende de técnicas de controle de gramíneas africanas bem como do estabelecimento de espécies nativas. O fogo pode facilitar o início do processo de restauração antes do preparo do solo em áreas invadidas por gramíneas exóticas, mas após o plantio de espécies nativas sua ocorrência pode causar mortalidade ou atraso no crescimento de plântulas. Neste trabalho, estudamos efeitos do fogo em duas etapas distintas da restauração. Testamos como diferentes intensidades de preparo do solo envolvendo fogo e gradeamento afetam o banco de sementes de Urochloa spp.. Para isto, coletamos 160 amostras de solo em oito tratamentos em abril/2016, estas amostras de solo permaneceram em casa de vegetação com irrigação por seis meses. A densidade de plântulas de Urochloa spp. variou de 100 a 9 sementes/m², tento sido mais reduzida no tratamento com duas gradagens do solo. A queima recente (abril/2016) estimulou a germinação de sementes do banco e pode ser técnica útil para o manejo das espécies invasoras, desde que associado ao gradeamento do solo. Avaliamos também efeitos do fogo sobre a sobrevivência e crescimento de plântulas de 20 espécies lenhosas com dois e três anos de idade. O fogo causou baixa mortalidade, que foi foi fortemente determinada pela espécie, independente da idade e tratamento. Quase todas as plantas queimadas perderam a parte aérea (topkill) e rebrotaram a partir da raiz, apresentando redução de altura um ano após a queima em comparação com plantas não queimadas. Sugerimos um manejo intensivo e integrado de gramíneas exóticas, incluindo fogo e gradagens repetidas e seleção de espécies resistentes ao fogo para aumentar as chances do sucesso de programas de restauração ecológica de savanas. / The success of ecological restoration in the Cerrado depends on control techniques of African grasses and on the establishment of native species. Fire can facilitate the beginning of the restoration process during soil preparation in areas invaded by invasive grasses, but after native plants introduction fire can cause plant mortality or delays in plant growth. We studied fire effects in two distinct restoration stages in Parque Nacional da Chapada dos Veadeiros, GO e na Reserva Biológica da Contagem, DF.We tested how different intensities of soil preparation involving fire and soil plowing affected Urochloa spp.’s seed bank. For that, we collected 160 soil samples in eight treatments in April/2016 and kept them in irrigated in greenhouse for six months. Urochloa spp. seedling densityranged from 100 to 9 seedlings/m², and it was siginificantly reduced by the two soil plowing treatment. A recent fire (April/2016) stimulate seedling emergency and could be a useful technique for invasive grass management, when associated to soil plowing. We also evaluated fire effects on the survival and growth of 2 and 3 years old saplings of 20 woody species. Sapling survival was determined by species and fire cause low mortality rates. Nearly all burnt saplings lost the aerial part (topkill) and resprout from roots and had lower height one year after fire, compared to unburnt plants. We suggest intensive and integrated management of exotic grasses, including fire and repeated soil plowing, and the selection of fire-resistant species to increase the chances of successful ecological savanna restoration programs.
396

Data Warehouse na prática : fundamentos e implantação / Date warehouse in practice: foundations and implementation

Ferreira, Rafael Gastão Coimbra January 2002 (has links)
Embora o conceito de Data Warehouse (doravante abreviado DW), em suas várias formas, continue atraindo interesse, muitos projetos de DW não estão gerando os benefícios esperados e muitos estão provando ser excessivamente caro de desenvolver e manter. O presente trabalho visa organizar os conceitos de DW através de uma revisão bibliográfica, discutindo seu real benefício e também de como perceber este benefício a um custo que é aceitável ao empreendimento. Em particular são analisadas metodologias que servirão de embasamento para a proposta de uma metodologia de projeto de DW, que será aplicada a um estudo de caso real para a Cia Zaffari, levando em conta critérios que são encontrados atualmente no desenvolvimento de um Data Warehouse, um subconjunto das quais será tratado no trabalho de dissertação. / Although the concept of Data Warehouse (DW), in its various forms, still attracting interest, many DW projects are not generating the benefits expected and many are proving to be too expensive to develop and to keep. This work organizes the concepts of DW through a literature review, discussing its real benefit and how to realize this benefit at a cost that is acceptable to the company. In particular methods are discussed to serve as a foundation for proposing a design methodology for DW, which will be applied to a real case study for the CIA Zaffari, taking into account criteria that are currently found in developing a data warehouse, a subset of which will be treated in the dissertation.
397

Determinação da atividade de hidrolases lisossômicas em sangue colhido em papel filtro, uma alternativa para triagem em populações de alto risco

Castilhos, Cristina Dickie de January 2011 (has links)
As doenças lisossômicas de depósito (DLD) são erros inatos do metabolismo causadas pela deficiência de uma proteína, normalmente uma enzima, que resulta no depósito de lipídios nos lisossomos. Neste trabalho, nos propusemos a avaliar uma metodologia para a investigação bioquímica das DLDs. Amostras em papel filtro apresentam um menor volume de sangue coletado e uma maior facilidade quanto ao transporte e acondicionamento. Tivemos por objetivos estabelecer fatores pré-analíticos em amostras de sangue em papel filtro (SPF) tais como: efeito de anticoagulantes, temperatura de armazenamento e estabilidade ao longo do tempo para as enzimas b-galactosidase (b-gal), hexosaminidase total (Hex t), alfa-galactosidase (GLA), arilsulfatase B (ASB) e alfa-glicosidase (GAA). Também foi realizada a miniaturização e a correlação das metodologias em estudo. Descrevemos ainda nossa experiência no rastreamento das DLD em SPF em uma população de alto risco. Amostras de sangue de indivíduos normais (controles) foram coletadas em tubos com anticoagulantes EDTA, heparina, ou diretamente impregnados em papel filtro e armazenadas em diferentes temperaturas (-20, 4, 25 e 37ºC) e tempos (3, 10, 17 e 180 dias). Através da determinação da atividade enzimática em SPF por técnicas fluorométricas chegamos aos seguintes resultados: não houve diferença significativa entre os diferentes métodos de coleta do estudo para nenhuma das enzimas pesquisadas. Com relação ao efeito da temperatura e do tempo foi possível determinar que aos três dias de armazenamento, em todas as temperaturas estudadas e para todas as enzimas, as atividades permaneceram estáveis. A partir deste tempo cada enzima demonstrou um efeito diferente ao longo do tempo para as diversas temperaturas estudadas. Existem aquelas que não sofrem variação em sua atividade até 180 dias de armazenamento nas temperaturas estudadas (Hex t e GLA), aquelas que só vão diminuir sua atividade aos 180 dias em todas as temperaturas (ASB) ou somente a 37°C (b-gal) ou ainda aquela que diminui constantemente sua atividade a partir de 10 dias de armazenamento em todas as temperaturas (GAA). Se o objetivo for medir a atividade de todas as enzimas no mesmo papel filtro, então o melhor será armazenar o papel filtro por no máximo 10 dias em qualquer uma das temperaturas estudadas. Este tempo pode ser estendido até 180 dias em qualquer das temperaturas se formos analisar somente as atividades enzimáticas da Hex t, GLA e b-gal. O estudo de correlação das amostras de papel filtro de 1,2mm e 3mm de diâmetro para as enzimas alfagalactosidase, arilsulfatase B e alfa-glicosidase resultou nos coeficientes 0,994; 0,900 e 0,957; respectivamente. Isto demonstra que podemos diminuir o picote de papel sem perda da qualidade do ensaio. Por fim realizamos um rastreamento para as doenças de Pompe, Fabry, Mucopolissacaridose I e VI em 205 amostras de pacientes de alto risco, onde foi observado uma freqüência de 2,9% para estas DLDs após a utilização da metodologia pesquisada. Nossos resultados mostram a viabilidade na medida da atividade enzimática em SPF, o que facilita a coleta, envio e armazenamento das amostras para a triagem destas doenças lisossômicas. / Lysosomal storage diseases (LSD) are inborn errors of metabolism caused by deficiency of a protein, usually an enzyme, which results in storage of lipids in lysosomes. In this work, we have proposed a methodology for the biochemical investigation of LSD. Dried blood spot samples on filter paper (DBS) have a lower volume of blood collected and ease about the transport and storage. The aims of the study for pre-analytical factors on DBS were: to investigate the effect of anticoagulants, storage temperature and stability over time for the enzymes b-galactosidase (b-gal), total hexosaminidase (Hex t), alphagalactosidase (GLA), arylsulfatase B (ASB) and alpha-glucosidase (GAA). We also made the miniaturization and the correlation of the methodologies under study. Also describe our experience in LSD screening on DBS in a high-risk population. Blood samples from normal individuals (controls) were collected in tubes with anticoagulant EDTA, heparin, either directly impregnated on filter paper and stored at different temperatures (-20, 4, 25 and 37ºC) and times (3, 10, 17 and 180 days). The enzymatic activities in DBS were determined by fluorometric techniques and we achieved the following results: no significant difference between the different collection methods was observed for any of the enzymes. Regarding the effect of temperature and time it was determined that the three days of storage at all temperatures studied and for all the enzymes, the activity remained stable. From this time each enzyme showed a different effect over time for various temperatures. There are enzymes that do not suffer variations in their activity until 180 days of storage at temperatures studied (t- Hex and GLA), there are those that will slow down their activity after 180 days at all temperatures only (ASB) or only at 37°C (b-gal ) or only that is constantly decreasing its activity after 10 days of storage at all temperatures (GAA). If the goal is to measure the activity of all enzymes in the same DBS, then it is best to store the DBS for a maximum of 10 days in any of the temperatures studied. This time can be extended to 180 days in any of the temperatures if we consider only the enzymatic activities of t-Hex, GLA and b-gal. The correlation study of samples of DBS of 1.2 mm and 3 mm in diameter for the enzyme GLA, ASB and GAA resulted in the coefficients 0.994, 0.900 and 0.957, respectively. This shows that we can decrease the paper punch without losing the quality of the test. Finally we performed a screening for Pompe disease, Fabry disease, Mucopolysaccharidosis I and VI in 205 samples of DBS of high-risk patients. This screening revealed a frequency of 2.9% of these LSD after using the methodology researched. Our results demonstrated the feasibility for measurement of enzymatic activity in DBS, which facilitates the collection, sending and storage of samples for the screening of these lysosomal disorders.
398

Um processo auto-documentável de geração de ontologias de domínio para dados semi-estruturados

Santi, Sergio Medeiros January 2002 (has links)
Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.
399

Utilizando conceitos como descritores de textos para o processo de identificação de conglomerados (clustering) de documentos

Wives, Leandro Krug January 2004 (has links)
A descoberta e a análise de conglomerados textuais são processos muito importantes para a estruturação, organização e a recuperação de informações, assim como para a descoberta de conhecimento. Isto porque o ser humano coleta e armazena uma quantidade muito grande de dados textuais, que necessitam ser vasculhados, estudados, conhecidos e organizados de forma a fornecerem informações que lhe dêem o conhecimento para a execução de uma tarefa que exija a tomada de uma decisão. É justamente nesse ponto que os processos de descoberta e de análise de conglomerados (clustering) se insere, pois eles auxiliam na exploração e análise dos dados, permitindo conhecer melhor seu conteúdo e inter-relações. No entanto, esse processo, por ser aplicado em textos, está sujeito a sofrer interferências decorrentes de problemas da própria linguagem e do vocabulário utilizado nos mesmos, tais como erros ortográficos, sinonímia, homonímia, variações morfológicas e similares. Esta Tese apresenta uma solução para minimizar esses problemas, que consiste na utilização de “conceitos” (estruturas capazes de representar objetos e idéias presentes nos textos) na modelagem do conteúdo dos documentos. Para tanto, são apresentados os conceitos e as áreas relacionadas com o tema, os trabalhos correlatos (revisão bibliográfica), a metodologia proposta e alguns experimentos que permitem desenvolver determinados argumentos e comprovar algumas hipóteses sobre a proposta. As conclusões principais desta Tese indicam que a técnica de conceitos possui diversas vantagens, dentre elas a utilização de uma quantidade muito menor, porém mais representativa, de descritores para os documentos, o que torna o tempo e a complexidade do seu processamento muito menor, permitindo que uma quantidade muito maior deles seja analisada. Outra vantagem está no fato de o poder de expressão de conceitos permitir que os usuários analisem os aglomerados resultantes muito mais facilmente e compreendam melhor seu conteúdo e forma. Além do método e da metodologia proposta, esta Tese possui diversas contribuições, entre elas vários trabalhos e artigos desenvolvidos em parceria com outros pesquisadores e colegas.
400

Estudo da influência de manejos pós-colheita na incidência de fungos e micotoxinas no arroz (Oryza sativa L.)

Hoeltz, Michele January 2005 (has links)
Cerca de 15% da safra de arroz é perdida anualmente, principalmente em práticas inadequadas de pós-colheita. Nesse contexto, a avaliação de técnicas de secagem e armazenamento é necessária em função das perdas quali e quantitativas de grãos, resultantes do desenvolvimento de fungos. O objetivo desse trabalho foi analisar a contaminação fúngica e por micotoxinas do arroz submetido aos sistemas de secagem intermitente e estacionário, com armazenamento em sacaria e em silo-secador, avaliando o comportamento das principais variáveis de influência no processo. O trabalho foi realizado entre os meses de maio de 2003 a maio de 2004. As amostras de arroz com casca foram coletadas a cada dois meses, em duplicatas. Foram, ainda, analisadas amostras de arroz branco polido e parboilizado de ambos sistemas. O número de colônias de bolores e leveduras foi determinado e a capacidade produtora de micotoxinas dos isolados do gênero Aspergillus foi investigada. A detecção de aflatoxinas, ocratoxina A, zearalenona e citrinina foi realizada por cromatografia em camada delgada. Os grãos secados no sistema estacionário apresentaram maior contagem de colônias fúngicas. Enquanto no sistema intermitente, a contaminação foi mais uniforme ao longo do armazenamento. Predominaram representantes do gênero Penicillium nos dois sistemas, principalmente P. commune e P. islandicum. Entre os isolados do gênero Aspergillus, destacou-se A. flavus. Foram encontrados 7 (13, 20%) isolados de A.flavus produtores de aflatoxina B1, mas não foram detectadas micotoxinas nas amostras. A umidade dos grãos afetou significativamente a contaminação fúngica no manejo intermitente e no terço superior (altura 2) do silo-secador. A temperatura no interior do silo influenciou a contaminação no terço inferior (altura 1).

Page generated in 0.08 seconds