11 |
Uma proposta para a atualização da base de dados em engenhos de busca utilizando classificadoresBARBOSA, Luciano de Andrade January 2003 (has links)
Made available in DSpace on 2014-06-12T15:58:49Z (GMT). No. of bitstreams: 2
arquivo4714_1.pdf: 577288 bytes, checksum: 0df7b311129c3ab32b304b72880b28db (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2003 / Os Sistemas de Recuperação de Informação (SRI) têm por tarefa básica processar uma
consulta feita por um usuário, e, a partir dela, recuperar um conjunto de documentos
armazenados em uma coleção de dados, que são relevantes às necessidades de
informação deste usuário. As bibliotecas estão entre as primeiras instituições a adotarem
um SRI para facilitar o acesso às suas informações, através do uso de consultas
bibliográficas. Uma das características deste tipo de sistema em bibliotecas é a
manipulação controlada dos dados, ou seja, há um controle, por exemplo, de quem são
os autores dos documentos existentes, em que momento estes documentos foram
inseridos, modificados ou retirados da coleção. Ao contrário dos dados utilizados por
um sistema para consultas bibliográficas, a Web é uma coleção não controlada de
documentos, ou seja, a todo instante, estão sendo inseridos e modificados documentos
por diferentes pessoas, em locais distintos. Além dessa alta dinamicidade, a Web possui
um número muito grande de documentos, que vem aumentando exponencialmente. No
entanto, para que um SRI possa disponibilizar informações sobre o conteúdo da Web de
forma eficiente, é preciso que ele saiba lidar com esses problemas apresentados. Para
isso surgiu um novo tipo de SRI, os engenhos de busca. Eles têm como um de seus
grandes desafios manter as informações de sua base de dados atualizadas,
principalmente, porque eles são executados sobre recursos limitados (banda passante,
memória e processamento). Neste sentido, este trabalho propõe uma solução para o
problema da atualização da base de dados de um engenho de busca, focando na
utilização racional dos recursos utilizados por ele para a realização desta tarefa. Esta
solução baseia-se no uso de uma política não-uniforme, na qual elementos mais
dinâmicos são atualizados mais freqüentemente do que os menos dinâmicos. Para a
utilização desta política, são utilizadas técnicas de Aprendizagem de Máquina e
estatística para identificar os grupos de páginas de dinamicidade semelhantes. Um
protótipo contendo esta solução é desenvolvido a fim de validar seu desempenho em um ambiente real e um estudo de caso é apresentado visando mostrar a maior eficiência
desta solução em relação a uma abordagem tradicional de atualização
|
12 |
Um Estudo Experimental de Busca Guiada na Exploração do Espaço de Estados de Gramáticas de Grafos.RAMOS, A. S. 16 September 2016 (has links)
Made available in DSpace on 2018-08-02T00:03:43Z (GMT). No. of bitstreams: 1
tese_10153_Ata de Defesa.pdf: 578624 bytes, checksum: 39238ca4fbe94b75bd6a39b7b15f70ea (MD5)
Previous issue date: 2016-09-16 / O GROOVE é uma ferramenta de transformação de grafos utilizada para criar e verificar modelos baseados em grafos. Para tal verificação, é realizada a exploração exaustiva do espaço de estados onde todos os possíveis estados relativos a um modelo são gerados. Contudo, existem importantes classes de sistemas que geram um espaço de estados muito grande ou até mesmo infinito, inviabilizando o uso da exploração exaustiva. Neste trabalho, é proposto um algoritmo de busca guiada que utiliza uma métrica dedistância entre grafos para tomar decisões ao caminhar na busca pelo estado objetivo. Os experimentos mostram que a busca guiada é bem eficiente quando comparado com a exploração exaustiva, permitindo a redução de quase 95% no número de estados explorados.
|
13 |
Padrão de comportamento na busca de informação em mecanismo de busca: um enfoque com a tecnologia de eye tracking / Behavioral pattern in the search of information in search engine: a focus with eye tracking technologyRodas, Cecilio Merlotti [UNESP] 03 March 2017 (has links)
Submitted by CECILIO MERLOTTI RODAS null (cecilio.rodas@gmail.com) on 2017-06-18T15:31:47Z
No. of bitstreams: 1
TESE_CECILIO_RODAS_2017.pdf: 44213138 bytes, checksum: 5c54f261af3ea4857bb3687ce8902517 (MD5) / Approved for entry into archive by Luiz Galeffi (luizgaleffi@gmail.com) on 2017-06-19T14:41:43Z (GMT) No. of bitstreams: 1
rodas_cm_dr_mar.pdf: 44213138 bytes, checksum: 5c54f261af3ea4857bb3687ce8902517 (MD5) / Made available in DSpace on 2017-06-19T14:41:43Z (GMT). No. of bitstreams: 1
rodas_cm_dr_mar.pdf: 44213138 bytes, checksum: 5c54f261af3ea4857bb3687ce8902517 (MD5)
Previous issue date: 2017-03-03 / A quantidade de páginas disponibilizadas na Web atingiu um tamanho tão volumoso que se tornou mais difícil recuperar informações manualmente, necessitando-se de mecanismos que possam ajudar nesse processo. Nesse contexto, os mecanismos de busca se tornaram indispensáveis, sendo considerados um importante objeto de estudo, especialmente para a área da Ciência da Informação, porque diz respeito à organização e recuperação do conhecimento nesse ambiente. Tendo em vista a utilização do Google como um dos mecanismos de busca mais utilizados, tendo em vista ainda que, de acordo com estudos da Experiência do Usuário e da Semiótica, o ser humano é sensível às informações que lhe são apresentadas, propomos uma pesquisa a fim de investigar como e porque os novos elementos informacionais enriquecidos visualmente e apresentados nas páginas de resultados de mecanismos como o Google, por exemplo, poderiam influenciar o padrão de comportamento dos usuários ao realizar uma busca de informação. Esse estudo inova na área da Ciência da Informação no Brasil ao incorporar a Tecnologia de Eye Tracking a qual permite o rastreamento do olhar em testes com usuários. A investigação foi conduzida a partir do método quadripolar, o qual possibilitou trazer um certo dinamismo à pesquisa, o que foi relevante no desenvolvimento de nosso trabalho. A tecnologia de Eye Tracking registra os dois principais movimentos realizados pelos olhos, sendo eles as fixações e as sacadas, os quais podem criar condições para encontrar padrões de comportamento. Essa tecnologia possibilita que a coleta de dados aconteça de forma muito mais precisa quando comparada com as tradicionais técnicas utilizadas em estudos da Experiência do Usuário, como a verbalização ou a observação direta ou indireta. Tal vantagem se deve ao fato de que o olhar de uma pessoa acontece de maneira natural, sem interferências, podendo chegar ao ponto do usuário se esquecer que seus movimentos estejam sendo observados e registrados. Nossos resultados mostram que os elementos enriquecidos visualmente, apresentados nas páginas de resultado de mecanismos de busca, podem receber maior visibilidade, principalmente o Rich Snippet, o qual conseguiu influenciar a escolha do resultado, estimulando inclusive um olhar mais amplo sobre toda a área da página de resultados, além dos três primeiros resultados. Tais resultados corroboram a atual necessidade, bastante discutida na Ciência da Informação, de que os ambientes digitais deveriam ser desenvolvidos considerando-se a possibilidade de manter seus conteúdos estruturados para que possam se tornar semanticamente mais visíveis pelos mecanismos de busca, o que poderia torná-los mais elegíveis para terem seus conteúdos apresentados nos novos elementos informacionais presentes nas páginas de resultados dos mecanismos de busca. / The number of pages available on the Web has reached such a massive size that it has become more difficult to retrieve information manually, and mechanisms are needed to help in this process. In this context, search engines have become indispensable, being considered an important object of study, especially for the area of Information Science, because they concerns the organization and retrieval of knowledge in this environment. Considering the use of Google as one of the most used search engines, and also considering that, according to studies of the User Experience and Semiotics, human being is sensitive to the information presented, we propose a research in order to investigate how and why the new informational elements enriched visually and presented in the result pages of mechanisms such as Google could influence the behavior pattern of users when performing an information search. This study innovates in the area of Information Science in Brazil by incorporating the Eye Tracking Technology, which allows the tracking of the look in tests with users. The research was conducted from the quadripolar method, which brought dynamism to the research and was relevant in the development of our work. The Eye Tracking technology records the two main movements performed by the eyes, the fixations and the saccades, which can create the conditions to find patterns of behavior. This technology enables a much more accurately data collection when compared to the traditional techniques used in User Experience studies, such as verbalization or direct or indirect observation. This advantage is due to the fact that a person's gaze happens naturally, without interference, and can reach the user's point of forgetting that his movements are being observed and recorded. Our results show that the visually enriched elements presented in search engine result pages can receive greater visibility, especially the Rich Snippet, which has influenced the choice of the result, stimulating even a wider view of the entire page area results, in addition to the first three results. These findings corroborate the current need, much discussed in Information Science, that digital environments should be developed considering the possibility of keeping their contents structured so that they can become semantically more visible by search engines, and the most eligible could have their content available in the new informational elements presented in the result pages of the search engines.
|
14 |
Programação da grade de horario em escolas de ensino fundamental e medio / School timetabling problemSousa, Vania Nobre de 20 April 2006 (has links)
Orientador: Antonio Carlos Moretti / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-06T12:59:52Z (GMT). No. of bitstreams: 1
Sousa_VaniaNobrede_M.pdf: 984501 bytes, checksum: f58d5baf5c8e4dc8e704f4cb9aa47c6b (MD5)
Previous issue date: 2006 / Mestrado / Matematica Aplicada / Mestre em Matemática Aplicada
|
15 |
Aplicação de técnicas de aprendizagem de máquina na geração de índices para sistemas de buscaCarvalho, André Luiz Costa 26 November 2012 (has links)
Submitted by Lúcia Brandão (lucia.elaine@live.com) on 2015-07-27T17:43:06Z
No. of bitstreams: 1
Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-28T18:37:39Z (GMT) No. of bitstreams: 1
Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-28T18:47:09Z (GMT) No. of bitstreams: 1
Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) / Made available in DSpace on 2015-07-28T18:47:09Z (GMT). No. of bitstreams: 1
Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5)
Previous issue date: 2012-11-26 / CNPq - Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico / Search engines station between main Ways to Get INFORMATION on the Internet, receiving
Million daily queries. This volume Query topping generates a considerable burden
In Query processors of search machines, that should NOT JUST worry
with a quality fi nal ANSWER received by users, but Also with a latency This
consultation, JA What A delay excessive on MAY rhythm harm a RESPONSE Experience
Users ITS.
In the Last Year HAS A considerable effort been Research in Technical Application
Machine Learning During Query Processing, aiming mainly
um increase in the fi nal quality of YOUR answers. This thesis studied the Technical Application
machine learning During the generation of indexes, rather than apply them to processing
Queries, therefore opening a new front for the Technical Application of Learning
Machine in search systems. Within the study, we propose two techniques for the Application
Machine learning in the Document Indexing in search of machines with Showing
THAT That there Space paragraph enhance an indexing with the use of these techniques.
The advantage of this approach is that as THAT Processing And Done Before Consultations
Made to be looking machine, Regardless of how costly this computationally BE
Process, THIS IS NOT re fl directly etirá In Query Processing Time. We propose here
Two techniques: LePrEF, One Evidence Fusion Technique Indexing Time Who Has
As a search Purpose Machines Performance Improvement During Processing
Consultations, THROUGH indexes Generation que CODI fi cam a Better importance of each term
Each Document, AND A phrasal TERMS detection technique (phrases OS), with the objective of
improve the quality of the responses obtained FOR THEM.
The Technical LePrEF Performs a Relevance of Evidence Sources Fusion pace in Indexing
using for both machine learning. The need for evidence of fusion not
Drift Query Processing What do FACT search Systems in General Several use
Evidence Sources To compute answers YOUR Such As the text of web pages, the text of
IN pointers received each page, pointing Analysis Methods As the PageRank,
Among many others. However, the recent increase Evidence Sources lev Also one New
custodian processing. This is, coupled with the constant growth in the Content Quantity / Máquinas de busca estão entre as principais formas de se obter informações na internet,recebendo
milhões de consultas diárias. Este volume avantajado de consultas gera uma considerável carga
nos processadores de consultas das máquinas de busca, que devem não apenas se preocupar
com a qualidade da resposta final recebida pelos usuários, mas também com a latência desta
consulta ,já que uma demora excessiva no tempo de resposta pode prejudicar a experiência de
seus usuários.
Nos últimos anos tem havido um considerável esforço de pesquisa na aplicação de técnicas
de aprendizado de máquina durante o processamento de consultas, objetivando-se principalmente
um aumento na qualidade final de suas respostas. Nesta tese estudamos a aplicação de técnicas de
aprendizagem de máquina durante a geração de índices, ao invés de aplicá-las ao processamento
de consultas, abrindo portanto uma nova frente para a aplicação de técnicas de aprendizagem de
máquina em sistemas de busca. Dentro do estudo, propomos duas técnicas para a aplicação de
aprendizado de máquina na indexação de documentos em máquinas de busca, mostrando com
isso que há espaço para melhorar a indexação com o uso dessas técnicas.
A vantagem de tal abordagem é que, como esse processamento é feito antes das consultas
serem feitas à maquina de busca, independente de quão custoso computacionalmente seja este
processo, isto não refletirá diretamente no tempo de processamento de consultas. Propomos aqui
duas técnicas: LePrEF, uma técnica de fusão de evidências em tempo de indexação que tem
como objetivo a melhoria do desempenho de máquinas de busca durante o processamento de
consultas, por meio da geração de índices que codificam melhor a importância de cada termo em
cada documento, e uma técnica de detecção de termos frasais (os sintagmas), com o objetivo de
melhorar a qualidade das respostas obtidas por elas.
A técnica LePrEF realiza a fusão de fontes de evidência de relevância em tempo de indexação
utilizando para tanto aprendizagem de máquina. A necessidade da fusão de evidências no
processamento de consultas deriva do fato de que sistemas de busca em geral utilizam diversas
fontes de evidência para computar suas respostas, tais como o texto das páginas web, o texto dos
apontadores recebidos por cada página, métodos de análise de apontadores como o PageRank,
dentre muitos outros. Porém, o acréscimo de novas fontes de evidência leva também a novos
custos de processamento. Isto, aliado ao constante crescimento na quantidade de conteúdo
|
16 |
Detecção de ruídos em repositórios de máquina de buscaSouza, Jucimar Brito de 08 March 2013 (has links)
Made available in DSpace on 2015-04-20T12:33:27Z (GMT). No. of bitstreams: 1
jucimar.pdf: 2914952 bytes, checksum: 07583d96a43d2aaee11457881962b461 (MD5)
Previous issue date: 2013-03-08 / Search engines are among the most used tools to find information on the Web. Recent studies show that the user s confidence on these systems is high. However, the database
of search engines usually contains noisy information that may decrease the search results quality and thus negatively affect the confidence of users in these systems. Such type of information is called noise and it can be intentional or not. The main goals of this thesis are to develop and enhance techniques to detect noise in databases of search engines. We evaluated noisy sources of information that may be present either
in the anchor text and/or links structures of search engine indexes. As a result, we present methods to turn search engines less susceptible of negative impact caused by
the presence of noisy. / Máquinas ou motores de busca são as ferramentas mais usadas para localizar informações na Internet. Para muitas empresas, a porta de entrada para seu negócio está nas respostas dadas por esses mecanismos a determinadas consultas. Por este motivo, é importante que suas páginas estejam bem posicionadas nestas respostas. Pesquisas recentes mostram que a confiança dos usuários neste mecanismo é relativamente alta. Entretanto, existe nos repositórios de máquinas de busca uma série de informações que podem levar à degradação da qualidade das respostas providas por estes sistemas. Tais informações são conhecidas como ruído, podendo ser geradas de maneira intencional ou não. Esta tese tem como principal objetivo desenvolver e aprimorar técnicas de detecção e tratamento de informação ruidosa em máquinas de busca. Foram avaliadas fontes ruidosas que podem estar nos textos de âncora e/ou nas estruturas dos apontadores presentes em repositórios de máquina de busca. Como resultados, são apresentados
métodos para tornar máquinas de busca menos suscetíveis aos efeitos negativos da presença do ruído em seus repositórios.
|
17 |
Estrat?gias de busca reativa utilizando aprendizagem por refor?o e algoritmos de busca localSantos, Jo?o Paulo Queiroz dos 12 September 2014 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2015-11-27T13:12:56Z
No. of bitstreams: 1
JoaoPauloQueirozDosSantos_TESE.pdf: 2943111 bytes, checksum: d4f55a9718f28707aa96893d2b66b4e5 (MD5) / Approved for entry into archive by Elisangela Moura (lilaalves@gmail.com) on 2015-11-27T14:58:26Z (GMT) No. of bitstreams: 1
JoaoPauloQueirozDosSantos_TESE.pdf: 2943111 bytes, checksum: d4f55a9718f28707aa96893d2b66b4e5 (MD5) / Made available in DSpace on 2015-11-27T14:58:26Z (GMT). No. of bitstreams: 1
JoaoPauloQueirozDosSantos_TESE.pdf: 2943111 bytes, checksum: d4f55a9718f28707aa96893d2b66b4e5 (MD5)
Previous issue date: 2014-09-12 / T?cnicas de otimiza??o conhecidas como as metaheur?sticas tem conseguido resolversatisfatoriamente problemas conhecidos, mas desenvolvimento das metaheur?sticas ?caracterizado por escolha de par?metros para sua execu??o, na qual a op??o apropriadadestes par?metros (valores). Onde o ajuste de par?metro ? essencial testa-se os par?metrosat? que resultados vi?veis sejam obtidos, normalmente feita pelo desenvolvedor que estaimplementando a metaheuristica. A qualidade dos resultados de uma inst?ncia1 de testen?o ser? transferida para outras inst?ncias a serem testadas e seu feedback pode requererum processo lento de ?tentativa e erro? onde o algoritmo t?m que ser ajustado para umaaplica??o especifica. Diante deste contexto das metaheur?sticas surgiu a Busca Reativaque defende a integra??o entre o aprendizado de m?quina dentro de buscas heur?sticaspara solucionar problemas de otimiza??o complexos. A partir da integra??o que a BuscaReativa prop?e entre o aprendizado de m?quina e as metaheur?sticas, surgiu a ideia dese colocar a Aprendizagem por Refor?o mais especificamente o algoritmo Q-learning deforma reativa, para selecionar qual busca local ? a mais indicada em determinado instanteda busca, para suceder uma outra busca local que n?o pode mais melhorar a solu??ocorrente na metaheur?stica VNS. Assim, neste trabalho propomos uma implementa??o reativa,utilizando aprendizado por refor?o para o auto-tuning do algoritmo implementado,aplicado ao problema do caixeiro viajante sim?trico e ao problema escalonamento sondaspara manuten??o de po?os.
|
18 |
Estudo comparativo de modelos de estoques num ambiente com previsibilidade variável de demanda. / Inventory models comparative study in a variable demand forecast error environment.Freire, Gilberto 13 April 2007 (has links)
O objetivo deste trabalho é comparar o desempenho de modelos de estoque em uma grande diversidade de situações de demanda e custos. Os modelos de estoque comparados são os tradicionais Reposição do Máximo, Reposição da Base e Lote Fixo, com políticas de revisões periódicas e contínuas, e um modelo derivado da lógica dos sistemas Material Requirements Planning (MRP), aqui denominado Cálculo de Necessidades, que utiliza previsões de demanda para o dimensionamento dos pedidos de reposição de estoque. As séries temporais de demanda, por seu lado, são geradas a partir de tendências e sazonalidades definidas, sobre as quais se acrescenta o componente irregular aleatório. Numa primeira etapa, simulação e busca em vizinhança são utilizadas na seleção do melhor modelo de previsão de demanda, a cada série temporal, para gerar as previsões do modelo Cálculo de Necessidades. Suavização Exponencial Simples, o Método Linear de Holt, Suavização Exponencial Simples com Sazonalidade e o Método de Tendência e Sazonalidade de Holt-Winters são os modelos de previsão utilizados nesta seleção. Numa segunda etapa, simulação e busca em vizinhança são também utilizadas para a otimização dos parâmetros dos sete modelos de estoque para cada série temporal. A soma dos custos médios de Pedido, de Armazenagem e de Falta é utilizada como variável de medição do desempenho dos modelos. Os resultados mostram um desempenho superior do modelo de Cálculo de Necessidades, em quase todos os ambientes testados, secundado pelo modelo contínuo de Reposição do Máximo. Mostram, ainda, um desempenho fraco do modelo contínuo de Reposição da Base, fundamento do conhecido modelo kanban, o que contraria sua forte recomendação como modelo robusto. Este trabalho tem como principal contribuição a evidência da superioridade do modelo de Cálculo de Necessidades sobre os modelos tradicionais nas condições da pesquisa efetuada. / The objective of this study is to compare the performance of inventory models in a large range of costs and demand environments. The compared models are the traditional periodic and continuous Up to Maximum Inventory Level, Base Stock and Fixed Lot Size, and another model, based on the Material Requirements Planning (MRP) logic and here referred to as Requirements Planning, which uses demand forecast to quantify the acquisition decisions. In the first step, simulation and neighborhood search are used to select the best of 4 forecasting models, which generates the forecasts to the Requirements Planning model. Single Exponential Smoothing, Holt\'s linear method, Single Exponential Smoothing with seasonality, and Holt-Winters\' trend & seasonality method are these 4 models. In the second step, simulation and neighborhood search are used again to optimize the inventory models parameters. The items\' demand time series are based on trends and seasonality defined arbitrarily plus the addition of a irregular random component. The period average Purchase, holding, shortage and total costs are calculated and the models are ranked, based on the total cost criterion. The results show the superior performance of the Requirements Planning model in practically all tested conditions, with the continuous Up to Maximum Inventory Level in a secondary position. The results show, too, the poor performance of the continuous Base Stock model, base of the Kanban system, in opposition to its actual hard recommendation as robust model. This study has, as major contribution, the evidence of the Requirements Planning model superior performance compared with the traditional inventory models.
|
19 |
Perspectivas para eliminação da malária residual em área rural da Amazônia brasileira: estratégia de busca ativa reativa na identificação de reservatórios de Plasmodium vivax. / Prospects for residual malaria elimination in rural Brazilian Amazon: strategy of reactive case detection for surveillance Plasmodium vivax in reservoir hosts.Fontoura, Pablo Secato 09 December 2016 (has links)
Casos de malária no Brasil atingiu seu nível mais baixo em 35 anos e o Plasmodium vivax é responsável por 85% dos casos em todo o país. A vigilância epidemilógica da transmissão residual da malária persistente na Amazônia é o próximo grande desafio para os esforços vigentes de eliminação. Esta situação nos levou a avaliar uma estratégia para detecção de portadores do parasito (sintomáticos ou não) em áreas que se aproximam a eliminação da malária. Nossa hipótese é que o monitoramento sistemático de moradores de domicílios com um ou mais casos de malária vivax clínica confirmados pela vigilância passiva de rotina (referido como casos índices) e seus vizinhos tem um melhor custo-benecífio na identificação de novas infecções em relação aos inquéritos em massa da população em geral. Para testar essa hipótese, foram recrutados 41 casos índices (24 indivíduos classificados como autóctones, 11 como possíveis recaídas e, seis como casos importados), 163 moradores dos domicílios índices (indivíduos morando na mesma residência do caso índice), 878 moradores vizinhos (moradores de domicílios a um raio de < 3 km) e 841 controles (moradores da mesma localidade, porém a > 5 km de distância do domicílio índice) entre os meses de fevereiro a julho de 2013. Participantes residiam em comunidades rurais pertencentes a Acrelândia, onde o P. vivax é a única espécie implicada na transmissão da malária humana. Todos os participantes foram convidados a fornecerem amostra de sangue capilar para realização do diagnóstico para malária no momento de identificação do caso índice (dia 0), 30, 60 e 180 dias após a primeira visita. Em geral, 6028 análises por microscopia revelaram um aumento na prevalência de malária nos domicílios índices (6,1%; odds ratio [OR] = 36,3, P < 0,001) e vizinhos (2,6%; OR = 13,6, P < 0,001) comparados aos controles (0,1%). Não houve casos positivos para P. falciparum. Moradores dos domicílios índices e vizinhos foram associados com uma maior probabilidade de infecção pelo P. vivax em comparação com os indivíduos controles, após análise ajustada por potenciais confundidores (modelos de regressão logística para efeitos mistos), além desses participantes albergarem > 90% da biomassa parasitária circulante. Nos quatro seguimentos da RCD a microscopia identificou somente 49,5% das infecções diagnosticadas por qPCR, porém 76,8% do total da carga parasitária circulante nas proximidades do domicílio índice. Embora, moradores dos domicílios controles foram responsáveis por 27,6% das amostras positivas por qPCR, 92,6% desses indivíduos eram portadores assintomáticos da infecção, que provavelmente não seriam alvos da RCD. Tipagem molecular dos parasitos utilizando três marcadores polimórficos - msp1F3, MS16 e pv3.27 revelaram alta diversidade de P. vivax, consistente com a complexidade das vias de transmissão e múltiplas fontes de infecção dentro dos aglomerados, potenciais complicações para os programas de eliminação de malária. / Malaria burden in Brazil has reached its lowest levels in 35 years and Plasmodium vivax now accounts for 85% of cases countrywide. The epidemiological surveillance residual malaria transmission entrenched in the Amazon is the next major challenge for ongoing elimination efforts. This situation prompted us to evaluate a strategy for targeted detection of parasite carriers (either symptomatic or asymptomatic) in areas approaching malaria elimination. We hypothesize that repeated screening of households (HHs) with one or more slide-confirmed clinical vivax malaria cases diagnosed by routine passive surveillance (referred to as index cases) and their neighbors is more cost-effective for finding new malaria infections than population-wide mass blood surveys. To test this hypothesis, we recruited 41 index cases (24 subjects classified with indigenous, 11 possible relapsing and 6 cases imported) 163 index household members (subjects sharing the household with index cases), 878 neighbors (subjects living within a radius of up to 3 km from index cases) and 841 controls (subjects living in the same locality, but > 5 km from the index case) between January and July 2013. Study participants lived in rural communities surrounding Acrelândia town, where P. vivax is the only malaria parasite diagnosed in humans. They were invited to contribute finger-prick blood samples, for laboratory diagnosis of malaria, at the time of index case diagnosis (day 0) and 30, 60, and 180 days later. Overall, 6,028 microscopical analysis revealed an increased prevalence of infection in index households (6.1%; odds ratio [OR] = 36.3, P < 0.001) and neighbors (2.6%; OR = 13.6, P < 0.001) compared to controls (0.1%). There were no positive cases for P. falciparum. Subjects in index and neighbor households were significantly more likely to be parasitemic than control households members, after adjusting for potential confounders (mixed-effects logistic regression models), and together harbored > 90% of the P. vivax biomass in study subjects. Four rounds of microscopy-based RCD would identify only 49.5% of the infections diagnosed by qPCR, but 76.8% of the total parasite biomass circulating in the proximity of index HHs. However, control HHs accounted for 27.6% of qPCR-positive samples, 92.6% of them from asymptomatic carriers who were beyond the reach of RCD. Molecular genotyping analysis of parasites with three polymorphic molecular markers (msp1F3, MS16, and Pv3.27) revealed high P. vivax diversity, consistent with complex transmission networks and multiple sources of infection within clusters, potentially complicating malaria elimination efforts.
|
20 |
Isolamento do cairomônio de Anagasta kuehniella Zeller (Lepidoptera: Pyralidae) responsável pela atração do parasitoide Habrobracon hebetor Say (Hymenoptera: Braconidae) / Kairomone isolation of Anagasta kuehniella Zeller (Lepidoptera: Pyralidae) responsible for its parasitoid attraction Habrobracon hebetor Say (Hymenoptera: Braconidae)Favaris, Arodí Prado 15 December 2016 (has links)
Cairomônios são semioquímicos envolvidos nas interações interespecíficas dos insetos, que beneficiam o receptor em detrimento do emissor. Uma destas interações envolve a busca hospedeira por parasitoides, que detectam estes compostos como estratégia para localizar seus hospedeiros. No caso do ectoparasitoide larval, Habrobracon hebetor Say (Hymenoptera: Braconidae), o \'frass\' de Anagasta kuehniella Zeller (Lepidoptera: Pyralidae) libera um cairomônio que atrai as fêmeas do parasitoide. Considerando que A. kuehniella é muito utilizada para produção de ovos, visando à criação de inimigos naturais, este cairomônio é indesejável, pois acaba favorecendo altas infestações por H. hebetor, podendo causar prejuízos expressivos ao longo do processo. Uma das soluções para o controle de tais infestações poderia ser o emprego de armadilhas com o semioquímico sintético. Entretanto, como o cairomônio ainda não foi identificado, este trabalho teve como objetivo o seu isolamento - a etapa inicial para sua identificação. O cairomônio foi extraído por meio da lavagem com solvente e aeração do \'frass\' de A. kuehniella. Os extratos foram, então, testados em olfatometria de quatro vias com fêmeas do parasitoide, registrando-se o tempo de permanência em cada tratamento. O extrato de lavagem ativo foi fracionado em coluna de sílica em cinco frações, cuja atratividade também foi averiguada para proceder com o isolamento do cairomônio. Os extratos e frações foram então analisados por cromatografia gasosa por ionização em chama (GC-FID) e espectrometria de massas (GC-MS), a fim de localizar compostos exclusivos nas amostras ativas. Além disso, as frações provenientes do extrato de lavagem foram aeradas para a extração de seus compostos voláteis e também analisadas por GC-MS. O cairomônio foi isolado na fração 75% éter, indicando ser um composto polar. Por comparação dos cromatogramas, apenas um pico na coluna HP-5ms foi selecionado como pertencente ao cairomônio. Em coluna Rtx-1ms, o pico bifurcou-se, indicando que, pelo menos, um dos compostos faz parte do cairomônio. As combinações metodológicas deste trabalho conduziram ao isolamento do cairomônio presente no \'frass\' de A. kuehniella e à seleção de pelo menos um composto que compõe o semioquímico responsável pela atração do parasitoide H. hebetor, resultando nas primeiras informações de sua estrutura química para sua futura identificação. / Kairomones are semiochemicals involved in interspecific interactions of insects that benefit the receiver to the detriment of the emitter. One of these interactions is host searching by parasitoids which detect these compounds as a strategy to locate their hosts. In the case of the larval ectoparasitoid, Habrobracon hebetor Say (Hymenoptera: Braconidae), the \'frass\' of Anagasta kuehniella Zeller (Lepidoptera: Pyralidae) releases a kairomone that attracts females parasitoids. Considering that A. kuehniella has been used for egg production in order to keep natural enemy rearing, this kairomone is undesirable, because it may lead to high H. hebetor infestation and causes important losses during the rearing process. One of the attempts to control these infestations could be the use semiochemical-baited traps. However, as the kairomone is still unidentified, the aim of this work was to isolate it - the first step for its identification. The kairomone was extracted by solvent washing and aeration of A. kuehniella \'frass\'. Then the extracts were tested in a four-way olfactometer with female parasitoids, registering the time taken in each treatment. The active washing extract was fractionated in five fractions in a silica column, and its attractivity was evaluated to proceed to isolation. The extracts and fractions were then analysed by gas chromatography with flame ionization detector (GC-FID) and gas chromatography coupled with mass spectrometry (GC-MS), in order to locate exclusive compounds in active samples. Furthermore, the fractions from the washed extract were aerated to extract their volatile compounds that were also analysed by GC-MS. The kairomone was isolated in the 75% ether fraction, indicating that it is a polar compound. Comparing the chromatograms, only one peak on the HP-5ms column was selected as belonging to the kairomone. On the Rtx-1ms column, the peak bifurcated, indicating that at least one of the compounds is part of the kairomone. The methodological combinations of this work provided the isolation of the kairomone present in A. kuehniella \'frass\' and the selection of at least one compound that comprises the semiochemical that attracts H. hebetor parasitoid, resulting in the first source of information about its chemical structure for its future identification.
|
Page generated in 0.0288 seconds