• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 475
  • 44
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 533
  • 340
  • 88
  • 85
  • 75
  • 72
  • 71
  • 71
  • 71
  • 69
  • 64
  • 54
  • 53
  • 49
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Modelo integrativo sobre o comportamento do usuário na busca e uso da informação: aplicação na área da Saúde

TABOSA, Hamilton Rodrigues January 2016 (has links)
TABOSA, Hamilton Rodrigues. Modelo integrativo sobre o comportamento do usuário na busca e uso da informação: aplicação na área da Saúde. 2016. 177 f. Tese (Doutorado) - Universidade Federal da Paraíba, Programa de Pós-graduação em Ciência da Informação, Paraíba, 2016. / Submitted by Lidya Silva (nagylla.lidya@gmail.com) on 2016-07-15T15:23:28Z No. of bitstreams: 1 2016_tese_hrtabosa.pdf: 2037939 bytes, checksum: d343dfd86868f06692a8617698c8b448 (MD5) / Approved for entry into archive by Maria Josineide Góis (josineide@ufc.br) on 2016-07-15T18:01:02Z (GMT) No. of bitstreams: 1 2016_tese_hrtabosa.pdf: 2037939 bytes, checksum: d343dfd86868f06692a8617698c8b448 (MD5) / Made available in DSpace on 2016-07-15T18:01:02Z (GMT). No. of bitstreams: 1 2016_tese_hrtabosa.pdf: 2037939 bytes, checksum: d343dfd86868f06692a8617698c8b448 (MD5) Previous issue date: 2016 / The objective of this thesis is to build an integrative model of search behavior and use of information based on the models of Ellis (1989), Krikelas (1983), Kuhlthau (1991), Taylor (1986) and Wilson (1981, 1996 and 1999) and validate it through the application with the information of users not specialized in healthcare (patients, except for students and professionals). The theoretical foundation came from the study of these models, as well as specialized literature in relation to the identification of information needs, search processes and use of information, in addition to addressing the concepts of Information and Health Science, as well as behavioral studies from theoretical psychology area. Through a phenomenological study, we build an integration of models and consolidate the final proposal for a single integrative model of search behavior and use of information. For validation, interviews were conducted in-depth and technical application of the critical incident with General Hospital patients of the Dr. Carls César de Oliveira, in Fortaleza. The theoretical and practical research presented validates the integrative model of search behavior and use of the proposed information as a tool to identify regularities about the search behavior and use of information unskilled users in healthcare and is also capable of application in the study of other audiences, characterized as a general model of search behavior and use of information. This statement stems from the fact that all aspects, phases and stages of the information behavior of the subjects in this study fall (are represented) in the integrative model built, being able to bring these results: the subjects of this research feel the need for information as soon realize a disease in themselves or a family member; they throw themselves in the search for information immediately, even without knowing formal sources of information in the area, through the Web, performing Google searches through popular terms and description of symptoms; at the beginning of the search, they feel insecure for not knowing the most effective words to use in the search strategies, but rely on Google's capability to provide information they deem relevant; they don´t admit, but prefer informal sources of information, which spread testimonials from others who have experienced the same health problems, and are able to identify drugs; there are users who only seek medical attention when they can not find treatment and healing on their own Web; there are users who seek information to better understand and talk about her condition with the doctor; they have urgency in the search for information because they rush in curing the disease not only because of the physical nuisance they cause, but also for fear of losing their jobs due to the delivery of medical certificates and away from social contact with family and friends; the Web is used as a means of access to information that is used for self-diagnosis and self-medication. Research on the search behavior and use of information made from the application of integrative model will bring wider results and provide scientific inputs that can be used by managers of information units at the planning and implementation of products and services. / O objetivo desta tese é construir um modelo integrativo de comportamento de busca e uso de informação com base nos modelos de Ellis (1989), Krikelas (1983), Kuhlthau (1991), Taylor (1986) e Wilson (1981, 1996 e 1999), e validá-lo por meio da aplicação junto a usuários de informação não especializados na área da Saúde (pacientes, excetuando-se estudantes e profissionais da área). A fundamentação teórica partiu do estudo desses modelos, bem como da literatura especializada no que se refere à identificação de necessidades informacionais, processos de busca e uso da informação, além de abordar os conceitos de Ciência da Informação e Saúde, bem como dos estudos comportamentais a partir de teóricos da área de Psicologia. Por meio de um estudo fenomenológico, construímos uma integração dos modelos supracitados e consolidamos a proposta final de um único modelo integrativo de comportamento de busca e uso de informação. Para sua validação, foram realizadas entrevistas em profundidade e aplicação da técnica do incidente crítico com pacientes do Hospital Geral Dr. César Carls de Oliveira, em Fortaleza. A investigação teórico-prática apresentada valida o modelo integrativo de comportamento de busca e uso da informação proposto, como uma ferramenta capaz de identificar regularidades quanto ao comportamento de busca e uso de informação de usuários não especializados na área da saúde, sendo também passível de aplicação no estudo de outros públicos-alvo, caracterizando-se como um modelo generalista de comportamento de busca e uso de informação. Essa afirmação decorre do fato de que todos os aspectos, fases e etapas do comportamento informacional dos sujeitos desta pesquisa se inserem (estão representados) no modelo integrativo construído, sendo capaz de trazer resultados dentre os quais destacamos: os sujeitos desta pesquisa sentem necessidade de informação tão logo percebem uma doença em si próprio ou em alguém de sua família; eles se lançam na busca por informação imediatamente, mesmo sem conhecer fontes formais de informação na área, por meio da Web, realizando buscas no Google, através de termos populares e descrição dos sintomas; no início das buscas, eles se sentem inseguros por desconhecerem os termos mais eficientes para usar nas estratégias de busca, mas confiam na potencialidade do Google de fornecer informações que possam julgar relevantes; não admitem, mas preferem fontes de informação informais, que veiculem depoimentos de outros indivíduos que passaram pelos mesmos problemas de saúde, e que sejam capazes de indicar medicamentos; há usuários de informação que só procuram assistência médica quando não conseguem encontrar tratamento e cura por conta própria na Web; há usuários que procuram informação para melhor compreender e dialogar sobre seu problema de saúde com o médico; eles têm urgência na busca por informação por terem pressa na cura da doença não só por causa dos incômodos físicos que elas causam, mas também por temerem perder seus empregos devido à entrega de atestados médicos e se afastar do convívio social com a família e amigos; a Web é utilizada como forma de acesso a informações que são utilizadas para o autodiagnóstico e automedicação. Pesquisas sobre o comportamento de busca e uso de informação realizados a partir da aplicação do modelo integrativo trarão resultados mais amplos e fornecerão insumos científicos que poderão ser utilizados por gestores de unidades de informação no momento do planejamento e implementação de produtos e serviços.
162

Visualização em nuvens de texto como apoio à busca exploratória na web / Supporting web search with visualization in text clouds

Marcia Severo Lunardi 27 March 2008 (has links)
A presente dissertação é o resultado de uma pesquisa que avalia as vantagens da utilização de nuvens de texto para apresentar os resultados de um sistema de busca na web. Uma nuvem de texto é uma técnica de visualização de informações textuais e tem como principal objetivo proporcionar um resumo de um ou mais conteúdos em uma única tela. Em uma consulta na web, os resultados aparecem listados em diversas páginas. Através de uma nuvem de texto integrada a um sistema de busca é possível a visualização de uma síntese, de um resumo automático, do conteúdo dos resultados listados em várias páginas sem que elas tenham que ser percorridas e os sites acessados individualmente. A nuvem de texto nesse contexto funciona como uma ferramenta auxiliar para que o usuário possa gerenciar a grande carga de informação que é disponibilizada nos resultados das consultas. Dessa forma os resultados podem ser vistos em contexto e, ainda, as palavras que compõem a nuvem, podem ser utilizadas como palavras-chave adicionais para complementar uma consulta inicial. Essa pesquisa foi desenvolvida em duas fases. A primeira consistiu no desenvolvimento de uma aplicação integrada a um sistema de buscas para mostrar seus resultados em nuvens de texto. A segunda fase foi a avaliação dessa aplicação, focada principalmente em buscas exploratórias, que são aquelas em que os objetivos dos usuários não são bem definidos ou o conhecimento sobre o assunto pesquisado é vago. / This dissertation presents the results of a research that evaluates the advantages of text clouds to the visualization of web search results. A text cloud is a visualization technique for texts and textual data in general. Its main purpose is to enhance comprehension of a large body of text by summarizing it automatically and is generally applied for managing information overload. While continual improvements in search technology have made it possible to quickly find relevant information on the web, few search engines do anything to organize or to summarize the contents of such responses beyond ranking the items in a list. In exploratory searches, users may be forced to scroll through many pages to identify the information they seek and are generally not provided with any way to visualize the totality of the results returned. This research is divided in two parts. Part one describes the development of an application that generates text clouds for the summarization of search results from the standard result list provided by the Yahoo search engine. The second part describes the evaluation of this application. Adapted to this specific context, a text cloud is generated from the text of the first sites returned by the search engine according to its relevance algorithms. The benefit of this application is that it enables users to obtain a visual overview of the main results at once. From this overview the users can obtain keywords to navigate to potential relevant subjects that otherwise would be hidden deep down in the response list. Also, users can realize by visualizing the results in context that his initial query term was not the best choice.
163

Modelo integrativo sobre o comportamento do usuário na Busca e uso da informação: aplicação na área de saúde.

Tabosa, Hamilton Rodrigues 23 March 2016 (has links)
Submitted by Morgana Silva (morgana_linhares@yahoo.com.br) on 2016-06-27T19:00:07Z No. of bitstreams: 1 arquivototal.pdf: 2034852 bytes, checksum: 58edc98ea145ae168d1582b70b0e2a3b (MD5) / Made available in DSpace on 2016-06-27T19:00:07Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2034852 bytes, checksum: 58edc98ea145ae168d1582b70b0e2a3b (MD5) Previous issue date: 2016-03-23 / The objective of this thesis is to build an integrative model of search behavior and use of information based on the models of Ellis (1989), Krikelas (1983), Kuhlthau (1991), Taylor (1986) and Wilson (1981, 1996 and 1999) and validate it through the application with the information of users not specialized in healthcare (patients, except for students and professionals). The theoretical foundation came from the study of these models, as well as specialized literature in relation to the identification of information needs, search processes and use of information, in addition to addressing the concepts of Information and Health Science, as well as behavioral studies from theoretical psychology area. Through a phenomenological study, we build an integration of models and consolidate the final proposal for a single integrative model of search behavior and use of information. For validation, interviews were conducted in-depth and technical application of the critical incident with General Hospital patients of the Dr. Carls César de Oliveira, in Fortaleza. The theoretical and practical research presented validates the integrative model of search behavior and use of the proposed information as a tool to identify regularities about the search behavior and use of information unskilled users in healthcare and is also capable of application in the study of other audiences, characterized as a general model of search behavior and use of information. This statement stems from the fact that all aspects, phases and stages of the information behavior of the subjects in this study fall (are represented) in the integrative model built, being able to bring these results: the subjects of this research feel the need for information as soon realize a disease in themselves or a family member; they throw themselves in the search for information immediately, even without knowing formal sources of information in the area, through the Web, performing Google searches through popular terms and description of symptoms; at the beginning of the search, they feel insecure for not knowing the most effective words to use in the search strategies, but rely on Google's capability to provide information they deem relevant; they don´t admit, but prefer informal sources of information, which spread testimonials from others who have experienced the same health problems, and are able to identify drugs; there are users who only seek medical attention when they can not find treatment and healing on their own Web; there are users who seek information to better understand and talk about her condition with the doctor; they have urgency in the search for information because they rush in curing the disease not only because of the physical nuisance they cause, but also for fear of losing their jobs due to the delivery of medical certificates and away from social contact with family and friends; the Web is used as a means of access to information that is used for self-diagnosis and self-medication. Research on the search behavior and use of information made from the application of integrative model will bring wider results and provide scientific inputs that can be used by managers of information units at the planning and implementation of products and services. / O objetivo desta tese é construir um modelo integrativo de comportamento de busca e uso de informação com base nos modelos de Ellis (1989), Krikelas (1983), Kuhlthau (1991), Taylor (1986) e Wilson (1981, 1996 e 1999), e validá-lo por meio da aplicação junto a usuários de informação não especializados na área da Saúde (pacientes, excetuando-se estudantes e profissionais da área). A fundamentação teórica partiu do estudo desses modelos, bem como da literatura especializada no que se refere à identificação de necessidades informacionais, processos de busca e uso da informação, além de abordar os conceitos de Ciência da Informação e Saúde, bem como dos estudos comportamentais a partir de teóricos da área de Psicologia. Por meio de um estudo fenomenológico, construímos uma integração dos modelos supracitados e consolidamos a proposta final de um único modelo integrativo de comportamento de busca e uso de informação. Para sua validação, foram realizadas entrevistas em profundidade e aplicação da técnica do incidente crítico com pacientes do Hospital Geral Dr. César Carls de Oliveira, em Fortaleza. A investigação teórico-prática apresentada valida o modelo integrativo de comportamento de busca e uso da informação proposto, como uma ferramenta capaz de identificar regularidades quanto ao comportamento de busca e uso de informação de usuários não especializados na área da saúde, sendo também passível de aplicação no estudo de outros públicos-alvo, caracterizando-se como um modelo generalista de comportamento de busca e uso de informação. Essa afirmação decorre do fato de que todos os aspectos, fases e etapas do comportamento informacional dos sujeitos desta pesquisa se inserem (estão representados) no modelo integrativo construído, sendo capaz de trazer resultados dentre os quais destacamos: os sujeitos desta pesquisa sentem necessidade de informação tão logo percebem uma doença em si próprio ou em alguém de sua família; eles se lançam na busca por informação imediatamente, mesmo sem conhecer fontes formais de informação na área, por meio da Web, realizando buscas no Google, através de termos populares e descrição dos sintomas; no início das buscas, eles se sentem inseguros por desconhecerem os termos mais eficientes para usar nas estratégias de busca, mas confiam na potencialidade do Google de fornecer informações que possam julgar relevantes; não admitem, mas preferem fontes de informação informais, que veiculem depoimentos de outros indivíduos que passaram pelos mesmos problemas de saúde, e que sejam capazes de indicar medicamentos; há usuários de informação que só procuram assistência médica quando não conseguem encontrar tratamento e cura por conta própria na Web; há usuários que procuram informação para melhor compreender e dialogar sobre seu problema de saúde com o médico; eles têm urgência na busca por informação por terem pressa na cura da doença não só por causa dos incômodos físicos que elas causam, mas também por temerem perder seus empregos devido à entrega de atestados médicos e se afastar do convívio social com a família e amigos; a Web é utilizada como forma de acesso a informações que são utilizadas para o autodiagnóstico e automedicação. Pesquisas sobre o comportamento de busca e uso de informação realizados a partir da aplicação do modelo integrativo trarão resultados mais amplos e fornecerão insumos científicos que poderão ser utilizados por gestores de unidades de informação no momento do planejamento e implementação de produtos e serviços.
164

Hibridiza??o de meta-heur?sticas com m?todos baseados em programa??o linear para o problema do caixeiro alugador / Hybridization of metaheuristics with methods based on linear programming for the traveling car renter salesman problem

Rios, Brenner Humberto Ojeda 02 February 2018 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2018-03-02T23:39:14Z No. of bitstreams: 1 BrennerHumbertoOjedaRios_DISSERT.pdf: 2438215 bytes, checksum: 3e559bfdaf797a4b9164e336ebd13429 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2018-03-13T18:44:23Z (GMT) No. of bitstreams: 1 BrennerHumbertoOjedaRios_DISSERT.pdf: 2438215 bytes, checksum: 3e559bfdaf797a4b9164e336ebd13429 (MD5) / Made available in DSpace on 2018-03-13T18:44:23Z (GMT). No. of bitstreams: 1 BrennerHumbertoOjedaRios_DISSERT.pdf: 2438215 bytes, checksum: 3e559bfdaf797a4b9164e336ebd13429 (MD5) Previous issue date: 2018-02-02 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / O Problema do Caixeiro Viajante com Aluguel de Carros, ou simplesmente Problema do Caixeiro Alugador (PCA), ? uma generaliza??o do cl?ssico Problema do Caixeiro Viajante (PCV) onde seu tour de visitas pode ser decomposto em caminhos cont?guos que podem ser percorridos com diferentes carros alugados. O objetivo ? determinar o circuito hamiltoniano que resulte em um custo final m?nimo, considerando a penaliza??o paga em cada troca de ve?culos no tour. A penaliza??o ? o custo de retornar o carro at? a cidade onde foi alugado. O PCA est? classificado como um problema NP-dif?cil. O presente trabalho estuda a variante mais usada na literatura do PCA que ?: completo, total, irrestrito, sem repeti??o, livre e sim?trico. O foco da pesquisa s?o os procedimentos h?bridos que combinam meta-heur?sticas e m?todos baseados na Programa??o Linear. S?o hibridizados: algoritmos cient?ficos (ScA), descida em vizinhan?a vari?vel (VND), busca local adaptativa (ALSP) e uma nova variante do ALSP chamada busca local adaptativa iterativa (IALSP). As seguintes t?cnicas s?o propostas para lidar com o PCA: ScA+ALSP, ScA+IALSP e ScA+VND+IALSP. ? proposto um modelo de programa??o inteira mista para o PCA o qual ? usado no ALSP e no IALSP. Testes n?o param?tricos s?o usados para comparar os algoritmos em um conjunto de inst?ncias da literatura. / The Traveling Car Renter Salesman Problem, or simply Traveling Car Renter Problem (CaRS), is a generalization of the Traveling Salesman Problem (TSP) where the tour can be decomposed into contiguous paths that are traveled by different rented cars. The objective is to construct a minimal cost Hamiltonian circuit, considering the penalty paid for changing cars in the tour. This penalty is the cost of returning a car to the city where it was rented. CaRS is classified as an NP-hard problem. This work studies the CaRS version classified as: complete, total, unrestricted, with no repetition, free and symmetric. This research is focused on hybrid procedures that combine metaheuristics and methods based on Linear Programming (LP). The following methods were investigated: scientific algorithms (ScA), variable neighborhood descent (VND), adaptive local search (ASLP) and a new variant of ALSP called iterated adaptive local search (IALSP). The following techniques are proposed to deal with CaRS: ScA+ALSP, ScA+IALSP and ScA+VND+IALSP. A mixed integer programming model is proposed for CaRS which was used in the ALSP and IALSP. Non-parametric tests were used to compare the algorithms within a set of instances from the literature.
165

Visualização em nuvens de texto como apoio à busca exploratória na web / Supporting web search with visualization in text clouds

Marcia Severo Lunardi 27 March 2008 (has links)
A presente dissertação é o resultado de uma pesquisa que avalia as vantagens da utilização de nuvens de texto para apresentar os resultados de um sistema de busca na web. Uma nuvem de texto é uma técnica de visualização de informações textuais e tem como principal objetivo proporcionar um resumo de um ou mais conteúdos em uma única tela. Em uma consulta na web, os resultados aparecem listados em diversas páginas. Através de uma nuvem de texto integrada a um sistema de busca é possível a visualização de uma síntese, de um resumo automático, do conteúdo dos resultados listados em várias páginas sem que elas tenham que ser percorridas e os sites acessados individualmente. A nuvem de texto nesse contexto funciona como uma ferramenta auxiliar para que o usuário possa gerenciar a grande carga de informação que é disponibilizada nos resultados das consultas. Dessa forma os resultados podem ser vistos em contexto e, ainda, as palavras que compõem a nuvem, podem ser utilizadas como palavras-chave adicionais para complementar uma consulta inicial. Essa pesquisa foi desenvolvida em duas fases. A primeira consistiu no desenvolvimento de uma aplicação integrada a um sistema de buscas para mostrar seus resultados em nuvens de texto. A segunda fase foi a avaliação dessa aplicação, focada principalmente em buscas exploratórias, que são aquelas em que os objetivos dos usuários não são bem definidos ou o conhecimento sobre o assunto pesquisado é vago. / This dissertation presents the results of a research that evaluates the advantages of text clouds to the visualization of web search results. A text cloud is a visualization technique for texts and textual data in general. Its main purpose is to enhance comprehension of a large body of text by summarizing it automatically and is generally applied for managing information overload. While continual improvements in search technology have made it possible to quickly find relevant information on the web, few search engines do anything to organize or to summarize the contents of such responses beyond ranking the items in a list. In exploratory searches, users may be forced to scroll through many pages to identify the information they seek and are generally not provided with any way to visualize the totality of the results returned. This research is divided in two parts. Part one describes the development of an application that generates text clouds for the summarization of search results from the standard result list provided by the Yahoo search engine. The second part describes the evaluation of this application. Adapted to this specific context, a text cloud is generated from the text of the first sites returned by the search engine according to its relevance algorithms. The benefit of this application is that it enables users to obtain a visual overview of the main results at once. From this overview the users can obtain keywords to navigate to potential relevant subjects that otherwise would be hidden deep down in the response list. Also, users can realize by visualizing the results in context that his initial query term was not the best choice.
166

Soluções aproximadas para algoritmos escaláveis de mineração de dados em domínios de dados complexos usando GPGPU / On approximate solutions to scalable data mining algorithms for complex data problems using GPGPU

Alexander Victor Ocsa Mamani 22 September 2011 (has links)
A crescente disponibilidade de dados em diferentes domínios tem motivado o desenvolvimento de técnicas para descoberta de conhecimento em grandes volumes de dados complexos. Trabalhos recentes mostram que a busca em dados complexos é um campo de pesquisa importante, já que muitas tarefas de mineração de dados, como classificação, detecção de agrupamentos e descoberta de motifs, dependem de algoritmos de busca ao vizinho mais próximo. Para resolver o problema da busca dos vizinhos mais próximos em domínios complexos muitas abordagens determinísticas têm sido propostas com o objetivo de reduzir os efeitos da maldição da alta dimensionalidade. Por outro lado, algoritmos probabilísticos têm sido pouco explorados. Técnicas recentes relaxam a precisão dos resultados a fim de reduzir o custo computacional da busca. Além disso, em problemas de grande escala, uma solução aproximada com uma análise teórica sólida mostra-se mais adequada que uma solução exata com um modelo teórico fraco. Por outro lado, apesar de muitas soluções exatas e aproximadas de busca e mineração terem sido propostas, o modelo de programação em CPU impõe restrições de desempenho para esses tipos de solução. Uma abordagem para melhorar o tempo de execução de técnicas de recuperação e mineração de dados em várias ordens de magnitude é empregar arquiteturas emergentes de programação paralela, como a arquitetura CUDA. Neste contexto, este trabalho apresenta uma proposta para buscas kNN de alto desempenho baseada numa técnica de hashing e implementações paralelas em CUDA. A técnica proposta é baseada no esquema LSH, ou seja, usa-se projeções em subespac¸os. O LSH é uma solução aproximada e tem a vantagem de permitir consultas de custo sublinear para dados em altas dimensões. Usando implementações massivamente paralelas melhora-se tarefas de mineração de dados. Especificamente, foram desenvolvidos soluções de alto desempenho para algoritmos de descoberta de motifs baseados em implementações paralelas de consultas kNN. As implementações massivamente paralelas em CUDA permitem executar estudos experimentais sobre grandes conjuntos de dados reais e sintéticos. A avaliação de desempenho realizada neste trabalho usando GeForce GTX470 GPU resultou em um aumento de desempenho de até 7 vezes, em média sobre o estado da arte em buscas por similaridade e descoberta de motifs / The increasing availability of data in diverse domains has created a necessity to develop techniques and methods to discover knowledge from huge volumes of complex data, motivating many research works in databases, data mining and information retrieval communities. Recent studies have suggested that searching in complex data is an interesting research field because many data mining tasks such as classification, clustering and motif discovery depend on nearest neighbor search algorithms. Thus, many deterministic approaches have been proposed to solve the nearest neighbor search problem in complex domains, aiming to reduce the effects of the well-known curse of dimensionality. On the other hand, probabilistic algorithms have been slightly explored. Recently, new techniques aim to reduce the computational cost relaxing the quality of the query results. Moreover, in large-scale problems, an approximate solution with a solid theoretical analysis seems to be more appropriate than an exact solution with a weak theoretical model. On the other hand, even though several exact and approximate solutions have been proposed, single CPU architectures impose limits on performance to deliver these kinds of solution. An approach to improve the runtime of data mining and information retrieval techniques by an order-of-magnitude is to employ emerging many-core architectures such as CUDA-enabled GPUs. In this work we present a massively parallel kNN query algorithm based on hashing and CUDA implementation. Our method, based on the LSH scheme, is an approximate method which queries high-dimensional datasets with sub-linear computational time. By using the massively parallel implementation we improve data mining tasks, specifically we create solutions for (soft) realtime time series motif discovery. Experimental studies on large real and synthetic datasets were carried out thanks to the highly CUDA parallel implementation. Our performance evaluation on GeForce GTX 470 GPU resulted in average runtime speedups of up to 7x on the state-of-art of similarity search and motif discovery solutions
167

Uma medida de similaridade híbrida para correspondência aproximada de múltiplos padrões / A hybrid similarity measure for multiple approximate pattern matching

Dezembro, Denise Gazotto 07 March 2019 (has links)
A busca aproximada por múltiplos padrões similares é um problema encontrado em diversas áreas de pesquisa, tais como biologia computacional, processamento de sinais e recuperação de informação. Na maioria das vezes, padrões não possuem uma correspondência exata e, portanto, buscam-se padrões aproximados, de acordo com um modelo de erro. Em geral, o modelo de erro utiliza uma função de distância para determinar o quanto dois padrões são diferentes. As funções de distância são baseadas em medidas de similaridade, que são classificadas em medidas de similaridade baseadas em distância de edição, medidas de similaridade baseadas em token e medidas de similaridade híbridas. Algumas dessas medidas extraem um vetor de características de todos os termos que constituem o padrão. A similaridade entre os vetores pode ser calculada pela distância entre cossenos ou pela distância euclidiana, por exemplo. Essas medidas apresentam alguns problemas: tornam-se inviáveis conforme o tamanho do padrão aumenta, não realizam a correção ortográfica ou apresentam problemas de normalização. Neste projeto de pesquisa propõe-se uma nova medida de similaridade híbrida que combina TF-IDF Weighting e uma medida de similaridade baseada em distância de edição para estimar a importância de um termo dentro de um padrão na tarefa de busca textual. A medida DGD não descarta completamente os termos que não fazem parte do padrão, mas atribui um peso baseando-se na alta similaridade deste termo com outro que está no padrão e com a média de TF-IDF Weighting do termo na coleção. Alguns experimentos foram conduzidos mostrando o comportamento da medida proposta comparada com as outras existentes na literatura. Tem-se como recomendação geral o limiar de {tf-idf+cosseno, Jaccard, Soft tf-idf} 0,60 e {Jaro, Jaro-Winkler, Monge-Elkan} 0,90 para detecção de padrões similares. A medida de similaridade proposta neste trabalho (DGD+cosseno) apresentou um melhor desempenho quando comparada com tf idf+cosseno e Soft tf-idf na identificação de padrões similares e um melhor desempenho do que as medidas baseadas em distância de edição (Jaro e JaroWinkler) na identificação de padrões não similares. Atuando como classificador, em geral, a medida de similaridade híbrida proposta neste trabalho (DGD+cosseno) apresentou um melhor desempenho (embora não sinificativamente) do que todas as outras medidas de similaridade analisadas, o que se mostra como um resultado promissor. Além disso, é possível concluir que o melhor valor de a ser usado, onde corresponde ao limiar do valor da medida de similaridade secundária baseada em distância de edição entre os termos do padrão, corresponde a 0,875. / Multiple approximate pattern matching is a challenge found in many research areas, such as computational biology, signal processing and information retrieval. Most of the time, a pattern does not have an exact match in the text, and therefore an error model becomes necessary to search for an approximate pattern match. In general, the error model uses a distance function to determine how different two patterns are. Distance functions use similarity measures which can be classified in token-based, edit distance based and hybrid measures. Some of these measures extract a vector of characteristics from all terms in the pattern. Then, the similarity between vectors can be calculated by cosine distance or by euclidean distance, for instance. These measures present some problems: they become infeasible as the size of the pattern increases, do not perform the orthographic correction or present problems of normalization. In this research, we propose a new hybrid similarity metric, named DGD, that combines TF-IDF Weighting and a edit distance based measure to estimate the importance of a term within patterns. The DGD measure doesnt completely rule out terms that are not part of the pattern, but assigns a weight based on the high similarity of this term to another that is in the pattern and with the TF-IDF Weighting mean of the term in the collection. Experiment were conducted showing the soundness of the proposed metric compared to others in the literature. The general recommendation is the threshold of {tf-idf+cosseno, Jaccard, Soft tf-idf} 0.60 and {Jaro, Jaro-Winkler, Monge-Elkan} 0.90 for detection of similar patterns. The similarity measure proposed in this work (DGD + cosine) presented a better performance when compared with tf-idf+cosine and Soft tf-idf in the identification of similar patterns and a better performance than the edit distance based measures (Jaro and Jaro-Winkler) in identifying non-similar patterns. As a classifier, in general, the hybrid similarity measure proposed in this work (DGD+cosine) performed better (although not significantly) than all other similarity measures analyzed, which is shown as a promising result . In addition, it is possible to conclude that the best value of to be used, where is the theshold of the value of the secondary similarity measure based on edit distance between the terms of the pattern, corresponds to 0.875.
168

A biblioteca universitária como ambiente de aprendizagem no ensino superior / The academic library as an environment for learning on the higher education.

Sousa, Margarida Maria de 16 September 2009 (has links)
O ensino universitário tem buscado cada vez mais formar profissionais com espírito crítico e reflexivo, aproximando-os da realidade desde seu estágio como estudante. A biblioteca universitária tem sido vista freqüentemente como ambiente de apoio às atividades de ensino, pesquisa e extensão na academia. Entretanto, é também sua função, contribuir para a inserção do estudante no universo da pesquisa acadêmica, desenvolvendo atividades de mediação junto ao usuário nos processos de busca da informação para que ele tenha condições de transformá-la em conhecimento. Considera-se a importância da Biblioteconomia e da Ciência da Informação dialogarem com outras áreas do conhecimento tais como a Educação, a Metodologia Científica e a Psicologia. Abordam-se os conceitos de informação e conhecimento, biblioteca universitária, estudos e educação de usuários. Objetiva-se discutir o papel do bibliotecário na educação de usuários, entendendo a biblioteca como espaço de aquisição do conhecimento. O estudo é baseado no processo construtivista de busca de informação (ISP) de Carol Kuhlthau. A pesquisa é de caráter exploratório com abordagem qualitativa através de entrevistas com alunos de graduação e pós-graduação de faculdades das três áreas do conhecimento, Humanas, Biológicas e Exatas da Universidade de São Paulo. Ao final da análise conclui-se que há necessidade e espaço para que e a biblioteca universitária possa tornar-se ambiente propício a colaborar na aprendizagem do estudante universitário. / The learning process at the university has been increasingly trying to develop reflexive and critical professionals, offering them a close contact with the reality since their intern period as students. The academic library has been seen frequently as an environment to support learning, research and additional studies activities at the academia. Nevertheless, it also has the role to contribute to the student immersion on the academic research, developing activities as a medium for its users to search for information so that they could transform it in knowledge. It is taken into consideration the importance of Librarianship and Information Science to dialogue with other areas as Education, Scientific Methodology and Psychology. This paper deals with the concepts of information and knowledge, academic library, users studies and learning. Its goal is to discuss the role of the librarian in relation to its users education, understanding the library as a place to acquire knowledge. The study is based on the constructive Information Search Process (ISP) from Carol Kuhlthau. The research has an exploratory character with qualitative approach through interviews with students from graduation and post graduation from three fields: Humanities, Biological and Exact Sciences from Universidade de São Paulo (Sao Paulo University). By the end of the analysis, it is concluded that there is a need and space for the university library to become an environment proper to collaborate on the knowledge of the university student.
169

Ambiente de apoio ao desenvolvimento de aplicações distribuídas e reconfiguráveis utilizando agentes de busca e classificação inteligentes / Environment to aid the development of distributed and reconfigurable applications using software agents to intelligent search and classification

Rossi, Ednilson Geraldo 11 August 2009 (has links)
A área de engenharia de software passou por muitas alterações desde sua criação. Vista como uma técnica para aumentar a produtividade e baixar os custos, a reutilização de software é um dos principais estudos dos pesquisadores da área de computação. Como a reconfiguração de software é na verdade a reutilização de um software, porém com algumas adaptações, este trabalho tem por objetivo desenvolver uma metodologia e um conjunto de ferramentas que agilizem e facilitem o processo de reutilização/reconfiguração de componentes de software. A associação destas ferramentas constitui um mecanismo de armazenamento, indexação, busca e recuperação de artefatos de software. Este mecanismo trabalha com a estrutura dos projetos de software e também com as relações semânticas existentes entre os termos utilizados no software. Para representar a estrutura interna do software (características e relacionamentos) utiliza-se de um metamodelo. Já as relações semânticas são representadas por meio de um tesauro. Por fim, todas as informações do metamodelo e do tesauro são armazenadas em um repositório de software que é manipulado por agentes de software. / Software engineering area suffered many transformations since its creation. Usually seen as a technique to raise productivity and decrease costs, softwares reusing is one of the main studies in computer field. Since softwares reconfiguration is, in essence, a software reuse, although with some adaptations, this work aims to develop a methodology and a set of tools that speed up and facilitate the process of reuse/reconfiguration of software components. These tools association constitute a mechanism of storing, indexing, search and recovering of software artifacts. This mechanism works with the structure of software projects and also with semantic relationships that exist between the software\'s terms. To represent software\'s inner structure (features and relationships) a metamodel is used. Semantic relationships are represented by a thesaurus. Finally, all the informations from metamodel and thesaurus are stored in a software repository, which is manipulated by software agents.
170

Busca virtual de agonistas enviesados não peptídicos do receptor de angiotensina II do tipo 1 / Angiotensin II type 1 receptor non-peptidic biased agonists\' virtual screening

Magalhães, Juliana Gallottini de 30 January 2015 (has links)
Os inibidores do receptor de angiotensina II do tipo 1 (AT1R), fármacos da classe das sartanas, são muito utilizados na terapêutica da insuficiência cardíaca. Apesar de serem eficientes por baixarem a pressão arterial, esses inibidores diminuem a contratilidade do músculo cardíaco, acentuando a patologia. Nesse sentido, os agonistas enviesados para β-arrestina do AT1R surgem como uma solução para esse problema. Estudos com o mais promissor peptídeo com ação agonista enviesada (TRV120027) mostram que ele é capaz de diminuir a pressão arterial sem causar o efeito inotrópico negativo no coração. Tendo em vista esse novo e promissor mecanismo de ação e a característica peptídica do novo agonista enviesado que restringe sua utilização, o presente trabalho visou à busca de ligantes não peptídicos com potencial ação enviesada. Foram realizados estudos de ancoramento seguidos de dinâmica molecular, no AT1R, de sete peptídeos agonistas e agonistas enviesados descritos na literatura, empregando-se os programas Surflex-Dock 2.0 e o GROMACS 4.5, além de análises de campos de interação molecular no programa GRID. Os dados das interações intermoleculares retirados da dinâmica e dos campos de interação guiaram a construção de um farmacóforo que foi utilizado posteriormente em uma busca virtual na base de dados ZINC, com o módulo UNITY 3D do pacote Sybyl-X Suite 2.0. Após ancoramento e análise visual das moléculas selecionadas na busca, foram identificadas 15 moléculas promissoras, sendo cinco delas consideradas de maior interesse. As moléculas selecionadas na busca poderão ser futuramente testadas quanto ao perfil de ação enviesada em receptores AT1R. Os resultados obtidos nesse estudo podem levar à descoberta de um novo protótipo mais eficiente e seguro para o tratamento de doenças cardiovasculares, como a insuficiência cardíaca. / Angiotensin II type 1 receptor (AT1R) inhibitors, the sartans, are widely used in the treatment of heart failure. Although they are effective for lowering blood pressure, these inhibitors decrease the contractility of the heart muscle, accentuating the pathology. Accordingly, β-arrestin biased agonists for AT1R emerge as a solution to this problem. Studies with the most promising biased agonist peptide (TRV120027) show that it is able to lower blood pressure without causing negative inotropic effect on the heart. Given this promising new mechanism of action and the peptide feature of the new agonist that restricts its use, this work aims the search for non-peptide ligands with a potential biased action. Docking studies, followed by molecular dynamics simultions, were performed for seven full and biased agonists in the AT1R, using the Surflex-Dock 2.0 and 4.5 GROMACS programs, besides molecular interaction fields analysis with GRID software. The data of intermolecular interactions from the molecular dynamic\'s analysis and the molecular interaction fields guided to the construction of a pharmacophore model which was subsequently used in a virtual screening from ZINC database, employing the 3D UNITY module from Sybyl-X Suite 2.0 package. After a docking study and visual analysis of the primary selected molecules, 15 promising molecules have been identified, five of them considered of most interest. The molecules selected in the search can be further tested for biased action on AT1R. The results of this study may lead to the discovery of a more efficient and secure lead for the treatment of cardiovascular diseases, such as heart failure.

Page generated in 0.0663 seconds