• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 890
  • 73
  • 66
  • 66
  • 66
  • 39
  • 29
  • 29
  • 26
  • 26
  • 13
  • 9
  • 1
  • 1
  • 1
  • Tagged with
  • 931
  • 931
  • 438
  • 291
  • 234
  • 191
  • 185
  • 162
  • 161
  • 144
  • 124
  • 118
  • 114
  • 100
  • 97
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Towards gathering and mining last.fm user-generated data

Lima, João Norberto Fernandes da Costa January 2009 (has links)
Estágio realizado no INESC / Tese de mestrado integrado. Engenharia Informática e Computação. Faculdade de Engenharia. Universidade do Porto. 2009
42

Anotação ad-hoc de conteúdos audiovisuais : reutilização de descritores de baixo e alto nível para extracção de conhecimento

Cordeiro, Mário Miguel Fernandes January 2008 (has links)
Tese de mestrado. Engenharia Informática. Faculdade de Engenharia. Universidade do Porto. 2008
43

Automatic collection of biographical data on the web for public personalities

Paixão, José Pedro Azeredo Lopes de Moura January 2010 (has links)
Tese de mestrado integrado. Engenharia Informática e Computação. Faculdade de Engenharia. Universidade do Porto. 2010
44

Protótipo de procura semântica aplicado a um motor de busca documental

Barreto, Luís José Frederico January 2008 (has links)
Tese de mestrado integrado. Engenharia Electrotécnica e de Computadores (Major Automação). Faculdade de Engenharia. Universidade do Porto. 2008
45

Mineração de opiniões aplicada a mídias sociais

Souza, Marlo Vieira dos Santos e January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:17Z (GMT). No. of bitstreams: 1 000448645-Texto+Completo-0.pdf: 990116 bytes, checksum: 3ad832cb853385fcbb55975315370396 (MD5) Previous issue date: 2012 / The competitive environment has become more dynamic in the last few decades due to the great development of information and comunication technologies and to the globalization process. A company manager must, thus, always be well informed about the competitive landscape before making strategic decisions. In this sense, the Competitive Intelligence (CI) emerges as a discipline that aims to systematize the collection and analysis of information in the competitive environment willing to assist decision making. There is, however, an increasing amount of information being produced and released in Internet and traditional media, which become unwieldy. Associated with this, managers still suffer with time constraints to respond to the market stimuli and remain competitive. Thus, it is necessary to maintain a constant staff monitoring the competitive environment to be able to handle the amount of information from this various sources. We believe that the application Text Analysis techniques can help in various stages of such process. This work presents a proposal to use such techniques to aid the process of Competitive Intelligence. We discuss the use of Sentiment Analysis techniques coupled with Named Entity Recognition in texts from social media - especially Twitter - which helps in the analysis of the attitudes of the consumer market towards a brand. We also present a system implementing the proposed techniques, the evaluations made with it and present our conclusions. / O ambiente competitivo se tornou, nas ultimas décadas, mais dinâmico graças às tecnologias de informação e comunicação e à globalização. O gestor, assim, precisa estar sempre bem informado sobre o panorama competitivo antes de tomar decisões estratégicas. Nessa direção, a Inteligência Competitiva (IC) surge como uma disciplina que pretende sistematizar a obtenção e análise de informações do ambiente competitivo com função de auxiliar a tomada de decisão. Há entretanto uma quantidade crescente de informação sendo produzida e disponibilizada em meios como a Internet e mídias tradicionais, as quais se tornam de difícil manejo. Associado a isso, os gestores sofrem ainda com restrições temporais para responder ao estímulo do mercado e manteremse competitivos. Dessa forma, é necessário manter uma equipe de monitoramento constante do ambiente competitivo para que se possa lidar com a quantidade de informação proveniente de diversas fontes. Acreditamos que a aplicação de técnicas de Análise de Texto podem auxiliar nas diversas fases do processo de IC.O presente trabalho apresenta uma proposta de utilização de tais técnicas para auxiliar o processo de Inteligência Competitiva. Discutimos aqui a utilização de um método de Análise de Sentimentos aliado ao Reconhecimento de Entidades Nomeadas em textos provenientes de mídias sociais - particularmente o Twitter - que permitam analisar as atitudes do mercado consumidor quanto a uma determinada marca. São apresentados ainda o sistema desenvolvido, as avaliações realizadas e as conclusões que tiramos.
46

Recomendação de tags para mídia social colaborativa: da generalização à personalização

Ziesemer, Angelina de Carvalho A. January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:45Z (GMT). No. of bitstreams: 1 000438773-Texto+Completo-0.pdf: 3581155 bytes, checksum: 8bd17c869fd04adc206bbbcd32f4b1dd (MD5) Previous issue date: 2012 / Social media systems such as Flickr, Youtube and Picasa have become very popular as they provide a collaborative environment to share photos and videos supporting tags, ratings and comments. This kind of interaction includes a lot of content provided by users, which may bring meaningful information to recommendation systems. The aggregation of tags is also a way to cluster items and provide tag-based search content. We investigate how to support tag recommendation by ranking the co-occurrence, popularity and relevance of commonly-used tags in similar items and by similar users. We developed a tag recommendation system to recommend of possibly relevant tags. We use Flickr’s dataset to analyze our algorithm’s behavior and present the results provide by the experiment. A new model using personalized recommendation was developed using the experiment results and the behavior of each user. / Sistemas de mídia social como Flickr, Youtube e Picasa tornaram-se muito populares devido ao seu ambiente para compartilhamento de imagens, vídeos e suporte à atribuição de tags, avaliações e comentários. Sistemas colaborativos possuem grandes quantidades de conteúdo provido pelos usuários, os quais fornecem informações relevantes para engines de recomendação. O uso de tags também permite a clusterização e busca de conteúdo baseado em palavras-chaves. Neste trabalho foi investigado um mecanismo para recomendar tags, desenvolvendo medidas de co-ocorrência, popularidade e relevância de tags comumente usadas em itens similares e por usuários similares. Foi desenvolvido um sistema para recomendar possíveis tags relevantes baseadas na similaridade contextual de outras tags providas pelos usuários. Para o desenvolvimento do experimento, foi utilizado um dataset do Flickr para gerar recomendações e analisar o comportamento do algoritmo e as atribuições efetuadas pelos usuários participantes. Os resultados obtidos demonstraram padrões de atribuição e desempenho de acordo com o conteúdo/contexto da imagem. Utilizando a frequência de atribuição baseada no histórico de cada perfil é sugerido um novo modelo personalizado para recomendação de tags.
47

Extração automática de conceitos a partir de textos em língua portuguesa

Lopes, Lucelene January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:26Z (GMT). No. of bitstreams: 1 000439085-Texto+Completo-0.pdf: 7508888 bytes, checksum: c69f67a5ec361212f83a17a4407866ce (MD5) Previous issue date: 2012 / This thesis describes a process to extract concepts from texts in portuguese language. The proposed process starts with linguistic annotated corpora from specific domains, and it generates lists of concepts for each corpus. The proposal of a linguistic oriented extraction procedure based on noun phrase detection, and a set of heuristics to improve the overall quality of concept candidate extraction is made. The improvement in precision and recall of extracted term list is from approximatively from 10% to more more than 60%. A new index (tf-dcf) based on contrastive corpora is proposed to sort the concept candidate terms according to the their relevance to their respective domain. The precision results achieved by this new index are superior to to the results achieved by indices proposed in similar works. Cut-off points are proposed in order to identify, among extracted concept candidate terms sorted according to their relevance, which of them will be considered concepts. A hybrid approach to choose cut-off points delivers reasonable F-measure values, and it brings quality to the concept identification process. Additionally, four applications are proposed in order to facilitate the comprehension, handling, and visualization of extracted terms and concepts. Such applications enlarge this thesis contributions available to a broader community of researchers and users of Natural Language Processing area. The proposed process is described in detail, and experiments empirically evaluate each process step. Besides the scientific contribution made with the process proposal, this thesis also delivers extracted concept lists for five different domain corpora, and the prototype of a software tool (EχATOLP) implementing all steps of the proposed process. / Essa tese descreve um processo para extrair conceitos de textos em língua portuguesa. O processo proposto inicia com corpora de domínio linguisticamente anotados, e gera listas de conceitos dos domínios de cada corpus. Utiliza-se uma abordagem linguística, que baseia-se na identificação de sintagmas nominais e um conjunto de heurísticas que melhoram a qualidade da extração de candidatos a conceitos. Essa melhora é expressa por incrementos aproximadamente de 10% para mais de 60% nos valores de precisão e abrangência das listas de termos extraídas. Propõe-se um novo índice (tf-dcf) baseado na comparação com corpora contrastantes, para ordenar os termos candidatos a conceito extraídos de acordo com suas relevâncias para o corpus de domínio. Os resultados obtidos com esse novo índice são superiores aos resultados obtidos com índices propostos em trabalhos similares. Aplicam-se pontos de corte para identificar, dentre os termos candidatos classificados segundo sua relevância, quais serão considerados conceitos. O uso de uma abordagem híbrida para escolha de pontos de corte fornece valores adequados de medida F, trazendo qualidade ao processo de identificação de conceitos. Adicionalmente. propõem-se quatro aplicações para facilitar a compreensão, manipulação e visualização dos termos e conceitos extraídos. Essas aplicações tornam as contribuições dessa tese acessíveis a um maior número de pesquisadores e usuários da área de Processamento de Linguagem Natural. Todo o processo proposto é descrito em detalhe, e experimentos avaliam empiricamente cada passo. Além das contribuições científicas feitas com a proposta do processo, essa tese também apresenta listas de conceitos extraídos para cinco diferentes corpora de domínio, e o protótipo de numa ferramenta de software (EXATOLP) que implementa todos os passos propostos.
48

Caracterização dos fatores de relevância do usuário no processo de recuperação de informação : estudo em ambiente de pesquisa em pós-graduação

Pitangueira, Antônio Maurício da Silva January 2004 (has links)
Com o desenvolvimento e crescimento das tecnologias de informação e, em especial, a Internet, encontrar informação relevante e útil tornou-se uma tarefa complexa que envolve os aspectos computacionais dos Sistemas de Recuperação de Informação (SRIs) e os aspectos situacionais, psicológicos e cognitivos dos usuários. No entanto, há um desequilíbrio neste cenário pois o enfoque das pesquisas de recuperação de informação (RI) está extremamente voltado para a abordagem computacional. Decorrente deste viés, o aspecto central da recuperação de informação – o julgamento de relevância – tornou-se muito limitado e acarretou em baixo desempenho dos SRIs. Notando esta problemática, esta pesquisa teve como objetivo caracterizar os fatores de relevância empregados pelos usuários durante o processo de RI com o intuito de contribuir para a especificação de requisitos e avaliação daqueles sistemas. Assim, a pesquisa foi composta por duas etapas de avaliação denominadas ex ante e ex post para verificar a mudança de percepção em torno dos julgamentos de relevância. Para tanto, foi criado um instrumento de pesquisa para verificar os julgamentos de relevância que foram avaliados por 49 respondentes, obtendo um total de 238 objetos informacionais avaliados no momento ex ante e destes, 224 foram retornados (ex post). Os resultados encontrados mostraram que existe uma significativa mudança de percepção dos usuários nas duas medições, e demonstraram que os fatores de relevância obedecem a um processo decisório bem definido. Observou-se também que a utilidade e os aspectos cognitivos são as manifestações de relevância consideradas mais importantes pelos usuários e as demais servem para ter a noção de rejeição ou não do objeto informacional.
49

Biblioteca virtual de imagens em medicina(BVIM) / Virtual imagens library in medicine(VILM)

Carrare, Ana Paula Galvão Damasceno [UNIFESP] January 2005 (has links) (PDF)
Made available in DSpace on 2015-12-06T23:06:30Z (GMT). No. of bitstreams: 0 Previous issue date: 2005 / Na área da saúde as imagens são muito utilizadas, tanto na prática profissional quanto na educação. Como conseqüência, há uma constante procura de formas para armazená-las, organizá-las e recuperá-las. Ao longo do tempo e muito em função da forma como, habitualmente, são arquivadas, as imagens sofrem danos que podem inutilizá-las. Há também problemas quanto ao compartilhamento destas, visto que, normalmente, estão concentradas em áreas ou grupos específicos, o que dificulta a consulta. O presente trabalho teve como objetivo desenvolver um ambiente de organização e recuperação de imagens na área da saúde com foco na educação e, paralelamente, permitir aos profissionais organizá-las e compartilhá-las com os outros membros da comunidade. Para tanto, foi escolhido o formato digital, com interface Web, no qual as imagens foram catalogadas com protocolo específico, indexadas a partir do texto descritivo e classificadas com o vocabulário controlado DeCs da Bireme. A consulta foi implementada baseando-se no modelo booleano, no uso de metadados e na pesquisa hierárquica. O resultado da busca foi ordenado pela relevância de cada imagem. O produto final do trabalho foi a Biblioteca Virtual de Imagens em Medicina (BVIM), que dispõe de áreas de acesso público e restrito, esta última utilizada como interface de administração e meio de alimentação do acervo pelos colaboradores. A biblioteca, pela sua área pública, permite fácil acesso às coleções adquiridas no exercício das várias profissões da área da saúde. Por outro lado, também proporciona aos profissionais colaboradores o gerenciamento das próprias imagens e, ao mesmo tempo, sua contribuição para o acervo, ajudando na disseminação e democratização do conhecimento. / In the health areas images are very much used, both in the professional practice as in education. As a consequence, there is a constant search on ways to store, organize and retrieve them. With the passing of time and much because of the way they are usually filed, the images suffer damages that can render them useless. There are also problems with sharing them, since they are normally concentrated on specific areas and groups which makes it difficult to consult them. This work has as objective to develop an environment of organization and retrieval images in the health area with a focus on education and also to allow professionals to organize and share said images with other colleagues. For that purpose the digital format with WEB interface was chosen, in which the images were cataloged with a specific protocol, indexed based on the descriptive text and classified with Bireme’s DeCs® controlled vocabulary. Consultation was implemented based on the Boolean method, on the use of metadata and hierarchic research. The research result was ordered according to the significance of each image. The final work product was the Virtual Images Library in Medicine (VILM), which provides for public and restrict access areas, the latter used as management interface and means for the collaborators to supply the assets. The library, through its public area, allows for easy access to the collections acquired in the exercise of the several professions within the health industry. On the other hand, it also allows that the collaborator professionals may manage their own images and at the same time contribute to the pool of assets, helping in the spreading and democratization of knowledge. / BV UNIFESP: Teses e dissertações
50

Recuperação de informação em campos de texto livre de prontuario eletrônicos do paciente baseada em semelhança semântica e ortográfica / Information retrieval from free text of eletronic patient records based on semantic similarity and approximate string matching

Martha, Amilton Souza [UNIFESP] January 2005 (has links) (PDF)
Made available in DSpace on 2015-12-06T23:44:25Z (GMT). No. of bitstreams: 0 Previous issue date: 2005 / A Recuperação de Informações é a ciência que estuda a criação de algoritmos para recuperar informações, principalmente provenientes de textos livres, que constituem a maior parte da informação em forma digital disponível nos dias atuais, sobretudo após a Internet. É evidente a necessidade de técnicas para recuperar informações dessa grande massa. Mecanismos de busca como Google®, Altavista®, Yahoo® e outros são indispensáveis para encontrar informações espalhadas na Internet em páginas da Web (arquivos PDF, TXT, HTML e outros) nos dias atuais. Na área da saúde, muitas informações também se encontram na forma de textos livres como os artigos científicos em bases de dados específicas da saúde como o Medline que possuem ferramentas de busca como Pubmed. Prontuários Eletrônicos do Paciente (PEP) também possuem informações em textos livres como o histórico ou evolução do paciente. Os profissionais da saúde que inserem informações podem utilizar termos sinônimos, jargões médicos, abreviaturas ou mesmo terem erros de ortografia. Para esses casos, a recuperação de informações com essas variações pode ser algo não trivial. Foram utilizadas duas bases de dados de PEP´s de clínicas distintas, sendo a primeira com 6732 histórias clínicas e a segunda com 26072 histórias. Foi desenvolvido um software chamado SIRIMED (Sistema de Indexação e Recuperação de Informações Médicas) que permitiu mostrar que a recuperação de informações baseada em semelhança semântica com um thesaurus médico (DeCS – Descritores em Ciências da Saúde) e semelhança ortográfica, baseada em um algoritmo de stemming, juntamente com edit distance, pode melhorar a quantidade de termos recuperados numa busca, em média de 30% comparada com a busca tradicional direta, que faz somente a busca do termo exato. A média de falsos positivos encontrados é menor que 0,5% nas duas bases de dados, o que não compromete o resultado do aumento de recuperação conseguido. / Information retrieval is a science that investigates models and techniques to recover information, mainly from free texts, that are the majority digital information after the internet advent. The necessity of techniques to recover information from this great mass of data is evident. Search engines like Google®, Altavista®, Yahoo® and others are indispensable to find information at Internet in PDF, TXT or HTML files. In the health context, a lot of information is registered as free texts like scientific articles into specific health databases like Medline which has specific search engines (Pubmed). Electronic Record Patient (ERP) has also free text information to describe patient’s history or evolution. The health professional who inserts information can use synonymous or medical terms, abbreviations or even make orthography mistake. In these cases, the recovery of the information with these variations could be not trivial. Two ERP databases from distinct clinics had been used. The first one had 6732 clinical histories and second had 26072 histories. A software called SIRIMED (Sistema de Indexação e Recuperação de Informações Médicas) was developed to show that recovery of the information based in both similarity semantics with a medical thesaurus (DeCS – Descritores em Ciências da Saúde) and approximate string matching (based on stemming and edit distance algorithm) can improve approximately 30% the amount of terms recovered if compared to traditional method, which searches only the exact string matching. The false positives average is less than 0.5% for both databases and, therefore, it doesn’t prejudice the obtained results. / BV UNIFESP: Teses e dissertações

Page generated in 0.0728 seconds