Spelling suggestions: "subject:"linguagem batural"" "subject:"linguagem datural""
311 |
[en] STORY ENGINEERING: A STUDY OF THE AUTOMATIC STORY GENERATION AND TELLING / [pt] ENGENHARIA DE ESTÓRIAS: UM ESTUDO SOBRE A GERAÇÃO E NARRAÇÃO AUTOMÁTICA DE ESTÓRIASFABIO WANDERLEY GUERRA 29 May 2008 (has links)
[pt] Nesta dissertação é estudado o problema de geração e
narração de estórias, cuja relevância tem sido cada vez
mais reconhecida, principalmente em decorrência da
popularização de meios de comunicação interativos, tais como
a TV digital e os jogos digitais. O trabalho partiu de uma
revisão do estado da arte, destacando os principais modelos
para representação de estórias e as técnicas mais
utilizadas na criação de obras literárias. Foi proposto o
uso do termo engenharia de estórias para enfatizar que a
tarefa de geração e narração de estórias deve ser encarada
como um processo de engenharia. O problema fundamental foi
dividido em três subproblemas. O primeiro diz respeito a
como gerar as estórias, o segundo a como contá-las ao
público e o último é sobre como construir, armazenar e
consultar a base de conhecimento usada na engenharia de
estórias. Por fim, como estudo de caso, foi projetado e
programado um protótipo capaz de gerar e narrar estórias
automaticamente. A geração é efetuada por um planejador,
usando o algoritmo de Redes de Tarefas Hierárquicas. Para a
narração, é utilizado um gerador de textos em linguagem
natural. A base de conhecimento é armazenada na forma de
documentos XML tendo sido implementada uma ferramenta para
facilitar sua preparação. / [en] This dissertation investigates the problem of story telling
and generation, whose increasingly recognized relevance is
mostly due to the popularization of interactive media, such
as digital TV and video-games. The work initiates with
a state of the art survey, detailing the major story
representation models and the most used methods in literary
work production. The use of the term story
engineering was proposed to emphasize that story telling
and generation should be viewed as an engineering process.
The fundamental problem was divided into three subproblems.
The first one is how to generate stories, the second is how
to tell them to the public and the last is how to create,
store and query the knowledge base used for story
engineering. Finally, as a case study, a prototype capable
of automatically generating and telling stories was
designed and programmed. Generation is done by a planner,
using the Hierarchical Task Network algorithm. Storytelling
applies a natural language generation tool. The knowledge
base is stored under the form ofXMLdocuments, and a tool
was implemented to simplify their preparation.
|
312 |
[en] W-RAY: AN APPROACH TO THE DEEP WEB DATA PUBLICATION / [pt] W-RAY: UMA ABORDAGEM PARA PUBLICAÇÃO DE DADOS DA DEEP WEBHELENA SERRAO PICCININI 29 September 2014 (has links)
[pt] Deep Web é composta por dados armazenados em bases de dados, páginas dinâmicas, páginas com scripts e dados multimídia, dentre outros tipos de objetos. Os bancos de dados da Deep Web são geralmente sub-representados pelos motores de busca, devido aos desafios técnicos de localizar, acessar e indexar seus dados. A utilização de hyperlinks pelos motores de busca não é suficente para alcançar todos os dados da Deep Web, exigindo interação com interfaces de consultas complexas. Esta tese apresenta uma abordagem, denominada W-Ray, capaz de fornecer visibilidade aos dados da Deep Web. A abordagem baseia-se na descrição dos dados relevantes através de sentenças bem estruturadas, e na publicação dessas sentenças em páginas estáticas da Web. As sentenças podem ser geradas com RDFa embutido, mantendo a semântica do banco de dados. As páginas da Web assim geradas são passíveis de ser indexadas pelos motores de coleta de dados tradicionais e por motores mais sofisticados que suportam busca semântica. É apresentada também uma ferramenta que apóia a abordagem W-Ray. A abordagem foi implementada com sucesso para diferentes bancos de dados reais. / [en] The Deep Web comprises data stored in databases, dynamic pages, scripted pages and multimedia data, among other types of objects. The databases of the Deep Web are generally underrepresented by the search engines due to the technical challenges of locating, accessing and indexing them. The use of hyperlinks by search engines is not sufficient to achieve all the Deep Web data, requiring interaction with complex queries interfaces. This thesis presents an approach, called W-Ray, that provides visibility to Deep Web data. The approach relies on describing the relevant data through well-structured sentences, and on publishing the sentences as static Web pages. The sentences can be generated with embedded RDFa, keeping the semantics of the database. The Web pages thus generated are indexed by traditional Web crawlers and sophisticated crawlers that support semantic search. It is also presented a tool that supports the W-Ray approach. The approach has been successfully implemented for some real databases.
|
313 |
[en] REQUIREMENTS VERIFICATION AND VALIDATION: NATURAL LANGUAGE PROCESSING AND SOFTWARE AGENTS / [pt] VERIFICAÇÃO E VALIDAÇÃO EM REQUISITOS: PROCESSAMENTO DA LINGUAGEM NATURAL E AGENTESMIRIAM SAYAO 30 November 2007 (has links)
[pt] No processo de desenvolvimento do software, atividades
relacionadas ao
Processo de Requisitos envolvem elicitação, modelagem,
verificação e validação
dos requisitos. O uso da linguagem natural no registro dos
requisitos facilita a
comunicação entre os participantes do processo, além de
possibilitar que clientes e
usuários validem requisitos sem necessitar de conhecimento
extra. Por outro lado,
na economia globalizada atual, o desenvolvimento de
software por equipes
geograficamente distribuídas está se tornando uma norma.
Nesse cenário,
atividades de verificação e validação de requisitos para um
software de média ou
alta complexidade podem envolver o tratamento de centenas
ou milhares de
requisitos. Com essa ordem de complexidade é importante que
o engenheiro de
software tenha apoio computacional para o desempenho
adequado das atividades
de aferição de qualidade. Neste trabalho estamos propondo
uma estratégia que
combina técnicas de processamento da linguagem natural
(PLN) e agentes de
software para apoiar as atividades de análise dos
requisitos. Geramos visões
textuais ou gráficas de grupos de requisitos relacionados;
visões apóiam a análise
de completude, a identificação de duplicidades e de
dependências entre requisitos.
Utilizamos técnicas de análise de conteúdo para apoiar a
identificação de
omissões em requisitos não funcionais. Também propomos uma
estratégia para a
construção ou atualização do léxico da aplicação,
utilizando técnicas de PLN.
Utilizamos agentes de software para implementar serviços
que incorporam as
estratégias referidas, e também para atuar como
representantes dos participantes
do projeto em desenvolvimento. / [en] In software development process, initial activities can
involve requirements elicitation, modeling and analysis
(verification and validation). The use of natural language
in the register of the requirements facilitates the
communication among stakeholders, besides offering
possibilities to customers and users to validate
requirements without extra knowledge. On the other hand, in
the current global economy, software development for teams
geographically distributed is becoming a rule. In this
scenario, requirements verification and validation for
medium or high complexity software can involve the
treatment of hundreds or even thousand requirements. With
this complexity order it is important to provide
computational support for the software engineer execute
quality activities. In this work we propose a strategy
which combines natural language processing (NLP) techniques
and software agents to support analysis activities. We have
generated textual or graphical visions from groups of
related requirements; visions help completeness analysis,
identification of duplicities and dependences among
requirements. We use content analysis techniques to support
the identification of omissions in nonfunctional
requirements. Also, we propose a strategy to construct the
lexicon, using NLP techniques. We use software agents to
implement web services that incorporate the related
strategies, and also agents to act as personal assistants
for stakeholders of the software project.
|
314 |
Comportamento de Metricas de Inteligibilidade Textual em Documentos Recuperados naWeb / THE BEHAVIOR OF READABILITY METRICS IN DOCUMENTS RETRIEVED IN INTERNET AND ITS USE AS AN INFORMATION RETRIEVAL QUERY PARAMETERLondero, Eduardo Bauer 29 March 2011 (has links)
Made available in DSpace on 2016-03-22T17:26:45Z (GMT). No. of bitstreams: 1
Dissertacao_Eduardo_Revisado.pdf: 3489154 bytes, checksum: 3c327ee0bc47d79cd4af46e065105650 (MD5)
Previous issue date: 2011-03-29 / Text retrieved from the Internet through Google and Yahoo queries are evaluated
using Flesch-Kincaid Grade Level, a simple assessment measure of text readability. This
kind of metrics were created to help writers to evaluate their text, and recently in automatic
text simplification for undercapable readers. In this work we apply these metrics
to documents freely retrieved from the Internet, seeking to find correlations between legibility
and relevance acknowledged to then by search engines. The initial premise guiding
the comparison between readability and relevance is the statement known as Occam s
Principle, or Principle of Economy. This study employs Flesch-Kincaid Grade Level in
text documents retrieved from the Internet through search-engines queries and correlate
it with the position. It was found a centralist trend in the texts recovered. The centralist
tendency mean that the average spacing of groups of files from the average of the
category they belong is meaningfull. With this measure is possible to establish a correlation
between relevance and legibility, and also, to detect diferences in the way both
search engines derive their relevance calculation. A subsequent experiment seeks to determine
whether the measure of legibility can be employed to assist him or her choosing
a document combined with original search engine ranking and if it is useful as advance
information for choice and user navigation. In a final experiment, based on previously
obtained knowledge, a comparison between Wikipedia and Britannica encyclopedias by
employing the metric of understandability Flesch-Kincaid / Textos recuperados da Internet por interm´edio de consultas ao Google e Yahoo
s ao analisados segundo uma m´etrica simples de avaliac¸ ao de inteligibilidade textual. Tais
m´etricas foram criadas para orientar a produc¸ ao textual e recentemente tamb´em foram
empregadas em simplificadores textuais autom´aticos experimentais para leitores inexperientes.
Nesse trabalho aplicam-se essas m´etricas a texto originais livres, recuperados da
Internet, para buscar correlacionar o grau de inteligibilidade textual com a relev ancia que
lhes ´e conferida pelos buscadores utilizados. A premissa inicial a estimular a comparac¸ ao
entre inteligibilidade e relev ancia ´e o enunciado conhecido como Princ´ıpio de Occam,
ou princ´ıpio da economia. Observa-se uma tend encia centralista que ocorre a partir do
pequeno afastamento m´edio dos grupos de arquivos melhor colocados no ranking em
relac¸ ao `a m´edia da categoria a que pertencem. ´E com a medida do afastamento m´edio que
se consegue verificar correlac¸ ao com a posic¸ ao do arquivo no ranking e ´e tamb´em com
essa medida que se consegue registrar diferenc¸as entre o m´etodo de calcular a relev ancia
do Google e do Yahoo. Um experimento que decorre do primeiro estudo procura determinar
se a medida de inteligibilidade pode ser empregada para auxiliar o usu´ario da Internet
a escolher arquivos mais simples ou se a sua indicac¸ ao junto `a listagem de links recuperados
´e ´util e informativa para a escolha e navegac¸ ao do usu´ario. Em um experimento
final, embasado no conhecimento previamente obtido, s ao comparadas as enciclop´edias
Brit anica eWikip´edia por meio do emprego da m´etrica de inteligibilidade Flesch-Kincaid
Grade Level
|
315 |
Modelos e Métodos para interação homem-computador usando gestos manuais / Models and Methods for Human-Computer Interaction Using Hands GesturesCordeiro Junior, Albino Adriano Alves 24 July 2009 (has links)
Made available in DSpace on 2015-03-04T18:51:17Z (GMT). No. of bitstreams: 1
thesisAlbino.pdf: 7858077 bytes, checksum: c060d6e1ca39e253884a9704701bd989 (MD5)
Previous issue date: 2009-07-24 / This thesis addresses the problem of algorithmic understanding of digital video applied to the design of Human-Computer Interaction (HCI) systems based on hand posture and motion. Such systems are often referred as a type of Perceptual User Interface (PUI), which is an interface that enables the computer to detect and recognize users' actions in an active way. PUI is believed to be a paradigm that is going to supplement the current standard Graphical User Interfaces(GUI), that are based on mice and keyboards for user input.
The main motivation of the research done in hand-gesture HCI is to enable people to interact in a more natural way with computational devices, for example, by letting the users manipulate computer programs, files and folders in a way that resembles the handling of familiar physical objects.
In this work a toolset is proposed for hand tracking -position and in-plane rotation- as well as posture recognition from hand contours. A novel approach to pixel-level processing based on machine learning forms the fundamental building block of a level set contour tracking method, as well as for the measurement module of the tracker, which is formulated as a filtering problem in state-spaces where the dynamics is modeled with Markov jumps linear systems. Low error rates are achieved for posture classification using a shape descriptor based on 2D moments invariant measures. / Esta tese aborda o problema de entender videos digitais algoritmicamente aplicado ao design de sistemas de Interação Homem-Computador (HCI do Inglês: Human-Computer Interaction) baseados na postura e movimento da mão. Tais sistemas são frequentemente referidos como um tipo de Interface Perceptual com o usuário (PUI do Inglês: Perceptual User Interface), que é uma interface que habilita o computador a detectar e reconhecer ações dos usuários de forma ativa. Acredita-se que PUI é um paradigma que irá suplementar o padrão atual, as Interfaces Gráficas com o Usuário (GUI do Inglês: Graphical User Interfaces), que são baseadas em mouses e teclados para entrada do usuário.
A principal motivação da pesquisa feita em HCI por gestos manuais é habilitar as pessoas a interagir de uma forma mais natural com dispositivos computacionais, por exemplo, ao permitir que usuários manipulem programas, arquivos e pastas de computador de uma forma similar ao manuseio de objetos físicos familiares.
Neste trabalho é proposto um ferramental para rastreamento da mão --posição e rotação no plano-- assim como para reconhecimento de postura da mão a partir dos contornos da mão. Uma nova abordagem de processamento de pixels baseada em aprendizagem de máquina forma o bloco fundamental para um método level set de extração de contornos, tão bem como para um módulo de mensuração do rastreador, que é formulado como um problema de filtragem em espaço de estados onde a dinâmica do sistema é modelada com sistemas lineares com saltos markovianos. Baixas taxas de erro de classificação de postura são alcançadas com o uso de um descritor de formas baseados em medidas invariantes de momentos bidimensionais.
|
316 |
O uso de recursos linguísticos para mensurar a semelhança semântica entre frases curtas através de uma abordagem híbridaSilva, Allan de Barcelos 14 December 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-04-04T11:46:54Z
No. of bitstreams: 1
Allan de Barcelos Silva_.pdf: 2298557 bytes, checksum: dc876b1dd44e7a7095219195e809bb88 (MD5) / Made available in DSpace on 2018-04-04T11:46:55Z (GMT). No. of bitstreams: 1
Allan de Barcelos Silva_.pdf: 2298557 bytes, checksum: dc876b1dd44e7a7095219195e809bb88 (MD5)
Previous issue date: 2017-12-14 / Nenhuma / Na área de Processamento de Linguagem Natural, a avaliação da similaridade semântica textual é considerada como um elemento importante para a construção de recursos em diversas frentes de trabalho, tais como a recuperação de informações, a classificação de textos, o agrupamento de documentos, as aplicações de tradução, a interação através de diálogos, entre outras. A literatura da área descreve aplicações e técnicas voltadas, em grande parte, para a língua inglesa. Além disso, observa-se o uso prioritário de recursos probabilísticos, enquanto os aspectos linguísticos são utilizados de forma incipiente. Trabalhos na área destacam que a linguística possui um papel fundamental na avaliação de similaridade semântica textual, justamente por ampliar o potencial dos métodos exclusivamente probabilísticos e evitar algumas de suas falhas, que em boa medida são resultado da falta de tratamento mais aprofundado de aspectos da língua. Este contexto é potencializado no tratamento de frases curtas, que consistem no maior campo de utilização das técnicas de similaridade semântica textual, pois este tipo de sentença é composto por um conjunto reduzido de informações, diminuindo assim a capacidade de tratamento probabilístico eficiente. Logo, considera-se vital a identificação e aplicação de recursos a partir do estudo mais aprofundado da língua para melhor compreensão dos aspectos que definem a similaridade entre sentenças. O presente trabalho apresenta uma abordagem para avaliação da similaridade semântica textual em frases curtas no idioma português brasileiro. O principal diferencial apresentado é o uso de uma abordagem híbrida, na qual tanto os recursos de representação distribuída como os aspectos léxicos e linguísticos são utilizados. Para a consolidação do estudo, foi definida uma metodologia que permite a análise de diversas combinações de recursos, possibilitando a avaliação dos ganhos que são introduzidos com a ampliação de aspectos linguísticos e também através de sua combinação com o conhecimento gerado por outras técnicas. A abordagem proposta foi avaliada com relação a conjuntos de dados conhecidos na literatura (evento PROPOR 2016) e obteve bons resultados. / One of the areas of Natural language processing (NLP), the task of assessing the Semantic Textual Similarity (STS) is one of the challenges in NLP and comes playing an increasingly important role in related applications. The STS is a fundamental part of techniques and approaches in several areas, such as information retrieval, text classification, document clustering, applications in the areas of translation, check for duplicates and others. The literature describes the experimentation with almost exclusive application in the English language, in addition to the priority use of probabilistic resources, exploring the linguistic ones
in an incipient way. Since the linguistic plays a fundamental role in the analysis of semantic textual similarity between short sentences, because exclusively probabilistic works fails in some way (e.g. identification of far or close related sentences, anaphora) due to lack of understanding of the language. This fact stems from the few non-linguistic information in short sentences. Therefore, it is vital to identify and apply linguistic resources for better understand what make two or more sentences similar or not. The current work presents a hybrid approach, in which are used both of distributed, lexical and linguistic aspects for an evaluation of semantic textual similarity between short sentences in Brazilian Portuguese. We evaluated proposed approach with well-known and respected datasets in the literature (PROPOR 2016) and obtained good results.
|
317 |
Instrumento de investigação clínico-epidemiológica em Cardiologia fundamentado no processamento de linguagem natural / A tool for clinical and epidemiological investigation in cardiology based on natural language processingCastilla, André Coutinho 13 September 2007 (has links)
O registro eletrônico do paciente (REP) está sendo gradativamente implantado no meio médico hospitalar. Grande parte das informações essenciais do REP está armazenada na forma de texto narrativo livre, dificultando operações de procura, análise e comparação de dados. O processamento de linguagem natural (PLN) refere-se a um conjunto de técnicas computacionais, cujo objetivo é a análise de texto através de conhecimentos léxicos, gramaticais e semânticos. O presente projeto propõe a criação de uma ferramenta computacional de investigação clínicoepidemiológica aplicada a textos narrativos médicos. Como metodologia propomos a utilização do processador de linguagem natural especializado em medicina MEDLEE desenvolvido para textos em Inglês. Para que seu uso seja possível textos médicos em Português são traduzidos ao Inglês automaticamente. A tradução automatizada (TA) é realizada utilizando o aplicativo baseado em regras SYSTRAN especialmente configurado para processar textos médicos através da incorporação de terminologias especializadas. O resultado desta seqüência de TA e PLN são informações conceituais que serão investigadas à procura de achados clínicos pré-definidos, atrvés de inferência lógica sobre uma ontologia. O objetivo experimental desta tese foi conduzir um estudo de recuperação de informações em um conjunto de 12.869 relatórios de radiografias torácicas à procura de vinte e dois achados clínicos e radiológicas. A sensibilidade e especificidade médias obtidas em comparação com referência formada pela opinião de três médicos radiologistas foram de 0,91 e 0,99 respectivamente. Os resultados obtidos indicam a viabilidade da procura de achados clínicos em relatórios de radiografias torácicas através desta metodologia de acoplamento da TA e PLN. Conseqüentemente em trabalhos futuros poderá ser ampliado o número de achados investigados, estendida a metodologia para textos de outras modalidades, bem como de outros idiomas / The Electronic Medical Record (EMR) is gradually replacing paper storage on clinical care settings. Most of essential information contained on EMR is stored as free narrative text, imposing several difficulties on automated data extraction and retrieval. Natural language processing (NLP) refers to computational linguistics tools, whose main objective is text analysis using lexical, grammatical and semantic knowledge. This project describes the creation of a computational tool for clinical and epidemiologic queries on narrative medical texts. The proposed methodology uses the specialized natural language processor MEDLEE developed for English language. To use this processor on Portuguese medical texts chest x-ray reports were Machine Translated into English. The machine translation (MT) was performed by SYSTRAN software, a rule based system customized with a specialized lexicon developed for this project. The result of serial coupling of MT an NLP is tagged text which needs further investigation for extracting clinical findings, whish was done by logical inference upon an ontolgy. The experimental objective of this thesis project was to investigate twenty-two clinical and radiological findings on 12.869 chest x-rays reports. Estimated sensitivity and specificity were 0.91 and 0.99 respectively. The gold standard reference was formed by the opinion of three radiologists. The obtained results indicate the viability of extracting clinical findings from chest x-ray reports using the proposed methodology through coupling MT and NLP. Consequently on future works the number of investigated conditions could be expanded. It is also possible to use this methodology on other medical texts, and on texts of other languages
|
318 |
Gerenciamento de diálogo baseado em modelo cognitivo para sistemas de interação multimodalPrates, Jonathan Simon 16 January 2015 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-04-24T13:06:47Z
No. of bitstreams: 1
Jonathan Simon Prates.pdf: 2514736 bytes, checksum: 58b7bca77d32ecba8467a3e3a533d2a0 (MD5) / Made available in DSpace on 2015-04-24T13:06:48Z (GMT). No. of bitstreams: 1
Jonathan Simon Prates.pdf: 2514736 bytes, checksum: 58b7bca77d32ecba8467a3e3a533d2a0 (MD5)
Previous issue date: 2015-01-31 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Os Sistemas de Interação Multimodal possibilitam uma utilização mais amigável dos sistemas de computação. Eles permitem que os usuários recebam informações e indiquem suas necessidades com maior facilidade, amparados por recursos de interação cada vez mais diversos. Neste contexto, um elemento central é o diálogo que se estabelece entre os usuários e estes sistemas. Alguns dos desafios observados na área de Interação Multimodal estão ligados à integração dos diversos estímulos a serem tratados, enquanto outros estão ligados à geração de respostas adequadas a estes estímulos. O gerenciamento do diálogo nestes sistemas envolve atividades diversas associadas tanto com a representação dos assuntos tratados, como com a escolha de alternativas de resposta e com o tratamento de modelos que representam tarefas e usuários. A partir das diversas abordagens conhecidas para estas implementações, são observadas demandas de modelos de diálogo que aproximem os resultados das interações que são geradas pelos sistemas daquelas interações que seriam esperados em situações de interação em linguagem natural. Uma linha de atuação possível para a obtenção de melhorias neste aspecto pode estar ligada à utilização de estudos da psicologia cognitiva sobre a memória de trabalho e a integração de informações. Este trabalho apresenta os resultados obtidos com um modelo de tratamento de diálogo para sistemas de Interação Multimodal baseado em um modelo cognitivo, que visa proporcionar a geração de diálogos que se aproximem de situações de diálogo em linguagem natural. São apresentados os estudos que embasaram esta proposta e a sua justificativa para uso no modelo descrito. Também são demonstrados resultados preliminares obtidos com o uso de protótipos para a validação do modelo. As avaliações realizadas demonstram um bom potencial para o modelo proposto. / Multimodal interaction systems allow a friendly use of computing systems. They allow users to receive information and indicate their needs with ease, supported by new interaction resources. In this context, the central element is the dialogue, established between users and these systems. The dialogue management of these systems involves various activities associated with the representation of subjects treated, possible answers, tasks model and users model treatment. In implementations for these approaches, some demands can be observed to approximate the results of the interactions by these systems of interaction in natural language. One possible line of action to obtain improvements in this aspect can be associated to the use of cognitive psychology studies on working memory and information integration. This work presents results obtained with a model of memory handling for multimodal dialogue interaction based on a cognitive model, which aims to provide conditions for dialogue generation closer to situations in natural language dialogs. This research presents studies that supported this proposal and the justification for the described model’s description. At the end, results using two prototypes for the model’s validation are also shown.
|
319 |
Auxílio na prevenção de doenças crônicas por meio de mapeamento e relacionamento conceitual de informações em biomedicina / Support in the Prevention of Chronic Diseases by means of Mapping and Conceptual Relationship of Biomedical InformationPollettini, Juliana Tarossi 28 November 2011 (has links)
Pesquisas recentes em medicina genômica sugerem que fatores de risco que incidem desde a concepção de uma criança até o final de sua adolescência podem influenciar no desenvolvimento de doenças crônicas da idade adulta. Artigos científicos com descobertas e estudos inovadores sobre o tema indicam que a epigenética deve ser explorada para prevenir doenças de alta prevalência como doenças cardiovasculares, diabetes e obesidade. A grande quantidade de artigos disponibilizados diariamente dificulta a atualização de profissionais, uma vez que buscas por informação exata se tornam complexas e dispendiosas em relação ao tempo gasto na procura e análise dos resultados. Algumas tecnologias e técnicas computacionais podem apoiar a manipulação dos grandes repositórios de informações biomédicas, assim como a geração de conhecimento. O presente trabalho pesquisa a descoberta automática de artigos científicos que relacionem doenças crônicas e fatores de risco para as mesmas em registros clínicos de pacientes. Este trabalho também apresenta o desenvolvimento de um arcabouço de software para sistemas de vigilância que alertem profissionais de saúde sobre problemas no desenvolvimento humano. A efetiva transformação dos resultados de pesquisas biomédicas em conhecimento possível de ser utilizado para beneficiar a saúde pública tem sido considerada um domínio importante da informática. Este domínio é denominado Bioinformática Translacional (BUTTE,2008). Considerando-se que doenças crônicas são, mundialmente, um problema sério de saúde e lideram as causas de mortalidade com 60% de todas as mortes, o presente trabalho poderá possibilitar o uso direto dos resultados dessas pesquisas na saúde pública e pode ser considerado um trabalho de Bioinformática Translacional. / Genomic medicine has suggested that the exposure to risk factors since conception may influence gene expression and consequently induce the development of chronic diseases in adulthood. Scientific papers bringing up these discoveries indicate that epigenetics must be exploited to prevent diseases of high prevalence, such as cardiovascular diseases, diabetes and obesity. A large amount of scientific information burdens health care professionals interested in being updated, once searches for accurate information become complex and expensive. Some computational techniques might support management of large biomedical information repositories and discovery of knowledge. This study presents a framework to support surveillance systems to alert health professionals about human development problems, retrieving scientific papers that relate chronic diseases to risk factors detected on a patient\'s clinical record. As a contribution, healthcare professionals will be able to create a routine with the family, setting up the best growing conditions. According to Butte, the effective transformation of results from biomedical research into knowledge that actually improves public health has been considered an important domain of informatics and has been called Translational Bioinformatics. Since chronic diseases are a serious health problem worldwide and leads the causes of mortality with 60% of all deaths, this scientific investigation will probably enable results from bioinformatics researches to directly benefit public health.
|
320 |
Análise e representacão de construcões adjectivais para processamento automático de texto. Adjectivos intransitivos humanosCarvalho, Paula Cristina 01 December 2007 (has links) (PDF)
Este estudo teve como objectivo determinar e formalizar as propriedades léxico-sintácticas dos adjectivos intransitivos, i.e., sem complementos, e que se constroem com sujeito humano, em português europeu contemporâneo. Uma das motivações subjacentes à escolha deste tema foi a aparente falta de economia descritiva resultante da dupla classificação de numerosas unidades lexicais como nomes e adjectivos. Efectivamente, muitos destes adjectivos têm sido classificados como nomes, por forma a dar conta dos casos em que aparecem em posições sintácticas tipicamente nominais. Esta ambiguidade encontra eco no fenómeno de criação lexical tradicionalmente designado como derivação imprópria (ou conversão). Nesta dissertação, defendemos que certos adjectivos humanos têm a propriedade de desempenhar superficialmente a função de núcleo de grupos nominais. Esta análise baseia-se na constatação de que, nessas construções sintácticas, os adjectivos exibem, geralmente, algumas propriedades que exibiriam se se encontrassem em contexto adnominal e de que é possível reconstituir o nome (humano) a que os mesmos se encontram associados. Entre as várias estruturas aqui analisadas, tratámos (i) as construções caracterizadoras indefinidas, em que o adjectivo aparece precedido de artigo indefinido; (ii) as construções cruzadas, em que o adjectivo ocupa a posição típica de núcleo de um grupo nominal; (iii) as orações exclamativas de insulto; e outras, cujas especificidades sintácticas, semânticas e discursivas procurámos igualmente clarificar. A investigação baseou-se na análise de 4.250 lemas adjectivais, que organizámos em diversas subclasses sintáctico-semânticas, de acordo com os princípios teórico-metodológicos do Léxico-Gramática, fundados na gramática transformacional de operadores harrissiana. As informações linguísticas foram formalizadas em matrizes léxico-sintácticas, o que permite, como ilustraremos, a sua utilização em diversas tarefas de processamento de linguagem natural (PLN), nomeadamente, na desambiguação e análise sintáctica automática de textos.
|
Page generated in 0.0845 seconds