• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 291
  • 49
  • 6
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 348
  • 348
  • 281
  • 177
  • 151
  • 91
  • 62
  • 56
  • 55
  • 55
  • 52
  • 51
  • 50
  • 47
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Desenvolvimento de uma metodologia de interpretação, recuperação

Alexandrini, Fábio January 2005 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia de Produção / Made available in DSpace on 2013-07-16T00:10:40Z (GMT). No. of bitstreams: 1 213863.pdf: 1072993 bytes, checksum: 61e1ce130920cc09bc56dc0eece1546c (MD5) / A rotina médica gera diversos registros para documentar o estado de saúde dos pacientes, em papel ou em sistemas informatizados de hospitais e clínicas que, normalmente, têm maior enfoque no controle administrativo e financeiro, relegando ao segundo plano os dados do prontuário que ficam registrados em arquivos ou em campos de texto, sem estruturação. Atualmente, existem padrões de armazenamento de informações médicas que permitem estruturação e manipulação adequada dos prontuários eletrônicos de paciente que permitem a interoperabilidade de informações. Visando resgatar os registros antigos e estruturá-los em padrões de armazenamento internacionais. Este trabalho centra-se na elaboração de uma metodologia para interpretação, recuperação e codificação inteligente de laudos médicos utilizando técnicas de PLN - Processamento de Linguagem Natural combinadas com terminologias médicas internacionais. Descreve uma ferramenta de software que recupera e interpreta laudos médicos em padrão texto, baseando-se na nomenclatura SNOMED (Systematized Nomeclature of Medicine) para estruturação desses laudos visando à integração com softwares de edição de Laudos Estruturados baseado no DICOM SR-Structured Report.
142

Uma ferramenta de apoio ao processo de aprendizagem de algoritmos

Miranda, Elisangela Maschio de January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-21T10:25:32Z (GMT). No. of bitstreams: 1 209429.pdf: 929111 bytes, checksum: 404ea2adc357f0d706056c15195dd9c0 (MD5)
143

Uma aplicação do processamento de linguagem natural na modelagem conceitual de sistemas de informação

Diniz, Paulo Ricardo Torres January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T03:19:03Z (GMT). No. of bitstreams: 1 212914.pdf: 2233475 bytes, checksum: 13e75ff2b3e8bd78e03fc55f786971c3 (MD5) / O início do ensino da disciplina de Banco de Dados mostra-se muitas vezes frustrante, tanto para o aluno quanto para o professor, em virtude da falta de técnicas que auxiliem o discente a formatar textos de levantamento de dados, que se mostram, na maioria das vezes, dúbios e redundantes. Este trabalho visa rever as metodologias e técnicas existentes hoje para este objetivo, culminando em propor a criação de um software de auxilio que possibilite ao aluno desenvolver seu texto de levantamento de dados seguindo especificamente a técnica de Lista-Diagrama e ainda indique possíveis falhas, utilizando para isso a teoria do processamento de linguagem natural.
144

Deíticos e anáforas pronominais em diálogos / Deixis and pronominal anaphora in dialogs

Freitas, Sergio Antonio Andrade de January 1993 (has links)
A proposta deste trabalho é implementar um conjunto de elementos do diálogo a decorrer entre dois agentes humanos. As anáforas pronominais e certos pronomes déiticos (eu, você, sua, seu, meu, minha), que eventualmente surgirem durante o diálogo, são resolvidas. Basicamente, este trabalho está dividido em quatro partes: 1. Estudo introdutório da Discourse Representation Theory (DRT) [KAM88, KAM90]. A DRT é um formalismo para a representação do discurso que utiliza modelos na avaliação semântica das estruturas representacionais. Neste estudo são considerados somente os aspectos representacionais, dando enfoque à representação de sentenças simples. 2. Um estudo baseado em [HIR81, CAR87] sobre: tipos de ambigüidades, o que são anáforas, tipos de anáforas etc, visa fornecer ao leitor um conhecimento mínimo sobre o aspecto lingüístico do tratamento das anáforas. Dentro do estudo realizado sobre anáforas destacam-se os seguintes tipos: coespecificação pessoal e colocação em coesão léxica, que são os tipos previstos na implementação. Estes dois tipos de anáforas são enquadrados nos seguintes grupos: coespecificação pessoal no grupo das anáforas pronominais e colocação em coesão léxica no grupo das anáforas nominais. 3. Considerando que a DRT somente representa o discurso, sem contudo resolver as anafóras que surgem no discurso, incorporou-se a Teoria do Foco [SID79, COR92] como ferramenta para a resolução das anáforas pronominais. A Teoria do Foco trabalha com as informações temáticas das sentenças, de maneira a reduzir o universo dos possíveis antecedentes para uma anáfora e prover um conjunto de regras que permita um caminhamento inteligente, dentro deste universo. O algoritmo de focalização aqui utilizado e o proposto por Sophie Cormack [COR92], que foi por sua vez baseado no algoritmo original de Candace Sidner [SID79]. 4. E por último a implementação, que foi realizada em C-Prolog [PER87], onde as principais funções são: (a) Um gerador de DRSs. (b) Algoritmo de focalização. (c) Integração do algoritmo de focalização e do gerador de DRSs. Descrevendo de maneira geral o funcionamento da implementação: as falas (conjunto de sentenças) de cada interlocutor são lidas através do teclado, as sentenças de cada fala são analisadas individualmente pelo analisador sintático, que gera uma árvore de derivação sintática. A árvore gerada é então repassada ao gerador de DRSs, que irá reduzi-la a referentes e condições. Eventualmente, se surgirem anáforas pronominais, é chamado o algoritmo de focalização. Caso surjam pronomes deíticos a resolução é realizada pelo gerador de DRSs. / The proposal of this work is to implement a set of dialog elements expressed by two human agents. The pronominal anaphora and some deixis pronoums (in portuguese: I, you, your, my) that eventually appear during the dialog are resolved. Basically, this work is divided in four parts: 1. An introdutory study of the Discourse Representation Theory (DRT) [KAM88, KAM90]. The DRT is a formalism for discourse representation that uses models for semantic evaluation of the representation structures. This study considers only the representational aspects, looking for single sentences. 2. A study based on [HIR81, CAR87] about: some kinds of ambiguity, what anaphora are, kinds of anaphora etc. This study intends to give the reader the minimal knowledge about the linguistic aspects of anaphora. In this study, we point out two types of anaphora: personal coespecification and lexical placement, this two were the ones that we used in the system. Those two types are in the following groups: personal coespecification in the pronominal anaphora and lexical placement in the nominal anaphora. 3. Considering that DRT only represent the discourse without resolving the anaphora, we used the Focus Theory [SID79, COR92] as a tool for pronominal anaphora resolution. The Focus Theory works on the thematic informations of the sentences. It reduces the universe of the possible antecedents and give some rules to walk throught this universe. We used the focalization algorithm presented by Sophie Cormack [COR92] which is based on the original version of Candace Sidner [SID79]. 4. Finally, the system was implemented in C-Prolog [PER87], and its main functions are: (a) a DRS generator, (b) a focalization algorithm, (c) the integration of the focalization algorithm and the DRS generator. Basically, what the system does is: the discourse of the agent is read in the keyboard, and each sentence of the discourse is analised by the sintatic analyser, generating a parsing tree. Then the DRS generator reduces this tree into referents and DRS-conditions. Eventually, the focalization algorithm will be called when the sentence contain some pronominal anaphora. The deixis resolution is made by the DRS-generator.
145

Avaliando um rotulador estatístico de categorias morfo-sintáticas para a língua portuguesa / Evaluating a stochastic part-of-speech tagger for the portuguese language

Villavicencio, Aline January 1995 (has links)
O Processamento de Linguagem Natural (PLN) é uma área da Ciência da Computação, que vem tentando, ao longo dos anos, aperfeiçoar a comunicação entre o homem e o computador. Varias técnicas tem sido utilizadas para aperfeiçoar esta comunicação, entre elas a aplicação de métodos estatísticos. Estes métodos tem sido usados por pesquisadores de PLN, com um crescente sucesso e uma de suas maiores vantagens é a possibilidade do tratamento de textos irrestritos. Em particular, a aplicação dos métodos estatísticos, na marcação automática de "corpus" com categorias morfo-sintáticas, tem se mostrado bastante promissora, obtendo resultados surpreendentes. Assim sendo, este trabalho descreve o processo de marcação automática de categorias morfo-sintáticas. Inicialmente, são apresentados e comparados os principais métodos aplicados a marcação automática: os métodos baseados em regras e os métodos estatísticos. São descritos os principais formalismos e técnicas usadas para esta finalidade pelos métodos estatísticos. E introduzida a marcação automática para a Língua Portuguesa, algo até então inédito. O objetivo deste trabalho é fazer um estudo detalhado e uma avaliação do sistema rotulador de categorias morfo-sintáticas, a fim de que se possa definir um padrão no qual o sistema apresente a mais alta precisão possível. Para efetuar esta avaliação, são especificados alguns critérios: a qualidade do "corpus" de treinamento, o seu tamanho e a influencia das palavras desconhecidas. A partir dos resultados obtidos, espera-se poder aperfeiçoar o sistema rotulador, de forma a aproveitar, da melhor maneira possível, os recursos disponíveis para a Língua Portuguesa. / Natural Language Processing (NLP) is an area of Computer Sciences, that have been trying to improve communication between human beings and computers. A number of different techniques have been used to improve this communication and among them, the use of stochastic methods. These methods have successfully being used by NLP researchers and one of their most remarkable advantages is that they are able to deal with unrestricted texts. Namely, the use of stochastic methods for part-of-speech tagging has achieving some extremely good results. Thus, this work describes the process of part-of-speech tagging. At first, we present and compare the main tagging methods: the rule-based methods and the stochastic ones. We describe the main stochastic tagging formalisms and techniques for part-of-speech tagging. We also introduce part-of-speech tagging for the Portuguese Language. The main purpose of this work is to study and evaluate a part-of-speech tagger system in order to establish a pattern in which it is possible to achieve the greatest accuracy. To perform this evaluation, several parameters were set: the corpus quality, its size and the relation between unknown words and accuracy. The results obtained will be used to improve the tagger, in order to use better the available Portuguese Language resources.
146

Polyset: modelo linguístico-computacional para a estruturação de redes de polissemia de nominais

Alves, Isa Mara da Rosa [UNESP] 01 October 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:32:45Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-10-01Bitstream added on 2014-06-13T20:43:56Z : No. of bitstreams: 1 alves_imr_dr_arafcl.pdf: 2416633 bytes, checksum: 3f83a7dad3093f9c7e134f02d1166b24 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Esta pesquisa visa a propor uma representação da polissemia de nominais compatível com sistemas computacionais; mais especificamente, o objetivo deste trabalho é incluir a especificação de relações de polissemia em bases wordnets, em especial, na WordNet.Br (DIAS-DA-SILVA, 1996, 1998, 2003). A metodologia do trabalho está baseada em Diasda- Silva (1996, 1998, 2003, 2006), abrangendo três domínios mutuamente complementares: o linguístico, o linguístico-computacional e o computacional. O domínio linguístico-computacional forneceu o tema para esta pesquisa e articulou a relação entre os domínios linguístico e computacional. Das investigações realizadas no cenário linguístico-computacional, destacamos a relevância da introdução de níveis distintos de generalidade entre os sentidos em uma base de dados de modo a otimizar o processamento lexical a ser realizada pelo sistema. Percebe-se que esse tipo de tarefa é ainda um desafio para as wordnets. Do cenário linguístico, destacamos que a Semântica Lexical Cognitiva foi considerada a teoria mais adequada aos propósitos desta tese. Olhar para o fenômeno do significado múltiplo sob o viés cognitivo possibilitou descrever os sentidos como uma entidade complexa, estruturada em termos de redes. As redes de polissemia sincrônicas, em sua configuração livre e multidimensional, conforme propõem Blank (2003) e Geeraerts (2006), demonstraram ser a estratégia descritiva mais adequada à representação da flexibilidade do sentido para os propósitos desta tese. Respondendo à fase aplicada dos domínios linguístico e linguísticocomputacional, propomos um modelo de representação denominado polyset. Os polysets são constructos estruturados em termos de redes de polissemia, de maneira que possibilitam representar diferentes níveis de generalidade entre os sentidos, diferentes graus de saliência e diferentes tipos... / This research aims at representing noun polysemy so that it can be useful to computational systems; more specifically, the subject of this work is the inclusion of specification of polysemy relations in wordnet bases, particularly in WordNet.Br (DIASDA- SILVA, 1996, 1998, 2003). The methodology has been based on Dias-da-Silva (1996, 1998, 2003, 2006), comprehending three mutually complementary domains: linguistic, computational-linguistic, and computational ones. The computational-linguistic domain has both provided the subject for this research and articulated the relationship between the linguistic domain and the computational domain. From the investigations carried out in the computational-linguistic scene, we have highlighted the relevance of the introduction of distinct levels of generality among meanings in a database, so as to reduce the amount of lexical processing to be carried out by the system. At the same time, that multiple representation provides the necessary information for a system that needs a higher degree of meaning detailing. This kind of task is still a challenge to wordnets. From the linguistic scene, we have highlighted that Cognitive Lexical Semantics has shown to be the most suitable theory for the purposes of this thesis. Regarding the phenomenon of the multiple meaning from the cognitive perspective has allowed for describing meanings as a complex entity, structured in terms of nets. The nets of synchronic polysemy, in their free, multidimensional configuration, as Blank (2003) and Geeraerts (2006) have proposed, have shown to be the most suitable descriptive strategy for the representation of the meaning flexibility for the purposes of this thesis. Answering to the applied phase of both the linguistic and computationallinguistic domains we have proposed a representation model called polyset. Polysets are constructs structured in terms of polysemy nets, allowing... (Complete abstract click electronic access below)
147

A verb learning model driven by syntactic constructions / Um modelo de aquisição de verbos guiado por construções sintáticas

Machado, Mario Lúcio Mesquita January 2008 (has links)
Desde a segunda metade do último século, as teorias cognitivas têm trazido algumas visões interessantes em relação ao aprendizado de linguagem. A aplicação destas teorias em modelos computacionais tem duplo benefício: por um lado, implementações computacionais podem ser usaas como uma forma de validação destas teorias; por outro lado, modelos computacionais podem alcançar uma performance melhorada a partir da adoção de estratégias de aprendizado cognitivamente plausíveis. Estruturas sintáticas são ditas fornecer uma pista importante para a aquisição do significado de verbos. Ainda, para um subconjunto particular de verbos muito frequentes e gerais - os assim-chamados light verbs - há uma forte ligação entre as estruturas sintáticas nas quais eles aparecem e seus significados. Neste trabalho, empregamos um modelo computacional para investigar estas propostas, em particular, considerando a tarefa de aquisição como um mapeamento entre um verbo desconhecido e referentes prototípicos para eventos verbais, com base na estrutura sintática na qual o verbo aparece. Os experimentos conduzidos ressaltaram alguns requerimentos para um aprendizado bem-sucedido, em termos de níveis de informação disponível para o aprendiz e da estratégia de aprendizado adotada. / Cognitive theories have been, since the second half of the last century, bringing some interesting views about language learning. The application of these theories on computational models has double benefits: in the one hand, computational implementations can be used as a form of validation of these theories; on the other hand, computational models can earn an improved performance from adopting some cognitively plausible learning strategies. Syntactic structures are said to provide an important cue for the acquisition of verb meaning. Yet, for a particular subset of very frequent and general verbs – the so-called light verbs – there is a strong link between the syntactic structures in which they appear and their meanings. In this work, we used a computational model, to further investigate these proposals, in particular looking at the acquisition task as a mapping between an unknown verb and prototypical referents for verbal events, on the basis of the syntactic structure in which the verb appears. The experiments conducted have highlighted some requirements for a successful learning, both in terms of the levels of information available to the learner and the learning strategies adopted.
148

Deíticos e anáforas pronominais em diálogos / Deixis and pronominal anaphora in dialogs

Freitas, Sergio Antonio Andrade de January 1993 (has links)
A proposta deste trabalho é implementar um conjunto de elementos do diálogo a decorrer entre dois agentes humanos. As anáforas pronominais e certos pronomes déiticos (eu, você, sua, seu, meu, minha), que eventualmente surgirem durante o diálogo, são resolvidas. Basicamente, este trabalho está dividido em quatro partes: 1. Estudo introdutório da Discourse Representation Theory (DRT) [KAM88, KAM90]. A DRT é um formalismo para a representação do discurso que utiliza modelos na avaliação semântica das estruturas representacionais. Neste estudo são considerados somente os aspectos representacionais, dando enfoque à representação de sentenças simples. 2. Um estudo baseado em [HIR81, CAR87] sobre: tipos de ambigüidades, o que são anáforas, tipos de anáforas etc, visa fornecer ao leitor um conhecimento mínimo sobre o aspecto lingüístico do tratamento das anáforas. Dentro do estudo realizado sobre anáforas destacam-se os seguintes tipos: coespecificação pessoal e colocação em coesão léxica, que são os tipos previstos na implementação. Estes dois tipos de anáforas são enquadrados nos seguintes grupos: coespecificação pessoal no grupo das anáforas pronominais e colocação em coesão léxica no grupo das anáforas nominais. 3. Considerando que a DRT somente representa o discurso, sem contudo resolver as anafóras que surgem no discurso, incorporou-se a Teoria do Foco [SID79, COR92] como ferramenta para a resolução das anáforas pronominais. A Teoria do Foco trabalha com as informações temáticas das sentenças, de maneira a reduzir o universo dos possíveis antecedentes para uma anáfora e prover um conjunto de regras que permita um caminhamento inteligente, dentro deste universo. O algoritmo de focalização aqui utilizado e o proposto por Sophie Cormack [COR92], que foi por sua vez baseado no algoritmo original de Candace Sidner [SID79]. 4. E por último a implementação, que foi realizada em C-Prolog [PER87], onde as principais funções são: (a) Um gerador de DRSs. (b) Algoritmo de focalização. (c) Integração do algoritmo de focalização e do gerador de DRSs. Descrevendo de maneira geral o funcionamento da implementação: as falas (conjunto de sentenças) de cada interlocutor são lidas através do teclado, as sentenças de cada fala são analisadas individualmente pelo analisador sintático, que gera uma árvore de derivação sintática. A árvore gerada é então repassada ao gerador de DRSs, que irá reduzi-la a referentes e condições. Eventualmente, se surgirem anáforas pronominais, é chamado o algoritmo de focalização. Caso surjam pronomes deíticos a resolução é realizada pelo gerador de DRSs. / The proposal of this work is to implement a set of dialog elements expressed by two human agents. The pronominal anaphora and some deixis pronoums (in portuguese: I, you, your, my) that eventually appear during the dialog are resolved. Basically, this work is divided in four parts: 1. An introdutory study of the Discourse Representation Theory (DRT) [KAM88, KAM90]. The DRT is a formalism for discourse representation that uses models for semantic evaluation of the representation structures. This study considers only the representational aspects, looking for single sentences. 2. A study based on [HIR81, CAR87] about: some kinds of ambiguity, what anaphora are, kinds of anaphora etc. This study intends to give the reader the minimal knowledge about the linguistic aspects of anaphora. In this study, we point out two types of anaphora: personal coespecification and lexical placement, this two were the ones that we used in the system. Those two types are in the following groups: personal coespecification in the pronominal anaphora and lexical placement in the nominal anaphora. 3. Considering that DRT only represent the discourse without resolving the anaphora, we used the Focus Theory [SID79, COR92] as a tool for pronominal anaphora resolution. The Focus Theory works on the thematic informations of the sentences. It reduces the universe of the possible antecedents and give some rules to walk throught this universe. We used the focalization algorithm presented by Sophie Cormack [COR92] which is based on the original version of Candace Sidner [SID79]. 4. Finally, the system was implemented in C-Prolog [PER87], and its main functions are: (a) a DRS generator, (b) a focalization algorithm, (c) the integration of the focalization algorithm and the DRS generator. Basically, what the system does is: the discourse of the agent is read in the keyboard, and each sentence of the discourse is analised by the sintatic analyser, generating a parsing tree. Then the DRS generator reduces this tree into referents and DRS-conditions. Eventually, the focalization algorithm will be called when the sentence contain some pronominal anaphora. The deixis resolution is made by the DRS-generator.
149

Avaliando um rotulador estatístico de categorias morfo-sintáticas para a língua portuguesa / Evaluating a stochastic part-of-speech tagger for the portuguese language

Villavicencio, Aline January 1995 (has links)
O Processamento de Linguagem Natural (PLN) é uma área da Ciência da Computação, que vem tentando, ao longo dos anos, aperfeiçoar a comunicação entre o homem e o computador. Varias técnicas tem sido utilizadas para aperfeiçoar esta comunicação, entre elas a aplicação de métodos estatísticos. Estes métodos tem sido usados por pesquisadores de PLN, com um crescente sucesso e uma de suas maiores vantagens é a possibilidade do tratamento de textos irrestritos. Em particular, a aplicação dos métodos estatísticos, na marcação automática de "corpus" com categorias morfo-sintáticas, tem se mostrado bastante promissora, obtendo resultados surpreendentes. Assim sendo, este trabalho descreve o processo de marcação automática de categorias morfo-sintáticas. Inicialmente, são apresentados e comparados os principais métodos aplicados a marcação automática: os métodos baseados em regras e os métodos estatísticos. São descritos os principais formalismos e técnicas usadas para esta finalidade pelos métodos estatísticos. E introduzida a marcação automática para a Língua Portuguesa, algo até então inédito. O objetivo deste trabalho é fazer um estudo detalhado e uma avaliação do sistema rotulador de categorias morfo-sintáticas, a fim de que se possa definir um padrão no qual o sistema apresente a mais alta precisão possível. Para efetuar esta avaliação, são especificados alguns critérios: a qualidade do "corpus" de treinamento, o seu tamanho e a influencia das palavras desconhecidas. A partir dos resultados obtidos, espera-se poder aperfeiçoar o sistema rotulador, de forma a aproveitar, da melhor maneira possível, os recursos disponíveis para a Língua Portuguesa. / Natural Language Processing (NLP) is an area of Computer Sciences, that have been trying to improve communication between human beings and computers. A number of different techniques have been used to improve this communication and among them, the use of stochastic methods. These methods have successfully being used by NLP researchers and one of their most remarkable advantages is that they are able to deal with unrestricted texts. Namely, the use of stochastic methods for part-of-speech tagging has achieving some extremely good results. Thus, this work describes the process of part-of-speech tagging. At first, we present and compare the main tagging methods: the rule-based methods and the stochastic ones. We describe the main stochastic tagging formalisms and techniques for part-of-speech tagging. We also introduce part-of-speech tagging for the Portuguese Language. The main purpose of this work is to study and evaluate a part-of-speech tagger system in order to establish a pattern in which it is possible to achieve the greatest accuracy. To perform this evaluation, several parameters were set: the corpus quality, its size and the relation between unknown words and accuracy. The results obtained will be used to improve the tagger, in order to use better the available Portuguese Language resources.
150

Investigando a influência de fatores linguísticos na organização lexical de verbos / Investigating the influence of linguistic factors in the lexical organization of verbs

Germann, Daniel Cerato January 2010 (has links)
Esta dissertação utiliza simulações computacionais visando investigar a influência de alguns fatores lingüísticos na organização lexical de verbos, analisando os processos de aquisição e uso. Os fatores testados são: freqüência de observação na linguagem, polissemia e complexidade sintática. Os dados utilizados foram obtidos por meio de tarefas psicolingüísticas de nomeação de ações, realizadas por crianças e adultos (falantes do Português brasileiro), posteriormente representados como grafos. Com base nos fatores lingüísticos, foram formuladas hipóteses relativas ao desenvolvimento da língua, testadas por meio de simulações computacionais denominadas ‘involuções’. Os testes incluem métricas da teoria dos grafos e medidas de similaridade de conjuntos (coeficiente de Jaccard e suas componentes). Os resultados obtidos apontam para uma confirmação das hipóteses formuladas. Adicionalmente, permitiram verificar algumas características do desenvolvimento lingüístico, como o aumento do vocabulário e uma progressiva especialização. / This dissertation uses computational simulations designed to investigate the influence of three linguistic factors in the lexical organization of verbs, analyzing the process of acquisition and use. The tested factors are: frequency of observation in the language, polysemy and syntactic complexity. The data used were obtained from psycholinguistic action naming tasks performed by children and adults (speakers of Brazilian Portuguese), and subsequently represented as graphs. Based on linguistic factors, hypotheses were formulated concerning the development of language, tested through simulations called ‘involutions’. Tests include graph theory metrics and set similarity measures (Jaccard’s coefficient and its components). Results suggest a confirmation of the given hypotheses. Additionally, allowed verification of some language development features, such as vocabulary growth and a progressive specialization.

Page generated in 0.0615 seconds