• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 12
  • Tagged with
  • 89
  • 89
  • 50
  • 50
  • 37
  • 29
  • 23
  • 20
  • 18
  • 17
  • 17
  • 15
  • 12
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Métricas para ontologias: revisão sistemática e aplicação ao portal OntoLP

Freitas, Larissa Astrogildo de January 2010 (has links)
Made available in DSpace on 2013-08-07T18:43:37Z (GMT). No. of bitstreams: 1 000424821-Texto+Completo-0.pdf: 3171152 bytes, checksum: a78ee68d263086112f2f0e141fc7879b (MD5) Previous issue date: 2010 / Ontology construction and availability face various constraints such as the necessity of domain experts (leading to high costs). Besides that ontologies may have protected data, which can prevent it from being publicly available. In addition to that, there is the problem of where to find the ontologies, once they are not restricted. In face of that, the OntoLP Project aims to collaborate in the task of sharing ontologies in Portuguese language, as well as ontology research related tools and publications. Given an ontology set it is important to gather information that can support researchers to inspect the available resources in a general way. In this context, metrics for ontology is a novel area. Although there are many proposal for metrics in the literature, they are not standardized. So, this work aims to do a survey about metrics for ontologies by doing a systematic review of the literature. After this exhaustive search the gathered metrics were selected and implemented to be applied to a group of ontologies written in OWL. The goal was giving support to the reuse of Portuguese ontologies. The usage of metrics for ontologies in the OntoLP portal was evaluated through a survey. The survey results were satisfactory, the utility of metrics for ontologies in specialized repositories for ontologies was considered relevant by the portal potential users. / Ao tratarmos da construção e da disponibilização de ontologias nos deparamos com as seguintes limitações: a construção de ontologias exige a presença de especialistas do domínio e portanto apresenta um custo elevado, muitas ontologias podem conter dados protegidos por algum tipo de direito o que dificulta sua disponibilização, além disso para aquelas que podem ser compartilhadas existe o problema como encontrá-las. O Projeto OntoLP visa atenuar os problemas acima, uma vez que se propõe a colaborar na disponibilização de ontologias em língua portuguesa, ferramentas e publicações relacionadas. Dado um conjunto de ontologias é importante reunir informações que ajudem os pesquisadores a conhecer os recursos disponíveis de forma ágil. Uma área em desenvolvimento neste cenário é a área de métricas para ontologias, porém existem muitas propostas, não padronizadas, de métricas na literatura. Sendo assim, procuramos neste trabalho fazer um levantamento exaustivo sobre métricas para ontologias através de uma revisão sistemática. Depois de analisadas as métricas, um sistema que realiza o cálculo de métricas em ontologias OWL foi desenvolvido e aplicado ao portal de ontologias OntoLP. O objetivo é ajudar na busca por ontologias. Por fim, o uso das métricas no portal foi avaliado por meio de um questionário. Os resultados do questionário de maneira geral se mostraram satisfatórios, uma vez que foi possível detectar um alto nível de concordância perante respostas das questões sobre a utilidade das métricas em repositórios específicos para ontologias.
2

Desenvolvimento de regras de pronúncia para a síntese de fala em língua portuguesa

Ostermann Filho, Paulo Eduardo January 2002 (has links)
Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.
3

Desenvolvimento de regras de pronúncia para a síntese de fala em língua portuguesa

Ostermann Filho, Paulo Eduardo January 2002 (has links)
Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.
4

Desenvolvimento de regras de pronúncia para a síntese de fala em língua portuguesa

Ostermann Filho, Paulo Eduardo January 2002 (has links)
Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.
5

Um método para incrementar a extração automática de palavras-chave de textos baseado na expansão do conjunto de treinamento com termos candidatos inferidos a partir de modelos de conhecimento / A method to increment the automatic keyphrases extraction of texts based on the expansion of the training set with candidate terms inferred from knowledge models (Inglês)

Silveira, Francisca Raquel de Vasconcelos 18 April 2018 (has links)
Made available in DSpace on 2019-03-30T00:06:02Z (GMT). No. of bitstreams: 0 Previous issue date: 2018-04-18 / Extraction keyphrase systems traditionally use classification algorithms and do not consider the fact that part of the keyphrases may not be found in the text, reducing the accuracy of such algorithms a priori. In this work, it is proposed to improve the accuracy of these systems, expanding the training set used by classification algorithms with terms that are not in the text (not-in-text terms) inferred from knowledge models such as knowledge bases and distributional semantics. The basic assumption of the thesis is that not-in-text terms have a semantic relationship with terms that are in the text. For capturing and representing this relationship, we have defined three new heuristics to characterize the relevance of the not-in-text terms to be keyphrases. The first heuristic have the objective of capturing if the semantic relatedness of a not-in-text term (in relation to the other terms in the text) is higher than the semantic relatedness of the textual term from which it was inferred. The intuition is that terms that are more semantically related to other terms in the document are more likely to represent the text. The second feature refers to the power of discrimination of the inferred not-in-text term. The intuition behind this is that good candidates to be a keyphrase are those that are deduced from various textual terms in a specific document and that are not often deduced in other documents. The other feature represents the descriptive strength of a not-in-text candidate. We argue that not-in-text keyphrases must have a strong semantic relationship with the text and that the power of this semantic relationship can be measured in a similar way as popular metrics like TFxIDF. The method proposed in this work was compared with state-of-the-art systems using seven corpora and the results show that it has significantly improved automatic keyphrase extraction, dealing with the limitation of extracting keyphrases absent of the text. Keywords: Keyphrases extraction. Keyphrases absent from the text. Deduction of keyphrases. Knowledge models. / Sistemas de extração de palavras-chave tradicionalmente usam algoritmos de classificação e não consideram o fato que parte das palavras-chave podem não ser encontradas no texto, reduzindo a acurácia desses algoritmos. Neste trabalho, propõe-se melhorar a acurácia desses sistemas, expandindo o conjunto de treinamento usado pelos algoritmos de classificação com termos que não estão no texto (termos não-texto) inferidos de modelos de conhecimento, tais como bases de conhecimento e semântica distributiva. A suposição básica da tese é que termos não-texto têm um relacionamento semântico com os termos que estão no texto. Para capturar e representar esse relacionamento, foram definidas três novas heurísticas para caracterizar a relevância dos termos não-texto a serem palavras-chave. A primeira heurística tem o objetivo de capturar se o relacionamento semântico de um termo não-texto (em relação aos outros termos no texto) é maior que o relacionamento semântico do termo do texto que o inferiu. A intuição é que termos que são mais relacionados semanticamente a outros termos no documento são mais prováveis para representar o texto. A segunda heurística refere-se ao poder de discriminação do termo não-texto. A intuição é que bons candidatos para ser uma palavra-chave são aqueles que são deduzidos de vários termos do texto em um documento específico e que não são frequentemente deduzidos em outros documentos. A outra heurística representa o poder descritivo de um candidato não-texto. Argumenta-se que palavras-chave não-texto devem ter um forte relacionamento semântico com o texto e que o poder desse relacionamento semântico pode ser medido em uma maneira similar como métricas populares, tal como TFxIDF. O método proposto neste trabalho foi comparado com sistemas de estado-da-arte usando sete corpora e os resultados exibem que o método proposto tem melhorado significativamente a extração automática de palavras-chave em documentos desses corpora, lidando com a limitação de extrair palavras-chave ausentes do texto. Palavras-chave: Extração de palavras-chave. Palavras-chave ausentes do texto. Dedução de palavras-chave. Modelos de conhecimento.
6

Um modelo híbrido para o WSD em biomedicina

Goulart, Rodrigo Rafael Vilarreal January 2013 (has links)
Made available in DSpace on 2013-08-07T18:43:20Z (GMT). No. of bitstreams: 1 000448850-Texto+Completo-0.pdf: 2763654 bytes, checksum: 430bc12ce50b74821fe6a8aa37994260 (MD5) Previous issue date: 2013 / This work studies Word Sense Disambiguation (WSD) in the Biomedicine domain for English language, using external knowledge sources. Among the existing proposals for the selection of a sense for an ambiguous word, there is the graph-based approach. This approach uses a metric in the evaluation of graphs containing candidates to the correct sense for the ambiguous word. In this research, a set of metrics is analyzed individually, and, based on this evaluation, we propose a hybrid model for the selection of the metrics in order to determine the most adequate metric to be employed. The model makes use of a set of features and heuristics that determine a semi-supervised solution for WSD. The results obtained with experiments show an improvement in performance and reveal new perspectives of research. The proposed model raises the hit rate to 68,48%, increasing significantly in 3,52% the rate reported in literature. / Este trabalho estuda o Word Sense Disambiguation no domínio da Biomedicina, para a língua inglesa, com uso de fontes externas de conhecimento. Dentre as propostas existentes para a seleção de um sentido para uma palavra ambígua, está a abordagem baseadas em grafos. Essa abordagem emprega uma métrica na avaliação de grafos que contêm candidatos ao sentido correto da palavra ambígua. Nesta pesquisa um conjunto de métricas é analisado individualmente e, com base nas avaliações, propõe-se um modelo híbrido de seleção de métricas com o objetivo de determinar a métrica mais adequada a ser empregada. O modelo faz uso de um conjunto de features e heurísticas que determinam uma solução semi-supervisionada para o WSD. Os resultados obtidos com experimentos apontam melhoria na performance e revelam novas perspectivas de pesquisa. O modelo proposto eleva a taxa de acerto a 68,48%, aumentando significativamente em 3,52% a taxa reportada na literatura.
7

Extração de vocabulário multilíngue a partir de documentação de software

Hilgert, Lucas Welter January 2014 (has links)
Made available in DSpace on 2014-05-06T02:01:52Z (GMT). No. of bitstreams: 1 000457560-Texto+Completo-0.pdf: 1023326 bytes, checksum: f34cdce0dc99790d1770e8e63219e649 (MD5) Previous issue date: 2014 / Real-time machine translation tools and services have been investigated as an alternative approach to the utilization of a common language (lingua franca) during distributed meetings involving teams with differet native languages. However, as presented by different research works, this kind of technologies presents a set of problems that difficults the communication. Among the solution proposed in the literature, the construction of domain specific vocabularies are highlited. This work propose a multilingual vocabulary extraction process for multilingual dicionary entries extraction from software user guides. The process here proposed follows a well stablished set of steps presenting as the main difference the way in wich the domain vocabulary is identified: through the utilization of terminology extraction softwares. A manual evaluation of the dictionaries generated by the process has shown a precision of 81% for simple world translation and 39% for multiword expressions. This values are consistent with the related work. / Ferramentas e serviços de tradução de máquina (automática) em tempo real têm sido investigadas como uma alternativa à utilização de idiomas comum (Lingua Franca) durante reuniões de equipes com diferentes idiomas nativos. No entanto, como demonstrado por diferentes pesquisadores, este tipo de tecnologia ainda apresenta alguns tipos problemas que dificultam a sua utilização neste contexto, dentre os quais destaca-se neste trabalho as traduções inconsistentes (diferentes traduções atribuídas a uma mesma palavra em um mesmo contexto). Dentre as soluções apontadas na literatura para melhorar a qualidade das traduções, destaca-se a construção de vocabulários multilíngues específicos de domínios. Sendo assim, neste trabalho é proposto um processo para a extração de vocabulário multilíngue a partir de documentos de software.O processo proposto seguiu um conjunto de etapas consolidadas na literatura, tendo apresentado, como principal diferencial a forma pela qual o vocabulário de domínio é identificado: mediante a utilização de softwares extratores de terminologia. Uma avaliação manual dos dicionários gerados pelo processo demonstrou uma precisão de 81% na tradução de palavras simples e 39% na tradução de expressões multipalavras. Estes valores demonstraram-se condizentes com os trabalhos relacionados.
8

Feature-level sentiment analysis applied to brazilian portuguese reviews

Freitas, Larissa Astrogildo de January 2015 (has links)
Made available in DSpace on 2015-05-22T12:36:36Z (GMT). No. of bitstreams: 1 000468945-Texto+Completo-0.pdf: 990591 bytes, checksum: 7d04b4b3b2f91050851802c6d65349f1 (MD5) Previous issue date: 2015 / Sentiment Analysis is the field of study that analyzes people’s opinions in texts. In the last decade, humans have come to share their opinions in social media on the Web (e.g., forum discussions and posts in social network sites). Opinions are important because whenever we need to take a decision, we want to know others’ points of view. The interest of industry and academia in this field of study is partly due to its potential applications, such as: marketing, public relations and political campaign. Research in this field often considers English data, while data from other languages are less explored. It is possible realize data analysis in different levels, in this work we choose a finer-grain analysis, at aspect-level. Ontologies can represent aspects, that are “part-of” an object or property of “part-of” an object, we proposed a method for feature-level sentiment analysis using ontologies applied to Brazilian Portuguese reviews. In order to obtain a complete analysis, we recognized features explicit and implicit using ontologies. Relatively less work has been done about implicit feature identification. Finally, determine whether the sentiment in relation to the aspects is positive or negative using sentiment lexicons and linguistic rules. Our method is comprised of four steps: preprocessing, feature identification, polarity identification and summarizing. For evaluate this work, we apply our proposal method to a dataset of accommodation sector. According to our experiments, in general the best results were obtained when using TreeTagger, synsets with polarities from Onto. PT and linguistic rule (adjective position) for negative polarity identification and (baseline) for positive polarity identificatio / Análise de sentimento é o campo de estudo que analisa a opinião de pessoas em textos. Na última década, humanos têm compartilhado suas opiniões em mídias sociais na Web (por exemplo, fóruns de discussão e posts em sites de redes sociais). Opiniões são importantes porque sempre que necessitamos tomar uma decisão, queremos saber o ponto de vista de outras pessoas. O interesse da indústria e da academia neste campo de estudo se deve a aplicações potenciais, tais como: compra/venda, relações públicas e campanhas políticas. Pesquisas neste campo muitas vezes consideram dados em inglês, enquanto dados em outros idiomas são pouco explorados. É possível realizar a análise dos dados em diferentes níveis, neste trabalho optamos pela análise no nível de aspecto, na qual a granularidade é mais fina. Como ontologias podem ser utilizadas para representar aspectos, que são “parte-de” um objeto ou propriedade de “parte-de” um objeto, propomos um método para análise de sentimento aplicado a comentários em português brasileiro, sob o nível de aspecto usando ontologias. A fim de obter uma análise completa, reconhecemos aspectos explícitos e implícitos usando ontologias. Relativamente poucos trabalhos têm sido feitos sobre identificação de aspectos implícitos. Finalmente determinamos se o sentimento em relação aos aspectos é positivo ou negativo usando léxicos de sentimento e regras linguísticas. Nosso método é composto de quatro etapas: pré-processamento, identificação de aspecto, identificação de polaridade e sumarização. Para avaliar este trabalho, aplicamos o método proposto nos comentários do setor hoteleiro. De acordo com nosso experimento, o melhor resultado obtido foi quando utilizamos o TreeTagger, o synset com polaridade do Onto. PT e a regra linguística (posição do adjetivo) na identificação da polaridade negativa e (baseline) na identificação da polaridade positiva
9

Construção de um corpus anotado para classificação de entidades nomeadas utilizando a Wikipedia e a DBpedia

Weber, Cristofer January 2015 (has links)
Made available in DSpace on 2015-12-15T01:05:01Z (GMT). No. of bitstreams: 1 000476712-Texto+Completo-0.pdf: 1416751 bytes, checksum: 0b603e0667dd53303efd13181a62d31e (MD5) Previous issue date: 2015 / Some natural language processing tasks can be learned from example corpora, but having enough examples for the task at hands can be a bottleneck. In this work we address how Wikipedia and DBpedia, two freely available language resources, can be used to support Named Entity Recognition, a fundamental task in Information Extraction and a necessary step of other tasks such as Co-reference Resolution and Relation Extraction. / Algumas tarefas de processamento de linguagem natural podem ser aprendidas por algoritmos a partir de corpus de exemplo, mas a obtenção destes exemplos pode ser um gargalo. Neste trabalho nós investigamos como a Wikipedia e a DBpedia, dois recursos de linguagem disponíveis de forma gratuita, podem ser utilizados como corpus para a classificação de entidades nomeadas, uma tarefa fundamental de extração de informações e um passo necessário para outras tarefas como extração de relações e resolução de co-referências.
10

A gramática da sentença em português: uma descrição formal com um "olho" na implementação computacional

Othero, Gabriel de Ávila January 2008 (has links)
Made available in DSpace on 2013-08-07T19:00:55Z (GMT). No. of bitstreams: 1 000410050-Texto+Completo-0.pdf: 1300754 bytes, checksum: a8930e4fa82c505a7f105c92bb96468b (MD5) Previous issue date: 2008 / We study the syntactic structure of the sentence in Brazilian Portuguese (BP), in its canonical order, SVO. We formulate categorial phrase structure rewrite rules of the sentence and of the phrases in BP (both lexical and functional XPs), using standard X-bar theory. We continue the work we began in Othero (2004), when we analyzed some structures of the simple sentence in BP. Now we also analyze complex sentences, including embedded sentences and sentences with two or more verbs (complex predicate sentences and structures with auxiliary verbs). We formulate grammar rules to describe the structure of the sentence in Portuguese and present a grammar that can be computationally implemented, in a way similar to the one we showed in Othero (2006), for example. / Estudamos a estrutura sintática da sentença do português brasileiro (PB) em sua ordem canônica, SVO, formulando regras de reescrita para a descrição da sentença e dos sintagmas que a formam, tanto sintagmas lexicais quanto funcionais. Adotamos como formalismo sintático uma phrase structure grammar livre de contexto, seguindo de perto alguns princípios fundamentais propostos pela teoria X-barra standard. Damos continuidade ao trabalho de Othero (2004), em sua análise formal da estrutura sintática da sentença simples em PB. Agora, formalizamos também as regras de boa formação de sentenças complexas do PB, incluindo estruturas com sentenças encaixadas, com locuções verbais e com predicados complexos. Propomos regras categoriais de reescrita que descrevem adequadamente a estrutura sintática da frase em PB e que são passíveis de implementação computacional, como demonstrado por Othero (2006), por exemplo.

Page generated in 0.1286 seconds