• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 2
  • 1
  • Tagged with
  • 83
  • 66
  • 18
  • 16
  • 15
  • 15
  • 15
  • 13
  • 13
  • 12
  • 11
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Pirossequenciamento do transcriptoma de folha de Lippia alba por meio da plataforma 454 GS FLX (Roche)

Guedes, Fernanda Alves de Freitas 28 February 2011 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-09-15T12:46:42Z No. of bitstreams: 1 fernandaalvesdefreitasguedes.pdf: 2011976 bytes, checksum: 6684b1525d9f87a2f6e72eadaa42fc34 (MD5) / Approved for entry into archive by Diamantino Mayra (mayra.diamantino@ufjf.edu.br) on 2016-09-26T20:18:53Z (GMT) No. of bitstreams: 1 fernandaalvesdefreitasguedes.pdf: 2011976 bytes, checksum: 6684b1525d9f87a2f6e72eadaa42fc34 (MD5) / Made available in DSpace on 2016-09-26T20:18:53Z (GMT). No. of bitstreams: 1 fernandaalvesdefreitasguedes.pdf: 2011976 bytes, checksum: 6684b1525d9f87a2f6e72eadaa42fc34 (MD5) Previous issue date: 2011-02-28 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Lippia alba, também conhecida popularmente como erva cidreira, é uma espécie amplamente distribuída pelas Américas podendo ser encontrada por praticamente todo o Brasil. Muito usada pela medicina popular para o tratamento de problemas gastrointestinais e respiratórios, a folha desta espécie produz um óleo essencial rico em terpenos, principalmente mono e sesquiterpenos. Estes compostos não são apenas de interesse farmacológico, como também industrial. A composição deste óleo pode variar em função de fatores abióticos e também de variações genotípicas. Diante da complexidade da síntese destes compostos a proposta deste trabalho foi uma ampla caracterização do transcriptoma de folha de Lippia alba, além da identificação de prováveis enzimas envolvidas na síntese de terpenos. Para isso, foi feito um sequenciamento deste transcriptoma usando a plataforma 454 (Roche) seguido de uma montagem de novo. Esta plataforma tem sido cada vez mais utilizada para o sequenciamento de transcriptomas numa abordagem conhecida como RNA-Seq. O sequenciamento de biblioteca preparada a partir de RNA total em 1/8 de placa gerou 104.631 leituras com comprimento médio de 184,48bp num total de 19.302.161 bases. Foram feitas montagens das leituras usando 2 diferentes assemblers a fim de compará-las. Com o Newbler 2.5 foi possível montar 2.686 contigs com comprimento médio de 349bp, enquanto o SeqMan2.2 gerou 13.448 contigs com média de 284bp. Em seguida, foi feita a anotação funcional com o Blast2GO para os contigs obtidos nas duas montagens, tendo sido anotados 51,49% e 30,88%, respectivamente, dos contigs do Newbler e do SeqMan. Por fim, a análise das sequências anotadas revelou algumas enzimas potencialmente envolvidas com a síntese de terpenos. Os resultados obtidos neste estudo pioneiro sobre a espécie comprovam que as tecnologias NGS podem ser uma ferramenta bastante eficiente para o sequenciamento de transcriptomas e servirão como referência para o preparo mais específico de novas bibliotecas. Futuros sequenciamentos devem contribuir para uma melhor cobertura do transcriptoma permitindo a descoberta inclusive de transcritos raros. / Lippia alba, popularly known as erva cidreira, is widely distributed throughout the Americas and can be found through almost whole Brazil. This species is largely used in folk medicine to treat gastrointestinal and respiratory problems, especially leaves, which produce an essential oil rich in terpenes, mainly mono-and sesquiterpenes. These compounds are not only of pharmacological interest, as well as industrial. Composition of essencial oil can vary depending on the developmental stage, the plant part and other abiotic factors. However, genotypic variations also contribute to oil composition variation. Given the complexity of terpenes synthesis, including diversity of enzymes involved in these metabolic pathways, the purpose of this work was a L. alba leaf transcriptome characterization, in addition to identifying some enzymes probably involved in terpene synthesis. For that, it was made a transcriptome sequencing using 454 platform (Roche) followed by a de novo assembly. This platform, along with other NGS technologies, has been increasingly used for transcriptome sequencing in an approach known as RNA-Seq. Sequencing of a library prepared from total RNA in 1/8 plate generated 104,631 reads with average length of 184.48 bp and a total of 19,302,161 bases. Read assemblies were made using two different assemblers in order to compare them. While Newbler 2.5, proprietary software platform, assembled 2686 contigs with average length of 349bp, SeqMan2.2 generated 13,448 contigs with an average of 284bp. Then, functional annotation was performed with Blast2GO for all contigs from both assemblies; 51.49% and 30.88% of contigs, respectively, from Newbler and SeqMan were annotated. Finally, analysis of annotated sequences revealed some enzymes potentially involved in terpene synthesis. Results obtained from this pioneering study on the species show that NGS technology can be a very efficient tool for transcriptome sequencing and they will serve as reference for preparation of other more specific libraries. New sequencings should contribute to a better coverage of this transcriptome, allowing discovery of even rare transcripts.
72

Sumarização multidocumento com base em aspectos informativos / Multidocument summarization based on information aspects

Alessandro Yovan Bokan Garay 20 August 2015 (has links)
A sumarização multidocumento consiste na produção de um sumário/resumo a partir de uma coleção de textos sobre um mesmo assunto. Devido à grande quantidade de informação disponível na Web, esta tarefa é de grande relevância já que pode facilitar a leitura dos usuários. Os aspectos informativos representam as unidades básicas de informação presentes nos textos. Por exemplo, em textos jornalísticos em que se relata um fato/acontecimento, os aspectos podem representar a seguintes informações: o que aconteceu, onde aconteceu, quando aconteceu, como aconteceu, e por que aconteceu. Conhecendo-se esses aspectos e as estratégias de produção e organização de sumários, é possível automatizar a tarefa de sumarização. No entanto, para o Português do Brasil, não há pesquisa feita sobre sumarização com base em aspectos. Portanto, neste trabalho de mestrado, investigaram-se métodos de sumarização multidocumento com base em aspectos informativos, pertencente à abordagem profunda para a sumarização, em que se busca interpretar o texto para se produzir sumários mais informativos. Em particular, implementaram-se duas etapas relacionadas: (i) identificação automática de aspectos os aspectos informativos e (ii) desenvolvimento e avaliação de dois métodos de sumarização com base em padrões de aspectos (ou templates) em sumários. Na etapa (i), criaram-se classificadores de aspectos com base em anotador de papéis semânticos, reconhecedor de entidades mencionadas, regras manuais e técnicas de aprendizado de máquina. Avaliaram-se os classificadores sobre o córpus CSTNews (Rassi et al., 2013; Felippo et al., 2014). Os resultados foram satisfatórios, demostrando que alguns aspectos podem ser identificados automaticamente em textos jornalísticos com um desempenho razoável. Já na etapa (ii), elaboraram-se dois métodos inéditos de sumarização multidocumento com base em aspectos. Os resultados obtidos mostram que os métodos propostos neste trabalho são competitivos com os métodos da literatura. Salienta-se que esta abordagem para sumarização tem recebido grande destaque ultimamente. Além disso, é inédita nos trabalhos desenvolvidos no Brasil, podendo trazer contribuições importantes para a área. / Multi-document summarization is the task of automatically producing a unique summary from a group of texts on the same topic. With the huge amount of available information in the web, this task is very relevant because it can facilitate the reading of the users. Informative aspects, in particular, represent the basic information units in texts and summaries, e.g., in news texts there should be the following information: what happened, when it happened, where it happened, how it happened and why it happened. Knowing these aspects and the strategies to produce and organize summaries, it is possible to automate the aspect-based summarization. However, there is no research about aspect-based multi-document summarization for Brazilian Portuguese. This research work investigates multi-document summarization methods based on informative aspects, which follows the deep approach for summarization, in which it aims at interpreting the texts to produce more informative summaries. In particular, two main stages are developed: (i) the automatic identification of informative aspects and (ii) and the development and evaluation of two summarization methods based on aspects patterns (or templates). In the step (i) classifiers were created based on semantic role labeling, named entity recognition, handcrafted rules and machine learning techniques. Classifiers were evaluated on the CSTNews annotated corpus (Rassi et al., 2013; Felippo et al., 2014). The results were satisfactory, demonstrating that some aspects can be automatically identified in the news with a reasonable performance. In the step (ii) two novels aspect-based multi-document summarization methods are elaborated. The results show that the proposed methods in this work are competitive with the classical methods. It should be noted that this approach has lately received a lot of attention. Furthermore, it is unprecedented in the summarization task developed in Brazil, with the potential to bring important contributions to the area.
73

Investigação de modelos de coerência local para sumários multidocumento / Investigation of local coherence models for multri-document summaries

Márcio de Souza Dias 10 May 2016 (has links)
A sumarização multidocumento consiste na tarefa de produzir automaticamente um único sumário a partir de um conjunto de textos derivados de um mesmo assunto. É imprescindível que seja feito o tratamento de fenômenos que ocorrem neste cenário, tais como: (i) a redundância, a complementaridade e a contradição de informações; (ii) a uniformização de estilos de escrita; (iii) tratamento de expressões referenciais; (iv) a manutenção de focos e perspectivas diferentes nos textos; (v) e a ordenação temporal das informações no sumário. O tratamento de tais fenômenos contribui significativamente para que seja produzido ao final um sumário informativo e coerente, características difíceis de serem garantidas ainda que por um humano. Um tipo particular de coerência estudado nesta tese é a coerência local, a qual é definida por meio de relações entre enunciados (unidades menores) em uma sequência de sentenças, de modo a garantir que os relacionamentos contribuirão para a construção do sentido do texto em sua totalidade. Partindo do pressuposto de que o uso de conhecimento discursivo pode melhorar a avaliação da coerência local, o presente trabalho propõe-se a investigar o uso de relações discursivas para elaborar modelos de coerência local, os quais são capazes de distinguir automaticamente sumários coerentes dos incoerentes. Além disso, um estudo sobre os erros que afetam a Qualidade Linguística dos sumários foi realizado com o propósito de verificar quais são os erros que afetam a coerência local dos sumários, se os modelos de coerência podem identificar tais erros e se há alguma relação entre os modelos de coerência e a informatividade dos sumários. Para a realização desta pesquisa foi necessário fazer o uso das informações semântico-discursivas dos modelos CST (Cross-document Structure Theory) e RST (Rhetorical Structure Theory) anotadas no córpus, de ferramentas automáticas, como o parser Palavras e de algoritmos que extraíram informações do córpus. Os resultados mostraram que o uso de informações semântico-discursivas foi bem sucedido na distinção dos sumários coerentes dos incoerentes e que os modelos de coerência implementados nesta tese podem ser usados na identificação de erros da qualidade linguística que afetam a coerência local. / Multi-document summarization is the task of automatically producing a single summary from a collection of texts derived from the same subject. It is essential to treat many phenomena, such as: (i) redundancy, complementarity and contradiction of information; (ii) writing styles standardization; (iii) treatment of referential expressions; (iv) text focus and different perspectives; (v) and temporal ordering of information in the summary. The treatment of these phenomena contributes to the informativeness and coherence of the final summary. A particular type of coherence studied in this thesis is the local coherence, which is defined by the relationship between statements (smallest units) in a sequence of sentences. The local coherence contributes to the construction of textual meaning in its totality. Assuming that the use of discursive knowledge can improve the evaluation of the local coherence, this thesis proposes to investigate the use of discursive relations to develop local coherence models, which are able to automatically distinguish coherent summaries from incoherent ones. In addition, a study on the errors that affect the Linguistic Quality of the summaries was conducted in order to verify what are the errors that affect the local coherence of summaries, as well as if the coherence models can identify such errors, and whether there is any relationship between coherence models and informativenessof summaries. For thisresearch, it wasnecessary theuseof semantic-discursive information of CST models (Cross-document Structure Theory) and RST (Rhetorical Structure Theory) annoted in the corpora, automatic tools, parser as Palavras, and algorithms that extract information from the corpus. The results showed that the use of semantic-discursive information was successful on the distinction between coherent and incoherent summaries, and that the information about coherence can be used in error detection of linguistic quality that affect the local coherence.
74

Desenvolvimento da plataforma CaneRegNet para anotação funcional e análises do transcriptoma da cana-de-açúcar / Development of CaneRegNet platform for functional annotation and analysis of sugarcane transcriptome

Milton Yutaka Nishiyama Junior 13 April 2015 (has links)
A identificação de genes alvos, vias de sinalização e vias metabólicas para melhoramento de cana-de-açúcar associados a características de interesse, ainda são pouco conhecidos e estudados. Alguns estudos do transcriptoma através de plataformas de microarranjo têm buscado identificar listas de genes, para experimentos tecido- específico ou submetidos a condições de estresse bióticos e abióticos. Estudos pontuais destes dados tem sido associados a vias metabólicas ou vias de sinalização já descritas na literatura, de forma a identificar alterações relacionadas a padrões de expressão gênica. Porém, estas relações em cana-de-açúcar são pouco conhecidas e estudadas. O estudo e entendimento de cana-de-açúcar por meio da diversidade genética e de sua adaptação ao ambiente é um grande desafio, principalmente pela ausência de um genoma sequenciado e por possuir um genoma complexo. Apresentamos nossos resultados para tentar superar tais limitações e desafios para estudos de expressão gênica. Foram desenvolvidas metodologias para anotação funcional do transcriptoma, centradas na transferência de anotação, identificação de vias metabólicas e enzimas pelo método de similaridade bi-direcional, predição de genes full-length, análises de ortologia e desenho de oligonucleotídeos para microarranjos customizados, resultando no ORFeoma de cana-de-açúcar, na identificação e classificação de famílias de fatores de transcrição e identificação de genes ortólogos entre gramíneas. Além disso, desenvolvemos uma plataforma para processamento e análise automatizada de experimentos por microarranjo, para armazenamento, recuperação e integração com a anotação funcional. Adicionalmente desenvolvemos e implementamos métodos para seleção de genes diferencialmente e significativamente expressos, e abordagens para análise de enriquecimento de categorias, e escores de atividade de vias metabólicas. De forma a integrar a anotação funcional do transcriptoma aos estudos por expressão gênica, desenvolvemos a plataforma CaneRegNet e uma interface para integração desta rede de dados biológicos e conhecimentos, composta por aplicativos para consulta e prospecção de dados por análises de agrupamento e correlação entre experimentos de microarranjo, possibilitando a geração de novas hipóteses e predições dentro da organização da regulação celular. / The identification of target genes, metabolic and signaling pathways associated with characteristics of interest to the sugarcane improvement are still poorly known and studied. Some transcritptome studies through microarray platforms has tried to identify lists of genes, for tissue-specific experiments or subjected to conditions of biotic and abiotic stress. In the literature specific studies of these data has already been associated with metabolic or signaling pathway, in order to identify changes in these tracks related to patterns of gene expression. However, these relations are still little know and generally defined slightly. The study and understanding of sugarcane by means of genetic diversity and its adaptation to the environment is a major challenge, mainly due to the absence of a sequenced genome and by your complex genome. We present our results to surpass this barrier e challenges for the study of gene expression. Methodologies were developed for the transcriptome functional annotation, focused on the annotation transfer, identification of metabolic pathways and enzymes by the bi- directional method; prediction of full-length genes; ortology analysis and probe design for customized microarrays, resulting in the sugarcane ORFeome, the identification and classification of transcription factor families and identification of ortholog genes between grasses. Besides that, we have developed a plataform for automated processing and analysis for microarray experiments, to store, retrieve and integration with the functional annotation. Additionally, we have developed and implemented methods for identification of differentially and significantly expressed genes, and approaches for over-represented analysis and functional class scoring (FCS). To integrate the functional annotation and the studies by gene expression profile, we have developed the CaneRegNet platform and an interface to integrate this network of biological data and knowledge, composed by searching and data mining tools for clustering and correlations between microarray experiments, enabling the generation of new hypothesis and predictions around the organization of cellular regulation.
75

Identificação de genes de maracujá azedo diferencialmente expressos durante a interação com Xanthomonas axonopodis / Identification of differentially expressed genes during the yellow passion fruit- Xanthomonas axonopodis interaction

Munhoz, Carla de Freitas 04 October 2013 (has links)
O Brasil é o maior produtor mundial de maracujá azedo (Passiflora edulis f. flavicarpa) sendo esta a espécie de maior expressão comercial dentre as passifloras cultivadas. A bacteriose do maracujazeiro, causada por Xanthomonas axonopodis pv. passiflorae (Xap), é uma das doenças mais severas da cultura, acarretando grandes prejuízos aos produtores. Atualmente, é incipiente o conhecimento sobre a interação maracujá azedo-Xap. Diante disso, a identificação e a caracterização dos genes envolvidos no processo de defesa são passos importantes para dar suporte ao desenvolvimento de variedades resistentes. Assim, o objetivo deste trabalho foi identificar e caracterizar genes de maracujá azedo diferencialmente expressos durante a resposta de defesa à Xap, bem como mensurar a sua expressão. Para isso, foram construídas duas bibliotecas subtrativas de cDNA (forward e reverse) usando o método SSH a partir de transcritos de folhas, que foram inoculadas com o patógeno ou solução salina (controle). Após o sequenciamento dos clones, o processamento e a montagem das sequências, as unisequências foram anotadas através da Plataforma PLAZA e do programa computacional Blast2GO. Genes envolvidos em diversos processos biológicos foram selecionados para a validação das bibliotecas por PCR quantitativo. Usando a Plataforma PLAZA, 78 % (764) das unisequências mostraram similaridade com proteínas de Arabidopsis thaliana, enquanto 87 % (866) delas apresentaram similaridade com proteínas putativas de diversas espécies vegetais, quando se utilizou Blast2GO. Na biblioteca forward, foram identificadas 73 proteínas relacionadas à resposta de defesa, dentre as quais estão proteínas envolvidas na sinalização intracelular, na ativação da transcrição e regulação da expressão de genes de defesa, bem como proteínas de defesa, de resistência e relacionadas à patogênese (PRs). Dentre os 22 transcritos validados, 95 % foram diferencialmente expressos em pelo menos um dos três períodos avaliados; os genes mais expressos em resposta à infecção pelo patógeno são os que codificam as enzimas lipoxigenase, (+)-neomentol desidrogenase e quitinase, as quais participam diretamente nas respostas de defesa vegetal. Dos genes cuja expressão foi mais reprimida, dois codificam proteínas relacionadas à fotossíntese e dois codificam proteínas envolvidas na detoxificação da amônia e do H2O2. Nossos resultados sugerem que a planta utiliza um arsenal de transcritos para responder à infecção; entretanto, este arsenal não é eficiente para impedir a ação do patógeno e, consequentemente, o desenvolvimento da bacteriose nas condições estudadas. Nosso estudo é inédito e gerou informações sobre a reprogramação transcricional durante a interação maracujá azedo-Xap, o que constitui um importante passo para o melhor entendimento sobre este patossistema. / Brazil is the main producer of yellow passion fruit (Passiflora edulis f. flavicarpa) worldwide, which is the most widely commercialized crop among the cultivated passifloras. The bacterial leaf spot induced by Xanthomonas axonopodis pv. passiflorae (Xap) is one of the most severe diseases of the crop, causing great losses to producers. Currently, we understand very little about the yellow passion fruit-Xap interaction. Therefore, the identification and characterization of genes involved in the defense process are important steps to support the development of resistant varieties. Thus, the objective of this study was identify and characterize differentially expressed genes during the defense response to Xap, as well as to measure their expression. For that, we constructed two subtractive cDNA libraries (the forward and the reverse) by performing the SSH method from leaf transcripts, which were inoculated with the pathogen or saline solution (control). After sequencing the clones and sequence data processing, sequences were assembled into unique sequences, which were annotated using the PLAZA Platform and the computational program Blast2GO. Genes involved in several biological processes were selected to validate the libraries by quantitative PCR. When PLAZA was used for sequence similarity searches, 78 % (764) of the yellow passion fruit unique sequences showed similarity to proteins of Arabidopsis thaliana; when Blast2GO was used, 87 % (866) of the unique sequences showed similarities to putative proteins of several plant species. For the forward library, 73 proteins related to defense response were identified, such as those involved in intracellular signaling, transcription activation and regulation of defense gene expression, as well as defense and resistance proteins, and pathogenesis-related proteins (PRs). Of the 22 validated transcripts, 95 % were differentially expressed during at least one of the three periods evaluated; the genes up-regulated in response to the pathogen infection were those that code for the enzymes lipoxygenase, (+)-neomenthol dehydrogenase and chitinase, which participate directly in plant-defense responses. Out of down-regulated genes, two code for photosynthesis-related proteins, and two for ammonia and H2O2 detoxification. Our results suggest the plant uses an arsenal of transcripts to respond to infection; however, this arsenal is not effective to prevent pathogen action and consequently the occurrence of bacterial leaf spot under the evaluated conditions. The present study is the first to produce information on the transcriptional reprogramming during the passion fruit-Xap interaction, which represents an important step for a better understanding of this pathosystem.
76

Anotação e classificação automática de entidades nomeadas em notícias esportivas em Português Brasileiro / Automatic named entity recognition and classification for brazilian portuguese sport news

Zaccara, Rodrigo Constantin Ctenas 11 July 2012 (has links)
O objetivo deste trabalho é desenvolver uma plataforma para anotação e classificação automática de entidades nomeadas para notícias escritas em português do Brasil. Para restringir um pouco o escopo do treinamento e análise foram utilizadas notícias esportivas do Campeonato Paulista de 2011 do portal UOL (Universo Online). O primeiro artefato desenvolvido desta plataforma foi a ferramenta WebCorpus. Esta tem como principal intuito facilitar o processo de adição de metainformações a palavras através do uso de uma interface rica web, elaborada para deixar o trabalho ágil e simples. Desta forma as entidades nomeadas das notícias são anotadas e classificadas manualmente. A base de dados foi alimentada pela ferramenta de aquisição e extração de conteúdo desenvolvida também para esta plataforma. O segundo artefato desenvolvido foi o córpus UOLCP2011 (UOL Campeonato Paulista 2011). Este córpus foi anotado e classificado manualmente através do uso da ferramenta WebCorpus utilizando sete tipos de entidades: pessoa, lugar, organização, time, campeonato, estádio e torcida. Para o desenvolvimento do motor de anotação e classificação automática de entidades nomeadas foram utilizadas três diferentes técnicas: maximização de entropia, índices invertidos e métodos de mesclagem das duas técnicas anteriores. Para cada uma destas foram executados três passos: desenvolvimento do algoritmo, treinamento utilizando técnicas de aprendizado de máquina e análise dos melhores resultados. / The main target of this research is to develop an automatic named entity classification tool to sport news written in Brazilian Portuguese. To reduce this scope, during training and analysis only sport news about São Paulo Championship of 2011 written by UOL2 (Universo Online) was used. The first artefact developed was the WebCorpus tool, which aims to make easier the process of add meta informations to words, through a rich web interface. Using this, all the corpora news are tagged manually. The database used by this tool was fed by the crawler tool, also developed during this research. The second artefact developed was the corpora UOLCP2011 (UOL Campeonato Paulista 2011). This corpora was manually tagged using the WebCorpus tool. During this process, seven classification concepts were used: person, place, organization, team, championship, stadium and fans. To develop the automatic named entity classification tool, three different approaches were analysed: maximum entropy, inverted index and merge tecniques using both. Each approach had three steps: algorithm development, training using machine learning tecniques and best score analysis.
77

Recortes na paisagem: uma leitura de Brazil e outros textos de Elizabeth Bishop / Clippings on landscape: a reading of Brazil and other texts of Elizabeth Bishop

Ferreira, Armando Olivetti 17 April 2009 (has links)
Este trabalho tem como objetivo anotar, traduzir e comentar uma parte da obra da escritora norteamericana Elizabeth Bishop (1911-1979), que viveu no Brasil durante cerca de vinte anos: seus textos de caráter jornalístico relacionados ao país. O mais extenso é o livro Brazil (1962), escrito sob encomenda dos editores da revista Life. O livro foi renegado pela autora, inconformada com as intervenções dos editores, e publicado sob coautoria. O cotejo entre os originais (preservados nos arquivos de Bishop, no Vassar College), o texto publicado em 1962 e as anotações da autora em seu exemplar (preservado na Harvard University) permite apontar as similaridades e, especialmente, os importantes contrastes entre a perspectiva de Bishop e a dos editores. Uma investigação sobre o momento em que o livro surgiu na vida da autora e na história do Brasil e dos Estados Unidos auxilia a compreensão não só do texto, mas também de sua escrita e dos episódios associados à sua edição. O trabalho se completa com a tradução e a anotação de outros cinco textos, dois dos quais ainda inéditos mesmo em inglês, vestígios de um projeto abandonado por Bishop: a elaboração de um novo livro sobre o país. / The aim of this work is to annotate, translate, and comment a part of the writings by Elizabeth Bishop (1911-1979), the North-American writer, who lived in Brazil for approximately twenty years, focusing on her journalistic texts about that country. Her largest piece is a book called Brazil (1962) which was commissioned by the editors of Life magazine. However, the book was rejected by the author who refused to accept the interventions made by the editors. As a result, they co-authored it. Comparing the original (preserved in the Bishop archives at Vassar College) with the published text allows us to compare two different views of Brazil, to highlight similarities and especially the important contrasts between them. A research on the period the book was published focused on the author\'s life, as well as on the history of both Brazil and the U.S.A. helps to understand not only the text itself, but also how it was written and the episodes associated to its edition. The present work includes five additional texts, remains of a project that was abandoned by Bishop: the making of another book on Brazil. Two of these texts have remained unpublished to date, even in English.
78

Alinhamento texto-imagem em sites de notícias

Veltroni, Wellington Cristiano 02 March 2018 (has links)
Submitted by Wellington Veltroni (wellingtonveltroni@gmail.com) on 2018-04-10T20:01:58Z No. of bitstreams: 4 Disserta__o___Wellington_C__Veltroni-versao_final.pdf: 15387621 bytes, checksum: 73df0490e376ced1e7ca7ae3eb77db60 (MD5) FA_vELTRONI.jpg: 460462 bytes, checksum: 790b1993aa2dca9f252dac391edb16d3 (MD5) rd_vELTRONI.jpg: 817039 bytes, checksum: 9dca57906ec66fb968b138749edaf787 (MD5) tc_vELTRONI.jpg: 581847 bytes, checksum: bcc9d308881a36fbccfb47fe2349b222 (MD5) / Rejected by Eunice Nunes (eunicenunes6@gmail.com), reason: Bom dia Wellington, Informamos que faltou enviar a Carta comprovante assinada pelo orientador. Solicite o modelo em sua Secretaria de Pós-graduação, preencha e colete a assinatura com o orientador e acesse novamente o sistema para fazer o Upload. Fico no aguardo para finalizarmos o processo. Abraços Ronildo on 2018-04-17T14:16:27Z (GMT) / Submitted by Wellington Veltroni (wellingtonveltroni@gmail.com) on 2018-04-18T12:15:38Z No. of bitstreams: 5 Disserta__o___Wellington_C__Veltroni-versao_final.pdf: 15387621 bytes, checksum: 73df0490e376ced1e7ca7ae3eb77db60 (MD5) FA_vELTRONI.jpg: 460462 bytes, checksum: 790b1993aa2dca9f252dac391edb16d3 (MD5) rd_vELTRONI.jpg: 817039 bytes, checksum: 9dca57906ec66fb968b138749edaf787 (MD5) tc_vELTRONI.jpg: 581847 bytes, checksum: bcc9d308881a36fbccfb47fe2349b222 (MD5) Carta_orientadora.pdf: 386667 bytes, checksum: 7343ef875a0334174a4a5abe3fd73b3e (MD5) / Approved for entry into archive by Eunice Nunes (eunicenunes6@gmail.com) on 2018-04-26T12:03:07Z (GMT) No. of bitstreams: 5 Disserta__o___Wellington_C__Veltroni-versao_final.pdf: 15387621 bytes, checksum: 73df0490e376ced1e7ca7ae3eb77db60 (MD5) FA_vELTRONI.jpg: 460462 bytes, checksum: 790b1993aa2dca9f252dac391edb16d3 (MD5) rd_vELTRONI.jpg: 817039 bytes, checksum: 9dca57906ec66fb968b138749edaf787 (MD5) tc_vELTRONI.jpg: 581847 bytes, checksum: bcc9d308881a36fbccfb47fe2349b222 (MD5) Carta_orientadora.pdf: 386667 bytes, checksum: 7343ef875a0334174a4a5abe3fd73b3e (MD5) / Rejected by Eunice Nunes (eunicenunes6@gmail.com), reason: Bom dia Wellington, Verificamos que a folha de aprovação não está inserida em sua dissertação Tentei colocá-la aqui mas desconfigura todo o trabalho Poderia por favor enviar um novo arquivo com a folha de aprovação já inserida em sua dissertação Aguardo o retorno para finalizarmos o processo Qualquer dúvida estou à disposição Abraços Eunice on 2018-05-17T13:43:35Z (GMT) / Submitted by Wellington Veltroni (wellingtonveltroni@gmail.com) on 2018-05-28T14:50:36Z No. of bitstreams: 5 FA_vELTRONI.jpg: 460462 bytes, checksum: 790b1993aa2dca9f252dac391edb16d3 (MD5) rd_vELTRONI.jpg: 817039 bytes, checksum: 9dca57906ec66fb968b138749edaf787 (MD5) tc_vELTRONI.jpg: 581847 bytes, checksum: bcc9d308881a36fbccfb47fe2349b222 (MD5) Carta_orientadora.pdf: 386667 bytes, checksum: 7343ef875a0334174a4a5abe3fd73b3e (MD5) Disserta__o___Wellington_C__Veltroni_c_folha_aprovacao.pdf: 15849017 bytes, checksum: 2884d766f705fbe38907a8f56724796e (MD5) / Approved for entry into archive by Ronildo Prado (ri.bco@ufscar.br) on 2018-06-06T13:12:16Z (GMT) No. of bitstreams: 5 FA_vELTRONI.jpg: 460462 bytes, checksum: 790b1993aa2dca9f252dac391edb16d3 (MD5) rd_vELTRONI.jpg: 817039 bytes, checksum: 9dca57906ec66fb968b138749edaf787 (MD5) tc_vELTRONI.jpg: 581847 bytes, checksum: bcc9d308881a36fbccfb47fe2349b222 (MD5) Carta_orientadora.pdf: 386667 bytes, checksum: 7343ef875a0334174a4a5abe3fd73b3e (MD5) Disserta__o___Wellington_C__Veltroni_c_folha_aprovacao.pdf: 15849017 bytes, checksum: 2884d766f705fbe38907a8f56724796e (MD5) / Approved for entry into archive by Ronildo Prado (ri.bco@ufscar.br) on 2018-06-06T13:12:26Z (GMT) No. of bitstreams: 5 FA_vELTRONI.jpg: 460462 bytes, checksum: 790b1993aa2dca9f252dac391edb16d3 (MD5) rd_vELTRONI.jpg: 817039 bytes, checksum: 9dca57906ec66fb968b138749edaf787 (MD5) tc_vELTRONI.jpg: 581847 bytes, checksum: bcc9d308881a36fbccfb47fe2349b222 (MD5) Carta_orientadora.pdf: 386667 bytes, checksum: 7343ef875a0334174a4a5abe3fd73b3e (MD5) Disserta__o___Wellington_C__Veltroni_c_folha_aprovacao.pdf: 15849017 bytes, checksum: 2884d766f705fbe38907a8f56724796e (MD5) / Made available in DSpace on 2018-06-06T13:16:03Z (GMT). No. of bitstreams: 5 FA_vELTRONI.jpg: 460462 bytes, checksum: 790b1993aa2dca9f252dac391edb16d3 (MD5) rd_vELTRONI.jpg: 817039 bytes, checksum: 9dca57906ec66fb968b138749edaf787 (MD5) tc_vELTRONI.jpg: 581847 bytes, checksum: bcc9d308881a36fbccfb47fe2349b222 (MD5) Carta_orientadora.pdf: 386667 bytes, checksum: 7343ef875a0334174a4a5abe3fd73b3e (MD5) Disserta__o___Wellington_C__Veltroni_c_folha_aprovacao.pdf: 15849017 bytes, checksum: 2884d766f705fbe38907a8f56724796e (MD5) Previous issue date: 2018-03-02 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Text-image alignment is the task of aligning elements in a text with elements in the image accompanying it. In this work the text-image alignment was applied in news sites. A lot of news do not make clear the correspondence between elements of a text and elements within the associated image. In this scenario, text-image alignment arises with the intention of guiding the reader, bringing clarity to the news and associated image since it explicitly explains the direct correspondence between regions of the image and words (or named entities) in the text. The goal of this work is to combine Natural Language Processing (NLP) and Computer Vision (CV) techniques to generate a text-image alignment for news: the LinkPICS aligner. LinkPICS uses the YOLO convolutional network (CNN) to detect people and objects in the image associated with the news text. Due to the limitation of the number of objects detected by YOLO (only 80 classes), we decided to use three other CNNs to generate new labels for detected objects. In this work, the text-image alignment was divided into two distinct processes: (1) people alignment and (2) objects alignment. In people alignment, the named entities identified in the text are aligned with images of people. In the evaluation performed with the Folha de São Paulo International news corpus, in English, LinkPICS obtained an accuracy of 98% precision. For the objects alignment, the physical words are aligned with objects (or animals, fruits, etc.) present in the image associated with the news. In the evaluation performed with the news corpus of BBC NEWS, also in English, LinkPICS achieved 72% precision. The main contributions of this work are the LinkPICS aligner and the proposed strategy for its implementation, which represent innovations for the NLP and CV areas. In addition to these, another contribution of this work is the possibility of generating a visual dictionary (words associated with images) containing people and objects aligned, which can be used in other researches and applications such as helping to learn a second language. / O alinhamento texto-imagem é a tarefa de alinhar elementos presentes em um texto com elementos presentes na imagem que o acompanha. Neste trabalho, o alinhamento texto-imagem foi aplicado em sites de notícias. Muitas notícias não deixam clara para o leitor a correspondência entre elementos do texto e elementos contidos na imagem associada. Nesse cenário, o alinhamento texto-imagem surge com a intenção de orientar o leitor, trazendo clareza para a notícia e a imagem associada uma vez que explicita a correspondência direta entre regiões da imagem e palavras (ou entidades) no texto. O objetivo deste trabalho é combinar técnicas de Processamento de Linguagem Natural (PLN) e Visão Computacional (VC) para gerar um alinhador texto-imagem para notícias: o alinhador LinkPICS. O LinkPICS utiliza a rede convolucional (CNN) YOLO para detectar pessoas e objetos na imagem associada ao texto da notícia. Devido à limitação do número de objetos detectados pela YOLO (80 classes de objetos), optou-se também pela utilização de outras três CNNs para a geração de novos rótulos para objetos. Neste trabalho, o alinhamento texto-imagem foi dividido em dois processos distintos: (1) o alinhamento de pessoas e (2) o alinhamento de objetos. No alinhamento de pessoas, as entidades nomeadas são alinhadas com imagens de pessoas e na avaliação realizada no córpus de notícias da Folha de São Paulo Internacional, em inglês, obteve-se uma precisão de 98%. No alinhamento de objetos, as palavras físicas são alinhadas com objetos (ou animais, frutas, etc.) contidos na imagem associada à notícia e na avaliação realizada no córpus de notícias da BBC NEWS, também em inglês, obteve-se uma precisão de 72%. As principais contribuições deste trabalho são o alinhador LinkPICS e a estratégia proposta para sua implementação, que representam inovações para as áreas de PLN e VC. Além destas, outra contribuição deste trabalho é a possibilidade de geração de um dicionário visual (palavras associadas a imagens) contendo pessoas e objetos alinhados, que poderá ser utilizado em outras pesquisas e aplicações como, por exemplo, no auxílio ao aprendizado de outro idioma. / CNPQ: 133679/2015-2
79

Anotação e classificação automática de entidades nomeadas em notícias esportivas em Português Brasileiro / Automatic named entity recognition and classification for brazilian portuguese sport news

Rodrigo Constantin Ctenas Zaccara 11 July 2012 (has links)
O objetivo deste trabalho é desenvolver uma plataforma para anotação e classificação automática de entidades nomeadas para notícias escritas em português do Brasil. Para restringir um pouco o escopo do treinamento e análise foram utilizadas notícias esportivas do Campeonato Paulista de 2011 do portal UOL (Universo Online). O primeiro artefato desenvolvido desta plataforma foi a ferramenta WebCorpus. Esta tem como principal intuito facilitar o processo de adição de metainformações a palavras através do uso de uma interface rica web, elaborada para deixar o trabalho ágil e simples. Desta forma as entidades nomeadas das notícias são anotadas e classificadas manualmente. A base de dados foi alimentada pela ferramenta de aquisição e extração de conteúdo desenvolvida também para esta plataforma. O segundo artefato desenvolvido foi o córpus UOLCP2011 (UOL Campeonato Paulista 2011). Este córpus foi anotado e classificado manualmente através do uso da ferramenta WebCorpus utilizando sete tipos de entidades: pessoa, lugar, organização, time, campeonato, estádio e torcida. Para o desenvolvimento do motor de anotação e classificação automática de entidades nomeadas foram utilizadas três diferentes técnicas: maximização de entropia, índices invertidos e métodos de mesclagem das duas técnicas anteriores. Para cada uma destas foram executados três passos: desenvolvimento do algoritmo, treinamento utilizando técnicas de aprendizado de máquina e análise dos melhores resultados. / The main target of this research is to develop an automatic named entity classification tool to sport news written in Brazilian Portuguese. To reduce this scope, during training and analysis only sport news about São Paulo Championship of 2011 written by UOL2 (Universo Online) was used. The first artefact developed was the WebCorpus tool, which aims to make easier the process of add meta informations to words, through a rich web interface. Using this, all the corpora news are tagged manually. The database used by this tool was fed by the crawler tool, also developed during this research. The second artefact developed was the corpora UOLCP2011 (UOL Campeonato Paulista 2011). This corpora was manually tagged using the WebCorpus tool. During this process, seven classification concepts were used: person, place, organization, team, championship, stadium and fans. To develop the automatic named entity classification tool, three different approaches were analysed: maximum entropy, inverted index and merge tecniques using both. Each approach had three steps: algorithm development, training using machine learning tecniques and best score analysis.
80

Recortes na paisagem: uma leitura de Brazil e outros textos de Elizabeth Bishop / Clippings on landscape: a reading of Brazil and other texts of Elizabeth Bishop

Armando Olivetti Ferreira 17 April 2009 (has links)
Este trabalho tem como objetivo anotar, traduzir e comentar uma parte da obra da escritora norteamericana Elizabeth Bishop (1911-1979), que viveu no Brasil durante cerca de vinte anos: seus textos de caráter jornalístico relacionados ao país. O mais extenso é o livro Brazil (1962), escrito sob encomenda dos editores da revista Life. O livro foi renegado pela autora, inconformada com as intervenções dos editores, e publicado sob coautoria. O cotejo entre os originais (preservados nos arquivos de Bishop, no Vassar College), o texto publicado em 1962 e as anotações da autora em seu exemplar (preservado na Harvard University) permite apontar as similaridades e, especialmente, os importantes contrastes entre a perspectiva de Bishop e a dos editores. Uma investigação sobre o momento em que o livro surgiu na vida da autora e na história do Brasil e dos Estados Unidos auxilia a compreensão não só do texto, mas também de sua escrita e dos episódios associados à sua edição. O trabalho se completa com a tradução e a anotação de outros cinco textos, dois dos quais ainda inéditos mesmo em inglês, vestígios de um projeto abandonado por Bishop: a elaboração de um novo livro sobre o país. / The aim of this work is to annotate, translate, and comment a part of the writings by Elizabeth Bishop (1911-1979), the North-American writer, who lived in Brazil for approximately twenty years, focusing on her journalistic texts about that country. Her largest piece is a book called Brazil (1962) which was commissioned by the editors of Life magazine. However, the book was rejected by the author who refused to accept the interventions made by the editors. As a result, they co-authored it. Comparing the original (preserved in the Bishop archives at Vassar College) with the published text allows us to compare two different views of Brazil, to highlight similarities and especially the important contrasts between them. A research on the period the book was published focused on the author\'s life, as well as on the history of both Brazil and the U.S.A. helps to understand not only the text itself, but also how it was written and the episodes associated to its edition. The present work includes five additional texts, remains of a project that was abandoned by Bishop: the making of another book on Brazil. Two of these texts have remained unpublished to date, even in English.

Page generated in 0.0471 seconds