• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[De]codificando a comunicação de uma organização criativa: um estudo de caso no CESAR

Nascimento, Ana Aragão da Cunha Lima e 18 December 2013 (has links)
Submitted by Suethene Souza (suethene.souza@ufpe.br) on 2015-03-05T16:58:32Z No. of bitstreams: 2 Dissertação Ana Aragão Lima e Nascimento.pdf: 1303546 bytes, checksum: cfafb0139ff25fb07c249faaee18ef6c (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-05T16:58:32Z (GMT). No. of bitstreams: 2 Dissertação Ana Aragão Lima e Nascimento.pdf: 1303546 bytes, checksum: cfafb0139ff25fb07c249faaee18ef6c (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-12-18 / Este trabalho focou a problemática da comunicação organizacional no contexto da Economia Criativa. Para tal, se debruçou no Centro de Estudos e Sistemas Avançados do Recife (CESAR), uma das mais antigas e maiores empresas do setor de Tecnologia da Informação e Comunicação (TIC), em atuação no Recife. O objetivo da pesquisa foi entender como ocorrem os processos de codificação e decodificação da comunicação no âmbito da organização estudada. O marco teórico que guiou o trabalho foi o Modelo Codificação/Decodificação, de Stuart Hall, que afirma que a comunicação é uma sucessão de momentos distintos e articulados entre si. A pesquisa se caracteriza como um estudo de caso instrumental. Os dados foram coletados por meio de observações não participantes; entrevistas etnográficas com colaboradores e em profundidade com os gerentes; e documentos de cunho editorial da organização, tendo sido escrutinados por meio de Análise de Discurso. Os resultados revelam que o CESAR, embora use a comunicação via canais formais e estruturados, enfatiza a comunicação face a face como o principal canal de comunicação. As análises apontam que o canal oral, representado pela comunicação face a face, cria laços de relacionamento e confiança, estabelecendo um lastro que permite a decodificação dos discursos com o código previsto pelo codificador da mensagem. Isto permite uma reflexão sobre a importância da construção de relacionamentos no âmbito da organização, fazendo com que a força de trabalho compreenda e se aproprie dos objetivos estratégicos e do discurso organizacional. Com base nisto, serão apresentadas reflexões a cerca do conhecimento sobre a prática de gestão da Comunicação Organizacional, bem como limitações e desdobramentos da pesquisa.
2

Deep neural semantic parsing: translating from natural language into SPARQL / Análise semântica neural profunda: traduzindo de linguagem natural para SPARQL

Luz, Fabiano Ferreira 07 February 2019 (has links)
Semantic parsing is the process of mapping a natural-language sentence into a machine-readable, formal representation of its meaning. The LSTM Encoder-Decoder is a neural architecture with the ability to map a source language into a target one. We are interested in the problem of mapping natural language into SPARQL queries, and we seek to contribute with strategies that do not rely on handcrafted rules, high-quality lexicons, manually-built templates or other handmade complex structures. In this context, we present two contributions to the problem of semantic parsing departing from the LSTM encoder-decoder. While natural language has well defined vector representation methods that use a very large volume of texts, formal languages, like SPARQL queries, suffer from lack of suitable methods for vector representation. In the first contribution we improve the representation of SPARQL vectors. We start by obtaining an alignment matrix between the two vocabularies, natural language and SPARQL terms, which allows us to refine a vectorial representation of SPARQL items. With this refinement we obtained better results in the posterior training for the semantic parsing model. In the second contribution we propose a neural architecture, that we call Encoder CFG-Decoder, whose output conforms to a given context-free grammar. Unlike the traditional LSTM encoder-decoder, our model provides a grammatical guarantee for the mapping process, which is particularly important for practical cases where grammatical errors can cause critical failures. Results confirm that any output generated by our model obeys the given CFG, and we observe a translation accuracy improvement when compared with other results from the literature. / A análise semântica é o processo de mapear uma sentença em linguagem natural para uma representação formal, interpretável por máquina, do seu significado. O LSTM Encoder-Decoder é uma arquitetura de rede neural com a capacidade de mapear uma sequência de origem para uma sequência de destino. Estamos interessados no problema de mapear a linguagem natural em consultas SPARQL e procuramos contribuir com estratégias que não dependam de regras artesanais, léxico de alta qualidade, modelos construídos manualmente ou outras estruturas complexas feitas à mão. Neste contexto, apresentamos duas contribuições para o problema de análise semântica partindo da arquitetura LSTM Encoder-Decoder. Enquanto para a linguagem natural existem métodos de representação vetorial bem definidos que usam um volume muito grande de textos, as linguagens formais, como as consultas SPARQL, sofrem com a falta de métodos adequados para representação vetorial. Na primeira contribuição, melhoramos a representação dos vetores SPARQL. Começamos obtendo uma matriz de alinhamento entre os dois vocabulários, linguagem natural e termos SPARQL, o que nos permite refinar uma representação vetorial dos termos SPARQL. Com esse refinamento, obtivemos melhores resultados no treinamento posterior para o modelo de análise semântica. Na segunda contribuição, propomos uma arquitetura neural, que chamamos de Encoder CFG-Decoder, cuja saída está de acordo com uma determinada gramática livre de contexto. Ao contrário do modelo tradicional LSTM Encoder-Decoder, nosso modelo fornece uma garantia gramatical para o processo de mapeamento, o que é particularmente importante para casos práticos nos quais erros gramaticais podem causar falhas críticas em um compilador ou interpretador. Os resultados confirmam que qualquer resultado gerado pelo nosso modelo obedece à CFG dada, e observamos uma melhora na precisão da tradução quando comparada com outros resultados da literatura.

Page generated in 0.0874 seconds