• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • Tagged with
  • 7
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Taxonomia de Dissomphalus Ashmead (Hymenoptera , Bethylidae) da Tailândia

MUGRABI, D. F. 22 February 2011 (has links)
Made available in DSpace on 2016-08-29T15:09:13Z (GMT). No. of bitstreams: 1 tese_4597_Daniele Ferreira Mugrabi.pdf: 8497271 bytes, checksum: 8e96b75963e526ffdbdf8138af3b155e (MD5) Previous issue date: 2011-02-22 / Dissomphalus Ashmead (Bethylidae, Pristocerinae) é um gênero de vespas parasitóides cosmopolitas e um dos mais especiosos de Bethylidae, composto por 243 espécies válidas. Dessas, 14 espécies são citadas para a região Oriental, oito conhecidas apenas por exemplares machos e seis conhecidas apenas por fêmeas. Desse total, são conhecidas quatro espécies para a Tailândia (D. browni Terayama, D. chiangmaiensis Terayama, D. thaianus Terayama e D. khaoyaiensis Terayama). A maior parte das contribuições em estudos taxonômicos em Dissomphalus foi dada por Evans e Azevedo e colaboradores que juntos publicaram 196 espécies válidas, grande parte conhecidas apenas para a região Neotropical. Na região Oriental não há tradição de coletas grandes, com isso, os estudos taxonômicos de Dissomphalus propostos para essa região são baseados em poucos exemplares coletados esporadicamente em pontos de alguns países como Sumatra, Tailândia, Taiwan, Borneo, Nepal, Índia e Filipinas. O projeto Thailand Inventory Group for Entomological Research (TIGER), promovido por University of Kentucky e National Science Foundation (NSF Grant n: DEB-0542864), promoveu coletas em toda extensão do território tailandês e coletou 2.051 exemplares machos de Dissomphalus. As coletas foram realizadas ao longo de 24 localidades, incluindo parques nacionais e santuários de animais selvagens, durante o período de 2006 a 2008 utilizando as armadilhas Malaise e Möricke, alçapão e extratores de Winkler. O tratamento taxonômico seguiu Winston (1999). As descrições foram geradas a partir do programa DEscription Language TAxonomy (DELTA) e a chave de identificação foi modificada a partir da chave gerada pelo mesmo programa. Os termos das estruturas corporais adotados nas descrições seguiram Evans (1964) e Azevedo (1999 (c), 2001) e os termos referentes à textura e esculturação do integumento foram propostos por Harris (1979). Os desenhos dos hipopígios foram feitos sob câmara clara adaptada ao microscópio óptico e as imagens das genitálias foram obtidas através do equipamento de Microscopia Eletrônica de Varredura (MEV). Nós encontramos 28 espécies, quatro previamente conhecidas (D. browni Terayama, D. chiangmaiensis Terayama, D. thaianus Terayama e D. wusheanus Terayama) e 24 descritas como novas para a ciência. Além das descrições das espécies novas, as espécies conhecidas tiveram o hipopígio e a genitália descritos e ilustrados. Foi também proposta uma chave de identificação para os machos de Dissomphalus da região Oriental.
2

PROCESSAMENTO Mínimo de Mamão e Abacaxi: respostas Fisiológicas, Bioquímicas E microbiológicas. vitória

XAVIER, V. L. S. M. 14 December 2007 (has links)
Made available in DSpace on 2018-08-02T00:16:17Z (GMT). No. of bitstreams: 1 tese_2700_Viviane Lucas Silva Mansur Xavier.pdf: 1251808 bytes, checksum: 026586d5c0ced4d6c87a7448d868fd77 (MD5) Previous issue date: 2007-12-14 / RESUMO O processamento mínimo é uma forma de oferecer um produto fresco e de consumo imediato. Desta forma foram realizados estudos ligados às respostas fisiológicas, bioquímicas e microbiológicas de mamão e abacaxi minimamente processados, a fim de manter a qualidade do produto e aumentar sua vida de prateleira. Foram conduzidos quatro experimentos. Avaliou-se as qualidades físicas e químicas do mamão Formosa e do abacaxi Pérola minimamente processado, submetido a diferentes tipos de agentes sanitizantes: o controle, com Ca(OCl)2 , radiado com luz ultravioleta e com NaOCl. Ao final, foram acondicionados em embalagens de PP (52μm) armazenados em estufa tipo BOD. A cada dois dias foram realizadas as seguintes análises para os experimentos: sólidos solúveis (SS), acidez titulável (AT), pH, perda de matéria fresca (PMF), relação SS/AT, análises microbiológicas, vitamina C e atividade da pectinametilesterase (PME). No último dia, para um experimento com mamão, o teste de preferência. Para o processamento mínimo de mamão, no geral, as características físicas e químicas foram mantidas ideais para consumo, os agentes sanitizantes foram eficientes para o controle microbiológico e o tratamento com Ca(OCl)2 retardou a senescência dos frutos. No processamento mínimo de abacaxi Pérola o tratamento com radiação ultravioleta não foi recomendado, pois o mesmo altera bruscamente o metabolismo dos frutos, todos os agentes sanitizantes foram recomendados para o controle microbiológico por 6 dias independente da temperatura e no estádio de maturação. Os frutos trabalhados não apresentaram atividade da pectinametilesterase. PALAVRA CHAVE: processamento mínimo; mamão Formosa; abacaxi Pérola; sanitização; vida de prateleira.
3

Páginas recolhidas: cultura impressa, modernismo e protocolos de leitura em São Paulo (1922-1928)

Passiani, Enio 10 September 2007 (has links)
Sabe-se que o processo de construção da hegemonia do modernismo paulista deveu muito ao trabalho de consagração de toda uma geração de historiadores, teóricos e críticos da literatura posteriores à Semana de 1922, que atuaram como uma espécie de herdeiros e porta-vozes do repertório modernista de São Paulo. No entanto, durante os anos heróicos, de 1922 a 1928, o grupo paulista já tratava de oficializar sua posição como a mais legítima representante do modernismo nacional. O exercício da auto-consagração se tornou necessário devido às fraturas e tensões que revelavam a existência de muitos modernismos no Brasil, todos eles envolvidos na disputa por um certo certificado de autenticidade, importante para instituir uma das vertentes como a mais genuína. Em meio às dissidências e conflitos, parte do grupo modernista paulista adotou como estratégia de combate a formulação e a divulgação de protocolos de leitura que se revelaram extremamente eficazes no estabelecimento de certas convenções literárias que se impuseram sobre as demais. Os protocolos, publicados sob a forma de revistas, crônicas e manifestos, estabeleceram um modo de ler modernista que, durante as contendas e depois, foi se constituindo como a versão oficial de nossa literatura e cristalizando um tipo de leitura e interpretação do conjunto da história literária brasileira. / Não tem resumo
4

Páginas recolhidas: cultura impressa, modernismo e protocolos de leitura em São Paulo (1922-1928)

Enio Passiani 10 September 2007 (has links)
Sabe-se que o processo de construção da hegemonia do modernismo paulista deveu muito ao trabalho de consagração de toda uma geração de historiadores, teóricos e críticos da literatura posteriores à Semana de 1922, que atuaram como uma espécie de herdeiros e porta-vozes do repertório modernista de São Paulo. No entanto, durante os anos heróicos, de 1922 a 1928, o grupo paulista já tratava de oficializar sua posição como a mais legítima representante do modernismo nacional. O exercício da auto-consagração se tornou necessário devido às fraturas e tensões que revelavam a existência de muitos modernismos no Brasil, todos eles envolvidos na disputa por um certo certificado de autenticidade, importante para instituir uma das vertentes como a mais genuína. Em meio às dissidências e conflitos, parte do grupo modernista paulista adotou como estratégia de combate a formulação e a divulgação de protocolos de leitura que se revelaram extremamente eficazes no estabelecimento de certas convenções literárias que se impuseram sobre as demais. Os protocolos, publicados sob a forma de revistas, crônicas e manifestos, estabeleceram um modo de ler modernista que, durante as contendas e depois, foi se constituindo como a versão oficial de nossa literatura e cristalizando um tipo de leitura e interpretação do conjunto da história literária brasileira. / Não tem resumo
5

Um estudo sobre a relevância dos padrões lexicais para a interpretação de textos por meio da extração de informação

Porfirio, Lucielen 17 February 2006 (has links)
Made available in DSpace on 2017-07-10T18:55:26Z (GMT). No. of bitstreams: 1 Lucielen Porfirio.pdf: 522478 bytes, checksum: 120e6f485faab939a4f8ab24bf1f53d1 (MD5) Previous issue date: 2006-02-17 / Text interpretation is a complex process that depends not only on linguistics aspects, but also cognitive and extra linguistics. In order to interpret a text, any reader must, initially, be able to decode the language and formulate mental representations of the message brought by the text. In order to do so, he will need, necessarily, to make hypothesis and inferences, and activate his previous knowledge, either linguistics or extra linguistics. Besides, the reader must locate the main ideas of the text that are expressed in the lexical items and in the relation among them. In such case, it s reasonable to admit that the identification of isolated terms in a text and the analysis of its real function in it are both very important elements for the text interpretation work. Several methods might be used for working with text interpretation. Among the most common we have the answer to questions (oral or written) about the content of the text, and more recently the Information Extraction (IE). This one is a method that consists, fundamentally, on identification and extraction of relevant linguistic aspects (lexical, syntactic and conceptual semantic) used for different types of objectives, such as: summarization, categorization and text interpretation. Through the location of keywords and linguistics structures the method goal is identify and extract the most important information that together may allow the individual to understand the subject discussed there more easily. Assuming that the interactions among lexical items are one of the most important elements in text interpretation, the goal of this paper is to discuss in what way the reader could better explore this relation, in order to help him to interpret a text. For the analysis three keywords were tracked in a research corpus in the dominium of gastroenterology: intestine , cause and helicobacter pylori . Based on the lexical patterns of collocation, colligation and semantic prosody, these words were investigated, observing how the linguistic relations of each one could reveal meanings and help in interpretation process. As a result, we noticed that through the observation of the lexical patters it was possible to extract information regarding the text subject, as well as important aspects discussed in them, such as diseases, its causes, effects and treatments, even without having access to the whole texts. / A interpretação de textos é um processo complexo por natureza que depende não apenas de aspectos lingüísticos, mas também, cognitivos e extralingüísticos. Para interpretar um texto, todo leitor deve, inicialmente, ser capaz de decodificar o código desse texto e formular as representações mentais sobre o que é trazido como mensagem. Para tanto, o leitor precisará, necessariamente, levantar hipóteses, fazer inferências, e ativar seus conhecimentos prévios, tanto os lingüísticos quanto os de mundo (extralingüísticos). Além disso, o leitor deve localizar as principais idéias contidas num texto, as quais estão expressas nos itens lexicais e nas interações entre eles. Sendo assim, é razoável admitir que a identificação de termos isolados num texto e a análise das suas verdadeiras funções constituem, ambos, elementos de alta relevância para um trabalho de análise interpretativa. Vários métodos têm sido utilizados para se trabalhar a interpretação de textos. Dentre os mais comuns, citamos o exercício de respostas a perguntas (orais ou escritas) e, mais recentemente, a extração de informação. A extração de informação (EI) de textos é um método que consiste, fundamentalmente, na identificação e extração de aspectos lingüísticos relevantes (lexicais, sintáticos e semântico-conceituais), usados para diferentes tipos de finalidades, tais como: a sumarização, a categorização e a interpretação textual. A partir da localização de palavras-chaves e de estruturas lingüísticas, o objetivo do método é não só identificar, mas também extrair do texto as informações importantes que, em conjunto, possam permitir ao indivíduo compreender mais facilmente o assunto ali tratado. Assumindo que as interações entre os itens lexicais são, senão os únicos, um dos elementos mais importantes na interpretação de textos, o objetivo dessa pesquisa é discutir de que maneira essas relações poderiam ser melhor exploradas pelo leitor, para auxiliá-lo no trabalho interpretativo. Para a análise três palavras-chaves foram rastreadas num corpus de pesquisa no domínio da gastroenterologia: intestino , causa e helicobacter pylori . Com base nos padrões lexicais da colocação, coligação e prosódia semântica, as ocorrências de cada uma das palavras foram analisadas, com o intuito de verificar como as relações lingüísticas revelam sentidos e auxiliam no processo interpretativo. Como resultado, observamos que, mesmo sem acesso ao texto como um todo, a partir das ocorrências dos padrões foi possível extrair informações relativas ao assunto dos textos, bem como de aspectos importantes neles discutidos, tais como patologias, suas causas e efeitos.
6

[pt] NOVAS MEDIDAS DE IMPORTÂNCIA DE VÉRTICES PARA APERFEIÇOAR A BUSCA POR PALAVRAS-CHAVE EM GRAFOS RDF / [en] NOVEL NODE IMPORTANCE MEASURES TO IMPROVE KEYWORD SEARCH OVER RDF GRAPHS

ELISA SOUZA MENENDEZ 15 April 2019 (has links)
[pt] Um ponto importante para o sucesso de sistemas de busca por palavras-chave é um mecanismo de ranqueamento que considera a importância dos documentos recuperados. A noção de importância em grafos é tipicamente computada usando medidas de centralidade, que dependem amplamente do grau dos nós, como o PageRank. Porém, em grafos RDF, a noção de importância não é necessariamente relacionada com o grau do nó. Sendo assim, esta tese aborda dois problemas: (1) como definir uma medida de importância em grafos RDF; (2) como usar essas medidas para ajudar a compilar e ranquear respostas a consultas por palavras-chave sobre grafos RDF. Para resolver estes problemas, esta tese propõe uma nova família de medidas, chamada de InfoRank, e um sistema de busca por palavras-chave, chamado QUIRA, para grafos RDF. Esta tese é concluída com experimentos que mostram que a solução proposta melhora a qualidade dos resultados em benchmarks de busca por palavras-chave. / [en] A key contributor to the success of keyword search systems is a ranking mechanism that considers the importance of the retrieved documents. The notion of importance in graphs is typically computed using centrality measures that highly depend on the degree of the nodes, such as PageRank. However, in RDF graphs, the notion of importance is not necessarily related to the node degree. Therefore, this thesis addresses two problems: (1) how to define importance measures for RDF graphs; (2) how to use these measures to help compile and rank results of keyword queries over RDF graphs. To solve these problems, the thesis proposes a novel family of measures, called InfoRank, and a keyword search system, called QUIRA, for RDF graphs. Finally, this thesis concludes with experiments showing that the proposed solution improves the quality of the results in two keyword search benchmarks.
7

[pt] BUSCA POR PALAVRAS-CHAVE SOBRE GRAFOS RDF FEDERADOS EXPLORANDO SEUS ESQUEMAS / [en] KEYWORD SEARCH OVER FEDERATED RDF GRAPHS BY EXPLORING THEIR SCHEMAS

YENIER TORRES IZQUIERDO 28 July 2017 (has links)
[pt] O Resource Description Framework (RDF) foi adotado como uma recomendação do W3C em 1999 e hoje é um padrão para troca de dados na Web. De fato, uma grande quantidade de dados foi convertida em RDF, muitas vezes em vários conjuntos de dados fisicamente distribuídos ao longo de diferentes localizações. A linguagem de consulta SPARQL (sigla do inglês de SPARQL Protocol and RDF Query Language) foi oficialmente introduzido em 2008 para recuperar dados RDF e fornecer endpoints para consultar fontes distribuídas. Uma maneira alternativa de acessar conjuntos de dados RDF é usar consultas baseadas em palavras-chave, uma área que tem sido extensivamente pesquisada, com foco recente no conteúdo da Web. Esta dissertação descreve uma estratégia para compilar consultas baseadas em palavras-chave em consultas SPARQL federadas sobre conjuntos de dados RDF distribuídos, assumindo que cada conjunto de dados RDF tem um esquema e que a federação tem um esquema mediado. O processo de compilação da consulta SPARQL federada é explicado em detalhe, incluindo como computar o conjunto de joins externos entre as subconsultas locais geradas, como combinar, com a ajuda de cláusulas UNION, os resultados de consultas locais que não têm joins entre elas, e como construir a cláusula TARGET, de acordo com a composição da cláusula WHERE. Finalmente, a dissertação cobre experimentos com dados do mundo real para validar a implementação. / [en] The Resource Description Framework (RDF) was adopted as a W3C recommendation in 1999 and today is a standard for exchanging data in the Web. Indeed, a large amount of data has been converted to RDF, often as multiple datasets physically distributed over different locations. The SPARQL Protocol and RDF Query Language (SPARQL) was officially introduced in 2008 to retrieve RDF datasets and provide endpoints to query distributed sources. An alternative way to access RDF datasets is to use keyword-based queries, an area that has been extensively researched, with a recent focus on Web content. This dissertation describes a strategy to compile keyword-based queries into federated SPARQL queries over distributed RDF datasets, under the assumption that each RDF dataset has a schema and that the federation has a mediated schema. The compilation process of the federated SPARQL query is explained in detail, including how to compute a set of external joins between the local subqueries, how to combine, with the help of the UNION clauses, the results of local queries which have no external joins between them, and how to construct the TARGET clause, according to the structure of the WHERE clause. Finally, the dissertation covers experiments with real-world data to validate the implementation.

Page generated in 0.1113 seconds