• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 2
  • Tagged with
  • 34
  • 34
  • 34
  • 32
  • 9
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] ONTOLOGY-BASED DATABASE TUNING: THE CASE OF MATERIALIZED VIEWS / [pt] SINTONIA FINA BASEADA EM ONTOLOGIA: O CASO DE VISÕES MATERIALIZADAS

RAFAEL PEREIRA DE OLIVEIRA 04 November 2015 (has links)
[pt] O framework Outer-Tuning serve para apoiar a sintonia fina de índices (automática ou não) em um sistema de banco de dados. Trata-se de uma abordagem que oferece transparência acerca das alternativas disponíveis para possíveis cenários de sintonia fina, possibilitando combinar estratégias independentes para obter um melhor desempenho do SGBD e permitindo a discussão de justificativas para as ações realizadas. Através do uso de uma ontologia específica para sintonia fina de bancos de dados relacionais, é possível adicionar semântica ao processo com o entendimento dos conceitos envolvidos e gerar, de maneira (semi)automática, novas práticas de sintonia fina, que podem ser inferidas a partir das práticas existentes ou de novas regras e conceitos que venham a surgir no futuro. Este trabalho de pesquisa apresenta como contribuição inicial o projeto e implementação do framework Outer-Tuning por meio da formalização de uma arquitetura de software que atende aos requisitos funcionais especificados. Este trabalho também contribui com a extensão da ontologia de domínio e a inclusão de novas heurísticas na ontologia de tarefas para contemplar soluções de sintonia fina com o uso de visões materializadas. Desta forma, passa a ser possível propor o uso de heurísticas para realizar a sintonia fina tanto para índices como também para visões materializadas. / [en] The Outer-tuning framework may be used to support automatic (or not) database tuning, particularity index. It is an approach that offers transparency about the available alternatives to feasible tuning scenarios, making it possible to combine either independent strategies or allow discussion of justifications for actions performed in order to obtain better performances. Using a specific ontology for fine tuning relational databases, we add semantics to the process with the understanding of the concepts involved and generate (semi)automatic new tuning actions, which can be inferred from existing practices or new rules and concepts that arise in the future. This research presents as an initial contribution the actual design and implementation of the Outer-tuning framework through the formalization of a software architecture that meets the specified functional requirements. This work also contributes with the extension of the domain ontology and the inclusion of new heuristics to a task ontology, in order to accomplish fine tuning solutions with the use of materialized views. Thus, it becomes possible to propose the use of tuning heuristics for indexes as well as for materialized views.
22

[pt] DESENVOLVIMENTO DE MODELOS PREDITIVOS PARA A GASEIFICAÇÃO DE BIOMASSA USANDO REDES NEURAIS ARTIFICIAIS / [en] DEVELOPMENT OF PREDICTIVE MODELS FOR BIOMASS GASIFICATION USING ARTIFICIAL NEURAL NETWORKS

FERNANDA DA SILVA PIMENTEL 02 May 2023 (has links)
[pt] Na tentativa de reduzir os efeitos das emissões de dióxido de carbono, há uma necessidade por maior utilização de fontes de energia renováveis, tal como energia proveniente de biomassa. Para geração de energia a partir da biomassa, destaca-se o processo de gaseificação, por meio do qual é possível gerar um combustível nobre. Objetivou-se simular no software Matlab (marca registrada) a gaseificação da biomassa usando técnicas de inteligência artificial que são as Redes Neurais Artificiais (RNA). Particularmente, objetivou-se desenvolver modelos abrangentes de RNA com dez variáveis de entrada (carbono, hidrogênio, oxigênio, nitrogênio, material volátil, teor de umidade, cinzas, razão de equivalência, temperatura e razão vapor/biomassa), aplicáveis a uma diversidade de biomassa, com diversos tipos e concentrações de agentes de gaseificação em diferentes tipos de gaseificadores, capazes de predizer a composição do gás de síntese (CO2, CO, CH4 e H2). Para treinamento, teste e validação dos modelos, foram preparados bancos de dados robustos, a partir de informações coletadas em estudos anteriores disponíveis na literatura e do tratamento dos dados obtidos dos artigos. Foram avaliadas 33 topologias das redes neurais para eleger a melhor delas de acordo com quatro critérios referente a robustez do treinamento e do teste. A rede considerada como tendo a melhor topologia possui 10 neurônios na camada de entrada; 2 camadas intermediárias, com funções de ativação logsig e 10 neurônios em cada camada intermediária; função de ativação purelin na camada final; 4 neurônios na camada final; e algoritmo de treinamento trainbr. Tal rede possui um bom desempenho, com valores de R2 de treinamento e de teste maiores que 0,88 e 0,70, respectivamente, para cada uma das quatro saídas. Para avaliação do modelo, uma validação foi executada, cujo desempenho não foi muito adequado, mas foi possível identificar com uma métrica quantitativa simples as regiões mais confiáveis onde há uma maior densidade de dados no treinamento. / [en] In an attempt to reduce the effects of carbon dioxide emissions, there is a need for greater use of renewable energy sources, such as energy from biomass. In order to generate energy from biomass, the gasification process, by means of which it is possible to generate a noble fuel, can be highlighted. This work aimed to simulate the biomass gasification using artificial intelligence techniques, namely Artificial Neural Networks (ANN), using Matlab (trademark) software. Particularly, the objective was the development of ANN models with ten inputs (carbon, hydrogen, oxygen, nitrogen, volatile matter, moisture content, ash, equivalence ratio, temperature and steam/biomass ratio), applicable to a broad variety of biomass, with different types and concentrations of gasification agents in different types of gasifiers, capable of predicting the syngas composition (CO2, CO, CH4 and H2). Robust databases were built for training, testing and validation of the models, based on information collected in previous studies available in the literature and on the treatment of data obtained from the papers. Thirty-three neural network topologies were evaluated in order to choose the best one according to four criteria regarding training and test robustness. The network considered to have the best topology has 10 neurons in the input layer; 2 hidden layers, with logsig activation functions and 10 neurons in each hidden layer; the activation function is purelin in the output layer; 4 neurons in the output layer; and the training algorithm is trainbr. Such network has a good performance, with R2 values greater than 0.88 and 0.70 for training and test, respectively, for each of the four outputs. To evaluate the model, a validation was carried out, whose performance was not very appropriate, but it was possible to identify through a simple quantitative metric the more reliable regions where there is a greater density of training data.
23

[en] GETTY IMAGES: MONTAGE, CONTROL AND CREATIVE CONSTRUCTION FROM AN AUDIOVISUAL DATABASE / [pt] GETTY IMAGES: MONTAGEM, CONTROLE E CONSTRUÇÃO CRIATIVA A PARTIR DE BANCO DE DADOS AUDIOVISUAL

GUILHERME BENTO DE FARIA LIMA 26 October 2020 (has links)
[pt] Esta tese realiza análise crítica da Getty Images a fim de compreender atualizações de procedimentos de vigilância e controle perpetrados no campo da publicidade. Parte-se da arqueologia das mídias em busca por especificidades do banco de dados audiovisual para compreender protocolos próprios do ambiente virtual organizados a partir da lógica da invisibilidade. Através da análise semiótica de cinco filmes publicitários produzidos para marca pela agência publicitária brasileira, AlmapBBDO, é possível identificar de forma mais aprofundada estratégias de comunicação de valores e princípios da Getty Images. Em consonância com técnicas de montagem, diálogo com linguagem fragmentada e a partir da reapropriação de conteúdo audiovisual são produzidos pequenos vídeos-ensaios que visam revisitar e explorar paradigmas da imagem, bem como contribuir na reflexão do potencial latente dos bancos de dados audiovisual. Concomitantemente, é apresentada a perspectiva de construção criativa de monstros como estratégia publicitária cada vez mais recorrente como etapa da produção audiovisual. Além disso, é desenvolvida uma aproximação entre técnicas cinematográficas e publicitárias que busca sublinhar hibridismos e possíveis interconexões entre as duas áreas. Por fim, são apresentados exemplos que apontam possíveis utilizações da publicidade como forma de resistência e promotora de reflexão crítica diante de conjunturas norteadas por preceitos exclusivamente capitalistas. / [en] This thesis conducts a critical analysis of Getty Images to understand updates to surveillance and control procedures carried out in the field of advertising. It starts from the media archeology in search of specificities of the audiovisual database to understand protocols proper to the virtual environment that are often organized based on the logic of invisibility. Through the semiotic analysis of five advertising films produced for the brand by the Brazilian advertising agency, AlmapBBDO, it is possible to identify in more depth strategies for communicating Getty Images values and principles. In line with montage techniques, dialogue with fragmented language and from the re-appropriation of audiovisual content, small video-essays are produced that aim to revisit and explore paradigms of the image, as well as contribute to the reflection of the latent potential of audiovisual databases. Concomitantly, the prospect of creative construction of monsters is presented as an increasingly recurring advertising strategy as a stage of audiovisual production. Also, an approach is developed between cinematographic and advertising techniques that seeks to underline hybridism and possible interconnections between the two areas. Finally, examples are presented that point to potential uses of advertising as a form of resistance and to promote critical reflection in front of circumstances exclusively guided by capitalist precepts.
24

[en] BETWEEN PLOTS AND DATA: FROM NARRATIVE EXPERIENCE TO QUANTIFIED SUBJECTIVITY IN CERTAIN CONTEMPORARY POETICS / [pt] ENTRE TRAMAS E DADOS: DA EXPERIÊNCIA NARRATIVA À SUBJETIVIDADE QUANTIFICADA EM CERTA POÉTICA CONTEMPORÂNEA

LEONARDO NABUCO VILLA FORTE 04 December 2020 (has links)
[pt] A pesquisa investiga, em determinadas obras da literatura contemporânea, em sua maioria brasileiras, uma tensão entre as noções de contar e de expor, ou, ainda, entre os gestos de narrar, associar eventos e os de reunir e mostrar elementos. Cada vez mais lidamos com arquivos, coleções, inventários, listas, pastas e com interfaces com suas próprias modulações representativas do humano. Cada vez mais produzimos passado e vivemos uma enxurrada de informações no presente, encontrando desafios para construir sentido. A hipótese principal da pesquisa é a de que vivemos uma reformulação na estruturação da experiência, por meio de um diálogo da forma narrativa com a forma do banco de dados, e, na expressão poética, entre o lírico e conceitual. O gesto da pesquisa é olhar para tal mudança por meio de contos, poemas e escritas artísticas que, ao nosso ver, carregam em si sinais desses diálogos e tensões. O corpus de obras literárias trará textos de Alex Hamburguer, André Sant Anna, Diego Pansini, Carol Rodrigues, Marta Barcellos, Nicholas Feltron, Raphael Sassaki, Reginaldo Pujol Filho e do próprio autor, entre outros. / [en] The research investigates, in certain works of contemporary literature, mostly Brazilian, a tension between the notions of counting and exposing, or even between the gestures of narrating and associating events and those of gathering and exhibiting elements. We increasingly deal with files, collections, inventories, lists, folders. We increasingly produce the past and live a flood of information in the present, and we find ourselves in difficulties to make sense of it. The main hypothesis of the research is that we are experiencing a change in the structuring of the experience, from the narrative form to the form of the database and, in poetic expression, between lyric and conceptual. The gesture of the research is to look for such a change through short stories, poems and conceptual poetry that, in our view, carry signs of this transformation. Our literary corpus will bring texts by Alex Hamburguer, André Sant Anna, Diego Pansini, Carol Rodrigues, Marta Barcellos, Nicholas Feltron, Raphael Sassaki, Reginaldo Pujol Filho and the author, among others.
25

[en] A FLEXIBLE ARCHITECTURE FOR REPLICATION OF HETEROGENEOUS BASES / [pt] UMA ARQUITETURA FLEXÍVEL PARA REPLICAÇÃO DE BASES DISTRIBUÍDAS HETEROGÊNEAS

VINCI PEGORETTI AMORIM 21 May 2007 (has links)
[pt] Os diversos serviços de replicação existentes no mercado adquiriram um alto grau de maturidade e desempenho. Entretanto, mostram pouca capacidade de lidar com bases heterogêneas. Este trabalho propõe uma arquitetura focada na replicação de bases heterogêneas. Para conseguir alta escalabilidade e manter a simplicidade, a arquitetura segue uma estrutura multi-agente e adota uma abordagem de projeto orientado a domínio. Em seguida, o trabalho descreve uma implementação de referência e discute decisões técnicas desenvolvidas, enfatizando os problemas de versionamento, verificação de consistência e demais regras de negócio. O trabalho apresenta ainda utilitários que facilitam a configuração e manutenção do sistema de replicação. / [en] The replication services available acquire high maturity and performance levels. However, they do not work with heterogeneous data bases. This dissertation first describes a software architecture that focus on how to provide replication services for heterogeneous bases. To obtain high scalability and to maintain simplicity, the architecture follows a multi- agent structure and adopts a domain-driven design approach. Then, the dissertation describes a reference implementation and discusses the technical decisions adopted, focusing on version control problems, consistency verification and specific businessoriented rules. The dissertation also describes utilities that facilitate the configuration and maintenance of the replication system.
26

[en] SQLLOMINING: FINDING LEARNING OBJECTS USING MACHINE LEARNING METHODS / [pt] SQLLOMINING: OBTENÇÃO DE OBJETOS DE APRENDIZAGEM UTILIZANDO TÉCNICAS DE APRENDIZADO DE MÁQUINA

SUSANA ROSICH SOARES VELLOSO 04 December 2007 (has links)
[pt] Objetos de Aprendizagem ou Learning Objects (LOs) são porções de material didático tais como textos que podem ser reutilizados na composição de outros objetos maiores (aulas ou cursos). Um dos problemas da reutilização de LOs é descobri-los em seus contextos ou documentos texto originais tais como livros, e artigos. Visando a obtenção de LOs, este trabalho apresenta um processo que parte da extração, tratamento e carga de uma base de dados textual e em seguida, baseando-se em técnicas de aprendizado de máquina, uma combinação de EM (Expectation-Maximization) e um classificador Bayesiano, classifica-se os textos extraídos. Tal processo foi implementado em um sistema chamado SQLLOMining, que usa SQL como linguagem de programação e técnicas de mineração de texto na busca de LOs. / [en] Learning Objects (LOs) are pieces of instructional material like traditional texts that can be reused in the composition of more complex objects like classes or courses. There are some difficulties in the process of LO reutilization. One of them is to find pieces of documents that can be used like LOs. In this work we present a process that, in search for LOs, starts by extracting, transforming and loading a text database and then continue clustering these texts, using a machine learning methods that combines EM (Expectation- Maximization) and a Bayesian classifier. We implemented that process in a system called SQLLOMining that uses the SQL language and text mining methods in the search for LOs.
27

[en] A SOFTWARE ARCHITECTURE FOR AUTOMATED CATALOGUING OF GEOGRAPHIC DATA / [pt] UMA ARQUITETURA DE SOFTWARE PARA CATALOGAÇÃO AUTOMÁTICA DE DADOS GEOGRÁFICOS

LUIZ ANDRE PORTES PAES LEME 12 September 2006 (has links)
[pt] Dados geográficos estão disponíveis em quantidade e variedade crescentes à medida que evoluem as tecnologias de informática. Para torná-los úteis, é necessário que mecanismos de busca de dados possam identificar dados apropriados a determinado propósito. Tais mecanismos, comumente, utilizam catálogos de metadados que descrevem cada dado geográfico. Entretanto, a geração de metadados é um processo que pode consumir muito tempo e estar sujeito a muitos erros, caso seja feito manualmente. Essa dissertação apresenta uma arquitetura de software e tecnologias correlatas para aplicações de catalogação automática de dados geográficos. / [en] The amount and variety of geographic data increase as technology evolves. To make them useful it is necessary to implement search engines capable of identifying appropriate data. Such engines are usually based on metadata catalogs which describe the geographic data. However, the metadata generation process is time consuming and is not fail safe if it is carried out manually. This dissertation presents a software architecture, and related technologies, for the construction of automated cataloguing applications of geographic data.
28

[en] INTEGRATION OF REPOSITORIES OF DIGITAL LIBRARY SYSTEMS AND LEARNING MANAGEMENT SYSTEMS / [pt] INTEGRAÇÃO DE REPOSITÓRIOS DE SISTEMAS DE BIBLIOTECAS DIGITAIS E SISTEMAS DE APRENDIZAGEM

GEORGIA REGINA RODRIGUES GOMES 18 May 2007 (has links)
[pt] Com o uso generalizado das tecnologias de informação no apoio ao ensino, é comum disponibilizar conteúdos digitais, seja através de Sistemas de Bibliotecas Digitais (DLMS) ou de Sistemas de Gerência de Aprendizagem (LMS). No entanto, estes sistemas funcionam de forma independente, têm características diferentes e manipulam tipos diferentes de materiais, sendo seus repositórios com dados e metadados heterogêneos e distribuídos. Os conteúdos destes repositórios seriam melhor aproveitados se estivessem integrados a um ambiente comum, ou fossem acessados de modo integrado a partir dos ambientes de de DLMS e LMS. Nesta tese é apresentada uma visão homogênea dos conteúdos de DLMS e LMS. Para esta homogeneização utilizou-se uma extensão da arquitetura de mediadores e tradutores que trata a integração de metadados, assim como ontologias para tratamento semântico. Foram consideradas ontologias locais para descrever os metadados de cada repositório e uma ontologia global para a integração. No entanto, os documentos dos repositórios dos DLMS tendem a ser monolíticos e não têm um enfoque na reutilização( reuso). Assim, foram definidas regras para extração dos conteúdos mais importantes destes documentos, o que possibilita a reutilização. Esta extração envolve técnicas de mineração de texto e utiliza regras para descobrir as definições contidas nos documentos. Foi desenvolvido um protótipo que demonstra a viabilidade do processo. Para facilitar o entendimento do trabalho, é apresentado um estudo de caso que utiliza a técnica proposta e o protótipo desenvolvido. O trabalho facilita e enriquece o desenvolvimento de materiais de aprendizagem, uma vez que torna os conteúdos de documentos das bibliotecas digitais reutilizáveis e integrados aos Objetos de Aprendizagem (LO) existentes. / [en] With the widespread use of Information Technology for teaching support, it is usual to made digital content available through Digital Library Systems (DLMS) or Learning Management Systems (LMS).These systems, however, work independently, have different characteristics and manipulate different types of materials, and their data and metadata repositories are heterogeneous and distributed. The content of repositories would be better used if it was integrated in the same environment or accessed in an integrated way from DLMS and LMS. This thesis presents a homogeneous view of DLMS and LMS content. In order to provide such homogenization, it is proposed an extension of the mediator and wrapper architecture for dealing with metadata integration and ontologies for treating semantics. Local ontologies are used for describing each metadata repository, and a global ontology for the integration. As documents of DLMS repositories tend to be monolithic and not to follow a reuse approach, rules for extracting the most important content from these documents were developed in order to make them reusable. This extraction includes text mining techniques as well as rules for discovering definitions embedded in the documents. A prototype was developed which implements the extraction and proves the feasibility of this approach. In order to make the work easier to understand, it is presented a case study that uses the proposed technique and the prototype. The work described in this thesis facilitates and enriches the development of learning material by making the content of digital library documents reusable and integrated to existing learning objects.
29

[en] MATERIALIZATION AND MAINTENANCE OF OWL: SAMEAS LINKS / [pt] MATERIALIZAÇÃO E MANUTENÇÃO DE LIGAÇÕES OWL: SAMEAS

CARLA GONCALVES OUROFINO 17 January 2017 (has links)
[pt] A Web de Dados cresceu significativamente nos últimos anos, tanto em quantidade de dados, quanto em fontes responsáveis por esses. A partir desse aumento no número de fontes de dados, ligações owl:sameAs têm sido cada vez mais utilizadas para conectar dados equivalentes e publicados por fontes distintas. Com isso, torna-se necessário haver uma rotina de identificação e manutenção dessas conexões. Com o objetivo de automatizar essa tarefa, desenvolvemos o Framework MsA – Materialização de sameAs para materializar e recomputar ligações do tipo owl:sameAs entre bancos de dados locais e dados publicados na Web. Essas ligações, uma vez identificadas, são materializadas juntamente aos dados locais e recomputadas apenas quando necessário. Para isso, a ferramenta monitora as operações (cadastramento, remoção e atualização) realizadas nos dados locais e remotos e, para cada tipo, implementa uma estratégia de manutenção das ligações envolvidas. / [en] The Web of Data has grown significantly in recent years, not only in the amount of data but also in the number of data sources. In parallel with this tendency, owl:sameAs links have been increasingly used to connect equivalent data published by different sources. As a consequence, it becomes necessary to have a routine for the identification and maintenance of these connections. In order to automate this task, we have developed the MsA Framework - sameAs Materialization to materialize and recompute owl:sameAs links between local databases and data published on the Web. These connections, once identified, are materialized along with the local data and recomputed only when necessary. To achieve this goal, the tool monitors the operations (insertion, update and deletion) performed on local and remote records, and for each type of operation it implements a maintenance strategy on the links involved.
30

[en] TUNINGCHEF: AN APPROACH FOR CHOOSING THE BEST COST-BENEFIT DATABASE TUNING ACTIONS / [pt] TUNINGCHEF: UMA ABORDAGEM PARA ESCOLHER AS AÇÕES DE SINTONIA FINA DE BANCO DE DADOS COM MELHOR CUSTO-BENEFÍCIO

VICTOR AUGUSTO LIMA LINS DE SOUZA 29 November 2022 (has links)
[pt] Enquanto muitos trabalhos de pesquisa propõem uma forma de listar um conjunto de opções de sintonia fina para uma determinada carga de trabalho, poucos oferecem uma maneira de ajudar o DBA a tomar melhores decisões ao encontrar um conjunto de ações disponíveis. TuningChef é o resultado do desenvolvimento de uma proposta do passo a passo desse processo de decisão. Dado um conjunto de opções de sintonia fina, recomendamos um subconjunto com boa proporção de custo-benefício, com contexto suficiente para que o DBA entenda a motivação por trás de cada decisão, incluindo a possibilidade de deixar o usuário construir seu próprio subconjunto e verificar o impacto esperado. Também são apresentados resultados experimentais que demonstram a importância do processo de decisão, onde dentro de um subconjunto de 50+ ações de sintonia fina sugeridas por uma ferramenta externa, apenas 8 mostram-se como benéficas para a carga de trabalho utilizada. / [en] While many research works propose a way to list a set of fine-tuning options for a given workload, only a few offer a way to help the DBA make better decisions when encountering a set of available options, especially when taking his possibilities into consideration. We propose and develop a step-by-step decision process. Given a set of fine-tuning options, we recommend a subset with good cost-benefit proportion. Enough context for the DBA accompanies the recommendation to understand its reasoning, with the possibility of letting the user build his own subset and check the expected impact. Some experimental results are also described, showing the importance of the decision step when fine tuning a database, where in a set on 50+ fine tuning actions suggested by an external tool, only 8 are considered beneficial for the a specific workload.

Page generated in 0.4374 seconds