21 |
[en] ONTOLOGY-BASED DATABASE TUNING: THE CASE OF MATERIALIZED VIEWS / [pt] SINTONIA FINA BASEADA EM ONTOLOGIA: O CASO DE VISÕES MATERIALIZADASRAFAEL PEREIRA DE OLIVEIRA 04 November 2015 (has links)
[pt] O framework Outer-Tuning serve para apoiar a sintonia fina de
índices (automática ou não) em um sistema de banco de dados. Trata-se de
uma abordagem que oferece transparência acerca das alternativas disponíveis
para possíveis cenários de sintonia fina, possibilitando combinar estratégias
independentes para obter um melhor desempenho do SGBD e permitindo a
discussão de justificativas para as ações realizadas. Através do uso de uma
ontologia específica para sintonia fina de bancos de dados relacionais, é possível
adicionar semântica ao processo com o entendimento dos conceitos envolvidos
e gerar, de maneira (semi)automática, novas práticas de sintonia fina, que podem
ser inferidas a partir das práticas existentes ou de novas regras e conceitos
que venham a surgir no futuro. Este trabalho de pesquisa apresenta como
contribuição inicial o projeto e implementação do framework Outer-Tuning por
meio da formalização de uma arquitetura de software que atende aos requisitos
funcionais especificados. Este trabalho também contribui com a extensão da
ontologia de domínio e a inclusão de novas heurísticas na ontologia de tarefas
para contemplar soluções de sintonia fina com o uso de visões materializadas.
Desta forma, passa a ser possível propor o uso de heurísticas para realizar a
sintonia fina tanto para índices como também para visões materializadas. / [en] The Outer-tuning framework may be used to support automatic (or not)
database tuning, particularity index. It is an approach that offers transparency
about the available alternatives to feasible tuning scenarios, making it possible
to combine either independent strategies or allow discussion of justifications
for actions performed in order to obtain better performances. Using a specific
ontology for fine tuning relational databases, we add semantics to the process
with the understanding of the concepts involved and generate (semi)automatic
new tuning actions, which can be inferred from existing practices or new
rules and concepts that arise in the future. This research presents as an
initial contribution the actual design and implementation of the Outer-tuning
framework through the formalization of a software architecture that meets the
specified functional requirements. This work also contributes with the extension
of the domain ontology and the inclusion of new heuristics to a task ontology,
in order to accomplish fine tuning solutions with the use of materialized views.
Thus, it becomes possible to propose the use of tuning heuristics for indexes as
well as for materialized views.
|
22 |
[pt] DESENVOLVIMENTO DE MODELOS PREDITIVOS PARA A GASEIFICAÇÃO DE BIOMASSA USANDO REDES NEURAIS ARTIFICIAIS / [en] DEVELOPMENT OF PREDICTIVE MODELS FOR BIOMASS GASIFICATION USING ARTIFICIAL NEURAL NETWORKSFERNANDA DA SILVA PIMENTEL 02 May 2023 (has links)
[pt] Na tentativa de reduzir os efeitos das emissões de dióxido de carbono, há uma
necessidade por maior utilização de fontes de energia renováveis, tal como energia
proveniente de biomassa. Para geração de energia a partir da biomassa, destaca-se
o processo de gaseificação, por meio do qual é possível gerar um combustível
nobre. Objetivou-se simular no software Matlab (marca registrada) a gaseificação da biomassa
usando técnicas de inteligência artificial que são as Redes Neurais Artificiais
(RNA). Particularmente, objetivou-se desenvolver modelos abrangentes de RNA
com dez variáveis de entrada (carbono, hidrogênio, oxigênio, nitrogênio, material
volátil, teor de umidade, cinzas, razão de equivalência, temperatura e razão
vapor/biomassa), aplicáveis a uma diversidade de biomassa, com diversos tipos e
concentrações de agentes de gaseificação em diferentes tipos de gaseificadores,
capazes de predizer a composição do gás de síntese (CO2, CO, CH4 e H2). Para
treinamento, teste e validação dos modelos, foram preparados bancos de dados
robustos, a partir de informações coletadas em estudos anteriores disponíveis na
literatura e do tratamento dos dados obtidos dos artigos. Foram avaliadas 33
topologias das redes neurais para eleger a melhor delas de acordo com quatro
critérios referente a robustez do treinamento e do teste. A rede considerada como
tendo a melhor topologia possui 10 neurônios na camada de entrada; 2 camadas
intermediárias, com funções de ativação logsig e 10 neurônios em cada camada
intermediária; função de ativação purelin na camada final; 4 neurônios na camada
final; e algoritmo de treinamento trainbr. Tal rede possui um bom desempenho,
com valores de R2
de treinamento e de teste maiores que 0,88 e 0,70,
respectivamente, para cada uma das quatro saídas. Para avaliação do modelo, uma
validação foi executada, cujo desempenho não foi muito adequado, mas foi possível
identificar com uma métrica quantitativa simples as regiões mais confiáveis onde
há uma maior densidade de dados no treinamento. / [en] In an attempt to reduce the effects of carbon dioxide emissions, there is a need
for greater use of renewable energy sources, such as energy from biomass. In order
to generate energy from biomass, the gasification process, by means of which it is
possible to generate a noble fuel, can be highlighted. This work aimed to simulate
the biomass gasification using artificial intelligence techniques, namely Artificial
Neural Networks (ANN), using Matlab (trademark) software. Particularly, the objective was
the development of ANN models with ten inputs (carbon, hydrogen, oxygen,
nitrogen, volatile matter, moisture content, ash, equivalence ratio, temperature and
steam/biomass ratio), applicable to a broad variety of biomass, with different types
and concentrations of gasification agents in different types of gasifiers, capable of
predicting the syngas composition (CO2, CO, CH4 and H2). Robust databases were
built for training, testing and validation of the models, based on information
collected in previous studies available in the literature and on the treatment of data
obtained from the papers. Thirty-three neural network topologies were evaluated in
order to choose the best one according to four criteria regarding training and test
robustness. The network considered to have the best topology has 10 neurons in the
input layer; 2 hidden layers, with logsig activation functions and 10 neurons in each
hidden layer; the activation function is purelin in the output layer; 4 neurons in the
output layer; and the training algorithm is trainbr. Such network has a good
performance, with R2 values greater than 0.88 and 0.70 for training and test,
respectively, for each of the four outputs. To evaluate the model, a validation was
carried out, whose performance was not very appropriate, but it was possible to
identify through a simple quantitative metric the more reliable regions where there
is a greater density of training data.
|
23 |
[en] GETTY IMAGES: MONTAGE, CONTROL AND CREATIVE CONSTRUCTION FROM AN AUDIOVISUAL DATABASE / [pt] GETTY IMAGES: MONTAGEM, CONTROLE E CONSTRUÇÃO CRIATIVA A PARTIR DE BANCO DE DADOS AUDIOVISUALGUILHERME BENTO DE FARIA LIMA 26 October 2020 (has links)
[pt] Esta tese realiza análise crítica da Getty Images a fim de compreender atualizações de procedimentos de vigilância e controle perpetrados no campo da publicidade. Parte-se da arqueologia das mídias em busca por especificidades do banco de dados audiovisual para compreender protocolos próprios do ambiente virtual organizados a partir da lógica da invisibilidade. Através da análise semiótica de cinco filmes publicitários produzidos para marca pela agência publicitária brasileira, AlmapBBDO, é possível identificar de forma mais aprofundada estratégias de comunicação de valores e princípios da Getty Images. Em consonância com técnicas de montagem, diálogo com linguagem fragmentada e a partir da reapropriação de conteúdo audiovisual são produzidos pequenos vídeos-ensaios que visam revisitar e explorar paradigmas da imagem, bem como contribuir na reflexão do potencial latente dos bancos de dados audiovisual. Concomitantemente, é apresentada a perspectiva de construção criativa de monstros como estratégia publicitária cada vez mais recorrente como etapa da produção audiovisual. Além disso, é desenvolvida uma aproximação entre técnicas cinematográficas e publicitárias que busca sublinhar hibridismos e possíveis interconexões entre as duas áreas. Por fim, são apresentados exemplos que apontam possíveis utilizações da publicidade como forma de resistência e promotora de reflexão crítica diante de conjunturas norteadas por preceitos exclusivamente capitalistas. / [en] This thesis conducts a critical analysis of Getty Images to understand updates to surveillance and control procedures carried out in the field of advertising. It starts from the media archeology in search of specificities of the audiovisual database to understand protocols proper to the virtual environment that are often organized based on the logic of invisibility. Through the semiotic analysis of five advertising films produced for the brand by the Brazilian advertising agency, AlmapBBDO, it is possible to identify in more depth strategies for communicating Getty Images values and principles. In line with montage techniques, dialogue with fragmented language and from the re-appropriation of audiovisual content, small video-essays are produced that aim to revisit and explore paradigms of the image, as well as contribute to the reflection of the latent potential of audiovisual databases. Concomitantly, the prospect of creative construction of monsters is presented as an increasingly recurring advertising strategy as a stage of audiovisual production. Also, an approach is developed between cinematographic and advertising techniques that seeks to underline hybridism and possible interconnections between the two areas. Finally, examples are presented that point to potential uses of advertising as a form of resistance and to promote critical reflection in front of circumstances exclusively guided by capitalist precepts.
|
24 |
[en] BETWEEN PLOTS AND DATA: FROM NARRATIVE EXPERIENCE TO QUANTIFIED SUBJECTIVITY IN CERTAIN CONTEMPORARY POETICS / [pt] ENTRE TRAMAS E DADOS: DA EXPERIÊNCIA NARRATIVA À SUBJETIVIDADE QUANTIFICADA EM CERTA POÉTICA CONTEMPORÂNEALEONARDO NABUCO VILLA FORTE 04 December 2020 (has links)
[pt] A pesquisa investiga, em determinadas obras da literatura contemporânea, em sua maioria brasileiras, uma tensão entre as noções de contar e de expor, ou, ainda, entre os gestos de narrar, associar eventos e os de reunir e mostrar elementos. Cada vez mais lidamos com arquivos, coleções, inventários, listas, pastas e com interfaces com suas próprias modulações representativas do humano. Cada vez mais produzimos passado e vivemos uma enxurrada de informações no presente, encontrando desafios para construir sentido. A hipótese principal da pesquisa é a de que vivemos uma reformulação na estruturação da experiência, por meio de um diálogo da forma narrativa com a forma do banco de dados, e, na expressão poética, entre o lírico e conceitual. O gesto da pesquisa é olhar para tal mudança por meio de contos, poemas e escritas artísticas que, ao nosso ver, carregam em si sinais desses diálogos e tensões. O corpus de obras literárias trará textos de Alex Hamburguer, André Sant Anna, Diego Pansini, Carol Rodrigues, Marta Barcellos, Nicholas Feltron, Raphael Sassaki, Reginaldo Pujol Filho e do próprio autor, entre outros. / [en] The research investigates, in certain works of contemporary literature, mostly Brazilian, a tension between the notions of counting and exposing, or even between the gestures of narrating and associating events and those of gathering and exhibiting elements. We increasingly deal with files, collections, inventories, lists, folders. We increasingly produce the past and live a flood of information in the present, and we find ourselves in difficulties to make sense of it. The main hypothesis of the research is that we are experiencing a change in the structuring of the experience, from the narrative form to the form of the database and, in poetic expression, between lyric and conceptual. The gesture of the research is to look for such a change through short stories, poems and conceptual poetry that, in our view, carry signs of this transformation. Our literary corpus will bring texts by Alex Hamburguer, André Sant Anna, Diego Pansini, Carol Rodrigues, Marta Barcellos, Nicholas Feltron, Raphael Sassaki, Reginaldo Pujol Filho and the author, among others.
|
25 |
[en] A FLEXIBLE ARCHITECTURE FOR REPLICATION OF HETEROGENEOUS BASES / [pt] UMA ARQUITETURA FLEXÍVEL PARA REPLICAÇÃO DE BASES DISTRIBUÍDAS HETEROGÊNEASVINCI PEGORETTI AMORIM 21 May 2007 (has links)
[pt] Os diversos serviços de replicação existentes no mercado
adquiriram um
alto grau de maturidade e desempenho. Entretanto, mostram
pouca capacidade
de lidar com bases heterogêneas. Este trabalho propõe uma
arquitetura focada
na replicação de bases heterogêneas. Para conseguir alta
escalabilidade e
manter a simplicidade, a arquitetura segue uma estrutura
multi-agente e adota
uma abordagem de projeto orientado a domínio. Em seguida,
o trabalho
descreve uma implementação de referência e discute
decisões técnicas
desenvolvidas, enfatizando os problemas de versionamento,
verificação de
consistência e demais regras de negócio. O trabalho
apresenta ainda utilitários
que facilitam a configuração e manutenção do sistema de
replicação. / [en] The replication services available acquire high maturity
and performance
levels. However, they do not work with heterogeneous data
bases. This
dissertation first describes a software architecture that
focus on how to provide
replication services for heterogeneous bases. To obtain
high scalability and to
maintain simplicity, the architecture follows a multi-
agent structure and adopts
a domain-driven design approach. Then, the dissertation
describes a reference
implementation and discusses the technical decisions
adopted, focusing on
version control problems, consistency verification and
specific businessoriented
rules. The dissertation also describes utilities that
facilitate the
configuration and maintenance of the replication system.
|
26 |
[en] SQLLOMINING: FINDING LEARNING OBJECTS USING MACHINE LEARNING METHODS / [pt] SQLLOMINING: OBTENÇÃO DE OBJETOS DE APRENDIZAGEM UTILIZANDO TÉCNICAS DE APRENDIZADO DE MÁQUINASUSANA ROSICH SOARES VELLOSO 04 December 2007 (has links)
[pt] Objetos de Aprendizagem ou Learning Objects (LOs) são
porções de
material didático tais como textos que podem ser
reutilizados na composição de
outros objetos maiores (aulas ou cursos). Um dos problemas
da reutilização de
LOs é descobri-los em seus contextos ou documentos texto
originais tais como
livros, e artigos. Visando a obtenção de LOs, este
trabalho apresenta um
processo que parte da extração, tratamento e carga de uma
base de dados
textual e em seguida, baseando-se em técnicas de
aprendizado de máquina,
uma combinação de EM (Expectation-Maximization) e um
classificador
Bayesiano, classifica-se os textos extraídos. Tal processo
foi implementado em
um sistema chamado SQLLOMining, que usa SQL como linguagem
de
programação e técnicas de mineração de texto na busca de
LOs. / [en] Learning Objects (LOs) are pieces of instructional
material like traditional
texts that can be reused in the composition of more
complex objects like classes
or courses. There are some difficulties in the process of
LO reutilization. One of
them is to find pieces of documents that can be used like
LOs. In this work we
present a process that, in search for LOs, starts by
extracting, transforming and
loading a text database and then continue clustering these
texts, using a machine
learning methods that combines EM (Expectation-
Maximization) and a Bayesian
classifier. We implemented that process in a system called
SQLLOMining that
uses the SQL language and text mining methods in the
search for LOs.
|
27 |
[en] A SOFTWARE ARCHITECTURE FOR AUTOMATED CATALOGUING OF GEOGRAPHIC DATA / [pt] UMA ARQUITETURA DE SOFTWARE PARA CATALOGAÇÃO AUTOMÁTICA DE DADOS GEOGRÁFICOSLUIZ ANDRE PORTES PAES LEME 12 September 2006 (has links)
[pt] Dados geográficos estão disponíveis em quantidade e
variedade
crescentes à medida que evoluem as tecnologias de
informática. Para torná-los
úteis, é necessário que mecanismos de busca de dados
possam identificar
dados apropriados a determinado propósito. Tais
mecanismos, comumente,
utilizam catálogos de metadados que descrevem cada dado
geográfico.
Entretanto, a geração de metadados é um processo que pode
consumir muito
tempo e estar sujeito a muitos erros, caso seja feito
manualmente. Essa
dissertação apresenta uma arquitetura de software e
tecnologias correlatas
para aplicações de catalogação automática de dados
geográficos. / [en] The amount and variety of geographic data increase as
technology
evolves. To make them useful it is necessary to implement
search engines
capable of identifying appropriate data. Such engines are
usually based on
metadata catalogs which describe the geographic data.
However, the metadata
generation process is time consuming and is not fail safe
if it is carried out
manually. This dissertation presents a software
architecture, and related
technologies, for the construction of automated
cataloguing applications of
geographic data.
|
28 |
[en] INTEGRATION OF REPOSITORIES OF DIGITAL LIBRARY SYSTEMS AND LEARNING MANAGEMENT SYSTEMS / [pt] INTEGRAÇÃO DE REPOSITÓRIOS DE SISTEMAS DE BIBLIOTECAS DIGITAIS E SISTEMAS DE APRENDIZAGEMGEORGIA REGINA RODRIGUES GOMES 18 May 2007 (has links)
[pt] Com o uso generalizado das tecnologias de informação no
apoio ao ensino,
é comum disponibilizar conteúdos digitais, seja através de
Sistemas de Bibliotecas
Digitais (DLMS) ou de Sistemas de Gerência de Aprendizagem
(LMS). No
entanto, estes sistemas funcionam de forma independente,
têm características
diferentes e manipulam tipos diferentes de materiais,
sendo seus repositórios com
dados e metadados heterogêneos e distribuídos. Os
conteúdos destes repositórios
seriam melhor aproveitados se estivessem integrados a um
ambiente comum, ou
fossem acessados de modo integrado a partir dos ambientes
de de DLMS e LMS.
Nesta tese é apresentada uma visão homogênea dos conteúdos
de DLMS e LMS.
Para esta homogeneização utilizou-se uma extensão da
arquitetura de mediadores
e tradutores que trata a integração de metadados, assim
como ontologias para
tratamento semântico. Foram consideradas ontologias locais
para descrever os
metadados de cada repositório e uma ontologia global para
a integração. No
entanto, os documentos dos repositórios dos DLMS tendem a
ser monolíticos e
não têm um enfoque na reutilização( reuso). Assim, foram
definidas regras para
extração dos conteúdos mais importantes destes documentos,
o que possibilita a
reutilização. Esta extração envolve técnicas de mineração
de texto e utiliza regras
para descobrir as definições contidas nos documentos. Foi
desenvolvido um
protótipo que demonstra a viabilidade do processo. Para
facilitar o entendimento
do trabalho, é apresentado um estudo de caso que utiliza a
técnica proposta e o
protótipo desenvolvido. O trabalho facilita e enriquece o
desenvolvimento de
materiais de aprendizagem, uma vez que torna os conteúdos
de documentos das
bibliotecas digitais reutilizáveis e integrados aos
Objetos de Aprendizagem (LO)
existentes. / [en] With the widespread use of Information Technology for
teaching support, it
is usual to made digital content available through Digital
Library Systems
(DLMS) or Learning Management Systems (LMS).These systems,
however, work
independently, have different characteristics and
manipulate different types of
materials, and their data and metadata repositories are
heterogeneous and
distributed. The content of repositories would be better
used if it was integrated in
the same environment or accessed in an integrated way from
DLMS and LMS.
This thesis presents a homogeneous view of DLMS and LMS
content. In order to
provide such homogenization, it is proposed an extension
of the mediator and
wrapper architecture for dealing with metadata integration
and ontologies for
treating semantics. Local ontologies are used for
describing each metadata
repository, and a global ontology for the integration. As
documents of DLMS
repositories tend to be monolithic and not to follow a
reuse approach, rules for
extracting the most important content from these documents
were developed in
order to make them reusable. This extraction includes text
mining techniques as
well as rules for discovering definitions embedded in the
documents. A prototype
was developed which implements the extraction and proves
the feasibility of this
approach. In order to make the work easier to understand,
it is presented a case
study that uses the proposed technique and the prototype.
The work described in
this thesis facilitates and enriches the development of
learning material by making
the content of digital library documents reusable and
integrated to existing
learning objects.
|
29 |
[en] MATERIALIZATION AND MAINTENANCE OF OWL: SAMEAS LINKS / [pt] MATERIALIZAÇÃO E MANUTENÇÃO DE LIGAÇÕES OWL: SAMEASCARLA GONCALVES OUROFINO 17 January 2017 (has links)
[pt] A Web de Dados cresceu significativamente nos últimos anos, tanto em quantidade de dados, quanto em fontes responsáveis por esses. A partir desse aumento no número de fontes de dados, ligações owl:sameAs têm sido cada vez mais utilizadas para conectar dados equivalentes e publicados por fontes distintas. Com isso, torna-se necessário haver uma rotina de identificação e manutenção dessas conexões. Com o objetivo de automatizar essa tarefa, desenvolvemos o Framework MsA – Materialização de sameAs para materializar e recomputar ligações do tipo owl:sameAs entre bancos de dados locais e dados publicados na Web. Essas ligações, uma vez identificadas, são materializadas juntamente aos dados locais e recomputadas apenas quando necessário. Para isso, a ferramenta monitora as operações (cadastramento, remoção e atualização) realizadas nos dados locais e remotos e, para cada tipo, implementa uma estratégia de manutenção das ligações envolvidas. / [en] The Web of Data has grown significantly in recent years, not only in the amount of data but also in the number of data sources. In parallel with this tendency, owl:sameAs links have been increasingly used to connect equivalent data published by different sources. As a consequence, it becomes necessary to have a routine for the identification and maintenance of these connections. In order to automate this task, we have developed the MsA Framework - sameAs Materialization to materialize and recompute owl:sameAs links between local databases and data published on the Web. These connections, once identified, are materialized along with the local data and recomputed only when necessary. To achieve this goal, the tool monitors the operations (insertion, update and deletion) performed on local and remote records, and for each type of operation it implements a maintenance strategy on the links involved.
|
30 |
[en] TUNINGCHEF: AN APPROACH FOR CHOOSING THE BEST COST-BENEFIT DATABASE TUNING ACTIONS / [pt] TUNINGCHEF: UMA ABORDAGEM PARA ESCOLHER AS AÇÕES DE SINTONIA FINA DE BANCO DE DADOS COM MELHOR CUSTO-BENEFÍCIOVICTOR AUGUSTO LIMA LINS DE SOUZA 29 November 2022 (has links)
[pt] Enquanto muitos trabalhos de pesquisa propõem uma forma de listar um
conjunto de opções de sintonia fina para uma determinada carga de trabalho,
poucos oferecem uma maneira de ajudar o DBA a tomar melhores decisões
ao encontrar um conjunto de ações disponíveis. TuningChef é o resultado do
desenvolvimento de uma proposta do passo a passo desse processo de decisão.
Dado um conjunto de opções de sintonia fina, recomendamos um subconjunto
com boa proporção de custo-benefício, com contexto suficiente para que o
DBA entenda a motivação por trás de cada decisão, incluindo a possibilidade
de deixar o usuário construir seu próprio subconjunto e verificar o impacto
esperado. Também são apresentados resultados experimentais que demonstram
a importância do processo de decisão, onde dentro de um subconjunto de
50+ ações de sintonia fina sugeridas por uma ferramenta externa, apenas 8
mostram-se como benéficas para a carga de trabalho utilizada. / [en] While many research works propose a way to list a set of fine-tuning options for a given workload, only a few offer a way to help the DBA make better
decisions when encountering a set of available options, especially when taking
his possibilities into consideration. We propose and develop a step-by-step decision process. Given a set of fine-tuning options, we recommend a subset with
good cost-benefit proportion. Enough context for the DBA accompanies the
recommendation to understand its reasoning, with the possibility of letting the
user build his own subset and check the expected impact. Some experimental
results are also described, showing the importance of the decision step when
fine tuning a database, where in a set on 50+ fine tuning actions suggested by
an external tool, only 8 are considered beneficial for the a specific workload.
|
Page generated in 0.4374 seconds