1 |
[en] IDENTIFICATION, FILTERING AND FORECASTING OF ARMA/TF AND STATE MODELS / [pt] IDENTIFICAÇÃO, FILTRAGEM E PREDIÇÃO PARA MODELOS ARMA/FT E DE ESTADOJACK BACZYNSKI 19 October 2009 (has links)
[pt] Um método satisfatório para a caracterização de problemas não determinísticos é a identificação de modelos dinâmicos representativos destes problemas. Faz-se inicialmente uma análise comparativa quanto ao domínio, equivalência e adequação de modelos de parâmetro discreto da classe ARMA, de função de Transferência (FT) e de estado, não necessariamente escalares ou invariantes. A seguir, examinam-se aspectos dos procedimentos usuais de identificação destes modelos. O problema de estimação de processos, abordado através do processo de inovações, objetiva um desenvolvimento gradual dos conceitos, no que se refere à determinação da estrutura do modelo. Seguem-se comparações entre algorítmos recursivos de estimação (Kalman e outros), abordando-se o problema da propriedade finitamente recursiva e de convergência.
Em geral, as técnicas de identificação conduzem a mais de um modelo passível de ser utilizado na caracterização do processo. O problema de se escolher entre estes modelos é formulado como um problema de teste de hipóteses, ao qual se aplica a técnica de Máxima Verossimilhança, indistintamente para modelos ARMA, FT e de estado. A resolução do teste é imediata a partir do processo de inovações, tendo-se, no caso de modelos ARMA/FT, algumas alternativas bastante simplificadas. A aplicação do teste de hipóteses, no caso não-Gaussiana, é também enfocada. / [en] Non-deterministic problems can be adequately characterized by identifying dynamic models that can represent them. Early in the study, a comparative analysis of the range, equivalence and adequacy of the models is initially performed. Types of models considered in this work are ARMA, transfer function and State models of discrete parameter, not necessarilly scalar or invariant. The usual identification methods are then succinttly examined and compared. The estimation problem of stochastic processes, using the innovation processes, using the innovation process approach, is also analyzed, with a view to a gradual development of concepts as regards the determination of the model structure. Recursive estimation algorithms (Kalman and others) are then compared, and the problem of finitely recursive properties and convergence is examined.
Identification thecniques usually leod to more than one model capable of characterizing the stochastic process. The problem of choosing between these models is formulated as a hypothesis testing problem, to which the Maximum Likelyhood thecnique is applied. Test resolution follows immediately from the innovation process, and can indistinctly be applied to ARMA, Transfer Function or state models. In the case of ARMA and Transfer Function models, an even more simplified result can be obtained. The application of hypothesis testing to the non-Gausian assumption is also brought to focus.
|
2 |
[en] PREDICTION OF WHITE SPACES FOR COGNITIVE RADIOS: METHODOLOGY, ALGORITHMS, SIMULATION AND PERFORMANCE / [pt] PREDIÇÃO DE INTERVALOS ESPECTRAIS PARA USO DE RÁDIOS COGNITIVOS: METODOLOGIA, ALGORITMOS, SIMULAÇÃO E DESEMPENHOANGELO ANTONIO CALDEIRA CANAVITSAS 28 July 2016 (has links)
[pt] A tecnologia de rádio cognitivo está em pleno desenvolvimento na academia e indústria, sendo apresentada como uma solução para o reduzir o congestionamento do espectro radioelétrico. Dessa forma, diversos estudos têm sido desenvolvidos para obter novas técnicas de compartilhamento do espectro entre usuários ditos primários e secundários. Estas técnicas devem ser robustas o suficiente para minimizar as colisões de ocupação do espectro entre os usuários supracitados, quando o acesso dinâmico ao espectro for aplicado. O presente estudo investigou as soluções de ocupação compartilhada do espectro, em especial nos para serviços de voz na faixa de 450 MHz. A modelagem de ocupação dos canais, a partir de medidas de transmissões reais, permitiu o desenvolvimento de algoritmo robusto que realiza a predição de espaços espectrais (white spaces) dentro de canais destinados a usuários primários. Esse método proposto define, estatisticamente, uma janela de intervalos de tempo futuros que pode ser utilizada por usuários secundários, por apresentar maior probabilidade de possuir espaços espectrais livres, minimizando as possíveis colisões. O emprego do método proposto aumenta a vazão de informações de modo seguro e,com alto desempenho, otimizando,assim,a utilização do espectro radioelétrico. / [en] The cognitive radio technology is being developedin universities and industry as a solution to the radio spectrum scarcity. This technology willallow spectrum sharing between primary and secondary telecommunication users. The techniques employed must be robust enough to minimize spectrum occupancy collisions, when the dynamic spectrum access is applied. This study investigates the trends of spectrum usersoccupation, particularly in voice services in the 450 MHz frequency band.An users occupancy model was developed taking into accountmeasured data of real transmissions. It allowed the development of a robust algorithm that predicts spectral vacancy in channels allocated to primary users. The method selects, statistically, a group of future time intervals that can be used by secondary users, due to a higher probability of having a free spectral space. The use of this new technique minimizes possible collisions, increasing the flow of information in secure way and optimizing the radio spectrum use.
|
3 |
[pt] AGRUPAMENTO DE AÇÕES POR EMBEDDINGS TEXTUAIS NA PREVISÃO DE PREÇOS / [en] STOCK CLUSTERING BASED ON TEXTUAL EMBEDDINGS APPLIED TO PRICE PREDICTIONANDRE DAVYS CARVALHO MELO DE OLIVEIRA 17 August 2020 (has links)
[pt] Realizar previsões de preços no mercado de ações é uma tarefa difícil devido ao fato de o mercado financeiro ser um ambiente altamente dinâmico, complexo e caótico. Para algumas teorias financeiras, usar as informações disponíveis para tentar prever o preço de uma ação a curto prazo é um esforço em vão já que ele sofre a influência de diversos fatores externos e, em decorrência, sua variação assemelha-se à de um passeio aleatório. Estudos recentes, como (37) e (51), abordam o problema com modelos de predição específicos para o comportamento do preço de uma ação isolada. Neste trabalho, apresenta-se uma proposta para prever variações de preço tendo como base conjuntos de ações consideradas similares. O objetivo é criar um modelo capaz de prever se o preço de diferentes ações tendem a subir ou não a curto prazo, considerando informações de ações pertencentes a conjuntos similares com base em duas fontes de informações: os dados históricos das ações e as notícias do Google Trends. No estudo proposto, primeiramente é aplicado um método para identificar conjuntos de ações similares para então criar um modelo de predição baseado em redes neurais LSTM (long shortterm memory) para esses conjuntos. Mais especificamente, foram conduzidos dois experimentos: (1) aplicação do algoritmo K-Means para a identificação dos conjuntos de ações similares, seguida da utilização de uma rede neural LSTM para realizar as previsões, e (2) aplicação do algoritmo DBSCAN para a criação dos conjuntos seguida da mesma rede LSTM para prever as variações de preço. O estudo foi realizado em um conjunto com 51 ações do mercado acionário brasileiro, e os experimentos sugeriram que utilizar um método para criar conjuntos de ações similares melhora os resultados em aproximadamente 7 porcento de acurácia e f1-score, e 8 porcento de recall e precision quando comparados a modelos para ações isoladas. / [en] Predicting stock market prices is a hard task. The main reason for that is due to the fact its environment is highly dynamic, intrinsically complex and chaotic. The traditional economic theories tell us that trying to predict short-term stock price movements is a wasted effort because the market is influenced by several external events and its behavior approximates a random walk. Recent studies, such as (37) and (51), address this problem and create specific prediction models for the price behavior of an isolated stock. This work presents a proposal to predict price movements based on stock sets considered similar. Our goal is building a model to identify whether the price tends to bullishness or bearishness in the (near) future, considering stock information from similar sets based on two sources of information: historical stock data and Google Trends news. Firstly, the proposed study applies a method to identify similar stock sets and then creates a predictive model based on LSTM (long short-term memory) for these sets. More specifically, two experiments were conducted: (1) using the K-Means algorithm to identify similar stock sets and then using a LSTM neural network to predict stock price movements for these stock sets; (2) using the DBSCAN algorithm to identify similar stock sets and then using the same LSTM neural network to forecast stock price movements. The study was conducted over 51 stocks of the brazilian stock market. The results suggested that using an algorithm to identify similar stock clusters yields an improvement of approximately 7 percent in accuracy and f1-score and 8 percent in recall and precision when compared to specific models for isolated stocks.
|
4 |
[en] DATA ENRICHMENT BASED ON SIMILARITY GRAPH STATISTICS TO IMPROVE PERFORMANCE IN CLASSIFICATION SUPERVISED ML MODELS / [pt] ENRIQUECIMENTO DE DADOS COM BASE EM ESTATÍSTICAS DE GRAFO DE SIMILARIDADE PARA MELHORAR O DESEMPENHO EM MODELOS DE ML SUPERVISIONADOS DE CLASSIFICAÇÃONEY BARCHILON 19 September 2024 (has links)
[pt] A otimização do desempenho dos modelos de aprendizado de máquina
supervisionados representa um desafio constante, especialmente em contextos
com conjuntos de dados de alta dimensionalidade ou com numerosos atributos
correlacionados. Neste estudo, é proposto um método para o enriquecimento
de conjuntos de dados tabulares, fundamentado na utilização de estatísticas
provenientes de um grafo construído a partir da similaridade entre as instâncias
presentes neste conjunto de dados, buscando capturar correlações estruturais
entre esses dados. As instâncias assumem o papel de vértices no grafo, enquanto
as conexões entre elas refletem sua similaridade. O conjunto de características
originais (FO) é enriquecido com as estatísticas extraídas do grafo (FG)
na busca pela melhora do poder preditivo dos modelos de aprendizado de
máquina. O método foi avaliado em dez conjuntos de dados públicos de
distintas áreas de conhecimento, em dois cenários distintos, sobre sete modelos
de aprendizado de máquina, comparando a predição sobre o conjunto de dados
inicial (FO) com o conjunto de dados enriquecido com as estatísticas extraídas
do seu grafo (FO+FG). Os resultados revelaram melhorias significativas na
métrica de acurácia, com um aprimoramento médio de aproximadamente
4,9 por cento. Além de sua flexibilidade para integração com outras técnicas de
enriquecimento existentes, o método se apresenta como uma alternativa eficaz,
sobretudo em situações em que os conjuntos de dados originais carecem das
características necessárias para as abordagens tradicionais de enriquecimento
com a utilização de grafo. / [en] The optimization of supervised machine learning models performancerepresents a constant challenge, especially in contexts with high-dimensionaldatasets or numerous correlated attributes. In this study, we propose a methodfor enriching tabular datasets, based on the use of statistics derived from agraph constructed from the similarity between instances in the dataset, aimingto capture structural correlations among the data. Instances take on the role ofvertices in the graph, while connections between them reflect their similarity.The original feature set (FO) is enriched with statistics extracted from thegraph (FG) to enhance the predictive power of machine learning models. Themethod was evaluated on ten public datasets from different domains, in twodistinct scenarios, across seven machine learning models, comparing predictionon the initial dataset (FO) with the dataset enriched with statistics extractedfrom its graph (FO+FG). The results revealed significant improvements inaccuracy metrics, with an average enhancement of approximately 4.9 percent. Inaddition to its flexibility for integration with existing enrichment techniques,the method presents itself as a effective alternative, particularly in situationswhere original datasets lack the necessary characteristics for traditional graph-based enrichment approaches.
|
5 |
[en] MULTIOBJETIVE GENETIC ALGORITHM FOR PREDICTING PROTEIN STRUCTURES IN HYDROPHOBIC – POLAR MODEL / [pt] ALGORITMO GENÉTICO MULTIOBJETIVO NA PREDIÇÃO DE ESTRUTURAS PROTEICAS NO MODELO HIDROFÓBICO - POLAREDWIN GERMAN MALDONADO TAVARA 07 October 2014 (has links)
[pt] O problema da predição das estruturas de proteínas (Protein Structure Prediction (PSP)) é um dos desafios mais importantes na biologia molecular. Pelo fato deste problema ser muito difícil, têm sido propostos diferentes modelos simplificados para resolvê-lo. Um dos mais estudados é o modelo, Hidrofóbico-Polar (HP), o modelo HP fornece uma estimativa da energia da proteína com base na soma de interações entre pares de aminoácidos hidrofóbicos (contatos H-H). Entretanto, apesar das simplificações feitas no modelo HP, o problema permanece complexo, pertencendo à classe NP-Difícil. Muitas técnicas têm sido propostas para resolver este problema entre elas, técnicas baseadas em algoritmos genéticos. Em muitos casos, as técnicas baseadas em AG foram usadas com sucesso, mas, no entanto, abordagens utilizando AG muitas vezes não tratam adequadamente as soluções geradas, prejudicando o desempenho da busca. Além disso, mesmo que eles, em alguns casos, consigam atingir o mínimo de energia conhecido para uma conformação, estes modelos não levam em conta a forma da proteína um fator muito importante na hora de obter proteínas mais compactas. Foi desenvolvido um algoritmo genético multiobjetivo para PSP no modelo HP, de modo de avaliar de forma mais eficiente, as conformações produzidas. O modelo utiliza como avaliação uma combinação baseada no número de colisões, número de contatos hidrofóbicos, compactação dos aminoácidos hidrofóbicos e hidrofílicos, obtendo, desta forma estruturas mais naturais e de mínima energia. Os resultados obtidos demonstram a eficiência desse algoritmo na obtenção de estruturas proteicas compactas providenciando indicadores da compactação dos aminoácidos hidrofóbicos e hidrofílicos da proteína. / [en] The problem of protein structured prediction (PSP) is one of the most important challenges in molecular biology. Because this problem is very difficult, different simplified models have been proposed to solve it. One of the most studied is the Hydrophobic-Polar model HP this model provides an estimate of the protein energy based on the sum of hydrophobic contacts. However, despite the simplifications made in the HP model, the problem remains complex, belonging to the class of NP-Hard problems. Many techniques have been proposed to solve this problem as genetic algorithms. In many cases the GA techniques have been used successfully, but, however, with GA approaches often do not adequately address the generated solutions, impairing the performance of the search. Furthermore, in some cases would attain the minimum energy for a known conformation, these models do not take care the protein shape, a very important factor to obtain more compact proteins. This work developed a multiobjective genetic algorithm to PSP in HP model evaluating more efficiently, the conformations produced. This model is a combination of assessment based on the collisions numbers, hydrophobic contacts, hydrophobic and hydrophilic core compression, obtaining thus more natural structures with minimum energy. The results demonstrate the efficiency of this algorithm to obtain protein structures indicators providing compact compression of the hydrophobic and hydrophilic core protein.
|
6 |
[en] EFFECTS OF ATMOSPHERIC MULTIPATH IN LINE-OF -SIGHT MICROWAVE SYSTEMS / [pt] EFEITOS DE MULTIPERCURSOS ATMOSFÉRICOS EM ENLACES DE MICROONDAS EM VISIBILIDADEROQUE ANDRE CIUFO POEYS 20 December 2004 (has links)
[pt] As variações que ocorrem na estrutura da troposfera ao
longo do tempo em
relação à sua condição mediana provocam diversos fenômenos
que fazem variar
aleatoriamente o nível de sinal recebido num enlace rádio.
Estas variações
aleatórias são denominadas desvanecimentos. Os
desvanecimentos são
normalmente classificados em rápidos e lentos. Os
desvanecimentos rápidos estão
geralmente associados ao efeito de multipercurso
atmosférico que é fortemente
dependente da freqüência, sendo por isto denominados
desvanecimentos seletivos,
e são a principal causa de degradação do desempenho de
enlaces rádio digitais de
alta capacidade. Os modelos existentes para a
caracterização estatística do
desvanecimento por multipercurso são semi-empíricos e
baseados em dados
experimentais obtidos em regiões de clima temperado,
acarretando uma má
estimativa quando aplicados a regiões de clima tropical e
equatorial. Neste
trabalho é apresentada uma avaliação dos métodos existentes
para previsão do
desempenho de enlaces rádio digitais de alta capacidade, a
partir da utilização de
dados reais de desempenho extraídos de medidas em um tronco
rádio de alta
capacidade numa região tropical. / [en] The variations which happen in the troposphere layers
throughout the time
in relation to the median condition of the signal cause
various phenomena that
change the received signal level at digital radio relay
systems randomly. The
random changes are named fading. Fading is normally
classified as fast or slow.
The former is normally associated with the atmospheric
multipath propagation
and is strongly dependent on frequency; therefore, this is
named selective fading
and it is normally the cause of performance degradation in
high capacity digital
radio relays. The existing models for statistics of
multipath fading are semi -
empirical and based on experimental data extracts from
regions the climate of
which is temperate; and this gives a rough estimate with
respect to the tropical and
equatorial zones. This work presents an evaluation of
existing methods of
performance prediction for high capacity digital radio
relay systems using real
performance data obtained from measures of a high capacity
digital radio link in
operation in the tropical region.
|
7 |
[en] CORPORATE RATINGS GRADE PREDICTION / [pt] PREDIÇÃO DO GRAU DE RATINGS CORPORATIVOSANDRE SIH 15 February 2007 (has links)
[pt] O objetivo desta dissertação é analisar a relevância de um conjunto inicial
de 18 atributos tais como Despesas Financeiras, Receitas e Liquidez Corrente,
dentre outros, em relação à classificação de risco (grau) de uma empresa:
especulação ou investimento, conforme classificação realizada pela agência
Standard & Poor s. Avaliou-se comparativamente a eficácia de métodos lineares e
não-lineares de seleção de atributos tais como Análise de Componentes
Principais (PCA), Informação Mútua (IM) e Informação Mútua para Seleção de
Atributos com Distribuição Uniforme (MIFS-U) e métodos lineares e não-lineares
de predição tais como Regressão Múltipla Linear, Discriminante Linear de Fisher
e Redes Neurais. Identificou-se através destes métodos e de conhecimento a
priori, um conjunto de cinco fatores (atributos) capaz de estimar com alto índice
de eficácia se o grau de uma empresa é de investimento ou especulação, a saber:
Lucro Líquido, EBIT, Receitas, Valor de Mercado e Setor. / [en] The purpose of this thesis is to analyze and rank the
relevancy of 18
variables to S&P corporate ratings grades assignment.
Beyond, we predict
(classify) the Corporate Grades into two groups -
Investment or Speculative. To achieve this goal, we
applied and compared linear
and non-linear Statistics models and Machine Learning
Techniques (Multiple
Linear Regression, Linear Fisher´s Discriminant, Neural
Networks MLP) and
feature selection methods such as Principal Component
Analysis (PCA),
Correlation, Mutual Information (MI) and Mutual
Information for Features
Selection under Uniform Distribution MIFS-U). The 17 of
the initial set of 18
variables are financial variables such as Net Income,
Interest Expense and Market
Capitalization but one was the corporation´s Sector.
Combining linear and nonlinear
models and a priori knowledge, we identified a subset of
five features (Net
Income, EBIT, Total Revenues, Market Capitalization and
Sector) that together
reached up to 94.32% of success rate for the S&P grade
prediction.
|
8 |
[en] PREDICTING TRENDS IN THE STOCK MARKET / [pt] PREDIZENDO TENDÊNCIAS NA BOLSA DE VALORESJOAO PAULO FORNY DE MELO 02 August 2018 (has links)
[pt] Investidores estão sempre à procura de uma vantagem. Porém, tradicionais teorias financeiras nos dizem que tentar predizer tendências na bolsa de valores é um esforço em vão, uma vez que seguem um passeio aleatório, i.e., um processo estocástico ou randômico. Além disso, afirma-se que o mercado é eficiente de maneira que sempre incorpora e reflete toda informação relevante, o que torna impossível bater o mercado. Recentemente, com o crescimento da web e aumento da disponibilidade de dados em conjunto
com a evolução dos algoritmos de Aprendizado de Máquina, diversos trabalhos tem aplicado técnicas de Processamento de Linguagem Natural em notícias financeiras e dados de redes sociais para prever variações do preço de ações. Consequentemente, estão surgindo fortes evidências que o mercado pode, em algum grau, ser previsto. Este trabalho descreve o desenvolvimento de uma aplicação baseada em Aprendizado de Máquina para realizar a predição de tendências no mercado de ações, i.e., variações negativas, positivas ou neutras de preços com granularidade de minuto. Avaliamos o sistema usando dados de cotação de ações da B3 (Brasil Bolsa Balcão), antiga BM&FBOVESPA, e um dataset de tópicos mais relevantes buscados no Google Search e seus artigos relacionados, que são disponibilizados pela
plataforma Google Trends e coletados, minuto a minuto, de 15/08/2016 até 10/07/2017. Os experimentos mostram que esses dados provêem informação relevante para a tarefa em questão, onde conseguimos uma acurácia de 69.24 porcento para a predição de tendências do ativo PETR4, criando alguma / [en] Investors are always looking for an edge. However, traditional economic theories tell us that trying to predict short-term stock price movements is wasted effort, since it approximate a random walk, i.e., a stochastic or random process. Besides, these theories state that the market is efficient enough to always incorporate and reflect all relevant information, making it impossible to beat the market. In recent years, with the growth of the web and data availability in conjunction with advances in Machine Learning, a number of works are using Natural Language Processing to predict share price variations based on financial news and social networks data. Therefore, strong evidences are surfacing that the market can, in some level, be predicted. This work describes the development of an application based on Machine Learning to predict trends in the stock market, i.e., positive, negative or neutral price variations with minute granularity. We evaluate our system using B3 (Brasil Bolsa Balcão), formerly BM&FBOVESPA, stock quotes data, and a dataset with the most relevant topics of Google Search and its related articles, provided by the Google Trends platform and collected, minute by minute, from 08/15/2016 to 07/10/2017. The
experiments show that this data provides useful information to the task at hand, in which we achieve 69.24 per cent accuracy predicting trends for the PETR4 stock, creating some leverage to make profits possible with intraday trading.
|
9 |
[en] MULTI-RESOLUTION OF OUT-OF-CORE TERRAIN GEOMETRY / [pt] MULTI-RESOLUÇÃO DE GEOMETRIA DE TERRENOS ARMAZENADOS EM MEMÓRIA SECUNDÁRIALUIZ GUSTAVO BUSTAMANTE MAGALHAES 07 March 2006 (has links)
[pt] Visualização de grandes terrenos é um assunto desafiador
em computação gráfica. O número de polígonos necessário
para representar fielmente a geometria de um terreno pode
ser muito alto para ser processado em tempo real. Para
resolver tal problema, utiliza-se um algoritmo de multi-
resolução, que envia para o processador gráfico (GPU)
somente os polígonos mais importantes, sem que haja uma
perda na qualidade visual. A quantidade de dados é um
outro grande problema, pois facilmente excede a quantidade
de memória RAM do computador. Desta forma, um sistema de
gerenciamento de dados que não estão em memória principal
também é necessário. Este trabalho propõe uma solução
simples e escalável para visualizar a geometria de grandes
terrenos baseada em três pontos chaves: uma estrutura de
dados para representar o terreno em multi-resolução; um
sistema eficiente de visualização; e um sistema de
paginação e predição dos dados. A estrutura de dados
utilizada, assim como em outros trabalhos similares, é a
quadtree. Esta escolha justifica-se pela simplicidade,
além da eficiência e baixo consumo de memória de uma
implementação em vetor. Cada nó da quadtree representa um
ladrilho do terreno. A implementação é dividida em duas
linhas de execução (threads), uma para gerenciamento dos
ladrilhos e outra para visualização. A linha de execução
de gerenciamento de ladrilhos é responsável por
carregar/remover ladrilhos para/da memória. Esta linha de
execução utiliza um mecanismo de predição de movimento da
câmera para carregar ladrilhos que possam ser utilizados
em um futuro próximo, e remover ladrilhos que
provavelmente não serão necessários. A linha de execução
de visualização é responsável por visualizar o terreno,
fazendo cálculo do erro projetado, eliminando ladrilhos
não visíveis e balanceando a estrutura de quadtree para
eliminar buracos ou vértices T na superfície do terreno. A
visualização pode ser feita de duas formas distintas:
baseada no erro máximo tolerado ou na quantidade máxima de
polígonos a ser processado. / [en] The visualization of large terrains is a challenging
Computer Graphics issue.
The number of polygons required to faithfully represent a
terrain`s geometry
can be too high for real-time visualization. To solve this
problem, a multiresolution
algorithm is used to feed the graphics processor only with
the
most important polygons, without visual quality loss. The
amount of data
is another important problem, as it can easily exceed a
computer`s RAM.
Thus, a system to manage out-of-core data is also
required. The present
work proposes a simple and scalable solution to visualize
the geometry
of large terrains based on three key points: a data
structure to represent
the terrain in multi-resolution, an efficient
visualization system and a data
paging and prediction system. Similarly to other works,
the system uses a
quadtree data structure due to its simplicity, along with
the efficiency and
the low memory use of an array-based implementation. Each
node of the
quadtree represents a tile of the terrain. The
implementation is divided in
two threads, one to manage the tiles and the other for
visualization. The
tile-management thread is responsible for
loading/unloading tiles into/from
the memory. This thread uses a camera-movement prediction
mechanism
to load tiles that can be used in the near future and to
remove tiles that
probably will not be necessary. The visualization thread
is responsible for
viewing the terrain, computing the projected error,
eliminating tiles that
are not visible and balancing the quadtree structure in
order to eliminate
cracks or T-vertices on the terrain`s surface. The
visualization can be made
by means of a fidelity-based or a budget-based approach.
|
10 |
[en] THE USE OF ARTIFICIAL INTELLIGENT FOR PREDICTING CONCRETE DRYING SHRINKAGE / [pt] USO DA INTELIGÊNCIA ARTIFICIAL PARA PREDIÇÃO DA RETRAÇÃO POR SECAGEM DO CONCRETODIOGO FARIA DE SOUSA 24 January 2024 (has links)
[pt] Devido a variações volumétricas do concreto, a compreensão dos mecanismos da retração tornou-se ponto importante para redução de fissuras e, consequentemente, da penetração de agentes agressivos. Apesar do aumento do número de estudos experimentais de retração por secagem e autógena ainda é necessário o desenvolvimento de novos modelos analíticos e numéricos para a predição da retração apoiando assim o projeto de estruturas de concreto. Este estudo propôs um modelo de redes neurais artificiais para a predição da retração por secagem do concreto. Um banco de dados nacionais contendo 689 leituras de retração por secagem em mais de 90 dosagens diferentes de concreto convencional foi construído, de acordo com a NBR 16834. O modelo teve como dados de entrada para a predição da retração o consumo e tipo de cimento, aditivo retardador e plastificante, compensador de retração, relação água/cimento e idade do concreto. O modelo apresentou coeficientes de determinação (R²) para dados de treino e teste acima de 0,998 e 0,906, respectivamente, comprovando que o modelo é uma importante ferramenta para a predição da retração por secagem para tomadas de decisão durante os estudos iniciais na fase de projeto e dosagem do concreto. / [en] Due to volume change effects of concrete, understanding the mechanisms of shrinkage has become an important point for reducing cracks and, consequently, the penetration of deleterious agents into concrete structures. Despite the increase in experimental studies on concrete drying and autogenous shrinkage there is still a need to develop new analytical and numerical methods to predict shrinkage supporting the design of concrete structures. This study proposed an Artificial Neural Network (ANN) model to predict the concrete drying shrinkage. A national database containing 689 experimental shrinkage data records, in more than 90 different mixtures of conventional concrete was constructed, in accordance with NBR 16834. The model had as input data for predicting shrinkage the consumption and type of cement, retarding and plasticizer additive, shrinkage compensator, water/cement ratio and age of concrete. The model presented coefficients of determination(R²) for training and test data above 0,998 and 0,906, proving that the model is an important tool for predicting drying shrinkage for decision making during the initial study in the design phase and concrete mix design.
|
Page generated in 0.0615 seconds