• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 3
  • Tagged with
  • 14
  • 14
  • 8
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] IDENTIFICATION, FILTERING AND FORECASTING OF ARMA/TF AND STATE MODELS / [pt] IDENTIFICAÇÃO, FILTRAGEM E PREDIÇÃO PARA MODELOS ARMA/FT E DE ESTADO

JACK BACZYNSKI 19 October 2009 (has links)
[pt] Um método satisfatório para a caracterização de problemas não determinísticos é a identificação de modelos dinâmicos representativos destes problemas. Faz-se inicialmente uma análise comparativa quanto ao domínio, equivalência e adequação de modelos de parâmetro discreto da classe ARMA, de função de Transferência (FT) e de estado, não necessariamente escalares ou invariantes. A seguir, examinam-se aspectos dos procedimentos usuais de identificação destes modelos. O problema de estimação de processos, abordado através do processo de inovações, objetiva um desenvolvimento gradual dos conceitos, no que se refere à determinação da estrutura do modelo. Seguem-se comparações entre algorítmos recursivos de estimação (Kalman e outros), abordando-se o problema da propriedade finitamente recursiva e de convergência. Em geral, as técnicas de identificação conduzem a mais de um modelo passível de ser utilizado na caracterização do processo. O problema de se escolher entre estes modelos é formulado como um problema de teste de hipóteses, ao qual se aplica a técnica de Máxima Verossimilhança, indistintamente para modelos ARMA, FT e de estado. A resolução do teste é imediata a partir do processo de inovações, tendo-se, no caso de modelos ARMA/FT, algumas alternativas bastante simplificadas. A aplicação do teste de hipóteses, no caso não-Gaussiana, é também enfocada. / [en] Non-deterministic problems can be adequately characterized by identifying dynamic models that can represent them. Early in the study, a comparative analysis of the range, equivalence and adequacy of the models is initially performed. Types of models considered in this work are ARMA, transfer function and State models of discrete parameter, not necessarilly scalar or invariant. The usual identification methods are then succinttly examined and compared. The estimation problem of stochastic processes, using the innovation processes, using the innovation process approach, is also analyzed, with a view to a gradual development of concepts as regards the determination of the model structure. Recursive estimation algorithms (Kalman and others) are then compared, and the problem of finitely recursive properties and convergence is examined. Identification thecniques usually leod to more than one model capable of characterizing the stochastic process. The problem of choosing between these models is formulated as a hypothesis testing problem, to which the Maximum Likelyhood thecnique is applied. Test resolution follows immediately from the innovation process, and can indistinctly be applied to ARMA, Transfer Function or state models. In the case of ARMA and Transfer Function models, an even more simplified result can be obtained. The application of hypothesis testing to the non-Gausian assumption is also brought to focus.
2

[en] PREDICTION OF WHITE SPACES FOR COGNITIVE RADIOS: METHODOLOGY, ALGORITHMS, SIMULATION AND PERFORMANCE / [pt] PREDIÇÃO DE INTERVALOS ESPECTRAIS PARA USO DE RÁDIOS COGNITIVOS: METODOLOGIA, ALGORITMOS, SIMULAÇÃO E DESEMPENHO

ANGELO ANTONIO CALDEIRA CANAVITSAS 28 July 2016 (has links)
[pt] A tecnologia de rádio cognitivo está em pleno desenvolvimento na academia e indústria, sendo apresentada como uma solução para o reduzir o congestionamento do espectro radioelétrico. Dessa forma, diversos estudos têm sido desenvolvidos para obter novas técnicas de compartilhamento do espectro entre usuários ditos primários e secundários. Estas técnicas devem ser robustas o suficiente para minimizar as colisões de ocupação do espectro entre os usuários supracitados, quando o acesso dinâmico ao espectro for aplicado. O presente estudo investigou as soluções de ocupação compartilhada do espectro, em especial nos para serviços de voz na faixa de 450 MHz. A modelagem de ocupação dos canais, a partir de medidas de transmissões reais, permitiu o desenvolvimento de algoritmo robusto que realiza a predição de espaços espectrais (white spaces) dentro de canais destinados a usuários primários. Esse método proposto define, estatisticamente, uma janela de intervalos de tempo futuros que pode ser utilizada por usuários secundários, por apresentar maior probabilidade de possuir espaços espectrais livres, minimizando as possíveis colisões. O emprego do método proposto aumenta a vazão de informações de modo seguro e,com alto desempenho, otimizando,assim,a utilização do espectro radioelétrico. / [en] The cognitive radio technology is being developedin universities and industry as a solution to the radio spectrum scarcity. This technology willallow spectrum sharing between primary and secondary telecommunication users. The techniques employed must be robust enough to minimize spectrum occupancy collisions, when the dynamic spectrum access is applied. This study investigates the trends of spectrum usersoccupation, particularly in voice services in the 450 MHz frequency band.An users occupancy model was developed taking into accountmeasured data of real transmissions. It allowed the development of a robust algorithm that predicts spectral vacancy in channels allocated to primary users. The method selects, statistically, a group of future time intervals that can be used by secondary users, due to a higher probability of having a free spectral space. The use of this new technique minimizes possible collisions, increasing the flow of information in secure way and optimizing the radio spectrum use.
3

[pt] AGRUPAMENTO DE AÇÕES POR EMBEDDINGS TEXTUAIS NA PREVISÃO DE PREÇOS / [en] STOCK CLUSTERING BASED ON TEXTUAL EMBEDDINGS APPLIED TO PRICE PREDICTION

ANDRE DAVYS CARVALHO MELO DE OLIVEIRA 17 August 2020 (has links)
[pt] Realizar previsões de preços no mercado de ações é uma tarefa difícil devido ao fato de o mercado financeiro ser um ambiente altamente dinâmico, complexo e caótico. Para algumas teorias financeiras, usar as informações disponíveis para tentar prever o preço de uma ação a curto prazo é um esforço em vão já que ele sofre a influência de diversos fatores externos e, em decorrência, sua variação assemelha-se à de um passeio aleatório. Estudos recentes, como (37) e (51), abordam o problema com modelos de predição específicos para o comportamento do preço de uma ação isolada. Neste trabalho, apresenta-se uma proposta para prever variações de preço tendo como base conjuntos de ações consideradas similares. O objetivo é criar um modelo capaz de prever se o preço de diferentes ações tendem a subir ou não a curto prazo, considerando informações de ações pertencentes a conjuntos similares com base em duas fontes de informações: os dados históricos das ações e as notícias do Google Trends. No estudo proposto, primeiramente é aplicado um método para identificar conjuntos de ações similares para então criar um modelo de predição baseado em redes neurais LSTM (long shortterm memory) para esses conjuntos. Mais especificamente, foram conduzidos dois experimentos: (1) aplicação do algoritmo K-Means para a identificação dos conjuntos de ações similares, seguida da utilização de uma rede neural LSTM para realizar as previsões, e (2) aplicação do algoritmo DBSCAN para a criação dos conjuntos seguida da mesma rede LSTM para prever as variações de preço. O estudo foi realizado em um conjunto com 51 ações do mercado acionário brasileiro, e os experimentos sugeriram que utilizar um método para criar conjuntos de ações similares melhora os resultados em aproximadamente 7 porcento de acurácia e f1-score, e 8 porcento de recall e precision quando comparados a modelos para ações isoladas. / [en] Predicting stock market prices is a hard task. The main reason for that is due to the fact its environment is highly dynamic, intrinsically complex and chaotic. The traditional economic theories tell us that trying to predict short-term stock price movements is a wasted effort because the market is influenced by several external events and its behavior approximates a random walk. Recent studies, such as (37) and (51), address this problem and create specific prediction models for the price behavior of an isolated stock. This work presents a proposal to predict price movements based on stock sets considered similar. Our goal is building a model to identify whether the price tends to bullishness or bearishness in the (near) future, considering stock information from similar sets based on two sources of information: historical stock data and Google Trends news. Firstly, the proposed study applies a method to identify similar stock sets and then creates a predictive model based on LSTM (long short-term memory) for these sets. More specifically, two experiments were conducted: (1) using the K-Means algorithm to identify similar stock sets and then using a LSTM neural network to predict stock price movements for these stock sets; (2) using the DBSCAN algorithm to identify similar stock sets and then using the same LSTM neural network to forecast stock price movements. The study was conducted over 51 stocks of the brazilian stock market. The results suggested that using an algorithm to identify similar stock clusters yields an improvement of approximately 7 percent in accuracy and f1-score and 8 percent in recall and precision when compared to specific models for isolated stocks.
4

[en] DATA ENRICHMENT BASED ON SIMILARITY GRAPH STATISTICS TO IMPROVE PERFORMANCE IN CLASSIFICATION SUPERVISED ML MODELS / [pt] ENRIQUECIMENTO DE DADOS COM BASE EM ESTATÍSTICAS DE GRAFO DE SIMILARIDADE PARA MELHORAR O DESEMPENHO EM MODELOS DE ML SUPERVISIONADOS DE CLASSIFICAÇÃO

NEY BARCHILON 19 September 2024 (has links)
[pt] A otimização do desempenho dos modelos de aprendizado de máquina supervisionados representa um desafio constante, especialmente em contextos com conjuntos de dados de alta dimensionalidade ou com numerosos atributos correlacionados. Neste estudo, é proposto um método para o enriquecimento de conjuntos de dados tabulares, fundamentado na utilização de estatísticas provenientes de um grafo construído a partir da similaridade entre as instâncias presentes neste conjunto de dados, buscando capturar correlações estruturais entre esses dados. As instâncias assumem o papel de vértices no grafo, enquanto as conexões entre elas refletem sua similaridade. O conjunto de características originais (FO) é enriquecido com as estatísticas extraídas do grafo (FG) na busca pela melhora do poder preditivo dos modelos de aprendizado de máquina. O método foi avaliado em dez conjuntos de dados públicos de distintas áreas de conhecimento, em dois cenários distintos, sobre sete modelos de aprendizado de máquina, comparando a predição sobre o conjunto de dados inicial (FO) com o conjunto de dados enriquecido com as estatísticas extraídas do seu grafo (FO+FG). Os resultados revelaram melhorias significativas na métrica de acurácia, com um aprimoramento médio de aproximadamente 4,9 por cento. Além de sua flexibilidade para integração com outras técnicas de enriquecimento existentes, o método se apresenta como uma alternativa eficaz, sobretudo em situações em que os conjuntos de dados originais carecem das características necessárias para as abordagens tradicionais de enriquecimento com a utilização de grafo. / [en] The optimization of supervised machine learning models performancerepresents a constant challenge, especially in contexts with high-dimensionaldatasets or numerous correlated attributes. In this study, we propose a methodfor enriching tabular datasets, based on the use of statistics derived from agraph constructed from the similarity between instances in the dataset, aimingto capture structural correlations among the data. Instances take on the role ofvertices in the graph, while connections between them reflect their similarity.The original feature set (FO) is enriched with statistics extracted from thegraph (FG) to enhance the predictive power of machine learning models. Themethod was evaluated on ten public datasets from different domains, in twodistinct scenarios, across seven machine learning models, comparing predictionon the initial dataset (FO) with the dataset enriched with statistics extractedfrom its graph (FO+FG). The results revealed significant improvements inaccuracy metrics, with an average enhancement of approximately 4.9 percent. Inaddition to its flexibility for integration with existing enrichment techniques,the method presents itself as a effective alternative, particularly in situationswhere original datasets lack the necessary characteristics for traditional graph-based enrichment approaches.
5

[en] MULTIOBJETIVE GENETIC ALGORITHM FOR PREDICTING PROTEIN STRUCTURES IN HYDROPHOBIC – POLAR MODEL / [pt] ALGORITMO GENÉTICO MULTIOBJETIVO NA PREDIÇÃO DE ESTRUTURAS PROTEICAS NO MODELO HIDROFÓBICO - POLAR

EDWIN GERMAN MALDONADO TAVARA 07 October 2014 (has links)
[pt] O problema da predição das estruturas de proteínas (Protein Structure Prediction (PSP)) é um dos desafios mais importantes na biologia molecular. Pelo fato deste problema ser muito difícil, têm sido propostos diferentes modelos simplificados para resolvê-lo. Um dos mais estudados é o modelo, Hidrofóbico-Polar (HP), o modelo HP fornece uma estimativa da energia da proteína com base na soma de interações entre pares de aminoácidos hidrofóbicos (contatos H-H). Entretanto, apesar das simplificações feitas no modelo HP, o problema permanece complexo, pertencendo à classe NP-Difícil. Muitas técnicas têm sido propostas para resolver este problema entre elas, técnicas baseadas em algoritmos genéticos. Em muitos casos, as técnicas baseadas em AG foram usadas com sucesso, mas, no entanto, abordagens utilizando AG muitas vezes não tratam adequadamente as soluções geradas, prejudicando o desempenho da busca. Além disso, mesmo que eles, em alguns casos, consigam atingir o mínimo de energia conhecido para uma conformação, estes modelos não levam em conta a forma da proteína um fator muito importante na hora de obter proteínas mais compactas. Foi desenvolvido um algoritmo genético multiobjetivo para PSP no modelo HP, de modo de avaliar de forma mais eficiente, as conformações produzidas. O modelo utiliza como avaliação uma combinação baseada no número de colisões, número de contatos hidrofóbicos, compactação dos aminoácidos hidrofóbicos e hidrofílicos, obtendo, desta forma estruturas mais naturais e de mínima energia. Os resultados obtidos demonstram a eficiência desse algoritmo na obtenção de estruturas proteicas compactas providenciando indicadores da compactação dos aminoácidos hidrofóbicos e hidrofílicos da proteína. / [en] The problem of protein structured prediction (PSP) is one of the most important challenges in molecular biology. Because this problem is very difficult, different simplified models have been proposed to solve it. One of the most studied is the Hydrophobic-Polar model HP this model provides an estimate of the protein energy based on the sum of hydrophobic contacts. However, despite the simplifications made in the HP model, the problem remains complex, belonging to the class of NP-Hard problems. Many techniques have been proposed to solve this problem as genetic algorithms. In many cases the GA techniques have been used successfully, but, however, with GA approaches often do not adequately address the generated solutions, impairing the performance of the search. Furthermore, in some cases would attain the minimum energy for a known conformation, these models do not take care the protein shape, a very important factor to obtain more compact proteins. This work developed a multiobjective genetic algorithm to PSP in HP model evaluating more efficiently, the conformations produced. This model is a combination of assessment based on the collisions numbers, hydrophobic contacts, hydrophobic and hydrophilic core compression, obtaining thus more natural structures with minimum energy. The results demonstrate the efficiency of this algorithm to obtain protein structures indicators providing compact compression of the hydrophobic and hydrophilic core protein.
6

[en] EFFECTS OF ATMOSPHERIC MULTIPATH IN LINE-OF -SIGHT MICROWAVE SYSTEMS / [pt] EFEITOS DE MULTIPERCURSOS ATMOSFÉRICOS EM ENLACES DE MICROONDAS EM VISIBILIDADE

ROQUE ANDRE CIUFO POEYS 20 December 2004 (has links)
[pt] As variações que ocorrem na estrutura da troposfera ao longo do tempo em relação à sua condição mediana provocam diversos fenômenos que fazem variar aleatoriamente o nível de sinal recebido num enlace rádio. Estas variações aleatórias são denominadas desvanecimentos. Os desvanecimentos são normalmente classificados em rápidos e lentos. Os desvanecimentos rápidos estão geralmente associados ao efeito de multipercurso atmosférico que é fortemente dependente da freqüência, sendo por isto denominados desvanecimentos seletivos, e são a principal causa de degradação do desempenho de enlaces rádio digitais de alta capacidade. Os modelos existentes para a caracterização estatística do desvanecimento por multipercurso são semi-empíricos e baseados em dados experimentais obtidos em regiões de clima temperado, acarretando uma má estimativa quando aplicados a regiões de clima tropical e equatorial. Neste trabalho é apresentada uma avaliação dos métodos existentes para previsão do desempenho de enlaces rádio digitais de alta capacidade, a partir da utilização de dados reais de desempenho extraídos de medidas em um tronco rádio de alta capacidade numa região tropical. / [en] The variations which happen in the troposphere layers throughout the time in relation to the median condition of the signal cause various phenomena that change the received signal level at digital radio relay systems randomly. The random changes are named fading. Fading is normally classified as fast or slow. The former is normally associated with the atmospheric multipath propagation and is strongly dependent on frequency; therefore, this is named selective fading and it is normally the cause of performance degradation in high capacity digital radio relays. The existing models for statistics of multipath fading are semi - empirical and based on experimental data extracts from regions the climate of which is temperate; and this gives a rough estimate with respect to the tropical and equatorial zones. This work presents an evaluation of existing methods of performance prediction for high capacity digital radio relay systems using real performance data obtained from measures of a high capacity digital radio link in operation in the tropical region.
7

[en] CORPORATE RATINGS GRADE PREDICTION / [pt] PREDIÇÃO DO GRAU DE RATINGS CORPORATIVOS

ANDRE SIH 15 February 2007 (has links)
[pt] O objetivo desta dissertação é analisar a relevância de um conjunto inicial de 18 atributos tais como Despesas Financeiras, Receitas e Liquidez Corrente, dentre outros, em relação à classificação de risco (grau) de uma empresa: especulação ou investimento, conforme classificação realizada pela agência Standard & Poor s. Avaliou-se comparativamente a eficácia de métodos lineares e não-lineares de seleção de atributos tais como Análise de Componentes Principais (PCA), Informação Mútua (IM) e Informação Mútua para Seleção de Atributos com Distribuição Uniforme (MIFS-U) e métodos lineares e não-lineares de predição tais como Regressão Múltipla Linear, Discriminante Linear de Fisher e Redes Neurais. Identificou-se através destes métodos e de conhecimento a priori, um conjunto de cinco fatores (atributos) capaz de estimar com alto índice de eficácia se o grau de uma empresa é de investimento ou especulação, a saber: Lucro Líquido, EBIT, Receitas, Valor de Mercado e Setor. / [en] The purpose of this thesis is to analyze and rank the relevancy of 18 variables to S&P corporate ratings grades assignment. Beyond, we predict (classify) the Corporate Grades into two groups - Investment or Speculative. To achieve this goal, we applied and compared linear and non-linear Statistics models and Machine Learning Techniques (Multiple Linear Regression, Linear Fisher´s Discriminant, Neural Networks MLP) and feature selection methods such as Principal Component Analysis (PCA), Correlation, Mutual Information (MI) and Mutual Information for Features Selection under Uniform Distribution MIFS-U). The 17 of the initial set of 18 variables are financial variables such as Net Income, Interest Expense and Market Capitalization but one was the corporation´s Sector. Combining linear and nonlinear models and a priori knowledge, we identified a subset of five features (Net Income, EBIT, Total Revenues, Market Capitalization and Sector) that together reached up to 94.32% of success rate for the S&P grade prediction.
8

[en] PREDICTING TRENDS IN THE STOCK MARKET / [pt] PREDIZENDO TENDÊNCIAS NA BOLSA DE VALORES

JOAO PAULO FORNY DE MELO 02 August 2018 (has links)
[pt] Investidores estão sempre à procura de uma vantagem. Porém, tradicionais teorias financeiras nos dizem que tentar predizer tendências na bolsa de valores é um esforço em vão, uma vez que seguem um passeio aleatório, i.e., um processo estocástico ou randômico. Além disso, afirma-se que o mercado é eficiente de maneira que sempre incorpora e reflete toda informação relevante, o que torna impossível bater o mercado. Recentemente, com o crescimento da web e aumento da disponibilidade de dados em conjunto com a evolução dos algoritmos de Aprendizado de Máquina, diversos trabalhos tem aplicado técnicas de Processamento de Linguagem Natural em notícias financeiras e dados de redes sociais para prever variações do preço de ações. Consequentemente, estão surgindo fortes evidências que o mercado pode, em algum grau, ser previsto. Este trabalho descreve o desenvolvimento de uma aplicação baseada em Aprendizado de Máquina para realizar a predição de tendências no mercado de ações, i.e., variações negativas, positivas ou neutras de preços com granularidade de minuto. Avaliamos o sistema usando dados de cotação de ações da B3 (Brasil Bolsa Balcão), antiga BM&FBOVESPA, e um dataset de tópicos mais relevantes buscados no Google Search e seus artigos relacionados, que são disponibilizados pela plataforma Google Trends e coletados, minuto a minuto, de 15/08/2016 até 10/07/2017. Os experimentos mostram que esses dados provêem informação relevante para a tarefa em questão, onde conseguimos uma acurácia de 69.24 porcento para a predição de tendências do ativo PETR4, criando alguma / [en] Investors are always looking for an edge. However, traditional economic theories tell us that trying to predict short-term stock price movements is wasted effort, since it approximate a random walk, i.e., a stochastic or random process. Besides, these theories state that the market is efficient enough to always incorporate and reflect all relevant information, making it impossible to beat the market. In recent years, with the growth of the web and data availability in conjunction with advances in Machine Learning, a number of works are using Natural Language Processing to predict share price variations based on financial news and social networks data. Therefore, strong evidences are surfacing that the market can, in some level, be predicted. This work describes the development of an application based on Machine Learning to predict trends in the stock market, i.e., positive, negative or neutral price variations with minute granularity. We evaluate our system using B3 (Brasil Bolsa Balcão), formerly BM&FBOVESPA, stock quotes data, and a dataset with the most relevant topics of Google Search and its related articles, provided by the Google Trends platform and collected, minute by minute, from 08/15/2016 to 07/10/2017. The experiments show that this data provides useful information to the task at hand, in which we achieve 69.24 per cent accuracy predicting trends for the PETR4 stock, creating some leverage to make profits possible with intraday trading.
9

[en] MULTI-RESOLUTION OF OUT-OF-CORE TERRAIN GEOMETRY / [pt] MULTI-RESOLUÇÃO DE GEOMETRIA DE TERRENOS ARMAZENADOS EM MEMÓRIA SECUNDÁRIA

LUIZ GUSTAVO BUSTAMANTE MAGALHAES 07 March 2006 (has links)
[pt] Visualização de grandes terrenos é um assunto desafiador em computação gráfica. O número de polígonos necessário para representar fielmente a geometria de um terreno pode ser muito alto para ser processado em tempo real. Para resolver tal problema, utiliza-se um algoritmo de multi- resolução, que envia para o processador gráfico (GPU) somente os polígonos mais importantes, sem que haja uma perda na qualidade visual. A quantidade de dados é um outro grande problema, pois facilmente excede a quantidade de memória RAM do computador. Desta forma, um sistema de gerenciamento de dados que não estão em memória principal também é necessário. Este trabalho propõe uma solução simples e escalável para visualizar a geometria de grandes terrenos baseada em três pontos chaves: uma estrutura de dados para representar o terreno em multi-resolução; um sistema eficiente de visualização; e um sistema de paginação e predição dos dados. A estrutura de dados utilizada, assim como em outros trabalhos similares, é a quadtree. Esta escolha justifica-se pela simplicidade, além da eficiência e baixo consumo de memória de uma implementação em vetor. Cada nó da quadtree representa um ladrilho do terreno. A implementação é dividida em duas linhas de execução (threads), uma para gerenciamento dos ladrilhos e outra para visualização. A linha de execução de gerenciamento de ladrilhos é responsável por carregar/remover ladrilhos para/da memória. Esta linha de execução utiliza um mecanismo de predição de movimento da câmera para carregar ladrilhos que possam ser utilizados em um futuro próximo, e remover ladrilhos que provavelmente não serão necessários. A linha de execução de visualização é responsável por visualizar o terreno, fazendo cálculo do erro projetado, eliminando ladrilhos não visíveis e balanceando a estrutura de quadtree para eliminar buracos ou vértices T na superfície do terreno. A visualização pode ser feita de duas formas distintas: baseada no erro máximo tolerado ou na quantidade máxima de polígonos a ser processado. / [en] The visualization of large terrains is a challenging Computer Graphics issue. The number of polygons required to faithfully represent a terrain`s geometry can be too high for real-time visualization. To solve this problem, a multiresolution algorithm is used to feed the graphics processor only with the most important polygons, without visual quality loss. The amount of data is another important problem, as it can easily exceed a computer`s RAM. Thus, a system to manage out-of-core data is also required. The present work proposes a simple and scalable solution to visualize the geometry of large terrains based on three key points: a data structure to represent the terrain in multi-resolution, an efficient visualization system and a data paging and prediction system. Similarly to other works, the system uses a quadtree data structure due to its simplicity, along with the efficiency and the low memory use of an array-based implementation. Each node of the quadtree represents a tile of the terrain. The implementation is divided in two threads, one to manage the tiles and the other for visualization. The tile-management thread is responsible for loading/unloading tiles into/from the memory. This thread uses a camera-movement prediction mechanism to load tiles that can be used in the near future and to remove tiles that probably will not be necessary. The visualization thread is responsible for viewing the terrain, computing the projected error, eliminating tiles that are not visible and balancing the quadtree structure in order to eliminate cracks or T-vertices on the terrain`s surface. The visualization can be made by means of a fidelity-based or a budget-based approach.
10

[en] THE USE OF ARTIFICIAL INTELLIGENT FOR PREDICTING CONCRETE DRYING SHRINKAGE / [pt] USO DA INTELIGÊNCIA ARTIFICIAL PARA PREDIÇÃO DA RETRAÇÃO POR SECAGEM DO CONCRETO

DIOGO FARIA DE SOUSA 24 January 2024 (has links)
[pt] Devido a variações volumétricas do concreto, a compreensão dos mecanismos da retração tornou-se ponto importante para redução de fissuras e, consequentemente, da penetração de agentes agressivos. Apesar do aumento do número de estudos experimentais de retração por secagem e autógena ainda é necessário o desenvolvimento de novos modelos analíticos e numéricos para a predição da retração apoiando assim o projeto de estruturas de concreto. Este estudo propôs um modelo de redes neurais artificiais para a predição da retração por secagem do concreto. Um banco de dados nacionais contendo 689 leituras de retração por secagem em mais de 90 dosagens diferentes de concreto convencional foi construído, de acordo com a NBR 16834. O modelo teve como dados de entrada para a predição da retração o consumo e tipo de cimento, aditivo retardador e plastificante, compensador de retração, relação água/cimento e idade do concreto. O modelo apresentou coeficientes de determinação (R²) para dados de treino e teste acima de 0,998 e 0,906, respectivamente, comprovando que o modelo é uma importante ferramenta para a predição da retração por secagem para tomadas de decisão durante os estudos iniciais na fase de projeto e dosagem do concreto. / [en] Due to volume change effects of concrete, understanding the mechanisms of shrinkage has become an important point for reducing cracks and, consequently, the penetration of deleterious agents into concrete structures. Despite the increase in experimental studies on concrete drying and autogenous shrinkage there is still a need to develop new analytical and numerical methods to predict shrinkage supporting the design of concrete structures. This study proposed an Artificial Neural Network (ANN) model to predict the concrete drying shrinkage. A national database containing 689 experimental shrinkage data records, in more than 90 different mixtures of conventional concrete was constructed, in accordance with NBR 16834. The model had as input data for predicting shrinkage the consumption and type of cement, retarding and plasticizer additive, shrinkage compensator, water/cement ratio and age of concrete. The model presented coefficients of determination(R²) for training and test data above 0,998 and 0,906, proving that the model is an important tool for predicting drying shrinkage for decision making during the initial study in the design phase and concrete mix design.

Page generated in 0.1145 seconds