• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 192
  • 89
  • 5
  • 1
  • 1
  • Tagged with
  • 290
  • 186
  • 156
  • 151
  • 132
  • 68
  • 41
  • 41
  • 34
  • 34
  • 31
  • 30
  • 29
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

[en] A STUDY ON NEURAL NETWORKS FOR POKER PLAYING AGENTS / [pt] UM ESTUDO EM REDES NEURAIS PARA AGENTES JOGADORES DE PÔQUER

ALEXANDRE MARANGONI COSTA 12 May 2020 (has links)
[pt] A ciência de dados precisa de uma grande quantidade de dados para testar e melhorar soluções. Jogos são largamente usados para abstrair situações da vida real. Rodadas de pôquer são um bom exemplo pois, por não saber as cartas dos oponentes, o jogador analisa um cenário de informação incompleta numa competição de agentes que envolve conhecimento probabilístico, análise de risco e brefe. Isso o diferencia de xadrez, damas e jogos de conhecimento perfeito e algoritmos de busca em forca bruta sobre o espaço de soluções. Usar o pôquer como um caso de teste possibilita a análise de diferentes abordagens usadas na vida real, porém num cenário mais controlado. Esta dissertação propõe um arcabouço de funcionalidades para criar e testar diferentes algorítimos de Deep Learning, que podem jogar pôquer entre sí, aprender com o histórico e maximizar suas recompensas. / [en] Data science research needs real examples to test and improve solutions. Games are widely used to mimic those real-world examples. Poker rounds are a good example of imperfect information state with competing agents dealing with probabilistic knowledge, risk assessment, and possible deception, unlike chess, checkers and perfect information brute-force search style of games. By using poker as a test-bed we can analyze different approaches used in real-world examples, in a more controlled environment, which should give great insights on how to tackle those real-world scenarios. We propose a framework to build and test different neural networks that can play against each other, learn from a supervised experience and maximize its rewards.
222

[en] CONVOLUTIONAL NETWORKS APPLIED TO SEISMIC NOISE CLASSIFICATION / [pt] REDES CONVOLUCIONAIS APLICADAS À CLASSIFICAÇÃO DE RUÍDO SÍSMICO

EDUARDO BETINE BUCKER 24 March 2021 (has links)
[pt] Modelos baseados em redes neurais profundas como as Redes Neurais Convolucionais proporcionaram avanços significativos em diversas áreas da computação. No entanto, essa tecnologia é ainda pouco aplicada à predição de qualidade sísmica, que é uma atividade relevante para exploração de hidrocarbonetos. Ser capaz de, rapidamente, classificar o ruído presente em aquisições de dados sísmicos permite aceitar ou rejeitar essas aquisições de forma eficiente, o que além de economizar recursos também melhora a interpretabilidade dos dados. Neste trabalho apresenta-se um dataset criado a partir de 6.918 aquisições manualmente classificadas pela percepção de especialistas e pesquisadores, que serviu de base para o treinamento, validação e testes de um classificador, também proposto neste trabalho, baseado em uma rede neural convolucional. Em resultados empíricos, observou-se-se um F1 Score de 95,58 porcento em uma validação cruzada de 10 folds e 93,56 porcento em um conjunto de holdout de teste. / [en] Deep Learning based models, such as Convolutional Neural Networks (CNNs), have led to significant advances in several areas of computing applications. Nevertheless, this technology is still rarely applied to seismic quality prediction, which is a relevant task in hydrocarbon exploration. Being able to promptly classify noise in common shot gather(CSG) acquisitions of seismic data allows the acceptance or rejection of those aquisitions, not only saving resources but also increasing the interpretability of data. In this work, we introduce a real-world classification dataset based on 6.918 common shot gather, manually labeled by perception of specialists and researches. We use it to train a CNN classification model for seismic shot-gathers quality prediction. In our empirical evaluation, we observed an F1 Score of 95,58 percent in 10 fold cross-validation and 93,56 percent in a Holdout Test.
223

[en] IMPROVING EPILEPSY LESION DETECTION USING ADVANCED TECHNIQUES OF ACQUISITION AND ANALYSIS OF MRI: A SYSTEMATIC REVIEW / [pt] MELHORANDO A DETECÇÃO DE LESÕES EPILÉPTICAS UTILIZANDO TÉCNICAS AVANÇADAS DE OBTENÇÃO E ANÁLISE DE MRI: UMA REVISÃO SISTEMÁTICA

LUCAS MACHADO LOUREIRO 05 May 2022 (has links)
[pt] Em aproximadamente um terço dos pacientes com epilepsia, a cirurgia é única forma de intervenção para diminuição dos impactos ou término das crises. Em pacientes sem um foco lesional na imagem por ressonância magnética, essa intervenção depende de outros métodos investigativos, que nem sempre estão prontamente disponíveis. Nesses casos, métodos avançados de pós-processamento e de sequências de imagens podem ajudar a detectar lesões. O objetivo dessa revisão sistemática foi resumir a disponibilidade e taxas de sucesso dessas técnicas. De acordo com as diretrizes PRISMA, usando as bases de dados PubMED, Web of Science, PsycNET e CENTRAL, uma busca por artigos foi conduzida até o dia 12 de janeiro de 2021. No total, a busca retornou 4.024 artigos, com 49 permanecendo após a revisão. Vinte e cinco artigos usaram alguma forma de voxel-based morphometry, 14 usaram machine learning e 10 usaram técnicas avançadas de MRI. Apenas um artigo descreveu um estudo prospectivo. A taxa de detecção de lesões variou bastante entre estudos, com técnicas de machine learning demonstrando taxas mais consistentes, todas acima de 50 por cento em grupos de pacientes com imagem negativa. Isso pode ser útil em centros onde outros métodos investigativos, como PET, SPECT, MEG ou sEEG não estão prontamente acessíveis. / [en] In approximately one third of patients with epilepsy, surgery is the only form of intervention to diminish seizure burden or achieve seizure freedom. In patients without a lesional focus on MRI, surgical intervention depends on other investigative methods, not always readily accessible. Advanced MRI postprocessing and acquisition methods may help with lesion localization in those cases. The aim of this systematic review was to summarize the availability and success rate of such MRI techniques. In accordance with the PRISMA guidelines, using PubMED, Web of Science, PsycNET, and CENTRAL, a search for papers was performed until the 12th of January of 2021. In total, the search returned 4,024 papers, of which 49 remained after revision. Twenty-five used a form of voxelbased morphometry, 14 used machine learning techniques, and 10 used advanced MRI sequences not commonly part of the standard MRI-protocol. Only one paper described a prospective study. The lesion detection rate greatly varied between studies, with machine learning techniques showing a more consistent rate, all above 50 percent in MRI-negative groups. This could be particularly helpful in center where other investigative methods, including PET, SPECT, MEG and stereo EEG are not readily available.
224

[pt] ENSAIOS SOBRE VOLATILIDADE E PREVISIBILIDADE DE RETORNOS / [en] ESSAYS ON VOLATILITY AND RETURNS PREDICTABILITY

IURI HONDA FERREIRA 18 August 2022 (has links)
[pt] Essa tese é composta por três artigos em econometria financeira. Os dois primeiros artigos exploram a relação entre retornos intradiários do mercado de equities e a implied volatility, representada pelo Índice de Volatilidade da CBOE (VIX). Nos dois artigos, estimamos previsões um minuto à frente utilizando janelas rolantes para cada dia. No primeiro artigo, as estimativas indicam que nossos modelos de fatores de volatilidade têm uma performance superior a benchmarks tradicionais em uma análise de séries de tempo em alta frequência, mesmo aos excluirmos períodos de crise da amostra. Os resultados também indicam uma performance fora da amostra maior para dias em que não ocorrem anúncios macroeconômicos. A performance é ainda maior quando removemos períodos de crise. O segundo artigo propõe uma abordagem de aprendizado de máquinas para modelar esse exercício de previsão. Implementamos um método de estimação intradiário minuto a minuto com janelas móveis, utilizando dois tipos de modelos não lineares: redes neurais com Long-Short-Term Memory (LSTM) e Random Forests (RF). Nossas estimativas mostram que o VIX é o melhor previsor de retornos de mercado intradiários entre os candidatos na nossa análise, especialmente quando implementadas através do modelo LSTM. Esse modelo também melhora significativamente a performance quando utilizamos o retorno de mercado defasado como variável preditiva. Finalmente, o último artigo explora uma extensão multivariada do método FarmPredict, combinando modelos vetoriais autoregressivos aumentados em fatores (FAVAR) e modelos esparsos em um ambiente de alta dimensão. Utilizando um procedimento de três estágios, somos capazes de estimar e prever fatores e seus loadings, que podem ser observados, não observados ou ambos, assim como uma estrutura idiossincrática fracamente esparsa. Realizamos uma aplicação dessa metodologia em um painel de volatilidades realizadas e os resultados de performance do método em etapas indicam melhorias quando comparado a benchmarks consolidados. / [en] This thesis is composed of three papers on financial econometrics. The first two papers explore the relation between intraday equity market returns and implied volatility, represented by the CBOE Volatility Index (VIX). In both papers, we estimate one-minute-ahead forecasts using rolling windows within a day. In the first paper, the estimates indicate that our volatility factor models outperform traditional benchmarks at high frequency time-series analysis, even when excluding crisis periods. We also find that the model has a better out-of-sample performance at days without macroeconomic announcements. Interestingly, these results are amplified when we remove the crisis period. The second paper proposes a machine learning modeling approach to this forecasting exercise. We implement a minute-by-minute rolling window intraday estimation method using two nonlinear models: Long-Short-Term Memory (LSTM) neural networks and Random Forests (RF). Our estimations show that the VIX is the strongest candidate predictor for intraday market returns in our analysis, especially when implemented through the LSTM model. This model also improves significantly the performance of the lagged market return as predictive variable. Finally, the third paper explores a multivariate extension of the FarmPredict method, by combining factor-augmented vector autoregressive (FAVAR) and sparse models in a high-dimensional environment. Using a three-stage procedure, we estimate and forecast factors and its loadings, which can be observed, unobserved, or both, as well as a weakly sparse idiosyncratic structure. We provide an application of this methodology to a panel of daily realized volatilities. Finally, the accuracy of the stepwise method indicates improvements of this forecasting method when compared to consolidated benchmarks.
225

[en] DECISION TREES WITH EXPLAINABLE RULES / [pt] ÁRVORES DE DECISÃO COM REGRAS EXPLICÁVEIS

VICTOR FEITOSA DE CARVALHO SOUZA 04 August 2023 (has links)
[pt] As árvores de decisão são estruturas comumente utilizadas em cenários nos quais modelos explicáveis de Aprendizado de Máquina são desejados, por serem visualmente intuitivas. Na literatura existente, a busca por explicabilidade em árvores envolve a minimização de métricas como altura e número de nós. Nesse contexto, definimos uma métrica de explicabilidade, chamada de explanation size, que reflete o número de atributos necessários para explicar a classificação dos exemplos. Apresentamos também um algoritmo, intitulado SER-DT, que obtém uma aproximação O(log n) (ótima se P diferente NP) para a minimização da altura no pior caso ou caso médio, assim como do explanation size no pior caso ou caso médio. Em uma série de experimentos, comparamos a implementação de SER-DT com algoritmos conhecidos da área, como CART e EC2, além de testarmos o impacto de parâmetros e estratégias de poda nesses algoritmos. SER-DT mostrou-se competitivo em acurácia com os algoritmos citados, mas gerou árvores muito mais explicáveis. / [en] Decision trees are commonly used structures in scenarios where explainable Machine Learning models are desired, as they are visually intuitive. In the existing literature, the search for explainability in trees involves minimizing metrics such as depth and number of nodes. In this context, we define an explainability metric, called explanation size, which reflects the number of attributes needed to explain the classification of examples. We also present an algorithm, called SER-DT, which obtains an O(log n) approximation (optimal if P different NP) for the minimization of depth in the worst/average case, as well as of explanation size in the worst/average case. In a series of experiments, we compared the SER-DT implementation with well-known algorithms in the field, such as CART and EC2 in addition to testing the impact of parameters and pruning strategies on these algorithms. SER-DT proved to be competitive in terms of accuracy with the aforementioned algorithms, but generated much more explainable trees.
226

[en] CAN MACHINE LEARNING REPLACE A REVIEWER IN THE SELECTION OF STUDIES FOR SYSTEMATIC LITERATURE REVIEW UPDATES? / [pt] MACHINE LEARNING PODE SUBSTITUIR UM REVISOR NA SELEÇÃO DE ESTUDOS DE ATUALIZAÇÕES DE REVISÕES SISTEMÁTICAS DA LITERATURA?

MARCELO COSTALONGA CARDOSO 19 September 2024 (has links)
[pt] [Contexto] A importância das revisões sistemáticas da literatura (RSLs) para encontrar e sintetizar novas evidências para Engenharia de Software (ES) é bem conhecida, mas realizar e manter as RSLs atualizadas ainda é um grande desafio. Uma das atividades mais exaustivas durante uma RSL é a seleção de estudos, devido ao grande número de estudos a serem analisados. Além disso, para evitar viés, a seleção de estudos deve ser conduzida por mais de um revisor. [Objetivo] Esta dissertação tem como objetivo avaliar o uso de modelos de classificação de texto de machine learning (ML) para apoiar a seleção de estudos em atualizações de RSL e verificar se tais modelos podem substituir um revisor adicional. [Método] Reproduzimos a seleção de estudos de uma atualização de RSL realizada por três pesquisadores experientes, aplicando os modelos de ML ao mesmo conjunto de dados que eles utilizaram. Utilizamos dois algoritmos de ML supervisionado com configurações diferentes (Random Forest e Support Vector Machines) para treinar os modelos com base na RSL original. Calculamos a eficácia da seleção de estudos dos modelos de ML em termos de precisão, recall e f-measure. Também comparamos o nível de semelhança e concordância entre os estudos selecionados pelos modelos de ML e os revisores originais, realizando uma análise de Kappa e da Distância Euclidiana. [Resultados] Em nossa investigação, os modelos de ML alcançaram um f-score de 0.33 para a seleção de estudos, o que é insuficiente para conduzir a tarefa de forma automatizada. No entanto, descobrimos que tais modelos poderiam reduzir o esforço de seleção de estudos em 33.9 por cento sem perda de evidências (mantendo um recall de 100 por cento), descartando estudos com baixa probabilidade de inclusão. Além disso, os modelos de ML alcançaram em média um nível de concordância moderado com os revisores, com um valor médio de 0.42 para o coeficiente de Kappa. [Conclusões] Os resultados indicam que o ML não está pronto para substituir a seleção de estudos por revisores humanos e também pode não ser usado para substituir a necessidade de um revisor adicional. No entanto, há potencial para reduzir o esforço de seleção de estudos das atualizações de RSL. / [en] [Context] The importance of systematic literature reviews (SLRs) to find and synthesize new evidence for Software Engineering (SE) is well known, yet performing and keeping SLRs up-to-date is still a big challenge. One of the most exhaustive activities during an SLR is the study selection because of the large number of studies to be analyzed. Furthermore, to avoid bias, study selection should be conducted by more than one reviewer. [Objective] This dissertation aims to evaluate the use of machine learning (ML) text classification models to support the study selection in SLR updates and verify if such models can replace an additional reviewer. [Method] We reproduce the study selection of an SLR update performed by three experienced researchers, applying the ML models to the same dataset they used. We used two supervised ML algorithms with different configurations (Random Forest and Support Vector Machines) to train the models based on the original SLR. We calculated the study selection effectiveness of the ML models in terms of precision, recall, and f-measure. We also compared the level of similarity and agreement between the studies selected by the ML models and the original reviewers by performing a Kappa Analysis and Euclidean Distance Analysis. [Results] In our investigation, the ML models achieved an f-score of 0.33 for study selection, which is insufficient for conducting the task in an automated way. However, we found that such models could reduce the study selection effort by 33.9 percent without loss of evidence (keeping a 100 percent recall), discarding studies with a low probability of being included. In addition, the ML models achieved a moderate average kappa level of agreement of 0.42 with the reviewers. [Conclusion] The results indicate that ML is not ready to replace study selection by human reviewers and may also not be used to replace the need for an additional reviewer. However, there is potential for reducing the study selection effort of SLR updates.
227

[en] ADVANCED PRECODING TECHNIQUES WITH ZERO-CROSSING MODULATION FOR CHANNELS WITH 1-BIT ADCS AND TEMPORAL OVERSAMPLING / [pt] TÉCNICAS AVANÇADAS DE PRÉ-CODIFICAÇÃO COM MODULAÇÃO DE CRUZAMENTO ZERO PARA CANAIS COM ADCS DE 1 BIT E SOBREAMOSTRAGEM TEMPORA

DIANA MARCELA VIVEROS MELO 12 September 2024 (has links)
[pt] Uma abordagem promissora para reduzir o consumo de energia é considerar a quantização grosseira no receptor. Neste estudo, investigamos novas técnicas de pré-codificação no espaço e no tempo para canais de downlink MIMO multiusuário limitados em banda com quantização de 1 bit e sobre amostragem no receptor, considerando a modulação de cruzamento zero. A modulação de instância de tempo de zero cruzamento proposta transmite a informação nas instâncias de tempo de cruzamento zero. Dois critérios de projeto para a instância de tempo de cruzamento zero são investigados, a saber, a distância mínima até o limiar de decisão e o erro quadrático médio entre o sinal recebido e o desejado. A maximização da distância mínima para o limiar de decisão pode ser formulada como um programa quadrático restrito quadraticamente. Como alternativa, um problema equivalente pode ser formulado com base na minimização de potência, o que reduz a complexidade computacional. Além disso, outro método é implementado onde a informação é transmitida nas instâncias de tempo de cruzamento zero em segmentos de forma de onda. Partindo da técnica convencional baseada no erro quadrático médio, um algoritmo mais sofisticado é desenvolvido, o que implica a extensão ativa da constelação para melhorar o desempenho em altaSNR. O problema estendido é resolvido com duas abordagens: formulando o problema como um programa de cone de segunda ordem e considerando um algoritmo de otimização alternada. Outro método baseado no algoritmo de descida de gradiente é implementado com a técnica do erro quadrático médio para reduzir ainda mais a complexidade computacional. Além disso, um limite inferior para a eficiência espectral é obtido. Os resultados numéricos mostram que os métodos de pré-codificação de cruzamento zero de instância de tempo propostos melhoram significativamente a taxa de erro de bit em comparação com os métodos de última geração. Finalmente, a maximização da distância mínima ao limiar de decisão e as técnicas de pré-codificação baseadas no erro quadrático médio são avaliadas considerando um canal de onda milimétrica seletivo em frequência. Os resultados numéricos mostram que ambas as técnicas de pré-codificação respondem bem à seletividade de frequência do canal. / [en] A promising approach to reduce energy consumption is to consider coarse quantization at the receiver. In this study, we investigate novel precoding techniques in space and time for bandlimited multiuser MIMO downlink channels with 1-bit quantization and oversampling at the receiver, considering zero-crossing modulation. The proposed time-instance zero-crossing modulation conveys the information into the time-instances of zero-crossings. Two design criteria for time-instance zero-crossing modulation are investigated, namely, the minimum distance to the decision threshold and the mean-square error between the received and the desired signal. The maximization of the minimum distance to the decision threshold can be formulated as a quadratically constraint quadratic program. As an alternative, an equivalent problem is formulated based on power minimization, which reduces computational complexity. Moreover, another method is implemented where the information is conveyed into the time-instances of zero-crossings using waveform segments. Departing from the conventional mean-square error based technique, a more sophisticated algorithm is developed, which implies active constellation extension to improve the performance at high SNR. The extended problem is solved with two approaches: by formulating the problem as a second-order cone program and by considering an alternating optimization algorithm. Another method based on the gradient descent algorithm is implemented with the mean-square error technique to reduce computational complexity further. Besides, a lower bound on the spectral efficiency is obtained. Numerical results show that the proposed time-instance zero-crossing precoding methods significantly improve the bit error rate compared to the state-of-the-art methods. Finally, the maximization of the minimum distance to the decision threshold and the mean-square error based precoding techniques are evaluated considering a frequency-selective millimeter wave channel. Numerical results show that both precoding techniques respond well to the frequency selectivity of the channel.
228

[pt] ENSAIOS SOBRE NOWCASTING COM DADOS EM ALTA DIMENSÃO / [en] ESSAYS ON NOWCASTING WITH HIGH DIMENSIONAL DATA

HENRIQUE FERNANDES PIRES 02 June 2022 (has links)
[pt] Em economia, Nowcasting é a previsão do presente, do passado recente ou mesmo a previsão do futuro muito próximo de um determinado indicador. Geralmente, um modelo nowcast é útil quando o valor de uma variável de interesse é disponibilizado com um atraso significativo em relação ao seu período de referência e/ou sua realização inicial é notavelmente revisada ao longo do tempo, se estabilizando somente após um tempo. Nesta tese, desenvolvemos e analisamos vários métodos de Nowcasting usando dados de alta dimensão (big data) em diferentes contextos: desde a previsão de séries econômicas até o nowcast de óbitos pela COVID-19. Em um de nossos estudos, comparamos o desempenho de diferentes algoritmos de Machine Learning com modelos mais naive na previsão de muitas variáveis econômicas em tempo real e mostramos que, na maioria das vezes, o Machine Learning supera os modelos de benchmark. Já no restante dos nossos exercícios, combinamos várias técnicas de nowcasting com um grande conjunto de dados (incluindo variáveis de alta frequência, como o Google Trends) para rastrear a pandemia no Brasil, mostrando que fomos capazes de antecipar os números reais de mortes e casos muito antes de estarem disponíveis oficialmente para todos. / [en] Nowcasting in economics is the prediction of the present, the recent past or even the prediction of the very near future of a certain indicator. Generally, a nowcast model is useful when the value of a target variable is released with a significant delay with respect to its reference period and/or when its value gets notably revised over time and stabilizes only after a while. In this thesis, we develop and analyze several Nowcasting methods using high-dimensional (big) data in different contexts: from the forecasting of economic series to the nowcast of COVID-19. In one of our studies, we compare the performance of different Machine Learning algorithms with more naive models in predicting many economic variables in real-time and we show that, most of the time, Machine Learning beats benchmark models. Then, in the rest of our exercises, we combine several nowcasting techniques with a big dataset (including high-frequency variables, such as Google Trends) in order to track the pandemic in Brazil, showing that we were able to nowcast the true numbers of deaths and cases way before they got available to everyone.
229

[en] MULTILAYER PERCEPTRON FOR CLASSIFYING POLYMERS FROM TENSILE TEST DATA / [pt] PERCEPTRON DE MÚLTIPLAS CAMADAS PARA A CLASSIFICAÇÃO DE POLÍMEROS A PARTIR DE DADOS DE ENSAIOS DE TRAÇÃO

HENRIQUE MONTEIRO DE ABREU 03 September 2024 (has links)
[pt] O ensaio de tração é o ensaio mecânico mais aplicado para a obtenção das propriedades mecânicas de polímeros. Por meio de um ensaio de tração é obtida a curva tensão-deformação, e é a partir desta curva que são obtidas propriedades mecânicas tais como o módulo de elasticidade, a tenacidade e a resiliência do material, as quais podem ser utilizadas na identificação de comportamentos mecânicos equivalentes em materiais poliméricos, seja para a diferenciação de resíduos plásticos para a reciclagem ou para a classificação de um material plástico reciclado quanto ao teor de um determinado polímero em sua composição. Porém, a obtenção das propriedades mecânicas a partir da curva tensão-deformação envolve cálculos e ajustes nos intervalos da curva em que essas propriedades são determinadas, tornando a obtenção das propriedades mecânicas um processo complexo sem a utilização de programas computacionais especializados. A partir da compreensão do padrão de comportamento da curva tensão-deformação de um material, algoritmos de aprendizagem de máquina (AM) podem ser ferramentas eficientes para automatizar a classificação de diferentes tipos de materiais poliméricos. Com o objetivo de verificar a acurácia de um algoritmo de AM na classificação de três tipos de polímeros, foram realizados ensaios de tração em corpos de prova de polietileno de alta densidade (PEAD), polipropileno (PP) e policloreto de vinila (PVC). O conjunto de dados obtido a partir das curvas tensão-deformação foi utilizado no treinamento de uma rede neural artificial perceptron de múltiplas camadas (PMC). Com uma acurácia de 0,9261 para o conjunto de teste, o modelo obtido a partir da rede PMC foi capaz de classificar os polímeros com base nos dados da curva tensão-deformação, indicando a possibilidade do uso de modelos de AM para automatizar a classificação de materiais poliméricos a partir de dados de ensaios de tração. / [en] The tensile test is the most applied mechanical test to obtain the mechanical properties of polymers, which can be used in polymeric materials classification. Through a tensile test is obtained the stress-strain curve, is from which mechanical properties such as the modulus of elasticity, tenacity, and resilience of the material are obtained, which can be used to identify equivalent mechanical behaviors in polymeric materials, whether for the distinguishing plastic waste for recycling or for classifying recycled plastic material according to the content of a polymer type in its composition. However, obtaining mechanical properties from the stress-strain curve involves calculations and adjustments in the intervals of the curve in which these properties are determined, turning it into a complex process without the use of specialized software. By understanding the behavior pattern of a material’s stress-strain curve, machine learning (ML) algorithms can be efficient tools to automate the classification of different types of polymeric materials. To verify the accuracy of an ML algorithm in classifying three types of polymers, tensile tests were performed on specimens made of high-density polyethylene (HDPE), polypropylene (PP), and polyvinyl chloride (PVC). The dataset obtained from the stress-strain curves was used in the training of a multilayer perceptron (MLP) neural network. With an accuracy of 0.9261 for the test set, the model obtained from the MLP neural network was able to classify the polymers based on the stress-strain curve data, thus indicating the possibility of using an ML algorithm to automate the classification of polymeric materials based on tensile test data.
230

[pt] AVALIANDO O TEMPLATE DE METACOMUNICAÇÃO ESTENDIDO COMO UMA FERRAMENTA EPISTÊMICA PARA O DESIGN SOCIOTÉCNICO DE SISTEMAS DE APRENDIZAGEM DE MÁQUINA / [en] EVALUATING THE EXTENDED METACOMMUNICATION TEMPLATE AS AN EPISTEMIC TOOL FOR THE SOCIOTECHNICAL DESIGN OF MACHINE LEARNING SYSTEMS

GABRIEL DINIZ JUNQUEIRA BARBOSA 01 December 2022 (has links)
[pt] Esta dissertação apresenta o Template de Metacomunicação Estendido, uma ferramenta, denominada Template Estendido de Metacomunicação, baseada em um conjunto de perguntas-guia derivadas da teoria da Engenharia Semiótica. Relatamos os resultados de um estudo para avaliar seus impactos no processo de design de sistemas de aprendizagem de máquina. Ao solicitar que designers e desenvolvedores respondam um conjunto de perguntas, a ferramenta busca auxiliá-los a organizar mentalmente suas interpretações da solução de design, ao mesmo tempo que revisitam as pressuposições por trás dela. Descrevemos, então, um estudo de design especulativo e analisamos seus resultados, identificando temas emergentes que nos ajudam a entender como a ferramenta proposta pode ser utilizada. Dentre os aspectos identificados mais relevantes estão a prática reflexiva do design, a atenção ao uso de linguagem, a atribuição de responsabilidade às pessoas envolvidas, o uso do arcabouço ético de apoio fornecido, os princípios da bioética, e as possíveis formas de se usar o template estendido. / [en] This dissertation presents the Extended Metacommunication Template, a tool based on a set of guiding questions derived from the theory of Semiotic Engineering. We report the results of a study we conducted to evaluate the tool s impacts on the design process of machine learning systems. By having designers and developers answer a set of questions, the tool aims to help them reflect on their interpretations of the design solution, while allowing them to revisit the presuppositions behind it. We then describe a speculative design study and analyze its results, identifying emergent themes that help us understand how the proposed tool may be used. Among the relevant themes identified are: the reflective practice of design, the designer s focus on their use of language, the process of attributing responsibility to the people involved, the use of the ethical framework provided to them, the bioethical principles, and the ways in which the extension of the template may be used.

Page generated in 0.0643 seconds