Spelling suggestions: "subject:"maquinas"" "subject:"maquinaria""
221 |
[en] A STUDY ON NEURAL NETWORKS FOR POKER PLAYING AGENTS / [pt] UM ESTUDO EM REDES NEURAIS PARA AGENTES JOGADORES DE PÔQUERALEXANDRE MARANGONI COSTA 12 May 2020 (has links)
[pt] A ciência de dados precisa de uma grande quantidade de dados para testar e melhorar soluções. Jogos são largamente usados para abstrair situações da vida real. Rodadas de pôquer são um bom exemplo pois, por
não saber as cartas dos oponentes, o jogador analisa um cenário de informação incompleta numa competição de agentes que envolve conhecimento probabilístico, análise de risco e brefe. Isso o diferencia de xadrez, damas e jogos de conhecimento perfeito e algoritmos de busca em forca bruta sobre o espaço de soluções. Usar o pôquer como um caso de teste possibilita a análise de diferentes abordagens usadas na vida real, porém num cenário mais controlado. Esta dissertação propõe um arcabouço de funcionalidades para criar e testar diferentes algorítimos de Deep Learning, que podem jogar pôquer entre sí, aprender com o histórico e maximizar suas recompensas. / [en] Data science research needs real examples to test and improve solutions. Games are widely used to mimic those real-world examples. Poker rounds are a good example of imperfect information state with competing
agents dealing with probabilistic knowledge, risk assessment, and possible deception, unlike chess, checkers and perfect information brute-force search style of games. By using poker as a test-bed we can analyze different approaches used in real-world examples, in a more controlled environment, which should give great insights on how to tackle those real-world scenarios. We propose a framework to build and test different neural networks that can play against each other, learn from a supervised experience and maximize
its rewards.
|
222 |
[en] CONVOLUTIONAL NETWORKS APPLIED TO SEISMIC NOISE CLASSIFICATION / [pt] REDES CONVOLUCIONAIS APLICADAS À CLASSIFICAÇÃO DE RUÍDO SÍSMICOEDUARDO BETINE BUCKER 24 March 2021 (has links)
[pt] Modelos baseados em redes neurais profundas como as Redes Neurais Convolucionais proporcionaram avanços significativos em diversas áreas da computação. No entanto, essa tecnologia é ainda pouco aplicada à predição de qualidade sísmica, que é uma atividade relevante para exploração de hidrocarbonetos. Ser capaz de, rapidamente, classificar o ruído presente em aquisições de dados sísmicos permite aceitar ou rejeitar essas aquisições de forma eficiente, o que além de economizar recursos também melhora a interpretabilidade dos dados. Neste trabalho apresenta-se um dataset criado a partir de 6.918 aquisições manualmente classificadas pela percepção de especialistas e pesquisadores, que serviu de base para o treinamento, validação e testes de um classificador, também proposto neste trabalho, baseado em uma rede neural convolucional. Em resultados empíricos, observou-se-se um F1 Score de 95,58 porcento em uma validação cruzada de 10 folds e 93,56 porcento em um conjunto de holdout de teste. / [en] Deep Learning based models, such as Convolutional Neural Networks
(CNNs), have led to significant advances in several areas of computing applications.
Nevertheless, this technology is still rarely applied to seismic quality
prediction, which is a relevant task in hydrocarbon exploration. Being able
to promptly classify noise in common shot gather(CSG) acquisitions of seismic
data allows the acceptance or rejection of those aquisitions, not only
saving resources but also increasing the interpretability of data. In this work,
we introduce a real-world classification dataset based on 6.918 common shot
gather, manually labeled by perception of specialists and researches. We use
it to train a CNN classification model for seismic shot-gathers quality prediction.
In our empirical evaluation, we observed an F1 Score of 95,58 percent in
10 fold cross-validation and 93,56 percent in a Holdout Test.
|
223 |
[en] IMPROVING EPILEPSY LESION DETECTION USING ADVANCED TECHNIQUES OF ACQUISITION AND ANALYSIS OF MRI: A SYSTEMATIC REVIEW / [pt] MELHORANDO A DETECÇÃO DE LESÕES EPILÉPTICAS UTILIZANDO TÉCNICAS AVANÇADAS DE OBTENÇÃO E ANÁLISE DE MRI: UMA REVISÃO SISTEMÁTICALUCAS MACHADO LOUREIRO 05 May 2022 (has links)
[pt] Em aproximadamente um terço dos pacientes com epilepsia, a cirurgia é
única forma de intervenção para diminuição dos impactos ou término das crises.
Em pacientes sem um foco lesional na imagem por ressonância magnética, essa
intervenção depende de outros métodos investigativos, que nem sempre estão
prontamente disponíveis. Nesses casos, métodos avançados de pós-processamento
e de sequências de imagens podem ajudar a detectar lesões. O objetivo dessa revisão
sistemática foi resumir a disponibilidade e taxas de sucesso dessas técnicas. De
acordo com as diretrizes PRISMA, usando as bases de dados PubMED, Web of
Science, PsycNET e CENTRAL, uma busca por artigos foi conduzida até o dia 12
de janeiro de 2021. No total, a busca retornou 4.024 artigos, com 49 permanecendo
após a revisão. Vinte e cinco artigos usaram alguma forma de voxel-based
morphometry, 14 usaram machine learning e 10 usaram técnicas avançadas de
MRI. Apenas um artigo descreveu um estudo prospectivo. A taxa de detecção de
lesões variou bastante entre estudos, com técnicas de machine learning
demonstrando taxas mais consistentes, todas acima de 50 por cento em grupos de pacientes
com imagem negativa. Isso pode ser útil em centros onde outros métodos
investigativos, como PET, SPECT, MEG ou sEEG não estão prontamente
acessíveis. / [en] In approximately one third of patients with epilepsy, surgery is the only form
of intervention to diminish seizure burden or achieve seizure freedom. In patients
without a lesional focus on MRI, surgical intervention depends on other
investigative methods, not always readily accessible. Advanced MRI
postprocessing and acquisition methods may help with lesion localization in those
cases. The aim of this systematic review was to summarize the availability and
success rate of such MRI techniques. In accordance with the PRISMA guidelines,
using PubMED, Web of Science, PsycNET, and CENTRAL, a search for papers
was performed until the 12th of January of 2021. In total, the search returned 4,024
papers, of which 49 remained after revision. Twenty-five used a form of voxelbased morphometry, 14 used machine learning techniques, and 10 used advanced
MRI sequences not commonly part of the standard MRI-protocol. Only one paper
described a prospective study. The lesion detection rate greatly varied between
studies, with machine learning techniques showing a more consistent rate, all above
50 percent in MRI-negative groups. This could be particularly helpful in center where
other investigative methods, including PET, SPECT, MEG and stereo EEG are not
readily available.
|
224 |
[pt] ENSAIOS SOBRE VOLATILIDADE E PREVISIBILIDADE DE RETORNOS / [en] ESSAYS ON VOLATILITY AND RETURNS PREDICTABILITYIURI HONDA FERREIRA 18 August 2022 (has links)
[pt] Essa tese é composta por três artigos em econometria financeira.
Os dois primeiros artigos exploram a relação entre retornos intradiários
do mercado de equities e a implied volatility, representada pelo Índice de
Volatilidade da CBOE (VIX). Nos dois artigos, estimamos previsões um
minuto à frente utilizando janelas rolantes para cada dia. No primeiro
artigo, as estimativas indicam que nossos modelos de fatores de volatilidade
têm uma performance superior a benchmarks tradicionais em uma análise
de séries de tempo em alta frequência, mesmo aos excluirmos períodos de
crise da amostra. Os resultados também indicam uma performance fora da
amostra maior para dias em que não ocorrem anúncios macroeconômicos.
A performance é ainda maior quando removemos períodos de crise. O
segundo artigo propõe uma abordagem de aprendizado de máquinas para
modelar esse exercício de previsão. Implementamos um método de estimação
intradiário minuto a minuto com janelas móveis, utilizando dois tipos de
modelos não lineares: redes neurais com Long-Short-Term Memory (LSTM)
e Random Forests (RF). Nossas estimativas mostram que o VIX é o
melhor previsor de retornos de mercado intradiários entre os candidatos
na nossa análise, especialmente quando implementadas através do modelo
LSTM. Esse modelo também melhora significativamente a performance
quando utilizamos o retorno de mercado defasado como variável preditiva.
Finalmente, o último artigo explora uma extensão multivariada do método
FarmPredict, combinando modelos vetoriais autoregressivos aumentados em
fatores (FAVAR) e modelos esparsos em um ambiente de alta dimensão.
Utilizando um procedimento de três estágios, somos capazes de estimar e
prever fatores e seus loadings, que podem ser observados, não observados
ou ambos, assim como uma estrutura idiossincrática fracamente esparsa.
Realizamos uma aplicação dessa metodologia em um painel de volatilidades
realizadas e os resultados de performance do método em etapas indicam
melhorias quando comparado a benchmarks consolidados. / [en] This thesis is composed of three papers on financial econometrics.
The first two papers explore the relation between intraday equity market
returns and implied volatility, represented by the CBOE Volatility Index
(VIX). In both papers, we estimate one-minute-ahead forecasts using rolling
windows within a day. In the first paper, the estimates indicate that
our volatility factor models outperform traditional benchmarks at high
frequency time-series analysis, even when excluding crisis periods. We also
find that the model has a better out-of-sample performance at days without
macroeconomic announcements. Interestingly, these results are amplified
when we remove the crisis period. The second paper proposes a machine
learning modeling approach to this forecasting exercise. We implement a
minute-by-minute rolling window intraday estimation method using two
nonlinear models: Long-Short-Term Memory (LSTM) neural networks and
Random Forests (RF). Our estimations show that the VIX is the strongest
candidate predictor for intraday market returns in our analysis, especially
when implemented through the LSTM model. This model also improves
significantly the performance of the lagged market return as predictive
variable. Finally, the third paper explores a multivariate extension of the
FarmPredict method, by combining factor-augmented vector autoregressive
(FAVAR) and sparse models in a high-dimensional environment. Using a
three-stage procedure, we estimate and forecast factors and its loadings,
which can be observed, unobserved, or both, as well as a weakly sparse
idiosyncratic structure. We provide an application of this methodology to
a panel of daily realized volatilities. Finally, the accuracy of the stepwise
method indicates improvements of this forecasting method when compared
to consolidated benchmarks.
|
225 |
[en] DECISION TREES WITH EXPLAINABLE RULES / [pt] ÁRVORES DE DECISÃO COM REGRAS EXPLICÁVEISVICTOR FEITOSA DE CARVALHO SOUZA 04 August 2023 (has links)
[pt] As árvores de decisão são estruturas comumente utilizadas em cenários
nos quais modelos explicáveis de Aprendizado de Máquina são desejados, por
serem visualmente intuitivas. Na literatura existente, a busca por explicabilidade
em árvores envolve a minimização de métricas como altura e número de
nós. Nesse contexto, definimos uma métrica de explicabilidade, chamada de
explanation size, que reflete o número de atributos necessários para explicar
a classificação dos exemplos. Apresentamos também um algoritmo, intitulado
SER-DT, que obtém uma aproximação O(log n) (ótima se P diferente NP) para a
minimização da altura no pior caso ou caso médio, assim como do explanation
size no pior caso ou caso médio. Em uma série de experimentos, comparamos
a implementação de SER-DT com algoritmos conhecidos da área, como CART e
EC2, além de testarmos o impacto de parâmetros e estratégias de poda nesses
algoritmos. SER-DT mostrou-se competitivo em acurácia com os algoritmos
citados, mas gerou árvores muito mais explicáveis. / [en] Decision trees are commonly used structures in scenarios where explainable
Machine Learning models are desired, as they are visually intuitive. In
the existing literature, the search for explainability in trees involves minimizing
metrics such as depth and number of nodes. In this context, we define
an explainability metric, called explanation size, which reflects the number of
attributes needed to explain the classification of examples. We also present an
algorithm, called SER-DT, which obtains an O(log n) approximation (optimal
if P different NP) for the minimization of depth in the worst/average case, as well
as of explanation size in the worst/average case. In a series of experiments,
we compared the SER-DT implementation with well-known algorithms in the
field, such as CART and EC2 in addition to testing the impact of parameters
and pruning strategies on these algorithms. SER-DT proved to be competitive
in terms of accuracy with the aforementioned algorithms, but generated much
more explainable trees.
|
226 |
[en] CAN MACHINE LEARNING REPLACE A REVIEWER IN THE SELECTION OF STUDIES FOR SYSTEMATIC LITERATURE REVIEW UPDATES? / [pt] MACHINE LEARNING PODE SUBSTITUIR UM REVISOR NA SELEÇÃO DE ESTUDOS DE ATUALIZAÇÕES DE REVISÕES SISTEMÁTICAS DA LITERATURA?MARCELO COSTALONGA CARDOSO 19 September 2024 (has links)
[pt] [Contexto] A importância das revisões sistemáticas da literatura (RSLs)
para encontrar e sintetizar novas evidências para Engenharia de Software (ES)
é bem conhecida, mas realizar e manter as RSLs atualizadas ainda é um grande
desafio. Uma das atividades mais exaustivas durante uma RSL é a seleção
de estudos, devido ao grande número de estudos a serem analisados. Além
disso, para evitar viés, a seleção de estudos deve ser conduzida por mais de um
revisor. [Objetivo] Esta dissertação tem como objetivo avaliar o uso de modelos
de classificação de texto de machine learning (ML) para apoiar a seleção de
estudos em atualizações de RSL e verificar se tais modelos podem substituir
um revisor adicional. [Método] Reproduzimos a seleção de estudos de uma
atualização de RSL realizada por três pesquisadores experientes, aplicando os
modelos de ML ao mesmo conjunto de dados que eles utilizaram. Utilizamos
dois algoritmos de ML supervisionado com configurações diferentes (Random
Forest e Support Vector Machines) para treinar os modelos com base na RSL
original. Calculamos a eficácia da seleção de estudos dos modelos de ML
em termos de precisão, recall e f-measure. Também comparamos o nível de
semelhança e concordância entre os estudos selecionados pelos modelos de
ML e os revisores originais, realizando uma análise de Kappa e da Distância
Euclidiana. [Resultados] Em nossa investigação, os modelos de ML alcançaram
um f-score de 0.33 para a seleção de estudos, o que é insuficiente para conduzir
a tarefa de forma automatizada. No entanto, descobrimos que tais modelos
poderiam reduzir o esforço de seleção de estudos em 33.9 por cento sem perda de
evidências (mantendo um recall de 100 por cento), descartando estudos com baixa
probabilidade de inclusão. Além disso, os modelos de ML alcançaram em
média um nível de concordância moderado com os revisores, com um valor
médio de 0.42 para o coeficiente de Kappa. [Conclusões] Os resultados indicam
que o ML não está pronto para substituir a seleção de estudos por revisores
humanos e também pode não ser usado para substituir a necessidade de um
revisor adicional. No entanto, há potencial para reduzir o esforço de seleção de
estudos das atualizações de RSL. / [en] [Context] The importance of systematic literature reviews (SLRs) to find
and synthesize new evidence for Software Engineering (SE) is well known, yet
performing and keeping SLRs up-to-date is still a big challenge. One of the most
exhaustive activities during an SLR is the study selection because of the large
number of studies to be analyzed. Furthermore, to avoid bias, study selection
should be conducted by more than one reviewer. [Objective] This dissertation
aims to evaluate the use of machine learning (ML) text classification models
to support the study selection in SLR updates and verify if such models can
replace an additional reviewer. [Method] We reproduce the study selection of
an SLR update performed by three experienced researchers, applying the ML
models to the same dataset they used. We used two supervised ML algorithms
with different configurations (Random Forest and Support Vector Machines) to
train the models based on the original SLR. We calculated the study selection
effectiveness of the ML models in terms of precision, recall, and f-measure.
We also compared the level of similarity and agreement between the studies
selected by the ML models and the original reviewers by performing a Kappa
Analysis and Euclidean Distance Analysis. [Results] In our investigation, the
ML models achieved an f-score of 0.33 for study selection, which is insufficient
for conducting the task in an automated way. However, we found that such
models could reduce the study selection effort by 33.9 percent without loss of evidence
(keeping a 100 percent recall), discarding studies with a low probability of being
included. In addition, the ML models achieved a moderate average kappa level
of agreement of 0.42 with the reviewers. [Conclusion] The results indicate that
ML is not ready to replace study selection by human reviewers and may also
not be used to replace the need for an additional reviewer. However, there is
potential for reducing the study selection effort of SLR updates.
|
227 |
[en] ADVANCED PRECODING TECHNIQUES WITH ZERO-CROSSING MODULATION FOR CHANNELS WITH 1-BIT ADCS AND TEMPORAL OVERSAMPLING / [pt] TÉCNICAS AVANÇADAS DE PRÉ-CODIFICAÇÃO COM MODULAÇÃO DE CRUZAMENTO ZERO PARA CANAIS COM ADCS DE 1 BIT E SOBREAMOSTRAGEM TEMPORADIANA MARCELA VIVEROS MELO 12 September 2024 (has links)
[pt] Uma abordagem promissora para reduzir o consumo de energia é considerar a quantização grosseira no receptor. Neste estudo, investigamos novas técnicas de pré-codificação no espaço e no tempo para canais de downlink MIMO multiusuário limitados em banda com quantização de 1 bit e sobre amostragem no receptor, considerando a modulação de cruzamento zero. A modulação de instância de tempo de zero cruzamento proposta transmite a informação nas instâncias de tempo de cruzamento zero. Dois critérios de projeto para a instância de tempo de cruzamento zero são investigados,
a saber, a distância mínima até o limiar de decisão e o erro quadrático médio entre o sinal recebido e o desejado. A maximização da distância mínima para o limiar de decisão pode ser formulada como um programa quadrático restrito quadraticamente. Como alternativa, um problema equivalente pode ser formulado com base na minimização de potência, o que reduz a complexidade computacional. Além disso, outro método é implementado onde a informação é transmitida nas instâncias de tempo de cruzamento zero em segmentos de forma de onda. Partindo da técnica convencional baseada no erro quadrático médio, um algoritmo mais sofisticado é desenvolvido, o que implica a extensão ativa da constelação para melhorar o desempenho em altaSNR. O problema estendido é resolvido com duas abordagens: formulando o problema como um programa de cone de segunda ordem e considerando um algoritmo de otimização alternada. Outro método baseado no algoritmo de descida de gradiente é implementado com a técnica do erro quadrático médio para reduzir ainda mais a complexidade computacional. Além disso, um limite inferior para a eficiência espectral é obtido. Os resultados numéricos mostram que os métodos de pré-codificação de cruzamento zero de instância de tempo propostos melhoram significativamente a taxa de erro de bit em comparação com os métodos de última geração. Finalmente, a maximização da distância mínima ao limiar de decisão e as técnicas de pré-codificação baseadas no erro quadrático médio são avaliadas considerando um canal de onda milimétrica seletivo em frequência. Os resultados numéricos mostram que ambas as técnicas de pré-codificação respondem bem à seletividade de frequência do canal. / [en] A promising approach to reduce energy consumption is to consider
coarse quantization at the receiver. In this study, we investigate novel
precoding techniques in space and time for bandlimited multiuser MIMO
downlink channels with 1-bit quantization and oversampling at the receiver, considering zero-crossing modulation. The proposed time-instance zero-crossing modulation conveys the information into the time-instances of zero-crossings. Two design criteria for time-instance zero-crossing modulation are
investigated, namely, the minimum distance to the decision threshold and
the mean-square error between the received and the desired signal. The
maximization of the minimum distance to the decision threshold can be
formulated as a quadratically constraint quadratic program. As an alternative, an equivalent problem is formulated based on power minimization,
which reduces computational complexity. Moreover, another method is implemented where the information is conveyed into the time-instances of
zero-crossings using waveform segments. Departing from the conventional
mean-square error based technique, a more sophisticated algorithm is developed, which implies active constellation extension to improve the performance at high SNR. The extended problem is solved with two approaches:
by formulating the problem as a second-order cone program and by considering an alternating optimization algorithm. Another method based on the
gradient descent algorithm is implemented with the mean-square error technique to reduce computational complexity further. Besides, a lower bound
on the spectral efficiency is obtained. Numerical results show that the proposed time-instance zero-crossing precoding methods significantly improve
the bit error rate compared to the state-of-the-art methods. Finally, the
maximization of the minimum distance to the decision threshold and the
mean-square error based precoding techniques are evaluated considering a
frequency-selective millimeter wave channel. Numerical results show that
both precoding techniques respond well to the frequency selectivity of the
channel.
|
228 |
[pt] ENSAIOS SOBRE NOWCASTING COM DADOS EM ALTA DIMENSÃO / [en] ESSAYS ON NOWCASTING WITH HIGH DIMENSIONAL DATAHENRIQUE FERNANDES PIRES 02 June 2022 (has links)
[pt] Em economia, Nowcasting é a previsão do presente, do passado recente ou
mesmo a previsão do futuro muito próximo de um determinado indicador.
Geralmente, um modelo nowcast é útil quando o valor de uma variável de
interesse é disponibilizado com um atraso significativo em relação ao seu
período de referência e/ou sua realização inicial é notavelmente revisada
ao longo do tempo, se estabilizando somente após um tempo. Nesta tese,
desenvolvemos e analisamos vários métodos de Nowcasting usando dados
de alta dimensão (big data) em diferentes contextos: desde a previsão
de séries econômicas até o nowcast de óbitos pela COVID-19. Em um
de nossos estudos, comparamos o desempenho de diferentes algoritmos de
Machine Learning com modelos mais naive na previsão de muitas variáveis
econômicas em tempo real e mostramos que, na maioria das vezes, o
Machine Learning supera os modelos de benchmark. Já no restante dos
nossos exercícios, combinamos várias técnicas de nowcasting com um grande
conjunto de dados (incluindo variáveis de alta frequência, como o Google
Trends) para rastrear a pandemia no Brasil, mostrando que fomos capazes
de antecipar os números reais de mortes e casos muito antes de estarem
disponíveis oficialmente para todos. / [en] Nowcasting in economics is the prediction of the present, the recent past or
even the prediction of the very near future of a certain indicator. Generally,
a nowcast model is useful when the value of a target variable is released
with a significant delay with respect to its reference period and/or when
its value gets notably revised over time and stabilizes only after a while.
In this thesis, we develop and analyze several Nowcasting methods using
high-dimensional (big) data in different contexts: from the forecasting of
economic series to the nowcast of COVID-19. In one of our studies, we
compare the performance of different Machine Learning algorithms with
more naive models in predicting many economic variables in real-time and
we show that, most of the time, Machine Learning beats benchmark models.
Then, in the rest of our exercises, we combine several nowcasting techniques
with a big dataset (including high-frequency variables, such as Google
Trends) in order to track the pandemic in Brazil, showing that we were
able to nowcast the true numbers of deaths and cases way before they got
available to everyone.
|
229 |
[en] MULTILAYER PERCEPTRON FOR CLASSIFYING POLYMERS FROM TENSILE TEST DATA / [pt] PERCEPTRON DE MÚLTIPLAS CAMADAS PARA A CLASSIFICAÇÃO DE POLÍMEROS A PARTIR DE DADOS DE ENSAIOS DE TRAÇÃOHENRIQUE MONTEIRO DE ABREU 03 September 2024 (has links)
[pt] O ensaio de tração é o ensaio mecânico mais aplicado para a obtenção
das propriedades mecânicas de polímeros. Por meio de um ensaio de tração
é obtida a curva tensão-deformação, e é a partir desta curva que são obtidas propriedades mecânicas tais como o módulo de elasticidade, a tenacidade
e a resiliência do material, as quais podem ser utilizadas na identificação de
comportamentos mecânicos equivalentes em materiais poliméricos, seja para
a diferenciação de resíduos plásticos para a reciclagem ou para a classificação
de um material plástico reciclado quanto ao teor de um determinado polímero
em sua composição. Porém, a obtenção das propriedades mecânicas a partir da curva tensão-deformação envolve cálculos e ajustes nos intervalos da
curva em que essas propriedades são determinadas, tornando a obtenção das
propriedades mecânicas um processo complexo sem a utilização de programas
computacionais especializados. A partir da compreensão do padrão de comportamento da curva tensão-deformação de um material, algoritmos de aprendizagem de máquina (AM) podem ser ferramentas eficientes para automatizar
a classificação de diferentes tipos de materiais poliméricos. Com o objetivo
de verificar a acurácia de um algoritmo de AM na classificação de três tipos
de polímeros, foram realizados ensaios de tração em corpos de prova de polietileno de alta densidade (PEAD), polipropileno (PP) e policloreto de vinila
(PVC). O conjunto de dados obtido a partir das curvas tensão-deformação foi
utilizado no treinamento de uma rede neural artificial perceptron de múltiplas
camadas (PMC). Com uma acurácia de 0,9261 para o conjunto de teste, o
modelo obtido a partir da rede PMC foi capaz de classificar os polímeros com
base nos dados da curva tensão-deformação, indicando a possibilidade do uso
de modelos de AM para automatizar a classificação de materiais poliméricos a
partir de dados de ensaios de tração. / [en] The tensile test is the most applied mechanical test to obtain the mechanical properties of polymers, which can be used in polymeric materials classification. Through a tensile test is obtained the stress-strain curve, is from which
mechanical properties such as the modulus of elasticity, tenacity, and resilience
of the material are obtained, which can be used to identify equivalent mechanical behaviors in polymeric materials, whether for the distinguishing plastic
waste for recycling or for classifying recycled plastic material according to the
content of a polymer type in its composition. However, obtaining mechanical
properties from the stress-strain curve involves calculations and adjustments in
the intervals of the curve in which these properties are determined, turning it
into a complex process without the use of specialized software. By understanding the behavior pattern of a material’s stress-strain curve, machine learning
(ML) algorithms can be efficient tools to automate the classification of different types of polymeric materials. To verify the accuracy of an ML algorithm
in classifying three types of polymers, tensile tests were performed on specimens made of high-density polyethylene (HDPE), polypropylene (PP), and
polyvinyl chloride (PVC). The dataset obtained from the stress-strain curves
was used in the training of a multilayer perceptron (MLP) neural network.
With an accuracy of 0.9261 for the test set, the model obtained from the MLP
neural network was able to classify the polymers based on the stress-strain
curve data, thus indicating the possibility of using an ML algorithm to automate the classification of polymeric materials based on tensile test data.
|
230 |
[pt] AVALIANDO O TEMPLATE DE METACOMUNICAÇÃO ESTENDIDO COMO UMA FERRAMENTA EPISTÊMICA PARA O DESIGN SOCIOTÉCNICO DE SISTEMAS DE APRENDIZAGEM DE MÁQUINA / [en] EVALUATING THE EXTENDED METACOMMUNICATION TEMPLATE AS AN EPISTEMIC TOOL FOR THE SOCIOTECHNICAL DESIGN OF MACHINE LEARNING SYSTEMSGABRIEL DINIZ JUNQUEIRA BARBOSA 01 December 2022 (has links)
[pt] Esta dissertação apresenta o Template de Metacomunicação Estendido,
uma ferramenta, denominada Template Estendido de Metacomunicação, baseada em um conjunto de perguntas-guia derivadas da teoria da Engenharia
Semiótica. Relatamos os resultados de um estudo para avaliar seus impactos
no processo de design de sistemas de aprendizagem de máquina. Ao solicitar que designers e desenvolvedores respondam um conjunto de perguntas, a
ferramenta busca auxiliá-los a organizar mentalmente suas interpretações da
solução de design, ao mesmo tempo que revisitam as pressuposições por trás
dela. Descrevemos, então, um estudo de design especulativo e analisamos seus
resultados, identificando temas emergentes que nos ajudam a entender como a
ferramenta proposta pode ser utilizada. Dentre os aspectos identificados mais
relevantes estão a prática reflexiva do design, a atenção ao uso de linguagem, a
atribuição de responsabilidade às pessoas envolvidas, o uso do arcabouço ético
de apoio fornecido, os princípios da bioética, e as possíveis formas de se usar
o template estendido. / [en] This dissertation presents the Extended Metacommunication Template,
a tool based on a set of guiding questions derived from the theory of Semiotic
Engineering. We report the results of a study we conducted to evaluate the
tool s impacts on the design process of machine learning systems. By having
designers and developers answer a set of questions, the tool aims to help
them reflect on their interpretations of the design solution, while allowing
them to revisit the presuppositions behind it. We then describe a speculative
design study and analyze its results, identifying emergent themes that help us
understand how the proposed tool may be used. Among the relevant themes
identified are: the reflective practice of design, the designer s focus on their use
of language, the process of attributing responsibility to the people involved,
the use of the ethical framework provided to them, the bioethical principles,
and the ways in which the extension of the template may be used.
|
Page generated in 0.0643 seconds