Spelling suggestions: "subject:"maquinas"" "subject:"maquinaria""
251 |
A connectionist approach for incremental function approximation and on-line tasks / Uma abordagem conexionista para a aproximação incremental de funções e tarefas de tempo realHeinen, Milton Roberto January 2011 (has links)
Este trabalho propõe uma nova abordagem conexionista, chamada de IGMN (do inglês Incremental Gaussian Mixture Network), para aproximação incremental de funções e tarefas de tempo real. Ela é inspirada em recentes teorias do cérebro, especialmente o MPF (do inglês Memory-Prediction Framework) e a Inteligência Artificial Construtivista, que fazem com que o modelo proposto possua características especiais que não estão presentes na maioria dos modelos de redes neurais existentes. Além disso, IGMN é baseado em sólidos princípios estatísticos (modelos de mistura gaussianos) e assintoticamente converge para a superfície de regressão ótima a medida que os dados de treinamento chegam. As principais vantagens do IGMN em relação a outros modelos de redes neurais são: (i) IGMN aprende instantaneamente analisando cada padrão de treinamento apenas uma vez (cada dado pode ser imediatamente utilizado e descartado); (ii) o modelo proposto produz estimativas razoáveis baseado em poucos dados de treinamento; (iii) IGMN aprende de forma contínua e perpétua a medida que novos dados de treinamento chegam (não existem fases separadas de treinamento e utilização); (iv) o modelo proposto resolve o dilema da estabilidade-plasticidade e não sofre de interferência catastrófica; (v) a topologia da rede neural é definida automaticamente e de forma incremental (novas unidades são adicionadas sempre que necessário); (vi) IGMN não é sensível às condições de inicialização (de fato IGMN não utiliza nenhuma decisão e/ou inicialização aleatória); (vii) a mesma rede neural IGMN pode ser utilizada em problemas diretos e inversos (o fluxo de informações é bidirecional) mesmo em regiões onde a função alvo tem múltiplas soluções; e (viii) IGMN fornece o nível de confiança de suas estimativas. Outra contribuição relevante desta tese é o uso do IGMN em importantes tarefas nas áreas de robótica e aprendizado de máquina, como por exemplo a identificação de modelos, a formação incremental de conceitos, o aprendizado por reforço, o mapeamento robótico e previsão de séries temporais. De fato, o poder de representação e a eficiência e do modelo proposto permitem expandir o conjunto de tarefas nas quais as redes neurais podem ser utilizadas, abrindo assim novas direções nos quais importantes contribuições do estado da arte podem ser feitas. Através de diversos experimentos, realizados utilizando o modelo proposto, é demonstrado que o IGMN é bastante robusto ao problema de overfitting, não requer um ajuste fino dos parâmetros de configuração e possui uma boa performance computacional que permite o seu uso em aplicações de controle em tempo real. Portanto pode-se afirmar que o IGMN é uma ferramenta de aprendizado de máquina bastante útil em tarefas de aprendizado incremental de funções e predição em tempo real. / This work proposes IGMN (standing for Incremental Gaussian Mixture Network), a new connectionist approach for incremental function approximation and real time tasks. It is inspired on recent theories about the brain, specially the Memory-Prediction Framework and the Constructivist Artificial Intelligence, which endows it with some unique features that are not present in most ANN models such as MLP, RBF and GRNN. Moreover, IGMN is based on strong statistical principles (Gaussian mixture models) and asymptotically converges to the optimal regression surface as more training data arrive. The main advantages of IGMN over other ANN models are: (i) IGMN learns incrementally using a single scan over the training data (each training pattern can be immediately used and discarded); (ii) it can produce reasonable estimates based on few training data; (iii) the learning process can proceed perpetually as new training data arrive (there is no separate phases for leaning and recalling); (iv) IGMN can handle the stability-plasticity dilemma and does not suffer from catastrophic interference; (v) the neural network topology is defined automatically and incrementally (new units added whenever is necessary); (vi) IGMN is not sensible to initialization conditions (in fact there is no random initialization/ decision in IGMN); (vii) the same neural network can be used to solve both forward and inverse problems (the information flow is bidirectional) even in regions where the target data are multi-valued; and (viii) IGMN can provide the confidence levels of its estimates. Another relevant contribution of this thesis is the use of IGMN in some important state-of-the-art machine learning and robotic tasks such as model identification, incremental concept formation, reinforcement learning, robotic mapping and time series prediction. In fact, the efficiency of IGMN and its representational power expand the set of potential tasks in which the neural networks can be applied, thus opening new research directions in which important contributions can be made. Through several experiments using the proposed model it is demonstrated that IGMN is also robust to overfitting, does not require fine-tunning of its configuration parameters and has a very good computational performance, thus allowing its use in real time control applications. Therefore, IGMN is a very useful machine learning tool for incremental function approximation and on-line prediction.
|
252 |
Máquina de vetores de suporte aplicada a dados de espectroscopia NIR de combustíveis e lubrificantes para o desenvolvimento de modelos de regressão e classificação / Support vectors machine applied to NIR spectroscopy data of fuels and lubricants for development of regression and classification modelsAlves, Julio Cesar Laurentino, 1978- 19 August 2018 (has links)
Orientador: Ronei Jesus Poppi / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Química / Made available in DSpace on 2018-08-19T18:06:58Z (GMT). No. of bitstreams: 1
Alves_JulioCesarLaurentino_D.pdf: 19282542 bytes, checksum: 78d1bf16d9d133c488adb4bedf593b06 (MD5)
Previous issue date: 2012 / Resumo: Modelos lineares de regressão e classificação por vezes proporcionam um desempenho insatisfatório no tratamento de dados de espectroscopia no infravermelho próximo de produtos derivados de petróleo. A máquina de vetores de suporte (SVM), baseada na teoria do aprendizado estatístico, possibilita o desenvolvimento de modelos de regressão e classificação não lineares que podem proporcionar uma melhor modelagem dos referidos dados, porém ainda é pouco explorada para resolução de problemas em química analítica. Nesse trabalho demonstra-se a utilização do SVM para o tratamento de dados de espectroscopia na região do infravermelho próximo de combustíveis e lubrificantes. O SVM foi utilizado para a solução de problemas de regressão e classificação e seus resultados comparados com os algoritmos de referência PLS e SIMCA. Foram abordados os seguintes problemas analíticos relacionados a controle de processos e controle de qualidade: (i) determinação de parâmetros de qualidade do óleo diesel utilizados para otimização do processo de mistura em linha na produção desse combustível; (ii) determinação de parâmetros de qualidade do óleo diesel que é carga do processo de HDT, para controle e otimização das condições de processo dessa unidade; (iii) determinação do teor de biodiesel na mistura com o óleo diesel; (iv) classificação das diferentes correntes que compõem o pool de óleo diesel na refinaria, permitindo a identificação de adulterações e controle de qualidade; (v) classificação de lubrificantes quanto ao teor de óleo naftênico e/ou presença de óleo vegetal. Demonstram-se o melhor desempenho do SVM em relação aos modelos desenvolvidos com os métodos quimiométricos de referência (métodos lineares). O desenvolvimento de métodos analíticos rápidos e de baixo custo para solução de problemas em controle de processos e controle de qualidade, com a utilização de modelos de regressão e classificação mais exatos, proporcionam o monitoramento da qualidade de forma mais eficaz e eficiente, contribuindo para o aumento das rentabilidades nas atividades econômicas de produção e comercialização dos derivados do petróleo estudados / Abstract: Linear regression and classification models can produce a poor performance in processing near-infrared spectroscopy data of petroleum products. Support vectors machine (SVM), based on statistical learning theory, provides the development of models for nonlinear regression and classification that can result in better modeling of these data but it is still little explored for solving problems in analytical chemistry. This work demonstrates the use of the SVM for treatment of near-infrared spectroscopy data of fuels and lubricants. The SVM was used to solve regression and classification problems and its results were compared with the reference algorithms PLS and SIMCA. The following analytical problems related to process control and quality control were studied: (i) quality parameters determination of diesel oil, used for optimization of in line blending process; (ii) quality parameters determination of diesel oil which is feed-stock of HDT unit for optimization of process control; (iii) quantification of biodiesel blended with diesel oil; (iv) classification of different streams that make up the pool of diesel oil in the refinery, enabling identification of adulteration and quality control; (v) classification of lubricants based on the content of naphthenic oil and/or the presence of vegetable oil. It is shown the best performance of the SVM compared to models developed with the reference algorithms. The development of fast and low cost analytical methods used in process control and quality control, with the use of more accurate regression and classification models, allows monitoring quality parameters in more effectiveness and efficient manner, making possible an increase in profitability of economic activities of production and business of petroleum derivatives studied / Doutorado / Quimica Analitica / Doutor em Ciências
|
253 |
[en] THE BOOSTING AT START ALGORITHM AND ITS APPLICATIONS / [pt] O ALGORITMO BOOSTING AT START E SUAS APLICACOESJULIO CESAR DUARTE 15 September 2017 (has links)
[pt] Boosting é uma técnica de aprendizado de máquina que combina diversos classificadores fracos com o objetivo de melhorar a acurácia geral. Em cada iteração, o algoritmo atualiza os pesos dos exemplos e constrói um classificador adicional. Um esquema simples de votação é utilizado para combinar os classificadores. O algoritmo mais famoso baseado em Boosting é o AdaBoost. Este algoritmo aumenta os pesos dos exemplos em que os classificadores anteriores cometeram erros. Assim, foca o classificador adicional nos exemplos mais difíceis. Inicialmente, uma distribuição uniforme de pesos é atribúda aos exemplos. Entretanto, não existe garantia que essa seja a melhor escolha para a distribuição inicial. Neste trabalho, apresentamos o Boosting at Start (BAS), uma nova abordagem de aprendizado de máquina baseada em Boosting. O BAS generaliza o AdaBoost permitindo a utilização de uma distribuição inicial arbitrária. Também apresentamos esquemas para determinação de tal distribuição. Além disso, mostramos como adaptar o BAS para esquemas de Aprendizado Semi-supervisionado. Adicionalmente, descrevemos a aplicação do BAS em diferentes problemas de classificação de dados e de texto, comparando o seu desempenho com o algoritmo AdaBoost original e alguns algoritmos do estado-da-arte para tais tarefas. Os resultados experimentais indicam que uma modelagem simples usando o algoritmo BAS gera classificadores eficazes. / [en] Boosting is a Machine Learning technique that combines several weak classifers with the goal of improving the overall accuracy. In each iteration, the algorithm updates the example weights and builds an additional classifer. A simple voting scheme is used to combine the classifers. The most famous Boosting-based algorithm is AdaBoost. This algorithm increases the weights of the examples that were misclassifed by the previous classifers. Thus, it focuses the additional classifer on the hardest examples. Initially,
an uniform weight distribution is assigned to the examples. However, there is no guarantee that this is the best choice for the initial distribution. In this work, we present Boosting at Start (BAS), a new Machine Learning approach based on Boosting. BAS generalizes AdaBoost by allowing the use of an arbitrary initial distribution. We present schemes for the determination of such distribution. We also show how to adapt BAS to Semi-supervised learning schemes. Additionally, we describe the application of BAS in different problems of data and text classifcation, comparing its performance with the original AdaBoost algorithm and some state-of-the-art algorithms for such tasks. The experimental results indicate that a simple modelling using the BAS algorithm generates effective classifers.
|
254 |
Modelos de classificação : aplicações no setor bancário / Classification models : applications in banking sectorCaetano, Mateus, 1983- 02 June 2015 (has links)
Orientadores: Antonio Carlos Moretti, Márcia Aparecida Gomes Ruggiero / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-26T18:03:59Z (GMT). No. of bitstreams: 1
Caetano_Mateus_M.pdf: 1249293 bytes, checksum: f8adb755363291250261872ea756f58c (MD5)
Previous issue date: 2015 / Resumo: Técnicas para solucionar problemas de classificação têm aplicações em diversas áreas, como concessão de crédito, reconhecimento de imagens, detecção de SPAM, entre outras. É uma área de intensa pesquisa, para a qual diversos métodos foram e continuam sendo desenvolvidos. Dado que não há um método que apresente o melhor desempenho para qualquer tipo de aplicação, diferentes métodos precisam ser comparados para que possamos encontrar o melhor ajuste para cada aplicação em particular. Neste trabalho estudamos seis diferentes métodos aplicados em problemas de classificação supervisionada (onde há uma resposta conhecida para o treinamento do modelo): Regressão Logística, Árvore de Decisão, Naive Bayes, KNN (k-Nearest Neighbors), Redes Neurais e Support Vector Machine. Aplicamos os métodos em três conjuntos de dados referentes à problemas de concessão de crédito e seleção de clientes para campanha de marketing bancário. Realizamos o pré-processamento dos dados para lidar com observações faltantes e classes desbalanceadas. Utilizamos técnicas de particionamento do conjunto de dados e diversas métricas, como acurácia, F1 e curva ROC, com o objetivo de avaliar os desempenhos dos métodos/técnicas. Comparamos, para cada problema, o desempenho dos diferentes métodos considerando as métricas selecionadas. Os resultados obtidos pelos melhores modelos de cada aplicação foram compatíveis com outros estudos que utilizaram os mesmos bancos de dados / Abstract: Techniques for classification problems have applications on many areas, such as credit risk evaluation, image recognition, SPAM detection, among others. It is an area of intense research, for which many methods were and continue to be developed. Given that there is not a method whose performance is better across any type of problems, different methods need to be compared in order to select the one that provides the best adjustment for each application in particular. In this work, we studied six different methods applied to supervised classification problems (when there is a known response for the model training): Logistic Regression, Decision Tree, Naive Bayes, KNN (k-Nearest Neighbors), Neural Networks and Support Vector Machine. We applied these methods on three data sets related to credit evaluation and customer selection for a banking marketing campaign. We made the data pre-processing to cope with missing data and unbalanced classes. We used data partitioning techniques and several metrics, as accuracy, F1 and ROC curve, in order to evaluate the methods/techniques performances. We compared, for each problem, the performances of the different methods using the selected metrics. The results obtained for the best models on each application were comparable to other studies that have used the same data sources / Mestrado / Matematica Aplicada / Mestra em Matemática Aplicada
|
255 |
[pt] APRENDIZADO ESTRUTURADO COM INDUÇÃO E SELEÇÃO INCREMENTAIS DE ATRIBUTOS PARA ANÁLISE DE DEPENDÊNCIA EM PORTUGUÊS / [en] STRUCTURED LEARNING WITH INCREMENTAL FEATURE INDUCTION AND SELECTION FOR PORTUGUESE DEPENDENCY PARSINGYANELY MILANES BARROSO 09 November 2016 (has links)
[pt] O processamento de linguagem natural busca resolver várias tarefas de complexidade crescente que envolvem o aprendizado de estruturas complexas, como grafos e sequências, para um determinado texto. Por exemplo, a análise de dependência envolve o aprendizado de uma árvore que descreve a estrutura sintática de uma sentença dada. Um método amplamente utilizado para melhorar a representação do conhecimento de domínio em esta tarefa é considerar combinações de atributos usando conjunções lógicas que codificam informação útil com um padrão não-linear. O número total de todas as combinações possíveis para uma conjunção dada cresce exponencialmente no número de atributos e pode resultar em intratabilidade computacional. Também, pode levar a overfitting. Neste cenário, uma técnica para evitar o superajuste e reduzir o conjunto de atributos faz-se necessário. Uma abordagem comum para esta tarefa baseia-se em atribuir uma pontuação a uma árvore de dependência, usando uma função linear do conjunto de atributos. Sabe-se que os modelos lineares esparsos resolvem simultaneamente o problema de seleção de atributos e a estimativa de um modelo linear, através da combinação de um pequeno conjunto de atributos. Neste caso, promover a esparsidade ajuda no controle do superajuste e na compactação do conjunto de atributos. Devido a sua exibilidade, robustez e simplicidade, o algoritmo de perceptron é um método linear discriminante amplamente usado que pode ser modificado para produzir modelos esparsos e para lidar com atributos não-lineares. Propomos a aprendizagem incremental da combinação de um modelo linear esparso com um procedimento de indução de variáveis não-lineares, num cénario de predição estruturada. O modelo linear esparso é obtido através de uma modificação do algoritmo perceptron. O método de indução é Entropy-Guided Feature Generation. A avaliação empírica é realizada usando o conjunto de dados para português da CoNLL 2006 Shared Task. O analisador resultante alcança 92,98 por cento de precisão, que é um desempenho competitivo quando comparado com os sistemas de estado- da-arte. Em sua versão regularizada, o analizador alcança uma precisão de 92,83 por cento , também mostra uma redução notável de 96,17 por cento do número de atributos binários e, reduz o tempo de aprendizagem em quase 90 por cento, quando comparado com a sua versão não regularizada. / [en] Natural language processing requires solving several tasks of increasing
complexity, which involve learning to associate structures like graphs and
sequences to a given text. For instance, dependency parsing involves learning
of a tree that describes the dependency-based syntactic structure of a
given sentence. A widely used method to improve domain knowledge
representation in this task is to consider combinations of features, called
templates, which are used to encode useful information with nonlinear
pattern. The total number of all possible feature combinations for a given
template grows exponentialy in the number of features and can result in
computational intractability. Also, from an statistical point of view, it can
lead to overfitting. In this scenario, it is required a technique that avoids
overfitting and that reduces the feature set. A very common approach to
solve this task is based on scoring a parse tree, using a linear function
of a defined set of features. It is well known that sparse linear models
simultaneously address the feature selection problem and the estimation
of a linear model, by combining a small subset of available features. In
this case, sparseness helps control overfitting and performs the selection
of the most informative features, which reduces the feature set. Due to
its
exibility, robustness and simplicity, the perceptron algorithm is one of
the most popular linear discriminant methods used to learn such complex
representations. This algorithm can be modified to produce sparse models
and to handle nonlinear features. We propose the incremental learning of
the combination of a sparse linear model with an induction procedure of
non-linear variables in a structured prediction scenario. The sparse linear
model is obtained through a modifications of the perceptron algorithm. The
induction method is the Entropy-Guided Feature Generation. The empirical
evaluation is performed using the Portuguese Dependency Parsing data set
from the CoNLL 2006 Shared Task. The resulting parser attains 92.98 per cent of
accuracy, which is a competitive performance when compared against the
state-of-art systems. On its regularized version, it accomplishes an accuracy
of 92.83 per cent, shows a striking reduction of 96.17 per cent in the number of binary
features and reduces the learning time in almost 90 per cent, when compared to
its non regularized version.
|
256 |
[pt] ESQUEMA GERAL DE PROPAGAÇÃO BIDIMENSIONAL DE TRINCAS USANDO O MÉTODO CONSISTENTE DOS ELEMENTOS DE CONTORNO / [en] GENERAL TWO-DIMENSIONAL CRACK PROPAGATION SCHEME USING THE CONSISTENT BOUNDARY ELEMENT METHODGUILHERME OLIVEIRA RABELO 03 June 2022 (has links)
[pt] Apresenta-se neste trabalho um procedimento de análise de propagação de trincas a partir de um programa de computador baseado na formulação do método consistente dos elementos de contorno para problemas bidimensionais. Este método tem como uma das suas principais características a solução exata dos problemas de singularidade presentes na formulação. Além disso, com esta metodologia é possível representar a geometria da trinca com aberturas micrométricas, de forma semelhante ao observado em ensaios laboratoriais. Neste estudo, são analisados os resultados de propagação em três estruturas com geometrias distintas, cada estrutura submetida a diferentes combinações de carga, com o objetivo de reproduzir modos puros de carregamento I e II, assim como modo misto de carregamento. É realizado um estudo sobre o tamanho dos incrementos utilizados nos modelos e do ângulo de propagação, possibilitando determinar que o tamanho ideal dos elementos de novos trechos deve se limitar à mesma dimensão dos elementos vizinhos, evitando possíveis erros numéricos, enquanto o ângulo de propagação pode ser determinado utilizando os fatores de intensidade de tensão (FIT) KI e KII, empregando o conceito de tensão principal máxima. O FIT é obtido por meio de deslocamentos recíprocos próximos à ponta da trinca, sendo realizado um estudo com um exemplo de referência para medir a confiabilidade da técnica, com diferenças de no máximo 7 por cento. O desempenho observado utilizando a metodologia adotada neste estudo é comparado com outros resultados encontrados na literatura, mostrando caminhos de propagação de trinca semelhantes em todas as simulações. No decorrer do trabalho são explicados os conceitos de mecânica da fratura linearmente elástica e da geometria da trinca adotada, assim como o desenvolvimento do código computacional. / [en] This work presents a crack propagation analysis procedure on a computer program based on the consistent boundary element formulation for two-dimensional problems. This method has as one of its main features the exact solution of the singularity problems present in the formulation. In addition, with this methodology it is possible to represent the crack geometry with micrometric openings, similar to the cracks presented in laboratory tests. In this study, the propagation results in three structures with different geometries are analyzed, each structure subjected to different load combinations, in order to reproduce pure loading modes I and II, as well as mixed loading modes. A study is carried out on the size of the increments used in the models and on the propagation angle, making it possible to determine that the ideal size of the elements of new sections should be limited to the same dimension of the neighboring elements, avoiding possible numerical errors, while the propagation angle can be determined using the stress intensity factors (FIT) KI e KII, employing the concept of maximum principal stress. The FIT is obtained through reciprocal displacements close to the crack tip, and a study is carried out with a reference example to measure the reliability of the technique, with differences of at most 7 per cent. The performance observed using the methodology adopted in this study is compared with other results found in literature, showing similar crack propagation paths in all simulations. In the course of the chapters, the concepts of linearly elastic fracture mechanics and the adopted crack geometry are explained, as well as the development of the computational code.
|
257 |
[en] CONSISTENT BOUNDARY ELEMENT IMPLEMENTATION OF A FAST MULTIPOLE TECHNIQUE FOR THREEDIMENSIONAL POTENTIAL PROBLEMS / [pt] IMPLEMENTAÇÃO CONSISTENTE EM ELEMENTOS DE CONTORNO DA TÉCNICA FAST MULTIPOLE PARA PROBLEMAS TRIDIMENSIONAIS DE POTENCIALHILTON MARQUES SOUZA SANTANA 28 June 2022 (has links)
[pt] O método fast multipole é um poderoso algoritmo para a modelagem num simples
computador de mesa de problemas com muitos milhões de graus de liberdade. Sua
combinação com o método de colocação dos elementos de contorno, que se baseia em
soluções fundamentais com suporte global, conduz a um esquema cuja eficiência ou às
vezes apenas exequibilidade de simulação não podem ser igualadas por qualquer outra
ferramenta numérica. O objetivo básico da presente pesquisa é a consolidação de
algoritmos computacionais previamente desenvolvidos na PUC-Rio em linguagem
C++ para a análise de problemas tridimensionais de potencial. É aplicado um esquema
de integração analítica – com precisão de máquina – para quando o elemento de
contorno e ponto fonte estejam próximos, numa implementação específica para
elementos triangulares de três nós. Para distâncias maiores, aplica-se um esquema de
integração numérica adaptativa, que é computacionalmente mais rápido. Para grandes
distâncias, é aplicado um esquema fast multipole reverso e duas vezes recursivo
proposto em teses e dissertações anteriores, também com avaliação exata das integrais
de contorno. Com isso, desenvolvimentos recentemente concluídos na PUC-Rio para
problemas 3D puderam ser reconceituados e reformulados. A validação do programa
implementado é feita por meio de alguns exemplos numéricos bem elucidativos. / [en] The fast multipole is a powerful algorithm for modelling on a simple desktop
computer problems with many millions of degrees of freedom. Its combination with
the collocation boundary element method, which is based on fundamental solutions
with global support, leads to a scheme whose efficiency or sometimes just simulation
feasibility cannot be matched by any other numerical tool. The basic goal of this
research work is the consolidation of computer algorithms previously developed at
PUC-Rio in language C++ for the analysis of threedimensional potential problems. An
analytic, thus machine-precision, evaluation scheme of integrals for the case of close
distances between boundary elements and source points is implemented for the specific
case of three-node triangle elements. For larger distances an adaptative quadrature
scheme is applied for the sake of saving computational effort. For very large distances
a reverse fast multipole scheme previously implemented by M.Sc. and Ph.D. works is
implemented – also making use of machine-precision boundary integral evaluations.
This has ultimately led to a complete revisiting of the recent fast multipole
developments carried out at PUC-Rio. The implemented code is validated by means of
a few elucidative numerical examples.
|
258 |
[en] CONVERSATIONAL INTERFACES: THE EXPERIENCE IN THE USE OF VOICE INTERACTIONS / [pt] INTERFACES CONVERSACIONAIS: A EXPERIÊNCIA NO USO DA VOZ EM INTERAÇÕESLUCAS JOSE DA SILVA SANTOS 31 May 2021 (has links)
[pt] O presente estudo parte da premissa de que novas formas de se comunicar surgem ao longo dos anos, inclusive na relação entre o humano e a máquina, onde, atualmente, a fala é o veículo comunicacional
predominante. E nesse diálogo há uma busca para a adequação da máquina à nossa forma de comunicação e uma constante necessidade de adequação dos seres humanos à forma de comunicação da máquina. Essa
investigação visa elucidar se sistemas baseados em interfaces de voz compõe o modelo de interação fundado no que se define como conversa, sendo amparados pelas áreas da ergonomia e usabilidade e por
fundamentos provenientes da teoria da conversação. Este trabalho encontra-se estruturado em quatro seções: a primeira equivale a fundamentação teórica; a segunda seção abrange o levantamento de
dados através de entrevistas com usuários de interfaces conversacionais; a terceira seção constitui-se na análise de conteúdo das entrevistas; e por fim, a quarta seção envolve as considerações em torno das experiências no uso de interfaces conversacionais atuais. / [en] The present study starts from the premise that new ways of communication are emerging throughout the years, including the relationship between human and machine, which nowadays, speech is the
predominant communicational vehicle. And in this dialogue, there is a search for the adaptation of the machine to our form of communication and a constant need to human s adaptation to the machine s form of communication. This investigation attempts to clarify if systems based on voice interfaces are in fact composed by a model of interaction that is defined as conversation, and if they are actually being supported by the areas of ergonomics, usability, and also by the basics fundaments of conversation theory. This work finds itself structured in four sections: the first one corresponds to the theoretical foundations; the second section embraces data collection, which gathered several interviews with the users
of conversational interfaces; the third section is established on the content analysis of the previous interviews; lastly, the fourth section concerns the final considerations of the current experience of conversational interfaces.
|
259 |
[pt] REVELANDO AS FACETAS SOCIAIS E TÉCNICAS DA DEGRADAÇÃO DO DESIGN NA REVISÃO DE CÓDIGO MODERNA / [en] UNVEILING SOCIAL AND TECHNICAL FACETS OF DESIGN DEGRADATION IN MODERN CODE REVIEWANDERSON GONCALVES UCHOA 08 October 2021 (has links)
[pt] O design de software é uma preocupação fundamental na revisão de código, por meio da qual os desenvolvedores discutem ativamente e melhoram cada mudança de software. No entanto, a revisão de código é uma tarefa colaborativa influenciada por aspectos técnicos e sociais. Consequentemente,
esses aspectos podem desempenhar um papel fundamental em como o design de software se degrada. Eles podem contribuir para acelerar ou reverter a degradação do design durante o processo de revisão de cada mudança. No entanto, há pouco entendimento sobre: (i) o impacto da revisão do código
e suas práticas na degradação do design ao longo do tempo; e (ii) em que medida os aspectos sociais e técnicos estão relacionados com a redução ou aumento da degradação do design. Abordamos essas limitações motivadas por dois objetivos. Nosso primeiro objetivo é fornecer uma caracterização
de como as revisões de código modernas afetam a degradação do design durante a manutenção do software. Consideramos vários aspectos técnicos e sociais para estudar o impacto das revisões de código, utilizando técnicas de aprendizado de máquina. Nosso segundo objetivo é explorar o papel dos
aspectos técnicos e sociais em distinguir e predizer mudanças de design (não) impactantes durante as revisões de código. Uma mudança de design é considerada impactante quando varia a densidade e a diversidade dos sintomas de degradação (ou seja, cheiros de código). Esses objetivos foram
abordados em dois estudos empíricos. Nosso primeiro estudo relata uma caracterização do impacto das revisões de código na evolução dos sintomas de degradação ao longo de cada revisão de código. Também levamos em consideração quando havia um objetivo explícito ou discussões sobre design
de software. Nosso segundo estudo relata uma análise dos aspectos técnicos e sociais que influenciam as mudanças ao longo de todas as revisões em uma única revisão de código. Então, pudemos observar o papel dos aspectos sociais em distinguir e predizer mudanças impactantes no design. Nossos resultados
mostram que a maioria das revisões de código tem pouco ou nenhum impacto na degradação, mesmo com discussões explícitas de design. Longas discussões e uma alta taxa de discordância dos revisores aumentam o risco de degradação. Os aspectos sociais e técnicos são capazes de distinguir mudanças de design (não) impactantes. Em resumo, nossos resultados nos forneceram uma melhor compreensão dos aspectos influentes que nos ajudam a derivar diretrizes para mitigar a degradação durante as revisões de código. Nossos resultados também fornecem insights para projetar novas ferramentas de revisão de
código, também capazes de alertar os desenvolvedores com antecedência sobre o impacto prejudicial do design ao longo das revisões de código. / [en] Software design is a key concern in code review through which developers actively discuss and improve each software change. Nevertheless, code review is a collaborative task influenced by technical and social aspects. Consequently, these aspects can play a key role in how software design degrades. They can
contribute to accelerating or reversing design degradation during the process of each single change s review. However, there is little understanding about: (i) the impact of code review and their practices on design degradation over time; and (ii) to what extent social and technical aspects are related to the reduction or increase of design degradation.We addressed these limitations driven by two goals. Our first goal is to provide a characterization of how modern code reviews impact design degradation during software maintenance. We consider various technical and socials aspects to study the code reviews impact. Our second goal is to explore the role of technical and social aspects in distinguishing and predicting (un)impactful design changes during code reviews, using machine learning techniques. A design change is considered impactful when it varies the density and diversity of degradation symptoms (i.e., code smells). These goals were addressed with two empirical studies. Our first study reports a characterization of the impact of code reviews on the evolution of degradation symptoms along each code review. We also took into consideration when there was an explicit goal or discussions around software design. Our second study
reports an analysis of technical and social aspects influencing changes along all the revisions within a single code review. Then, we could observe the role of social aspects in distinguishing and predicting design impactful changes. Our results show that the majority of code reviews have little or no impact on
degradation, even with explicit design discussions. Long discussions and a high rate of reviewers disagreement increase the risk of degradation. Both social and technical aspects are able to distinguish design (un)impactful changes. In summary, our results provided us with a better understanding of influential aspects that help us in deriving guidelines to mitigate degradation during code
reviews. Our results also provide insights to design a new code review tool salso able to warn developers early about the harmful design impact along code reviews.
|
260 |
[en] AN APPROACH BASED ON INTERACTIVE MACHINE LEARNING AND NATURAL INTERACTION TO SUPPORT PHYSICAL REHABILITATION / [pt] UMA ABORDAGEM BASEADA NO APRENDIZADO DE MÁQUINA INTERATIVO E INTERAÇÃO NATURAL PARA APOIO À REABILITAÇÃO FÍSICAJESSICA MARGARITA PALOMARES PECHO 10 August 2021 (has links)
[pt] A fisioterapia visa melhorar a funcionalidade física das pessoas, procurando
atenuar as incapacidades causadas por alguma lesão, distúrbio ou
doença. Nesse contexto, diversas tecnologias computacionais têm sido desenvolvidas
com o intuito de apoiar o processo de reabilitação, como as tecnologias
adaptáveis para o usuário final. Essas tecnologias possibilitam ao fisioterapeuta
adequar aplicações e criarem atividades com características personalizadas de
acordo com as preferências e necessidades de cada paciente. Nesta tese é proposta
uma abordagem de baixo custo baseada no aprendizado de máquina
interativo (iML - Interactive Machine Learning) que visa auxiliar os fisioterapeutas
a criarem atividades personalizadas para seus pacientes de forma fácil
e sem a necessidade de codificação de software, a partir de apenas alguns exemplos
em vídeo RGB (capturadas por uma câmera de vídeo digital) Para tal,
aproveitamos a estimativa de pose baseada em aprendizado profundo para rastrear,
em tempo real, as articulações-chave do corpo humano a partir de dados
da imagem. Esses dados são processados como séries temporais por meio do algoritmo
Dynamic Time Warping em conjunto com com o algoritmo K-Nearest
Neighbors para criar um modelo de aprendizado de máquina. Adicionalmente,
usamos um algoritmo de detecção de anomalias com o intuito de avaliar automaticamente
os movimentos. A arquitetura de nossa abordagem possui dois
módulos: um para o fisioterapeuta apresentar exemplos personalizados a partir
dos quais o sistema cria um modelo para reconhecer esses movimentos; outro
para o paciente executar os movimentos personalizados enquanto o sistema
avalia o paciente. Avaliamos a usabilidade de nosso sistema com fisioterapeutas
de cinco clínicas de reabilitação. Além disso, especialistas avaliaram clinicamente
nosso modelo de aprendizado de máquina. Os resultados indicam que
a nossa abordagem contribui para avaliar automaticamente os movimentos dos
pacientes sem monitoramento direto do fisioterapeuta, além de reduzir o tempo
necessário do especialista para treinar um sistema adaptável. / [en] Physiotherapy aims to improve the physical functionality of people, seeking
to mitigate the disabilities caused by any injury, disorder or disease. In
this context, several computational technologies have been developed in order
to support the rehabilitation process, such as the end-user adaptable technologies.
These technologies allow the physiotherapist to adapt applications and
create activities with personalized characteristics according to the preferences
and needs of each patient. This thesis proposes a low-cost approach based on
interactive machine learning (iML) that aims to help physiotherapists to create
personalized activities for their patients easily and without the need for
software coding, from just a few examples in RGB video (captured by a digital
video camera). To this end, we take advantage of pose estimation based on deep
learning to track, in real time, the key joints of the human body from image
data. This data is processed as time series using the Dynamic Time Warping
algorithm in conjunction with the K-Nearest Neighbors algorithm to create a
machine learning model. Additionally, we use an anomaly detection algorithm
in order to automatically assess movements. The architecture of our approach
has two modules: one for the physiotherapist to present personalized examples
from which the system creates a model to recognize these movements; another
to the patient performs personalized movements while the system evaluates
the patient. We assessed the usability of our system with physiotherapists
from five rehabilitation clinics. In addition, experts have clinically evaluated
our machine learning model. The results indicate that our approach contributes
to automatically assessing patients movements without direct monitoring by
the physiotherapist, in addition to reducing the specialist s time required to
train an adaptable system.
|
Page generated in 0.0635 seconds