• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 192
  • 89
  • 5
  • 1
  • 1
  • Tagged with
  • 290
  • 186
  • 156
  • 151
  • 132
  • 68
  • 41
  • 41
  • 34
  • 34
  • 31
  • 30
  • 29
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

[pt] MODELAGEM DE EVENTOS DE TRÂNSITO COM BASE EM CLIPPING DE GRANDES MASSAS DE DADOS DA WEB / [en] TRAFFIC EVENTS MODELING BASED ON CLIPPING OF HUGE QUANTITY OF DATA FROM THE WEB

LUCIANA ROSA REDLICH 28 January 2015 (has links)
[pt] Este trabalho consiste no desenvolvimento de um modelo que auxilie na análise de eventos ocorridos no trânsito das grandes cidades. Utilizando uma grande massa de dados publicados na Internet, em especial no twitter, por usuários comuns, este trabalho fornece uma ontologia para eventos do trânsito publicados em notícias da internet e uma aplicação que use o modelo proposto para realizar consultas aos eventos modelados. Para isso, as notícias publicadas em linguagem natural são processadas, isto é, as entidades relevantes no texto são identificadas e depois estruturadas de tal forma que seja feita uma analise semântica da notícia publicada. As notícias publicadas são estruturadas no modelo proposto de eventos e com isso é possível que sejam feitas consultas sobre suas propriedades e relacionamentos, facilitando assim a análise do processo do trânsito e dos eventos ocorridos nele. / [en] This work proposes a traffic event model to assist the analysis of traffic events on big cities. This paper aims to provide not only an ontology for traffic events considering published news over the Internet, but also a prototype of a software architecture that uses the proposed model to perform queries on the events, using a huge quantity of published data on the Internet by regular users, especially on twitter. To do so, the news published in natural language is processed, and the relevant entities in the text are identified and structured in order to make a semantic analysis of them. The news reported is structured in the proposed model of events and thus the queries about their properties and relationships could be answered. As a consequence, the result of this work facilitates the analysis of the events occurred on the traffic process.
152

[en] DECISION DIAGRAMS FOR CLASSIFICATION: NEW CONSTRUCTIVE APPROACHES / [pt] DIAGRAMAS DE DECISÃO PARA CLASSIFICAÇÃO: NOVAS ABORDAGENS CONSTRUTIVAS

PEDRO SARMENTO BARBOSA MARTINS 16 October 2023 (has links)
[pt] Diagramas de decisão são uma generalização de árvores de decisão, já propostos como um modelo de aprendizado de máquina para classificação supervisionada mas não largamente adotados. A razão é a dificuldade em treinar o modelo, já que o requerimento de decidir splits (partições) e merges (uniões de nós) em conjunto pode levar a problemas difíceis de otimização combinatória. Um diagrama de decisão tem importantes vantagens sobre árvores de decisão, pois melhor expressa conceitos binários disjuntos, evitando o problema de duplicação de subárvores e, portanto, apresentando menos fragmentação em nós internos. Por esse motivo, desenvolver algoritmos efetivos de construção é um esforço importante. Nesse contexto, o algoritmo Optimal Decision Diagram (ODD) foi recentemente proposto, formulando a construção do diagrama com programação inteira mista (MILP na sigla em inglês), com um warm start proveniente de uma heurística construtiva gulosa. Experimentos mostraram que essa heurística poderia ser aperfeiçoada, a fim de encontrar soluções próximas do ótimo de maneira mais efetiva, e por sua vez prover um warm start melhor. Nesse estudo, reportamos aperfeiçoamentos para essa heurística construtiva, sendo eles a randomização das decisões de split, a poda de fluxos puros (ou seja, fluxos de exemplos pertencentes a uma única classe), e aplicando uma poda bottom-up (de baixo para cima), que considera a complexidade do modelo além da sua acurácia. Todos os aperfeiçoamentos propostos têm efeitos positivos na acurácia e generalização, assim como no valor objetivo do algoritmo ODD. A poda bottom-up, em especial, tem impacto significativo no valor objetivo, e portanto na capacidade da formulação MILP de encontrar soluções ótimas. Ademais, provemos experimentos sobre a expressividade de diagramas de decisão em comparação a árvores no contexto de pequenas funções booleanas em Forma Normal Disjuntiva (DNF na sigla em inglês), assim como uma aplicação web para a exploração visual dos métodos construtivos propostos. / [en] Decision diagrams are a generalization of decision trees. They have been repeatedly proposed as a supervised classification model for machine learning but have not been widely adopted. The reason appears to be the difficulty of training the model, as the requirement of deciding splits and merging nodes can lead to difficult combinatorial optimization problems. A decision diagram has marked advantages over decision trees because it better models disjoint binary concepts, avoiding the replication of subtrees and thus has less sample fragmentation in internal nodes. Because of this, devising an effective construction algorithm is important. In this context, the Optimal Decision Diagram (ODD) algorithm was recently proposed, which formulates the problem of building a diagram as a mixed-integer linear program (MILP), with a warm start provided by a greedy constructive heuristic. Initial experiments have shown that this heuristic can be improved upon, in order to find close-to-optimal solutions more effectively and in turn provide the MILP with a better warm start. In this study, we report improvements to this constructive heuristic, by randomizing the split decisions, pruning pure flows (i.e. flows with samples from a single class), and applying bottom-up pruning, which considers the complexity of the model in addition to its accuracy. All proposed improvements have positive effects on accuracy and generalization, as well as the objective value of the ODD algorithm. The bottom-up pruning strategy, in particular, has a substantial impact on the objective value, and thus on the ability of the MILP solver to find optimal solutions. In addition, we provide experiments on the expressiveness of decision diagrams when compared to trees in the context of small boolean functions in Disjoint Normal Form (DNF), as well as a web application for the visual exploration of the proposed constructive approaches.
153

[en] PREDICTION OF PLASTIC STRAIN ACCUMULATION AT GRAIN BOUNDARIES OF POLYCRYSTALLINE METALS BASED ON MACHINE LEARNING / [pt] PREVISÃO DO ACÚMULO DE DEFORMAÇÕES PLÁSTICAS EM CONTORNOS DE GRÃOS DE METAIS POLICRISTALINOS BASEADO EM APRENDIZADO DE MÁQUINA

LARA CRISTINA PEREIRA DE ARAUJO 30 November 2023 (has links)
[pt] Métodos de aprendizado de máquina vêm sendo bastante utilizados na área de mecânica dos sólidos devido ao grande volume de dados disponíveis na literatura. A motivação deste trabalho foi o estudo do acúmulo de deformação plástica na escala de grãos, pois o uso do aprendizado de máquina pode ser uma significativa contribuição para criar modelos capazes de prever o acúmulo de deformações. O objetivo deste trabalho foi aprimorar a previsão do acúmulo de deformação plástica propondo um novo método de previsão de acúmulo de deformações plásticas em contornos de grãos de um material policristalino, usando modelos de aprendizado de máquina. Este trabalho utilizou-se de dados experimentais da literatura para estruturar três bancos de dados, os que consideraram somente os contornos de grãos. Nas previsões foram utilizados os seguintes métodos: Decision Tree, Random Forest, Stochastic Gradient Descent, K-Nearest Neighbors, Gradient Boosting Regressor e Análise de Componentes Principais (PCA). Na avaliação dos modelos foram empregados os métodos de validação cruzada e reamostragem de Monte Carlo. As métricas de erro aplicadas foram o coeficiente de determinação (R2) e o coeficiente de correlação de Pearson (R). Os resultados apontaram que as previsões foram coerentes e de boa qualidade, melhorando os valores médios do coeficiente de Pearson em aproximadamente 30 por cento comparados aos valores da literatura. Para o R(2) a média de valores alcançada foi de 0.85. Conclui-se que o uso do método de aprendizado de máquina se mostra confiável na previsão do acúmulo de deformação plástica no contorno do grão de um material policristalino. / [en] Machine learning methods have been widely used in the area of solid mechanics due to the large volume of data available in the literature. The motivation for this work was the study of the accumulation of plastic strain at the grain scale. Because the use of machine learning can be a significant contribution to creating models capable of predicting the accumulation of deformation. The objective of this work was to improve the prediction of plastic strain accumulation by proposing a new method for predicting the accumulation of plastic strains in grain boundaries of a polycrystalline material, using machine learning models. This work uses experimental data from the literature to structure three databases, which only consider grain boundaries. The following methods were used in the predictions: Decision Tree, Random Forest, Stochastic Gradient Descent, K-Nearest Neighbors, Gradient Boosting Regressor, and Principal Component Analysis (PCA). Monte Carlo crossvalidation and resampling methods were used to evaluate the models. The error metrics applied were the coefficient of determination (R2) and the Pearson correlation coefficient (R). The results indicate that the predictions were coherent and of good quality, improving the average Pearson coefficient values by approximately 30 percent compared to literature values. For R(2), the average value achieved was 0.85. It is concluded that the use of the machine learning method proves to be reliable in predicting the accumulation of plastic strain at the grain boundary of a polycrystalline material.
154

[en] DATA ENRICHMENT BASED ON SIMILARITY GRAPH STATISTICS TO IMPROVE PERFORMANCE IN CLASSIFICATION SUPERVISED ML MODELS / [pt] ENRIQUECIMENTO DE DADOS COM BASE EM ESTATÍSTICAS DE GRAFO DE SIMILARIDADE PARA MELHORAR O DESEMPENHO EM MODELOS DE ML SUPERVISIONADOS DE CLASSIFICAÇÃO

NEY BARCHILON 19 September 2024 (has links)
[pt] A otimização do desempenho dos modelos de aprendizado de máquina supervisionados representa um desafio constante, especialmente em contextos com conjuntos de dados de alta dimensionalidade ou com numerosos atributos correlacionados. Neste estudo, é proposto um método para o enriquecimento de conjuntos de dados tabulares, fundamentado na utilização de estatísticas provenientes de um grafo construído a partir da similaridade entre as instâncias presentes neste conjunto de dados, buscando capturar correlações estruturais entre esses dados. As instâncias assumem o papel de vértices no grafo, enquanto as conexões entre elas refletem sua similaridade. O conjunto de características originais (FO) é enriquecido com as estatísticas extraídas do grafo (FG) na busca pela melhora do poder preditivo dos modelos de aprendizado de máquina. O método foi avaliado em dez conjuntos de dados públicos de distintas áreas de conhecimento, em dois cenários distintos, sobre sete modelos de aprendizado de máquina, comparando a predição sobre o conjunto de dados inicial (FO) com o conjunto de dados enriquecido com as estatísticas extraídas do seu grafo (FO+FG). Os resultados revelaram melhorias significativas na métrica de acurácia, com um aprimoramento médio de aproximadamente 4,9 por cento. Além de sua flexibilidade para integração com outras técnicas de enriquecimento existentes, o método se apresenta como uma alternativa eficaz, sobretudo em situações em que os conjuntos de dados originais carecem das características necessárias para as abordagens tradicionais de enriquecimento com a utilização de grafo. / [en] The optimization of supervised machine learning models performancerepresents a constant challenge, especially in contexts with high-dimensionaldatasets or numerous correlated attributes. In this study, we propose a methodfor enriching tabular datasets, based on the use of statistics derived from agraph constructed from the similarity between instances in the dataset, aimingto capture structural correlations among the data. Instances take on the role ofvertices in the graph, while connections between them reflect their similarity.The original feature set (FO) is enriched with statistics extracted from thegraph (FG) to enhance the predictive power of machine learning models. Themethod was evaluated on ten public datasets from different domains, in twodistinct scenarios, across seven machine learning models, comparing predictionon the initial dataset (FO) with the dataset enriched with statistics extractedfrom its graph (FO+FG). The results revealed significant improvements inaccuracy metrics, with an average enhancement of approximately 4.9 percent. Inaddition to its flexibility for integration with existing enrichment techniques,the method presents itself as a effective alternative, particularly in situationswhere original datasets lack the necessary characteristics for traditional graph-based enrichment approaches.
155

[pt] MEDIDAS DE SIMILARIDADE ENTRE SÉRIES TEMPORAIS / [en] TIME SERIES SYMILARITY MEASURES

JOSE LUIZ DO NASCIMENTO DE AGUIAR 27 October 2016 (has links)
[pt] Atualmente, uma tarefa muito importante na mineração de dados é compreender como extrair os dados mais informativos dentre um número muito grande de dados. Uma vez que todos os campos de conhecimento apresentam uma grande quantidade de dados que precisam ser reduzidas até as informações mais representativas, a abordagem das séries temporais é definitivamente um método muito forte para representar e extrair estas informações. No entanto nós precisamos ter uma ferramenta apropriada para inferir os dados mais significativos destas séries temporais, e para nos ajudar, podemos utilizar alguns métodos de medida de similaridade para saber o grau de igualdade entre duas séries temporais, e nesta pesquisa nós vamos realizar um estudo utilizando alguns métodos de similaridade baseados em medidas de distância e aplicar estes métodos em alguns algoritmos de clusterização para fazer uma avaliação de se existe uma combinação (método de similaridade baseado em distância / algoritmo de clusterização) que apresenta uma performance melhor em relação a todos os outros utilizados neste estudo, ou se existe um método de similaridade baseado em distância que mostra um desempenho melhor que os demais. / [en] Nowadays a very important task in data mining is to understand how to collect the most informative data in a very amount of data. Once every single field of knowledge have lots of data to summarize in the most representative information, the time series approach is definitely a very strong way to represent and collect this information from it (12, 22). On other hand we need to have an appropriate tool to extract the most significant data from this time series. To help us we can use some similarity methods to know how similar is one time series from another In this work we will perform a research using some distance-based similarity methods and apply it in some clustering algorithms to do an assessment to see if there is a combination (distance-based similarity methods / clustering algorithm) that present a better performance in relation with all the others used in this work or if there exists one distancebased similarity method that shows a better performance between the others.
156

[en] A DATA SCIENCE APPROACH TO ANALYZING THE IMPACT OF COGNITIVE RISK-SEEKING BIAS ON INDIVIDUAL DECISION-MAKING INVOLVING FINANCIAL LOSSES / [pt] UMA ABORDAGEM DE CIÊNCIA DE DADOS PARA ANÁLISE DO IMPACTO DO VIÉS COGNITIVO DE BUSCA DE RISCO EM TOMADAS DE DECISÃO INDIVIDUAIS ENVOLVENDO PERDAS FINANCEIRAS

LEONARDO FREITAS SAYAO 12 August 2024 (has links)
[pt] O estudo da tomada de decisões tem ganhado cada vez mais importância, desde as concepções clássicas do homem econômico até os mais recentes conceitos da racionalidade limitada e dos vieses cognitivos. Ao longo do tempo, a crescente complexidade das decisões impulsionou o desenvolvimento de tecnologias como os Sistemas de Apoio à Decisão e Modelos Preditivos, destacando-se mais recentemente a incorporação de técnicas do campo da Inteligência Artificial, e mais precisamente de Aprendizado de Máquina, para melhorar a precisão e a eficiência das tomadas de decisão. Entretanto, por maior que tenham sido os benefícios proporcionados pelos avanços no apoio computacional, as decisões são, em última análise, tomadas por humanos. E, sendo uma tarefa essencialmente humana, a influência dos vieses cognitivos em tomadas de decisão são um desafio relevante e pouco explorado. Esses vieses podem ser decorrentes de diversos fatores, incluindo preferências individuais, influências externas e derivações cognitivas inconscientes. Apesar dos esforços da área da Economia Comportamental em identificar e modelar esses vieses, seu impacto em contextos de decisões monetárias ainda é limitado. Portanto, este trabalho propõe uma arquitetura baseada em fundamentos ontológicos para identificar e analisar o impacto de vieses cognitivos em cenários de alto risco de perdas monetárias. Através da aplicação de técnicas de Ciência de Dados e Aprendizado de Máquina, o objetivo é propor uma metodologia implementada em um artefato computacional, capaz de automaticamente identificar padrões de vieses cognitivos a partir de um histórico de registros de decisões, gerando conhecimento sobre as preferências de risco dos tomadores de decisão e seus ganhos e perdas diante das suas escolhas. O viés específico explorado neste estudo é a Busca de Risco no domínio de perdas, conforme definido no Padrão Quádruplo do Kahneman. A avaliação da eficácia dessa proposta será realizada por meio de um estudo de caso utilizando um benchmark disponível na literatura, fornecendo insights sobre a aplicabilidade e os benefícios práticos da arquitetura proposta. / [en] The study of decision-making has gained more and more importance, from the classical conceptions of the economic man to the more recent concepts of bounded rationality and cognitive biases. Over time, the increasing complexity of decisions has driven the development of technologies such as Decision Support Systems and Predictive Models, highlighting more recently the incorporation of techniques from the field of Artificial Intelligence, and more precisely Machine Learning, to improve the accuracy and efficiency of decision-making. However, as great as the benefits provided by advances in computer support have been, humans are ultimately the ones to make decisions. And, being an essentially human task, the influence of cognitive biases on decision-making is a relevant and underexplored challenge. These biases can be due to various factors, including individual preferences, external influences, and unconscious cognitive derivations. Despite the efforts of the field of Behavioral Economics to identify and model these biases, their impact in contexts of monetary decisions is still limited. Therefore, this work proposes an architecture based on ontological foundations to identify and analyze cognitive biases in scenarios of high risk of monetary losses. Through the application of Data Science and Machine Learning techniques, we propose a methodology - implemented in a computational artifact - capable of automatically identifying patterns of cognitive biases from a history of decision records, generating knowledge about the risk preferences of decision makers and their gains and losses caused by their choices. The specific bias explored in this study is Risk Seeking in the loss domain, as defined in the Kahneman Quadruple Pattern. The evaluation of the effectiveness of this proposal will be carried out through a case study using a benchmark available in the literature, providing insights into the applicability and practical benefits of the proposed architecture.
157

[en] HYBRID SYSTEM IDENTIFICATION TECHNIQUES: BLACK BOX ALGORITHMS AND GREY BOX APPROACHES FOR REAL DATA SIMULATIONS IN OIL PRODUCTION AND DRILLING SPEED ANALYSIS / [pt] TÉCNICAS DE IDENTIFICAÇÃO DE SISTEMAS HÍBRIDOS: ALGORITMOS BLACK BOX E ABORDAGENS GREY BOX PARA SIMULAÇÕES COM DADOS REAIS NA PRODUÇÃO DE PETRÓLEO E ANÁLISE DA VELOCIDADE DE PERFURAÇÃO

DANIEL BOECHAT DE MARINS 03 October 2024 (has links)
[pt] Ambientes industriais, especialmente no setor de petróleo e gás, apresentam desafios únicos para técnicas de identificação de sistemas. Apesar dos avanços, ainda existe uma lacuna em nossa compreensão da integração de algoritmos black box, abordagens grey box e aprendizado de máquina para simulação de dados reais. Com o objetivo de otimizar a compreensão e previsão em ambientes industriais complexos, foram explorados a simulação de dados do mundo real na produção de petróleo e análise da velocidade de perfuração. Este estudo propõe uma análise da integração de algoritmos black box, abordagens grey box e aprendizado de máquina na simulação de dados reais, com ênfase na produção de petróleo e o estudo da interação broca rocha no processo de perfuração de poços de petróleo. Neste trabalho foram empregados técnicas de aprendizado de máquina, como redes neurais e métodos clássicos de identificação de sistemas, como modelos lineares como ARX (AutoRegressive with eXogenous inputs) e não lineares como o NARX (Nonlinear AutoRegressive with eXogenous inputs), para capturar os comportamentos dinâmicos dos processos em estudo utilizando dados reais da produção de petróleo e de perfuração, levando em consideração as características específicas e desafios operacionais desses ambientes. Com base nos resultados obtidos, as técnicas utilizadas demonstraram viabilidade de aplicação, na qual a utilização desses modelos híbridos, que combinam conhecimentos físicos com abordagens de múltiplos modelos formados por algoritmos de identificação de sistemas e aprendizado de máquina, demonstrou potencial para aprimorar as simulações. Esses resultados ressaltam a eficácia desses métodos, indicando que pesquisas futuras podem se dedicar à implementação dessa técnica na identificação de sistemas complexos. / [en] Industrial environments, especially in the oil and gas sector, presentunique challenges for system identification techniques. Despite advancements,there still exists a gap in our understanding of integrating black box algorithms,grey box approaches, and machine learning for simulating real-world data.With the aim of optimizing understanding and prediction in complex industrialenvironments, real-world data simulation in oil production and drilling speedanalysis was explored. This study proposes an analysis of the integration ofblack box algorithms, grey box approaches, and machine learning in simulatingreal-world data, with an emphasis on oil production and the study of the drill-rock interaction in the oil well drilling process. In this work, machine learningtechniques such as neural networks and classical system identification methods,such as linear models like ARX (AutoRegressive with eXogenous inputs) andnonlinear ones like NARX (Nonlinear AutoRegressive with eXogenous inputs),were employed to capture the dynamic behaviors of the processes understudy. Additionally, real data from oil production and drilling were utilized,considering the specific characteristics and operational challenges of theseenvironments. Based on the results obtained, the techniques used demonstratedapplicability and yielded satisfactory outcomes. Specifically, the use of hybridmodels, combining physical knowledge with multiple model approaches formedby system identification algorithms and machine learning, showed potentialfor enhancing simulation. These findings underscore the effectiveness of thesemethods, suggesting that future research could focus on implementing thistechnique in identifying complex systems.
158

Optimización de un modelo de cimentación de una máquina industrial rotativa

Terrádez Marco, Juan Luis 15 November 2024 (has links)
[ES] Las maquinas industriales están fabricadas bajo unas especificaciones y tolerancias para cumplir sus funciones dentro del proceso productivo. Las maquinas producen vibraciones desde el inicio de su vida útil inherentes a las tolerancias e imperfecciones del proceso de fabricación de sus componentes, y que se incrementan por el desgaste de su uso. Las vibraciones provienen de las cargas dinámicas que producen las máquinas en su operación. Estas se transmiten a la cimentación y finalmente al suelo que lo soporta en forma de radiación. Un diseño de la cimentación y de los elementos de conexión entre la máquina y la cimentación (impedancias) reduce las vibraciones que transmite la máquina a su entorno. En el diseño de cimentaciones sometidas a fuerzas dinámicas hay muy pocas aportaciones dedicadas a la optimización, y no existen investigaciones sobre el transitorio de arranque de la máquina, momento en el que se producen las mayores vibraciones. El estado del arte concluye que los autores siempre han optimizado cimentaciones con un grado de libertad y en régimen de operación permanente. El cálculo dinámico de cimentaciones está orientado a reducir las vibraciones que se producen en el régimen permanente de operación. El diseño de las cimentaciones está basado en la aplicación de un conjunto de "Reglas de Oro" que conducen todas ellas a reducir las vibraciones aumentando la masa de la cimentación, es decir, su tamaño y en consecuencia su coste. En esta tesis se plantea un modelo de cimentación de 3 masas y 9 grados de libertad. Se determinan las ecuaciones del movimiento de las masas que componen el modelo a partir de la formulación de D'Alambert. Se integran en el tiempo empleando el método ß de Newmark. Esta metodología permite analizar además del régimen permanente de operación, el régimen transitorio de arranque de la máquina, limitando así el posible paso del conjunto por la zona de resonancia, no siendo necesario ya hacer el análisis modal en busca de la frecuencia de resonancia. El modelo contempla el movimiento vertical, el desplazamiento horizontal y el balanceo de la máquina, 3 grados de libertad para cada una de las masas que componen el modelo, considerando desplazamientos, velocidades y aceleraciones de cada una de las tres masas, habiendo por tanto 27 variables "solución" a analizar en cada caso. Una vez propuesto el modelo de cimentación, se han aplicado tres metaheurísticas diferentes para determinar la cimentación optima a partir de una función coste, sometida a las restricciones geométricas y las mecánicas que imponen las normas ISO 10816 y VDI 2056. El plan experimental se basa en la búsqueda aleatoria de soluciones factibles apli-cando métodos de vecindad, que cumplan las restricciones impuestas. El modelo contempla un vector solución de 37 variables que dan lugar a unos 8,12 1037 posibles configuraciones. Previo a la optimización metaheurística se estudia el espacio de soluciones apli-cando un proceso de Random Walk(paseo aleatorio) y obteniendo un conjunto de 2.000 posibles soluciones. La optimización se hace a partir de un mecanismo de búsqueda optima por entornos empleando tres metaheurísticas: Descent Local Search (DLS), Simulated Annealing (S.A.) y Late Acceptance Hill Climbing (L.A.H.C.). Se analiza comparativamente los resultados obtenidos, así como el comportamiento dinámico de las cimentaciones optimas calculadas. Como resultado se obtiene una reducción del coste de la cimentación de un 29% respecto al mejor valor obtenido aleatoriamente durante el Random Walk, que cumple las restricciones impuestas, tanto en régimen permanente de operación como en el régimen transitorio de arranque. Se concluye que las restricciones de vibración en el régimen transitorio de arranque garantizan el cumplimiento de las restricciones de vibración en el régimen permanente de operación. / [CA] Les maquines industrials estan fabricades sota unes especificacions i toleràncies per a complir les seues funcions dins del procés productiu. Les maquines produeixen vibracions des de l'inici de la seua vida útil inherents a les toleràncies i imperfeccions del procés de fabricació dels seus components, i que s'incrementen pel desgast del seu ús. Les vibracions provenen de les càrregues dinàmiques que produeixen les màquines en la seua operació. Aquestes es transmeten en forma de radiació a la fona-mentació i finalment al sòl que el suporta. Un disseny del model de fonamentació i dels elements de connexió entre la màquina i la fonamentació (impedàncies) redueix les vibracions que pateix la màquina i el seu entorn. En el disseny de fo-namentacions sotmeses a esforços dinàmics hi ha molt pocs investigació dedicada a l'optimització, i no existeixen investigacions sobre el transitori d'arrancada de la màquina, moment en el qual es produeixen les majors vibracions. L'estat de l'art conclou que els autors sempre han optimitzat fonamentacions amb un grau de llibertat i en règim d'operació permanent. El càlcul dinàmic de fonamentacions està orientat a reduir les vibracions que es produeixen en el règim permanent d'operació. El disseny de les fonamentacions està basat en l'aplicació d'una sèrie de "Regles d'Or" que condueixen totes elles a reduir les vibracions augmentant la massa de la fonamentació, és a dir, la seua grandària i en conseqüència el seu cost. En aquesta tesi es planteja un model de fonamentació de 3 masses. Es determinen les equacions de moviment de les masses a partir de la formulació de D'Alambert de la fonamentació. S'integren en el temps emprant el mètode ß de Newmark. Aquesta metodologia permet analitzar a més del règim permanent d'operació, el règim transitori d'arrancada de la màquina limitant així el possible pas del conjunt per la zona de ressonància, no sent per tant necessari ja fer l'anàlisi modal a la recerca de la freqüència de ressonància i el seu pas durant l'arrancada. El model contempla el moviment vertical, el desplaçament horitzontal y el balanç de la màquina. 3 graus de llibertat per cada una de les masses que compungeixen el model, considerant desplaçament, velocitat y acceleracions de cada una de las masses, finalment hi han 27 variables "solució" a analitzar cada vegada. Una vegada proposat el model de fonamentació, s'han aplicat tres metaheurísti-ques diferents per a determinar la fonamentació optima a partir d'una funció cost, somes a les restriccions geomètriques i mecàniques que imposan les normes ISO 10816 i VDI 2056. El pla experimental es basa en la cerca aleatòria de solucions factibles que com-plisca les restriccions imposades. El model contempla un total de 37 variables que donen lloc a uns 8,12 1037 possibles configuracions. Primerament, s'estudia l'espai de solucions mitjançant un procés de Random Walk analitzant un conjunt de 2.000 possibles solucions. L'optimització es fa a partir d'experiments de cerca optima per entorns emprant tres metaheurístiques: Descent Local Search (DLS), el Simulated Annealing (S.A.) i el Last Acceptance Hill Climbing (L.A.H.C.). S'analitza comparativament els resultats obtinguts, així com el comportament dinàmic de les fonamentacions optimes calculades. Com a resultat s'obté una reducció del cost de la fonamentació d'un 29% respecte al millor valor obtingut aleatòriament durant el Random Walk, que compleix tots els requeriments imposats, tant en règim permanent d'operació com en el règim transitori d'arrancada. Es conclou que les restriccions del regim transitori garan-teixen el compliment de les restriccions en règim permanent. / [EN] Industrial machines are made under specifications and tolerances to meet the requirements of the production process. Machines produces vibrations since the starting of its lifetime that are increased due to the wearing between the its parts. A suitable foundation reduces vibrations and its transmission to the environ. Vibrations are produced because of the dynamics loads produced by the ma-chines. These loads vary with time. These are transmitted as vibrations to the foundation and finally to ground. The design of the foundation and connection elements between the machines and the foundations (impedance) reduces the vibrations that the machines transmit to its environ. In the design of foundations under dynamic charges there are a few studies devoted to optimization, and there are not research on the transient starting, the moment when there are the major vibrations. The study of the art concludes that the authors always have optimized foundations with one degree of freedom and in permanent operation. The dynamic calculation of foundations always has been directed to reduce the vibrations in the permanent operation mode. The design of the foundations is under "rules of thumbs" that as results increases the mass of the foundation and its cost. In this thesis a model of 3 masses and 9 freedom degrees is proposed. The D'Alambert movement equations of the foundations are obtained and integrated using the Newmark's ß methodology. This methodology permits analysing the starting operation mode restricting its vibrations during the crossing of the reso-nance frequency. Model calculates the vertical movement, sliding and rocking, 3 degrees of free-dom for each one of the masses of the model, analysing displacements, speeds and accelerations of each one of the masses, in total 27 variable solution for each solution. Once the foundations model is proposed, optimization with three metaheuristics the foundation using a cost function, under mechanical and geometrical con-strains, proposed by the ISO 10816 y VDI 2056 Norms. The experimental plan is based in the searching of feasible solutions under the constrains. The foundation model depends on 37 variables, making 8,12 1037 pos-sible sets of configurations. Firstly, the space of solutions is analysed with the technique of Radom Walk. A set of 2000 solutions was calculated. For searching the optimal solution three metaheuristics are used: Descent Local Search (DLS), Simulated Annealing (SA) and Last Acceptance Hill Climbing methodologies were selected and the results are compared, and the dynamic behaviour of the foundations calculated. As a result, a reduction of the 29% of the cost of the foundation is obtained in relation with the best cost obtained randomly during the Random Walk that achieves the constrains applied in transient and permanent operation mode. It's concluded that the constrains of transient mode guarantees the compliance of the constrains in permanent operation mode. / Terrádez Marco, JL. (2024). Optimización de un modelo de cimentación de una máquina industrial rotativa [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/211831
159

[en] TORQUE CONTROL OF AN EXOSKELETON ACTUATED BY PNEUMATIC ARTIFICIAL MUSCLES USING ELECTROMYOGRAPHIC SIGNALS / [pt] CONTROLE DE TORQUE DE UM EXOESQUELETO ATUADO POR MÚSCULOS PNEUMÁTICOS ARTIFICIAIS UTILIZANDO SINAIS ELETROMIOGRÁFICOS

JOAO LUIZ ALMEIDA DE SOUZA RAMOS 21 November 2013 (has links)
[pt] A robótica aplicada à reabilitação e amplificação humana está em uma fase iminente de se tornar parte de nossa vida diária. A justaposição da capacidade de controle humana e o poder mecânico desenvolvido pelas máquinas oferecem uma promissora solução para auxílio físico e de amplificação humana. O presente trabalho apresenta um exoesqueleto ativo para membros superiores controlado por uma alternativa e simples Interface Homem-Máquina (HMI) que utiliza o Modelo Muscular de Hill para aumentar a força e resistência mecânica do usuário. Músculos Pneumáticos Artificiais (PAM) são utilizados como atuadores por sua alta razão entre potência e peso e atuam o sistema através de um esquema com cabos de aço. Algoritmos Genéticos (GA) aproximam localmente os parâmetros do modelo matemático do atuador e o modelo fisiológico do músculo, que utiliza sinais eletromiográficos superficiais (sEMG) para estimar o torque na articulação do exoesqueleto. A metodologia proposta oferece três vantagens principais: (i) reduz o número de eletrodos necessários para monitorar a atividade muscular, (ii) elimina a necessidade de transdutores de força ou pressão entre o exoesqueleto e o usuário ou o ambiente e (iii) reduz o custo de processamento em tempo-real, necessário para implementações de sistemas embarcados. O exoesqueleto é restrito ao membro superior direito e a estratégia de controle é avaliada verificando o desempenho do usuário ao manipular uma carga de 3.1kg estática e dinamicamente com e sem o auxílio do equipamento assistivo. / [en] Robotics for rehabilitation and human amplification is imminent to become part of our daily life. The juxtaposition of human control capability and machine mechanical power offers a promising solution for human assistance and physical enhancement. This work presents an upper limb active exoskeleton controlled by an alternative and simple Human-Machine Interface (HMI) that uses a Hill Muscle Model for strength and endurance amplification. Pneumatic Artificial Muscles (PAM) are used as actuators for its high power-to-weight ratio and to drive the system through a cable arrangement. Genetic Algorithms (GA) approach locally optimizes the model parameters for the actuator mathematical model and the physiologic muscle model that uses the surface electromyography (sEMG) to estimate the exoskeleton joint torque. The proposed methodology offers three main advantages: (i) it reduces the number of electrodes needed to monitor the muscles, (ii) it eliminates the need for user force or pressure sensoring, and (iii) it reduces the real-time processing effort which is necessary for embedded implementation and portability. The exoskeleton is restricted to the right upper limb and the control methodology is validated evaluating the user performance while dynamically and statically handling a 3.1kg payload with and without the aid of the assistive device.
160

[en] AUTOMATIC GENERATION OF USER INTERFACE TEST SUITES SPECIFIED BY USE CASES / [pt] GERAÇÃO AUTOMÁTICA DE SUÍTES DE TESTE DA INTERFACE COM USUÁRIO A PARTIR DE CASOS DE USO

EDUARDO DE OLIVEIRA FERREIRA 06 August 2014 (has links)
[pt] Espera-se que o desenvolvimento de suítes de teste a partir de modelos possa contribuir substancialmente para a redução do esforço humano e aumentar a eficácia dos testes gerados. Entende-se por eficácia (ideal) dos testes o percentual de defeitos existentes encontrados a partir desses testes. Uma grande parte dessas técnicas baseia-se em máquinas de estado e quase sempre estão voltadas para o teste de funcionalidade. Entretanto, existe a necessidade de se poder testar sistemas altamente interativos, tais como smartphones e tablets, a partir de uma descrição de sua interface humano-computador. O objetivo da dissertação é efetuar uma primeira avaliação de uma técnica voltada para a geração de suítes de teste visando o teste de interfaces gráficas. Para tal,desenvolvemos e avaliamos a eficácia de uma ferramenta, chamada Easy, que utiliza casos de uso tabulares e máquina de estados para a geração automática da suíte de testes. Os casos de uso são descritos em linguagem natural restrita. A partir dessa descrição, a ferramenta constrói uma máquina de estado e, a seguir, a utiliza para gerar cenários. Por construção os cenários estarão em conformidade com os casos de uso. Cada cenário corresponde a um caso de teste. Os cenários são apresentados ao usuário em linguagem natural restrita, permitindo a visualização destes antes da geração dos scripts finais de testes. Os scripts gerados são destinados a uma ferramenta de execução automatizada voltada para o teste de interfaces gráficas. Neste trabalho, utilizou-se a ferramenta UI Automation, responsável pela execução de testes em aplicações destinadas ao iOS, sistema operacional de iPhone, iPad e iPod Touch. A eficácia do processo foi avaliada em uma aplicação real, disponível na loja virtual de aplicativos App Store. Além disso, foram realizados testes de IHC afim de avaliar a influência no custo da produção da suíte de teste. / [en] It is expected that the development of test suites from models can contribute substantially to reducing the human effort and to increase the effectiveness of the generated tests. Means for tests’ effectiveness (ideal) the percentage of existing defects found by these tests. Most of these techniques is based on state machines and mostly directed to testing the functionality. However, there is a need to be able to test highly interactive systems, such as smartphones and tablets, from a description of its human computer interface. The goal of the dissertation is to make a first evaluation of a technique aimed to generate test suites for test of human computer graphic interface. For this purpose was developed and evaluated its effectiveness, a tool called Easy, using use cases tabular and state machine for the automatic generation of the suite tests. The use cases are described in natural language restricted. From this description, the tool builds a state machine, and then uses this to generate scenarios. By construction scenarios will be in accordance with the use cases. Each scenario corresponds to a test case. The scenarios are presented to the user in natural language, allowing the visualization of them before the generation of the final scripts tests. The generated scripts are intended to a running automated tool geared to testing graphical interfaces. In this work, we used the UI Automation tool, responsible for running tests on applications for the iOS, operational system for iPhones, iPads and iPod touchs. The effectiveness of the procedure was evaluated in a real application, available in the online store applications App Store. In addition, HCI tests were performed in order to evaluate the influence on the cost of production of the test suite.

Page generated in 0.0567 seconds