241 |
Influência da saturação no torque da máquina síncrona de ímã permanente no rotor / The influence of saturation on torque of permanent magnet synchronous machinePaula, Geyverson Teixeira de 25 July 2013 (has links)
O presente trabalho trata do estudo e análise da influência da saturação magnética no torque de uma máquina síncrona com ímã permanente no rotor. A máquina síncrona em es-tudo trata-se de uma máquina cuja forma de onda de força contra eletromotriz é trapezoidal. Inicialmente é feito um estudo sobre os efeitos da saturação magnética nos três principais parâmetros da máquina, indutância de fase, relutância (vista pelo circuito que tem como fonte de fluxo magnético os ímãs permanentes) e a força contra eletromotriz. Em seguida, realiza-se um estudo sobre o torque eletromagnético para a máquina e a importância dos parâmetros estudados, demonstrando a forte dependência da qualidade do torque com estes parâmetros. Com base nos estudos sobre saturação e torque, objetiva-se, portanto, descrever o comportamento de cada um dos parâmetros quando da saturação da máquina e quanto/como cada um deles afeta o torque eletromagnético da máquina. A fim de se estudar cada componente do torque separadamente, avalia-se a máquina por meio do Método da Permeabilidade Fixa. Por fim, faz-se simulações em elementos finitos empregando o método apresentado e os resultados são analisados. / This work deals with the influence of magnetic saturation on torque of permanent mag-net synchronous machine. At first, a study of magnetic saturation is carried out in order to understand its influence on three main machines parameters, phase inductance, magnet re-luctance and back electromotive force. A study describing the electric torque and its compo-nents is carried out. This study explain the importance of each machines parameter on electric torques smoothness and amplitude. In order to investigate and describe each torques com-ponent, a review on Frozen Permeability Method is developed. At last, some simulation by means of finite element method with Frozen Permeability Method are carried out. The results are shown and analyzed.
|
242 |
Projeto e adaptação de máquina de ensaio de impacto para ossos longos de animais de pequeno e médio porte / Project and adaptation of an impact testing machine for long bones of small and medium-sized animalsSantos, Ricardo Marinzeck 20 July 1999 (has links)
As fraturas dos ossos longos são geralmente provocadas por esforços dinâmicos de impacto (choque). O esclarecimento do comportamento de ossos submetidos a testes controlados de impacto pode representar um aprofundamento no conhecimento geral sobre as questões que envolvem a ocorrência das fraturas. Os testes de impacto são, de modo geral, realizados por meio de uma máquina especificamente desenvolvida, provida de um martelo pendular que incide sobre corpos de prova do material testado. Porém, as máquinas de impacto disponíveis no mercado são projetadas para ensaiar materiais com dimensões definidas de acordo com a norma relativa ao tipo de material, que não são adaptadas para materiais biológicos. Os materiais biológicos são em geral anisotrópicos, o que impede a confecção de corpos de prova com formas e dimensões rigorosamente padronizadas, como acontece com os materiais não biológicos. Desta forma, uma máquina de ensaio de impacto para materiais biológicos deve ser, necessariamente, especificamente desenvolvida para essa finalidade, com a principal característica de que os apoios dos corpos de prova possam ser mudados de forma e posição conforme as necessidades de cada material em teste. Foi o objetivo deste trabalho, projetar, construir e testar, comparativamente a outra máquina comercialmente disponível, uma máquina de ensaio de impacto especificamente destinada a materiais biológicos, com possibilidade de variação dos vãos entre os apoios dos corpos de prova, o que flexibiliza o ensaio de acordo com as características de cada material. / Fractures of long bones are generally caused by dynamic impact loads (shock). Studying clearing the behaviour of bones submitted to controlled impact tests may contribute to deepen the general knowledge on the phenomena involving the event of fractures. The impact tests are usually carried out with a specially designed machine, provided with a pendulum hammer which strikes on specimens of the tested material. However, the commercially available impact testing machines are designed for isotropic materials, of definite shape and dimensions according to standards specific for each material, which are not adapted for biologic materials. The biologic materials are in general anisotropic by nature, what prevents the construction of test pieces with rigorously standardised shape and dimensions, as it happens with non-biological materials. Therefore, especially designed impact testing machine should be developed for this purpose. lts a main characteristic would be that the test pieces supports can be changed and moved, to adapt to their shapes and dimensions. The design, development and test of as impact testing machine specifically designed for bone, comparing it to another conmercially available machine, was the aim of this work machine developed enables the variation of the distance between the test piece supports, which allows to carry out tests according to the physical characteristics of any test piece.
|
243 |
"Seleção de atributos importantes para a extração de conhecimento de bases de dados" / "Selection of important features for knowledge extraction from data bases"Lee, Huei Diana 16 December 2005 (has links)
O desenvolvimento da tecnologia e a propagação de sistemas computacionais nos mais variados domínios do conhecimento têm contribuído para a geração e o armazenamento de uma quantidade constantemente crescente de dados, em uma velocidade maior da que somos capazes de processar. De um modo geral, a principal razão para o armazenamento dessa enorme quantidade de dados é a utilização deles em benefício da humanidade. Diversas áreas têm se dedicado à pesquisa e a proposta de métodos e processos para tratar esses dados. Um desses processos é a Descoberta de Conhecimento em Bases de Dados, a qual tem como objetivo extrair conhecimento a partir das informações contidas nesses dados. Para alcançar esse objetivo, usualmente são construídos modelos (hipóteses), os quais podem ser gerados com o apoio de diferentes áreas tal como a de Aprendizado de Máquina. A Seleção de Atributos desempenha uma tarefa essencial dentro desse processo, pois representa um problema de fundamental importância em aprendizado de máquina, sendo freqüentemente realizada como uma etapa de pré-processamento. Seu objetivo é selecionar os atributos mais importantes, pois atributos não relevantes e/ou redundantes podem reduzir a precisão e a compreensibilidade das hipóteses induzidas por algoritmos de aprendizado supervisionado. Vários algoritmos para a seleção de atributos relevantes têm sido propostosna literatura. Entretanto, trabalhos recentes têm mostrado que também deve-se levar em conta a redundância para selecionar os atributos importantes, pois os atributos redundantes também afetam a qualidade das hipóteses induzidas. Para selecionar alguns e descartar outros, é preciso determinar a importância dos atributos segundo algum critério. Entre os vários critérios de importância de atributos propostos, alguns estão baseados em medidas de distância, consistência ou informação, enquanto outros são fundamentados em medidas de dependência. Outra questão essencial são as avaliações experimentais, as quais representam um importante instrumento de estimativa de performance de algoritmos de seleção de atributos, visto que não existe análise matemática que permita predizer que algoritmo de seleção de atributos será melhor que outro. Essas comparações entre performance de algoritmos são geralmente realizadas por meio da análise do erro do modelo construído a partir dos subconjuntos de atributos selecionados por esses algoritmos. Contudo, somente a consideração desse parâmetro não é suficiente; outras questões devem ser consideradas, tal como a percentagem de redução da quantidade de atributos desses subconjuntos de atributos selecionados. Neste trabalho é proposto um algoritmo que separa as análises de relevância e de redundância de atributos e introduz a utilização da Dimensão Fractal para tratar atributos redundantes em aprendizado supervisionado. É também proposto um modelo de avaliação de performance de algoritmos de seleção de atributos baseado no erro da hipótese construída e na percentagem de redução da quantidade de atributos selecionados. Resultados experimentais utilizando vários conjuntos de dados e diversos algoritmos consolidados na literatura, que selecionam atributos importantes, mostram que nossa proposta é competitiva com esses algoritmos. Outra questão importante relacionada à extração de conhecimento a partir de bases de dados é o formato no qual os dados estão representados. Usualmente, é necessário que os exemplos estejam descritos no formato atributo-valor. Neste trabalho também propomos um metodologia para dar suporte, por meio de um processo semi-automático, à construção de conjuntos de dados nesse formato, originados de informações de pacientes contidas em laudos médicos que estão descritos em linguagem natural. Esse processo foi aplicado com sucesso a um caso real. / Progress in computer systems and devices applied to a different number of fields, have made it possible to collect and store an increasing amount of data. Moreover, this technological advance enables the storage of a huge amount of data which is difficult to process unless new approaches are used. The main reason to maintain all these data is to use it in a general way for the benefit of humanity. Many areas are engaged in the research and proposal of methods and processes to deal with this growing data. One such process is Knowledge Discovery from Databases, which aims at finding valuable and interesting knowledge which may be hidden inside the data. In order to extract knowledge from data, models (hypothesis) are usually developed supported by many fields such as Machine Learning. Feature Selection plays an important role in this process since it represents a central problem in machine learning and is frequently applied as a data pre-processing step. Its objective is to choose a subset from the original features that describes a data set, according to some importance criterion, by removing irrelevant and/or redundant features, as they may decrease data quality and reduce comprehensibility of hypotheses induced by supervised learning algorithms. Most of the state-of-art feature selection algorithms mainly focus on finding relevant features. However, it has been shown that relevance alone is not sufficient to select important features. Different approaches have been proposed to select features, among them the filter approach. The idea of this approach is to remove features before the model's induction takes place, based on general characteristics from the data set. For the purpose of selecting features and discarding others, it is necessary to measure the features' goodness, and many importance measures have been proposed. Some of them are based on distance measures, consistency of data and information content, while others are founded on dependence measures. As there is no mathematical analysis capable of predicting whether a feature selection algorithm will produce better feature subsets than others, it is important to empirically evaluate the performance of these algorithms. Comparisons among algorithms' performance is usually carried out through the model's error analysis. Nevertheless, this sole parameter is not complete enough, and other issues, such as percentage of the feature's subset reduction should also be taken into account. In this work we propose a filter that decouples features' relevance and redundancy analysis, and introduces the use of Fractal Dimension to deal with redundant features. We also propose a performance evaluation model based on the constructed hypothesis' error and the percentage of reduction obtained from the selected feature subset. Experimental results obtained using well known feature selection algorithms on several data sets show that our proposal is competitive with them. Another important issue related to knowledge extraction from data is the format the data is represented. Usually, it is necessary to describe examples in the so-called attribute-value format. This work also proposes a methodology to support, through a semi-automatic process, the construction of a database in the attribute-value format from patient information contained in medical findings which are described in natural language. This process was successfully applied to a real case.
|
244 |
Equacionamento das componentes do erro volumétrico em máquinas de medir a três coordenadas / Equationing of components of volumetric error in coordinate measuring machinesValdés Arencibia, Rosenda 26 April 1999 (has links)
As Máquinas de Medir a Três Coordenadas (MM3Cs) possuem erros inerentes à sua estrutura que afetam a exatidão e a repetibilidade das medições. Dos erros presentes nessas máquinas, os erros geométricos são, na maioria das vezes, os de maior influência. O resultado da combinação destes erros em cada uma das direções preferenciais é denominado componente do erro volumétrico. Assim, torna-se de vital importância conhecer a relação existente entre as variáveis envolvidas num processo de medição qualquer, ou seja, a relação entre as coordenadas dos pontos medidos, os erros geométricos e as componentes do erro volumétrico. Diversos métodos foram propostos para modelar o comportamento dos erros nas MM3Cs. Entretanto não existem, ainda, modelos matemáticos obtidos a partir de dados experimentais que descrevam e caracterizem estes erros. Por tal motivo este trabalho apresenta uma metodologia geral para equacionar as componentes do erro volumétrico em MM3Cs, utilizando técnicas de regressão múltipla. Esta ferramenta permite de forma simples equacionar e prever o erro volumétrico da máquina avaliada. A metodologia foi aplicada a uma MM3C do tipo \"Ponte Móvel\". Foram obtidas três equações de regressão, uma para cada componente do erro, a partir de dados levantados através da calibração direta, especificamente o método do volume dividido. A adequabilidade do modelo foi avaliada estatisticamente. Os resultados obtidos foram discutidos e comparados com os resultados obtidos através da calibração utilizando-se uma barra de esferas, constatando-se uma excelente capacidade do modelo na previsão do erro total da máquina. Ainda, efetuo-se a compensação do erro volumétrico em duas diagonais do volume de trabalho da máquina avaliada utilizando-se o modelo proposto, neste caso, o erro foi diminuído sensivelmente. / The accuracy and the repeatability of measurements of Three Coordinates Measuring Machines (CMM) are affected by several errors. Among them, geometrical errors are the most influents in the most experimental cases. The result of geometric errors combination in each of the preferentials directions is denominated of volumetric error components. Thus, its possible to know the existent relationship between coordinates of measured points and volumetric error components. Several methods have been proposed to model the behavior of the volumetric error in CMM as a function of the X, Y and Z coordinates. However, sofar from experimental measurements of the volumetric error has bem proposed mathematical model for the descriptions and characterizations of errors was obtained. In this work is presented a general methodology to obtain a mathematical equation and prediction of them components of the volumetric errors, using multiple regression. The methodology was applied at a of \"Moving Bridge\" CMM type. Were obtained three regression equations, one for each component of the error, starting from data collected by direct calibration, specifically by the divided volume method. The model was evaluated statistically. The simulated results were evaluated, discussed and compared with the results obtained through the ball bar calibration, showing an excellent capacity of the model in the prediction of the volumetric error of the machine. Besides was made the compensation of the volumetric error in two diagonals of the working volume of the appraised machine using the proposed model, in this case the error was minimized sensibly.
|
245 |
Modelagem dinâmica de rotores de unidades hidrogeradoras. / Dynamic modeling of rotors of hidro-generating units.Tralli, Fernando Cunha 13 June 2018 (has links)
Com o intuito de otimizar o projeto de unidades hidrogeradoras e, por conseguinte, aumentar a sua disponibilidade, uma previsão mais precisa do seu comportamento dinâmico é de fundamental importância. Assim, o presente trabalho se propôs a modelar uma unidade hidrogeradora de forma mais completa, considerando os efeitos do empuxo magnético, mancais, perturbações hidráulicas, desbalanceamento e selos labirintos de turbina Francis. A partir do modelo construído, foram realizadas análises modais, temporais e espectrais. Os resultados numéricos são comparados com os dados experimentais de uma unidade hidrogeradora de grande porte. Tanto sinais de tendência temporal, como órbitas, e espectros de frequência dos fenômenos envolvidos são analisados e comparados. Dessa forma, pretende-se obter o modelo menos complexo possível, mas que seja capaz de representar de forma aceitável a dinâmica da unidade hidrogeradora sujeita a diferentes condições de operação. A maior dificuldade encontrada foi na representação das excitações externas ao sistema, principalmente quando a máquina está operando em regime parcial. Constatou-se uma importante influência do selo labirinto na simulação do comportamento dinâmica da turbina Francis operando em carga parcial. Ao final, os aspectos do modelo que podem ser aprimorados são discutidos. / In order to optimize the design of hydro-generating units and therefore increase their availability, a more accurate forecast of their dynamic behavior is of fundamental importance. Thus, the present work has proposed to model a more complete hydrogenerator unit, considering the effects of magnetic pull, guide bearings, hydraulic perturbations, unbalance and Francis turbine labyrinths. From the this model, modal, temporal and spectral analyzes were performed. The numerical results are compared with experimental data of a large hydrogenerator unit. Temporal trend signals, orbits and frequency spectrum of the phenomena involved are analyzed and compared. In this way, it is intended to obtain the less complex model possible, but that is able to represent in an acceptable way the dynamics of the hydrogenerator unit under different operation conditions. The greatest difficulty found was in the representation of external excitations to the system, mainly under partial load. It was observed an important influence of the labyrinth seal in the simulation of the dynamic behavior of the Francis turbine operating in partial load. Finally, aspects of the model that can to be improved are discussed.
|
246 |
Uma interface eletrônica e computacional para medições a três coordenadas / A electronic and computational interface for coordinate measurementMarques, Alessandro 08 December 2003 (has links)
As Máquinas de Medir a Três Coordenadas (MM3Cs) desde sua criação evoluíram sensivelmente, entretanto poucas foram as modificações estruturais observadas. Hoje, para fabricantes de máquinas destacarem-se no mercado, são necessários grandes investimentos na busca de novos materiais estruturais e no desenvolvimento de programas computacionais cada vez mais versáteis. O sistema eletrônico e os programas computacionais utilizados durante as medições são inacessíveis e rígidos. Estes aplicativos normalmente não podem ser analisados nem modificados pelo usuário. São exemplos clássicos desta rigidez as características préestabelecidas pelo programa, ou métodos de ajustes utilizados na definição das grandezas. Este trabalho tem por objetivo exibir a interface eletrônica e computacional que quebra essa rigidez e permite a aquisição dos sinais das escalas da MM3C, possibilitando o desenvolvimento de novos aplicativos computacionais. O sistema foi aplicado em uma MM3C do tipo Ponte Móvel. Foi desenvolvido um programa computacional, MaqMed 2000, que utiliza os valores dos pontos coordenadas capturados no volume de trabalho da MM3C, e faz a compensação das coordenadas dos pontos utilizados, através das equações do Modelo Reduzido de Sintetização de Erros (MRSE). A avaliação da compatibilidade do dispositivo construído foi feita através do MaqMed 2000 em situações práticas. Foram tomados pontos no perfil de artefatos-padrão e os pontos ajustados através de duas rotinas, uma com e outra sem compensação dos erros. Os artefatos foram medidos em várias posições no volume da MM3C e averiguada a proximidade entre os resultados compensados e os não compensados, ao valor calibrado do artefato. O sistema desenvolvido permitiu compensar os erros em até 98% para compensação bidimensional e 87% para tridimensional. / Since the advent Coordinate Measuring Machines (CMMs) have improved substantially. However, only a small number of structural modifications were observed. Nowadays, considerable capital expenditure is needed to keep CMM builders competitive. Most important research fields concern structural material and production of more flexible and versatile software. The electronic system and the software used during measurement with CMM are rigid and inaccessible and no user modification is permitted. Typical examples are the predetermined software features and curve fitting methods used on the magnitudes definition process. This research aims to exhibit an interface that copes with the system stiffness and enables signal acquisition from the scales of the CMM, allowing the development of new types softwares. The proposed system was implemented on a moving bridge type CMM. A program that uses the values of the coordinate points obtained from the CMM work volume was created. The software MaqMed 2000 performs the compensation of the coordinates of the used points by means of synthesized errors equations. Evaluation of the performance of the built device was carried out using MaqMed 2000 in practical situations. Data sets were collected along the profile of artefacts and fitted by means of two routines, one with error compensation and the other not compensated. Artefacts were measured in several locations in the whole volume of the CMM. The proximity between the compensated and noncompensated results with respect to the calibrated artefact value was examined. The developed system allowed for error compensation of 98% for bi-dimensional compensation and 87% for tri-dimensional compensation.
|
247 |
Fotografia: fragmentação e condensação do tempo na interface homem-máquina / Fotografia: fragmentação e condensação do tempo na interface homem-máquinaScavone, Fernando Pasquale Rocco 17 November 2006 (has links)
Constituem o objeto deste estudo as interações temporais do homem com a máquina na prática do processo fotográfico. Baseado em experiências empíricas e buscando referencias em análises críticas, estrutura-se na sobreposição de três níveis conceituais: sintático, semiótico e psíquico, procura compreender as implicações que as transformações técnicas determinam na linguagem visual do meio. / The object of this study is to examine the time interactions between the photographer and the camera through the photographic process. Based on empirical observations and referring to critical analyses, it is structured in three different conceptual layers: syntactic, semiotic and psychic. It aims to understand the implications that technical transformations determine in the medium visual language.
|
248 |
Anotações de Joaquim Reis: registro fotográfico ou realidade construída? / Joaquim Reis, photografic register or constructed realityReisewitz, Caio Christian 24 April 2009 (has links)
Análise da obra de Joaquim Reis a partir de registros fotograficos e fotomomtagens / Analisis of the work from Joaquim Reis, photographer and artist
|
249 |
Mapeamento e avaliação do consumo de energia na fase de uso de uma máquina-ferramenta visando a sustentabilidade / Mapping and evaluation of energy consumption during the useable phase of a machine tool aiming at sustainabilityDelgado Montes, Mary Laura 25 September 2012 (has links)
Como seguir com o crescimento da indústria, da economia e do consumo de energia de forma sustentável? No setor manufatureiro as máquinas-ferramentas são peças-chave nos processos de fabricação. Como saber se uma bomba, um motor ou outro elemento acessório é adequado para uma máquina-ferramenta específica? Normalmente, fabricantes se baseiam em sugestões dos fornecedores para selecionar tais elementos, o que resulta em um projeto ajustado pela experiência e por estimativas subjetivas, às vezes superestimando as dimensões do projeto por segurança. O objetivo deste trabalho é monitorar o consumo da energia elétrica durante a fase de uso da máquina-ferramenta, com o fim de explicar a demanda de energia em cada uma de suas tarefas, sugerindo diretrizes para o aperfeiçoamento do projeto desta nos seus componentes críticos. Esta dissertação apresenta uma cuidadosa revisão de livros e pesquisas anteriores, os quais direcionaram a etapa experimental. Assim, elegeu-se trabalhar em um centro de usinagem, o qual foi monitorado por um analisador de qualidade de energia. A metodologia experimental iniciou-se com a avaliação da eficiência energética da máquina-ferramenta em termos de fator de potência, a fim de trabalhar dentro dos parâmetros da legislação brasileira, e finalizou-se com o monitoramento do consumo de energia elétrica. Tal monitoramento foi feito em três cenários de usinagem: em vazio, a seco e com fluido, utilizando um mesmo plano de trabalho em todas as situações. Conclui-se que prognósticos de consumo de energia são possíveis se tempos e constantes do modelo apresentado são conhecidos para uma máquina-ferramenta específica, parâmetros que são influenciados pela experiência do operador. A medição do consumo de energia da máquina em vazio e com remoção permitiram conhecer o consumo de energia pela usinagem propriamente dita. Observou-se também que apenas a máquina-ferramenta consome 59% da energia total quando está usinando; as mudanças de velocidade não afetam o consumo de energia diferentemente da taxa de remoção de material; elementos auxiliares à usinagem não deterioram a eficiência energética da máquina, embora possam representar uma boa taxa percentual de gasto no consumo total; e a troca de ferramentas é mais eficiente na usinagem do que em vazio. / How to follow the growth of industry, economy and energy consumption in a sustainable way? In the manufacturing sector, the machine tools are key-parts in the processes. How can we know if a pump, an electric motor or another accessory element is adequate to a specific machine tool? Usually, the manufacturer relies on suggestions from suppliers to select those elements, resulting in a project adjusted by experience and subjective estimations, sometimes overestimating for security. The objective of the present work is to monitor the consumption of electric power during the useable phase, in order to map the energy demand in each of its tasks, thus suggesting guidelines for the improvement of the project to its critical components. This dissertation presents a thorough review of books and previous research, which has guided the experimental phase. Accordingly, it was chosen to work in a machining center, which was monitored by a power quality analyzer. The experimental methodology began with the evaluation of the energetic efficiency of the machine tool in terms of power factor, in order to work within the parameters of the Brazilian legislation, and ended up with electric energy consumption monitoring. Such monitoring was made in three machining scenarios: cutting air, cutting dry and with coolant, sing the same CNC workplan in all situations. The conclusions include that forecasting of energy consumption is possible if time and constants of the proposed model are known for a specific machine tool, parameters which are influenced by the experience gathered by the operator. The measurement of energy consumption during air cutting and removing material allowed to know the energy consumption of the machining operation itself. It was also observed that: the machine alone consumes 59% of the total energy when in operation; the energy consumption is not affected by speed changes, but by the material removal rate; auxiliary elements to the machining do not negatively affects the energy efficiency of the machine, although may represent considerable expenditure in total consumption; and, the exchange of tools is more efficient when removing material, than when air machining.
|
250 |
Um ambiente para avaliação de algoritmos de aprendizado de máquina simbólico utilizando exemplos. / An environment to evaluate machine learning algorithms.Batista, Gustavo Enrique de Almeida Prado Alves 15 October 1997 (has links)
Um sistema de aprendizado supervisionado é um programa capaz de realizar decisões baseado na experiência contida em casos resolvidos com sucesso. As regras de classificação induzidas por um sistema de aprendizado podem ser analisadas segundo dois critérios: a complexidade dessas regras e o erro de classificação sobre um conjunto independente de exemplos. Sistemas de aprendizado têm sido desenvolvidos na prática utilizando diferentes paradigmas incluindo estatística, redes neurais, bem como sistemas de aprendizado simbólico proposicionais e relacionais. Diversos métodos de aprendizado podem ser aplicados à mesma amostra de dados e alguns deles podem desempenhar melhor que outros. Para uma dada aplicação, não existem garantias que qualquer um desses métodos é necessariamente o melhor. Em outras palavras, não existe uma análise matemática que possa determinar se um algoritmo de aprendizado irá desempenhar melhor que outro. Desta forma, estudos experimentais são necessários. Neste trabalho nos concentramos em uma tarefa de aprendizado conhecida como classificação ou predição, na qual o problema consiste na construção de um procedimento de classificação a partir de um conjunto de casos no qual as classes verdadeiras são conhecidas, chamado de aprendizado supervisionado. O maior objetivo de um classificador é ser capaz de predizer com sucesso a respeito de novos casos. A performance de um classificador é medida em termos da taxa de erro. Técnicas experimentais para estimar a taxa de erro verdadeira não somente provêem uma base para comparar objetivamente as performances de diversos algoritmos de aprendizado no mesmo conjunto de exemplos, mas também podem ser uma ferramenta poderosa para projetar um classificador. As técnicas para estimar a taxa de erro são baseadas na teoria estatística de resampling. Um ambiente chamado AMPSAM foi implementado para ajudar na aplicação dos métodos de resampling em conjuntos de exemplos do mundo real. AMPSAM foi projetado como uma coleção de programas independentes, os quais podem interagir entre si através de scripts pré-definidos ou de novos scripts criados pelo usuário. O ambiente utiliza um formato padrão para arquivos de exemplos o qual é independente da sintaxe de qualquer algoritmo. AMPSAM também inclui ferramentas para particionar conjuntos de exemplos em conjuntos de treinamento e teste utilizando diferentes métodos de resampling. Além do método holdout, que é o estimador de taxa de erro mais comum, AMPSAM suporta os métodos n-fold cross-validation --- incluindo o leaning-one-out --- e o método bootstrap. As matrizes de confusão produzidas em cada iteração utilizando conjuntos de treinamento e teste podem ser fornecidas a um outro sistema implementado chamado SMEC. Este sistema calcula e mostra graficamente algumas das medidas descritivas mais importantes relacionadas com tendência central e dispersão dos dados. Este trabalho também relata os resultados experimentais a respeito de medidas do erro de classificação de três classificadores proposicionais e relacionais bem conhecidos, utilizando ambos os sistemas implementados, em diversos conjuntos de exemplos freqüentemente utilizados em pesquisas de Aprendizado de Máquina. / A learning system is a computer program that makes decisions based on the accumulative experience contained in successfully solved cases. The classification rules induced by a learning system are judged by two criteria: their classification error on an independent test set and their complexity. Practical learning systems have been developed using different paradigms including statistics, neural nets, as well as propositional and relational symbolic machine learning. Several learning methods can be applied to the same sample data and some of them may do better than others. Still, for a given application, there is no guarantee that any of these methods will work or that any single method is necessarily the best one. In other words, there is not a mathematical analysis method that can determine whether a learning system algorithm will work well. Hence, experimental studies are required. In this work we confine our attention to the learning task known as classification or prediction, where the problem concerns the construction of a classification procedure from a set of data for which the true classes are known, and is termed supervised learning. The overall objective of a classifier is to be able to predict successfully on new data. Performance is measured in terms of the error rate. Error rate estimation techniques not only provide a basis for objectively comparing the error rate of several classifiers on the same data and then estimating their future performance on new data, but they can also be a powerful tool for designing a classifier. The techniques of error rate estimation are based on statistical resampling theory. In this work, rules induced complexity of propositional and relational learning systems as well as several resampling methods to estimate the true error rate are discussed. An environment called AMPSAM has been implemented to aid in the application of resampling methods to real world data sets. AMPSAM consists of a collection of interdependent programs that can be bound together either by already defined or by new user defined scripts. The environment uses a common file format for data sets which is independent of any specific classifier scheme. It also includes facilities for splitting data sets up into test and training sets using different methods. Besides holdout, which is the most common accuracy estimation method, AMPSAM supports n-fold cross-validation --- including leaving-one-out --- and bootstrap. The confusion matrices produced in each run using those test and training sets can be input to another system called SMEC. This system calculates and graphically displays some of the most important descriptive measures related to central tendency and dispersion of those data. This work also reports the results of experiments measuring the classification error of three well known propositional and relational classifiers, using the implemented systems, on several data sets commonly used in Machine Learning research.
|
Page generated in 0.0847 seconds