• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 22
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 68
  • 68
  • 19
  • 12
  • 11
  • 11
  • 11
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Umělá neuronová síť RCE / Artificial neural network RCE

Maceček, Aleš January 2013 (has links)
This paper is focused on an artificial neural network RCE, especially describing the topology, properties and learning algorithm of the network. This paper describes program uTeachRCE developed for learning the RCE network and program RCEin3D, which is created to visualize the RCE network in 3D space. The RCE network is compared with a multilayer neural network with a learning algorithm backpropagation in the practical application of recognition letters. For a descriptions of the letters were chosen moments invariant to rotation, translation and scaling image.
52

[en] RANDOMFIS: A FUZZY CLASSIFICATION SYSTEM FOR HIGH DIMENSIONAL PROBLEMS / [pt] RANDOMFIS: UM SISTEMA DE CLASSIFICAÇÃO FUZZY PARA PROBLEMAS DE ALTA DIMENSIONALIDADE

OSCAR HERNAN SAMUDIO LEGARDA 20 December 2016 (has links)
[pt] Hoje em dia, grande parte do conhecimento acumulado está armazenada em forma de dados. Dentre as ferramentas capazes de atuar como modelos representativos de sistemas reais, os Sistemas de Inferência Fuzzy têm se destacado pela capacidade de fornecer modelos precisos e, ao mesmo tempo, interpretáveis. A interpretabilidade é obtida a partir de regras linguísticas, que podem ser extraídas de bases de dados bases históricas e que permitem ao usuário compreender a relação entre as variáveis do problema. Entretanto, tais sistemas sofrem com a maldição da dimensionalidade ao lidar com problemas complexos, isto é, com um grande número de variáveis de entrada ou padrões, gerando problemas de escalabilidade. Esta dissertação apresenta um novo algoritmo de geração automática de regras, denominado RandomFIS, especificamente para problemas de classificação, capaz de lidar com grandes bases de dados tanto em termos de número de variáveis de entrada (atributos) quanto em termos de padrões (instâncias). O modelo RandomFIS utiliza os conceitos de seleção de variáveis (Random Subspace) e Bag of Little Bootstrap (BLB), que é uma versão escalável do Bootstrapping, criando uma estrutura de comitê de classificadores. O RandomFIS é avaliado em várias bases benchmark, demostrando ser um modelo robusto que mantém a interpretabilidade e apresenta boa acurácia mesmo em problemas envolvendo grandes bases de dados. / [en] Nowadays, much of the accumulated knowledge is stored as data. Among the tools capable of acting as representative models of real systems, Fuzzy Inference Systems are recognized by their ability to provide accurate and at the same time interpretable models. Interpretability is obtained from linguistic rules, which can be extracted from historical databases. These rules allow the end user to understand the relationship between variables in a specific problem. However, such systems experience the curse of dimensionality when handling complex problems, i.e. with a large number of input variables or patterns in the dataset, giving origin to scalability issues. This dissertation presents a new algorithm for automatic generation of fuzzy rules, called RandomFIS, specifically for classification problems, which is able to handle large databases both in terms of number of input variables (attributes) and in terms of patterns (instances). The RandomFIS model makes use of feature selection concepts (Random Subspace) and Bag of Little Bootstrap (BLB), which is a scalable version of Bootstrapping, creating a classifier committee structure. RandomFIS is tested in several benchmark datasets and shows to be a robust model that maintains interpretability and good accuracy even in problems involving large databases.
53

Towards Prescriptive Analytics Systems in Healthcare Delivery: AI-Transformation to Improve High Volume Operating Rooms Throughput

Al Zoubi, Farid 06 February 2024 (has links)
The increasing demand for healthcare services, coupled with the challenges of managing budgets and navigating complex regulations, has underscored the need for sustainable and efficient healthcare delivery. In response to this pressing issue, this thesis aims to optimize hospital efficiency using Artificial Intelligence (AI) techniques. The focus extends beyond improving surgical intraoperative time to encompass preoperative and postoperative periods as well. The research presents a novel Prescriptive Analytics System (PAS) designed to enhance the Surgical Success Rate (SSR) in surgeries and specifically in high volume arthroplasty. The SSR is a critical metric that reflects the successful completion of 4-surgeries during an 8-hour timeframe. By leveraging AI, the developed PAS has the potential to significantly improve the SSR from its current rate of 39% at The Ottawa Hospital to a remarkable 100%. The research is structured around five peer-reviewed journal papers, each addressing a specific aspect of the optimization of surgical efficiency. The first paper employs descriptive analytics to examine the factors influencing delays and overtime pay during surgeries. By identifying and analyzing these factors, insights are gained into the underlying causes of surgery inefficiencies. The second paper proposes three frameworks aimed at improving Operating Room (OR) throughput. These frameworks provide structured guidelines and strategies to enhance the overall efficiency of surgeries, encompassing preoperative, intraoperative, and postoperative stages. By streamlining the workflow and minimizing bottlenecks, the proposed frameworks have the potential to significantly optimize surgical operations. The third paper outlines a set of actions required to transform a selected predictive system into a prescriptive one. By integrating AI algorithms with decision support mechanisms, the system can offer actionable recommendations to surgeons during surgeries. This transformative step holds tremendous potential in enhancing surgical outcomes while reducing time. The fourth paper introduces a benchmarking and monitoring system for the selected framework that predicts SSR. Leveraging historical data, this system utilizes supervised machine learning algorithms to forecast the likelihood of successful outcomes based on various surgical team and procedural parameters. By providing real-time monitoring and predictive insights, surgeons can proactively address potential risks and improve decision-making during surgeries. Lastly, an application paper demonstrates the practical implementation of the prescriptive analytics system. The case study highlights how the system optimizes the allocation of resources and enables the scheduling of additional surgeries on days with a high predicted SSR. By leveraging the system's capabilities, hospitals can maximize their surgical capacity and improve overall patient care.
54

Simulating Large Scale Memristor Based Crossbar for Neuromorphic Applications

Uppala, Roshni 03 June 2015 (has links)
No description available.
55

Design and Validation of a Sensor Integration and Feature Fusion Test-Bed for Image-Based Pattern Recognition Applications

Karvir, Hrishikesh 21 December 2010 (has links)
No description available.
56

[en] DETECTION, SEPARATION E CLASSIFICATION OF PARTIAL DISCHARGE SIGNALS IN HIGH VOLTAGE INSULATIONS / [pt] DETECÇÃO, SEPARAÇÃO E CLASSIFICAÇÃO DE SINAIS DE DESCARGAS PARCIAIS EM ISOLAMENTOS DE ALTA TENSÃO

THIAGO BAPTISTA RODRIGUES 03 November 2020 (has links)
[pt] A medição e classificação de descargas parciais constituem uma importante ferramenta de avaliação dos sistemas de isolamento utilizados em equipamentos de alta tensão. Após o pré-processamento dos dados, que captura, digitaliza e filtra o sinal de descargas parciais, geralmente eliminando os ruídos, existem basicamente duas etapas principais, que são a extração de características e a classificação de padrões. As descargas parciais contêm um conjunto de características discriminatórias únicas que lhes permitem ser reconhecidas. Assim, o primeiro procedimento no processo de classificação é definir quais delas podem ser utilizadas e qual o método de extração destas características. O fenômeno de descargas parciais tem uma natureza transitória e é caracterizado por correntes pulsantes com uma duração de vários nanossegundos até poucos microssegundos. Sua magnitude não é sempre proporcional ao dano causado, sendo que descargas de pequena magnitude podem levar rapidamente à evolução de um defeito. Por isso a necessidade de se entender bem este fenômeno e saber interpretar os dados. Além disso, equipamentos de alta tensão de grande porte, como motores e geradores, podem apresentar mais de uma fonte interna de descargas parciais, sendo importante separar os sinais dessas diferentes fontes antes de realizar a classificação. No caso de outros equipamentos de alta tensão de menor porte, como para-raios e transformadores de corrente de subestação, a simples detecção da presença de descargas parciais interna ao equipamento, independente do número de fontes, já é suficiente para indicar a retirada de operação destes equipamentos, dado seu baixo custo relativo e o elevado grau de importância destes para a confiabilidade do sistema onde estão inseridos. Para um diagnóstico completo e confíável de isolamentos de alta tensão, há a demanda por um sistema de análise capaz de promover com eficácia a detecção de descargas parciais internas aos equipamentos, a separação das diversas fontes de descargas parciais, no caso dos equipamentos de grande porte, bem como realizar a correta classificação do tipo de defeito, com base principalmente na análise das características discriminantes das diferentes fontes e na assinatura dos sinais para os diferentes defeitos. Este estudo contribui para o preenchimento desta lacuna, apresentando metodologias que se mostram robustas e precisas nos testes realizados, de modo que possam efetivamente orientar os especialistas em manutenção na tomada de decisões. Para fazer isso, são propostas novas variáveis capazes de extrair informações relevantes de sinais no tempo medidos em diversos tipos de isolamentos, sendo aplicadas aqui em dados obtidos em campo e em laboratório para avaliar sua eficácia na tarefa. Essas informações são tratadas utilizando técnicas de classificação de padrões e inteligência artificial para determinar de forma automática a presença de descargas parciais, o número de fontes diferentes e o tipo de defeito nos isolamentos de alta tensão utilizados no estudo. Outra contribuição do estudo é a criação de um banco de dados histórico, baseada em processamento de imagem, com padrões de mapas de descargas parciais conhecidos na literatura em máquinas rotativas, para serem utilizados na classificação de novos mapas medidos neste tipo de equipamento. / [en] Measurement and classification of partial discharges are an important tool for the evaluation of insulation systems used in high voltage equipments. After pre-processing of data, which captures, scans and filters the signal of partial discharges, generally eliminating noises, there are basically two main steps, which are the extraction of characteristics and the pattern classification. Partial discharges contain a set of unique discriminatory characteristics that allow them to be recognized. Thus, the first procedure in the classification process is to define which of them can be used and which is the method for extraction of those characteristics. The phenomenon of partial discharges has a transient nature and is characterized by pulsating currents with a duration of several nanoseconds up to a few microseconds. Its magnitude is not always proportional to the damage caused, and discharges of small magnitude can quickly lead to the evolution of a failure. Therefore the need to understand this phenomenon well and to know how to interpret the data. In addition, large high voltage equipments such as motors and generators may have more than one internal source of partial discharges, and it is important to separate the signals from those different sources prior to classification. In the case of smaller high voltage equipments, as surge arrester and substation current transformers, the simple detection of the presence of partial discharges inside the equipment, regardless of the number of sources, is sufficient to indicate the withdrawal of operation of the equipment, given their low relative cost and the high degree of importance of these to the reliability of the system where they are part of. For a complete and reliable diagnosis of high voltage insulations, there is a demand for an analysis system capable of effectively promoting the detection of the partial discharges internal to the equipments, the separation of the various sources of partial discharges in the case of large equipments, as well as to carry out the correct classification of the type of failure. The system should be based mainly on the analysis of the discriminating characteristics of the different sources and the signature of the signals for the different failure. This study contributes to fill this gap by presenting methodologies that are robust and accurate in the tests performed, so that they can effectively guide maintenance specialists in decision making. To do this, new variables are proposed to extract relevant information from time signals measured in various types of insulations, being applied here in field and laboratory data to evaluate their effectiveness in the task. This information is treated using standard classification techniques and artificial intelligence to automatically determine the presence of partial discharges, the number of different sources and the type of defect in the high voltage insulations used in the study. Another contribution of the study is the creation of a historical database, based on image processing, with partial discharge map patterns known in the literature on rotating machines, to be used in the classification of new maps measured in this type of equipment.
57

基於 RGBD 影音串流之肢體表情語言表現評估 / Estimation and Evaluation of Body Language Using RGBD Data

吳怡潔, Wu, Yi Chieh Unknown Date (has links)
本論文基於具備捕捉影像深度的RGBD影音串流裝置-Kinect感測器,在簡報場域中,作為擷取簡報者肢體動作、表情、以及語言表現模式的設備。首先我們提出在特定時段內的表現模式,可以經由大眾的評估,而具有喜歡/不喜歡的性質,我們將其分別命名為Period of Like(POL)以及Period of Dislike(POD)。論文中並以三種Kinect SDK所提供的影像特徵:動畫單元、骨架關節點、以及3D臉部頂點,輔以35位評估者所提供之評估資料,以POD/POL取出的特徵模式,分析是否具有一致性,以及是否可用於未來預測。最後將研究結果開發應用於原型程式,期許這樣的預測系統,能夠為在簡報中表現不佳而困擾的人們,提點其優劣之處,以作為後續改善之依據。 / In this thesis, we capture body movements, facial expressions, and voice data of subjects in the presentation scenario using RGBD-capable Kinect sensor. The acquired videos were accessed by a group of reviewers to indicate their preferences/aversions to the presentation style. We denote the two classes of ruling as Period of Like (POL) and Period of Dislike (POD), respectively. We then employ three types of image features, namely, animation units (AU), skeletal joints, and 3D face vertices to analyze the consistency of the evaluation result, as well as the ability to classify unseen footage based on the training data supplied by 35 evaluators. Finally, we develop a prototype program to help users to identify their strength/weakness during their presentation so that they can improve their skills accordingly.
58

Explorando caminhos de mínima informação em grafos para problemas de classificação supervisionada

Hiraga, Alan Kazuo 05 May 2014 (has links)
Made available in DSpace on 2016-06-02T19:06:12Z (GMT). No. of bitstreams: 1 5931.pdf: 2655791 bytes, checksum: 6eafe016c175143a8d55692b4681adfe (MD5) Previous issue date: 2014-05-05 / Financiadora de Estudos e Projetos / Classification is a very important step in pattern recognition, as it aims to categorize objects from a set of inherent features, through its labeling. This process can be supervised, when there is a sample set of labeled training classes, semi-supervised, when the number of labeled samples is limited or nearly inexistent, or unsupervised, where there are no labeled samples. This project proposes to explore minimum information paths in graphs for classification problems, through the definition of a supervised, non-parametric, graph-based classification method, by means of a contextual approach. This method proposes to construct a graph from a set of training samples, where the samples are represented by vertices and the edges are links between samples that belongs to a neighborhood system. From the graph construction, the method calculates the local observed Fisher information, a measurement based on the Potts model, for all vertices, identifying the amount of information that each sample has. Generally, different class vertices when connected by an edge, have a high information level. After that, it is necessary to weight the edges by means of a function that penalizes connecting vertices with high information. During this process, it is possible to identify and select high information vertices, which will be chosen to be prototype vertices, namely, the nodes that define the classes boundaries. After the definition, the method proposes that each prototype sample conquer the remaining samples by offering the shortest path in terms of information, so that when a sample is conquered it receives the label of the winning prototype, occurring the classification. To evaluate the proposed method, statistical methods to estimate the error rates, such as Hold-out, K-fold and Leave-One- Out Cross-Validation will be considered. The obtained results indicate that the method can be a viable alternative to the existing classification techniques. / A classificação é uma etapa muito importante em reconhecimento de padrões, pois ela tem o objetivo de categorizar objetos a partir de um conjunto de características inerentes a ele, atribuindo-lhe um rótulo. Esse processo de classificação pode ser supervisionado, quando existe um conjunto de amostras de treinamento rotuladas que representam satisfatoriamente as classes, semi-supervisionado, quando o conjunto de amostras é limitado ou quase inexistente, ou não-supervisionado, quando não existem amostras rotuladas. Este trabalho propõe explorar caminhos de mínima informação em grafos para problemas de classificação, por meio da criação de um método de classificação supervisionado, não paramétrico, baseado em grafos, seguindo uma abordagem contextual. Esse método propõe a construção de um grafo a partir do conjunto de amostras de treinamento, onde as amostras serão representadas pelos vértices e as arestas serão as ligações entre amostras pertencentes a uma relação de adjacência. A partir da construção do grafo o método faz o calculo da informação de Fisher Local Observada, uma medida baseada no modelo de Potts, para todos os vértices, identificando o grau de informação que cada um possui. Geralmente vértices de classes distintas quando conectados por uma aresta possuem alta informação (bordas). Feito o calculo da informação, é necessário ponderar as arestas por meio de uma função que penaliza a ligação de vértices com alta informação. Enquanto as arestas são ponderadas é possível identificar e selecionar vértices altamente informativos os quais serão escolhidos para serem vértices protótipos, ou seja, os vértices que definem a região de borda. Depois de ponderadas as arestas e definidos os protótipos, o método propõe que cada protótipo conquiste as amostras oferecendo o menor caminho até ele, de modo que quando uma amostra é conquistada ela receba o rótulo do protótipo que a conquistou, ocorrendo a classificação. Para avaliar o método serão utilizados métodos estatísticos para estimar as taxas de acertos, como K-fold, Hold-out e Leave-one-out Cross- Validation. Os resultados obtidos indicam que o método pode ser um uma alternativa viável as técnicas de classificação existentes.
59

Classifica??o de padr?es atrav?s de um comit? de m?quinas aprimorado por aprendizagem por refor?o

Lima, Naiyan Hari C?ndido 13 August 2012 (has links)
Made available in DSpace on 2014-12-17T14:56:07Z (GMT). No. of bitstreams: 1 NaiyanHCL_DISSERT.pdf: 1452285 bytes, checksum: 018fb1e8fa51e8f7094cce68a18c6c73 (MD5) Previous issue date: 2012-08-13 / Reinforcement learning is a machine learning technique that, although finding a large number of applications, maybe is yet to reach its full potential. One of the inadequately tested possibilities is the use of reinforcement learning in combination with other methods for the solution of pattern classification problems. It is well documented in the literature the problems that support vector machine ensembles face in terms of generalization capacity. Algorithms such as Adaboost do not deal appropriately with the imbalances that arise in those situations. Several alternatives have been proposed, with varying degrees of success. This dissertation presents a new approach to building committees of support vector machines. The presented algorithm combines Adaboost algorithm with a layer of reinforcement learning to adjust committee parameters in order to avoid that imbalances on the committee components affect the generalization performance of the final hypothesis. Comparisons were made with ensembles using and not using the reinforcement learning layer, testing benchmark data sets widely known in area of pattern classification / A aprendizagem por refor?o ? uma t?cnica de aprendizado de m?quina que, embora j? tenha encontrado uma grande quantidade de aplica??es, talvez ainda n?o tenha alcan?ado seu pleno potencial. Uma das possibilidades que n?o foi devidamente testada at? hoje foi a utiliza??o da aprendizagem por refor?o em conjunto com outros m?todos para a solu??o de problemas de classifica??o de padr?es. ? bem documentada na literatura a problem?tica que ensembles de m?quinas de vetor de suporte encontram em termos de capacidade de generaliza??o. Algoritmos como Adaboost n?o lidam apropriadamente com os desequil?brios que podem surgir nessas situa??es. V?rias alternativas j? foram propostas, com margens variadas de sucesso. Esta disserta??o apresenta uma nova abordagem para a constru??o de comit?s de m?quinas de vetor de suporte. O algoritmo apresentado combina o algoritmo Adaboost com uma camada de aprendizagem por refor?o, para ajustar par?metros do comit? evitando que desequil?brios nos classificadores componentes do comit? prejudiquem o desempenho de generaliza??o da hip?tese final. Foram efetuadas compara??es de comit?s com e sem essa camada adicional de aprendizagem por refor?o, testando conjuntos de dados benchmarks amplamente conhecidos na ?rea de classifica??o de padr?es
60

Algoritmos gen?ticos aplicados a um comit? de LS-SVM em problemas de classifica??o

Padilha, Carlos Alberto de Ara?jo 31 January 2013 (has links)
Made available in DSpace on 2014-12-17T14:56:13Z (GMT). No. of bitstreams: 1 CarlosAAP_DISSERT.pdf: 1150903 bytes, checksum: a90e625336bbabe7e96da74cb85ee7aa (MD5) Previous issue date: 2013-01-31 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / The pattern classification is one of the machine learning subareas that has the most outstanding. Among the various approaches to solve pattern classification problems, the Support Vector Machines (SVM) receive great emphasis, due to its ease of use and good generalization performance. The Least Squares formulation of SVM (LS-SVM) finds the solution by solving a set of linear equations instead of quadratic programming implemented in SVM. The LS-SVMs provide some free parameters that have to be correctly chosen to achieve satisfactory results in a given task. Despite the LS-SVMs having high performance, lots of tools have been developed to improve them, mainly the development of new classifying methods and the employment of ensembles, in other words, a combination of several classifiers. In this work, our proposal is to use an ensemble and a Genetic Algorithm (GA), search algorithm based on the evolution of species, to enhance the LSSVM classification. In the construction of this ensemble, we use a random selection of attributes of the original problem, which it splits the original problem into smaller ones where each classifier will act. So, we apply a genetic algorithm to find effective values of the LS-SVM parameters and also to find a weight vector, measuring the importance of each machine in the final classification. Finally, the final classification is obtained by a linear combination of the decision values of the LS-SVMs with the weight vector. We used several classification problems, taken as benchmarks to evaluate the performance of the algorithm and compared the results with other classifiers / A classifica??o de padr?es ? uma das sub?reas do aprendizado de m?quina que possui maior destaque. Entre as v?rias t?cnicas para resolver problemas de classifica??o de padr?es, as M?quinas de Vetor de Suporte (do ingl?s, Support Vector Machines ou SVM) recebem grande ?nfase, devido a sua facilidade de uso e boa capacidade de generaliza??o. A formula??o por M?nimos Quadrados da SVM (do ingl?s, Least Squares Support Vector Machines ou LS-SVM) encontra um hiperplano de separa??o ?tima atrav?s da solu??o de um sistema de equa??es lineares, evitando assim o uso da programa??o quadr?tica implementada na SVM. As LS-SVMs fornecem alguns par?metros livres que precisam ser corretamente selecionados para alcan?ar resultados satisfat?rios em uma determinada tarefa. Apesar das LS-SVMs possuir elevado desempenho, v?rias ferramentas tem sido desenvolvidas para aprimor?-la, principalmente o desenvolvimento de novos m?todos de classifica??o e a utiliza??o de comit?s de m?quinas, ou seja, a combina??o de v?rios classificadores. Neste trabalho, n?s propomos tanto o uso de um comit? de m?quinas quanto o uso de um Algoritmo Gen?tico (AG), algoritmo de busca baseada na evolu??o das esp?cies, para aprimorar o poder de classifica??o da LS-SVM. Na constru??o desse comit?, utilizamos uma sele??o aleat?ria de atributos do problema original, que divide o problema original em outros menores onde cada classificador do comit? vai atuar. Ent?o, aplicamos o AG para encontrar valores efetivos para os par?metros de cada LS-SVM e tamb?m encontrando um vetor de pesos, medindo a import?ncia de cada m?quina na classifica??o final. Por fim, a classifica??o final ? dada por uma combina??o linear das respostas de cada m?quina ponderadas pelos pesos. Foram utilizados v?rios problemas de classifica??o, tidos como benchmarks, para avaliar o desempenho do algoritmo e comparamos os resultados obtidos com outros classificadores

Page generated in 0.0345 seconds