• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2841
  • 574
  • 242
  • 101
  • 90
  • 90
  • 88
  • 47
  • 45
  • 45
  • 45
  • 43
  • 14
  • 2
  • 1
  • Tagged with
  • 3720
  • 1131
  • 945
  • 592
  • 587
  • 577
  • 525
  • 495
  • 466
  • 348
  • 308
  • 286
  • 279
  • 259
  • 249
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
641

Computação evolutiva empregada na reconstrução de arvores filogeneticas

Prado, Oclair Gallacini 31 July 2018 (has links)
Orientador : Fernando Jose Von Zuben / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-31T15:18:56Z (GMT). No. of bitstreams: 1 Prado_OclairGallacini_M.pdf: 9043888 bytes, checksum: 8b30ceb718a0fffbad9addc5b40fd779 (MD5) Previous issue date: 2001 / Mestrado
642

Uma Proposta de especificação formal e fundamentação teórica para simulated annealing

Izquierdo, Vaneci Brusch January 2000 (has links)
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
643

Inteligencia computacional no projeto automatico de redes neurais hibridas e redes neurofuzzy heterogeneas

Iyoda, Eduardo Masato 27 January 2000 (has links)
Orientador: Fernando Jose Von Zuben / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-12T00:43:17Z (GMT). No. of bitstreams: 1 Iyoda_EduardoMasato_M.pdf: 15416989 bytes, checksum: 11aa55a6d43148430b0475e3eb7e8fc0 (MD5) Previous issue date: 2000 / Resumo: Esta tese apresenta um estudo a respeito de possíveis interações entre os principais paradigmas que compõem a área de inteligência computacional: redes neurais artificiais, sistemas fuzzy e computação evolutiva. Como principais contribuições, são propostas duas novas estratégias de solução de problemas de engenharia: as redes neurais híbridas e as redes neurofuzzy heterogêneas. A rede neural híbrida corresponde a uma extensão dos modelos de aproximação por busca de projeção, onde são consideradas também composições multiplicativas das funções de ativação dos neurônios escondidos. A arquitetura neurofuzzy heterogênea, diferentemente das arquiteturas neurofuzzy tradicionais, utiliza neurônios lógicos que podem ter pares distintos de normas triangulares. Os resultados de simulações computacionais mostram que os dois novos modelos propostos são bastante promissores, no sentido de que eles são capazes de fornecer soluções de melhor qualidade do que os modelos convencionais / Abstract: This thesis presents a study on possible combinations of the main paradigms that compose the field of computational intelligence: artificial neural networks, fuzzy systems and evolutionary computation. Among other contributions, two new engineering problem-solving strategies are proposed: hybrid neural networks and heterogeneous neurofuzzy networks. Hybrid neural networks correspond to an extension of project pursuit learning models, where multiplicative compositions of the hidden neurons' activation functions are also considered. Differently from traditional neurofuzzy architectures, heterogeneous neurofuzzy networks employ logical neurons that may have distinct pairs of triangular norms. Simulation results show that these new proposed models are very promising, in the sense that they are capable of providing higher quality solutions than traditional models / Mestrado / Mestre em Engenharia Elétrica
644

Otimização das políticas de manutenção preventiva e de testes periódicos em sistemas nucleares por algoritmos genéticos

Lapa, Celso Marcelo Franklin, Instituto de Engenharia Nuclear 12 1900 (has links)
Submitted by Marcele Costal de Castro (costalcastro@gmail.com) on 2017-10-02T17:15:17Z No. of bitstreams: 1 CELSO MARCELO FRANKLIN LAPA D.PDF: 468347 bytes, checksum: ddc9a94cc8d5466ecb53caae5b09d810 (MD5) / Made available in DSpace on 2017-10-02T17:15:17Z (GMT). No. of bitstreams: 1 CELSO MARCELO FRANKLIN LAPA D.PDF: 468347 bytes, checksum: ddc9a94cc8d5466ecb53caae5b09d810 (MD5) Previous issue date: 2001-12 / Esta tese apresenta uma metodologia para maximização da disponibilidade e do desempenho de sistemas eletro-mecânicos pertencentes a centrais nucleares através da obtenção de políticas otimizadas de manutenções preventivas e de testes periódicos. A metodologia baseia-se na utilização dos algoritmos genéticos para a determinação de políticas ótimas através da utilização de modelos probabilísticos que permitem um agendamento contínuo para as intervenções que forem necessárias. São propostos três modelos probabilísticos: um modelo baseia-se na confiabilidade dos componentes para obtenção da política de manutenções preventivas que deve ser praticada por sistemas on-line, um outro modelo estima os custos financeiros de uma dada política de manutenções e, finalmente, um modelo para determinação da disponibilidade de sistemas formados por componentes em standby, dada uma política de testes para inspeção. Os resultados obtidos demonstram a superioridade dos métodos propostos quando comparados à tradicional abordagem de frequências constantes de intervenções. Além disto, são apresentados estudos de casos envolvendo sistemas nucleares reais onde as políticas apontadas pela metodologia proposta melhoram substancialmente o desempenho operacional de tais sistemas em comparação com as políticas padrão praticadas na operação da central. / This thesis presents a methodology for nuclear power plants electro-mechanics system availability and performance maximization via preventive maintenance scheduling and surveillance tests policy planning. The methodology uses genetic algorithms to find optimal scheduling policies using a probabilistic model, which allow non-constant time intervals between interventions. Three models are proposed: the first is based on component reliability to find the preventive maintenance scheduling which must be adopted by online systems. The second one includes maintenance. The last model is applicable to standby systems. In this case, the availability is a function of the components surveillance tests scheduling policy. The results demonstrated that the proposed methodology is better when compared to those obtained by application of the traditional approach, which considers constant time intervals between interventions. Moreover, in several case studies involving real nuclear systems, the proposed methodology led to better maintenance/test schedules when compared to standard policies.
645

Low false positive learning with support vector machines = Máquina de vetores de suporte com restrição de falsos positivos / Máquina de vetores de suporte com restrição de falsos positivos

Moraes, Daniel Bastos, 1987- 24 August 2018 (has links)
Orientadores: Anderson de Rezende Rocha, Jacques Wainer / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-24T22:07:46Z (GMT). No. of bitstreams: 1 Moraes_DanielBastos_M.pdf: 2454286 bytes, checksum: e130cab62fb4ac89706094d28e14ebb8 (MD5) Previous issue date: 2014 / Resumo: A maioria dos sistemas de aprendizado de máquina para classificação binaria é treinado usando algoritmos que maximizam a acurácia e assume que falsos positivos e falsos negativos sao igualmente ruins. Entretanto, em muitas aplicações, estes dois tipos de erro podem ter custos bem diferentes. Por exemplo, em aplicações de triagem médica, determinar erroneamente que um paciente é saudavel e muito mais sério que determinar erroneamente que ele tem uma certa condição médica. Neste trabalho, nós abordamos o problema de controlar a taxa de falsos positivos em Máquinas de Vetores de Suporte (SVMs), uma vez que sua formulação tradicional não provê garantias desse tipo. Para resolver esse problema, definimos uma area sensível no espaço de características onde a probabilidade de falsos positivos é mais alta e usamos um segundo classificador (k-vizinhos mais próximos) nesta área para melhor filtrar os erros e melhorar o processo de tomada de decisão. Nós comparamos a solução proposta com outros métodos do estado da arte para classificação com baixa taxa de falsos positivos usando 33 conjuntos de dados comuns na literatura. A solução proposta mostra melhor performance na grande maioria dos casos usando a métrica padrão de Neyman-Pearson / Abstract: Most machine learning systems for binary classification are trained using algorithms that maximize the accuracy and assume that false positives and false negatives are equally bad. However, in many applications, these two types of errors may have very different costs. For instance, in medical screening applications, falsely determining that a patient is healthy is much more serious than falsely determining that she has a certain medical condition. In this work, we consider the problem of controlling the false positive rate on Support Vector Machines, since its traditional formulation does not offer such assurance. To solve this problem, we define a feature space sensitive area, where the probability of having false positives is higher, and use a second classifier (k-Nearest Neighbors) in this area to better filter errors and improve the decision-making process. We compare the proposed solution to other state-of-the-art methods for low false positive classification using 33 standard datasets in the literature. The solution we propose shows better performance in the vast majority of the cases using the standard Neyman-Pearson measure / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
646

Problemas de emparelhamentos estáveis / Stable matching problems

Sambinelli, Maycon, 1988- 25 August 2018 (has links)
Orientador: Orlando Lee / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-25T09:16:09Z (GMT). No. of bitstreams: 1 Sambinelli_Maycon_M.pdf: 1793287 bytes, checksum: 11aee090fa90d75328e5caf25578f7da (MD5) Previous issue date: 2014 / Resumo: Problemas de emparelhamentos estáveis consistem em dividir um ou mais grupos de agentes em pares, onde cada agente possui uma lista de preferências ordenada, e deseja-se encontrar uma emparelhamento entre eles que respeite um critério de estabilidade que é baseado nas suas preferências. Estes problemas são importantes pois possuem muitas aplicações práticas, tais como associação de residentes de medicina à hospitais, alocação de recursos em comunicação sem fio e doação de rins. Devido à importância do tema, esta dissertação apresenta um survey descrevendo os problemas mais importantes junto com seus principais resultados / Abstract: Stable matching problems consist of dividing one or more groups of agents in pairs, where each agent has an ordered preference list, and one wish to find a matching between them which respects a stability criterion that is based on their preferences. These problems are important because they have many practical applications, such as association of medical residents to hospitals, resource allocation in wireless communication and kidney donation. Due to the importance of the topic, this dissertation presents a survey describing the most important problems along with its main results / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
647

Restrições duras e brandas em problemas de minimização em caixas

Lima, Benaia Sobreira de Jesus 01 August 2018 (has links)
Orientadores : Jose Mario Martinez, Sandra Augusta Santos / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-01T21:22:30Z (GMT). No. of bitstreams: 1 Lima_BenaiaSobreiradeJesus_M.pdf: 1040521 bytes, checksum: 2f8aa3af7f3e9de23e28acc2514aa86c (MD5) Previous issue date: 2002 / Mestrado / Mestre em Matemática Aplicada
648

Programação de escalas usando algoritmos evolutivos : aplicação em empresas de transporte ferroviario

Ramirez Dominguez, Luis Alberto 14 April 2000 (has links)
Orientador : Fernando Antonio Campos Gomide / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-02T15:28:39Z (GMT). No. of bitstreams: 1 RamirezDominguez_LuisAlberto_M.pdf: 8004190 bytes, checksum: 62aeeb49d8655d2c7172f08e8c6ba749 (MD5) Previous issue date: 2000 / Resumo: Este trabalho descreve uma nova ferramenta computacional para resolver um problema de programação de escalas encontrado no Sistema de Transporte Ferroviário Brasileiro. Um procedimento de busca evolutiva é usado na procura das melhores seqüências de trabalho, usando para isso critérios práticos que permitam um balanço aceitável no sentido econômico e social. A função de avaliação das soluções é baseada em duas metodologias de análise. A primeira usa um método de soma ponderada e a outra baseia-se em conceitos da teoria de conjuntosfuzzy. O algoritmo proposto foi testado usando dados reais fornecidos por uma empresa ferroviária. As escalas geradas pelo algoritmo evolutivo apresentaram resultados qualitativamente superiores quando comparados com os resultados produzidos por técnicas atualmente em uso / Abstract: This work describes a new computational tool to solve a crew-scheduling problem common in the Brazilian Railway Transport Systems. An evolutionary search procedure is used to generate the preferred work sequences with respect to evaluating criteria. The aim is to obtain an acceptable balance between human and economic aspects. The fitness function is based on two methodologies. The first one uses a weighting sum scheme to aggregate the objectives whereas the second uses fuzzy set theory for the same purpose. The proposed algorithm was tested with actual data provided by a railway company. The schedules generated by the evolutionary algorithm are qualitatively better than those used in practice / Mestrado / Automação / Mestre em Engenharia Elétrica
649

Problemas combinatorios de congestionamento

Conceição, Arlindo Flavio da 06 September 2000 (has links)
Orientador : João Carlos Setubal / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-02T14:52:50Z (GMT). No. of bitstreams: 1 Conceicao_ArlindoFlavioda_M.pdf: 1967561 bytes, checksum: 27b15ad3216c72fe882e027f64fc719e (MD5) Previous issue date: 2000 / Resumo: Nesta dissertação estudamos o aspecto combinatório dos problemas de congestionamento. O principal problema estudado consiste em, dado um grafo G e um inteiro positivo k, encontrar k árvores espalhadas de G, não necessariamente disjuntas, de peso total mínimo. Neste problema o congestionamento é caracterizado por funções que penalizam o peso de uma aresta se ela é usada por mais de uma árvore. Roskind e Tarjan apresentaram um algoritmo para a versão deste problema onde as árvores devem ser disjuntas nas arestas. Nós apresentamos uma descrição detalhada do algoritmo de Roskind e Tarjan e então mostramos um algoritmo polinomial para o problema de congestionamento, o algoritmo consiste em uma redução ao problema disjunto. O nosso algoritmo é quadrático em k. Apresentamos ainda duas heurísticas de complexidade linear em k. Baseados na mesma técnica, desenvolvemos algoritmos polinomiais para problemas combinatórios de congestionamento relacionados aos problemas de encontrar um caminho mínimo e de encontrar um emparelhamento de custo mínimo / Abstract: This work studies the combinatorial aspects of congestion problems. The main problem studied is the following: Given a graph G and a positive integer k, we want to find k spanning trees on G, not necessarily disjoint, of minimum total weight, such that the weight of each edge is subject to a penalty function if it belongs to more than one tree. This penalty function models congestion situations. Roskind and Tarjan have developed an algorithm for the disjoint version of this problem. We present a detailed description of their algorithm and then show that a polynomial algorithm for the congestion problem can be obtained by reducing it to the disjoint problem. The complexity of our algorithm is quadratic in k. We also present two heuristics with complexity linear in k. Based on the same idea, we then present polynomial algorithms for combinatorial congestion problems related to shortest paths and minimum weight matchings / Mestrado / Mestre em Ciência da Computação
650

Estudo dos episodios de taquicardia detectados por desfibrilador automatico implantavel : implicações diagnosticas e terapeuticas

Figueiredo, Marcio Jansen de Oliveira, 1966- 19 April 2002 (has links)
Orientadores : Luiz Antonio K. Bittencourt, Josep Brugada Terradellas / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Ciencias Medicas / Made available in DSpace on 2018-08-02T17:50:13Z (GMT). No. of bitstreams: 1 Figueiredo_MarcioJansendeOliveira_D.pdf: 15642843 bytes, checksum: ea55e24f9a92a13c22f066e3d29ee7ee (MD5) Previous issue date: 2002 / Resumo: O desenvolvimentodos desfibriladoresautomáticos implantáveistem sido muito rápidonos últimosanos.Um aparelhoinicialmenteconcebidopara tratar pacientes com arritmiasgraves documentadas,cada vez mais é usado para a prevençãoprimáriada morte cardíaca súbita. Houve grande evolução no tamanho e capacidades do aparelho, mas a programabilidade continua sendo um capítulo fundamental para evitar terapias inapropriadas, além de garantir que as arritmias potencialmente fatais sejam adequadamente tratadas. OBJETIVOS: Testar a utilidade clínica de uma programação padronizada de desfibriladores automáticos implantáveis quanto à eficácia dos algoritmos de detecção e terapia empregados. CASUÍSTICA E MÉTODOS: Foram analisados os dados clínicos de 81 pacientes submetidos ao implante de um desfibrilador no Hospital Clínico i Provincial de Barcelona. De cada episódio foram coletados os dados da terapia, como de que arritmia se tratava, a sua freqüência, o seu início, estabilidade, e a resposta à terapia empregada. RESULTADOS: Durante um seguimento de 1336 pacientes/mês (seguimento médio de 16,49:1: 12,65 meses), foram detectados 1081 episódios de arritmias. Usando o algoritmo programado, os desfibriladores implantados conseguiram detectar corretamente todos os 486 episódios de taquicardia ventricular sustentada. Um total de 440 desses episódios foram tratados sem retardo. Em 19 episódios, a estabilidade inicial era maior que 40 mseg, e a terapia foi retardada em média 2:1:1segundos até que a estabilidade atingisse o nível programado para terapia. Em 27, o critério de Início Súbito era menor que 9%, e o desfibrilador implantado retardou a terapia por, em média, 72:84 segundos, até que a duração de freqüência sustentada fosse atingida. Em nenhum desses episódios o retardo da terapia provocou síncope ou pré-síncope. No geral, os critérios de freqüência cardíaca, Início Súbito e Estabilidade tiveram uma sensibilidade de 92% e especificidade de 96% no diagnóstico de episódios de taquicardia ventricular sustentada. Se levado em conta o critério de Duração de Freqüência Sustentada, a sensibilidade passa a 100%, com especificidade de 83%. Houve 486 episódios de taquicardia ventricular tratados com estimulação anti-taquicardia. O esquema programado apresentou uma eficácia total de 93,6% (455 em 486 episódios). A terapia com estimulação foi ineficaz em interromper 12 dos 486 episódios (2,5%). Em 9 deles, a terapia de descargas programada foi capaz de interromper a taquicardia com apenas um choque / Abstract: INTRODUCTION: The development of automatic implantable defibrillators has been fast in the last few years. A device initially conceived to treat patients with serious docummented arrhythmias is now more and more used to primary prevention of sudden cardiac death. There was a huge evolution in the size and capacity ofthe devices, but programming is still a matter of great concern, not only to avoyd innapropriate therapies, but also to make sure tOOtpotentially fatal arrhythmias will be correct1ytreated. OBJECTIVES: To test clinical usefullness of a standard programming of automactic implantable defibrillators by means of efficacy of detection and therapy parameters. PATIENTS AND METHODS: We analysed clinical data of 81 patients with an implanted defibrillator at the Hospital Clínico i Provincial ofBarcelona. From each episode we collected data such as the diagnosis ofthe arrhythmia, it's rate, onset, stability and response to therapy. RESUL TS: During a mean follow-up of 1336 patients/month (mean 16.49:t 12.65 months), 1081 episodes of arrhythmias were detected. Using the programmed algorhythm, the devices were able to correct1y detect al the 486 episodes of sustained ventricular tachycardia. A total of 440 of these were treated without delay. In 19 episodes, inicial stability was greater then 40 msec, and therapy was delayed a mean of 2:tl seconds until stability could acheive the programmed leveI for therapy. In 27, the Sudden Onset criteria was less then 9%, and the device delayed therapy for a mean of, 72:t34 seconds, until programmed Sustained Rate Duration was acheived. In none of these episodes therapy de1ay caouse syncope or near-syncope. Overall heart rate, Sudden Onset and Stability criteria sensibility was 92% and specificity was 96% for the diagnosis of sustained ventricular tachycardia. If Sustained Rate Duration is taken in account, sensibility of the algorhythm could reach 100%, with specifity of 83%. There were 486 episodes of ventricular tachycardia treated with antitachycardia pacing. The programmed algorhythm showed a total efficacy of93,6% (455 out of 486 episodes). Anti-tachycardia pacing was innefective in interrupting 12 out of 486 episodes (2,5%). In 9 ofthem, a single shock was able to tenninate the tachycardia. CONCLUSION: The used standard programming of implantable automatic defibrillators was safe and effective in detection and treatment of potentially fatal arrhythmias / Doutorado / Clinica Medica / Doutor em Clínica Médica

Page generated in 0.0333 seconds