• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 855
  • 57
  • 54
  • 24
  • 16
  • 14
  • 14
  • 13
  • 13
  • 11
  • 10
  • 8
  • 2
  • 1
  • 1
  • Tagged with
  • 1037
  • 606
  • 138
  • 121
  • 115
  • 106
  • 106
  • 98
  • 98
  • 87
  • 87
  • 84
  • 79
  • 71
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
891

Innovación y avances en Ajustes Gaussianos de Redes Locales: métodos de Triangulateración homogénea y de Incrementos de Coordenadas. Interpretación de resultados, densificación virtual equiprecisa y evolución en el tiempo

Jiménez Martínez, Mª Jesús 02 December 2013 (has links)
Es esencial entender que el método de Gauss se justifica porque además de proporcionar la solución más probable permite fundamentalmente la interpretación de cada variable del ajuste (residuos, observables compensados, coordenadas, etc) y la obtención de recintos de error con probabilidades asociadas, cifrando su precisión y su incertidumbre con el mayor rigor posible. Nuestra pretensión básica ha sido predecir y justificar los resultados en cada una de sus fases. No tanto mejorar los resultados, que también si se les trata adecuadamente, como establecer rigurosamente su interpretación. Los métodos de Triangulateración homogénea y de Incrementos de Coordenadas hacen posible el objetivo propuesto, ya sea con instrumentación clásica o con técnicas GNSS. A partir de la teoría y praxis desarrollada en la presente tesis concluimos que: 1. Hay que partir, en cualquier caso, de un buen vector de observables. No parece posible mejorar en gabinete las mediciones de campo. 2. Los observables deben ser normales e independientes. No se puede presuponer la distribución normal de las mediciones, sean del tipo que sean, y además serán lo suficientemente abundantes como para testear y desechar los que se consideren sospechosos. 3. La ponderación del sistema de formas lineales debe ser homogénea. Sin discrepancias relativas en la precisión de la instrumentación y en el número de observaciones. 4. Si los estimadores de la varianza a priori provienen de la propia observación de campo se mejoran los resultados y su interpretación. 5. El rectángulo como recinto de incertidumbre o de error permite obtener la probabilidad en solitario, en grupo o simultáneamente de todos los vértices de la red local en estudio. 6. La solución libre de la red será un excelente estimador de la sensibilidad de la red en presencia, por debajo de la cual nos parece ilusorio lograr que la precisión de la red mejore, marcando un mínimo apreciable. También para hacer una valoración inicial de la calidad de los vértices a partir de la matriz varianza covarianza de las variables de la red libre. Proponemos como solución libre más apropiada la inversa generalizada recíproca con zonas de distinta significación, que no contempla la existencia de vértice sin error (vértices ¿fijos¿) sino de error mínimo. 7. Una vez resuelta la red primaria: conocidas sus coordenadas compensadas, recintos de error y probabilidades asociadas, en conjunto o individualmente, podemos hacer extensible a cualquier punto de la red la misma información, sin necesidad de trabajo de campo adicional. Constituye un método de control de calidad cartográfica. 8. A partir de la teoría y la praxis de la evolución en el tiempo de una red local y sus eventuales modificaciones podemos conocer la deformación de los vértices libres, sus recintos de error y probabilidades de comisión, alcanzando fiabilidades de 0,95-0,99, incluso más, considerando cada vértice libre en solitario, en grupo o conjuntamente con el resto de vértices. / Jiménez Martínez, MJ. (2013). Innovación y avances en Ajustes Gaussianos de Redes Locales: métodos de Triangulateración homogénea y de Incrementos de Coordenadas. Interpretación de resultados, densificación virtual equiprecisa y evolución en el tiempo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/34179
892

[pt] ALGORITMOS GENÉTICOS APLICADOS À SOLUÇÃO DO PROBLEMA INVERSO BIOMAGNÉTICO / [en] GENETIC ALGORITHMS APPLIED TO THE SOLUTION OF THE BIOMAGNETIC INVERSE PROBLEM

JOHNNY ALEXANDER BASTIDAS OTERO 09 December 2016 (has links)
[pt] Sinais bioelétricos fornecem informações importantes sobre a função fisiológica de muitos organismos vivos. Em magnetismo, denomina-se problema direto aquele em que se determina o campo magnético a partir do conhecimento da fonte de corrente que o gerou. Por outro lado, existem situações em que se deseja determinar a fonte de corrente a partir de valores de campo magnético medidos. Esse tipo de problema é usual em Biomagnetismo e é denominado problema inverso. Por exemplo, com base em medições do campo magnético cardíaco é possível inferir sobre a atividade elétrica, no tecido cardíaco, que foi responsável por sua geração. Este trabalho propõe, apresenta e discute uma nova técnica destinada a resolver o problema biomagnético inverso, por meio de algoritmos genéticos. Objetiva-se estimar a posição, a orientação e a magnitude dos dipolos de corrente equivalentes, responsáveis pela geração de mapas de campos biomagnéticos obtidos experimentalmente por meio de medições realizadas em corações isolados de coelho utilizando um sistema SQUID de 16 canais. O algoritmo busca identificar a distribuição de dipolos que melhor se ajusta aos dados experimentais, objetivando minimizar o erro entre o mapa de campo magnético medido e o obtido por meio das soluções estimadas. O conhecimento dos parâmetros dos dipolos de corrente, em diferentes instantes de tempo, permite a correta interpretação e análise da informação médica obtida a partir dos campos biomagnéticos medidos experimentalmente, auxiliando na definição de diagnósticos e orientação de abordagens terapêuticas. / [en] Bioelectric signals provide important information about the physiological function of many living organisms. In magnetism, the so-called direct problem deals with the determination of the magnetic field associated to well known current sources. On the other hand, there are situations where it is necessary to determine the current source responsible for the generation of a measured magnetic field. This type of problem is common in Biomagnetism and is called inverse problem. For example, based on cardiac magnetic field measurements it is possible to infer the electrical activity in the heart tissue, responsible for its generation. This work proposes, presents and discusses a new technique designed to solve the biomagnetic inverse problem by genetic algorithms. It is intended to estimate the position, orientation and magnitude of the equivalent current dipoles, responsible for the generation of biomagnetic field maps measured with a 16 channel SQUID system. The algorithm attempts to identify the distribution of dipoles that best fits the measured experimental data, aiming at minimizing the error between the experimental magnetic field maps and those obtained by the estimated solutions. The experimental data analyzed in this study were acquired by measurements in isolated rabbit hearts. The knowledge of parameters of current dipoles at different instants of time allows the correct interpretation and analysis of medical information obtained from the experimentally measured biomagnetic fields, providing diagnosis and guiding therapeutic procedures.
893

[en] DESIGN OF BURIED PIPELINES CONSIDERING THE RECIPROCAL SOIL-STRUCTURE INTERACTION / [pt] ESTUDO DE DUTOS ENTERRADOS CONSIDERANDO A INTERAÇÃO SOLO-ESTRUTURA

NELLY PIEDAD RUBIO RUBIO 18 February 2016 (has links)
[pt] Esta pesquisa tem como objetivo o desenvolvimento de uma metodologia com base no método de elementos finitos para o estudo do problema de contato com atrito que surge na interação solo-duto no comportamento de dutos enterrados. O tratamento das restrições de contato e a incorporação da lei do atrito (tipo Coulomb) é feita através do Método da Penalidade, tomando como referência o trabalho de Laursen e Simo (2002), onde as restrições de contato são impostas de maneira aproximada com o uso de parâmetros de penalidade para as forças normal e tangencial no contato. As relações cinemáticas são descritas em termos de uma função diferenciável da distancia entre os corpos (gap). Para a discretização são empregados elementos hexaedricos de 8 nós com uma formulação híbrida - Enhanced Assumed Strain (EAS) e os efeitos de comportamento não-linear dos materiais envolvidos são considerados na presença de grandes deslocamentos e grandes deformações. A teoria da plasticidade é utilizada para modelar a natureza não-linear das relações constitutivas do duto. Aplicações considerando o problema de contato com atrito que surge na interação solo-duto são apresentadas. / [en] This research aims the development of a methodology based on the finite element method for 3D frictional contact problems such as the frictional contact problem that arises from the soil-pipe interaction of buried pipelines. The treatment of the contact restrictions and the incorporation of the friction law of the Coulomb type are carried out through a penalty method, where the contact restrictions are imposed in an approximated manner using penalty parameters for both normal and tangential forces. The cinematic relations are established in terms of the diferential funtion of the gap between bodies. Hexahedral eight-node elements are employed based on the Enhanced Assumed Strain (EAS) concept and the effects of the non-linear behavior of the materials are considered in presence of large displacements and large deformations. The theory of plasticity is used to model the non-linear nature of the constitutive relations of the pipe. Applications are presented considering the frictional contact problem that arises on the interaction surfaces of a buried structure such as an oil pipeline.
894

[en] A NUMERICAL AND EXPERIMENTAL PROCEDURE STUDY FOR USE IN THE MONITORED INFILTRATION TEST / [pt] UM ESTUDO DE PROCEDIMENTOS NUMÉRICOS E EXPERIMENTAIS PARA USO NO ENSAIO DE INFILTRAÇÃO MONITORADA

FELIPE ALVES ROSA 22 March 2018 (has links)
[pt] A determinação dos parâmetros hidráulicos não saturados em laboratório nem sempre representa efetivamente as situações observadas em campo, principalmente devido ao erro causado pelo efeito de escala. Nesse sentido, inúmeros ensaios de campo vêm sendo desenvolvidos, fazendo o uso de medidas de carga de pressão no tempo, para a determinação das propriedades hidráulicas não saturadas. No presente estudo, foi utilizado o ensaio de campo proposto por Velloso (2000), denominado Ensaio de Infiltração Monitorada (EIM). Neste ensaio é mantida uma carga constante, utilizando um permeâmetro tipo Gueplh, sendo monitorada, com o auxílio de um tensiômetro, a variação da sucção ocasionada pela frente de infiltração. Quando a variação da sucção no solo torna-se constante e próxima a zero, o ensaio atingiu, portanto, a condição de fluxo permanente, podendo-se assim finalizar o teste. Os parâmetros do solo e os respectivos parâmetros do modelo de Van Genuchten (1980), os quais descrevem a curva de saturação versus o potencial mátrico, são obtidos matematicamente, através da resolução do problema inverso. Nesse sentido, o objetivo principal do presente trabalho é realizar uma avaliação detalhada dos procedimentos numéricos e experimentais para uso no Ensaio de Infiltração Monitorada (EIM), seguindo as diretrizes e recomendações apontadas nos estudos anteriormente realizados. Desta forma, buscou-se um melhor entendimento do EIM, e para isto, foram realizadas: análises comparativas com resultados de ensaio de laboratório do tipo papel filtro; foi adicionado o monitoramento de umidade de solo durante o EIM; e foram utilizados diferentes métodos de estimativa de parâmetros. Os ensaios apresentados no presente estudo foram realizados em cinco áreas do Estado do Rio de Janeiro. / [en] The determination of unsaturated hydraulic parameters in laboratory tests is not always represents as observed on the field, especially because of the presence of errors caused by the scale factor. So, several field tests have been developed using suction measures with time for a determination of the unsaturated hydraulic properties. This research aims to use the field test proposed by Velloso (2000), called Monitored Infiltration Test (EIM) to determine the Soil Water Characteristic Curve. In this test the constant head is maintained, using a constant head permeameter and, at the same time, monitoring a variation of the suction caused by the infiltration front with a tensiometer. When a variation of the suction in the soil becomes constant and close to zero, then, the test reached a condition of permanent flow, being possible to finalize the procedure. In addition, the soil water characteristic curve (SWCC) and the respective Van Genuchten parameters, that describes a saturation curve versus the matric potential, are obtained mathematically by solving the inverse problem. In this context, the main objective of this research is to develop a detailed evaluation of the numerical and experimental procedures to use it in the Monitored Infiltration Test (EIM), following the guidelines and recommendations pointed out in previous studies in the area. Moreover, was sought a better understanding of EIM, and for this, comparative analyzes were performed with laboratory test results of the filter paper type. In addition, it was added the soil moisture monitoring during the EIM. Finally, was used many optimization methods for parameter estimation. The tests developed and presented in this research, were performed in five areas around the State of Rio de Janeiro.
895

[en] AN EXPERIMENTAL INVESTIGATION OF PROBABILITY DISTRIBUTION OF SOLUTION TIME IN GRASP AND ITS APPLICATION ON THE ANALYSIS OF PARALLEL IMPLEMENTATIONS / [pt] UMA INVESTIGAÇÃO EXPERIMENTAL DA DISTRIBUIÇÃO DE PROBABILIDADE DO TEMPO DE SOLUCAO EM HEURISTICAS GRASP E SUA APLICAÇÃO NA ANALISE DE IMPLEMENTAÇÕES PARALELAS

RENATA MACHADO AIEX 13 June 2003 (has links)
[pt] GRASP (Greedy Randomized Adaptive Search Procedure)é uma metaeurística de partidas múltiplas usada para obter soluções para problemas de otimização combinatória. Nesse trabalho. A metaheurística GRASP tem sido usada para obter soluções de qualidade para muitos problemas de otimização combinatória. Nesse trabalho é proposta uma metodologia para análise do comportamento da metaheurística GRASP. Também são propostas estratégias de hibridização com o religamento de caminhos. Essas estratégias foram desenvolvidas para o problema de atribuição de três índices (AP3) e para o problema de escalonamento de tarefas conhecido na literatura como job-shop schedulling problem (JSP) e são analisadas de acordo com a metodologia proposta. A metodologia para análise do comportamento do método GRASP pode ser usada para prever a partir da versão seqüencial do algoritmo, como a qualidade da solução do algoritmo implementado em paralelo irá variar. Os algoritmos GRASPs desenvolvidos para AP3 e para JSP foram paralelizados e os resultados são comparados aos resultados obtidos usando a metodologia proposta. / [en] GRASP (Greedy Randomized Adaptive Search Procedure) is a multi-start metaheuristic for combinatorial optimization problems. GRASP has been used to find quality solutions of several combinatorial optimization problems. In this work we describe a methodology for analysis of GRASP. Hybrid strategies of GRASP with path relinking are also proposed. These strategies are studied for the 3-index assignment problem (AP3) and for the job-shop schedulling problem (JSP) and are analyzed according to the methodology proposed. The methodology for analysis of GRASP is used to predict qualitatively how the quality of the solution varies in a parallel independent GRASP, using the data of the GRASP sequential version as input. The GRASPs for the AP3 and for the JSP are parallelized and the computational results are compared to the results obtained using the methodology proposed.
896

New Challenges in Learning Classifier Systems: Mining Rarities and Evolving Fuzzy Models

Orriols Puig, Albert 12 December 2008 (has links)
Durant l'última dècada, els sistemes classificadors (LCS) d'estil Michigan - sistemes d'aprenentatge automàtic que combinen tècniques de repartiment de crèdit i algorismes genètics (AG) per evolucionar una població de classificadors online- han renascut. Juntament amb la formulació dels sistemes de primera generació, s'han produït avenços importants en (1) el disseny sistemàtic de nous LCS competents, (2) la seva aplicació en dominis rellevants i (3) el desenvolupament d'anàlisis teòriques. Malgrat aquests dissenys i aplicacions importants, encara hi ha reptes complexos que cal abordar per comprendre millor el funcionament dels LCS i per solucionar problemes del món real eficientment i escalable.Aquesta tesi tracta dos reptes importants - compartits amb la comunitat d'aprenentatge automàtic - amb LCS d'estil Michigan: (1) aprenentatge en dominis que contenen classes estranyes i (2) evolució de models comprensibles on s'utilitzin mètodes de raonament similars als humans. L'aprenentatge de models precisos de classes estranyes és crític, doncs el coneixement clau sol quedar amagat en exemples d'aquestes, i la majoria de tècniques d'aprenentatge no són capaces de modelar la raresa amb precisió. La detecció de rareses sol ser complicat en aprenentatge online ja que el sistema d'aprenentatge rep un flux d'exemples i ha de detectar les rareses al vol. D'altra banda, l'evolució de models comprensibles és crucial en certs dominis com el mèdic, on l'expert acostuma a estar més interessat en obtenir una explicació intel·ligible de la predicció que en la predicció en si mateixa.El treball present considera dos LCS d'estil Michigan com a punt de partida: l'XCS i l 'UCS. Es pren l'XCS com a primera referència ja que és l'LCS que ha tingut més influencia fins al moment. L'UCS hereta els components principals de l'XCS i els especialitza per aprenentatge supervisat. Tenint en compte que aquesta tesi especialment se centra en problemes de classificació, l'UCS també es considera en aquest estudi. La inclusió de l'UCS marca el primer objectiu de la tesi, sota el qual es revisen un conjunt de punts que van restar oberts en el disseny del sistema. A més, per il·lustrar les diferències claus entre l'XCS i l'UCS, es comparen ambdós sistemes sobre una bateria de problemes artificials de complexitat acotada.L'estudi de com els LCS aprenen en dominis amb classes estranyes comença amb un estudi analític que descompon el problema en cinc elements crítics i deriva models per facetes per cadascun d'ells. Aquesta anàlisi s'usa com a eina per dissenyar guies de configuració que permeten que l'XCS i l'UCS solucionin problemes que prèviament no eren resolubles. A continuació, es comparen els dos LCS amb alguns dels sistemes d'aprenentatge amb més influencia en la comunitat d'aprenentatge automàtic sobre una col·lecció de problemes del món real que contenen classes estranyes. Els resultats indiquen que els dos LCS són els mètodes més robustos de la comparativa. Així mateix, es demostra experimentalment que remostrejar els conjunts d'entrenament amb l'objectiu d'eliminar la presencia de classes estranyes beneficia, en mitjana, el rendiment de les tècniques d'aprenentatge.El repte de crear models més comprensibles i d'usar mecanismes de raonament que siguin similars als humans s'aborda mitjançant el disseny d'un nou LCS per aprenentatge supervisat que combina les capacitats d'avaluació de regles online, la robustesa mostrada pels AG en problemes complexos i la representació comprensible i mètodes de raonament fonamentats proporcionats per la lògica difusa. El nou LCS, anomenat Fuzzy-UCS, s'estudia en detall i es compara amb una bateria de mètodes d'aprenentatge. Els resultats de la comparativa demostren la competitivitat del Fuzzy-UCS en termes de precisió i intel·ligibilitat dels models evolucionats. Addicionalment, s'usa Fuzzy-UCS per extreure models de classificació acurats de grans volums de dades, exemplificant els avantatges de l'arquitectura d'aprenentatge online del Fuzzy-UCS.En general, les observacions i avenços assolits en aquesta tesi contribueixen a augmentar la comprensió del funcionament dels LCS i en preparar aquests tipus de sistemes per afrontar problemes del món real de gran complexitat. Finalment, els resultats experimentals ressalten la robustesa i competitivitat dels LCS respecte a altres mètodes d'aprenentatge, encoratjant el seu ús per tractar nous problemes del món real. / Durante la última década, los sistemas clasificadores (LCS) de estilo Michigan - sistemas de aprendizaje automático que combinan técnicas de repartición de crédito y algoritmos genéticos (AG) para evolucionar una población de clasificadores online - han renacido. Juntamente con la formulación de los sistemas de primera generación, se han producido avances importantes en (1) el diseño sistemático de nuevos LCS competentes, (2) su aplicación en dominios relevantes y (3) el desarrollo de análisis teóricos. Pese a eso, aún existen retos complejos que deben ser abordados para comprender mejor el funcionamiento de los LCS y para solucionar problemas del mundo real escalable y eficientemente.Esta tesis trata dos retos importantes - compartidos por la comunidad de aprendizaje automático - con LCS de estilo Michigan: (1) aprendizaje en dominios con clases raras y (2) evolución de modelos comprensibles donde se utilicen métodos de razonamiento similares a los humanos. El aprendizaje de modelos precisos de clases raras es crítico pues el conocimiento clave suele estar escondido en ejemplos de estas clases, y la mayoría de técnicas de aprendizaje no son capaces de modelar la rareza con precisión. El modelado de las rarezas acostumbra a ser más complejo en entornos de aprendizaje online, pues el sistema de aprendizaje recibe un flujo de ejemplos y debe detectar las rarezas al vuelo. La evolución de modelos comprensibles es crucial en ciertos dominios como el médico, donde el experto está más interesado en obtener una explicación inteligible de la predicción que en la predicción en sí misma.El trabajo presente considera dos LCS de estilo Michigan como punto de partida: el XCS y el UCS. Se toma XCS como primera referencia debido a que es el LCS que ha tenido más influencia hasta el momento. UCS es un diseño reciente de LCS que hereda los componentes principales de XCS y los especializa para aprendizaje supervisado. Dado que esta tesis está especialmente centrada en problemas de clasificación automática, también se considera UCS en el estudio. La inclusión de UCS marca el primer objetivo de la tesis, bajo el cual se revisan un conjunto de aspectos que quedaron abiertos durante el diseño del sistema. Además, para ilustrar las diferencias claves entre XCS y UCS, se comparan ambos sistemas sobre una batería de problemas artificiales de complejidad acotada.El estudio de cómo los LCS aprenden en dominios con clases raras empieza con un estudio analítico que descompone el problema en cinco elementos críticos y deriva modelos por facetas para cada uno de ellos. Este análisis se usa como herramienta para diseñar guías de configuración que permiten que XCS y UCS solucionen problemas que previamente no eran resolubles. A continuación, se comparan los dos LCS con algunos de los sistemas de aprendizaje de mayor influencia en la comunidad de aprendizaje automático sobre una colección de problemas del mundo real que contienen clases raras.Los resultados indican que los dos LCS son los métodos más robustos de la comparativa. Además, se demuestra experimentalmente que remuestrear los conjuntos de entrenamiento con el objetivo de eliminar la presencia de clases raras beneficia, en promedio, el rendimiento de los métodos de aprendizaje automático incluidos en la comparativa.El reto de crear modelos más comprensibles y usar mecanismos de razonamiento que sean similares a los humanos se aborda mediante el diseño de un nuevo LCS para aprendizaje supervisado que combina las capacidades de evaluación de reglas online, la robustez mostrada por los AG en problemas complejos y la representación comprensible y métodos de razonamiento proporcionados por la lógica difusa. El sistema que resulta de la combinación de estas ideas, llamado Fuzzy-UCS, se estudia en detalle y se compara con una batería de métodos de aprendizaje altamente reconocidos en el campo de aprendizaje automático. Los resultados de la comparativa demuestran la competitividad de Fuzzy-UCS en referencia a la precisión e inteligibilidad de los modelos evolucionados. Adicionalmente, se usa Fuzzy-UCS para extraer modelos de clasificación precisos de grandes volúmenes de datos, ejemplificando las ventajas de la arquitectura de aprendizaje online de Fuzzy-UCS.En general, los avances y observaciones proporcionados en la tesis presente contribuyen a aumentar la comprensión del funcionamiento de los LCS y a preparar estos tipos de sistemas para afrontar problemas del mundo real de gran complejidad. Además, los resultados experimentales resaltan la robustez y competitividad de los LCS respecto a otros métodos de aprendizaje, alentando su uso para tratar nuevos problemas del mundo real. / During the last decade, Michigan-style learning classifier systems (LCSs) - genetic-based machine learning (GBML) methods that combine apportionment of credit techniques and genetic algorithms (GAs) to evolve a population of classifiers online - have been enjoying a renaissance. Together with the formulation of first generation systems, there have been crucial advances in (1) systematic design of new competent LCSs, (2) applications in important domains, and (3) theoretical analyses for design. Despite these successful designs and applications, there still remain difficult challenges that need to be addressed to increase our comprehension of how LCSs behave and to scalably and efficiently solve real-world problems.The purpose of this thesis is to address two important challenges - shared by the machine learning community - with Michigan-style LCSs: (1) learning from domains that contain rare classes and (2) evolving highly legible models in which human-like reasoning mechanisms are employed. Extracting accurate models from rare classes is critical since the key, unperceptive knowledge usually resides in the rarities, and many traditional learning techniques are not able to model rarity accurately. Besides, these difficulties are increased in online learning, where the learner receives a stream of examples and has to detect rare classes on the fly. Evolving highly legible models is crucial in some domains such as medical diagnosis, in which human experts may be more interested in the explanation of the prediction than in the prediction itself.The contributions of this thesis take two Michigan-style LCSs as starting point: the extended classifier system (XCS) and the supervised classifier system (UCS). XCS is taken as the first reference of this work since it is the most influential LCS. UCS is a recent LCS design that has inherited the main components of XCS and has specialized them for supervised learning. As this thesis is especially concerned with classification problems, UCS is also considered in this study. Since UCS is still a young system, for which there are several open issues that need further investigation, its learning architecture is first revised and updated. Moreover, to illustrate the key differences between XCS and UCS, the behavior of both systems is compared % and show that UCS converges quickly than XCS on a collection of boundedly difficult problems.The study of learning from rare classes with LCSs starts with an analytical approach in which the problem is decomposed in five critical elements, and facetwise models are derived for each element. The analysis is used as a tool for designing configuration guidelines that enable XCS and UCS to solve problems that previously eluded solution. Thereafter, the two LCSs are compared with several highly-influential learners on a collection of real-world problems with rare classes, appearing as the two best techniques of the comparison. Moreover, re-sampling the training data set to eliminate the presence of rare classes is demonstrated to benefit, on average, the performance of LCSs.The challenge of building more legible models and using human-like reasoning mechanisms is addressed with the design of a new LCS for supervised learning that combines the online evaluation capabilities of LCSs, the search robustness over complex spaces of GAs, and the legible knowledge representation and principled reasoning mechanisms of fuzzy logic. The system resulting from this crossbreeding of ideas, referred to as Fuzzy-UCS, is studied in detail and compared with several highly competent learning systems, demonstrating the competitiveness of the new architecture in terms of the accuracy and the interpretability of the evolved models. In addition, the benefits provided by the online architecture are exemplified by extracting accurate classification models from large data sets.Overall, the advances and key insights provided in this thesis help advance our understanding of how LCSs work and prepare these types of systems to face increasingly difficult problems, which abound in current industrial and scientific applications. Furthermore, experimental results highlight the robustness and competitiveness of LCSs with respect to other machine learning techniques, which encourages their use to face new challenging real-world applications.
897

Stabilized finite element methods for convection-diffusion-reaction, helmholtz and stokes problems

Nadukandi, Prashanth 13 May 2011 (has links)
We present three new stabilized finite element (FE) based Petrov-Galerkin methods for the convection-diffusionreaction (CDR), the Helmholtz and the Stokes problems, respectively. The work embarks upon a priori analysis of a consistency recovery procedure for some stabilization methods belonging to the Petrov- Galerkin framework. It was ound that the use of some standard practices (e.g. M-Matrices theory) for the design of essentially non-oscillatory numerical methods is not appropriate when consistency recovery methods are employed. Hence, with respect to convective stabilization, such recovery methods are not preferred. Next, we present the design of a high-resolution Petrov-Galerkin (HRPG) method for the CDR problem. The structure of the method in 1 D is identical to the consistent approximate upwind (CAU) Petrov-Galerkin method [doi: 10.1016/0045-7825(88)90108-9] except for the definitions of he stabilization parameters. Such a structure may also be attained via the Finite Calculus (FIC) procedure [doi: 10.1 016/S0045-7825(97)00119-9] by an appropriate definition of the characteristic length. The prefix high-resolution is used here in the sense popularized by Harten, i.e. second order accuracy for smooth/regular regimes and good shock-capturing in non-regular re9jmes. The design procedure in 1 D embarks on the problem of circumventing the Gibbs phenomenon observed in L projections. Next, we study the conditions on the stabilization parameters to ircumvent the global oscillations due to the convective term. A conjuncture of the two results is made to deal with the problem at hand that is usually plagued by Gibbs, global and dispersive oscillations in the numerical solution. A multi dimensional extension of the HRPG method using multi-linear block finite elements is also presented. Next, we propose a higher-order compact scheme (involving two parameters) on structured meshes for the Helmholtz equation. Making the parameters equal, we recover the alpha-interpolation of the Galerkin finite element method (FEM) and the classical central finite difference method. In 1 D this scheme is identical to the alpha-interpolation method [doi: 10.1 016/0771 -050X(82)90002-X] and in 2D choosing the value 0.5 for both the parameters, we recover he generalized fourth-order compact Pade approximation [doi: 10.1 006/jcph.1995.1134, doi: 10.1016/S0045- 7825(98)00023-1] (therein using the parameter V = 2). We follow [doi: 10.1 016/0045-7825(95)00890-X] for the analysis of this scheme and its performance on square meshes is compared with that of the quasi-stabilized FEM [doi: 10.1016/0045-7825(95)00890-X]. Generic expressions for the parameters are given that guarantees a dispersion accuracy of sixth-order should the parameters be distinct and fourth-order should they be equal. In the later case, an expression for the parameter is given that minimizes the maximum relative phase error in 2D. A Petrov-Galerkin ormulation that yields the aforesaid scheme on structured meshes is also presented. Convergence studies of the error in the L2 norm, the H1 semi-norm and the I ~ Euclidean norm is done and the pollution effect is found to be small. / Presentamos tres nuevos metodos estabilizados de tipo Petrov- Galerkin basado en elementos finitos (FE) para los problemas de convecci6n-difusi6n- reacci6n (CDR), de Helmholtz y de Stokes, respectivamente. El trabajo comienza con un analisis a priori de un metodo de recuperaci6n de la consistencia de algunos metodos de estabilizaci6n que pertenecen al marco de Petrov-Galerkin. Hallamos que el uso de algunas de las practicas estandar (por ejemplo, la eoria de Matriz-M) para el diserio de metodos numericos esencialmente no oscilatorios no es apropiado cuando utilizamos los metodos de recu eraci6n de la consistencia. Por 10 tanto, con res ecto a la estabilizaci6n de conveccion, no preferimos tales metodos de recuperacion . A continuacion, presentamos el diser'io de un metodo de Petrov-Galerkin de alta-resolucion (HRPG) para el problema CDR. La estructura del metodo en 10 es identico al metodo CAU [doi: 10.1016/0045-7825(88)90108-9] excepto en la definicion de los parametros de estabilizacion. Esta estructura tambien se puede obtener a traves de la formulacion del calculo finito (FIC) [doi: 10.1 016/S0045- 7825(97)00119-9] usando una definicion adecuada de la longitud caracteristica. El prefijo de "alta-resolucion" se utiliza aqui en el sentido popularizado por Harten, es decir, tener una solucion con una precision de segundo orden en los regimenes suaves y ser esencialmente no oscilatoria en los regimenes no regulares. El diser'io en 10 se embarca en el problema de eludir el fenomeno de Gibbs observado en las proyecciones de tipo L2. A continuacion, estudiamos las condiciones de los parametros de estabilizacion para evitar las oscilaciones globales debido al ermino convectivo. Combinamos los dos resultados (una conjetura) para tratar el problema COR, cuya solucion numerica sufre de oscilaciones numericas del tipo global, Gibbs y dispersiva. Tambien presentamos una extension multidimensional del metodo HRPG utilizando los elementos finitos multi-lineales. fa. continuacion, proponemos un esquema compacto de orden superior (que incluye dos parametros) en mallas estructuradas para la ecuacion de Helmholtz. Haciendo igual ambos parametros, se recupera la interpolacion lineal del metodo de elementos finitos (FEM) de tipo Galerkin y el clasico metodo de diferencias finitas centradas. En 10 este esquema es identico al metodo AIM [doi: 10.1 016/0771 -050X(82)90002-X] y en 20 eligiendo el valor de 0,5 para ambos parametros, se recupera el esquema compacto de cuarto orden de Pade generalizada en [doi: 10.1 006/jcph.1 995.1134, doi: 10.1 016/S0045-7825(98)00023-1] (con el parametro V = 2). Seguimos [doi: 10.1 016/0045-7825(95)00890-X] para el analisis de este esquema y comparamos su rendimiento en las mallas uniformes con el de "FEM cuasi-estabilizado" (QSFEM) [doi: 10.1016/0045-7825 (95) 00890-X]. Presentamos expresiones genericas de los para metros que garantiza una precision dispersiva de sexto orden si ambos parametros son distintos y de cuarto orden en caso de ser iguales. En este ultimo caso, presentamos la expresion del parametro que minimiza el error maxima de fase relativa en 20. Tambien proponemos una formulacion de tipo Petrov-Galerkin ~ue recupera los esquemas antes mencionados en mallas estructuradas. Presentamos estudios de convergencia del error en la norma de tipo L2, la semi-norma de tipo H1 y la norma Euclidiana tipo I~ y mostramos que la perdida de estabilidad del operador de Helmholtz ("pollution effect") es incluso pequer'ia para grandes numeros de onda. Por ultimo, presentamos una coleccion de metodos FE estabilizado para el problema de Stokes desarrollados a raves del metodo FIC de primer orden y de segundo orden. Mostramos que varios metodos FE de estabilizacion existentes y conocidos como el metodo de penalizacion, el metodo de Galerkin de minimos cuadrados (GLS) [doi: 10.1016/0045-7825(86)90025-3], el metodo PGP (estabilizado a traves de la proyeccion del gradiente de presion) [doi: 10.1 016/S0045-7825(96)01154-1] Y el metodo OSS (estabilizado a traves de las sub-escalas ortogonales) [doi: 10.1016/S0045-7825(00)00254-1] se recuperan del marco general de FIC. Oesarrollamos una nueva familia de metodos FE, en adelante denominado como PLS (estabilizado a traves del Laplaciano de presion) con las formas no lineales y consistentes de los parametros de estabilizacion. Una caracteristica distintiva de la familia de los metodos PLS es que son no lineales y basados en el residuo, es decir, los terminos de estabilizacion dependera de los residuos discretos del momento y/o las ecuaciones de incompresibilidad. Oiscutimos las ventajas y desventajas de estas tecnicas de estabilizaci6n y presentamos varios ejemplos de aplicacion
898

Procesamiento de señales de tomografía de impedancia eléctrica para el estudio de la actividad cerebral

Fernández Corazza, Mariano January 2015 (has links)
La tomografía de impedancia eléctrica (EIT) permite estimar la conductividad eléctrica interna de un cuerpo. Consiste en aplicar una corriente eléctrica sobre su frontera y medir el potencial eléctrico resultante mediante un arreglo de sensores. Es considerada como una potencial herramienta de diagnóstico médico, caracterizada principalmente por su portabilidad y relativo bajo costo. Si bien se encuentra aún en etapa de desarrollo, está comenzando a ser utilizada en centros de salud para la caracterización del aparato cardio-respiratorio y existe un creciente interés en su aplicación a las neurociencias. Por ejemplo, es posible utilizar la EIT para construir modelos virtuales de la cabeza más precisos mediante la estimación de la conductividad eléctrica de los principales tejidos de la cabeza como un conjunto de parámetros relativamente pequeño, modalidad denominada EIT paramétrico. También se puede utilizar la EIT para generar un mapa de la distribución de conductividad eléctrica interna de un objeto, llamado problema de reconstrucción en EIT. Los cambios de la conductividad eléctrica en la cabeza pueden estar asociados a la actividad neuronal, a focos epilépticos, a accidentes cerebro-vasculares o a tumores. Ambas modalidades de EIT requieren la resolución del problema directo (PD), que consiste en el cálculo de la distribución de potencial eléctrico en el objeto originada por la inyección de corriente sobre su superficie, suponiendo que la conductividad interna es conocida. La estimulación de corriente continua transcraneal (tDCS) es físicamente muy similar a la EIT, pero la corriente eléctrica es aplicada sobre el cuero cabelludo de modo de alterar la tasa de disparos de poblaciones de neuronas en una región de interés. Es una potencial alternativa al empleo de psicofármacos para tratar desórdenes como epilepsia o depresiones. En esta tesis se desarrollan y analizan nuevos métodos para distintos problemas de EIT, centrándose mayormente en aplicaciones a la cabeza humana, y de tDCS. En primer lugar, se describen soluciones analíticas y numéricas para el PD en EIT, estas últimas basadas en el método de los elementos finitos. Luego, se desarrolla un nuevo procedimiento para resolver el PD con bajo costo computacional basado en la formulación del PD en electroencefalografía (EEG). Se propone un nuevo método para determinar la forma de onda de la fuente de corriente que permite desafectar la actividad propia del cerebro con un bajo número de muestras temporales. En EIT paramétrico, se utiliza la cota de Cramér-Rao (CRB) para determinar pares de electrodos convenientes para la inyección de corriente y para analizar límites teóricos en la estimación de las conductividades del cráneo y del cuero cabelludo, modelizándolos como tejidos isótropos y anisótropos. A su vez, se propone el estimador de máxima verosimilitud (MLE) como herramienta para realizar las estimaciones. El MLE se aplica a mediciones simuladas y reales de EIT mostrando un desempeño muy cercano a los límites teóricos. Para el problema de reconstrucción en EIT se adapta el algoritmo sLORETA, muy utilizado en el problema de localización de fuentes de actividad neuronal en EEG. Además, se lo modifica levemente para incorporar la regularización espacial de Laplace. Por otro lado, se introduce la utilización de filtros espaciales adaptivos para localizar cambios de conductividad de pequeño tamaño y estimar su variación temporal. Los resultados muestran mejoras en sesgo y resolución, en comparación con algoritmos de reconstrucción típicos en EIT. Estas mejoras son potencialmente ventajosas en la detección de accidentes cerebro-vasculares y en la localización indirecta de fuentes de actividad neuronal. En tDCS, se desarrolla un nuevo algoritmo para la determinación de patrones de inyección de corriente basado en el principio de reciprocidad y que considera restricciones de seguridad y de hardware. Los resultados obtenidos a partir de simulaciones muestran que el desempeño de dicho algoritmo es comparable al desempeño de algoritmos de optimización tradicionales cuyas soluciones implicarían un equipamiento comparativamente más complejo y costoso. Los métodos desarrollados en la tesis son comparados con métodos pre-existentes y validados a través de simulaciones numéricas por computadora, mediciones sobre maquetas experimentales (ó fantomas) y, de acuerdo con las posibilidades experimentales y respetando los principios de la bioética, mediciones reales sobre humanos. / Electrical impedance tomography (EIT) is a technique to estimate the electrical conductivity of an object. It consists in the application of an electric current on its boundary and the measurement of the resulting electric potential with a sensor array. In clinical practise, it is considered as a potential diagnostic tool characterized by its portability and relatively low cost. While it is still in a development stage, it is starting to be used in health centers to characterize the cardio-respiratory system. In turn, there is an increasing interest of EIT in neuroscience. For example, EIT can be used to estimate the electrical conductivity of the main tissues of the head as a set of a relatively low number of parameters, which is known as bounded or parametric EIT. This is useful for several medical imaging techniques that require realistic and accurate virtual models of the head. EIT can also be used to generate a map of the internal distribution of the electrical conductivity, known as the reconstruction problem. Tracking conductivity changes inside the head is of great interest as they may be related to neuronal activity, epileptic foci, acute stroke, or tumors. Both modalities of EIT require the solution of the EIT forward problem (FP), i.e., the computation of the electric potential distribution due to current injection on the scalp assuming that the electrical conductivity is known. The transcranial direct current stimulation (tDCS) is another technique which is physically very similar to EIT. It consists in injecting a small electric current in a convenient way such that it stimulates specific neuronal populations, increasing or decreasing their firing rate. It is considered as an alternative to psychoactive drugs in the treatment of brain disorders such as epilepsy or depression. This thesis describes the development and analysis of new methods for EIT FP, parametric EIT, reconstruction in EIT, and tDCS, focusing primarily (although not exclusively) in applications to human head. We first describe analytical and numerical approaches for the EIT FP, where the numerical approach is based on the finite element method. Then, we develop a new procedure to solve the EIT FP based on the electroencephalography (EEG) FP formulation, which results in computational advantages. We propose a new method to determine the waveform of the electric current source such that the neuronal activity of the brain can be neglected with the smallest possible number of time samples. In parametric EIT, we use the Cramér-Rao bound (CRB) to determine convenient electrode pairs for the current injection and theoretical limits in the estimation of the electrical conductivity of the main tissues of the head, which we model as isotropic and anisotropic. We propose the maximum likelihood estimator (MLE) to estimate these conductivities and we test it with simulated and real EIT measurements, showing that the MLE performs close to the CRB. We adapt the sLORETA algorithm to the reconstruction problem in EIT. This algorithm is being widely used in the source localization problem in EEG. We also slightly modify it to include the Laplace smoothing prior in the solution. Likewise, we introduce the use of adaptive spatial filters in the localization of conductivity changes and the estimation of its time courses from EIT measurements. The results show improvements over typical EIT algorithms. These improvements may benefit the early detection of acute strokes and the localization of neuronal activity using EIT. In tDCS, we develop a new algorithm to determine convenient current injection patterns. It is based on the reciprocity principle and considers hardware and safety constraints. Our simulation results show that this method performs similarly to other commonly used algorithms that require more complex and costly equipments. The methods we develop and study in this thesis are compared with pre-existing methods and are validated through numerical simulations, measurements on phantoms and, according to the experimental possibilities and bioethical principles, humans.
899

Análise funcional não-linear aplicada ao estudo de problemas elípticos não-locais. / Non-linear functional analysis applied to the study of non-local elliptic problems.

LIMA, Natan de Assis. 24 July 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-24T14:12:47Z No. of bitstreams: 1 NATAN DE ASSIS LIMA - DISSERTAÇÃO PPGMAT 2010..pdf: 614405 bytes, checksum: d19b00bf4d0fb78e21179e363cfc96f8 (MD5) / Made available in DSpace on 2018-07-24T14:12:47Z (GMT). No. of bitstreams: 1 NATAN DE ASSIS LIMA - DISSERTAÇÃO PPGMAT 2010..pdf: 614405 bytes, checksum: d19b00bf4d0fb78e21179e363cfc96f8 (MD5) Previous issue date: 2010-03 / CNPq / Neste trabalho usaremos algumas técnicas da Análise Funcional Não-Linear para estudar a existência de solução para os chamados Problemas Elípticos Não-Locais, entre os quais destacamos aqueles que incluem o operador de Kirchhoff [...]. * Para visualizar o resumo recomendamos do download do arquivo uma vez que o mesmo utiliza formulas ou equações matemáticas que não puderam ser transcritas neste espaço. / In this work we will use same techniques of Nonlinear Analysis Functional to study the existence of solutions for the some Nonlocal Elliptic Problems, among then those which include Kirchhoff operator [...]. * To preview the summary we recommend downloading the file since it uses mathematical formulas or equations that could not be transcribed in this space.
900

A Equação de Helmholtz com Condições de Fronteira de Robbins

Etereldes Gonçalves Junior 22 March 2004 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O autor não apresentou resumo.

Page generated in 0.071 seconds