Spelling suggestions: "subject:"rede neuronal""
1 |
Diseño de un rele neuronal de protección para lineas aéreas de AT con preprocesado de señal mediante la transformada WaveletIglesias Lorenzo, Javier 29 January 2004 (has links)
El avance de las tecnologías de los microprocesadores y ordenadores ha permitido sustituir las protecciones electromecánicas y analógicas clásicas por protecciones digitales. Sin embargo, los algoritmos empleados en éstas últimas tienen serias dificultades cuando las señales procedentes de los transductores de las corrientes y tensiones están afectadas por la saturación de los mismos o por efectos de ferrorresonancia respectivamente, o cuando la falta que se presenta en la línea está afectada por un arco dinámico.Por otro lado, en los últimos años se habían hecho pequeños avances en la aplicación de la inteligencia artificial y en especial en redes neuronales a los sistemas de energía eléctrica. Éstas resultaban especialmente útiles en la predicción del flujo de carga y en la clasificación de patrones de faltas. El término clasificación de patrones engloba un amplio marco de problemas de procesado de información de gran importancia práctica. Con frecuencia estos problemas se resuelven mediante técnicas estadísticas, desarrollando un algoritmo capaz de clasificar un correctamente un patrón no visto anteriormente. Una aproximación al reconocimiento estadístico de patrones se realiza mediante el teorema de Bayes, que expresa la probabilidad de que un patrón pertenezca a una determinada clase, expresando ésta probabilidad a posteriori en función de medidas realizadas previamente. En función de las características observadas se divide el espacio en regiones de decisión separadas por fronteras de decisión o clasificación. Análogamente, las salidas de una red neuronal se pueden interpretar como las probabilidades obtenidas a partir de la función de error (minimizar la función error durante el entrenamiento de la red neuronal es equivalente a buscar la máxima probabilidad), y la red neuronal aproxima las fronteras del clasificador Bayesiano óptimo.Ante estos hechos, y la gran ventaja que supone el modo de trabajo en paralelo de las redes neuronales, nos propusimos como objetivo buscar nuevos caminos en el campo de las protecciones de las redes eléctricas por medio del estudio de las redes neuronales de sistemas de protección que resuelvan los problemas anteriormente apuntados.La metodología empleada consistió en el entrenamiento de los diferentes tipos de redes neuronales utilizadas en los relés de protección mediante datos generados, para distintos tipos de fallos, con un programa de transitorios electromagnéticos (EMTDC/PSCAD) aplicado a un modelo de red muy general que incluye todas las posibles topologías y niveles de carga. Estos patrones fueron empleados para entrenar las redes neuronales mediante un programa en C++ realizado por el autor.También se incorporó en este trabajo, el estudio y la aplicación de la transformada wavelet, que presenta una serie de ventajas frente a métodos tradicionales de procesado de señales. Entre las herramientas tradicionales de análisis de sistemas eléctricos de potencia, se encuentran numerosos algoritmos, basados entre otros, en la transformada de Fourier, filtros de Kalman, etc. Sin embargo, si ocurre un transitorio, las formas de onda asociadas son no periódicas, conteniendo oscilaciones de alta y de baja frecuencia superpuestas a la frecuencia de funcionamiento del sistema eléctrico. En tal situación, debido a que la transformada de Fourier realiza un promedio de la contribución de las frecuencias se pierde la localización de la perturbación en el tiempo. El análisis mediante wavelets supera ésta limitación, realizando un procesado de la señal, que proporciona información en tiempo y en frecuencia. Por ello, la transformada wavelet es una potente ayuda para el análisis, estudio e interpretación de los distintos fenómenos transitorios que se pueden presentar en un sistema eléctrico de potencia. Además, en este trabajo se ha implementado la transformada wavelet mediante una red neu-ronal, lo que nos permite integrar dentro de la red neuronal general de reconocimiento de pa-trones, una subred encargada de llevar a cabo el procesado de señal. El funcionamiento en paralelo de la red neuronal con la información suministrada por las wavelets ha permitido incrementar la velocidad y seguridad de la respuesta del relé neuronal en los primeros instan-tes del fallo. Asimismo, uno de los objetivos de este trabajo era realizar la implementación práctica del diseño realizado en un sistema electrónico que permitiera comprobar la eficacia del mismo. Para llevar a cabo el montaje experimental se necesitaba un sistema que permitiera simular los sistemas eléctricos similares a los empleados en el proceso de diseño y entrenamiento del relé. El Departamento de Ingeniería Eléctrica de la Universidad de Bath cuenta con el equipo RTDS, que constituye el complemento del sistema de simulación PSCAD, con el que es posi-ble llevar a cabo la simulación y ensayo de prototipos de equipos eléctricos. Bajo la dirección del Prof. Aggarwal se llevó a cabo las pruebas de laboratorio del relé neuronal que resultaron plenamente satisfactorias. Los alentadores resultados obtenidos son un buen estímulo para el uso de las redes neuronales en las protecciones de alta velocidad para líneas de transmisión de alta tensión ya que hemos obtenido un tiempo de respuesta en la detección en la red neuronal de incluso 1.8 ms para fallos cercanos al relé. El relé también ha dado una buena respuesta frente a ruidos, pérdida de información y cambios bruscos de carga. / The great advance of the microprocessor and computer technology has allowed the electromechanical and analog protection devices to be substituted by digital ones. However, the algorithms used in digital protections have some disadvantages related to the errors caused by current transformer saturation, voltage transformer ferro-resonance or by dynamics arcing faults. Over the past 10 years there have been some advances in the application of artificial intelligence, especially of neural networks, on power system analysis. These applications were useful in the prediction of optimum load flow and fault pattern classification. The term pattern classification encompasses a wide range of information processing problems of great practical significance. Often the framework in which to formulate solutions to pattern recognition is the statistical one, with the develop of an algorithm to be able to correctly classify a previously unseen pattern. One approach to statistical pattern recognition is using Bayes´ theorem, which gives the probability of the pattern belonging to a particular class, and expresses this posterior probability in terms of previous measurements. The space is divided up into decision regions depending on the observed features. The boundaries between regions are known as decision boundaries. The outputs of a neural network can be interpreted as posterior probabilities calculated with the error function (the network training is based on maximum likelihood which is equivalent to minimization of an error function), and the neural network approximates the decision boundaries of the Bayes´ theorem.For these reasons and because of the advantage of the parallel processing capabilities of the neural networks, our objective here is to search for new applications of neural networks on power system protection in order to improve it and solve the problems mentioned above.In order to do this in this thesis, the artificial neural networks are applied to the protection of high voltage transmission lines, assuming dynamic arcing faults, the current transformer saturation, the change of the short circuit levels, the change of the power network topology, the bad and noisy data, and sudden load changes.The methodology carried out in a special training process of the neural networks, using protection relays by means of simulated faults data, obtained by the electromagnetic transient program (EMTDC/PSCAD) applied to a generalized power network model which includes all the possible topologies and load levels. The training algorithm was implemented by the author in the C++ language program.Within this project we included the study and application of the wavelet transform, which showed a series of advantages in front of traditional methods in signal processing. In traditional power signal analysis tools, among several algorithms, the Fourier transform has been used as well as the Kalman filtering, etc. However, in presence of non stationary signals the performance of these techniques are limited. Thus, if there is a local transient over some small interval of time in the lifetime of the signal, the transient will contribute to the Fourier transform, but its location on the time axis will be lost. Wavelets analysis overcomes this limitation by employing an analyzing function that is local both in time and frequency. The wavelet transform is a powerful tool for the study and analysis of transient phenomena in electric power systems.Furthermore, in this work the wavelet transform has been implemented with a neural network which allows us to incorporate it within the whole network for pattern recognition. Both neural networks along with the information supplied by the wavelets, have made it possible to increase the speed and reliability of the relay, especially during the fault inception.Also, one of our aims was to carry out the practical implementation of an electronic board in order to test the performance of the neural relay. To do this, it was necessary to use equipment to carry out the laboratory test, by emulating the same or a similar system employed while designing and training the relay.Prof. R. K. Aggarwal, in the Electrical department in the University of Bath expertise in the application of signal processing and Artificial Intelligence technology for the development of novel intelligent relays for Power Systems, both for transmission and distribution systems. Their experience is not only in the CAD work but also in the design and engineering of proto-type hardware. To do this the RTDS (Real Time Digital Simulator) system was employed. The obtained results were fully satisfactory.These successful tests results encourage investment in neural networks in high speed protec-tion for high voltage transmission lines. The response time is even less than 1.8 ms for faults close to the relay, which has a good performance in front of noise, faulty data and sudden change of load.
|
2 |
Modelación y Optimización de Redes IP Usando Herramientas de Inteligencia ComputacionalUrrutia Arestizábal, Patricio Alejandro January 2007 (has links)
No description available.
|
3 |
Pronósticos y comparación de una serie de tiempo con cambios estructurales mediante la red neuronal artificial de retropropagación resiliente y modelos no linealesCárdenas Garro, José Antonio January 2015 (has links)
En esta investigación se propone una metodológica alternativa a la metodología de Box y Jenkins, donde se podrá evidenciar el modelamiento de series temporales no lineales, mediante el enfoque paramétrico y el enfoque No paramétrico.
En el enfoque paramétrico me inclinaré por la extensión de los métodos de Box y Jenkins, es decir, los modelos ARCH, GARCH, TGARCH entre otros, para el modelado de series temporales no lineales, en la cual obtendré los pronósticos del año 2012 para la serie temporal:
Número de peruanos retornantes según año de regreso mediante medio de transporte aéreo.
En el enfoque No paramétrico presentaré el método de la red neural de retropropagación resiliente para el modelado de series temporales no lineales, en la cual obtendré los pronósticos del año 2012 para la serie temporal:
Número de peruanos retornantes según año de regreso mediante medio de transporte aéreo.
La serie de tiempo estudiada para esta investigación presenta un cambio estructural durante los años del 2000-2003, lo que induce a la no linealidad de la serie. La estimación de los dos enfoques serán comparados y se elegirá el enfoque que otorgue mejores pronósticos, la cual escogeré mediante indicadores de validación como por ejemplo el MAD (Desviación Media Residual) y SSE (Suma de los Cuadrados de los Residuos). / In this research an alternative to Box and Jenkins methodology, where you can demonstrate the modeling of nonlinear time series, using parametric and nonparametric approach is proposed methodological approach.
In the parametric approach, we prefer the extension of the methods of Box and Jenkins, ie ARCH, GARCH, TGARCH models among others, for modeling nonlinear time series, in which we obtain forecasts for 2012 for the series time:
Number of returnees back Peruvians by year by means of air transport.
In the parametric approach not present the method of the Resilient Backpropagation Neural Network for modeling nonlinear time series, in which we obtain forecasts of 2012 to the time series:
Number of returnees back Peruvians by year by means of air transport.
The time series studied for this research presents a structural change during the years of 2000-2003, which leads to the nonlinearity of the series.
The estimation of the two approaches will be compared and approach that gives better predictions will be chosen, which will choose validation using indicators such as MAD (mean deviation residual) and SSE (sum of the squares of the waste)
|
4 |
Generación de una malla de ondulaciones geoidales por el método GPS/nivelación y redes neuronales artificiales a partir de datos dispersosCarrión Sánchez, José Luis 22 August 2013 (has links)
En este trabajo se presenta un método de interpolación basado en el entrenamiento de una Red Neuronal Artificial del tipo Multicapa (RNAM) con datos obtenidos en un área del Ecuador Continental, con el objetivo de obtener valores de ondulación geoidal. Los resultados obtenidos mediante la interpolación con la RNAM presentan errores menores a 15 centímetros.
|
5 |
Análisis del impacto de los aspectos relativos a la localización en el precio de la vivienda a través de Técnicas de Soft Computing. Una aplicación a la ciudad de ValenciaFernández Durán, Laura 02 May 2016 (has links)
[EN] This thesis aims to analyze the influence of variables related to the housing price location. Prior to the development of the empirical study, it will develop the theoretical foundations on which it is based. At first, it reviews the literature developments on the theory of value to later expose ground rent and, more specifically, the income of urban land. Its purpose is to determine the value of housing according to existing literature. Within theoretical foundations it develops econometric analysis models to estimate the value of housing.
The empirical study is conducted in the city of Valencia and its urban development history and evolution of prices must be study. This investigation starts at the origin of the Roman city in 138 BC going through the different stages of the urban city. The urban plans of 1946, 1966 and 1988 are also studied as well as the latest amendments in this planning. This research about the housing prices also includes the recent evolution of housing prices in the city of Valencia and a geo-positioned study of the evolution of the population by districts.
The empirical model will start after reviewing the literature of the city using techniques of artificial intelligence, more precisely, artificial neuronal network. This study begins deciding the location variables to be used based on the provided data and the methodological limitations. After several estimations and trails, the model has been developed with the following variables: the distance to the city center, the proximity to the underway and/or tram, the proximity to green areas, the equipment of the neighborhood, the socio-economical level and the percentage of immigrants of the neighborhood.
The next step was to obtain a neural network that allows us to estimate the price of housing. We used the supervised learning and applied an incremental approach, trying different topologies of neural networks based on Multilayer Perceptron. The network (s) has been trained with backpropagation and backpropagation with momentum, with different parameters. The impact of each of the different variables considered location on housing prices is analyzed based on the defined neural network. This study was conducted by estimating the network, the price for different values of the variable under study, data keeping other variables constant.
The result of the study allows us to confirm and validate the hypotheses launched for the variables dealing with the distance to the center, socio-economic and immigration level. In that sense, the price of houses increases as you approach to the center of the city, the higher the socio-economic level of the neighborhood is, the largest housing prices are and the higher the percentage of immigrants of the neighborhood is the lower housing prices. In the variables of proximity to subway and neighborhood facilities a higher price in the subway nearby homes and those located in districts with more equipment but not conclusively for all types of housing. In the case of close to green areas and quality of urbanization a direct relationship between these variables and housing prices cannot be confirmed. In the future, we will try to use a genetic algorithm to check which variables have the greatest impact on price in order to reduce variables to work with those that are most empirically relevant. We will also try to increase the sample, as the network works better if you have more data to process. / [ES] Esta tesis tiene el propósito de analizar la influencia de las variables relativas a la localización de la vivienda en el precio de la misma. Antes de desarrollar el estudio empírico, lo primero es conocer los fundamentos teóricos en los que esta investigación se basa. Así, se comienza con un recorrido por lo desarrollado en la literatura sobre la teoría del valor, entrando posteriormente a exponer la renta del suelo, y más concretamente la renta de suelo urbano, para llegar a explicar cuáles son, según la literatura existente, los determinantes del valor de la vivienda. Se desarrolla, también, los modelos econométricos de análisis utilizados en la estimación del valor de la vivienda.
El estudio empírico se realiza en Valencia, por ello revisamos la historia, el desarrollo urbanístico y la evolución de los precios de la ciudad. Se comienza en el origen de la ciudad romana en el año 138 a.C., y se recorren las distintas etapas urbanísticas. Se analizan, también los planes urbanísticos de 1946, de 1966 y de 1988, así como las últimas modificaciones de este planeamiento. Al tratarse de un estudio de precios de vivienda, se analiza la evolución reciente de precios de vivienda en la ciudad de Valencia y se incluye un estudio geo-posicionado de la evolución de la población por barrios.
Una vez conocida la literatura y la ciudad en la que se desarrolla la investigación comienza el desarrollo del modelo empírico que en nuestro caso, se realiza utilizando técnicas de inteligencia artificial, concretamente una red neuronal artificial. Para iniciar el estudio, lo primero ha sido decidir, en base a los datos de los que disponemos y a las limitaciones de la metodología utilizada, qué variables de localización serían objeto del estudio. Tras diversas estimaciones y pruebas, el modelo se ha desarrollado con las siguientes variables: la distancia al centro de la ciudad, la cercanía al metro, la cercanía a zonas verdes, el equipamiento del barrio, el nivel socio-económico y el porcentaje de inmigrantes del barrio.
El siguiente paso ha sido obtener una RNA que nos permita estimar el precio de la vivienda. Se ha utilizado el aprendizaje supervisado y se ha aplicado un método incremental, probando diferentes topologías de redes neuronales basadas en el perceptrón multicapa. La red ha sido entrenada con retropropagación y retropropagación con momento, con diferentes parámetros. A partir de la RNA, se analiza la repercusión de cada una de las diferentes variables de localización consideradas sobre el precio de la vivienda. Este estudio lo realizamos estimando con la red el precio para distintos valores de la variable objeto de estudio, manteniendo los datos del resto de variables constantes.
El resultado del estudio nos permite constatar que se cumplen claramente las hipótesis lanzadas para las variables distancia al centro, nivel socio-económico e inmigración, de tal forma que a medida que nos acercamos al centro de la ciudad, el precio de la vivienda aumenta, cuanto mayor es el nivel socio-económico del barrio, mayor es el precio de la vivienda y cuanto mayor es el porcentaje de inmigrantes del barrio, menor es el precio de la vivienda. En las variables cercanía al metro y equipamientos del barrio se puede apreciar un mayor precio en las viviendas cercanas al metro y aquellas situadas en barrios con más equipamientos pero no de forma concluyente para todas las tipologías de vivienda. En el caso de la cercanía a zonas verdes y calidad de la urbanización no podemos afirmar que exista relación directa entre estas variables y el precio de la vivienda. En un futuro, estudiaremos mediante un algoritmo genético qué variables tienen mayor repercusión en el precio, con el propósito de trabajar con aquellas que empíricamente resulten más relevantes. Además, intentaremos aumentar la muestra, pues la red trabaja mejor si cuenta con mayor número de datos para procesar. / [CA] Aquesta tesi té el propòsit d'analitzar la influència de les variables relatives a la localització de l'habitatge en el preu d'aquest. Abans de desenvolupar l'estudi empíric, el primer és conèixer els fonaments teòrics en els quals aquesta recerca es basa. Així, es comença amb un recorregut pel desenvolupat en la literatura sobre la teoria del valor, entrant més tard a exposar la renda del sòl i, més concretament, la renda del sòl urbà, per arribar a explicar quins són, segons la literatura existent, els determinants del valor de l'habitatge. Es desenvolupa, també dins dels fonaments teòrics, els models economètrics d'anàlisi utilitzats en l'estimació del valor de l'habitatge.
L'estudi empíric es realitza en la ciutat de València, per la qual cosa es fa necessari conèixer la història, el desenvolupament urbanístic i l'evolució dels preus de la ciutat objecte d'estudi. Es comença en l'origen de la ciutat romana l'any 138 a. de C. i es recorren les diferents etapes urbanístiques de la ciutat. S'analitzen, també, els plans urbanístics de 1946, de 1966 i de 1988, així com les últimes modificacions d'aquest planejament. En tractar-se d'un estudi de preus d'habitatge, s'analitza l'evolució recent de preus d'habitatge en la ciutat de València i s'inclou un estudi geo-posicionat de l'evolució de la població per barris.
Una vegada coneguda la literatura i la ciutat en la qual es desenvolupa la recerca, comença el desenvolupament del model empíric que, en el nostre cas, es realitza utilitzant tècniques d'intel·ligència artificial, concretament una xarxa neuronal artificial. Per a iniciar l'estudi, el primer ha sigut decidir, d'acord amb les dades de què disposem i a les limitacions de la metodologia utilitzada, quines variables de localització serien objecte de l'estudi. Després de diverses estimacions i proves, el model s'ha desenvolupat amb les variables següents: La distància al centre de la ciutat, la proximitat al metro, la proximitat a zones verdes, l'equipament del barri, el nivell socioeconòmic i el percentatge d'immigrants del barri.
El següent pas ha estat obtenir una xarxa neuronal que ens permeta estimar el preu de l'habitatge. S'ha utilitzat l'aprenentatge supervisat i s'ha aplicat un mètode incremental, provant diferents topologies de xarxes neuronals basades en el perceptró multicapa. La xarxa ha estat entrenada amb retropropagació i retropropagació amb momentum, amb diferents paràmetres. A partir de la RNA definida, s'analitza la repercussió de cadascuna de les diferents variables de localització considerades sobre el preu de l'habitatge. Aquest estudi el vam realitzar, estimant amb la xarxa, el preu per a diferents valors de la variable objecte d'estudi, mantenint les dades de la resta de variables constants.
El resultat de l'estudi ens permet constatar que es compleixen clarament les hipòtesis llançades per a les variables distància al centre, nivell socioeconòmic i immigració, de tal forma que a mesura que ens acostem al centre de la ciutat, el preu de l'habitatge augmenta, com més gran és el nivell socioeconòmic del barri, major és el preu de l'habitatge i com més gran és el percentatge d'immigrants del barri, menor és el preu de l'habitatge. En les variables de proximitat al metre i equipaments del barri es pot apreciar un major preu de l'habitatge properes al metre i les situades en barris amb més equipaments, però no de forma concloent per a totes les tipologies de l'habitatge. En el cas de la proximitat a zones verdes i qualitat d'urbanització, no podem afirmar que existesca relació directa entre aquestes variables i el preu de l'habitatge. En un futur, mitjançant un algorisme genètic, tractarem de comprovar quines variables tenen major repercussió en el preu, amb el propòsit de treballar amb aquelles que empíricament resulten més rellevants. A més, intentarem augmentar la mostra, ja que la xarxa treballa millor amb nombre més gran / Fernández Durán, L. (2016). Análisis del impacto de los aspectos relativos a la localización en el precio de la vivienda a través de Técnicas de Soft Computing. Una aplicación a la ciudad de Valencia [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63253
|
6 |
Aplicación de redes neuronales para la predicción de la resistencia a la compresión del concreto según el ensayo de esclerometríaVillegas Effio, Marcelo Alonso 09 1900 (has links)
El número de rebote es el valor resultante del ensayo de dureza superficial, que consiste en determinar el nivel de compacidad de las partículas del concreto. Esta característica lleva relación directa con el desarrollo de la resistencia a compresión, denominada f’c; ya que mientras más compactas se encuentren las partículas del concreto, mayor será la resistencia mecánica y mayor el valor del número de rebote. La relación de estos ensayos ha sido materia de estudio desde hace muchos años y se ha determinado valores altos de correlación, aunque sin cuantificar la influencia de parámetros adicionales que no resultan ajenos al ensayo de esclerometría. En la presente investigación se analizan los principales factores que afectan al valor de dureza superficial e influyen en la determinación de la resistencia mecánica del concreto. Los factores estudiados son la relación agua – cemento, condición de humedad, edad del concreto y tamaño máximo de agregado. Estos factores son analizados en muestras de concreto normalizadas (probetas diseñadas según norma de calidad vigente) y los resultados obtenidos procesados estadísticamente bajo la metodología de Red Neuronal Artificial (RNA), con el que se podrá predecir resultados de resistencia a compresión una vez determinados los factores antes mencionados. Los resultados demuestran que puede predecirse el resultado de resistencia a la compresión con margen de error aceptable y que considerar los factores de influencia en la predicción genera mayor exactitud en los resultados y reducción en el índice de correlación de Pearson estudiado entre los ensayos de dureza superficial y resistencia a compresión. / The rebound number index is a result value of surface hardness´s test. This method is based on obtain concrete particular’s level. This characteristic has a direct relationship with the development of compressive strength, called f’c. So, if concrete particulars are more compact, it will increase mechanic strength and rebound number index´s value. The relationships between these tests have been studied over the years and it has been estimated high values of correlation, although without quantifying the influence of additional parameters that are not indifferent to the sclerometer test. In this research are analyzed the principal factors which affect surface hardness´s value and influent in the determination of mechanic strength of concrete. The factors studied are the water-cement ratio, humidity condition, age of concrete and maximum size of aggregate. These factors are analyzed in standardized concrete samples and the results obtained were processed statistically by artificial neuronal network’s methodology (RNA), this tool will predict results of compressive strength when other factors, which were explained, have been determinate.
The results of this research show that the result of resistance to compression can be predicted with acceptable margin of error and that considering the influence factors in the prediction generates better accuracy in the results and reduction in the Pearson correlation index studied between the test of surface hardness and compressive strength. / Tesis
|
7 |
Diseño y experimentación de un cuantizador vectorial hardware basado en redes neuronales para un sistema de codificación de videoRamírez Agundis, Agustín 27 October 2008 (has links)
El objetivo general de esta Tesis es el estudio de las redes neuronales artificiales (ANN) con implementación hardware enfocadas hacia la compresión de imágenes y video en tiempo real. Como objetivos específicos, la Tesis se propone: explorar la factibilidad de utilizar las redes neuronales en las diferentes etapas de un sistema de compresión de imágenes; evaluar las redes Self Organizing Feature Map (SOM) en su implementación hardware utilizadas para la cuantización vectorial de imágenes; analizar la capacidad para procesar video en tiempo real de un sistema de compresión de imágenes que combine la cuantización vectorial basada en redes neuronales con otras técnicas; y estructurar un sistema para realizar el entrenamiento de redes neuronales utilizando esquemas de co-diseño hardware-software.
La Tesis expone primeramente los conceptos fundamentales relacionados con la compresión de imágenes considerando tanto los principios teóricos subyacentes como las técnicas que se usan para llevar a cabo las tareas involucradas con las diferentes etapas que integran un compresor. A continuación efectúa una revisión de los trabajos de investigación en los que las ANN se utilizan para la compresión de imágenes, tarea que es precedida por un breve repaso del desarrollo que se ha observado en el campo de las ANN.
En la parte práctica la Tesis tiene dos apartados. En el primero se desarrolla una red neuronal tipo SOM que se utiliza como cuantizador vectorial para la aplicación de que se ocupa. Partiendo del análisis de seis arquitecturas susceptibles de ser usadas, la red SOM se diseña utilizando una arquitectura masivamente paralela tipo SIMD y se implementa en hardware sobre una FPGA. Finalmente se experimenta con la red y se presentan los resultados.
En el segundo apartado se estructura el banco de entrenamiento para la red SOM utilizando una metodología de codiseño hardware-software en la cual la red neuronal SOM se integra al banco como núcleo de un neurocoprocesador en u / Ramírez Agundis, A. (2008). Diseño y experimentación de un cuantizador vectorial hardware basado en redes neuronales para un sistema de codificación de video [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3444
|
8 |
Predicción de caudales en tiempo real en grandes cuencas utilizando redes neuronales artificialesPujol Reig, Lucas 12 November 2009 (has links)
La necesidad de conocer con suficiente tiempo de antelación los caudales futuros en ríos donde se asientan grandes ciudades e industrias es común en todas partes del mundo. Existen diversas metodologías que permiten resolver este problema, cada una con sus pros y sus contras. El acople y la comparación entre varios modelos de predicción de diferentes características es fundamental a la hora de analizar la situación futura en un caso de alerta, donde es necesario tomar decisiones trascendentales. En esta tesis se ha realizado una intensa revisión bibliográfica sobre los modelos de predicción con Redes Neuronales Artificiales (RNA) para conocer el estado del arte de esta metodología y, a partir de ese punto, proponer
y estudiar mejoras que puedan contribuir a su avance.
Con la intención de darle significado físico a este tipo de modelos, se ha propuesto una metodología de modelo híbrido que permite identificar automáticamente el estado hidrológico de una cuenca determinada, para permitir modelar por separado cada estado mediante RNA simples. También se ha incorporado el concepto físico en la elección de las variables de entrada al modelo, proponiendo análisis geomorfológicos de la cuenca y de tiempos de respuesta que ayuden a identificar las variables más influyentes.
Por otro lado, dada la necesidad de conocer la función de distribución de las predicciones para casos reales, donde es necesario tomar decisiones a partir de estos resultados, se ha propuesto una metodología para el cálculo de la incertidumbre de las predicciones, pudiendo ser aplicado para cualquier tipo de modelo sin importar su complejidad.
Para conferir un uso práctico a estas ideas, se ha desarrollado una aplicación informática (ANN) capaz de realizar los cálculos necesarios para la construcción de un modelo de predicción con RNA. / Pujol Reig, L. (2009). Predicción de caudales en tiempo real en grandes cuencas utilizando redes neuronales artificiales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6422
|
9 |
MODELIZACIÓN DE LA VOLATILIDAD CONDICIONAL EN ÍNDICES BURSÁTILES : COMPARATIVA MODELO EGARCH VERSUS RED NEURONAL BACKPROPAGATIONOliver Muncharaz, Javier 20 February 2014 (has links)
El siguiente proyecto de tesis pretende mostrar y verificar cómo las redes neuronales, en concreto, la red backpropagation son una alternativa para la predicción de la volatilidad condicional frente a los modelos econométricos clásicos de la familia GARCH. El estudio se realiza para diferentes índices bursátilies de diferentes tamaños y zonas geográficas, así como para datos tanto diarios como de alta frecuencia utilizando para la comparativa uno de los modelos más extendidos para el estudio de la volatildiad condicional en índices bursátiles como el EGARCH, dada la existencia comprobada de asimetrías en la volatildiad de dichos índices. La elección de la red neuronal backpropagation viene motivada por ser una de las redes neuronales más extendidas en su uso en finanzas por su capacidad de generalización método de aprendizaje basada en la relga delta generalizada. / Oliver Muncharaz, J. (2014). MODELIZACIÓN DE LA VOLATILIDAD CONDICIONAL EN ÍNDICES BURSÁTILES : COMPARATIVA MODELO EGARCH VERSUS RED NEURONAL BACKPROPAGATION [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/35803
|
10 |
Natural Language Processing using Deep Learning in Social MediaGiménez Fayos, María Teresa 02 September 2021 (has links)
[ES] En los últimos años, los modelos de aprendizaje automático profundo (AP) han revolucionado los sistemas de procesamiento de lenguaje natural (PLN).
Hemos sido testigos de un avance formidable en las capacidades de estos sistemas y actualmente podemos encontrar sistemas que integran modelos PLN de manera ubicua.
Algunos ejemplos de estos modelos con los que interaccionamos a diario incluyen modelos que determinan la intención de la persona que escribió un texto, el sentimiento que pretende comunicar un tweet o nuestra ideología política a partir de lo que compartimos en redes sociales.
En esta tesis se han propuestos distintos modelos de PNL que abordan tareas que estudian el texto que se comparte en redes sociales. En concreto, este trabajo se centra en dos tareas fundamentalmente: el análisis de sentimientos y el reconocimiento de la personalidad de la persona autora de un texto.
La tarea de analizar el sentimiento expresado en un texto es uno de los problemas principales en el PNL y consiste en determinar la polaridad que un texto pretende comunicar. Se trata por lo tanto de una tarea estudiada en profundidad de la cual disponemos de una vasta cantidad de recursos y modelos.
Por el contrario, el problema del reconocimiento de personalidad es una tarea revolucionaria que tiene como objetivo determinar la personalidad de los usuarios considerando su estilo de escritura. El estudio de esta tarea es más marginal por lo que disponemos de menos recursos para abordarla pero que no obstante presenta un gran potencial.
A pesar de que el enfoque principal de este trabajo fue el desarrollo de modelos de aprendizaje profundo, también hemos propuesto modelos basados en recursos lingüísticos y modelos clásicos del aprendizaje automático. Estos últimos modelos nos han permitido explorar las sutilezas de distintos elementos lingüísticos como por ejemplo el impacto que tienen las emociones en la clasificación correcta del sentimiento expresado en un texto.
Posteriormente, tras estos trabajos iniciales se desarrollaron modelos AP, en particular, Redes neuronales convolucionales (RNC) que fueron aplicadas a las tareas previamente citadas. En el caso del reconocimiento de la personalidad, se han comparado modelos clásicos del aprendizaje automático con modelos de aprendizaje profundo, pudiendo establecer una comparativa bajo las mismas premisas.
Cabe destacar que el PNL ha evolucionado drásticamente en los últimos años gracias al desarrollo de campañas de evaluación pública, donde múltiples equipos de investigación comparan las capacidades de los modelos que proponen en las mismas condiciones. La mayoría de los modelos presentados en esta tesis fueron o bien evaluados mediante campañas de evaluación públicas, o bien emplearon la configuración de una campaña pública previamente celebrada. Siendo conscientes, por lo tanto, de la importancia de estas campañas para el avance del PNL, desarrollamos una campaña de evaluación pública cuyo objetivo era clasificar el tema tratado en un tweet, para lo cual recogimos y etiquetamos un nuevo conjunto de datos.
A medida que avanzabamos en el desarrollo del trabajo de esta tesis, decidimos estudiar en profundidad como las RNC se aplicaban a las tareas de PNL.
En este sentido, se exploraron dos líneas de trabajo.
En primer lugar, propusimos un método de relleno semántico para RNC, que plantea una nueva manera de representar el texto para resolver tareas de PNL. Y en segundo lugar, se introdujo un marco teórico para abordar una de las críticas más frecuentes del aprendizaje profundo, el cual es la falta de interpretabilidad. Este marco busca visualizar qué patrones léxicos, si los hay, han sido aprendidos por la red para clasificar un texto. / [CA] En els últims anys, els models d'aprenentatge automàtic profund (AP) han revolucionat els sistemes de processament de llenguatge natural (PLN).
Hem estat testimonis d'un avanç formidable en les capacitats d'aquests sistemes i actualment podem trobar sistemes que integren models PLN de manera ubiqua.
Alguns exemples d'aquests models amb els quals interaccionem diàriament inclouen models que determinen la intenció de la persona que va escriure un text, el sentiment que pretén comunicar un tweet o la nostra ideologia política a partir del que compartim en xarxes socials.
En aquesta tesi s'han proposats diferents models de PNL que aborden tasques que estudien el text que es comparteix en xarxes socials. En concret, aquest treball se centra en dues tasques fonamentalment: l'anàlisi de sentiments i el reconeixement de la personalitat de la persona autora d'un text.
La tasca d'analitzar el sentiment expressat en un text és un dels problemes principals en el PNL i consisteix a determinar la polaritat que un text pretén comunicar. Es tracta per tant d'una tasca estudiada en profunditat de la qual disposem d'una vasta quantitat de recursos i models.
Per contra, el problema del reconeixement de la personalitat és una tasca revolucionària que té com a objectiu determinar la personalitat dels usuaris considerant el seu estil d'escriptura. L'estudi d'aquesta tasca és més marginal i en conseqüència disposem de menys recursos per abordar-la però no obstant i això presenta un gran potencial.
Tot i que el fouc principal d'aquest treball va ser el desenvolupament de models d'aprenentatge profund, també hem proposat models basats en recursos lingüístics i models clàssics de l'aprenentatge automàtic. Aquests últims models ens han permès explorar les subtileses de diferents elements lingüístics com ara l'impacte que tenen les emocions en la classificació correcta del sentiment expressat en un text.
Posteriorment, després d'aquests treballs inicials es van desenvolupar models AP, en particular, Xarxes neuronals convolucionals (XNC) que van ser aplicades a les tasques prèviament esmentades. En el cas de el reconeixement de la personalitat, s'han comparat models clàssics de l'aprenentatge automàtic amb models d'aprenentatge profund la qual cosa a permet establir una comparativa de les dos aproximacions sota les mateixes premisses.
Cal remarcar que el PNL ha evolucionat dràsticament en els últims anys gràcies a el desenvolupament de campanyes d'avaluació pública on múltiples equips d'investigació comparen les capacitats dels models que proposen sota les mateixes condicions. La majoria dels models presentats en aquesta tesi van ser o bé avaluats mitjançant campanyes d'avaluació públiques, o bé s'ha emprat la configuració d'una campanya pública prèviament celebrada. Sent conscients, per tant, de la importància d'aquestes campanyes per a l'avanç del PNL, vam desenvolupar una campanya d'avaluació pública on l'objectiu era classificar el tema tractat en un tweet, per a la qual cosa vam recollir i etiquetar un nou conjunt de dades.
A mesura que avançàvem en el desenvolupament del treball d'aquesta tesi, vam decidir estudiar en profunditat com les XNC s'apliquen a les tasques de PNL. En aquest sentit, es van explorar dues línies de treball.En primer lloc, vam proposar un mètode d'emplenament semàntic per RNC, que planteja una nova manera de representar el text per resoldre tasques de PNL. I en segon lloc, es va introduir un marc teòric per abordar una de les crítiques més freqüents de l'aprenentatge profund, el qual és la falta de interpretabilitat. Aquest marc cerca visualitzar quins patrons lèxics, si n'hi han, han estat apresos per la xarxa per classificar un text. / [EN] In the last years, Deep Learning (DL) has revolutionised the potential of automatic systems that handle Natural Language Processing (NLP) tasks.
We have witnessed a tremendous advance in the performance of these systems. Nowadays, we found embedded systems ubiquitously, determining the intent of the text we write, the sentiment of our tweets or our political views, for citing some examples.
In this thesis, we proposed several NLP models for addressing tasks that deal with social media text. Concretely, this work is focused mainly on Sentiment Analysis and Personality Recognition tasks.
Sentiment Analysis is one of the leading problems in NLP, consists of determining the polarity of a text, and it is a well-known task where the number of resources and models proposed is vast.
In contrast, Personality Recognition is a breakthrough task that aims to determine the users' personality using their writing style, but it is more a niche task with fewer resources designed ad-hoc but with great potential.
Despite the fact that the principal focus of this work was on the development of Deep Learning models, we have also proposed models based on linguistic resources and classical Machine Learning models. Moreover, in this more straightforward setup, we have explored the nuances of different language devices, such as the impact of emotions in the correct classification of the sentiment expressed in a text.
Afterwards, DL models were developed, particularly Convolutional Neural Networks (CNNs), to address previously described tasks. In the case of Personality Recognition, we explored the two approaches, which allowed us to compare the models under the same circumstances.
Noteworthy, NLP has evolved dramatically in the last years through the development of public evaluation campaigns, where multiple research teams compare the performance of their approaches under the same conditions. Most of the models here presented were either assessed in an evaluation task or either used their setup. Recognising the importance of this effort, we curated and developed an evaluation campaign for classifying political tweets.
In addition, as we advanced in the development of this work, we decided to study in-depth CNNs applied to NLP tasks.
Two lines of work were explored in this regard.
Firstly, we proposed a semantic-based padding method for CNNs, which addresses how to represent text more appropriately for solving NLP tasks. Secondly, a theoretical framework was introduced for tackling one of the most frequent critics of Deep Learning: interpretability. This framework seeks to visualise what lexical patterns, if any, the CNN is learning in order to classify a sentence.
In summary, the main achievements presented in this thesis are:
- The organisation of an evaluation campaign for Topic Classification from texts gathered from social media.
- The proposal of several Machine Learning models tackling the Sentiment Analysis task from social media. Besides, a study of the impact of linguistic devices such as figurative language in the task is presented.
- The development of a model for inferring the personality of a developer provided the source code that they have written.
- The study of Personality Recognition tasks from social media following two different approaches, models based on machine learning algorithms and handcrafted features, and models based on CNNs were proposed and compared both approaches.
- The introduction of new semantic-based paddings for optimising how the text was represented in CNNs.
- The definition of a theoretical framework to provide interpretable information to what CNNs were learning internally. / Giménez Fayos, MT. (2021). Natural Language Processing using Deep Learning in Social Media [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/172164
|
Page generated in 0.0497 seconds