• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 257
  • 43
  • 2
  • Tagged with
  • 302
  • 302
  • 141
  • 79
  • 79
  • 79
  • 79
  • 79
  • 64
  • 62
  • 47
  • 47
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Aplicación de Técnicas de Aprendizaje de Máquinas para la Detección de Husos Sigma en Señales de Sueño

Marinkovic Gómez, Andrés Segundo January 2012 (has links)
El estudio de señales de sueño es de gran importancia para evaluar la calidad del sueño de los individuos y para investigar las funciones que éste realiza. En ese sentido, resulta interesante desarrollar métodos automáticos que analicen las señales de sueño, ya que en la actualidad dicho análisis es desarrollado generalmente por un experto, lo que resulta tedioso, debido a la longitud de los registros. Dentro del análisis que se puede realizar a las señales de sueño, está la detección de husos sigma (HS), que corresponden a un patrón particular que aparece en el electro encéfalo grama durante las fases 2, 3 y 4 de estado conocido como sueño quieto. El principal objetivo de este trabajo es desarrollar un sistema capaz de detectar automáticamente candidatos de HS en señales de sueño. Se desea que el sistema sea comparable con la salida de los módulos 1 y 2 de un sistema implementado por Leonardo Causa en el Departamento de Ingeniería Eléctrica, los cuales utilizan la potencia espectral de tres bandas de frecuencia, la transformada de Hilbert-Huang, la descomposición modal empírica y criterios difusos para llevar a cabo la detección. El sistema planteado en este trabajo utiliza una novedosa herramienta llamada gráficos de recurrencia. Dicha herramienta permite construir, a partir de un trozo de la señal del sueño, un gráfico en dos dimensiones, el cual describe la periodicidad de dicho trozo. Luego, mediante mediciones a este gráfico, es posible extraer características numéricas que describen ciertas propiedades de aquel trozo de la señal. Además de las características deducidas del gráfico se agregan otras, obtenidas directamente del segmento de señal y relacionadas con otros atributos de los HS, como su duración y magnitud. Todos estos atributos se combinan mediante una red neuronal, la cual determina si el trozo sobre el cual se calcularon los atributos corresponde o no a un huso sigma. Así, se plantea el problema de detección de HS como un problema de clasificación. Se dividen los datos en tres conjuntos: entrenamiento, validación y prueba. El conjunto de entrenamiento y validación es utilizado en principio para desarrollar el método planteado, determinado cuáles de sus variantes entregan mejores resultados. Posteriormente, los parámetros de este sistema se ajustan utilizando los mismos conjuntos de validación y entrenamiento, evaluando el desempeño del sistema frente a diferentes combinaciones de parámetros. Luego, estos mismos conjuntos de entrenamiento y validación son utilizados para entrenar el modelo. Posteriormente se utiliza el conjunto de prueba para comparar el desempeño del sistema implementado en este trabajo con el desempeño de los módulos 1 y 2 del sistema original. Los resultados sobre el conjunto de prueba, el cual incluye cuatro pacientes, muestran un desempeño similar entre ambos sistemas. El sistema planteado obtiene una tasa de verdaderos positivos (TPR) de 80,8% y una tasa de falsas detecciones (FDR) de 81,9%. El sistema original obtiene una TPR de 79,5% y una FDR de 85,7%. Se observa que una sección en la mitad de la curva ROC (acrónimo de Receiver Operator Characteristic), calculada para el sistema implementado, es estrictamente mejor que los módulos 1 y 2 del sistema original, para los datos utilizados. Es posible que un híbrido de ambos métodos de origen a un método de mejor desempeño, ya que la información aportada por cada método parece ser complementaria. Se define, por ende, un método apropiado de detección de HS. Algunas de las características introducidas por este método resultan bastante adecuadas para este problema, por lo que podrían ser usadas y mejoradas en futuras investigaciones.
142

Clasificación de estímulos odorantes mediante señales biológicas

Vizcay Barreda, Marcela Andrea January 2008 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Ingeniero Civil Electricista / El problema de reconocimiento y clasificación de odorantes en forma artificial es de gran relevancia dentro de la industria alimenticia y cosmética, en el área de la salud, en la gestión de residuos y en aplicaciones militares. Determinar los compuestos presentes en una sustancia a través del olfato es un factor importante en los procesos de control y certificación de calidad, así como en la detección precoz de agentes patógenos y la localización de elementos ilegales o nocivos. El objetivo general de esta Tesis es diseñar un modelo de reconocimiento de odorantes basado en una estrategia de reducción de características seguida por un algoritmo clasificador, que utilice como patrones las señales de potencial de campo local, en inglés local field potential (LFP), que corresponden a señales eléctricas neuronales registradas en el bulbo olfativo de ratas. Así se tiene como elemento sensor-transductor la respuesta del sistema olfativo de ratas ante distintos estímulos odorantes. Se desea determinar si es posible discriminar el tipo de estímulo que activa al sistema en cada prueba y comparar las respuestas de este modelo en ratas con deprivación sensorial. Como parte de la metodología, se construyeron 91 bases de datos con 640 patrones cada una, correspondientes a diferentes sitios del bulbo olfativo registrados en varias ratas. Cada elemento de la base de datos es una señal LFP que representa la respuesta en el tiempo del bulbo olfativo ante un estímulo determinado. La etapa de preprocesamiento incluye filtrado, muestreo y normalización de la señal LFP. Se comparó la efectividad de diferentes técnicas de extracción de características (análisis de componentes principales, transformada de Fourier y Wavelet, transformación de Fisher y mapa no lineal de Sammon), de modo que cada patrón sea representado por un número reducido, pero sustancial de atributos. Finalmente se procedió a implementar tres algoritmos de clasificación (un clasificador estadístico, una red neuronal perceptrón multicapa y una máquina de soporte vectorial) con el objeto de comparar la eficiencia de estos clasificadores en la tarea de separación de 4 tipos de estímulos (aire puro, r-carvone, isoamyl-acetato y hexanal). Este trabajo de tesis permitió llegar a dos conclusiones. Primero, la mejor estrategia para lograr un rendimiento aproximado a un 96% para cada clase, es análisis de componentes principales junto a una máquina de soporte vectorial. Como la metodología planteada se aplicó a dos poblaciones de señales, primero en aquellas medidas en sitios del bulbo olfativo de ratas con experiencia sensorial normal y luego en aquellas registradas en sitios del bulbo olfativo de ratas con privación sensorial olfativa temprana fue posible comparar los efectos de la experiencia sensorial en la capacidad del modelo para discriminar entre los cuatro estímulos. Los resultados obtenidos permiten concluir que las señales LFP contienen información suficiente para discriminar entre los 4 estímulos odorantes utilizados en las ratas normales, mientras que, en ratas privadas sensorialmente el desempeño es prácticamente análogo a una clasificación al azar.
143

Diseño de un nuevo sistema de vigilancia de dominios de Internet

Zumaeta Morales, Rodrigo Andrés January 2007 (has links)
Memoria para optar al título de Ingeniero Civil Electricista / El objetivo general de esta memoria es presentar una solución para detectar intentos de plagio de dominios de internet, mejorando los resultados entregados por un sistema pre existente. El trabajo fue realizado para una empresa que se encarga de registrar y proteger dominios de internet para firmas comerciales, con el problema de que el sistema utilizado en la protección entregaba cantidades excesivas de falsas alarmas. Este sistema resulta poco práctico en términos económicos, debido al costo que representa el descarte manual de este gran número de falsas alarmas. Se presentó una solución basada en el modelamiento del problema y aplicación de algoritmos clasificadores en trenables. El trabajo incluyó fases de modelamiento o traducción del problema, diseño, implementación, construcción de set de datos para entrenar y validar los algoritmos, y pruebas con datos reales para comparar los resultados de la solución propuesta con el sistema que se pretendía superar. El resultado es una solución que reduce la cantidad de alarmas reportadas diariamente a cerca de un tercio (y las falsas alarmas al 15%) de las obtenidas con el sistema antiguo y que no incrementa la cantidad de alarmas real es no reportadas. Se concluye que el objetivo perseguido se cumplió de modo exitoso, superando ampliamente los resultados del sistema antiguo y entregando a la empresa una alternativa más eficaz y rentable.
144

Estudio de la evolución de estados prefebriles, para su modelización mediante técnicas de análisis multivariantes

Jordán Núñez, Jorge 04 June 2015 (has links)
[EN] The research is a process that, by means of the application of the scientific method, procuration obtain information relieving to understand, verify, correct or apply the knowledge. Besides, the research do not belong to an only science, but that can apply in a big numeral of scientific fields. In occasions the union of efforts between branches of the science is necessary to resolve some questions, how is the case of this thesis. The collaboration between the medicine and the statistical generates a synergistic effect that allow the obtaining of trustworthy results. With reason of a continuous extension of knowledges in medicine, for can elevate the life average age and the quality of the same, the doctors researchers pose the following hypothesis: the blood cultures of a person, contain a higger quantity of bacteria in a short period of previous time to a feverish beak. How it seems evident, to corroborate this hypothesis would owe compare a series of samples of blood cultures preys in the period pre-febrile and other preys immediately after the feverish beak. The problem that have the doctors researchers is that they do not know when take the samples of blood cultures of the period pre-febrile, since have tools to determine when a person had fever with a sufficient time, and sinus that have the tool to determine when happen a feverish beak in real time (thermometer). In this thesis resolves the problem of when take the sample of blood cultures in the period pre-febrile, by means of mathematical models that feature of measures temperature of the own patient, and a series of variables that are measures of complexity calculated from the same measures of temperature of the patient. The obtaining of the data was done of way non invasive in patients of plant of the hospital of Móstoles, using a system of measure of temperature and storage of data called Thercom c . Once with the available data did a selection of technical of multivariate analysis that could be useful as the type of variables with which works. They calculate different models that can anticipate to a feverish beak, that later validate with new samples of patients. Finally they compare the models on the base of his effectiveness in the prediction of states pre-febrile. The resultant models, are the tool that needed the doctors researchers to take the samples of the period pre-febrile and can continue with his research. / [ES] La investigación es un proceso que, mediante la aplicación del método científico, procura obtener información relevante para entender, verificar, corregir o aplicar el conocimiento. Además, la investigación no pertenece a una sola ciencia, sino que puede aplicarse en un gran número de campos científicos . En ocasiones la unión de esfuerzos entre ramas de la ciencia es necesaria para resolver algunas incógnitas, como es el caso de esta tesis. La colaboración entre la medicina y la estadística genera un efecto sinérgico que permite la obtención de resultados fidedignos. Con motivo de una continua ampliación de conocimientos en medicina, para poder elevar la edad media de vida y la calidad de la misma, los médicos investigadores se plantean la siguiente hipótesis: los hemocultivos de una persona, contienen una mayor cantidad de bacterias en un corto periodo de tiempo anterior a un pico febril. Como parece evidente, para corroborar esta hipótesis se deberían de comparar una serie de muestras de hemocultivos tomadas en el periodo prefebril y otras tomadas inmediatamente tras el pico febril. El problema que tienen los médicos investigadores es que no saben cuando tomar las muestras de hemocultivos del periodo prefebril, ya que no tienen herramientas para determinar cuando una persona va tener fiebre con una antelación suficiente, y si que tienen la herramienta para determinar cuando sucede un pico febril en tiempo real (termómetro). En esta tesis se resuelve el problema de cuando tomar la muestra de hemocultivos en el periodo prefebril, mediante modelos matemáticos que constan de medidas temperatura del propio paciente, y una serie de variables que son medidas de complejidad calculadas a partir de las mismas medidas de temperatura del paciente. La obtención de los datos fue hecha de manera no invasiva en pacientes de planta del hospital de Móstoles, utilizando un sistema de medida de temperatura y almacenamiento de datos llamado Thercom c . Una vez con los datos disponibles se hizo una selección de técnicas de análisis multivariantes que pudieran ser útiles según el tipo de variables con las que se trabaja. Se calculan distintos modelos que puedan anticiparse a un pico febril, que posteriormente se validan con nuevas muestras de pacientes. Finalmente se comparan los modelos en base a su efectividad en la predicción de estados prefebriles. Los modelos resultantes, son la herramienta que necesitaban los médicos investigadores para tomar las muestras del periodo prefebril y poder continuar con su investigación. / [CAT] La recerca és un procés que, mitjançant l'aplicació del mètode científic, procura obtenir informació rellevant per a entendre, verificar, corregir o aplicar el coneixement. A més, la recerca no pertany a una sola ciència, sinó que pot aplicar-se en un gran nombre de camps científics. En ocasions la unió d'esforços entre branques de la ciència és necessària per a resoldre algunes incògnites, com és el cas d'aquesta tesi. La col laboració entre la medicina i l'estadística genera un efecte sinèrgic que permet l'obtenció de resultats fidedignes. Amb motiu d'una contínua ampliació de coneixements en medicina, per a poder elevar l'edat mitjana de vida i la qualitat de la mateixa, els metges investigadors es plantegen la següent hipòtesi: els hemocultius d'una persona, contenen una major quantitat de bacteris en un curt període de temps anterior a un bec febril. Com sembla evident, per a corroborar aquesta hipòtesi es deurien comparar una sèrie de mostres d'hemocultius preses en el període prefebril i altres preses immediatament després del bec febril. El problema que tenen els metges investigadors és que no saben quan prendre les mostres d'hemocultius del període prefebril, ja que no tenen eines per a determinar quan una persona va tenir febre amb una antelació suficient, i si que tenen l'eina per a determinar quan succeeix un bec febril en temps real (termòmetre). En aquesta tesi es resol el problema de quan prendre la mostra d'hemocultius en el període prefebril, mitjançant models matemàtics que consten de mesures temperatura del propi pacient, i una sèrie de variables que són mesures de complexitat calculades a partir de les mateixes mesures de temperatura del pacient. L'obtenció de les dades va ser feta de manera no invasiva en pacients de planta de l'hospital de Móstoles, utilitzant un sistema de mesura de temperatura i emmagatzematge de dades anomenat Thercom c . Una vegada amb les dades disponibles es va fer una selecció de tècniques d'anàlisis multivariants que pogueren ser útils segons el tipus de variables amb les quals es treballa. Es calculen diferents models que puguen anticipar-se a un bec febril, que posteriorment es validen amb noves mostres de pacients. Finalment es comparen els models sobre la base de la seua efectivitat en la predicció d'estats prefebrils. Els models resultants, són l'eina que necessitaven els metges investigadors per a prendre les mostres del període prefebril i poder continuar amb la seua recerca. / Jordán Núñez, J. (2015). Estudio de la evolución de estados prefebriles, para su modelización mediante técnicas de análisis multivariantes [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/51222 / TESIS
145

Análisis y estimación de la reflexión del oleaje en estructuras marítimas antirreflejantes tipo Jarlan

GARRIDO CHECA, JOAQUÍN MARÍA 02 March 2012 (has links)
La Tesis Doctoral que se presenta ofrece como resultado de la investigación realizada nuevas fórmulas para la estimación de la reflexión del oleaje en estructuras marítimas antirreflejantes tipo Jarlan (ARJ), aplicables tanto a estructuras de una sola cámara perforada, como a estructuras de doble cámara perforada, sometidas a la acción de oleaje regular y de oleaje irregular. A tenor de la revisión de la literatura existente, la presente Tesis Doctoral se centra en el aporte de un modelo semiempírico de aplicación sencilla que, estando fundamentado en los principios teóricos de la teoría del potencial de flujo, tenga en cuenta las componentes no lineales del fenómeno de disipación del oleaje en este tipo de estructuras marítimas ARJ. Las nuevas formulaciones se validan tomado como base los 1800 ensayos de oleaje regular y 160 ensayos de oleaje irregular realizados en LPC-UPV para los proyectos "Estudio de muelles y diques verticales antirreflejantes: MUDIVAR" (2002-2005) y "Estudio del rebase y la estabilidad de diques verticales antirreflejantes: REDIVAR" (2007-2009); así como, de los resultados de los proyectos "Estudio de muelles de cajones antirreflejantes: MUCAR" (2008-2010) y "Diseño y adaptabilidad de Cajoneros convencionales para la construcción de Diques y Muelles Antirreflejantes: CADIMA" (2008-2011), en la que se consideran diferentes tipologías ARJ, con diferentes porosidades de cámara. Los resultados obtenidos de estos ensayos muestran, en consonancia con otros autores que han realizado experimentos similares, que en estructuras tipo ARJ, el valor del Coeficiente de Reflexión (CR) depende del ancho relativo de la cámara (B/L), pero esta variable no explica por sí sola los resultados observados de CR. Las variables estructurales que se han tenido en cuenta en los experimentos y que, además de la variable B/L, pueden influir en el CR obtenido son el tipo de abertura de las paredes, la porosidad y el número de cámaras. En cuanto a las variables climáticas, además de la longitud de onda, otras variables como la altura de ola han de ser consideradas para explicar el fenómeno de la reflexión en este tipo de estructuras. / Garrido Checa, JM. (2012). Análisis y estimación de la reflexión del oleaje en estructuras marítimas antirreflejantes tipo Jarlan [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14860 / Palancia
146

Redes neuronales y preprocesado de variables para modelos y sensores en bioingeniería

Mateo Jiménez, Fernando 19 July 2012 (has links)
El propósito de esta Tesis Doctoral es proponer una alternativa viable a la aproximación de modelos y procesos en el ámbito científico y, más concretamente, en aplicaciones complejas de bioingeniería, en las cuales es imposible o muy costoso encontrar una relación directa entre las señales de entrada y de salida mediante modelos matemáticos sencillos o aproximaciones estadísticas. Del mismo modo, es interesante lograr una compactación de los datos que necesita un modelo para conseguir una predicción o clasificación en un tiempo y con un coste de implementación mínimos. Un modelo puede ser simplificado en gran medida al reducir el número de entradas o realizar operaciones matemáticas sobre éstas para transformarlas en nuevas variables. En muchos problemas de regresión (aproximación de funciones), clasificación y optimización, en general se hace uso de las nuevas metodologías basadas en la inteligencia artificial. La inteligencia artificial es una rama de las ciencias de la computación que busca automatizar la capacidad de un sistema para responder a los estímulos que recibe y proponer salidas adecuadas y racionales. Esto se produce gracias a un proceso de aprendizaje, mediante el cual se presentan ciertas muestras o �ejemplos� al modelo y sus correspondientes salidas y éste aprende a proponer las salidas correspondientes a nuevos estímulos que no ha visto previamente. Esto se denomina aprendizaje supervisado. También puede darse el caso de que tal modelo asocie las entradas con características similares entre sí para obtener una clasificación de las muestras de entrada sin necesidad de un patrón de salida. Este modelo de aprendizaje se denomina no supervisado. El principal exponente de la aplicación de la inteligencia artificial para aproximación de funciones y clasificación son las redes neuronales artificiales. Se trata de modelos que han demostrado sobradamente sus ventajas en el ámbito del modelado estadístico y de la predicción frente a otros métodos clásicos. N / Mateo Jiménez, F. (2012). Redes neuronales y preprocesado de variables para modelos y sensores en bioingeniería [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16702 / Palancia
147

Estudio y optimización del consumo energético del ferrocarril mediante redes neuronales y algoritmos heurísticos.

Martínez Fernández, Pablo 07 January 2020 (has links)
[ES] El transporte es una actividad fundamental en las sociedades modernas, pero también es uno de los sectores que más contribuye al consumo energético y a las emisiones. El ferrocarril es uno de los medios de transporte más eficientes, pero todavía existe un margen de mejorar para reducir su consumo energético y aumentar su sostenibilidad. Uno de los modos más efectivos para lograr esto, especialmente en ferrocarriles de ámbito urbano, es mediante la optimización de marchas. Existen muchos estudios que afrontan este problema a través de la simulación y el uso de algoritmos que identifican perfiles de conducción eficiente bajo múltiples escenarios. En este contexto, el propósito de la tesis doctoral es contribuir al conocimiento de las herramientas empleadas para estudiar el consumo energético en el ferrocarril de ámbito urbano, centrándose por un lado en estudiar el posible uso de redes neuronales como instrumento de simulación, y por otro lado llevando a cabo una comparativa sistemática de algunos de los algoritmos meta-heurísticos de optimización más usados. Para ello, se ha desarrollado un simulador de marchas combinado con una red neuronal, el cual parte de una serie de comandos que representan la salida del sistema ATO, y calcula el correspondiente perfil de velocidad, tiempo de viaje y consumo energético. El simulador ha sido validado con datos reales medidos en la red de metro de Valencia, con un error medio del 2,87% en la estimación de tiempo y del 3,62% en la estimación de la energía. Mediante este simulador se han calculado más de 5.800 combinaciones de comandos ATO para 32 tramos de la red de metro de Valencia (considerando ambos sentidos de circulación) y se han calculado los frentes de Pareto reales para cada caso. A partir de aquí, se han aplicado cinco algoritmos meta-heurísticos (NSGA-II, MOPSO, SPEA-II, MOEA-D y MOACOr) para obtener conjuntos de soluciones no-dominadas en cada uno de los 64 casos de estudio, y se ha evaluado el grado de convergencia, regularidad y diversidad de cada conjunto de soluciones con una serie de métricas, aplicando un análisis estadístico para detectar diferencias significativas. Se ha observado que los cinco algoritmos ofrecen resultados similares en términos de convergencia y regularidad, pero que el algoritmo MOPSO destaca significativamente en términos de diversidad (y, en menor medida, el algoritmo SPEA-II), siendo el algoritmo más habitual (NSGA-II) el que peor resultados presenta en este sentido. Estos resultados pretenden ofrecer una cierta guía para escoger algoritmos más efectivos en futuros estudios de optimización de marchas ferroviarias. / [CAT] El transport és una activitat fonamental en les societats modernes, però també és un dels sectors que més contribueix al consum energètic i a les emissions. El ferrocarril és un dels mitjans de transport més eficients, però encara hi ha marge per a reduir el seu consum energètic i augmentar la seua sostenibilitat. Un dels modes més efectius per a fer això, especialment en ferrocarrils d'àmbit urbà, es mitjançant l'optimització de marxes. N'hi ha molts estudis que afronten aquest problema mitjançant la simulació i l'ús d'algoritmes que identifiquen perfils de conducció eficient baix múltiples escenaris. En aquest context, el propòsit d'aquesta tesi doctoral és contribuir al coneixement de les eines utilitzades per a estudiar el consum energètic en el ferrocarril d'àmbit urbà, centrant-se, per una banda, en estudiar l'ús de xarxes neuronals com a instrument de simulació, i per altra fent una comparació sistemàtica d'alguns dels algoritmes meta-heurístics més utilitzats. Per a fer això, s'ha desenvolupat un simulador de marxes combinat amb una xarxa neuronal que, partint d'uns comandaments que representen l'eixida del sistema ATO, calcula el corresponent perfil de velocitats, temps de viatge i consum energètic. El simulador ha estat validat amb dades reals mesurades en la xarxa de metro de València, amb un error mitjà del 2,8% en l'estimació del temps i del 3,62% en l'estimació de l'energia. Mitjançant aquest simulador s'han calculat més de 5.800 combinacions de comandaments ATO per a 32 trams de la xarxa de metro de València (considerant ambdós sentits de circulació), i s'han calculat els fronts de Pareto reials per a cada cas. A partir d'ací, s'han aplicat cinc algoritmes meta-heurístics (NSGA-II, MOPSO, SPEA-II, MOEA-D i MOACOr) per a obtindre conjunts de solucions no-dominades en cadascú dels 64 casos d'estudi, i s'ha avaluat el grau de convergència, regularitat i diversitat de cada conjunt de solucions amb una sèrie de mètriques, aplicant un anàlisi estadístic per a detectar diferències significatives. S'ha observat que els cinc algoritmes ofereixen resultats similars pel que fa a convergència i regularitat, però que l'algoritme MOPSO destaca significativament pel que fa a diversitat (i, en menor grau, l'algoritme SPEA-II), mentre que l'algoritme més habitual (NSGA-II) és el que dona pitjor resultats en aquest sentit. Aquestos resultats pretenen oferir una mena de guia per a escollir algoritmes més efectius en futurs estudis d'optimització de marxes ferroviàries. / [EN] Transport is one of the most fundamental activities of modern societies, but it is also one of the sectors with higher energy consumption and associated emissions. Railways are one of the most efficient transport means, but there is still margin to reduce their energy consumption and to improve their sustainability. One of the most effective ways to do so, particularly in urban railways, is to optimise speed profiles. Several studies focus on this problem by using simulation and algorithms to identify efficient speed profiles under different scenarios. In this context, the main objective of this doctoral thesis is to contribute to the knowledge regarding tools used to study railways energy consumption in urban railways. The thesis focuses, on the one hand, on studying the potential use of neural networks as simulation tools. On the other hand, the thesis carries out a systematic comparison between a few of the most used meta-heuristic optimisation algorithms. Hence, a driving simulator combined with a neural network has been developed. This simulator takes a set of commands, which represent the output of the ATO system, and calculates the corresponding speed profile, travel time and energy consumed. The simulator has been validated using real data measured in the Valencia metro network, with an average error of 2.87% (time estimation) and 3.62% (energy estimation). Using this simulator, more than 5,800 combinations of ATO commands have been simulated in 32 inter-station stretches selected from the Valencia metro network (considering both directions of travel) and the corresponding real Pareto fronts have been calculated. Afterwards, five meta-heuristic algorithms (NSGA-II, MOPSO, SPEA-II, MOEA-D and MOACOr) have been used to obtain sets of non-dominated solutions for each of the 64 case studies. The convergence, regularity and diversity of these solution sets have been then evaluated through a series of metrics, applying statistical analysis to determine whether any difference found was significant. The results show that all five algorithms perform similarly in terms of convergence and regularity, but that MOPSO performs significantly better in terms of diversity (and, to a lesser extent, SPEA-II), while the most common algorithm (NSGA-II) yields poorer results. These conclusions aim to offer a guide to choose more effective algorithms for future railways optimisation studies. / Martínez Fernández, P. (2019). Estudio y optimización del consumo energético del ferrocarril mediante redes neuronales y algoritmos heurísticos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/134018 / TESIS
148

Modelo de negocio para la comercialización de un servicio informático de análisis de imágenes, basado en Web Intelligence, exploración visual y neurociencia

Ortiz Mir, Magdalena Sofía January 2018 (has links)
Ingeniera Civil Industrial / El presente trabajo de título tiene como objetivo determinar si existe un mercado potencial interesado en adquirir un servicio de análisis de imágenes que entregue la predicción visual de las personas sobre estas. Y si existiese el mercado, diseñar un modelo de negocio para un servicio basado en dicha herramienta y en las necesidades del cliente objetivo. AKORI es un proyecto que se ha desarrollado desde el año 2012 entre las facultades de ciencias físicas y matemáticas y de medicina de la Universidad de Chile. Se basa en un algoritmo de redes neuronales, el cual permite simular la atención visual de las personas sobre una imagen y predecir qué zonas llaman más la atención al ser humano. Actualmente se tiene un prototipo funcional que permite analizar páginas web mediante la captura de pantalla de la página y el posterior análisis de la imagen. Surge la oportunidad de comercializar un servicio basado en dicho algoritmo, al tener un prototipo funcional similar a servicios comercializados en el mercado internacional por cientos de dólares. Por lo que la hipótesis de la memoria es: Es posible diseñar un producto o servicio basado en la predicción visual de las personas de tal forma que exista un mercado en Chile interesado en adquirirlo y por ende, el proyecto AKORI sería comercializable. Existen diversas herramientas para analizar diseños, desde servicios de analítica de sesiones de usuarios, análisis experto, agencias de experiencia del usuario, entre otras. La herramienta AKORI presenta como ventaja competitiva, el entregar un reporte objetivo, rápido y económico versus servicios personalizados. Se opta por la metodología Lean Canvas para la obtención del modelo de negocios porque se centra en las necesidades reales de los clientes, está orientada a servicios web y emprendimientos tecnológicos y porque no considera únicamente el lienzo de negocios, sino una metodología completa basada en la iteración de experimentos y la validación de hipótesis. Se validó la existencia de un nicho de clientes interesado en el servicio, el cual consta de agencias de publicidad y diseño web con diseños a la medida. Los clientes potenciales ayudaron a diseñar un servicio web orientado a sus necesidades, el cual entregaría un reporte de cuatro mapas distintos y su mayor beneficio para el cliente es la validación cuantificable y objetiva de sus diseños. Validando de esta forma la hipótesis de la memoria. Se realizó una estimación de los flujos de caja libre a obtenerse por el servicio en un horizonte de cinco años, obteniéndose un valor presente neto de dos mil ochocientos sesenta millones de pesos aproximadamente.
149

Predicción de robo de vehículos basado en redes neuronales alimentadas por datos espacio temporales e imágenes de Google street view

Cabargas Carvajal, Pablo Antonio January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Eléctrico / El presente trabajo tiene como objetivo principal la predicción de robos de vehículos en la ciudad Santiago de Chile, mediante la confección de un modelo de Redes Neuronales que se alimente de información gráfica, socioeconómica y temporal de un sector geográfico de robo. Para ello se utiliza la base de edatos de robos de vehículos de la Asociación de aseguradoras de autos de Chile (AACH), y a cada muestra se le asignan cuatro imágenes de Google Street View, 15 características socioeconómicas extraídas del Instituto Nacional de Estadística (INE) y de la Infraestructura de Datos Geospaciales de Chile (IDE), en conjunto con la temperatura en la fecha del incidente y la cantidad de incidentes cercanos que ocurren en el mes anterior. Esta memoria está enmarcada en el proyecto Fondef ID16I10222, liderado por los profeso- res Richard Webe y Ángel Jiménez del departamento de Ingeniería Industrial de la Univer- sidad de Chile. Para alcanzar el objetivo señalado al comienzo ,se propone un modelo de red neuronal alimentado por joint features y deep features; esto es que la red neuronal aprende de dis- tintos formatos de información como lo son datos estadísticos e imágenes. Además, en el caso de las imágenes, no son utilizadas directamente sino que se extraen carecterísticas de ellas, mediante una segunda red convolucional denominada Alexnet. Para entrenar la red es necesario disponer de zonas seguras, para lo cual se organiza la base de datos de ro- bos por fecha y se agrupa por mes, períodos en los cuales se denotan como zonas seguras aquellas que en el presente mes no posean a la redonda de 500 metros una ubicación de robos. El principal resultado esperado de la aplicación de este modelo es la obtención de proba- bilidades por zonas en una grilla de 0.01 grados de latitud y longitud sobre Santiago de Chile que puede ser representado como un heatmap de riesgo en la ciudad. Del modelo presentado, utilizando el conjunto completo de características se obtiene un 97.7% de accuracy, un 95% de precisión , un 98.9% de recall y un 97% de F1. Además al hacer reducción de características mediante Recursive feature selection y seleccionar las principales 1000 características, se obtiene un 92.96 % de accuracy, un 93.46 % de precisión, un 92.09 % de recall y un 92.77 % de F1. Con esto se concluye que el desempeño del modelo propuesto efectivamente permite una alta tasa de clasificación y además permite la creación de una representación gráfica. / Fondef 16I10222
150

Modelos de redes neuronales profundas para la predicción de secuencias de áreas de interés, datos de mirada e indicadores mentales, registrados para usuarios de un sitio web

Díaz Guerra, Francisco Javier January 2019 (has links)
Tesis para optar al grado de Magíster en Gestión de Operaciones / Memoria para optar al título de Ingeniero Civil Industrial / Este trabajo busca generar tres modelos de predicción: fijaciones en áreas de interés que los usuarios visitan durante su navegación en un sitio web específico, fijaciones realizadas en las diferentes coordenadas del sitio, e indicadores mentales, bajo condiciones ambientales controladas, de iluminación y tarea asignada. Se basa en la experimentación llevada a cabo por Cristian Retamal [88] en el Estudio del comportamiento de la carga cognitiva de usuarios que navegan en un sitio web , bajo el contexto del proyecto Fondecyt A Cognitive Resource-Aware Mobile Service Framework to Support Human-Computer-Interactions in Ubiquitous Computing Environments , liderado por el Profesor Ángel Jiménez. La predicción del primer modelo utiliza señales fisio-psicológicas: Eye tracker, sensor de respuesta electrodermal (GSR), Sensor de Temperatura de la piel (ST) y fotopletismógrafo (PPG), para estudiar las transiciones entre zonas agrupadas semánticamente, basado en ventanas de tiempo de 5 segundos (parámetro a elección), pronosticando secuencias de áreas de interés, y aproximándose a una predicción en tiempo real. El modelo se basa en tres etapas, Predicción de intención de visita de cada área de interés , es decir, que zonas elige visitar cada usuario en cada ventana de tiempo, la Asignación de estado mental del usuario en cada ventana de tiempo, a partir de variables fisio-psicológicas y Algoritmo de generación de caminos visuales , etapa final en la cual se consideran los resultados anteriores para entregar la predicción se secuencias para una ventana de tiempo. Para llevar a cabo estas etapas, se utilizan respectivamente los métodos de Clasificación multi-etiqueta , Hard clustering y Redes neuronales recurrentes . El segundo modelo utiliza datos de mirada (fijaciones, sacadas y puntos indefinidos) registrados por el EyeTracker para generar densidades de probabilidad en las zonas de la página que son atendidas por el usuario. Utiliza redes neuronales recurrentes con mezclas de densidades gaussianas para generar secuencias de probabilidades de movimientos oculares registrados en una ventana de tiempo. Este modelo se basa en una arquitectura encoder decoder, donde los datos de mirada son codificados por una red neuronal recurrente bidireccional y decodificados en los parámetros de las distribuciones gaussianas a ser mezcladas. El tercer modelo utiliza cluster de K-mean para categorizar las ventanas de tiempo con los diferentes índices mentales. Posteriormente se utilizan métodos de clasificación de secuencias para las señales EEG, para la predicción de cada índice mental, utilizando las señales fisiológicas del usuario, usando una arquitectura encoder-decoder. Todos los modelos se evalúan con validación cruzada de diez conjuntos de entrenamientoprueba,utilizando diferentes medidas de distancia para cada caso.

Page generated in 0.0688 seconds