• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 7
  • 6
  • 2
  • 1
  • Tagged with
  • 85
  • 24
  • 19
  • 14
  • 13
  • 11
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Detección de Anomalías en Procesos Industriales Usando Modelos Basados en Similitud

León Olivares, Alejandro Samir January 2012 (has links)
La detección de anomalías en procesos industriales es un tema de alto impacto que ha sido analizado y estudiado en diversas áreas de la ingeniería e investigación. La mayor parte de los métodos de detección actualmente disponibles posibilitan el estudio de las irregularidades encontradas en el historial de un proceso, ayudando a extraer información significativa (y a veces crítica) en una amplia variedad de aplicaciones, y convirtiéndose de este modo en parta fundamental e integral de esquemas de reducción de costos tanto humanos como económicos en la industria contemporánea. El objetivo general de este trabajo es desarrollar e implementar un enfoque modular de detección de anomalías, aplicable a procesos industriales multivariados y fundado en el análisis de residuos generados a partir de modelos no paramétricos basados en similitud (similarity-based modeling, SBM). La herramienta consiste principalmente de un sistema de generación automática de modelos SBM, una metodología de estudio de eventos y un algoritmo estadístico de detección. El trabajo realizado se enmarca en un proyecto de colaboración conjunta entre las empresas CONTAC, INGENIEROS LTDA. y ENDESA-CHILE. Gracias a esto, ha sido posible evaluar el sistema propuesto utilizando datos de operación correspondientes a una central termoeléctrica de ciclo combinado perteneciente a la segunda empresa ya mencionada. Las comparaciones en cuanto al desempeño del sistema de modelación implementado permiten concluir que el algoritmo es capaz de generar una representación más apropiada del proceso, basado en el error obtenido con la técnica de modelación SBM, la cual es cercana al 25% del error obtenido con la técnica de modelación lineal en los parámetros. Además, la metodología de estudio de eventos permite detectar correctamente las variables que no aportan al objetivo de detección de un evento en particular, así como también identifica las variables más significativas para lograr tal propósito, reduciendo el número de variables analizadas y con esto, los requerimientos de cómputo de operación en línea. La validación de los resultados entregados por el método de detección de anomalías desarrollado, permite aseverar que la utilización de modelos no-paramétricos tipo SBM, en combinación con la metodología de estudio de eventos y el algoritmo estadístico de detección, resultan eficaces a la hora de generar alarmas y detectar las anomalías estudiadas.
32

Modelamiento del fenómeno apelotonamiento de buses

Arriagada Fernández, Jacqueline Grace January 2016 (has links)
Magíster en Gestión de Operaciones. Ingeniera Civil Industrial / El apelotonamiento de Buses (caso extremo de irregularidad de intervalo entre buses consecutivos) es un fenómeno conocido y relevante para operadores, usuarios y reguladores de servicios de buses de alta frecuencia. El efecto de este fenómeno es tal que los buses tienden a agruparse en dos o más, lo cual afecta la calidad del servicio y la eficiencia operacional. En este trabajo se describe el fenómeno apelotonamiento de buses mediante un indicador de tipo continuo y otro de tipo discreto. Usando datos disponibles de la operación del sistema de transporte público, en específico del sistema de localización automática de vehículos (AVL por sus siglas en inglés) y del sistema de cobro automático de tarifa (AFC por sus siglas en inglés) de la ciudad de Santiago (Chile) y Gatineau (Canadá), se construyeron mapas de apelotonamiento de buses y se calibraron modelos de regresión lineal para explicar el fenómeno. Se aplicó una transformación de Box-Cox a los indicadores continuo y discreto para obtener variables con distribución de probabilidad normal y así generar estimaciones más certeras de los modelos, dicha transformación es una función inversa de los indicadores, por lo que las variables dependientes miden la regularidad de los buses. Luego se desarrollaron dos tipos de modelos: uno con el indicador continuo transformado y otro con el indicador discreto transformado como variable dependiente. Las variables independientes corresponden a los factores que han sido detectados como aquellos que incrementan o disminuyen la intensidad del apelotonamiento de buses. Estos factores se pueden agrupar en los que están relacionados a semáforos, infraestructura de la vía, operación de los buses y entorno de los buses. El resultado de estimaciones de los modelos permite concluir que los factores que aumentan la irregularidad de los intervalos entre buses son: el largo de la ruta, frecuencia programada alta, despacho irregular de buses, flota no homogénea (combinación de buses articulados y no articulados), alta demanda y variabilidad de ésta, buses desviados, demora uniforme vehicular en semáforos, intersecciones con bloqueo de tráfico, distancia entre paraderos alta, vía con vehículos estacionados. Por otro lado aquellos factores que resultaron disminuir el apelotonamiento de buses son: presencia de vía exclusiva, presencia de corredor segregado, actividad (detenerse o no detenerse) homogénea entre buses consecutivos y coordinación de semáforos. Luego de obtener resultados coherentes con los registrados en la literatura se puede decir que los indicadores utilizados en este trabajo permiten medir el problema de apelotonamiento de buses en diferentes sistemas de transporte público y además los sistemas de tecnología AVL y AFC permiten la utilización de un gran volumen de datos a bajo costo para el estudio de la regularidad de buses.
33

Manejo de incertidumbre ante pérdida parcial o total de datos en algoritmos basados en métodos secuenciales de Monte Carlo y nueva definición de probabilidad de falla en el contexto de monitoreo en línea

Acuña Ureta, David Esteban January 2016 (has links)
Ingeniero Civil Eléctrico / Desde hace algunos años que la disciplina especializada en el diagnóstico de fallas en sistemas y el pronóstico de eventos que pudieran afectar la salud de éstos, denominada Prognostics and Health Management (PHM), ha ido tomando cada vez más fuerza y ha empezado a consolidarse como una nueva área de la ingeniería. Esta disciplina tiene como eje principal la caracterización del estado de salud de los sistemas dinámicos, ya sea a través de enfoques probabilísticos, posibilísticos, o epistémicos, por nombrar algunos; siendo el enfoque probabilístico el adoptado en la presente Tesis. Dado que la mayoría de los sistemas se conciben mediante complejas relaciones que suelen establecerse en base a no linealidades e incertidumbre no necesariamente Gaussiana, el empleo de métodos secuenciales de Monte Carlo -también llamados filtros de partículas- ha tomado gran relevancia para el diagnóstico de la salud de los sistemas. Los filtros de partículas proveen una distribución empírica de probabilidad para los estados del sistema siguiendo un enfoque Bayesiano. Es muy frecuente que en rutinas de estimación, y en especial al usar filtro de partículas, algunas de las mediciones que debiesen proporcionar los sensores se pierdan de manera parcial o total. En el caso de una pérdida parcial, se propone una estrategia basada en la Teoría de Imputaciones Múltiples desarrollada en los años 60' que permite incorporar la incertidumbre que hay al perder solo parte de la información. Por otra parte, cuando se pierde acceso a la totalidad de las mediciones se puede hablar de un problema análogo al de pronóstico. Se propone un algoritmo que recibe como entrada una distribución empírica producto del final de una etapa de estimación basada en filtro de partículas, en la cual se propaga incertidumbre haciendo uso de sigma-points y del ajuste paramétrico de mezclas de Gaussianas para la aproximación de distribuciones de probabilidad. Además de los algoritmos anteriormente mencionados, en esta Tesis se presenta la deducción y demostración de una nueva medida de probabilidad de falla de sistemas en el contexto de monitoreo en línea, la cual modifica el estado-del-arte y abre nuevas ramas de investigación que pueden influir fuertemente en el desarrollo de nuevos sistemas de toma de decisiones. Los desarrollos presentados en esta Tesis abordan principalmente el caso del problema de estimación y pronóstico del Estado-de-Carga de baterías de ion-litio para el análisis y validación de los algoritmos que se proponen dada su relevancia en la autonomía de los dispositivos electrónicos que requieren procesamiento de información en tiempo real; tales como tablets, celulares, vehículos o micro-redes, por nombrar algunos ejemplos.
34

Desarrollo de plataforma de localización GMLC en red GSM/UMTS

Arancibia Orrego, Marcos Enrique January 2016 (has links)
Magíster en Tecnologías de la Información / Telefónica Móviles de Chile lanza un servicio de localización en conjunto con una empresa local de mapas, este servicio permitía a los dueños de números de telefonía móvil localizar los teléfonos contratados mediante el uso de una página web donde se mostraba en un mapa la ubicación aproximada en la que ese móvil se encontraba. Con el pasar del tiempo otros proveedores de servicios de localización quisieron entrar en el mercado en asociación con Telefónica, sin embargo no se les pudo integrar porque no se disponía de una plataforma que permitiera una rápida integración. Esto da origen a la necesidad de desarrollar un Gateway de localización basado en los estándares de la industria. Al asumir la tarea de desarrollar se determinó que se implementaría las funciones básicas que permitieran prestar el servicio comercialmente usando la información disponible en la red sin tener que hacer inversiones en infraestructura. Para ello se determinó que se usaría la información de Cell-id disponible en la red y se complementaría con la información de ubicación de las antenas y el ángulo respecto del norte que define el centro del arco de cobertura de la celda. Además se definiría una arquitectura donde se usaría un servidor de localización que se encargaría de entregar la información y un Gateway de localización que se encargaría de integrar a los proveedores y clientes de localización. Esta tesis documenta y describe desde el punto de vista de la tecnología de la información las características del desarrollo realizado para disponer de un Gateway de Localización en Telefónica. Estas características tienen que ver con las partes de la arquitectura estándar que se implementan, las funciones y mensajes implementados. Además ilustra las mejoras y ventajas que se logran al implementar una solución estándar respecto de la solución inicial que al ser tan particular no permitía integrar a los nuevos proveedores de servicio de localización
35

Surface Registration Techniques Applied to Archaeological Fragment Reconstruction

Sánchez Belenguer, Carlos 19 October 2015 (has links)
[EN] Reconstruction of broken archaeological artifacts from fragments is a very time-consuming task that requires a big effort if performed manually. In fact, due to budgetary limitations, this is not even attempted in countless sites around the world, leaving vast quantities of material unstudied and stored indefinitely. This Thesis dissertation faces the application of surface registration techniques to the automatic re-assembly of broken archaeological artifacts from fragments. To efficiently do so, the reconstruction problem has been divided into two groups: 3 degrees of freedom and 6 degrees of freedom problems. This distinction is motivated for two major reasons: archaeological interest of the application and computational complexity of the solution. First kind of problems (3 degrees of freedom) deal with 2D objects or with flat 3D objects, like ripped-up documents or frescoes, respectively. In both cases, the mural paintings and engravings on the fragments' surface are of huge importance in the field of Cultural Heritage Recovery. In this sense, archaeologically speaking, the value of the reconstruction is not the final model itself, but the information stored in the upper surface. In terms of computation complexity, the reduced solution space allows using exhaustive techniques to ensure the quality of the results, while keeping execution times low. A fast hierarchical technique is introduced to face this kind of problems. Starting from an exhaustive search strategy, the technique progressively incorporates new features that lead to a hierarchical search strategy. Convergence and correction of the resulting technique are ensured using an optimistic cost function. Internal search calculations are optimized so the only operations performed are additions, subtractions and comparisons over aligned data. All heavy geometric operations are carried out by the GPU on a pre-processing stage that only happens once per fragment. Second kind of problems (6 degrees of freedom) deal with more general situations, where no special constraints are considered. Typical examples are broken sculptures, friezes, columns... In this case, computational complexity increases considerably with the extra 3 degrees of freedom, making exhaustive approaches prohibitive. To face this problems, an efficient sparse technique is introduced that uses a pre-processing stage to reduce the size of the problem: singular key-points in the original point cloud are selected based on a multi-scale feature extraction process driven by the saliency of each point. By computing a modified version of the PFH descriptor, the local neighborhood of each key- point is described in a compact histogram. Using exclusively the selected key-points and their associated descriptors, a very fast one-to-one search algorithm is executed for each possible pair of fragments. This process uses a three-level hierarchical search strategy driven by the local similarity between key-points, and applying a set of geometric consistence tests for intermediate results. Finally, a graph-based global registration algorithm uses all the individual matches to provide the final reconstruction of the artifact by creating clusters of matching fragments, appending new potential matches and joining individual clusters into bigger structures. / [ES] La reconstrucción de objetos arqueológicos fracturados a partir de fragmentos es una actividad que, si se realiza manualmente, supone un gran coste temporal. De hecho, debido a restricciones presupuestarias, esta tarea no llega a abordarse en incontables yacimientos arqueológicos, dejando grandes cantidades de material sin ser estudiado y almacenado indefinidamente. La presente propuesta de tesis aborda la aplicación de técnicas de registro de superficies a el re-ensamblado automático de objetos arqueológicos fracturados a partir de fragmentos. Por motivos de eficiencia, el problema de la reconstrucción se ha dividido en dos grupos: problemas de 3 grados de libertad y problemas de 6 grados de libertad. Esta distinción está motivada por dos razones: (1) el interés arqueológico de la aplicación final de las técnicas desarrolladas y (2) la complejidad computacional de la solución propuesta. El primer tipo de problemas (3 grados de libertad) se enfrenta a objetos bidimensionales o tridimensionales planos como documentos fragmentados y frescos, respectivamente. En ambos casos, los murales y grabados sobre la superficie de los fragmentos son de gran importancia en el ámbito de la conservación del patrimonio cultural. En este sentido, desde el punto de vista arqueológico, el valor de la reconstrucción final no radica en el modelo en sí, sino en la información almacenada sobre su superficie. En términos de complejidad computacional, el reducido espacio de soluciones permite emplear técnicas de búsqueda exhaustivas que garantizan la corrección de los resultados obtenidos con tiempos de ejecución acotados. La técnica propuesta para abordar este tipo de problemas parte de una estrategia exhaustiva y, progresivamente, incorpora nuevas optimizaciones que culminan con una técnica íntegramente jerárquica. La convergencia y corrección de la solución propuesta están garantizadas gracias a una función de coste optimista. Los cálculos internos durante las búsquedas han sido optimizados de modo que sólo son necesarias operaciones de adición/substracción y comparaciones sobre datos alineados en memoria. Todas las operaciones complejas asociadas a la manipulación de datos geométricos son realizadas por la GPU durante una etapa de pre-procesamiento que se ejecuta una sola vez por fragmento. El segundo tipo de problemas (6 grados de libertad) se enfrenta a situaciones más generales, en las que ninguna restricción especifica puede ser asumida. Ejemplos típicos son esculturas fragmentadas, frisos, columnas... En este caso, la complejidad computacional incrementa considerablemente debido a los 3 grados de libertad adicionales por lo que el coste temporal de las estrategias exhaustivas resulta prohibitivo. Para abordar este tipo de problemas, se propone una técnica dispersa eficiente apoyada en una fase de pre-procesamiento cuyo objetivo consiste en reducir la talla de los datos de entrada: a partir de las nubes de puntos originales, puntos clave singulares son identificados gracias a un proceso de extracción de características multi-escala apoyado en el valor de saliencia de cada punto. Mediante el cálculo de una versión modificada del descriptor PFH (Persistent Feature Histograms), el vecindario local de cada punto clave es descrito en un histograma compacto. Empleando únicamente estos puntos y sus descriptores asociados, un algoritmo de búsqueda uno-a-uno muy rápido se ejecuta sobre cada par de fragmentos. Dicho proceso emplea una estrategia de búsqueda jerárquica de tres niveles, dirigida por la similitud entre puntos clave y que aplica un conjunto de tests de consistencia geométrica sobre los resultados intermedios. Finalmente, un algoritmo de registro global toma como datos de entrada todas las correspondencias individuales para generar la reconstrucción final del objeto. / [CAT] La reconstrucció d'objectes arqueològics fracturats a partir de fragments és una activitat que, si es realitza manualment, suposa un gran cost temporal. De fet, a causa de restriccions pressupostàries, esta tasca no arriba a abordar-se en incomptables jaciments arqueològics, deixant grans quantitats de material sense ser estudiat i emmagatzemat indefinidament. La present proposta de tesi aborda l'aplicació de tècniques de registre de superfícies a l're-enssamblatge automàtic d'objectes arqueològics fracturats a partir de fragments. Per motius d'eficiència, el problema de la reconstrucció s'ha dividit en dos grups: problemes de 3 graus de llibertat i problemes de 6 graus de llibertat. Esta distinció està motivada per dues raons: (1) l'interès arqueològic de l'aplicació final de les tècniques desenvolupades i (2) la complexitat computacional de la solució proposada. El primer tipus de problemes (3 graus de llibertat) s'enfronta a objectes bidimensionals o tridimensionals plans com documents fragmentats i frescos, respectivament. En tots dos casos, els murals i gravats sobre la superfície dels fragments són de gran importància en l'àmbit de la conservació del patrimoni cultural. En este sentit, des del punt de vista arqueològic, el valor de la reconstrucció final no es basa en el model en si, sinó en la informació emmagatzemada sobre la seva superfície. En termes de complexitat computacional, el reduït espai de solucions permet emprar tècniques de recerca exhaustives que garanteixen la correcció dels resultats obtinguts amb temps d'execució acotats. La tècnica proposada per abordar aquest tipus de problemes part d'una estratègia exhaustiva i, progressivament, incorpora noves optimitzacions que culminen amb una tècnica íntegrament jeràrquica. La convergència i correcció de la solució proposada estan garantides gràcies a una funció de cost optimista. Els càlculs interns durant les recerques s'han optimitzat de manera que només són necessàries operacions d'addició / substracció i comparacions sobre dades alineats en memòria. Totes les operacions complexes associades a la manipulació de dades geomètriques són realitzades per la GPU durant una etapa de pre-processament que s'executa una única vegada per fragment. El segon tipus de problemes (6 graus de llibertat) s'enfronta a situacions més generals, en què cap restricció especifica pot ser assumida. Exemples típics són escultures fragmentades, frisos, columnes ... En este cas, la complexitat computacional s'incrementa considerablement a causa dels 3 graus de llibertat addicionals pel que el cost temporal de les estratègies exhaustives resulta prohibitiu. Per abordar este tipus de problemes, es proposa una tècnica dispersa eficient recolzada en una fase de pre-processament l'objectiu del qual consisteix a reduir la talla de les dades d'entrada: a partir dels núvols de punts originals, s'identifiquen punts clau singulars gràcies a un procés d'extracció de característiques multi-escala recolzat en el valor de saliència de cada punt. Mitjançant el càlcul d'una versió modificada del descriptor PFH (Persistent Feature Histograms), els veins locals de cada punt clau és descriuen en un histograma compacte. Emprant únicament estos punts i els seus descriptors associats, un algoritme de cerca un-a-un molt ràpid s'executa sobre cada parell de fragments. Aquest procés fa servir una estratègia de cerca jeràrquica de tres nivells, dirigida per la similitud entre punts clau i que aplica un conjunt de tests de consistència geomètrica sobre els resultats intermedis. Finalment, un algoritme de registre global pren com a dades d'entrada totes les correspondències individuals per generar la reconstrucció final de l'objecte. / Sánchez Belenguer, C. (2015). Surface Registration Techniques Applied to Archaeological Fragment Reconstruction [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/56152 / TESIS
36

Análisis del impacto de los aspectos relativos a la localización en el precio de la vivienda a través de Técnicas de Soft Computing. Una aplicación a la ciudad de Valencia

Fernández Durán, Laura 02 May 2016 (has links)
[EN] This thesis aims to analyze the influence of variables related to the housing price location. Prior to the development of the empirical study, it will develop the theoretical foundations on which it is based. At first, it reviews the literature developments on the theory of value to later expose ground rent and, more specifically, the income of urban land. Its purpose is to determine the value of housing according to existing literature. Within theoretical foundations it develops econometric analysis models to estimate the value of housing. The empirical study is conducted in the city of Valencia and its urban development history and evolution of prices must be study. This investigation starts at the origin of the Roman city in 138 BC going through the different stages of the urban city. The urban plans of 1946, 1966 and 1988 are also studied as well as the latest amendments in this planning. This research about the housing prices also includes the recent evolution of housing prices in the city of Valencia and a geo-positioned study of the evolution of the population by districts. The empirical model will start after reviewing the literature of the city using techniques of artificial intelligence, more precisely, artificial neuronal network. This study begins deciding the location variables to be used based on the provided data and the methodological limitations. After several estimations and trails, the model has been developed with the following variables: the distance to the city center, the proximity to the underway and/or tram, the proximity to green areas, the equipment of the neighborhood, the socio-economical level and the percentage of immigrants of the neighborhood. The next step was to obtain a neural network that allows us to estimate the price of housing. We used the supervised learning and applied an incremental approach, trying different topologies of neural networks based on Multilayer Perceptron. The network (s) has been trained with backpropagation and backpropagation with momentum, with different parameters. The impact of each of the different variables considered location on housing prices is analyzed based on the defined neural network. This study was conducted by estimating the network, the price for different values of the variable under study, data keeping other variables constant. The result of the study allows us to confirm and validate the hypotheses launched for the variables dealing with the distance to the center, socio-economic and immigration level. In that sense, the price of houses increases as you approach to the center of the city, the higher the socio-economic level of the neighborhood is, the largest housing prices are and the higher the percentage of immigrants of the neighborhood is the lower housing prices. In the variables of proximity to subway and neighborhood facilities a higher price in the subway nearby homes and those located in districts with more equipment but not conclusively for all types of housing. In the case of close to green areas and quality of urbanization a direct relationship between these variables and housing prices cannot be confirmed. In the future, we will try to use a genetic algorithm to check which variables have the greatest impact on price in order to reduce variables to work with those that are most empirically relevant. We will also try to increase the sample, as the network works better if you have more data to process. / [ES] Esta tesis tiene el propósito de analizar la influencia de las variables relativas a la localización de la vivienda en el precio de la misma. Antes de desarrollar el estudio empírico, lo primero es conocer los fundamentos teóricos en los que esta investigación se basa. Así, se comienza con un recorrido por lo desarrollado en la literatura sobre la teoría del valor, entrando posteriormente a exponer la renta del suelo, y más concretamente la renta de suelo urbano, para llegar a explicar cuáles son, según la literatura existente, los determinantes del valor de la vivienda. Se desarrolla, también, los modelos econométricos de análisis utilizados en la estimación del valor de la vivienda. El estudio empírico se realiza en Valencia, por ello revisamos la historia, el desarrollo urbanístico y la evolución de los precios de la ciudad. Se comienza en el origen de la ciudad romana en el año 138 a.C., y se recorren las distintas etapas urbanísticas. Se analizan, también los planes urbanísticos de 1946, de 1966 y de 1988, así como las últimas modificaciones de este planeamiento. Al tratarse de un estudio de precios de vivienda, se analiza la evolución reciente de precios de vivienda en la ciudad de Valencia y se incluye un estudio geo-posicionado de la evolución de la población por barrios. Una vez conocida la literatura y la ciudad en la que se desarrolla la investigación comienza el desarrollo del modelo empírico que en nuestro caso, se realiza utilizando técnicas de inteligencia artificial, concretamente una red neuronal artificial. Para iniciar el estudio, lo primero ha sido decidir, en base a los datos de los que disponemos y a las limitaciones de la metodología utilizada, qué variables de localización serían objeto del estudio. Tras diversas estimaciones y pruebas, el modelo se ha desarrollado con las siguientes variables: la distancia al centro de la ciudad, la cercanía al metro, la cercanía a zonas verdes, el equipamiento del barrio, el nivel socio-económico y el porcentaje de inmigrantes del barrio. El siguiente paso ha sido obtener una RNA que nos permita estimar el precio de la vivienda. Se ha utilizado el aprendizaje supervisado y se ha aplicado un método incremental, probando diferentes topologías de redes neuronales basadas en el perceptrón multicapa. La red ha sido entrenada con retropropagación y retropropagación con momento, con diferentes parámetros. A partir de la RNA, se analiza la repercusión de cada una de las diferentes variables de localización consideradas sobre el precio de la vivienda. Este estudio lo realizamos estimando con la red el precio para distintos valores de la variable objeto de estudio, manteniendo los datos del resto de variables constantes. El resultado del estudio nos permite constatar que se cumplen claramente las hipótesis lanzadas para las variables distancia al centro, nivel socio-económico e inmigración, de tal forma que a medida que nos acercamos al centro de la ciudad, el precio de la vivienda aumenta, cuanto mayor es el nivel socio-económico del barrio, mayor es el precio de la vivienda y cuanto mayor es el porcentaje de inmigrantes del barrio, menor es el precio de la vivienda. En las variables cercanía al metro y equipamientos del barrio se puede apreciar un mayor precio en las viviendas cercanas al metro y aquellas situadas en barrios con más equipamientos pero no de forma concluyente para todas las tipologías de vivienda. En el caso de la cercanía a zonas verdes y calidad de la urbanización no podemos afirmar que exista relación directa entre estas variables y el precio de la vivienda. En un futuro, estudiaremos mediante un algoritmo genético qué variables tienen mayor repercusión en el precio, con el propósito de trabajar con aquellas que empíricamente resulten más relevantes. Además, intentaremos aumentar la muestra, pues la red trabaja mejor si cuenta con mayor número de datos para procesar. / [CAT] Aquesta tesi té el propòsit d'analitzar la influència de les variables relatives a la localització de l'habitatge en el preu d'aquest. Abans de desenvolupar l'estudi empíric, el primer és conèixer els fonaments teòrics en els quals aquesta recerca es basa. Així, es comença amb un recorregut pel desenvolupat en la literatura sobre la teoria del valor, entrant més tard a exposar la renda del sòl i, més concretament, la renda del sòl urbà, per arribar a explicar quins són, segons la literatura existent, els determinants del valor de l'habitatge. Es desenvolupa, també dins dels fonaments teòrics, els models economètrics d'anàlisi utilitzats en l'estimació del valor de l'habitatge. L'estudi empíric es realitza en la ciutat de València, per la qual cosa es fa necessari conèixer la història, el desenvolupament urbanístic i l'evolució dels preus de la ciutat objecte d'estudi. Es comença en l'origen de la ciutat romana l'any 138 a. de C. i es recorren les diferents etapes urbanístiques de la ciutat. S'analitzen, també, els plans urbanístics de 1946, de 1966 i de 1988, així com les últimes modificacions d'aquest planejament. En tractar-se d'un estudi de preus d'habitatge, s'analitza l'evolució recent de preus d'habitatge en la ciutat de València i s'inclou un estudi geo-posicionat de l'evolució de la població per barris. Una vegada coneguda la literatura i la ciutat en la qual es desenvolupa la recerca, comença el desenvolupament del model empíric que, en el nostre cas, es realitza utilitzant tècniques d'intel·ligència artificial, concretament una xarxa neuronal artificial. Per a iniciar l'estudi, el primer ha sigut decidir, d'acord amb les dades de què disposem i a les limitacions de la metodologia utilitzada, quines variables de localització serien objecte de l'estudi. Després de diverses estimacions i proves, el model s'ha desenvolupat amb les variables següents: La distància al centre de la ciutat, la proximitat al metro, la proximitat a zones verdes, l'equipament del barri, el nivell socioeconòmic i el percentatge d'immigrants del barri. El següent pas ha estat obtenir una xarxa neuronal que ens permeta estimar el preu de l'habitatge. S'ha utilitzat l'aprenentatge supervisat i s'ha aplicat un mètode incremental, provant diferents topologies de xarxes neuronals basades en el perceptró multicapa. La xarxa ha estat entrenada amb retropropagació i retropropagació amb momentum, amb diferents paràmetres. A partir de la RNA definida, s'analitza la repercussió de cadascuna de les diferents variables de localització considerades sobre el preu de l'habitatge. Aquest estudi el vam realitzar, estimant amb la xarxa, el preu per a diferents valors de la variable objecte d'estudi, mantenint les dades de la resta de variables constants. El resultat de l'estudi ens permet constatar que es compleixen clarament les hipòtesis llançades per a les variables distància al centre, nivell socioeconòmic i immigració, de tal forma que a mesura que ens acostem al centre de la ciutat, el preu de l'habitatge augmenta, com més gran és el nivell socioeconòmic del barri, major és el preu de l'habitatge i com més gran és el percentatge d'immigrants del barri, menor és el preu de l'habitatge. En les variables de proximitat al metre i equipaments del barri es pot apreciar un major preu de l'habitatge properes al metre i les situades en barris amb més equipaments, però no de forma concloent per a totes les tipologies de l'habitatge. En el cas de la proximitat a zones verdes i qualitat d'urbanització, no podem afirmar que existesca relació directa entre aquestes variables i el preu de l'habitatge. En un futur, mitjançant un algorisme genètic, tractarem de comprovar quines variables tenen major repercussió en el preu, amb el propòsit de treballar amb aquelles que empíricament resulten més rellevants. A més, intentarem augmentar la mostra, ja que la xarxa treballa millor amb nombre més gran / Fernández Durán, L. (2016). Análisis del impacto de los aspectos relativos a la localización en el precio de la vivienda a través de Técnicas de Soft Computing. Una aplicación a la ciudad de Valencia [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63253 / TESIS
37

Metodologías para la ubicación de plantas de biomasa mediante modelos de localización basados en programación lineal y evaluación multicriterio en el entorno de los Sistemas de Información Geográfica

Perpiñá Castillo, Carolina 17 February 2012 (has links)
La necesidad de fomentar el desarrollo de energías renovables forma parte de una estrategia política y comunitaria que debe tener en cuenta las materias relacionadas con el medio ambiente, crecimiento, competitividad y empleo, competencia, investigación, desarrollo tecnológico y demostración, así como en el ámbito de la política agraria y de desarrollo rural. Es por ello que, en las últimas décadas, se empezó a dar un papel importante a estas energías como alternativa energética a las fuentes tradicionales, poniendo latente la necesidad de la búsqueda de nuevas herramientas y técnicas que puedan dar respuesta a conceptos tan importantes como la planificación energética de un territorio. De este modo, se comenzó un proceso de integración de las energías renovables mediante diversas actuaciones políticas a nivel mundial (Protocolo de Kyoto), siendo necesario además llevar a cabo iniciativas energéticas locales. En este contexto, la utilización de la biomasa con fines energéticos ofrece múltiples ventajas con respecto a las fuentes de energía convencionales, así como en relación con otras fuentes de energía renovables, en particular unos costes relativamente bajos, una menor dependencia de las alteraciones climáticas a corto plazo, el fomento de las estructuras económicas regionales y la creación de fuentes de ingresos alternativas. Entre los principales beneficios destacaríamos reducir la dependencia de los combustibles fósiles, disminuir las emisiones de gases de efecto invernadero y estimular la actividad económica en zonas rurales (Comisión de las Comunidades Europeas 2005). En este trabajo se presentan diferentes metodologías y estrategias para impulsar el desarrollo del aprovechamiento de la biomasa procedente de residuos agrícolas y forestales, incluyendo los distintos y numerosos elementos implicados en la utilización de la biomasa como fuente energética: recursos disponibles y tipología, logística para su recogida y distribución, restricciones medioambientales y sociales, transporte, almacenamiento, costes, pre-tratamientos, demanda potencial, etc. / Perpiñá Castillo, C. (2012). Metodologías para la ubicación de plantas de biomasa mediante modelos de localización basados en programación lineal y evaluación multicriterio en el entorno de los Sistemas de Información Geográfica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14721 / Palancia
38

ANÁLISIS DE LA ACÚSTICA DE SALAS MEDIANTE LA UTILIZACIÓN DE ARRAYS DE MICRÓFONOS CIRCULARES

Torres Aranda, Ana María 21 December 2012 (has links)
Esta tesis doctoral aborda el estudio y análisis de la acústica de salas mediante un proceso de descomposición del campo sonoro muestreado con arrays circulares de micrófonos. El comportamiento acústico de una sala teniendo en cuenta todos los factores espaciales no es algo trivial. Este problema es conocido desde la antigüedad: griegos y romanos comenzaron a cuidar las cualidades acústicas en sus construcciones arquitectónicas basándose principalmente en diseños puramente prácticos. Más tarde sería el físico Sabine y su modelo estadístico para la medida del tiempo de reverberación de salas en que daría lugar al análisis moderno de la acústica arquitectónica. En la actualidad existen múltiples y avanzados métodos de análisis basados en el estudio de las respuestas al impulso de las salas capturadas mediante la utilización de fuentes de sonido y micrófonos de precisión que han contribuido a nuevos avances y mejoras dentro de este campo de la acústica. Los métodos mas modernos propuestos recientemente utlizan arrays de micrófonos para intentar capturar el campo de forma más precisa y con todas sus características espaciales, sin embargo todavía no han sido explotados convenientemente para obtener conclusiones significativas y relevantes sobre la acústica final de salas y sus aspectos geométricos. En esta tesis se lleva a cabo una metodología de análisis de salas basada en técnicas de descomposición de onda plana y de beamforming modal. Mediante la construcción de un array circular con micrófonos cardioides, así como de la implementación de un algoritmo de deteccion de máximos locales en ecogramas basado en morfología de imagen, se obtienen, analizan y comparan la acústica de las salas (reflexiones, absorciones, etc) permitiendo extrapolar una serie de conclusiones sobre sus características, comportamiento y calidad. Los resultados obtenidos por ambos métodos de análisis se comparan para identificar las reflexiones más significativas de las salas extrayendo informaci / Torres Aranda, AM. (2012). ANÁLISIS DE LA ACÚSTICA DE SALAS MEDIANTE LA UTILIZACIÓN DE ARRAYS DE MICRÓFONOS CIRCULARES [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/18221 / Palancia
39

Integración entre equipos de navegación satelital y plataforma de gestión de flota

Venegas Morales, Mauricio Leonardo Hernán January 2018 (has links)
Magíster en Tecnologías de la Información / Este trabajo se desarrolla bajo el contexto de estudiar la incorporación de equipamiento de navegación Garmin nüvi a la plataforma de gestión de flota de la empresa Citymovil S.A. y así proponer una solución que permita integrar y expandir las funcionalidades globales del sistema. La problemática que se quiere abordar es apoyar el proceso de gestión de visitas a clientes, en empresas que realicen principalmente operaciones en terreno. El cumplir eficientemente con un itinerario se hace complejo, debido a la incertidumbre en los tiempos de traslado y atención. Además, la comunicación entre despachadores y conductores puede generar desviaciones por diversos motivos. El incumplimiento recurrente de los horarios de visita programados genera al corto plazo una mala percepción de la empresa con sus clientes. La solución propuesta se basa en la construcción e implementación de varios módulos de software que faciliten la comunicación del itinerario de visitas entre los tres roles de usuarios identificados para este problema: Despachador, Conductor y Administrador. Técnicamente, el núcleo del desarrollo está enfocado en aprovechar las funcionalidades de gestión de georreferencias de equipos de navegación, que se utilizan como interfaz visual a bordo de los vehículos, lo que implica implementar instrucciones del protocolo propietario del fabricante. Parte importante del esfuerzo dedicado está en el análisis y diseño de la integración de los componentes del sistema, siendo un aspecto muy útil para esta tarea el trabajar sobre una arquitectura de micro servicios. La evaluación de la solución se basa en medir los niveles de satisfacción de los usuarios antes y después de la realización de una prueba piloto. Estos usuarios pertenecen al área de soporte y a técnicos en terreno de la compañía. Luego de finalizar este trabajo, se puede concluir que el objetivo general de construir un sistema que integre equipamiento a bordo de vehículos, se logró de forma efectiva. No obstante, desde el punto de vista de los objetivos secundarios, es decir, el incremento en la satisfacción de los usuarios del sistema, el cumplimiento fue parcial. Esto se puede explicar debido al bajo nivel de madurez del área, lo que dificulta el sacarle un mayor provecho a intentos de incorporar nuevas tecnologías en el proceso de despacho. Queda como trabajo posterior realizar un estudio más específico y ver cómo mejorar el proceso de gestión de las visitas a terreno en el área de soporte.
40

Localización de sistemas de baterías para el mejoramiento del desempeño en estabilidad transitoria de los sistemas eléctricos de potencia

Díaz Osorio, Víctor Eduardo January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / La creciente penetración de energías de carácter variable en los últimos años permite prever que los sistemas eléctricos de potencia requerirán la incorporación de nuevas tecnologías que flexibilicen su operación. Entre estas tecnologías, una de las más importantes son los sistemas de almacenamiento basados en baterías (BESS) los que han demostrado tener la capacidad de entregar un amplio abanico de servicios a los SEP. En particular, en la bibliografía se menciona que los BESS tienen capacidad de aportar a la estabilidad transitoria de ángulo de los SEP, pero pocos trabajos profundizan en esto. Más aún, la incorporación de BESS en el sistema abre el problema de localizarlos óptimamente, lo que ha sido abordado principalmente desde perspectivas de operación económica, reducción de pérdidas o regulación de tensión. En este trabajo se estudia como la interacción de los BESS con los sistemas eléctricos permite mejorar su desempeño dinámico en términos de estabilidad transitoria. Comprendido esto, se diseña una metodología de localización óptima de módulos BESS, considerando criterios de estabilidad transitoria. El estudio demuestra que el intercambio de potencia de los BESS permite elevar la capacidad de transferencia de potencia activa de las máquinas del sistema durante una perturbación. Esto reduce la aceleración de los ángulos de rotor durante y después de la contingencia, aumentando la capacidad del sistema de mantener una operación estable. Se estudia además que este aporte del BESS se puede ver manifestado en el criterio de las áreas iguales, que determina el margen de estabilidad del sistema como la diferencia entre el área desacelerante y el área acelerante. Este margen de estabilidad para sistemas de varias máquinas se puede determinar según el equivalente SIME del sistema (single machine equivalent) el cual condensa la dinámica de los ángulos de todas las máquinas en la dinámica de una máquina equivalente. Por otra parte, el problema de localización óptima es un problema discreto, combinatorial, no lineal, por lo que se utilizan algoritmos genéticos (GA) para explorar el espacio de soluciones factibles. Si bien los GA no garantizan la obtención de optimalidad global, se ha demostrado que tienen una notable capacidad para encontrar soluciones cercanas al óptimo en tiempos de computo reducidos. Para evaluar el desempeño dinámico de una distribución de BESS, el algoritmo evalúa el margen de estabilidad del equivalente SIME del sistema. La metodología se implementa en el IEEE 39 bus system, modificado para representar un escenario de alta penetración renovable. La metodología permite la obtención de una distribución de módulos BESS que mejora el desempeño transitorio del sistema, focalizando el aporte de los BESS en torno a aquellas contingencias con peores desempeños dinámicos. Se comprueba además la capacidad del GA de encontrar buenas soluciones en tiempos de cómputos razonables, requiriendo la exploración de una ínfima porción del espacio de soluciones factibles para encontrar una buena distribución. Se verifica también la pertinencia del margen de estabilidad del equivalente SIME como una buena medida del desempeño dinámico del sistema.

Page generated in 0.0459 seconds