• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 24
  • Tagged with
  • 171
  • 171
  • 81
  • 80
  • 55
  • 47
  • 29
  • 27
  • 18
  • 16
  • 14
  • 13
  • 13
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Predicción de signo semanales de las acciones de Falabella, Ripley, CENCOSUD y D&S con redes neuronales

Arancibia V., Franco, Loehnert T., Francisco, Soto R., Gerardo José January 2008 (has links)
Seminario para optar al título de Ingeniero Comercial, Mención Administración / En las diferentes disciplinas de la ciencia, podemos ver que todos los días se hacen esfuerzos importantes para poder determinar con mayor certeza los fenómenos a los que nos vemos afectados. Para ello, se han implementado diversas técnicas de predicción con el propósito de obtener mejores resultados frente a estos nuevos eventos. Dichos esfuerzos responden a la necesidad de las personas de disminuir el riesgo en la toma de decisiones y su aversión al riesgo en cuanto a las opciones que tienen que tomar. En las finanzas la historia es muy parecida. Durante mucho tiempo las personas han buscado poder acceder a mayor información, que les permita tomar decisiones de una forma correcta, en donde las posibilidades de "equivocarse" sean las mínimas y el éxito en la toma de decisiones sea lo más alto posible. A medida que ha pasado el tiempo, nos hemos visto expuestos a diversas técnicas para poder predecir los fenómenos futuros, ellas están basadas en la premisa de que los elementos que suceden en la práctica no son un efecto aleatorio, sino que representan de alguna manera tendencias que podrían ser explicadas de cierta forma por algún modelo. Es así como nacen, por ejemplo, las técnicas con esquema y comportamiento lineal, dentro de las cuales podemos encontrar diversas técnicas que han ayudado a muchos inversionistas a lo largo de los últimos años. A pesar de todo, hemos visto que esta técnica arroja resultados poco certeros si es que no se seleccionan de manera correcta las variables de entrada a incluir, como así también la cantidad de datos del tamaño muestral y la especificación del modelo. Es decir, esta nueva técnica no va a arrojar resultados correctos sólo por introducir los datos, sino que el poder identificar cuáles son las variables importantes que están influyendo en la variable de salida, la elección del conjunto de entrenamiento y su tamaño, nos aseguran un éxito relativamente mayor. En otras palabras, el planteamiento del problema va a ser un elemento clave para lograr una mayor capacidad predictiva. Además, hemos visto que la forma en que el modelo “estudia” o utiliza esta información, es también un factor muy importante para determinar con mayor certeza la predicción requerida. Es por esto que se han implementado técnicas en donde el modelo va agregando datos ha medida que va transcurriendo el tiempo, dándole un carácter más real, dado que las personas van haciendo lo mismo cuando toman decisiones, van agregando información actual para que su predicción tenga mayor validez.
62

Ajuste de modelo fenomenológico de celdas de baterías usando algoritmos evolutivos

Villa Suárez, Francisco Javier January 2015 (has links)
Ingeniero Civil Eléctrico / Los bancos de baterías de ion-litio son los más utilizados en aplicaciones de alta potencia como respaldos de sistemas eléctricos de potencia y vehículos eléctricos. Uno de los problemas de estos bancos es que pueden sufrir de envejecimiento prematuro por múltiples causas entre las que se destacan las altas temperaturas alcanzadas por las celdas en su operación. Una forma de minimizar el problema es utilizando algoritmos genéticos de optimización para optimizar el diseño de estos bancos. Estos algoritmos requieren evaluar muchas configuraciones, las que se pueden obtener construyéndolas o simulándolas, siendo estas últimas las más utilizadas debido a restricciones de tiempo. Dichas simulaciones se realizan generalmente en softwares denominados Computational Fluid Dynamics (CFD), estos requieren tiempos del orden de minutos o decenas de minutos por simulación. El tiempo requerido para completar una optimización suele ser prohibitivamente grande. Una forma de disminuir estos tiempos es utilizar modelos sustitutos. Con el fin de complementar el software CFD ANSYS, se creó un modelo sustituto basado en ecuaciones fenomenológicas sin embargo, éste difiere en algunos resultados obtenidos por el CFD por lo que es necesario ajustarlo. El objetivo general del presente trabajo de título es ajustar un modelo fenomenológico de modo que éste entregue valores más cercanos a los del software CFD, esto permitiría emplear dicho modelo como un sustituto del software en un algoritmo de optimización. Para lograr el objetivo anterior se hicieron modificaciones al modelo. Se escogieron los rangos de las variables de diseño para el modelo basados en el modelo fenomenológico original. Se seleccionaron tres expresiones del modelo a modificar: el factor de fricción, el coeficiente de arrastre y el número de Nusselt, en el modelo original estas se basadas en datos experimentales por lo que pueden tener un margen de error que mejorar. Se hicieron 1500 simulaciones en el software CFD los que separan en conjuntos de entrenamiento, validación y prueba. Con estos datos se ajustaron las tres expresiones del modelo antes indicadas. Para esto se usó como herramienta un algoritmo evolutivo llamado programación genética que permite generar expresiones matemáticas en forma de árbol. Como resultado final se obtuvo un conjunto de expresiones que representan los coeficientes a ajustar. Los resultados se construyeron de tal manera de mantener las propiedades físicas del problema. Estos hacen que el modelo fenomenológico tenga errores promedio de presión, velocidad y temperatura de 1[Pa], 1[m/s] y 1[°C] respectivamente. Se concluye que el modelo evolucionado se ajusta mejor a ANSYS, con expresiones que respetan las normas físicas del problema. Por lo tanto, la herramienta programación genética demostró ser útil en este tipo de problemas. Se recomienda finalmente corregir el modelo fenomenológico con las expresiones encontradas.
63

Estudio de detección y amortización de contención sobre la interfaz de red en sistemas Linux en escenarios de concurrencia sobre máquinas multicore

Blasco Valencia, Sebastián Ramón January 2016 (has links)
Magíster en Ciencias, Mención Computación / Ingeniero Civil en Computación / La proliferación de sistemas con múltiples núcleos de procesamiento ha transformado la aplicación de técnicas de programación paralela en uno de los tópicos más estudiados en los últimos años, ello en pos de mejorar los rendimientos generales de cualquier operación. Una aplicación práctica de dicho enfoque es en el procesamiento de requerimientos DNS, los cuales han evidenciado un gran aumento de la mano del desarrollo de la Internet y la masificación de distintos tipos de dispositivos que demandan conectividad, y que por sus características son un buen candidato a un enfoque de procesamiento paralelo. Sin embargo, distintas investigaciones han revelado que la aplicación de técnicas multithreading per se no son una estrategia que garantice un escalamiento en los resultados. Distintas empresas de carácter global (como Google, Facebook y Toshiba) así como investigaciones locales (de la mano de NIC Chile) han reconocido la existencia de este problema, reiterando responsabilidades a los Internet Sockets provistos por el kernel de Linux, los cuales al ser expuestos a un consumo concurrente degradan su capacidad de consumo de datos y rendimiento general, aún cuando existe poder de cómputo excedente. Así estas empresas y otros trabajos de investigación han planteado varias hipótesis teóricamente razonables para explicar dicho comportamiento pero sin concretar las mismas en términos experimentales que permitan confirmarlas o desmentirlas. La presente investigación plantea un estudio experimental del caso de los Sockets UDP que combina técnicas de profiling y testing de distinto nivel, a fin de verificar las principales sospechas vigentes que den explicación al problema en cuestión, reunidas en 3 líneas de trabajo: Problemas de distribución de carga, degradación del rendimiento por mecanismos de bloqueo y problemas de manejo de caché y defectos de contención de recursos. En la misma línea, se ilustra el impacto de fenómeno de contención de recursos en un escenario concurrente y su repercusión en los canales de comunicación en el procesamiento de datos en arquitecturas modernas multiprocesador como la estudiada. Es fruto de este trabajo un veredicto por cada estudio que concluya explicando las características inherentes a los Internet Sockets que expliquen su mal desempeño, bajo los distintos análisis efectuados. Posteriormente, la investigación se traslada a estudiar la técnica denominada reuseport, un desarrollo de ingenieros de Google que plantea una solución al problema presentado y que promete mitigar el efecto negativo causado por el uso de multithreading en el contexto estudiado. Así también, se repasan aspectos como el rendimiento de este enfoque, y ciertas debilidades del mismo. Finalmente, es producto del presente trabajo el planteamiento e implementación de una solución propia al problema que, inspirado en el diseño de reuseport e implementado como un módulo del kernel, provee un mecanismo de distribución de paquetes que permite optar a mejoras de desempeño en el procesamiento de los mismos usando técnicas de procesamiento paralelo clásicas. Una solución que --en su configuración estándar-- provee un rendimiento competitivo a reuseport, pero que gracias a ser ampliamente configurable permite postular a mejores resultados que reuseport en contextos no uniformes de distribución de paquetes.
64

Mejora en las simulaciones de un modelo hidrogeológico de base física mediante corrección complementaria de sus errores

Reyes Alcalde, Jorge Mauricio January 2016 (has links)
Magíster en Ciencias de la Ingeniería, Mención Recursos y Medio Ambiente Hídrico / En el ámbito de la modelación hidrogeológica, los Modelos de Base Física (MBF), como MODFLOW, se han utilizado desde hace décadas como herramienta de evaluación de recursos hídricos subterráneos. Estos modelos intentan replicar los niveles observados utilizando ecuaciones diferenciales parciales que incluyen parámetros que representan propiedades físicas del acuífero y del agua. La estimación de estos parámetros considera que las diferencias producidas entre lo simulado y lo observado (residuos o errores) corresponden a ruido blanco. Sin embargo, dada la complejidad de los medios subterráneos en cuanto a heterogeneidad y anisotropía, en la práctica las simulaciones numéricas presentan normalmente errores no sólo aleatorios sino también sistemáticos. Estos errores, usualmente asociados a problemas en la estimación de los parámetros físicos, pueden tener también otras causas, lo que sumado a la falta de mayor información, dificulta en definitiva una corrección apropiada al MBF. La cada vez mayor disponibilidad de información medida en terreno, permite explorar herramientas que antes estaban relegadas por la falta de datos observados. En este trabajo se ha desarrollado un procedimiento numérico para tratar con los errores sistemáticos de los MBF, estudiando su estructura temporal y espacial para modelar su comportamiento y corregir los resultados de forma externa y complementaria mediante un proceso que se alimenta de las mismas salidas del MBF y agrupado en un esquema denominado Modelo de Corrección Complementaria (MCC). El enfoque determinístico tradicional con que se estudia la hidrogeología es complementado con el enfoque estocástico de las herramientas utilizadas en el presente trabajo, aprovechando las potencialidades de ambos esquemas, donde las ventajas de uno compensan las limitaciones del otro. El MCC utiliza elementos de geoestadística para realizar correcciones espaciales y de redes neuronales para correcciones temporales, resultados que posteriormente se integran generando la corrección final. El MCC fue evaluado en el sector acuífero denominado Mapocho Alto, en la zona oriente del valle de Santiago, utilizando el MBF Maipo-Mapocho perteneciente a la Dirección General de Aguas y 54 pozos de observación distribuidos a lo largo de toda la zona. La aplicación del MCC al MBF muestra disminución en las desviaciones locales, distribución normal de los errores y reducciones en las correlaciones temporales y espaciales de los residuos y por tanto notables mejoras en los resultados respecto del MBF original. En términos globales el error medio absoluto (AME) disminuyó de 17.4 m a 3.4 m, la raíz del error cuadrado medio (RMS) bajó de 25.8 m a 7.2 m y el RMS normalizado (RMSN) se redujo de 7% a menos del 2%. En consecuencia, esta metodología se observa como una interesante posibilidad de actualizar un MBF evitando el trabajo y los costos de intervenir su estructura interna.
65

Predicate-preserving collision-resistant hashing

Camacho Cortina, Philippe January 2013 (has links)
Doctor en Ciencias, Mención Computación / Se estudian funciones de hash resistentes a colisiones (FHRC) que permiten validar eficientemente predicados sobre las entradas, usando solamente los valores de hash y certificados cortos. Para los predicados, consideramos conjuntos y cadenas de caracteres. La idea de computar el valor de hash de un conjunto con el fin de demostrar (no)pertenencia aparece en la literatura bajo el nombre de acumuladores criptográficos (Benaloh y De Mare, CRYPTO 1993). En esa tesis se propone primero un acumulador criptográfico que permite manipular conjuntos dinámicos (es decir donde es posible insertar y borrar elementos) y cuya seguridad no depende de ninguna autoridad de confianza. Luego mostramos que no existe ningún acumulador criptográfico que permite la actualización de todos los certificados en tiempo constante después de varias modificaciones. Este resultado resuelve un problema abierto propuesto por Nicolisi y Fazio en su estado del arte sobre acumuladores criptográficos (2002). La siguiente contribución de esa tesis es una FHRC que permite la comparación de cadenas largas según el orden lexicográfico. Usamos esa FHRC para construir un esquema de firma digital transitivo que permite autenticar árboles dirigidos. Esa construcción es la más eficiente a la fecha, y mejora de forma sustancial el resultado de Gregory Neven (Theoretical Computer Science 396). Finalmente usamos una FHRC similar para demostrar que una cadena corresponde a la expansión binaria de un cierto valor. Con la ayuda de técnicas de pruebas de nula divulgación usamos esa construcción para implementar un protocolo que permite revelar gradualmente un secreto. Luego este protocolo se usa para poder intercambiar de forma equitativa firmas cortas de Boneh-Boyen (EUROCRYPT 2004) sin la necesidad de recurrir a una autoridad de confianza. ----------- We study Collision-Resistant Hash Functions (CRHF) that allow to compute proofs related to some predicate on the values that are hashed. We explore this idea with predicates involving sets (membership) and strings (lexicographical order, binary decomposition). The concept of hashing a set in order to prove (non)membership first appears in the literature under the name of cryptographic accumulators (Benaloh and De Mare, CRYPTO 1993). In this thesis we start by introducing a cryptographic accumulator that handles dynamic sets (it is possible to insert and delete elements) and whose security does not involve a trusted third party. Then we show that no cryptographic accumulator can have the property of batch update (efficient refresh of all the proofs after several updates to the set via a single operation) and thus solve an open problem stated by Nicolisi and Fazio in their survey on cryptographic accumulators (2002). We then describe a CRHF that enables efficient comparison of large strings through their lexicographical order. We use this CRHF to build a practical transitive signature scheme to authenticate directed trees. To the best of our knowledge, this is the first practical construction for signing directed trees. In particular, signatures for paths in the tree are of constant size. This dramatically improves the previous better bound by Gregory Neven (Theoretical Computer Science 396). Finally we use a similar CRHF to prove that a binary string corresponds to the binary expansion of some other value. Using zero-knowledge techniques we build upon this construction to obtain a protocol for releasing a secret gradually. This tool is then used to fairly exchange Boneh-Boyen short signatures (EUROCRYPT 2004) without relying on a trusted third party.
66

Parallel methods for classical and disordered Spin models

Navarro Guerrero, Cristóbal Alejandro January 2015 (has links)
Doctor en Ciencias, Mención Computación / En las últimas décadas han crecido la cantidad de trabajos que buscan encontrar metodos eficientes que describan el comportamiento macroscópico de los sistemas de spin, a partir de una definición microscópica. Los resultados que se obtienen de estos sistemas no solo sirven a la comunidad fı́sica, sino también a otras áreas como dinámica molecular, redes sociales o problemas de optimización, entre otros. El hecho de que los sistemas de spin puedan explicar fenómenos de otras áreas ha generado un interés global en el tema. El problema es, sin embargo, que el costo computacional de los métodos involucrados llega a ser muy alto para fines prácticos. Por esto, es de gran interés estudiar como la computación paralela, combinada con nuevas estrategias algorı́tmicas, puede generar una mejora en velocidad y eficiencia sobre los metodos actuales. En esta tesis se presentan dos contribuciones; (1) un algoritmo exacto multi-core distribuido de tipo transfer matrix y (2) un método Monte Carlo multi-GPU para la sim- ulación del modelo 3D Random Field Ising Model (RFIM). La primera contribución toma ventaja de las relaciones jerárquicas encontradas en el espacio de configuraciones del problema para agruparlas en árboles de familias que se solucionan en paralelo. La segunda contribución extiende el método Exchange Monte Carlo como un algoritmo paralelo multi-GPU que in- cluye una fase de adaptación de temperaturas para mejorar la calidad de la simulación en las zonas de temperatura mas complejas de manera dinámica. Los resultados muestran que el nuevo algoritmo de transfer matrix reduce el espacio de configuraciones desde O(4^m ) a O(3^m ) y logra un fixed-size speedup casi lineal con aproxi- madamente 90% de eficiencia al solucionar los problemas de mayor tamaño. Para el método multi-GPU Monte Carlo, se proponen dos niveles de paralelismo; local, que escala con GPUs mas rápidas y global, que escala con múltiples GPUs. El método logra una aceleración de entre uno y dos ordenes de magnitud respecto a una implementación de referencia en CPU, y su paralelismo escala con aproximadamente 99% de eficiencia. La estrategia adaptativa de distribución de temperaturas incrementa la taza de intercambio en las zonas que estaban mas comprometidas sin aumentar la taza en el resto de las zonas, generando una simulación mas rápida aun y de mejor calidad a que si se usara una distribución uniforme de temperaturas. Las contribuciones logradas han permitido obtener nuevos resultados para el área de la fı́sica, como el calculo de la matriz transferencia para el kagome lattice en m = 9 y la simulación del modelo 3D Random Field Ising Model en L = {32, 64}.
67

Estudiando obras literarias con herramientas de procesamiento de lenguaje natural

Gouron, Romain Víctor Olivier January 2017 (has links)
Ingeniero Civil Matemático / En los últimos años, el procesamiento de lenguaje natural (Natural Language Proces-sing, o NLP) ha experimentado importantes avances. Específicamente, en 2013, Google lanzó "word2vec", un algoritmo que propone, a partir de un corpus dado, una representación vecto-rial de las palabras que lo componen. Dicho algoritmo ha tenido un gran éxito principalmentepor dos razones: La primera es el bajo costo computacional de su entrenamiento que permitióun uso masivo, mientras que la segunda es la intuitiva topología inducida por la representación vectorial ilustrada por el popular ejemplo: word2vec("king") - word2vec("man") + word2vec("woman") = word2vec("queen") En esta memoria, presentamos en un primer lugar un ejemplo ilustrativo del algoritmo "word2vec" mediante su implementación para determinar preguntas duplicadas en Quora, una competencia propuesta por el sitio Kaggle.com. Una vez familiarizados con el algoritmo, nos enfocamos en un problema más abierto que considera el análisis de 45 obras de literatura francesa. En particular, queremos atacar la siguiente pregunta: ¿cómo se puede definir una distancia entre dos libros? Después de haber preparado los libros con el propósito de poder usar el algoritmo, propondremos varios métodos originales para comparar pares de libros. Luego, nos interesará representar estas obras en un espacio, y determinar si dicha representación revela propiedades literarias de las obras consideradas tales como la paternidad o el estilo literario.
68

Contribuciones al suavizado de color, compresión y registro de nubes de puntos 3D

Navarrete, Javier 20 May 2016 (has links)
No description available.
69

Scene Understanding for Mobile Robots exploiting Deep Learning Techniques

Rangel, José Carlos 05 September 2017 (has links)
Every day robots are becoming more common in the society. Consequently, they must have certain basic skills in order to interact with humans and the environment. One of these skills is the capacity to understand the places where they are able to move. Computer vision is one of the ways commonly used for achieving this purpose. Current technologies in this field offer outstanding solutions applied to improve data quality every day, therefore producing more accurate results in the analysis of an environment. With this in mind, the main goal of this research is to develop and validate an efficient object-based scene understanding method that will be able to help solve problems related to scene identification for mobile robotics. We seek to analyze state-of-the-art methods for finding the most suitable one for our goals, as well as to select the kind of data most convenient for dealing with this issue. Another primary goal of the research is to determine the most suitable data input for analyzing scenes in order to find an accurate representation for the scenes by meaning of semantic labels or point cloud features descriptors. As a secondary goal we will show the benefits of using semantic descriptors generated with pre-trained models for mapping and scene classification problems, as well as the use of deep learning models in conjunction with 3D features description procedures to build a 3D object classification model that is directly related with the representation goal of this work. The research described in this thesis was motivated by the need for a robust system capable of understanding the locations where a robot usually interacts. In the same way, the advent of better computational resources has allowed to implement some already defined techniques that demand high computational capacity and that offer a possible solution for dealing with scene understanding issues. One of these techniques are Convolutional Neural Networks (CNNs). These networks have the capacity of classifying an image based on their visual appearance. Then, they generate a list of lexical labels and the probability for each label, representing the likelihood of the present of an object in the scene. Labels are derived from the training sets that the networks learned to recognize. Therefore, we could use this list of labels and probabilities as an efficient representation of the environment and then assign a semantic category to the regions where a mobile robot is able to navigate, and at the same time construct a semantic or topological map based on this semantic representation of the place. After analyzing the state-of-the-art in Scene Understanding, we identified a set of approaches in order to develop a robust scene understanding procedure. Among these approaches we identified an almost unexplored gap in the topic of understanding scenes based on objects present in them. Consequently, we propose to perform an experimental study in this approach aimed at finding a way of fully describing a scene considering the objects lying in place. As the Scene Understanding task involves object detection and annotation, one of the first steps is to determine the kind of data to use as input data in our proposal. With this in mind, our proposal considers to evaluate the use of 3D data. This kind of data suffers from the presence of noise, therefore, we propose to use the Growing Neural Gas (GNG) algorithm to reduce noise effect in the object recognition procedure. GNGs have the capacity to grow and adapt their topology to represent 2D information, producing a smaller representation with a slight noise influence from the input data. Applied to 3D data, the GNG presents a good approach able to tackle with noise. However, using 3D data poses a set of problems such as the lack of a 3D object dataset with enough models to generalize methods and adapt them to real situations, as well as the fact that processing three-dimensional data is computationally expensive and requires a huge storage space. These problems led us to explore new approaches for developing object recognition tasks. Therefore, considering the outstanding results obtained by the CNNs in the latest ImageNet challenge, we propose to carry out an evaluation of the former as an object detection system. These networks were initially proposed in the 90s and are nowadays easily implementable due to hardware improvements in the recent years. CNNs have shown satisfying results when they tested in problems such as: detection of objects, pedestrians, traffic signals, sound waves classification, and for medical image processing, among others. Moreover, an aggregate value of CNNs is the semantic description capabilities produced by the categories/labels that the network is able to identify and that could be translated as a semantic explanation of the input image. Consequently, we propose using the evaluation of these semantic labels as a scene descriptor for building a supervised scene classification model. Having said that, we also propose using semantic descriptors to generate topological maps and test the description capabilities of lexical labels. In addition, semantic descriptors could be suitable for unsupervised places or environment labeling, so we propose using them to deal with this kind of problem in order to achieve a robust scene labeling method. Finally, for tackling the object recognition problem we propose to develop an experimental study for unsupervised object labeling. This will be applied to the objects present in a point cloud and labeled using a lexical labeling tool. Then, objects will be used as the training instances of a classifier mixing their 3D features with label assigned by the external tool.
70

Recognition of driving objects in real time with computer vision and deep neural networks

Dominguez-Sanchez, Alex 19 December 2018 (has links)
Traffic is one of the key elements nowadays that affect our lives more or less in a every day basis. Traffic is present when we go to work, is on week ends, on holidays, even if we go shopping in our neighborhood, traffic is present. Every year, we can see on TV how after a bank holiday (United Kingdom public holiday), the traffic incidents are a figure that all TV news are obliged to report. If we see the accident causes, the ones caused by mechanical failures are always a minimal part, being human causes the majority of times. In our society, the tasks where technology help us to complete those with 100% success are very frequent. We tune our TVs for digital broadcasting, robots complete thousands of mechanical tasks, we work with computers that do not crash for months or years, even weather forecasting is more accurate than ever. All those aspects in our lives are successfully carried out on a daily basis. Nowadays, in traffic and road transport, we are starting a new era where driving a vehicle can be assisted partially or totally, parking our car can be done automatically, or even detecting a child in the middle of the road can be automatically done instead of leaving those tasks to the prone-to-fail human. The same features that today amaze us (as in the past did the TV broadcast in colour), in the future, those safety features will be a common thing in our cars. With more and more vehicles in the roads, cars, motorbikes, bicycles, more people in our cities and the necessity to be in a constant move, our society needs a zero-car-accidents conception, as we have now the technology to achieve it. Computer Vision is the computer science field that since the 80s has been obsessed with emulating the way human see and perceive their environment and react to it in an intelligent way. One decade ago, detecting complex objects in a scene as a human was impossible. All we could do was to detect the edges of an object, to threshold pixel values, detect motion, but nothing as the human capability to detect objects and identify their location. The advance in GPUs technology and the development of neural networks in the computer vision community has made those impossible tasks possible. GPUs now being a commodity item in our lives, the increase of amount and speed of RAM and the new and open models developed by experts in neural networks, make the task of detecting a child in the middle of a road a reality. In particular, detections with 99.79% probability are now possible, and the 100% probability goal is becoming a closer reality. In this thesis we have approached one of the key safety features in systems for traffic analysis, that is monitoring pedestrian crossing. After researching the state-of-the-art in pedestrian movement detection, we have presented a novel strategy for such detection. By locating a fixed camera in a place where pedestrians move, we are able to detect the movement of those and their direction. We have achieved that task by using a mix of old and new methodologies. Having a fixed camera, allow us to remove the background of the scene, only leaving the moving pedestrians. Once we have this information, we have created a dataset of moving people and trained a CNN able to detect in which direction the pedestrian is moving. Another work that we present in this thesis is a traffic dataset and the research with state-of.the-art CNN models to detect objects in traffic environments. Crucial objects like cars, people, bikes, motorbikes, traffic signals, etc. have been grouped in a novel dataset to feed state-of-the-art CNNs and we carried out an analysis about their ability to detect and to locate those objects from the car point of view. Moreover, with the help of tracking techniques, we improved efficiency and robustness of the proposed method, creating a system capable of performing real-time object detection (urban objects). In this thesis, we also present a traffic sign dataset, which comprises 45 different traffic signs. This dataset has been used for training a traffic sign classifier that is used a second step of our urban object detector. Moreover, a very basic but important aspect in safety driving is to keep the vehicle within the allowed space in the road (within the limits of the road). SLAM techniques have been used in the past for such tasks, but we present an end-to-end approach, where a CNN model learns to keep the vehicle within the limits of the road, correcting the angle of the vehicle steering wheel. Finally, we show an implementation of the presented systems running on a custom-built electric car. A series of experiments were carried out on a real-life traffic environment for evaluating the steering angle prediction system and the urban object detector. A mechanical system was implemented on the car to enable automatic steering wheel control.

Page generated in 0.1147 seconds