• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 607
  • 98
  • 68
  • 40
  • 26
  • 9
  • 5
  • 4
  • 1
  • Tagged with
  • 858
  • 397
  • 326
  • 326
  • 326
  • 326
  • 285
  • 235
  • 233
  • 181
  • 125
  • 123
  • 116
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Diseño e implementación de un sistema embebido generador de efectos de audio usando FPGA

León Ruiz, Julio Humberto, Velarde Zarauz, Roberto Alonso 08 December 2015 (has links)
El presente proyecto tiene como objetivo principal diseñar e implementar un generador de efectos de audio en la tarjeta XUP Virtex-II PRO, fabricada por Digilent Inc. en conjunto con Xilinx. El proyecto involucró tres fases de desarrollo: aprendizaje de la arquitectura, lenguaje (VHDL) y herramientas para configurar el FPGA, diseño del sistema embebido (arquitectura y efectos como periféricos) e implementación del sistema sobre la tarjeta. La parte del aprendizaje de la arquitectura es fundamental en este proyecto de tesis. Uno de los primeros capítulos cubre perfectamente esta parte. Allí se explica, en detalle, cada uno de los diferentes elementos del FPGA Virtex-II PRO. Asimismo, se ha dedicado un capítulo entero para explicar a detalle las diferentes herramientas que Xilinx ofrece para diseñar e implementar proyectos, especialmente, los de sistemas embebidos. La aplicación del lenguaje VHDL es también presentada. / Tesis
302

FADRA: A CPU-GPU framework for astronomical data reduction and Analysis

Concha Ramírez, Francisca Andrea January 2016 (has links)
Magíster en Ciencias, Mención Computación / Esta tesis establece las bases de FADRA: Framework for Astronomical Data Reduction and Analysis. El framework FADRA fue diseñado para ser eficiente, simple de usar, modular, expandible, y open source. Hoy en día, la astronomía es inseparable de la computación, pero algunos de los software más usados en la actualidad fueron desarrollados tres décadas atrás y no están diseñados para enfrentar los actuales paradigmas de big data. El mundo del software astronómico debe evolucionar no solo hacia prácticas que comprendan y adopten la era del big data, sino también que estén enfocadas en el trabajo colaborativo de la comunidad. El trabajo desarollado consistió en el diseño e implementación de los algoritmos básicos para el análisis de datos astronómicos, dando inicio al desarrollo del framework. Esto consideró la implementación de estructuras de datos eficientes al trabajar con un gran número de imágenes, la implementación de algoritmos para el proceso de calibración o reducción de imágenes astronómicas, y el diseño y desarrollo de algoritmos para el cálculo de fotometría y la obtención de curvas de luz. Tanto los algoritmos de reducción como de obtención de curvas de luz fueron implementados en versiones CPU y GPU. Para las implementaciones en GPU, se diseñaron algoritmos que minimizan la cantidad de datos a ser procesados de manera de reducir la transferencia de datos entre CPU y GPU, proceso lento que muchas veces eclipsa las ganancias en tiempo de ejecución que se pueden obtener gracias a la paralelización. A pesar de que FADRA fue diseñado con la idea de utilizar sus algoritmos dentro de scripts, un módulo wrapper para interactuar a través de interfaces gráficas también fue implementado. Una de las principales metas de esta tesis consistió en la validación de los resultados obtenidos con FADRA. Para esto, resultados de la reducción y curvas de luz fueron comparados con resultados de AstroPy, paquete de Python con distintas utilidades para astrónomos. Los experimentos se realizaron sobre seis datasets de imágenes astronómicas reales. En el caso de reducción de imágenes astronómicas, el Normalized Root Mean Squared Error (NRMSE) fue utilizado como métrica de similaridad entre las imágenes. Para las curvas de luz, se probó que las formas de las curvas eran iguales a través de la determinación de offsets constantes entre los valores numéricos de cada uno de los puntos pertenecientes a las distintas curvas. En términos de la validez de los resultados, tanto la reducción como la obtención de curvas de luz, en sus implementaciones CPU y GPU, generaron resultados correctos al ser comparados con los de AstroPy, lo que significa que los desarrollos y aproximaciones diseñados para FADRA otorgan resultados que pueden ser utilizados con seguridad para el análisis científico de imágenes astronómicas. En términos de tiempos de ejecución, la naturaleza intensiva en uso de datos propia del proceso de reducción hace que la versión GPU sea incluso más lenta que la versión CPU. Sin embargo, en el caso de la obtención de curvas de luz, el algoritmo GPU presenta una disminución importante en tiempo de ejecución comparado con su contraparte en CPU. / Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1120299
303

Las redes sociales y su incidencia en la forma en que los jóvenes se comunican y utilizan la lengua. Perspectiva de los docentes de lenguaje y comunicación / Perspectiva de los docentes de lenguaje y comunicación

González Hernández, Melisa January 2015 (has links)
Magíster en Educación mención Currículo y Comunidad Educativa / Internet, a través de la aplicación de las tecnologías de la información y las comunicaciones, puede generar diversos beneficios para enfrentar mejor un mundo globalizado. Sin embargo, también es posible que el cibernauta pueda navegar en completa libertad, transgrediendo normas de privacidad e inclusive creando y transmitiendo contenido grosero o violento. Por tanto, existen múltiples finalidades, sobre todo en lo que respecta a un elemento fundamental de la web, las redes sociales. En nuestro país, el uso de estas plataformas involucra a gran cantidad de usuarios, principalmente jóvenes, porque para ellos aprender de la web forma parte de un contexto familiar que los configura como nativos digitales. Esto ha provocado un cambio sociocultural a nivel familiar e individual, sobre todo en lo que respecta a su relación con los inmigrantes digitales. Crisis que repercute en la educación y en cómo la escuela asume su rol en este nuevo escenario. Es por ello que es necesario conocer cuáles son los significados que los docentes de Lenguaje y Comunicación le otorgan al uso de estas tecnologías y su incidencia en forma en que los jóvenes se comunican y utilizan la lengua, además del rol que los educadores le asignan a la educación escolar respecto a la orientación y utilización de esta tecnologías. Para cumplir con este objetivo, se analiza la visión de profesores de dos establecimientos educativos diferentes, quienes, a través de la técnica de la entrevista en profundidad, darán a conocer su perspectiva frente a este fenómeno
304

Fractura de Polígonos Complejos

Jorquera Ahumada, Gastón Ignacio January 2010 (has links)
Uno de los procesos del diseño de circuitos integrados digitales es la preparación de la información de las máscaras, o MDP por sus siglas en inglés (Mask Data Preparation). La preparación de máscaras recibe el diseño de un circuito y lo convierte en una secuencia de instrucciones que son leídas por una máquina generadora de máscaras. Este proceso es realizado por una serie de algoritmos, ordenados en forma de pipeline, donde la salida de uno es la entrada del siguiente. Uno de los primeros algoritmos ejecutado es el llamado Windfrac, encargado de particionar, o fracturar, polígonos complejos en conjuntos de rectángulos y trapecios horizontales (cuyos lados paralelos son horizontales). Esta fractura inicial tiene gran importancia ya que, al reducir los distintos posibles polígonos de entrada a sólo rectángulos y trapecios horizontales, los algoritmos ejecutados después pueden ser simplificados e incluso tomar menos tiempo. En esta memoria se estudia y documenta el funcionamiento del algoritmo Windfrac, y se reimplementa de una forma más legible y mantenible. El estudio del algoritmo, el cual fue el tema central y lo que más tiempo ocupó, contempla la revisión de ciertos conceptos geométricos y de geometría computacional necesarios para la total comprensión de éste. Debido a que sólo existe un paper que explica un algoritmo parecido, toda la información acerca de cómo funciona Windfrac debió ser deducido a partir del código fuente mismo, cuya implementación era muy difícil de leer. El funcionamiento fue descifrado, principalmente, utilizando casos de prueba y depuradores para ir viendo, paso a paso, lo que el algoritmo hacía dado un polígono. Una vez entendido el funcionamiento completo de Windfrac se reimplementó teniendo en cuenta legibilidad, mantenibilidad y ciertos detalles para mejorar la calidad de los resultados. La legibilidad y mantenibilidad se lograron con una implementación modular, es decir, utilizando estructuras de datos más especializadas y separando funcionalidades en archivos y funciones. La mejora de la calidad se logró escribiendo código para manejar esos casos particulares. Finalmente, se realiza una discusión acerca del tema en estudio y sobre posibles mejoras que pueden ser llevadas a cabo en el futuro, las cuales podrían tener un gran impacto en el desempeño de la aplicación completa. Y, se concluye que el algoritmo fue satisfactoriamente comprendido y que su reimplementación soluciona los problemas de la implementación antigua.
305

Servicio de firma digital en páginas para el Depósito central de valores

Estevez Garay, Daniel Eduardo January 2013 (has links)
Ingeniero Civil en Computación / El Depósito Central de Valores (DCV) es una Sociedad Anónima regulada por la Super-intendencia de Valores y Seguros, está facultada para recibir en depósito valores de oferta pública y facilitar así las operaciones de transferencia de dichos valores entre los depositantes. Además, procesa y registra electrónicamente las operaciones de transferencia efectuadas en las bolsas de valores y en el mercado extrabursátil. También coordina y suministra la información necesaria para la liquidación financiera de las operaciones. Por las facultades que implementa, el DCV provee un servicio para firmar digitalmente el contenido de las páginas web que publica. Con esto asegura autenticación, integridad y no repudio de las operaciones. Actualmente la tecnología que se utiliza para implementar el servicio de firma digital en página web esta obsoleta. El objetivo de esta memoria es actualizar éste por uno que no sea obsoleto y sea igual o más eficiente que la solución actual. Se desarrolló una aplicación orientada al servicio y utilizando estilo de arquitectura REST. Además se aplicó metodología iterativa identificando de forma temprana los actores internos del DCV que proveen requerimientos sobre el desarrollo. La solución desarrollada es más eficiente que la solución anterior y es compatible con los navegadores y tecnologías actuales. Se resuelve un problema típico de seguridad en plataforma empresarial de forma simple y con una arquitectura bien definida. Actualmente la aplicación está en proceso de instalación en ambiente de producción siendo certificada por las áreas de calidad interna del DCV. Como resultado adicional se obtiene una arquitectura de firma de páginas web la cual puede ser utilizada como base de solución de esquema de firma digital en futuros proyectos.
306

Sistema interactivo por voz para robot PR2

Guerrero Díaz, Sebastián Adolfo January 2015 (has links)
Ingeniero Civil Eléctrico / En el marco de la línea de investigación: Interacción Humano Robot, el lenguaje es un candidato natural para la interacción con máquinas y robots. En particular las tecnologías de procesamiento y transmisión voz juegan un rol fundamental en lo que respecta al reconocimiento automático de la voz o \gls{ASR}, ya que como concepto entrega la habilidad de escuchar al momento de interaccionar con un robot.\\ El objetivo principal de esta memoria es implementar una aplicación para comandar a un \gls{PR2} a través de instrucciones por voz, utilizando arquitectura cliente-servidor mediante un micrófono como elemento para muestrear la señal de audio o comando enunciado por el usuario. \\ En el desarollo de la aplicación se crea una interfaz de interacción con el usuario que permite grabar audio usando HTML5/CSS/JS. Para el funcionamiento de la aplicación la comunicación con todos los servidores se realiza a través de \textit{socket} TCP/IP y el procesamiento de la señal de audio se realiza utilizando KALDI, estado del arte en \gls{ASR}. Luego de obtener el resultado de la transcripción de la elocución grabada por el usuario, es analizada por el \textit{Robot \gls{PR2}} y entrega la respuesta del comando de voz mediante el \gls{TTS} Festival y ejecuta el movimiento correspondiente al requerimiento del usuario.\\ A partir esta investigación y el desarrollo de la aplicación se concluye que es posible comandar el \textit{Robot \gls{PR2}} de forma exitosa mediante la interfaz de interacción con el usuario. Dicha aplicación puede ser instalada en cualquier versión del sistema operativo Ubuntu. Utilizando un modo de conexión local para los servidores: ASR y WEB, se cumple el objetivo de realizar procesamiento en tiempo real. El sistema de reconocimiento de voz obtiene un 10\% de \gls{WER} cuando es probado con el mismo micrófono con el que se construye la base de datos, que corresponde a un conjunto de 4991 elocuciones de base de datos Latino-4k y 200 elocuciones grabadas en el Laboratorio de Procesamiento y Transmisión de Voz LPTV, todas a una frecuencia de 16~kHz y 16~bit.\\ El trabajo futuro considera la realización de una base de datos independiente del hablante y género. Considerar el efecto del canal en el \gls{ASR}: ambiente y micrófonos. Debido a la forma de construcción de la aplicación, ésta es escalable ,por lo que es factible complementar el diccionario utilizado en el \gls{ASR} y la personalización de los movimientos.
307

Diseño y Desarrollo de un Algoritmo de Detección de Patrones de Copia en Documentos Digitales

Zarate Rodriguez, Rodrigo Enrique January 2011 (has links)
Este trabajo de Tesis tiene por objetivo desarrollar un algoritmo aplicado a la detección de patrones de similitud entre documentos digitales, en el marco del proyecto Fondef D081-1015, DOCODE (DOcument COpy DEtector). Hay dos hechos fundamentales: no existe una cultura de educar al alumnado en base al respeto por la propiedad intelectual y el actual crecimiento del uso de las herramientas computacionales para la educación. Esto ha derivado en una práctica cada vez más que frecuente y con antecedentes a nivel internacional denominada “copy&paste”. Este problema ha conducido a desarrollar metodologías entre los alumnos para evitar ser detectados a la hora que deciden voluntaria o involuntariamente plagiar una o más fuentes, convirtiéndose para el profesor, en una lucha constante y muy lenta, o casi imposible de manejar dadas las cantidades de alumnos que poseen. Este trabajo se basa en la hipótesis de que es posible determinar la similitud entre documentos digitales mediante la detección de patrones de palabras aplicado al idioma español de mejor manera que traducir un detector de copia de una lengua extranjera, como se ha estado haciendo en los últimos años. El idioma español posee una estructura específica y una gran de sinonimia que hace que no sea eficiente tan solo aplicar los criterios lógicos usados en otros idiomas. Bajo este contexto, se crea un algoritmo basado en la búsqueda de secuencias comunes entre unidades de copia y se construye, mediante esto y una medida de distancia de edición, un prototipo capaz de tomar un grupo de documentos y entregar un indicador normalizado de la similitud existente entre dos documentos en particular. Este prototipo se somete a un experimento sobre una muestra de la base de documentos PAN-2010, en conjunto con otros detectores de similitud, el algoritmo LCS y la comparación por n-Gramas, bajo distintas condiciones: unidades de copia y tipos de copia, obteniendo distintos rendimientos en base a los indicadores: precisión, accuracy, recall y F-measure. El principal resultado encontrado es que considerando un mínimo de un 81% del largo de la unidad de copia deseada, es posible detectar copia independiente del caso estudiado. Se obtuvo una precisión y accuracy del 100% para la copia textual en todas unidades de copia. El modelo se encuentra bien calibrado para la copia no textual con un accuracy del 85.3%. El output se encuentra normalizado para entregar al usuario un resultado interpretable en términos porcentuales del nivel de similitud entre documentos. Se recomiendan unidades de medida como la oración o el párrafo, pues al tener un alfabeto finito y un algoritmo basado en la detección de secuencias comunes, el algoritmo sobrevalua la similitud en unidades de detección tan pequeñas, como la palabra. La principal línea de acción para el trabajo futuro es enfocarse en la detección de la copia no textual. Se aconseja la utilización de algoritmos de rankeo, específicamente n-Gramas, en conjunto con algoritmos de frecuencias de palabras, como TF-IDF, pues esto permite por un lado disminuir el universo de comparación y por otro, poder asociar determinados conceptos a temas característicos y adaptar la detección de similitud a un tema o área en particular. Finalmente, dadas las conversaciones con expertos en lingüística, en el largo plazo es ideal manejar indicadores asociados al individuo, de manera de detectar saltos extraordinarios en su desarrollo lingüístico, como lo son el léxico, la ortografía y la redacción, tarea que se basa en la hipótesis de que un profesor puede filtrar de manera menos estricta un comportamiento en base a sus experiencias anteriores con el individuo en particular.
308

Estudio teórico-práctico de la Cameroa Obscura y de la Camera Lucida. Una nueva propuesta de máquina de dibujo digital

FAUSTINO DOS SANTOS, JOÂO PEDRO 23 November 2012 (has links)
La tesis propone la creación y el desarrollo de una nueva máquina de dibujo digital en la que el acto de dibujar permita ver más y conocer mejor. Con base en los estudios teóricos-prácticos de la cámara oscura y la cámara lúcida, como dispositivos para dibujo de imagen. En la primera parte se presenta la investigación teórica-práctica de estos dispositivos, con especial énfasis en el análisis histórico y conceptual de la evolución tecnológica que se complementa con la utilización de las máquinas como un medio para representar y cuestionar la realidad. Este análisis se complementa con la presentación de otras referencias que van desde la ingeniería informática a las artes visuales, durante el siglo 20 hasta la actualidad, como contribución a un conocimiento actualizado de los conceptos subyacentes del dibujo y los mecanismos que aquí se presentan. En los Capítulos 2 a 4 se realiza un estudio de los mecanismos de percepción visual que participan en este tipo de dibujo (cap.2), el dibujo como un medio para la comprensión (cap.3), y la localización como una posible intención de ver más (cap. 4). Estos tres capítulos son transversales en toda la tesis. En la segunda parte, los experimentos que apoyan la metodología utilizada y que están en el origen de las diferentes versiones de la máquina son presentados. El módulo computacional está programado en Pure Data, y toda la máquina se compone como un sistema modular, con una gran elasticidad y posibilidades de desarrollo. El uso de la máquina permite la percepción del acto de dibujar, y al mismo tiempo indica nuevas posibilidades para futuros desarrollos. / Faustino Dos Santos, JP. (2012). Estudio teórico-práctico de la Cameroa Obscura y de la Camera Lucida. Una nueva propuesta de máquina de dibujo digital [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17867 / Palancia
309

Factores de la omnicanalidad en relación a la intención de compra en los canales digitales de tiendas por departamento de la categoría de prendas de vestir casuales / Factors of the omnichannel in relation to the intention to purchase in the digital channels of department stores of the category of casual clothing

García  Salcedo, Luis Gustavo 22 February 2020 (has links)
En la presente investigación se busca conocer si los factores de la omnicanalidad tienen relación en la intención de compra en los canales digitales en tiendas por departamento de la categoría de prendas de vestir casuales; en hombres y mujeres de 18 a 50 años de Lima Metropolitana. Por consiguiente, el objetivo principal es ver si existe relación entre los factores de la omnicanalidad y la intención de compra del consumidor. Así mismo, las variables tomadas son: la Expectativa de rendimiento, Seguridad percibida, Expectativa de esfuerzo, Innovación personal, Influencia social, Hábito y Motivación Hedónica. Para ello, se realizó un tipo de investigación experimental para validar las distintas hipótesis. Asu vez, se recopiló información cuantitativa (encuesta a 318 personas) y cualitativa (entrevistas personales y focus groups). Por último, se buscarán aprobar las distintas hipótesis mediante la prueba de Pearson para posteriormente proponer estrategias que generan valor para las empresas en el rubro. / In the present investigation, it is sought to know if the omnichannel factors are related to the purchase intention in digital channels in department stores of the category of casual clothing; in men and women aged 18 to 50 years of Metropolitan Lima. Therefore, the main objective is to see if there is a relationship between omnichannel factors and the consumer's intention to buy. Likewise, the variables taken are: Performance Expectation, Perceived Security, Expectation Expectation, Personal Innovation, Social Influence, Habit and Hedonic Motivation. For this, a type of experimental research was carried out to validate the different hypotheses. Likewise, quantitative information (survey of 318 people) and qualitative information (personal interviews and focus groups) were collected. Finally, we will seek to approve the different hypotheses through the Pearson test and then propose strategies that generate value for companies in the field. / Trabajo de investigación
310

Improvements in illumination compensation for face recognition under noncontrolled illumination conditions

Castillo Faune, Luis Ernesto January 2017 (has links)
Doctor en Ingeniería Eléctrica / Face recognition depends strongly on illumination conditions, especially in non-controlled scenarios where face illumination is not homogeneous. For this reason, illumination compensation is crucial in this task. Several methods for illumination compensation have been developed and tested on the face recognition task using international available face databases. Among the methods with best results are the Discrete Cosine Transform (DCT), Local Normalization (LN) and Self-Quotient Image (SQI). Most of these methods have been applied with great success in face recognition using a principal component classifier (PCA). In the last decade, Local Matching Gabor (LMG) classifiers have shown great success in face classification relative to other classifiers. In all cases, the illumination compensation methods improve the face recognition rates in unevenly illuminated images, but affect negatively in some well illuminated images. The aim of this thesis is to propose improvements to the current illumination compensation methods to obtain improved face recognition rates under different illumination conditions. Using genetic algorithms (GAs), parameters of the SQI method were selected to improve face recognition. The parameters optimized by the GA were: the fraction of the mean value within the region for the SQI, selection of Arctangent, Sigmoid, Hyperbolic Tangent or Minimum functions to eliminate noise, and the weight values of each filter are selected within a range between 0 and 1. The results obtained after using the proposed method were compared to those with no illumination compensation and to those previously published for SQI method. Four internationally available face databases were used: Yale B, CMU PIE, AR, Color FERET (grayscaled), where the first three contain face images with significant changes in illumination conditions, and the fourth one contains face images with small changes in illumination conditions. The proposed method performed better than SQI in images with non-homogeneous illumination. In the same way, GAs were used to optimize parameters of the modified LN and SQI methods in cascade for illumination compensation to improve face recognition. The main novelty of this proposed method is that it applies to non-homogeneous as well as homogeneous illumination conditions. The results were compared to those of the best illumination compensation methods published in the literature, obtaining 100% recognition on faces with non-homogeneous illumination and significantly better results than other methods with homogeneous illumination. Also, the DCT, LN, and SQI illumination compensation methods were optimized using GAs to be used with the LMG face classifier. Results were tested on the FERET international face database. Results show that face recognition can be significantly improved by modified versions of the current illumination compensation methods. The best results are obtained with the optimized LN method which yields a 31% reduction in the total number of errors in the FERET database. Finally, an extension of the LN method using Kolmogorov-Nagumo-based statistics was proposed to improve face recognition. The proposed method is a more general framework for illumination normalization and it was showed that LN is a particular case of this framework. The proposed method was assessed using two different classifiers, PCA and LMG, on the standard face databases Extended Yale B, AR and Gray FERET. The proposed method reached significantly better results than those previously published for other versions of LN on the same databases.

Page generated in 0.5137 seconds