• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 863
  • 57
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 930
  • 244
  • 179
  • 174
  • 156
  • 154
  • 147
  • 141
  • 136
  • 123
  • 120
  • 120
  • 120
  • 120
  • 120
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Memorias matriciales correlacionadas cuánticas, simples y mejoradas: una propuesta para su estudio y simulación sobre GPGPU

Mastriani, Mario 12 September 2014 (has links)
En este trabajo se desarrollan-en orden-los fundamentos de la Física Cuántica, y de la Computación Cuántica, una noción completa de las arquitecturas multicapa tolerante a fallos para la implementación física de una computadora cuántica, para completar los primeros cuatro capítulos con las técnicas propias para la simulación de este nuevo paradigma sobre placas multicore del tipo General-Purpose Computing on Graphics Processing Units (GPGPU). La segunda parte de este trabajo consiste en los tres capítulos inmediatamente siguientes, los cuales suman 10 innovaciones en este campo, a saber: 1. el Proceso de Ortogonalización Booleano (POB) con su inversa, 2. el Proceso de Ortogonalización de Gram-Schmidt Mejorado (POGSMe) con su inversa, 3. el Proceso de Ortogonalización Cuántico (POCu) con su inversa, 4. la Red Ortogonalizadora Booleana Sistólica (ROBS), 5. la Red Ortogonalizadora Cuántica Sistólica (ROCS), y 6. una métrica que llamamos Tasa Dimensional de Entrada-Salida (TDES) la cual fue creada para monitorear el impacto del mejorador para la estabilidad del Proceso Ortogonalizador de Gram-Schmidt en el costo computacional final. 7. una versión mejorada de las ya conocidas Memorias Matriciales Correlacionadas Booleanas (MMCB), es decir, la MMCB mejorada (MMCBMe) en base al innovador Proceso de Ortonormalización Booleano (POB) del Capítulo 5, 8. la Memoria Matricial Correlacionada Cuántica (MMCCu), y 9. la MMCCu Mejorada (MMCCuMe) en base al Proceso de Ortogonalización Cuántico (POCu) implementado en forma sistólica y conocida como la Red Ortogonalizadora Cuántica Sistólica (ROCS) del Capítulo 5.10. el Capítulo 7, el cual contiene las simulaciones computacionales, las cuales verifican fehacientemente la mejora en la performance de almacenamiento como resultado de aplicar el POCu a las MMCCu, así como una serie de simulaciones relativas a arreglos uni, bi y tridimensionales, los cuales representan señales, imágenes (multimediales, documentales, satelitales, biométricas, etc.) y video o bien imágenes multi e hiper-espectrales satelitales, tomografías o resonancias magnéticas seriadas, respectivamente. Dichas simulaciones tienen por objeto verificar los atributos de ortogonalización de los algoritmos desarrollados. Dado que es la primera vez que en la literatura se realizan este tipo de simulaciones en GPGPU para esta tecnología, el Capítulo 7 representa en si mismo el décimo aporte del presente trabajo a esta área del conocimiento. Un último capítulo reservado a conclusiones parciales por capítulo y generales del trabajo como un todo.
112

Búsqueda Aproximada Permitiendo Errores

Telha Cornejo, Claudio Andrés January 2007 (has links)
El problema de la búsqueda aproximada en texto consiste en buscar las ocurrencias de un patrón en un texto, permitiendo que las ocurrencias no sean necesariamente copias exactas del patrón, sino que sean su cientemente próximas de acuerdo a alguna métrica particular. El problema tiene gran importancia en áreas como recuperación de la información, biología computacional y bases de datos de texto. El algoritmo de Chang y Marr (1994) es un algoritmo teóricamente óptimo en la complejidad de tiempo promedio para este problema. Posteriormente, Fredriksson y Navarro (2004) diseñan un algoritmo teóricamente óptimo que además es competitivo en la práctica. Esto hace pensar que el desarrollo de algoritmos exactos para este problema está llegando a su límite. El objetivo de este trabajo es enfrentar el problema de búsqueda utilizando una formulación débil que tiene potenciales aplicaciones prácticas y admite soluciones más e cientes que aquellas que se obtienen con algoritmos exactos, a cambio de posibles errores en la respuesta. Denominamos nuestra formulación búsqueda aproximada permitiendo errores. La principal contribución de este trabajo es la introducción y de nición formal del problema de búsqueda aproximada permitiendo errores para el caso en-línea, es decir, cuando se asume que no hay tiempo o espacio su ciente como para preprocesar el texto. Se presentan algoritmos para esta formulación, apoyados por análisis teóricos y experimentales que permiten entender su competitividad con respecto a algoritmos exactos para búsqueda aproximada. Los algoritmos propuestos son probabilísticos, permitiendo perder ocurrencias con cierta probabilidad y disminuyendo el tiempo de ejecución a cambio. Por ejemplo, sobre lenguaje natural estos algoritmos pueden recuperar el 95 % de las ocurrencias ocupando sólo el 15 % del tiempo utilizado por algoritmos exactos similares. El trabajo se complementa con algunas extensiones de las ideas desarrolladas para el caso en línea a otros problemas relacionados. En particular, se estudia cómo adaptar las ideas planteadas al problema de búsqueda aproximada múltiple, donde varios patrones se buscan sobre un mismo texto y a la búsqueda fuera de línea, en la cual se permite preprocesar el texto. Ambas extensiones muestran la robustez de los conceptos introducidos en este trabajo.
113

Sistema inteligente para calificar alpacas en función su fibra fina

Valcarcel Ascencios, Sergio Paulo, Valcarcel Ascencios, Sergio Paulo January 2011 (has links)
En la secuencia de la cadena de valor de la fibra de alpaca,la medición es realizada por observación basada en el conocimiento tradicional. La valorización depende en muchos casos de la experiencia empírica, lo cual dificulta entender la riqueza intrínseca del hato.Dando como consecuencia vellonespoco sostenibles en el tiempo.La contribución principal, pretende comprender el potencial de las alpacas, no sólo por el diámetro de la fibra, sino por sus otras características, estandarizando criteriosa través de los estereotipos. Este trabajo está sustentado sobre publicaciones relacionadas a las características de la fibra en sus diferentes dimensiones, proponiendo una solución que permita asignar un valor característico en los individuos, que resulte equiparable entre su morfología y genética. Diseñando un modelo de redes neuronales artificiales y reglas de asociación, quehizo posible transformar la percepción de los expertos en un valor característico definida por una escala de calificación. Se realizaron diferentes ensayos experimentales en Cusco, Puno y Huancayo. Aplicando la prueba de Friedman, como método de comparación entre tres tratamientos. Se utilizó el estadístico (H0, α<0.05), como parámetro de decisión. Finalmente, el artefactorespondió en forma similar a los otros tratamientos, manteniendo el estándar de la NTP 231.300:2004 y elOFDA-100. Con cierto grado de madurez, este artefacto puede convertirse en referente nacional y ayudar a la toma de decisiones en estrategias de mejoramiento de la especie. -- Palabras clave: Redes Neuronales Artificiales, Reglas de asociación, Fibra Fina, OFDA / -- In the sequence of the value chain the alpaca fiber, the measurement it’s made by observation and supported on classic knowledge. The quality depends in many cases of empirical experience, difficult to understand the herd intrinsic richness. Giving due fleece unsustainable in the time. The main contribution aims understand his alpaca potential. Don’t only for fiber diameter, but for his other characteristics been to standard criteria through of the sterotypes. This job to be supported of publish relational with fiber characteristics in his dimensions different, proposing a solve how allow to assign a characteristic value individuals, resulting comparable between his genetic and morphologic. Designing a model artificial neural network and rules of association, it made possible to transform the perception of the experts on characteristics value defined for a scale of qualify. Were different tests experimental in Cusco, Puno and Huancayo, applying the test of Friedmann, as method of comparison between three treatments. So used the statistical (H0, α<0.05), as parameter of decision. Finally, the artifact responded in form similar from others treatments, keeping the standard NTP 231.300:2004 y el OFDA-100.With true grade of maduraty, this artifact can become in a national framework and to help to making decision in strategies of improvement of the species. -- Keywords: Artificial Neural Network, Rules Association, Fine Fiber, OFDA. / Tesis
114

Predicción de signo a tres semanas de la acción caterpillar con redes neuronales

Bórquez Ramírez, Pedro, Villanueva Ramos, Jorge January 2006 (has links)
Tesis para optar al grado de Magíster en Finanzas
115

Diesño e Implementación de un Esquema de Encriptación y Firmas Basado en Identidad para Dispositivos BUG

Moreno Vilicich, María Francisca January 2010 (has links)
Históricamente, la autentificación de mensajes se ha manejado a través de firmas digitales basadas en certificados, usualmente emitidos por una entidad neutral a la comunicación y de confianza de todas las partes. Sin embargo, esta solución no siempre es posible de implementar, debido a factores como los costos, el tiempo limitado de vigencia de los certificados, la necesidad de depositar la confianza en un tercero, y por último el poder, usualmente limitado, de procesamiento de las máquinas. Además los certificados usualmente son muy pesados, y deben adjuntarse a cada mensaje enviado para mostrar su autenticidad, lo cual dificulta su implementación en dispositivos con poca capacidad de almacenamiento. La Criptografía basada en identidad (o Identity Based Cryptography, IBC) es una alternativa al escenario presentado en sistemas que desean autentificar mensajes, pero no quieren (o no pueden) depender de certificados. Esto se logra usando la identidad de la persona (o del dispositivo) como semilla para la generación de claves por parte de un servidor maestro dentro del mismo sistema. De esta forma, las firmas son mucho más ligeras que los certificados, agilizando las comunicaciones. Además, como las identidades son públicas, cualquier miembro de la red puede verificar la autenticidad de un mensaje sin necesidad de hacer consultas online al ente central. Por otro lado, las lecturas biométricas son la forma más usada de comprobar la identidad de una persona, ya sea a través de las huellas digitales, reconocimiento facial, lectura de iris o incluso análisis de forma de las orejas. Esto debido a que los rasgos mencionados son únicos para la persona, e incluso los dispositivos actuales permiten reconocer rasgos latentes, es decir que no poseen señales biológicas, de "vivos" y así prevenir el uso de guantes, máscaras, etc. El tema de esta tesis es desarrollar una alternativa de sistema de seguridad para dispositivos de procesamiento limitado. El sistema utiliza firma de mensajes basada en identidad, pero usando las huellas digitales tanto para enlazar un usuario específico a un dispositivo, como para la protección de los datos privados del usuario. El sistema debe poder extenderse para poder incorporar encriptación basada en identidad también. La primera parte de este trabajo consiste en un estudio de las componentes a usar, tanto de hardware como de software, incluyendo los conceptos básicos necesarios para su diseño y operación, así como los estándares que siguen. La segunda parte corresponde a un estudio y descripción detallada de las componentes del proyecto y de la implementación realizada, para terminar con posibles extensiones. El sistema se probará en dispositivos BUG, un tipo de hardware usado en el diseño y fabricación de prototipos modulares.
116

Paralelización de un Algoritmo para la Detección de Cúmulos de Galaxias

Augsburger Becerra, Marcel Andre January 2012 (has links)
Dados los avances en la tecnología, la astronomía es capaz de recolectar del orden de terabytes de datos por noche. El análisis manual de ésta es prácticamente imposible, por lo que es constante la necesidad de nuevos y mejores algoritmos para realizar análisis automático. Por otro lado, la computación paralela provee herramientas para realizar análisis de datos masivos, las que incrementan la capacidad total de procesamiento y disminuyen el tiempo requerido. Existe un software para la búsqueda de cúmulos de galaxias, el cual funciona de forma secuencial. Hacer que este software funcione en forma paralela sería de gran utilidad, dada la cantidad de datos que existen y existirán para analizar. El objetivo de esta memoria es diseñar e implementar una solución computacional que permita efectuar la detección de cúmulos de galaxias en forma paralela. La paralelización del algoritmo se hizo sobre el framework Hadoop, utilizando la herramienta Streaming con el lenguaje Python para el desarrollo del software. Se construyó una aplicación que divide los datos de entrada de forma inteligente, ejecuta el algoritmo de detección de cúmulos de galaxias en varias máquinas de forma paralela, y re ensambla los resultados parciales obtenidos. Se estudiaron estrategias para el particionamiento de los datos, utilizando celdas con distintas geometrías. También se estudiaron e implementaron estrategias para el re ensamblado de los resultados. En base a conocimientos astronómicos y experimentación se determinó la utilidad, dado el contexto, de cada estrategia, y los valores límites para sus parámetros. Los resultados son los siguientes: (1) un software paralelo para la detección de cúmulos de galaxias; (2) al correr el programa paralelo con dos particiones, el tiempo de ejecución se reduce a la mitad; (3) el software secuencial de detección de cúmulos se observa altamente dependiente de las particiones utilizadas, encontrándose para una partición de 2 celdas sólo un 11% de los cúmulos que se detectaban en la versión secuencial. Como trabajo futuro se propone: (1) modificar el software secuencial de búsqueda de cúmulos de galaxias para que detecte cúmulos sin miembros repetidos; (2) ejecutar este software en un clúster de computadores o con cloud computing, para medir las mejoras en tiempo; (3) la ejecución de este software con sets de datos más grandes, para medir la escalabilidad de éste; (4) crear una partición ad-hoc al set de datos.
117

Aprendizaje Colaborativo en Ciencias Bológicas Apoyado por Dispositivos Móviles

González Leiva, Marcelo Enrique January 2007 (has links)
No description available.
118

Unificación de metodologías de desarrollo de sistemas de dos unidades independientes por estrategia organizacional sinérgica.

Sánchez Vargas, Cristina Virginia de la Cruz January 2007 (has links)
No description available.
119

Búsqueda y Visualización de Imágenes en Memoria Chilena: Un enfoque Semántico

Saavedra Céspedes, Felipe Ignacio January 2007 (has links)
No description available.
120

Sistema de Almacenamiento Remoto de Archivos Orientado al Trabajo Grupal

Almonte Ferrada, Agustín Domingo January 2007 (has links)
No description available.

Page generated in 0.026 seconds