• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 24
  • Tagged with
  • 171
  • 171
  • 81
  • 80
  • 55
  • 47
  • 29
  • 27
  • 18
  • 16
  • 14
  • 13
  • 13
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Métodos de inteligencia artificial aplicados a química computacional en entornos de computación de alto rendimiento

Cano Esquibel, José Gaspar 17 December 2014 (has links)
El principal objetivo de esta tesis es la propuesta de una serie de refinamientos basados en métodos de inteligencia computacional, unidos a metodología in-silico para el descubrimiento de compuestos bioactivos, gracias a la capacidad de cómputo proporcionada por la reciente aparición de las arquitecturas computacionales masivamente paralelas tales como las GPUs (Unidades de Procesamiento Gráfico). Los resultados obtenidos en este proyecto podrían por tanto ayudar y formar la base de una nueva y atractiva generación de aproximaciones para descubrimiento de compuestos bioactivos.
112

Estimating difficulty of learning activities in design stages: A novel application of Neuroevolution

Gallego-Durán, Francisco J. 18 December 2015 (has links)
In every learning or training environment, exercises are the basis for practical learning. Learners need to practice in order to acquire new abilities and perfect those gained previously. However, not every exercise is valid for every learner: learners require exercises that match their ability levels. Hence, difficulty of an exercise could be defined as the amount of effort that a learner requires to successfully complete the exercise (its learning cost). Too high difficulties tend to discourage learners and make them drop out, whereas too low difficulties are perceived as unchallenging, resulting in loss of interest. Correctly estimating difficulties is hard and error-prone problem that tends to be done manually using domain-expert knowledge. Underestimating or overestimating difficulty generates a problem for learners, increasing dropout rates in learning environments. This paper presents a novel approach to improve difficulty estimations by using Neuroevolution. The method is based on measuring the computational cost that Neuroevolution algorithms require to successfully complete a given exercise and establishing similarities with previously gathered information from learners. For specific experiments presented, a game called PLMan has been used. PLMan is a PacMan-like game in which users have to program the Artificial Intelligence of the main character using a Prolog knowledge base. Results show that there exists a correlation between students’ learning costs and those of Neuroevolution. This suggests that the approach is valid, and measured difficulty of Neuroevolution algorithms may be used as estimation for student's difficulty in the proposed environment.
113

Criptosistemas de Cifrado en Flujo Basados en Matrices Triangulares con Múltiples Bloques

Martínez Pérez, Francisco M. 27 January 2016 (has links)
En este trabajo se diseña y analiza un generador pseudoaleatorio basado en matrices triangulares superiores de 3 × 3 bloques con elementos en Zp, siendo p primo; adecuado para ser empleado como generador de secuencia cifrante en un criptosistema de cifrado en flujo binario aditivo. Con ese objetivo se han buscado los parámetros adecuados (primo, polinomios primitivos y tamaños de bloque) para garantizar un adecuado nivel de seguridad criptográfica. Aunque finalmente se ha propuesto un generador especifico con una parametrización concreta, se debe enfatizar que en realidad se trata de una familia de generadores que se pueden adecuar, sin pérdida de aleatoriedad ni aumento de coste computacional apreciable, a distintos requisitos impuestos por la aplicación, implementación, arquitectura, etc., con sólo variar el parámetro d de la versión optimizada. Dentro de esta familia cabe resaltar que, haciendo uso de un tipo específico de trinomio primitivo, se han logrado rendimientos competitivos con los estándares actuales de cifrado en flujo como RC4, Salsa20, AES-OFB o HC128. Dado el rendimiento alcanzado por el generador optimizado finalmente propuesto, resulta perfectamente adecuado para su uso en protocolos, sistemas y aplicaciones que requieran de criptografía simétrica. Además, considerando algunas características de seguridad adicionales, como el soporte directo de tamaños de clave variable, puede ser interesante como sustituto de otros algoritmos que han sido considerados inseguros recientemente, como RC4. El generador propuesto tiene la característica de proporcionar una extracción de 64 bytes por iteración, que resulta apropiada para su implementación tanto en software como en hardware o, incluso, en hardware reconfigurable (FPGA).
114

Control de Reentrancia de Aspectos en AspectJ

Cabrera Hormazabal, Carlos Sebastián January 2010 (has links)
La programación orientada a aspectos (POA) es un paradigma de programación. Permite encapsular funcionalidad que se encuentra dispersa en un sistema. Para ello utiliza pointcuts, predicados que definen eventos del programa, y advices, el código que es ejecutado en los eventos definidos por un pointcut. Un aspecto es una entidad que agrupa pointcuts y advices. AspectJ es un lenguaje de programación para POA. Está diseñado como una extensión de Java, de forma que cualquier programa Java es también un programa AspectJ válido. Además del compilador oficial del proyecto AspectJ existen otros, de los cuales AspectBench Compiler (abc) es el más avanzado. La reentrancia de aspectos ocurre cuando la ejecución de un aspecto desencadena nuevamente su propia ejecución; produciéndose bucles infinitos. Actualmente la reentrancia se soluciona utilizando chequeos y patrones adhoc. La introducción de niveles de ejecución evita la reentrancia de aspectos. La ejecución del programa se separa en distintos niveles. Por defecto, la computación base ocurre en el nivel 0, mientras que los aspectos que observan esta ejecución se ubican en el nivel 1. La ejecución en el nivel 1 sólo puede ser observada desde el nivel 2, y así sucesivamente. Esta estructura para la ejecución de los programas soluciona casi todos los casos de reentrancia. Para el caso faltante, se utiliza un mecanismo adicional de control de reentrancia. Para esta memoria se extendió el compilador abc para incorporar una adaptación de niveles de ejecución. El lenguaje soportado por el compilador extendido incorpora nueva sintaxis para ello. Y los programas compilados contienen rutinas adicionales que agregan la estructura de niveles de ejecución y el control de reentrancia. Además, es posible controlar el nivel de ejecución en que se ejecutará una expresión, si fuese necesario. Se hicieron distintas pruebas para validar el trabajo realizado. Se confeccionaron tests para las distintas funcionalidades que, en conjunto, implementan niveles de ejecución. También se verificó la correcta compilación y ejecución de AJHotDraw, un framework para interfaces gráficas de programas de dibujo. Adicionalmente se probó el compilador con RacerAJ, una herramienta para la detección de data races implementada en AspectJ. RacerAJ es de interés porque incorpora pointcuts para evitar la ocurrencia de reentrancia de aspectos; removidos estos pointcuts, el programa funciona correctamente al ser compilado con esta versión extendida de abc. Además se realizó un ligero análisis de performance para medir el impacto en los programas compilados. Para ello se utilizó una suite de benchmarks para AspectJ. Se compararon los tiempos de ejecución logrados al utilizar el compilador desarrollado y la versión original.
115

Metodología para la evaluación de la susceptibilidad de fenómenos de remoción en masa mediante análisis de redes neuronales aplicada en el fiordo Comau, Región de Los Lagos, Chile

Villela Ramírez, Bruno Franco January 2017 (has links)
Geólogo / El presente trabajo tiene como objetivo principal presentar una metodología para la evaluación de susceptibilidad de remociones en masa, y aplicarla en la ladera este del fiordo Comau, región de Los Lagos, Chile. Se trabajó con una escala de 1:25.000 y con una resolución de DEM (Digital Elevation Model) de 30x30. Por otra parte, los condicionantes para el análisis fueron: elevación, pendiente, orientación de ladera, curvatura media, geología, distancia a lineamientos, distancia a fallas, distancia a cursos de agua, distancia a ríos y radiación solar anual, los cuales fueron normalizados. Para la evaluación de susceptibilidad, se ocuparon redes neuronales (Análisis Neural Network ANN) del tipo Multi Layer Perceptron (MLP), con el método de aprendizaje feed forward backpropagation o propagación de error y con el método de convergencia Levenberg-Marquardt. Para llevar a cabo la metodología, el área de estudio se redujo a puntos equiespaciados a 30 metros, se tomaron los puntos de generación de remociones en masa y puntos que no cumplen con las condiciones de remociones en masa, y se le dio diez valores correspondientes al valor de cada factor condicionante normalizado. Asimismo, los puntos del área de estudio quedaron asociados a un valor de los factores condicionantes. Con los puntos de inicio o generación y de zonas con ausencia de remoción en masa, se configuraron matrices para el proceso de entrenamiento, validación y test de la red neuronal. Una vez entrenada la red y corroborado su buen desempeño, se evaluaron los puntos del área de estudio, obteniendo un valor de susceptibilidad para cada uno de ellos, los que fueron categorizados cualitativamente en muy baja, baja, media, alta y muy alta. De acuerdo a los resultados obtenidos de la red, se determinó una correlación entre zonas de alta y muy alta susceptibilidad con elevaciones entre los 800 y 1.600 m s.n.m, pendientes entre los 35° y 70°, orientación de laderas oeste y curvaturas medias cóncavas; mientras que zonas de baja y muy baja susceptibilidad presentaron correlación con elevaciones inferiores a 100 m s.n.m., pendientes menores a 35°, orientación de ladera este, curvaturas medias convexas y planas, y distancia a fallas, lineamientos, cursos de agua y ríos, muy lejanas. Considerando los pesos sinápticos de la capa de entrada, se determinó que los factores que poseían mayor peso eran: elevación, distancia a lineamientos, geología, pendiente, orientación de ladera, distancia a ríos, distancia a fallas, curvatura, radiación y distancia a cursos de agua. Así, se realizaron análisis con los seis factores más importantes, y luego, con tres, lo que demostró que el análisis con diez factores es óptimo, pero un análisis con 6 factores es suficiente, y entrega una buena aproximación de susceptibilidad, además de tener una correlación positiva con los análisis. Por su parte, un análisis con tres factores no presentó una buena aproximación de susceptibilidad. / 19/12/2020
116

Clasificación mediante parámetros instrumentales de la intensidad de Mercalli modificada

Oviedo Vega, Pamela Andrea January 2017 (has links)
Ingeniera Civil / La evaluación de los daños y/o pérdidas en un sitio determinado ocurridos como consecuencia de un terremoto es un tema importante en el ámbito de la ingeniería sísmica. Las escalas de intensidades permiten identificar en primera instancia y en forma rápida el nivel de severidad del movimiento, pero estas son de carácter cualitativo ya que están basadas en la observación y el juicio humano. Por lo anterior, se han buscado relaciones entre los parámetros instrumentales asociados a un movimiento sísmico y las escalas de intensidades. En particular, este trabajo tiene como objetivo principal estimar la Intensidad de Mercalli Modificada (IMM) mediante el uso de parámetros instrumentales utilizando métodos estadísticos tanto de clasificación como de regresión. Además, se busca identificar que variables son las más influyentes en el valor de la escala de la Intensidad de Mercalli Modificada asignado luego de la ocurrencia de un sismo. Para lograr los objetivos de este trabajo se utilizan dos métodos estadísticos que son clasificados dentro de lo que se conoce como Aprendizaje Automático (AA): Redes Neuronales Artificiales (RNA) y Regresión Logística Multinomial (RGM). Los parámetros instrumentales considerados son: Aceleración Máxima de Suelo (PGA), Velocidad Máxima de Suelo (PGV), duración fase fuerte, Intensidad de Arias (Ia), Intensidad Espectral de Housner (SI), Intensidad Instrumental de la Agencia Meteorológica de Japón (IJMA), velocidad absoluta acumulada (CAV), intensidad de cruces por cero (ν), frecuencia central, espectros de respuesta (Sa, Sv y Sd), distancia al hipocentro, profundidad hipocentro y fuente sismogénica. Del desarrollo de este trabajo y el análisis de los resultados obtenidos, se tienen como conclusiones y observaciones principales que el método de RLM presenta un mejor desempeño que RNA. En cuanto a qué parámetros instrumentales son los más influyentes, se obtiene que son: log(PGV), log(PGA), log(Ia), log(SI) e IJMA. El modelo generado mediante RLM ocupando solo estas variables arroja un mayor porcentaje de clasificación que ocupando todos los parámetros. Sin embargo, para ambos métodos el uso de cada variable por separado (las más influyentes) es levemente mejor que utilizar las cinco juntas, siendo la que mejor resultados entrega log(PGV). Por último, de los resultados se observa que el conocimiento a priori del tipo de suelo no es influyente en los resultados.
117

Un Estudio de la Estructura y Dinámica de la Red de Accionistas Chilenos

Monsalve Moreno, Mauricio Nivaldo Andrés January 2009 (has links)
En el marco del análisis de redes sociales, estudiamos la red chilena de accionistas, una red dinámica cuyos actores son empresas y accionistas, y cuya relación es de propiedad. En particular, damos especial énfasis a una subred de ésta, la red de inversiones entre empresas, cuyos actores son empresas solamente. Para modelar la red de accionistas, recuperamos y procesamos la información disponible en el sitio Web de la Superintendencia de Valores y Seguros. Usando la proporción de propiedad de cada accionista en cada empresa, y los estados financieros de las últimas, modelamos esta red dirigida, dinámica y multivariable, desde Diciembre de 2003 hasta Junio de 2007. Para estudiar redes dirigidas multivariadas, diseñamos métodos empíricos y analíticos. Los métodos empíricos consisten en dos visualizaciones: perfiles de correlación de arcos y scatter-plots de redes. El método analítico consiste en reducir la topología del grafo a distribuciones de probabilidad (una para las relaciones y otra para los actores). Incluimos estas técnicas de análisis en una aplicación de software. Finalmente, estudiamos la red con las metodologías desarrolladas. Primero, buscamos propiedades generales de la red (encontrando, por ejemplo, que las empresas más grandes tienden a poseer o participar en las empresas más pequeñas). Luego, nos enfocamos en simular la red de inversión entre empresas, usando las distribuciones de probabilidad obtenidas de la red original. Concluimos que, aunque el modelamiento a nivel relacional, como la reducción de la topología a distribuciones de probabilidad, funciona relativamente bien al reproducir la red, no lo hace completamente ya que la red muestra propiedades emergentes, más allá del ámbito relacional.
118

Caracterización geoquímica e identificación de zonas de anomalías en la cordillera de la costa entre los 20°S y 21°S, I Región de Tarapacá Chile

Ramírez Mora, Catalina Natalia January 2012 (has links)
Geóloga / En este trabajó se estudió la composición química de la fracción 180 µm de sedimentos de drenaje en la Cordillera de la Costa de la I Región de Tarapacá, entre los 20°S y 21°S. Este trabajo se enmarca en el contexto del Mapa Geoquímico Regional de la Hoja de Iquique, del Servicio Nacional de Geología y Minería, el cual involucra muestreo de baja densidad (1 muestra cada 20 km2) a escala 1:250.000. El objetivo principal de esta memoria es establecer una línea de base para estos sedimentos, mediante la identificación y caracterización geoquímica de la zona, el reconocimiento de los factores que determinan estas concentraciones y la delimitación de zonas anómalas a partir de la generación de información geoquímica. Para lo anterior se utilizaron métodos estadísticos como el diagrama de caja y bigotes de cercos interiores de Tukey (1977), para identificar valores anómalos; así como de diagramas combinados y elaboración de mapas de puntos para. Paralelamente se utilizó el algoritmo de Redes Neuronales Artificiales, para establecer relaciones geoquímicas entre los sedimentos. Del mismo modo se propone una nueva metodología llamada Índice de Anomalía, la cual favorece la identificación de áreas donde se concentran valores anómalos de un elemento o conjunto de elementos. Con un criterio metalogénico se identificaron tres zonas anómalas, donde los elementos predominantes son: Cu y Fe en la primera, U y Fe en la segunda y Au y Ag en la tercera zona. Teniendo en común que son todas de origen natural, la primera está controlada por la litología, la segunda por deflación y tercera es una mezcla de estos dos factores.
119

Investigación de Métodos Eficaces para Búsquedas por Similitud en Bases de Datos Multimedia

Véliz Gutiérrez, Jaime January 2009 (has links)
El presente trabajo está enfocado en las bases de datos multimedia, área importante de investigación en los últimos años. Por objetos multimedia se entiende contenido como audio, imágenes, objetos 3D, etc. A diferencia de las bases de datos tradicionales, en una base de datos multimedia no se buscan los objetos que cumplan una condición exacta, sino los más parecidos a un objeto conocido de antemano, llamado objeto de consulta. Por esta razón, la búsqueda por similitud es uno de los temas principales de estudio en las bases de datos multimedia. Para reflejar la similitud entre objetos multimedia, en general existen distintos métodos para calcular una distancia entre dos objetos multimedia, los cuales intentan reflejar el parecido entre dichos objetos (a mayor distancia, más disímiles son). Se ha comprobado empíricamente que algunos métodos funcionan mejor que otros ante distintos tipos de objetos de consulta, y que combinar varios de ellos a la vez entrega generalmente mejores resultados que utilizar cada uno en forma separada. Sin embargo, aún no existe una forma clara de decidir la forma de combinarlos en el momento de la consulta, y muchas veces se termina utilizando el mejor método en promedio, lo cual no siempre es la mejor opción. En este trabajo se estudia un método formal para combinar estos métodos, realizando una consulta previa en un conjunto de objetos conocido como conjunto de entrenamiento, que permite estimar en forma dinámica la calidad de cada método ante un objeto de consulta dado. Como primera tarea, se implementó un entorno de trabajo que permite realizar experimentos de manera masiva, incorporar fácilmente distintos tipos de bases de datos y definir los tipos de experimentos a ejecutar. El entorno de trabajo implementado permitió estudiar cómo afecta la selección de un conjunto de entrenamiento en determinar la calidad de un método de transformación de objetos multimedia. De los resultados experimentales obtenidos, se concluye que un conjunto de entrenamiento adecuado es de un tamaño bastante pequeño en relación a la base de datos original, lo que permite estimar la calidad de un método de cálculo de similitud con poco esfuerzo adicional. Adicionalmente, se observó que el cálculo dinámico de esta información permite aproximarse bastante a mejores combinaciones de métodos, las cuales sólo pueden ser obtenidas mediante fuerza bruta. Se muestra también que algunos resultados tienden a ser independientes de la base de datos, mientras que otros son exclusivos de la forma en que ésta haya sido construida, y que en general todos los resultados poseen un buen grado de robustez, lo que permite reproducirlos fácilmente en bases de datos con distintos tipos de información multimedia.
120

Arboles de Sufijo Comprimidos para Textos Altamente Repetitivos

Abeliuk Kimelman, Andrés Jonathan January 2012 (has links)
Ingeniero Civil en Computación / El árbol de sufijos es una de las estructuras más importantes que se han creado para el manejo de cadenas de caracteres. Esta estructura permite encontrar eficientemente las ocurrencias de un patrón, en tiempo proporcional al largo del patrón. Adicionalmente soporta operaciones para resolver problemas complejos sobre una secuencia. Esta estructura tiene muchas aplicaciones en variadas áreas de la investigación , destacándose en la bioinformática, donde los recientes avances tecnológicos han permitido recolectar grandes colecciones de secuencias de ADN. La implementación clásica se vuelve impracticable para grandes volúmenes de información dado que ocupan demasiado espacio, que siempre muchas veces mayor que el texto mismo. Luego, no pueden ser almacenados en memoria principal, lo que en la práctica significa un aumento importante del tiempo de respuesta. Este problema es la principal motivación por la cual se buscan nuevas representaciones comprimidas de esta estructura, dando lugar a los árboles de sufijos comprimidos. Estos contienen la misma información que los árboles de sufijos pero ocupan un espacio considerablemente menor. Existen variadas propuestas teóricas para representar un árbol de sufijos comprimido, que ofrecen espacios y tiempos diferentes. En la práctica, dos estructuras destacan por sobre las demás. La primera fue propuesta por Sadakane e implementada por Välimäki et al. Esta estructura soporta la mayoría de las operaciones de navegación en tiempo constante, pero en la práctica requiere entre 25 y 35 bits por símbolo. La segunda fue propuesta por Fischer et al. e implementada por Cánovas, incorporando variantes y nuevas ideas para todas las estructuras que componen el árbol de sufijos comprimido propuesto por ellos. Una de estas variantes resulta ser superior a la implementación de Sadakane tanto en espacio como en tiempo, utilizando alrededor de 8 a 12 bits por símbolo. Dado que secuencias de ADN relacionadas son altamente similares, por ejemplo dos genomas humanos son muy parecidos, las colecciones pueden ser tratadas como un gran texto que contiene cadenas altamente similares. En este trabajo se propone e implementa una nueva variante del árbol de sufijos comprimido de Fischer et al, optimizada para textos altamente repetitivos. Se reemplazan y/o modifican cada una de las estructuras que componen el árbol por nuevas que presentan mayor compresión en textos repetitivos. El resultado más importante consiste en crear una nueva estructura inspirada en una técnica de compresión basada en gramáticas, aplicable al árbol de sufijos comprimido, que con poco espacio extra acelera considerablemente las operaciones sobre el árbol. Finalmente, la variante se compara experimentalmente sobre textos altamente repetitivos y resulta ser superior a la implementación de Cánovas, tanto en tiempo como en espacio, ocupando entre 3 a 6 bits por símbolo. / Este trabajo ha sido parcialmente financiado por el Instituto Milenio de Dinámica Celular y Biotecnología (ICDB) y el proyecto Fondecyt 1-080019

Page generated in 0.093 seconds