• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • Tagged with
  • 22
  • 22
  • 17
  • 17
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Fundamentos de programación. MTA3. Ejemplo 1. Estructuras repetitivas mientras

29 April 2013 (has links)
Fundamentos de programación. 3. Ejemplo 1. Estructuras repetitivas mientras
12

Fundamentos de programación. MTA3. Ejemplo 2. Estructuras repetitivas repetir

29 April 2013 (has links)
Fundamentos de programación. 3. Ejemplo 2. Estructuras repetitivas repetir
13

Fundamentos de programación. MTA3. Ejemplo 3. Estructuras repetitivas para hacer

29 April 2013 (has links)
Fundamentos de programación. 3. Ejemplo 3. Estructuras repetitivas para hacer
14

Fundamentos de programación. MTA4. Parte 1. Ejercicios estructuras selectivas

29 April 2013 (has links)
Fundamentos de programación. 4. Parte 1. Ejercicios estructuras selectivas
15

Fundamentos de programación. MTA4. Parte 2. Ejercicios estructuras selectivas

29 April 2013 (has links)
Fundamentos de programación. 4. Parte 2. Ejercicios estructuras selectivas
16

Fundamentos de programación. MTA4. Parte 3. Ejercicios estructuras selectivas

29 April 2013 (has links)
Fundamentos de programación. 4. Parte 3. Ejercicios estructuras selectivas
17

Fundamentos de programación. MTA5. Parte 1. Ejercicios estructuras repetitivas

29 April 2013 (has links)
Fundamentos de programación. 5. Parte 1. Ejercicios estructuras repetitivas
18

Diseño y aplicación de una metodología para análisis de noticias policiales utilizando minería de textos

Torres Silva, Daniel Alejandro January 2013 (has links)
Ingeniero Civil Industrial / En esta memoria se presenta el diseño y la aplicación de una metodología, basada en técnicas de minería de textos, para el procesamiento de grandes volúmenes de noticias que permita descubrir interesantes patrones en los datos para desarrollar un acabado análisis de la cobertura de distintas temáticas policiales y estudiar su relación con las estadísticas de casos reales de delincuencia. Las noticias policiales han sido objeto de constante análisis, cuyo interés se debe a la probable distorsión que provocaría sobre los niveles de preocupación frente al delito en la población. Los artículos noticiosos poseen valiosa información que muchas veces no es explotada, dado que requiere de un proceso de análisis manual, intensivo en tiempo y recursos. Actualmente existen herramientas tecnológicas que permiten manejar crecientes volúmenes de datos, particularmente datos no estructurados como los textos, tomando cada vez más protagonismo la minería de textos en el descubrimiento de nuevo e interesante conocimiento. La metodología de investigación propuesta se basa en las etapas del modelo de procesos CRISP-DM, para lo cual se debe integrar la comprensión de la naturaleza del problema, la comprensión y preparación de los datos, la construcción y evaluación de los modelos y los posteriores desarrollos a partir del conocimiento generado. La aplicación de la metodología se realiza sobre un conjunto de noticias policiales en formato RSS recopiladas a partir de cuatro medios de prensa nacionales durante el segundo semestre del año 2011. Se logran identificar siete temáticas policiales dentro de las noticias, caracterizando cada una de ellas a partir de diferentes herramientas basadas en las palabras más relevantes. Se detecta que las distintas temáticas presentan diferentes niveles de cobertura entre sí, así como también según región y según medio de prensa. También se logra constatar una relativa proporcionalidad entre el número de noticias y el número de habitantes según región, mientras que la posible relación entre el número de casos reales y el número de noticias podría explicar una proporción importante de la variabilidad experimentada por los niveles de noticias para cada temática policial. La metodología implementada permite cumplir exitosamente con los objetivos propuestos, facilitando la comprensión y manejo de las distintas interacciones entre las etapas involucradas en el proceso. Como trabajo futuro se plantea un sistema de monitoreo continuo de los niveles de cobertura policial en medios de prensa escritos, apoyándose en la propuesta de este trabajo.
19

Desarrollo de una herramienta que permita la extracción de una taxonomía de un conjunto de documentos de un dominio específico usando CFinder para la extracción de conceptos clave

Vargas Rosales, Alfredo Adrián 04 June 2015 (has links)
Gracias a la World Wide Web la idea de información compartida alrededor del mundo es común para todos, la información es ingresada desde diferentes fuentes para que todos puedan verla y usarla. Una Smart Web o Semantic Web tiene como objetivo estructurar los contenidos de forma tal que todo esté relacionado y por lo tanto, presente información consistente. Para ello, se requieren de estructuras que puedan ser accesadas por computadoras y contengan reglas de inferencia para un razonamiento automático. Una de estas estructuras es la ontología. Una ontología busca conceptualizar el conocimiento de un dominio específico valiéndose de representaciones. Como primer paso para construir una ontología, se debe obtener una taxonomía. Una taxonomía es una clasificación de entidades de información a manera de jerarquías. Las taxonomías ofrecen diversas ventajas como clasificar de la información, realizar búsquedas de manera más eficaz y navegar entre muchos conceptos, sin embargo, requieren mucho esfuerzo para ser construidas a mano. Para poder construir una taxonomía en base a un grupo de documentos, primero se debe extraer los conceptos más relevantes presentes en dichos textos. Luego, se debe deducir la jerarquía se convertirá en la taxonomía. Para extraer los conceptos más relevantes de un grupo de documentos, el método CFinder ha probado ser muy útil y dar buenos resultados. El objetivo del CFinder es que sea usado para la construcción de ontologías u otro tipo de estructura que requiera una fase de extracción de conceptos clave. No obstante, no se ha integrado con un método que permita estructurar la jerarquía entre los conceptos extraídos. En este proyecto se busca complementar el método CFinder con una fase para la deducción de jerarquías entre los conceptos extraídos y la construcción de una taxonomía, de esta manera, se está brindando una nueva opción para la construcción automática de taxonomías. Para ello, se realiza la implementación de una herramienta para la construcción automática de una taxonomía de un dominio que haga uso del método CFinder. El proyecto inicia con la implementación de un módulo que permite la extracción de conceptos clave de un conjunto de documentos usando el método CFinder. Luego, se procede a implementar un módulo que permita extraer una taxonomía usando los conceptos clave extraídos. Finalmente, se realizan las pruebas necesarias para medir la eficacia del método implementado y, con los resultados obtenidos, se concluye que se alcanzó el objetivo principal del proyecto. / Tesis
20

Implementación de nuevos algoritmos de las listas estáticas basado en las propiedades de los algoritmos genéticos, que demuestre que las listas estáticas son más eficientes en tiempo de gestión de datos que las listas dinámicas

Chira Huamán, Hernán Elías January 2019 (has links)
Aplica la implementación de las operaciones de listas dinámicas en base a registros denominados listas estáticas. A su vez, se demuestra que las operaciones en listas estáticas pueden ser semejantes o más eficientes en las inserciones o eliminaciones en tiempo que las listas dinámicas. Las listas dinámicas podrán ser más eficientes que los registros en la utilización y ahorro de espacio de memoria, pero aun así demanda más tiempo en almacenar los datos uno por uno al crear nuevos nodos, e inclusive puede haber problemas de interrupción del compilador en la gestión de datos. Las listas estáticas permiten una mayor eficiencia en gestión de menores cantidades de datos en comparación de las listas dinámicas. Finalmente, proponiendo la creación de algoritmos en el uso de inserción, eliminación, búsqueda, guardado y recuperado de datos de listas estáticas, se debe expandir su respectivo uso lógico y expandir sus características de implementación lógica de las demás estructuras de datos dinámicos, permitiendo múltiples aplicaciones en el rendimiento de control de tiempo y estabilidad del espacio de memoria en la gestión de datos. Todo esto constituye el aporte que se brinda al desarrollo de la programación y aplicaciones múltiples de la estructura de datos. / Tesis

Page generated in 0.0841 seconds