• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 875
  • 60
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 945
  • 245
  • 186
  • 174
  • 159
  • 157
  • 150
  • 144
  • 143
  • 139
  • 139
  • 139
  • 139
  • 139
  • 126
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Estructuras Comprimidas para Árboles de Sufijos

Cánovas Barroso, Rodrigo Antonio January 2010 (has links)
No description available.
132

Auto-Índice de Texto Basado en LZ77

Kreft Carreño, Sebastián Andrés January 2010 (has links)
No description available.
133

NetSketcher: Plataforma para el Desarrollo de Aplicaciones Colaborativas y Gestuales Sobre Redes AD-HOC

Peña Pascual, Gabriel Alonso January 2010 (has links)
Los equipos de trabajo en cualquier escenario requieren mantener una estrecha comunicación para lograr un objetivo conjunto y desde un principio la ciencia de la computación ha estado al servicio de las personas entregando herramientas para facilitar la colaboración. En las últimas décadas la aparición de los equipos móviles de forma masiva y el aumento de potencia, ofrecen una nueva área de investigación para generar herramientas colaborativas. El presente trabajo propone una plataforma que ofrezca soporte para el desarrollo de aplicaciones colaborativas orientada al trabajo en una red ad-hoc. El objetivo de la plataforma es simplificar la creación de aplicaciones colaborativas que permitan continuar con la investigación en esta área y de paso recabar las mejores propiedades de trabajos anteriores. La plataforma que se desarrolló consiste en 3 capas: comunicación, sesión y espacio de trabajo, cada una dependiente de la anterior. El sistema conjunto permite realizar aplicaciones colaborativas con interfaz usuaria gestual. Además para probar la plataforma se implementó un conjunto de aplicaciones y herramientas para el apoyo de testeo. Como prueba de conceptos se desarrollo una aplicación para diagramar procesos de negocio, esta aplicación, llamada FlowChart Maker, está orientada a la planificación de proyectos en las primeras etapas del diseño. Del trabajo se puede concluir que la plataforma cumple con los objetivos de comunicación, usabilidad, interfaz usuaria y mantenimiento.Y como trabajo a futuro se plantea extender la plataforma permitiendo sesiones asíncronas, realizar estudios de nuevas formas para generar gestos y reforzar la comunicación a través de Bluetooth.
134

Resúmenes semiautomáticos de conocimiento : caso de RDF

Garrido García, Camilo Fernando January 2013 (has links)
Ingeniero Civil en Computación / En la actualidad, la cantidad de información que se genera en el mundo es inmensa. En el campo científico tenemos, por ejemplo, datos astronómicos con imágenes de las estrellas, los datos de pronósticos meteorológicos, los datos de infomación biológica y genética, etc. No sólo en el mundo científico se produce este fenómeno, por ejemplo, un usuario navegando por Internet produce grandes cantidades de información: Comentarios en foros, participación en redes sociales o simplemente la comunicación a través de la web. Manejar y analizar esta cantidad de información trae grandes problemas y costos. Por ello, antes de realizar un análisis, es conveniente determinar si el conjunto de datos que se posee es adecuado para lo que se desea o si trata sobre los temas que son de nuestro interés. Estas preguntas podrían responderse si se contara con un resumen del conjunto de datos. De aquí surge el problema que esta memoria abarca: Crear resúmenes semi-automáticos de conocimiento formalizado. En esta memoria se diseñó e implementó un método para la obtención de resúmenes semiautomáticos de conjuntos RDF. Dado un grafo RDF se puede obtener un conjunto de nodos, cuyo tamaño es determinado por el usuario, el cual representa y da a entender cuáles son los temas más importantes dentro del conjunto completo. Este método fue diseñado en base a los conjuntos de datos provistos por DBpedia. La selección de recursos dentro del conjunto de datos se hizo utilizando dos métricas usadas ampliamente en otros escenarios: Centralidad de intermediación y grados. Con ellas se detectaron los recursos más importantes en forma global y local. Las pruebas realizadas, las cuales contaron con evaluación de usuarios y evaluación automática, indicaron que el trabajo realizado cumple con el objetivo de realizar resúmenes que den a entender y representen al conjunto de datos. Las pruebas también mostraron que los resúmenes logran un buen balance de los temas generales, temas populares y la distribución respecto al conjunto de datos completo.
135

ExpertTI : an knowledge system for intelligent service desks using free text

Bello Ruiz, Alejandro Toribio, Melgar, Andrés, Pizarro, Daniel 17 April 2017 (has links)
When many users consult service desks simultaneously, these typically saturate. This causes the customer attention is delayed more than usual. The service is perceived as lousy from the point of view of the customer. Increase the amount of human agents is a costly process for organizations. In addition, the amount of sta turnover in this type of service is very high, which means make frequent training. All this has motivated the design of a knowledge-based system that automatically assists both customers and human agents at the service desk. Web technology was used to enable clients to communicate with a software agent via chat. Techniques of Natural Language Processing were used in order the software agent understands the customer requests. The domain knowledge used by the software agent to understand customer requests has been codi ed in an ontology. A rule-based expert system was designed to perform the diagnostic task. This paper presents a knowledge-based system allowing client to communicate with the service desk through a chat system using free text. A software agent automatically executes the customer request. The agent software attempts to reach a conclusion using expert system and ontology. If achieved success, returns the response to the customer, otherwise the request is redirected to a human agent. Evaluations conducted with users have shown an improvement in the attention of service desks when the software developed is used. On the other hand, since the most frequent requests are handled automatically, the workload of human agents decreases considerably. The software has also been used to train new human agents which facilitates and reduces the cost of training. / Tesis
136

Marco de Experimentación para Algoritmos de Refinamiento de Triangulaciones en 2D

Faúndez Reyes, Álvaro Martín January 2010 (has links)
El uso de elementos finitos para analizar fenómenos físicos modelados por ecuaciones diferenciales parciales requiere de una discretización del dominio, como lo son las triangulaciones en dos dimensiones. En este contexto se distinguen tres problemas: generar una triangulación a partir de un conjunto de vértices y segmentos, refinar una malla y mejorar la calidad de una malla. Los algoritmos que refinan triangulaciones Delaunay en general se basan en seleccionar nuevos puntos y realizar una inserción Delaunay de éstos. Los criterios usados para comparar algoritmos se basan en la cantidad de inserciones que realizan, la cantidad de triángulos generados y el tiempo de ejecución. Sin embargo, es difícil encontrar implementaciones que realicen las comparaciones bajo un mismo ambiente y condiciones. En esta memoria se ha diseñado un marco de experimentación que permite investigar y comparar algoritmos de refinamiento Delaunay dentro de un mismo ambiente. Se propone un proceso de refinamiento genérico y se desarrolla una herramienta que, haciendo uso de patrones de diseño de programación con orientación a objetos, implementa el proceso con la flexibilidad de poder extender la herramienta con nuevos algoritmos de forma simple. Se provee una interfaz gráfica que permite seguir el proceso de refinamiento en una forma clara y didáctica. La herramienta genera resultados comparables con los resultados de Triangle, una herramienta de refinamiento Delaunay rápida y eficiente, pero limitada en su extensibilidad y usabilidad. La extensibilidad de la herramienta se puso a prueba implementando los siguientes criterios de selección de puntos asociados a triángulos de mala calidad: Circuncentro, Off-Center, Lepp - Punto Medio, Lepp - Centroide y Lepp - Bisección (No Delaunay). Se evalúan también técnicas de priorización en el procesamiento de los triángulos de mala calidad. Se experimentó con un algoritmo nuevo, Lepp -Circuncentro, el cual presentó un buen rendimiento con las mallas estudiadas, alcanzando en algunos casos una exigencia de 37º como ángulo interior mínimo. Se estudiaron criterios de priorización en la selección de triángulos de mala calidad, concluyendo que el comportamiento de los algoritmos de tipo Lepp es independiente del uso de técnicas de priorización. En cambio, el algoritmo Off-Center aumenta considerablemente el número de puntos insertados si no se utiliza un orden de procesamiento adecuado.
137

Diseño e Implementación de un Editor de Texto Colaborativo para Web

García Aguirre, Felipe Andrés January 2007 (has links)
No description available.
138

Implementación de Stick-Ons en Web

Farah González, Mauricio Andrés January 2008 (has links)
No description available.
139

Herramienta para Soporte al Proyecto de Mejora de Calidad de Procesos con Modelo CMMI e IDEAL

Madrid Mieles, Jesica Alexandra January 2008 (has links)
No description available.
140

Controlador: un Framework de Desarrollo para la Integración de Sistemas de Software y Cumplimiento de Niveles de Servicio

Collao Huper, Marcelo Alejandro January 2009 (has links)
No description available.

Page generated in 0.0485 seconds