Spelling suggestions: "subject:"computacional"" "subject:"computacionais""
131 |
Estructuras Comprimidas para Árboles de SufijosCánovas Barroso, Rodrigo Antonio January 2010 (has links)
No description available.
|
132 |
Auto-Índice de Texto Basado en LZ77Kreft Carreño, Sebastián Andrés January 2010 (has links)
No description available.
|
133 |
NetSketcher: Plataforma para el Desarrollo de Aplicaciones Colaborativas y Gestuales Sobre Redes AD-HOCPeña Pascual, Gabriel Alonso January 2010 (has links)
Los equipos de trabajo en cualquier escenario requieren mantener una estrecha comunicación para lograr un objetivo conjunto y desde un principio la ciencia de la computación ha estado al servicio de las personas entregando herramientas para facilitar la colaboración.
En las últimas décadas la aparición de los equipos móviles de forma masiva y el aumento de potencia, ofrecen una nueva área de investigación para generar herramientas colaborativas.
El presente trabajo propone una plataforma que ofrezca soporte para el desarrollo de aplicaciones colaborativas orientada al trabajo en una red ad-hoc. El objetivo de la plataforma es simplificar la creación de aplicaciones colaborativas que permitan continuar con la investigación en esta área y de paso recabar las mejores propiedades de trabajos anteriores.
La plataforma que se desarrolló consiste en 3 capas: comunicación, sesión y espacio de trabajo, cada una dependiente de la anterior. El sistema conjunto permite realizar aplicaciones colaborativas con interfaz usuaria gestual. Además para probar la plataforma se implementó un conjunto de aplicaciones y herramientas para el apoyo de testeo.
Como prueba de conceptos se desarrollo una aplicación para diagramar procesos de negocio, esta aplicación, llamada FlowChart Maker, está orientada a la planificación de proyectos en las primeras etapas del diseño.
Del trabajo se puede concluir que la plataforma cumple con los objetivos de comunicación, usabilidad, interfaz usuaria y mantenimiento.Y como trabajo a futuro se plantea extender la plataforma permitiendo sesiones asíncronas, realizar estudios de nuevas formas para generar gestos y reforzar la comunicación a través de Bluetooth.
|
134 |
Resúmenes semiautomáticos de conocimiento : caso de RDFGarrido García, Camilo Fernando January 2013 (has links)
Ingeniero Civil en Computación / En la actualidad, la cantidad de información que se genera en el mundo es inmensa. En el campo científico tenemos, por ejemplo, datos astronómicos con imágenes de las estrellas, los datos de pronósticos meteorológicos, los datos de infomación biológica y genética, etc. No sólo en el mundo científico se produce este fenómeno, por ejemplo, un usuario navegando por Internet produce grandes cantidades de información: Comentarios en foros, participación en redes sociales o simplemente la comunicación a través de la web.
Manejar y analizar esta cantidad de información trae grandes problemas y costos. Por ello, antes de realizar un análisis, es conveniente determinar si el conjunto de datos que se posee es adecuado para lo que se desea o si trata sobre los temas que son de nuestro interés. Estas preguntas podrían responderse si se contara con un resumen del conjunto de datos. De aquí surge el problema que esta memoria abarca: Crear resúmenes semi-automáticos de conocimiento formalizado.
En esta memoria se diseñó e implementó un método para la obtención de resúmenes semiautomáticos de conjuntos RDF. Dado un grafo RDF se puede obtener un conjunto de nodos, cuyo tamaño es determinado por el usuario, el cual representa y da a entender cuáles son los temas más importantes dentro del conjunto completo. Este método fue diseñado en base a los conjuntos de datos provistos por DBpedia. La selección de recursos dentro del conjunto de datos se hizo utilizando dos métricas usadas ampliamente en otros escenarios: Centralidad de intermediación y grados. Con ellas se detectaron los recursos más importantes en forma global y local.
Las pruebas realizadas, las cuales contaron con evaluación de usuarios y evaluación automática, indicaron que el trabajo realizado cumple con el objetivo de realizar resúmenes que den a entender y representen al conjunto de datos. Las pruebas también mostraron que los resúmenes logran un buen balance de los temas generales, temas populares y la distribución respecto al conjunto de datos completo.
|
135 |
ExpertTI : an knowledge system for intelligent service desks using free textBello Ruiz, Alejandro Toribio, Melgar, Andrés, Pizarro, Daniel 17 April 2017 (has links)
When many users consult service desks simultaneously, these
typically saturate. This causes the customer attention is delayed more
than usual. The service is perceived as lousy from the point of view of
the customer. Increase the amount of human agents is a costly process
for organizations. In addition, the amount of sta turnover in this type
of service is very high, which means make frequent training. All this has
motivated the design of a knowledge-based system that automatically
assists both customers and human agents at the service desk. Web technology
was used to enable clients to communicate with a software agent
via chat. Techniques of Natural Language Processing were used in order
the software agent understands the customer requests. The domain
knowledge used by the software agent to understand customer requests
has been codi ed in an ontology. A rule-based expert system was designed
to perform the diagnostic task. This paper presents a knowledge-based
system allowing client to communicate with the service desk through a
chat system using free text. A software agent automatically executes the
customer request. The agent software attempts to reach a conclusion using
expert system and ontology. If achieved success, returns the response
to the customer, otherwise the request is redirected to a human agent.
Evaluations conducted with users have shown an improvement in the
attention of service desks when the software developed is used. On the
other hand, since the most frequent requests are handled automatically,
the workload of human agents decreases considerably. The software has
also been used to train new human agents which facilitates and reduces
the cost of training. / Tesis
|
136 |
Marco de Experimentación para Algoritmos de Refinamiento de Triangulaciones en 2DFaúndez Reyes, Álvaro Martín January 2010 (has links)
El uso de elementos finitos para analizar fenómenos físicos modelados por ecuaciones diferenciales parciales requiere de una discretización del dominio, como lo son las triangulaciones en dos dimensiones. En este contexto se distinguen tres problemas: generar una triangulación a partir de un conjunto de vértices y segmentos, refinar una malla y mejorar la calidad de una malla.
Los algoritmos que refinan triangulaciones Delaunay en general se basan en seleccionar nuevos puntos y realizar una inserción Delaunay de éstos. Los criterios usados para comparar algoritmos se basan en la cantidad de inserciones que realizan, la cantidad de triángulos generados y el tiempo de ejecución. Sin embargo, es difícil encontrar implementaciones que realicen las comparaciones bajo un mismo ambiente y condiciones.
En esta memoria se ha diseñado un marco de experimentación que permite investigar y comparar algoritmos de refinamiento Delaunay dentro de un mismo ambiente. Se propone un proceso de refinamiento genérico y se desarrolla una herramienta que, haciendo uso de patrones de diseño de programación con orientación a objetos, implementa el proceso con la flexibilidad de poder extender la herramienta con nuevos algoritmos de forma simple. Se provee una interfaz gráfica que permite seguir el proceso de refinamiento en una forma clara y didáctica.
La herramienta genera resultados comparables con los resultados de Triangle, una herramienta de refinamiento Delaunay rápida y eficiente, pero limitada en su extensibilidad y usabilidad. La extensibilidad de la herramienta se puso a prueba implementando los siguientes criterios de selección de puntos asociados a triángulos de mala calidad: Circuncentro, Off-Center, Lepp - Punto Medio, Lepp - Centroide y Lepp - Bisección (No Delaunay). Se evalúan también técnicas de priorización en el procesamiento de los triángulos de mala calidad.
Se experimentó con un algoritmo nuevo, Lepp -Circuncentro, el cual presentó un buen rendimiento con las mallas estudiadas, alcanzando en algunos casos una exigencia de 37º como ángulo interior mínimo. Se estudiaron criterios de priorización en la selección de triángulos de mala calidad, concluyendo que el comportamiento de los algoritmos de tipo Lepp es independiente del uso de técnicas de priorización. En cambio, el algoritmo Off-Center aumenta considerablemente el número de puntos insertados si no se utiliza un orden de procesamiento adecuado.
|
137 |
Diseño e Implementación de un Editor de Texto Colaborativo para WebGarcía Aguirre, Felipe Andrés January 2007 (has links)
No description available.
|
138 |
Implementación de Stick-Ons en WebFarah González, Mauricio Andrés January 2008 (has links)
No description available.
|
139 |
Herramienta para Soporte al Proyecto de Mejora de Calidad de Procesos con Modelo CMMI e IDEALMadrid Mieles, Jesica Alexandra January 2008 (has links)
No description available.
|
140 |
Controlador: un Framework de Desarrollo para la Integración de Sistemas de Software y Cumplimiento de Niveles de ServicioCollao Huper, Marcelo Alejandro January 2009 (has links)
No description available.
|
Page generated in 0.0485 seconds