• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 183
  • 170
  • 2
  • Tagged with
  • 352
  • 352
  • 352
  • 234
  • 117
  • 49
  • 46
  • 43
  • 40
  • 38
  • 38
  • 38
  • 37
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Linguistic-based Patterns for Figurative Language Processing: The Case of Humor Recognition and Irony Detection

Reyes Pérez, Antonio 19 July 2012 (has links)
El lenguaje figurado representa una de las tareas más difíciles del procesamiento del lenguaje natural. A diferencia del lenguaje literal, el lenguaje figurado hace uso de recursos lingüísticos tales como la ironía, el humor, el sarcasmo, la metáfora, la analogía, entre otros, para comunicar significados indirectos que la mayoría de las veces no son interpretables sólo en términos de información sintáctica o semántica. Por el contrario, el lenguaje figurado refleja patrones del pensamiento que adquieren significado pleno en contextos comunicativos y sociales, lo cual hace que tanto su representación lingüística, así como su procesamiento computacional, se vuelvan tareas por demás complejas. En este contexto, en esta tesis de doctorado se aborda una problemática relacionada con el procesamiento del lenguaje figurado a partir de patrones lingüísticos. En particular, nuestros esfuerzos se centran en la creación de un sistema capaz de detectar automáticamente instancias de humor e ironía en textos extraídos de medios sociales. Nuestra hipótesis principal se basa en la premisa de que el lenguaje refleja patrones de conceptualización; es decir, al estudiar el lenguaje, estudiamos tales patrones. Por tanto, al analizar estos dos dominios del lenguaje figurado, pretendemos dar argumentos respecto a cómo la gente los concibe, y sobre todo, a cómo esa concepción hace que tanto humor como ironía sean verbalizados de una forma particular en diversos medios sociales. En este contexto, uno de nuestros mayores intereses es demostrar cómo el conocimiento que proviene del análisis de diferentes niveles de estudio lingüístico puede representar un conjunto de patrones relevantes para identificar automáticamente usos figurados del lenguaje. Cabe destacar que contrario a la mayoría de aproximaciones que se han enfocado en el estudio del lenguaje figurado, en nuestra investigación no buscamos dar argumentos basados únicamente en ejemplos prototípicos, sino en textos cuyas características / Reyes Pérez, A. (2012). Linguistic-based Patterns for Figurative Language Processing: The Case of Humor Recognition and Irony Detection [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16692 / Palancia
92

Model Integration in Data Mining: From Local to Global Decisions

Bella Sanjuán, Antonio 31 July 2012 (has links)
El aprendizaje autom�atico es un �area de investigaci�on que proporciona algoritmos y t�ecnicas que son capaces de aprender autom�aticamente a partir de experiencias pasadas. Estas t�ecnicas son esenciales en el �area de descubrimiento de conocimiento de bases de datos (KDD), cuya fase principal es t�ÿpicamente conocida como miner�ÿa de datos. El proceso de KDD se puede ver como el aprendizaje de un modelo a partir de datos anteriores (generaci�on del modelo) y la aplicaci�on de este modelo a nuevos datos (utilizaci�on del modelo). La fase de utilizaci�on del modelo es muy importante, porque los usuarios y, muy especialmente, las organizaciones toman las decisiones dependiendo del resultado de los modelos. Por lo general, cada modelo se aprende de forma independiente, intentando obtener el mejor resultado (local). Sin embargo, cuando varios modelos se usan conjuntamente, algunos de ellos pueden depender los unos de los otros (por ejemplo, las salidas de un modelo pueden ser las entradas de otro) y aparecen restricciones. En este escenario, la mejor decisi�on local para cada problema tratado individualmente podr�ÿa no dar el mejor resultado global, o el resultado obtenido podr�ÿa no ser v�alido si no cumple las restricciones del problema. El �area de administraci�on de la relaci�on con los clientes (CRM) ha dado origen a problemas reales donde la miner�ÿa de datos y la optimizaci�on (global) deben ser usadas conjuntamente. Por ejemplo, los problemas de prescripci�on de productos tratan de distinguir u ordenar los productos que ser�an ofrecidos a cada cliente (o sim�etricamente, elegir los clientes a los que se les deber�ÿa de ofrecer los productos). Estas �areas (KDD, CRM) carecen de herramientas para tener una visi�on m�as completa de los problemas y una mejor integraci�on de los modelos de acuerdo a sus interdependencias y las restricciones globales y locales. La aplicaci�on cl�asica de miner�ÿa de datos a problemas de prescripci�on de productos, por lo general, ha / Bella Sanjuán, A. (2012). Model Integration in Data Mining: From Local to Global Decisions [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16964 / Palancia
93

Building task-oriented machine translation systems

Sanchis Trilles, Germán 20 September 2012 (has links)
La principal meta de esta tesis es desarrollar sistemas de traduccion interactiva que presenten mayor sinergia con sus usuarios potenciales. Por ello, el objetivo es hacer los sistemas estado del arte mas ergonomicos, intuitivos y eficientes, con el fin de que el experto humano se sienta mas comodo al utilizarlos. Con este fin se presentan diferentes t�ecnicas enfocadas a mejorar la adaptabilidad y el tiempo de respuesta de los sistemas de traduccion automatica subyacentes, as�ÿ como tambien se presenta una estrategia cuya finalidad es mejorar la interaccion hombre-m�aquina. Todo ello con el proposito ultimo de rellenar el hueco existente entre el estado del arte en traduccion automatica y las herramientas que los traductores humanos tienen a su disposici�on. En lo que respecta al tiempo de respuesta de los sistemas de traducci�on autom�atica, en esta tesis se presenta una t�ecnica de poda de los par�ametros de los modelos de traducci�on actuales, cuya intuici�on est�a basada en el concepto de segmentaci�on biling¤ue, pero que termina por evolucionar hacia una estrategia de re-estimaci�on de dichos par�ametros. Utilizando esta estrategia se obtienen resultados experimentales que demuestran que es posible podar la tabla de segmentos hasta en un 97%, sin mermar por ello la calidad de las traducciones obtenidas. Adem�as, estos resultados son coherentes en diferentes pares de lenguas, lo cual evidencia que la t�ecnica que se presenta aqu�ÿ es efectiva en un entorno de traducci�on autom�atica tradicional, y por lo tanto podr�ÿa ser utilizada directamente en un escenario de post-edici�on. Sin embargo, los experimentos llevados a cabo en traducci�on interactiva son ligeramente menos convincentes, pues implican la necesidad de llegar a un compromiso entre el tiempo de respuesta y la calidad de los sufijos producidos. Por otra parte, se presentan dos t�ecnicas de adaptaci�on, con el prop�osito de mejorar la adaptabilidad de los sistemas de traducci�on autom�atica. La primera / Sanchis Trilles, G. (2012). Building task-oriented machine translation systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17174 / Palancia
94

Diverse Contributions to Implicit Human-Computer Interaction

Leiva Torres, Luis Alberto 13 November 2012 (has links)
Cuando las personas interactúan con los ordenadores, hay mucha información que no se proporciona a propósito. Mediante el estudio de estas interacciones implícitas es posible entender qué características de la interfaz de usuario son beneficiosas (o no), derivando así en implicaciones para el diseño de futuros sistemas interactivos. La principal ventaja de aprovechar datos implícitos del usuario en aplicaciones informáticas es que cualquier interacción con el sistema puede contribuir a mejorar su utilidad. Además, dichos datos eliminan el coste de tener que interrumpir al usuario para que envíe información explícitamente sobre un tema que en principio no tiene por qué guardar relación con la intención de utilizar el sistema. Por el contrario, en ocasiones las interacciones implícitas no proporcionan datos claros y concretos. Por ello, hay que prestar especial atención a la manera de gestionar esta fuente de información. El propósito de esta investigación es doble: 1) aplicar una nueva visión tanto al diseño como al desarrollo de aplicaciones que puedan reaccionar consecuentemente a las interacciones implícitas del usuario, y 2) proporcionar una serie de metodologías para la evaluación de dichos sistemas interactivos. Cinco escenarios sirven para ilustrar la viabilidad y la adecuación del marco de trabajo de la tesis. Resultados empíricos con usuarios reales demuestran que aprovechar la interacción implícita es un medio tanto adecuado como conveniente para mejorar de múltiples maneras los sistemas interactivos. / Leiva Torres, LA. (2012). Diverse Contributions to Implicit Human-Computer Interaction [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17803 / Palancia
95

Termination of Narrowing: Automated Proofs and Modularity Properties

Iborra López, José 11 February 2013 (has links)
En 1936 Alan Turing demostro que el halting problem, esto es, el problema de decidir si un programa termina o no, es un problema indecidible para la inmensa mayoria de los lenguajes de programacion. A pesar de ello, la terminacion es un problema tan relevante que en las ultimas decadas un gran numero de tecnicas han sido desarrolladas para demostrar la terminacion de forma automatica de la maxima cantidad posible de programas. Los sistemas de reescritura de terminos proporcionan un marco teorico abstracto perfecto para el estudio de la terminacion de programas. En este marco, la evaluaci on de un t ermino consiste en la aplicacion no determinista de un conjunto de reglas de reescritura. El estrechamiento (narrowing) de terminos es una generalizacion de la reescritura que proporciona un mecanismo de razonamiento automatico. Por ejemplo, dado un conjunto de reglas que denan la suma y la multiplicacion, la reescritura permite calcular expresiones aritmeticas, mientras que el estrechamiento permite resolver ecuaciones con variables. Esta tesis constituye el primer estudio en profundidad de las propiedades de terminacion del estrechamiento. Las contribuciones son las siguientes. En primer lugar, se identican clases de sistemas en las que el estrechamiento tiene un comportamiento bueno, en el sentido de que siempre termina. Muchos metodos de razonamiento automatico, como el analisis de la semantica de lenguajes de programaci on mediante operadores de punto jo, se benefician de esta caracterizacion. En segundo lugar, se introduce un metodo automatico, basado en el marco teorico de pares de dependencia, para demostrar la terminacion del estrechamiento en un sistema particular. Nuestro metodo es, por primera vez, aplicable a cualquier clase de sistemas. En tercer lugar, se propone un nuevo metodo para estudiar la terminacion del estrechamiento desde un termino particular, permitiendo el analisis de la terminacion de lenguajes de programacion. El nuevo metodo generaliza los / Iborra López, J. (2010). Termination of Narrowing: Automated Proofs and Modularity Properties [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/19251 / Palancia
96

Engineering Regulated Open Multiagent Systems

Garcia Marques, Mª Emilia 06 May 2013 (has links)
Actualmente existe una creciente demanda de sistemas flexibles, adaptables y con gran escalabilidad para apoyar las interacciones de personas e instituciones distribuidas en entornos heterogéneos. Esto se debe principalmente al incremento en la necesidad de trabajo colaborativo y la descentralización de los procesos en muchos dominios de aplicación. Por lo general, estas aplicaciones de software deben seguir legislaciones y normativas específicas, es decir, las entidades que participan en el sistema tienen derechos, deberes y restricciones específicas. Al igual que en otros trabajos del área, en esta tesis se utiliza el término sistemas normativos abiertos para referirse a los sistemas de este tipo. El desarrollo de sistemas normativos abiertos puede producir importantes beneficios para las compañías que los usen, ya que permiten la comunicación de instituciones, entidades heterogéneas y diferentes dispositivos con el fin de lograr tanto los objetivos globales del sistema como los individuales de cada institución y entidad. Sin embargo, también hay algunas cuestiones importantes que potencialmente pueden complicar el análisis, diseño e implementación de estos sistemas. La mayoría de estos problemas están relacionados con la interoperabilidad de sus procesos, la privacidad, la combinación de los objetivos individuales y la combinación de las restricciones y la legislación de cada una de las entidades del sistema. Por lo tanto, es necesario el uso de métodos de ingeniería del software y herramientas de desarrollo para hacer frente a estos problemas y guiar a los desarrolladores durante el proceso de desarrollo. La tecnología basada en sistemas multiagente (SMA) es considerada una buena candidata para el desarrollo de sistemas normativos abiertos. Durante los últimos años, el uso de las tecnologías SMA se ha incrementado no sólo en el ámbito académico, sino también en el desarrollo e implementación de aplicaciones industriales. Los SMA se han establecido como un paradigma de la ingeniería de software para la creación de sistemas adaptativos complejos, en entornos distribuidos y heterogéneos. Esta tesis se centra en el análisis y diseño de sistemas normativos abiertos utilizando la tecnología SMA. Algunas metodologías SMA se dedican al desarrollo de sistemas de este tipo. Sin embargo, después de analizar en qué medida las metodologías SMA actuales soportan el análisis y el diseño de estos sistemas, podemos concluir que todavía hay importantes problemas a resolver en el área. Algunos de estos problemas son la integración del contexto normativo del sistema durante el proceso de desarrollo, la falta de directrices para identificar y formalizar este contexto normativo, la falta de técnicas de validación y verificación que garanticen la coherencia del diseño final respecto a los requisitos del sistema, la coherencia entre los objetivos individuales, y la coherencia de las restricciones de cada entidad respecto al contexto normativo del sistema global. La principal aportación de esta tesis es una nueva metodología SMA llamada ROMAS (Sistemas Multiagente Regulados y Abiertos), que se centra en el análisis y diseño de procesos para el desarrollo de sistemas multiagente organizacionales, donde los agentes interactúan por medio de servicios estándares, y donde las relaciones sociales y contractuales se formalizan mediante normas y contratos. La metodología ROMAS define un proceso de desarrollo orientado a agentes y proporciona guías específicas para identificar y formalizar el marco normativo del sistema, así como las comunicaciones y los intercambios de servicios y recursos. ROMAS especifica tanto el comportamiento global del sistema como las características individuales de cada entidad. En la metodología ROMAS, agentes, roles y organizaciones se definen a través de una estructura social formal basada en un arquitectura orientada a servicios. Aquí, las organizaciones representan un conjunto de personas e instituciones que tienen que coor / Garcia Marques, ME. (2013). Engineering Regulated Open Multiagent Systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/28588 / TESIS
97

Optimizing recovery protocols for replicated database systems

García Muñoz, Luis Hector 02 September 2013 (has links)
En la actualidad, el uso de tecnologías de informacíon y sistemas de cómputo tienen una gran influencia en la vida diaria. Dentro de los sistemas informáticos actualmente en uso, son de gran relevancia los sistemas distribuidos por la capacidad que pueden tener para escalar, proporcionar soporte para la tolerancia a fallos y mejorar el desempeño de aplicaciones y proporcionar alta disponibilidad. Los sistemas replicados son un caso especial de los sistemas distribuidos. Esta tesis está centrada en el área de las bases de datos replicadas debido al uso extendido que en el presente se hace de ellas, requiriendo características como: bajos tiempos de respuesta, alto rendimiento en los procesos, balanceo de carga entre las replicas, consistencia e integridad de datos y tolerancia a fallos. En este contexto, el desarrollo de aplicaciones utilizando bases de datos replicadas presenta dificultades que pueden verse atenuadas mediante el uso de servicios de soporte a mas bajo nivel tales como servicios de comunicacion y pertenencia. El uso de los servicios proporcionados por los sistemas de comunicación de grupos permiten ocultar los detalles de las comunicaciones y facilitan el diseño de protocolos de replicación y recuperación. En esta tesis, se presenta un estudio de las alternativas y estrategias empleadas en los protocolos de replicación y recuperación en las bases de datos replicadas. También se revisan diferentes conceptos sobre los sistemas de comunicación de grupos y sincronia virtual. Se caracterizan y clasifican diferentes tipos de protocolos de replicación con respecto a la interacción o soporte que pudieran dar a la recuperación, sin embargo el enfoque se dirige a los protocolos basados en sistemas de comunicación de grupos. Debido a que los sistemas comerciales actuales permiten a los programadores y administradores de sistemas de bases de datos renunciar en alguna medida a la consistencia con la finalidad de aumentar el rendimiento, es importante determinar el nivel de consistencia necesario. En el caso de las bases de datos replicadas la consistencia está muy relacionada con el nivel de aislamiento establecido entre las transacciones. Una de las propuestas centrales de esta tesis es un protocolo de recuperación para un protocolo de replicación basado en certificación. Los protocolos de replicación de base de datos basados en certificación proveen buenas bases para el desarrollo de sus respectivos protocolos de recuperación cuando se utiliza el nivel de aislamiento snapshot. Para tal nivel de aislamiento no se requiere que los readsets sean transferidos entre las réplicas ni revisados en la fase de cetificación y ya que estos protocolos mantienen un histórico de la lista de writesets que es utilizada para certificar las transacciones, este histórico provee la información necesaria para transferir el estado perdido por la réplica en recuperación. Se hace un estudio del rendimiento del protocolo de recuperación básico y de la versión optimizada en la que se compacta la información a transferir. Se presentan los resultados obtenidos en las pruebas de la implementación del protocolo de recuperación en el middleware de soporte. La segunda propuesta esta basada en aplicar el principio de compactación de la informacion de recuperación en un protocolo de recuperación para los protocolos de replicación basados en votación débil. El objetivo es minimizar el tiempo necesario para transfeir y aplicar la información perdida por la réplica en recuperación obteniendo con esto un protocolo de recuperación mas eficiente. Se ha verificado el buen desempeño de este algoritmo a través de una simulación. Para efectuar la simulación se ha hecho uso del entorno de simulación Omnet++. En los resultados de los experimentos puede apreciarse que este protocolo de recuperación tiene buenos resultados en múltiples escenarios. Finalmente, se presenta la verificación de la corrección de ambos algoritmos de recuperación en el Capítulo 5. / Nowadays, information technology and computing systems have a great relevance on our lives. Among current computer systems, distributed systems are one of the most important because of their scalability, fault tolerance, performance improvements and high availability. Replicated systems are a specific case of distributed system. This Ph.D. thesis is centered in the replicated database field due to their extended usage, requiring among other properties: low response times, high throughput, load balancing among replicas, data consistency, data integrity and fault tolerance. In this scope, the development of applications that use replicated databases raises some problems that can be reduced using other fault-tolerant building blocks, as group communication and membership services. Thus, the usage of the services provided by group communication systems (GCS) hides several communication details, simplifying the design of replication and recovery protocols. This Ph.D. thesis surveys the alternatives and strategies being used in the replication and recovery protocols for database replication systems. It also summarizes different concepts about group communication systems and virtual synchrony. As a result, the thesis provides a classification of database replication protocols according to their support to (and interaction with) recovery protocols, always assuming that both kinds of protocol rely on a GCS. Since current commercial DBMSs allow that programmers and database administrators sacrifice consistency with the aim of improving performance, it is important to select the appropriate level of consistency. Regarding (replicated) databases, consistency is strongly related to the isolation levels being assigned to transactions. One of the main proposals of this thesis is a recovery protocol for a replication protocol based on certification. Certification-based database replication protocols provide a good basis for the development of their recovery strategies when a snapshot isolation level is assumed. In that level readsets are not needed in the validation step. As a result, they do not need to be transmitted to other replicas. Additionally, these protocols hold a writeset list that is used in the certification/validation step. That list maintains the set of writesets needed by the recovery protocol. This thesis evaluates the performance of a recovery protocol based on the writeset list tranfer (basic protocol) and of an optimized version that compacts the information to be transferred. The second proposal applies the compaction principle to a recovery protocol designed for weak-voting replication protocols. Its aim is to minimize the time needed for transferring and applying the writesets lost by the recovering replica, obtaining in this way an efficient recovery. The performance of this recovery algorithm has been checked implementing a simulator. To this end, the Omnet++ simulating framework has been used. The simulation results confirm that this recovery protocol provides good results in multiple scenarios. Finally, the correction of both recovery protocols is also justified and presented in Chapter 5. / García Muñoz, LH. (2013). Optimizing recovery protocols for replicated database systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31632 / TESIS
98

Analysis Techniques for Concurrent Programming Languages

Tamarit Muñoz, Salvador 02 September 2013 (has links)
Los lenguajes concurrentes est an cada d a m as presentes en nuestra sociedad, tanto en las nuevas tecnolog as como en los sistemas utilizados de manera cotidiana. M as a un, dada la actual distribuci on de los sistemas y su arquitectura interna, cabe esperar que este hecho siga siendo una realidad en los pr oximos a~nos. En este contexto, el desarrollo de herramientas de apoyo al desarrollo de programas concurrentes se vuelve esencial. Adem as, el comportamiento de los sistemas concurrentes es especialmente dif cil de analizar, por lo que cualquier herramienta que ayude en esta tarea, a un cuando sea limitada, ser a de gran utilidad. Por ejemplo, podemos encontrar herramientas para la depuraci on, an alisis, comprobaci on, optimizaci on, o simpli caci on de programas. Muchas de ellas son ampliamente utilizadas por los programadores hoy en d a. El prop osito de esta tesis es introducir, a trav es de diferentes lenguajes de programaci on concurrentes, t ecnicas de an alisis que puedan ayudar a mejorar la experiencia del desarrollo y publicaci on de software para modelos concurrentes. En esta tesis se introducen tanto an alisis est aticos (aproximando todas las posibles ejecuciones) como din amicos (considerando una ejecuci on en concreto). Los trabajos aqu propuestos di eren lo su ciente entre s para constituir ideas totalmente independientes, pero manteniendo un nexo com un: el hecho de ser un an alisis para un lenguaje concurrente. Todos los an alisis presentados han sido de nidos formalmente y se ha probado su correcci on, asegurando que los resultados obtenidos tendr an el grado de abilidad necesario en sistemas que lo requieran, como por ejemplo, en sistemas cr ticos. Adem as, se incluye la descripci on de las herramientas software que implementan las diferentes ideas propuestas. Esto le da al trabajo una utilidad m as all a del marco te orico, permitiendo poner en pr actica y probar con ejemplos reales los diferentes an alisis. Todas las ideas aqu presentadas constituyen, por s mismas, propuestas aplicables en multitud de contextos y problemas actuales. Adem as, individualmente sirven de punto de partida para otros an alisis derivados, as como para la adaptaci on a otros lenguajes de la misma familia. Esto le da un valor a~nadido a este trabajo, como bien atestiguan algunos trabajos posteriores que ya se est an bene ciando de los resultados obtenidos en esta tesis. / Concurrent languages are increasingly present in our society, both in new technologies and in the systems used on a daily basis. Moreover, given the current systems distribution and their internal architecture, one can expect that this remains so in the coming years. In this context, the development of tools to support the implementation of concurrent programs becomes essential. Futhermore, the behavior of concurrent systems is particularly difficult to analyse, so that any tool that helps in this task, even if in a limited way, will be very useful. For example, one can find tools for debugging, analysis, testing, optimisation, or simplification of programs, which are widely used by programmers nowadays. The purpose of this thesis is to introduce, through various concurrent programming languages, some analysis techniques that can help to improve the experience of the software development and release for concurrent models. This thesis introduces both static (approximating all possible executions) and dynamic (considering a specific execution) analysis. The topics considered here differ enough from each other to be fully independent. Nevertheless, they have a common link: they can be used to analyse properties of a concurrent programming language. All the analyses presented here have been formally defined and their correctness have been proved, ensuring that the results will have the reliability degree which is needed for some systems (for instance, for critical systems). It also includes a description of the software tools that implement the different ideas proposed. This gives the work a usefulness well beyond the theoretical aspect, allowing us to put it in practice and to test the different analyses with real-world examples All the ideas here presented are, by themselves, approaches that can be applied in many current contexts and problems. Moreover, individually they serve as a starting point for other derived analysis, as well as for the adaptation to other languages of the same family. This gives an added value to this work, a fact confirmed by some later works that are already benefiting from the results obtained in this thesis. / Tamarit Muñoz, S. (2013). Analysis Techniques for Concurrent Programming Languages [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31651 / TESIS
99

Desarrollo y validación de sistemas de Realidad Aumentada para edutainment y dispositivos móviles

Furió Ferri, David 04 February 2014 (has links)
La Realidad Aumentada (RA) es una tecnología con gran auge en los últimos años y, en especial, en dispositivos móviles. Es en dichos dispositivos móviles en los que el hardware y software disponibles presentan mayores diferencias respecto a sus predecesores. Diferencias que hacen que actualmente se puedan ejecutar correctamente aplicaciones de RA en tales dispositivos. La RA consiste en fusionar imagen real con objetos virtuales. M-learning es una metodología de enseñanza que hace uso de dispositivos móviles. La enseñanza a través de m-learning presenta ciertas ventajas respecto a la enseñanza tradicional, como, por ejemplo, la capacidad de seguir aprendiendo fuera de los entornos educativos. Por otra parte, edutainment se refiere al contenido que se crea para educar y divertir al mismo tiempo. El objetivo principal de esta tesis es el desarrollo y validación de juegos educativos para niños en dispositivos móviles. Los juegos desarrollados combinan m-learning, edutainment y RA. Los juegos incluyen minijuegos con RA y sin RA. Para la interacción utilizan manipulación física (tangible), pantalla táctil o teclado, y acelerómetro. En los estudios realizados, los juegos se comparan con juego/enseñanza tradicional y otros dispositivos (Tablet PC) con el fin de observar la eficacia que tienen con respecto al conocimiento adquirido, la diversión, la facilidad de uso, y su influencia en los niños. Como dispositivos móviles se han utilizado el Nokia N95 8Gb y el iPhone 3GS. Estos teléfonos poseen las características mínimas necesarias para desarrollar juegos de RA (cámara, aceleración gráfica, etc.). Además, el iPhone presenta capacidades táctiles y acelerómetro, que permiten una interacción más completa y variada. Se han desarrollado tres juegos educativos para niños con edades comprendidas entre 8 y 13 años. El juego ARGreenet, desarrollado para el teléfono Nokia N95 8Gb, trata de concienciar a los niños acerca del problema del cambio climático y de cómo pueden reducir su impacto ambiental mediante el reciclaje. Para el iPhone, se han desarrollado dos juegos. El primero de ellos, es un juego de multiculturalidad donde los niños conocen alimentos, monumentos y animales típicos de los continentes más pobres del mundo. El segundo juego desarrollado para el iPhone trata sobre el ciclo del agua. Se han llevado a cabo un total de seis estudios para determinar la eficacia de los juegos con respecto al aprendizaje, facilidad de uso, diversión, satisfacción, e influencia, en general, que tienen en los niños. En el primer estudio, se comparó la versión de RA (ARGreenet) con una versión sin RA (BasicGreenet). En el segundo estudio se comparó la versión individual de ARGreenet con una versión colaborativa del mismo juego (TeamARGreenet). En el tercer estudio se compararon tres versiones de ARGreenet: una individual, una colaborativa y una competitiva. Los resultados de estos tres estudios indican que ARGreenet influye en los niños de forma similar a la versión sin RA y que no hay diferencias estadísticas significativas entre las distintas versiones de ARGreenet. A pesar de este hecho, los niños prefirieron ARGreenet sobre BasicGreenet, y la versión competitiva sobre la individual y la colaborativa. En el cuarto estudio se comparó el juego de multiculturalidad desarrollado para el iPhone con juegos tradicionales. Los resultados mostraron que los niños adquirieron conocimientos similares tanto con el juego desarrollado como con el tradicional. Además, una gran mayoría de niños indicó que prefería el juego del iPhone a los juegos tradicionales y que les gustaría volver a jugar de nuevo. Los niños obtuvieron resultados similares independientemente de que utilizaran el juego autónomo (iPhone) o el juego guiado (juegos tradicionales). En el quinto estudio se comparó el juego del ciclo del agua con dos dispositivos móviles diferentes: un iPhone y un Tablet PC. De los resultados se puede observar que las diferentes características de los dispositivos (tamaño de la pantalla y peso) no influyeron en los niños con respecto al conocimiento adquirido. En el sexto estudio se comparó el juego del ciclo del agua con una lección de clase tradicional. De los resultados se puede observar que el juego del ciclo del agua demostró ser igual de eficaz que la lección de clase con respecto al conocimiento adquirido. Pero, además, el juego del iPhone consiguió motivar más a los niños. De los estudios realizados se han extraído las siguientes conclusiones generales: ¿ Los dispositivos móviles poseen características adecuadas (cámara, pantalla táctil, acelerómetro, GPS) para ayudar en el proceso de aprendizaje. ¿ La inclusión de RA en el juego permite a los niños explorar lo que se está aprendiendo desde diferentes perspectivas, de forma fácil e intuitiva. ¿ A la mayoría de los niños les gustaría utilizar RA en clase como herramienta de aprendizaje. ¿ Los juegos educativos en dispositivos móviles son efectivos a la hora de transmitir conocimiento. ¿ El tipo de juego desarrollado facilita versatilidad en el proceso de aprendizaje, ya que con un dispositivo móvil se puede aprender en cualquier lugar, sin que se precise supervisión. Por lo tanto, podrían utilizarse como complemento a las clases tradicionales. ¿ El uso de dispositivos móviles con diferentes características físicas (tamaño de la pantalla y peso) no influye significativamente en el aprendizaje adquirido. Pero, son aspectos a considerar en función de la edad. / Furió Ferri, D. (2014). Desarrollo y validación de sistemas de Realidad Aumentada para edutainment y dispositivos móviles [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/35329 / TESIS
100

SUPPORTING MULTIPLE ISOLATION LEVELS IN REPLICATED ENVIRONMENTS

Bernabe Gisbert, Jose Maria 20 March 2014 (has links)
La replicación de bases de datos aporta fiabilidad y escalabilidad aunque hacerlo de forma transparente no es una tarea sencilla. Una base de datos replicada es transparente si puede reemplazar a una base de datos centralizada tradicional sin que sea necesario adaptar el resto de componentes del sistema. La transparencia en bases de datos replicadas puede obtenerse siempre que (a) la gestión de la replicación quede totalmente oculta a dichos componentes y (b) se ofrezca la misma funcionalidad que en una base de datos tradicional. Para mejorar el rendimiento general del sistema, los gestores de bases de datos centralizadas actuales permiten ejecutar de forma concurrente transacciones bajo distintos niveles de aislamiento. Por ejemplo, la especificación del benchmark TPC-C permite la ejecución de algunas transacciones con niveles de aislamiento débiles. No obstante, este soporte todavía no está disponible en los protocolos de replicación. En esta tesis mostramos cómo estos protocolos pueden ser extendidos para permitir la ejecución de transacciones con distintos niveles de aislamiento. / Bernabe Gisbert, JM. (2014). SUPPORTING MULTIPLE ISOLATION LEVELS IN REPLICATED ENVIRONMENTS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/36535 / TESIS

Page generated in 0.0641 seconds