• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 219
  • 197
  • 4
  • 2
  • Tagged with
  • 419
  • 359
  • 358
  • 232
  • 117
  • 53
  • 50
  • 45
  • 43
  • 42
  • 41
  • 40
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

El roble en el páramo. La trayectoria fotográfica de Ramón Masats

Fuster Pérez, Jaime 07 May 2008 (has links)
La presente tesis doctoral aborda la figura y la obra de Ramón Masats en su periodo fotográfico. Desde un punto de vista histórico nuestro autor perteneció a una generación de cambio que revolucionó el panorama fotográfico español a mediados de los años cincuenta, en plena dictadura franquista. La contextualización histórica de nuestra tesis desvela tanto las causas y los motivos como las influencias extranjeras, los principales protagonistas y las entidades (asociaciones, revistas y editoriales) que participaron en ese auténtico choque generacional. Dado su carácter inquieto e hiperactivo, Masats se convirtió en uno de los principales protagonistas de la reyerta pues participó en las exposiciones más polémicas, publicó en todas las revistas fotográficas españolas del momento y perteneció a las tres asociaciones fotográficas en las que surgieron las principales voces discordantes. En un segundo estadio, nuestra tesis analiza los nuevos conceptos teóricos que se desarrollaron en ese periodo y que Masats interioriza y pone en práctica. Cabe resaltar que esos conceptos teóricos nunca serán verbalizados por Masats. Nuestro autor no es un teórico, es más, siempre ha justificado sus decisiones con la mala excusa de la intuición y el instinto. Sin embargo, en nuestro trabajo queda patente la influencia de sus compañeros de generación y hasta qué punto los mismos desarrollaron cuestiones como la renuncia expresa al pictorialismo, al salonismo y al concurso, en contraposición con el purismo fotográfico. En este sentido, conceptos como la profesionalización, la utilidad del arte, el humanismo, la experimentación o la ética son asumidos por Masats y analizados exhaustivamente en nuestro trabajo. Por último, abordamos las líneas de investigación planteadas por Masats en su práctica artística. Al respecto, cabe destacar el desarrollo por parte de nuestro autor de los tópicos fotográficos. / Fuster Pérez, J. (2008). El roble en el páramo. La trayectoria fotográfica de Ramón Masats [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2006 / Palancia
302

Un sistema para el mantenimiento de almacenes de datos

García Gerardo, Clemente 04 July 2008 (has links)
Un almacén de datos es una base de datos diseñada para dar soporte al proceso de toma de decisiones en una organización. Un sistema de almacén de datos integra en un único repositorio, información histórica procedente de distintas fuentes de datos operacionales de la organización o externas a ella. Para que el almacén de datos sea en todo momento un reflejo fiel de la organización a la que sirve, debe ser actualizado periódicamente. Este proceso puede consumir muchos recursos, y en algunos casos inhabilitar el almacén de datos para los usuarios. En organizaciones donde el sistema debe estar disponible para los analistas en todo momento, el mantenimiento del almacén se convierte en un punto crítico del sistema. Por este motivo la investigación en estrategias eficientes de mantenimiento de almacenes de datos ha recibido la atención de los investigadores desde la aparición de esta tecnología. El mantenimiento de un almacén de datos se realiza en tres fases: extracción de datos de las fuentes, transformación de los datos y actualización del almacén. En este trabajo de tesis se han abordado, las fases de transformación y principalmente la fase de actualización. Para la fase de transformación se ha desarrollado un sistema que permite realizar tareas de limpieza moderada de los datos, integración de formato e integración semántica. Pero, el trabajo principal se ha centrado en la fase de actualización, para ella se han definido e implementado dos algoritmos que permiten realizar la actualización del almacén de datos de forma incremental y en línea, es decir evitando inhabilitar el almacén de datos durante el mantenimiento. Los algoritmos se basan en una estrategia multiversión, que permite mantener un número ilimitado de versiones de los datos actualizados, permitiendo de esta manera que los usuarios accedan a una misma versión del almacén mientras éste se está actualizando. / García Gerardo, C. (2008). Un sistema para el mantenimiento de almacenes de datos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2505 / Palancia
303

A web engineering approach for the development of business process-driven web applications

Torres Bosch, María Victoria 04 August 2008 (has links)
Actualmente, la World Wide Web se ha convertido en la plataforma más común para llevar a cabo el desarrollo de aplicaciones corporativas. Estas aplicaciones reciben el nombre de aplicaciones Web y entre otras funciones, deben de dar soporte a los Procesos de Negocio (PN) definidos por las corporaciones. Esta tesis presenta un método de Ingeniería Web que permite el modelado y la construcción sistemática de aplicaciones Web que soportan la ejecución de PN. En este trabajo se conciben los PN desde un punto de vista más amplio que el abordado por otros métodos de Ingeniería Web. El tipo de PN abordados incluye tanto procesos cortos como largos. A grosso modo, esta concepción más amplia permite considerar procesos que involucran diferentes participantes (personas y/o sistemas) los cuales cooperan para llevar a cabo un objetivo particular. Además, dependiendo del tipo de proceso que se esté ejecutando (corto o largo), la interacción del usuario con el sistema deberá adaptarse a cada caso. El método presentado en esta tesis ha sido desarrollado basándose en el Desarrollo de Software Dirigido por Modelos. De esta forma, el método propone un conjunto de modelos que permiten representar los diferentes aspectos que caracterizan las aplicaciones Web que soportan la ejecución de PN. Una vez el sistema ha sido representado en los modelos correspondientes, mediante la aplicación de transformación de modelos se obtiene otros modelos (transformaciones de modelo-a-modelo) e incluso el código que representa el sistema modelado en términos de un lenguaje de implementación (transformaciones de modelo-a-texto). El método propuesto en esta tesis está soportado por una herramienta llamada BIZZY. Esta herramienta ha sido desarrollada en el entorno de Eclipse y cubre el proceso de desarrollo desde la fase de modelado hasta la generación de código. En particular, el código generado corresponde con el framework Web Tapestry (framework que genera aplicaciones Web en Java) y con WS-BPEL, / Torres Bosch, MV. (2008). A web engineering approach for the development of business process-driven web applications [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2933 / Palancia
304

Un método de desarrollo de hipermedia dirigido por modelos

Solís Pineda, Carlos 22 December 2008 (has links)
Esta tesis presenta al Model Driven Hypermedia Development Method (MDHDM). MDHDM es un método de desarrollo de hipermedia basado en el modelado de procesos y la ingeniería dirigida por modelos. La conjunción de hipertexto y multimedia, por un lado, y la popularización de la Web, por otro, generaron desafíos que los métodos tradicionales no eran capaces de resolver. Entre ellos destaca el diseño y control de la navegación por espacios complejos de información, que ha llevado a los métodos de diseño de hipermedia y de la Ingeniería Web a presentar el modelo navegacional como la gran diferencia frente a los métodos tradicionales. Sin embargo, en la mayoría de los casos el modelo navegacional se deriva de los modelos estructurales. En MDHDM el eje central del modelado conceptual lo constituye el modelado del proceso de negocio, debido a que permiten representar la naturaleza dinámica de la realidad. El modelo navegacional de MDHDM está compuesto por las estructuras navegacionales derivadas del modelos de proceso y que son llamadas vistas navegacionales y enlaces fuertes. Este modelo se complementa con las estructuras navegacionales derivadas del modelo estructural compuesto por clases navegacionales, estructuras de acceso y enlaces débiles. En MDHDM se definen los metamodelos, transformaciones y marcas para poder generar automáticamente el modelo navegacional a partir de los modelos de proceso y estructural. Además, se comprueba la correcta construcción de los modelos a través de restricciones OCL. Los pasos siguientes al diseño navegacional: el diseño de la interfaz abstracta de usuario y la implementación también se abordan. Del primero se proporciona un metamodelo y para la implementación se han tratado algunos modelos específicos de la plataforma. Además, en la tesis se presentan dos casos de estudio. / Solís Pineda, C. (2008). Un método de desarrollo de hipermedia dirigido por modelos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3884 / Palancia
305

Representación, interpretación y aprendizaje de flujos de trabajo basado en actividades para la estandarización de vías clínicas

Fernández Llatas, Carlos 06 May 2009 (has links)
Describir los mejores procesos para ejecutar correctamente una estrategia de una forma eficiente y con calidad no es siempre una tarea fácil. La estandarizaci ón de procesos en general y de Vías Clínicas en particular requiere de potentes herramientas de especificación e implementación que apoyen a los expertos en diseño. La utilización de modelos de Flujos de Trabajo (del inglés Work ows) facilita a los expertos en diseño la creación las reglas de ejecución de sus sistemas como si fueran programadores. Aún así debido a la gran mutabilidad de los procesos reales, es muy difícil conocer como los procesos se están ejecutando en la realidad. La utilización de técnicas de reconocimiento de formas pueden ayudar a los expertos en procesos a inferir, a partir de muestras de ejecución pasadas, modelos que expliquen la forma en la que estos procesos están efectivamente ejecutándose. Este paradigma es conocido como Aprendizaje de Flujos de Trabajo (del inglés Work ow Mining). Los cambios de estado en los procesos de cuidado existentes en las Vías Clínicas se basan en los resultados de las acciones. Los modelos actuales de Aprendizaje de Flujos de Trabajo no recogen esta información en sus corpus. Por eso, los actuales sistemas de aprendizaje no cubren las necesidades de problemas complejos como es el caso de las Vías Clínicas. En esta Tesis se van a estudiar los modelos de representación, interpretación y aprendizaje de Flujos de Trabajo con la intención de proponer un modelo adecuado para resolver los problemas que impiden a los diseñadores de procesos complejos, como Vías Clínicas, utilizar técnicas de Aprendizaje de Flujos de Trabajo. Para ello se va a definir un nuevo paradigma adecuado para el apoyo al diseño de Vías Clínicas, además de proporcionar herramientas para su uso. Por esto en esta Tesis se presenta además un modelo de representación de Flujos de Trabajo con una alta expresividad y legibilidad, una herramienta software capaz de ejecutar y simular Flujos de Trab / Fernández Llatas, C. (2009). Representación, interpretación y aprendizaje de flujos de trabajo basado en actividades para la estandarización de vías clínicas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4562 / Palancia
306

Achieving Autonomic Computing through the Use of Variability Models at Run-time

Cetina Englada, Carlos 15 April 2010 (has links)
Increasingly, software needs to dynamically adapt its behavior at run-time in response to changing conditions in the supporting computing infrastructure and in the surrounding physical environment. Adaptability is emerging as a necessary underlying capability, particularly for highly dynamic systems such as context-aware or ubiquitous systems. By automating tasks such as installation, adaptation, or healing, Autonomic Computing envisions computing environments that evolve without the need for human intervention. Even though there is a fair amount of work on architectures and their theoretical design, Autonomic Computing was criticised as being a \hype topic" because very little of it has been implemented fully. Furthermore, given that the autonomic system must change states at runtime and that some of those states may emerge and are much less deterministic, there is a great challenge to provide new guidelines, techniques and tools to help autonomic system development. This thesis shows that building up on the central ideas of Model Driven Development (Models as rst-order citizens) and Software Product Lines (Variability Management) can play a signi cant role as we move towards implementing the key self-management properties associated with autonomic computing. The presented approach encompass systems that are capable of modifying their own behavior with respect to changes in their operating environment, by using variability models as if they were the policies that drive the system's autonomic recon guration at runtime. Under a set of recon guration commands, the components that make up the architecture dynamically cooperate to change the con guration of the architecture to a new con guration. This work also provides the implementation of a Model-Based Recon guration Engine (MoRE) to blend the above ideas. Given a context event, MoRE queries the variability models to determine how the system should evolve, and then it provides the mechanisms for modifying the system. / Cetina Englada, C. (2010). Achieving Autonomic Computing through the Use of Variability Models at Run-time [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7484 / Palancia
307

Incremental and developmental perspectives for general-purpose learning systems

Martínez Plumed, Fernando 07 July 2016 (has links)
[EN] The stupefying success of Artificial Intelligence (AI) for specific problems, from recommender systems to self-driving cars, has not yet been matched with a similar progress in general AI systems, coping with a variety of problems. This dissertation deals with the long-standing problem of creating more general AI systems, through the analysis of their development and the evaluation of their cognitive abilities. Firstly, this thesis contributes with a general-purpose learning system that meets several desirable characteristics in terms of expressiveness, comprehensibility and versatility. The system works with approaches that are inherently general: inductive programming and reinforcement learning. The system does not rely on a fixed library of learning operators, but can be endowed with new ones, so being able to operate in a wide variety of contexts. This flexibility, jointly with its declarative character, makes it possible to use the system as an instrument for better understanding the role (and difficulty) of the constructs that each task requires. The learning process is also overhauled with a new developmental and lifelong approach for knowledge acquisition, consolidation and forgetting, which is necessary when bounded resources (memory and time) are considered. Secondly, this thesis analyses whether the use of intelligence tests for AI evaluation is a much better alternative to most task-oriented evaluation approaches in AI. Accordingly, we make a review of what has been done when AI systems have been confronted against tasks taken from intelligence tests. In this regard, we scrutinise what intelligence tests measure in machines, whether they are useful to evaluate AI systems, whether they are really challenging problems, and whether they are useful to understand (human) intelligence. Finally, the analysis of the concepts of development and incremental learning in AI systems is done at the conceptual level but also through several of these intelligence tests, providing further insight for the understanding and construction of general-purpose developing AI systems. / [ES] El éxito abrumador de la Inteligencia Artificial (IA) en la resolución de tareas específicas (desde sistemas de recomendación hasta vehículos de conducción autónoma) no ha sido aún igualado con un avance similar en sistemas de IA de carácter más general enfocados en la resolución de una mayor variedad de tareas. Esta tesis aborda la creación de sistemas de IA de propósito general así como el análisis y evaluación tanto de su desarrollo como de sus capacidades cognitivas. En primer lugar, esta tesis contribuye con un sistema de aprendizaje de propósito general que reúne distintas ventajas como expresividad, comprensibilidad y versatilidad. El sistema está basado en aproximaciones de carácter inherentemente general: programación inductiva y aprendizaje por refuerzo. Además, dicho sistema se basa en una biblioteca dinámica de operadores de aprendizaje por lo que es capaz de operar en una amplia variedad de contextos. Esta flexibilidad, junto con su carácter declarativo, hace que sea posible utilizar el sistema de forma instrumental con el objetivo de facilitar la comprensión de las distintas construcciones que cada tarea requiere para ser resuelta. Por último, el proceso de aprendizaje también se revisa por medio de un enfoque evolutivo e incremental de adquisición, consolidación y olvido de conocimiento, necesario cuando se trabaja con recursos limitados (memoria y tiempo). En segundo lugar, esta tesis analiza el uso de tests de inteligencia humana para la evaluación de sistemas de IA y plantea si su uso puede constituir una alternativa válida a los enfoques actuales de evaluación de IA (más orientados a tareas). Para ello se realiza una exhaustiva revisión bibliográfica de aquellos sistemas de IA que han sido utilizados para la resolución de este tipo de problemas. Esto ha permitido analizar qué miden realmente los tests de inteligencia en los sistemas de IA, si son significativos para su evaluación, si realmente constituyen problemas complejos y, por último, si son útiles para entender la inteligencia (humana). Finalmente se analizan los conceptos de desarrollo cognitivo y aprendizaje incremental en sistemas de IA no solo a nivel conceptual, sino también por medio de estos problemas mejorando por tanto la comprensión y construcción de sistemas de propósito general evolutivos. / [CAT] L'èxit aclaparant de la Intel·ligència Artificial (IA) en la resolució de tasques específiques (des de sistemes de recomanació fins a vehicles de conducció autònoma) no ha sigut encara igualat amb un avanç similar en sistemes de IA de caràcter més general enfocats en la resolució d'una major varietat de tasques. Aquesta tesi aborda la creació de sistemes de IA de propòsit general així com l'anàlisi i avaluació tant del seu desenvolupament com de les seues capacitats cognitives. En primer lloc, aquesta tesi contribueix amb un sistema d'aprenentatge de propòsit general que reuneix diferents avantatges com ara expressivitat, comprensibilitat i versatilitat. El sistema està basat en aproximacions de caràcter inherentment general: programació inductiva i aprenentatge per reforç. A més, el sistema utilitza una biblioteca dinàmica d'operadors d'aprenentatge pel que és capaç d'operar en una àmplia varietat de contextos. Aquesta flexibilitat, juntament amb el seu caràcter declaratiu, fa que siga possible utilitzar el sistema de forma instrumental amb l'objectiu de facilitar la comprensió de les diferents construccions que cada tasca requereix per a ser resolta. Finalment, el procés d'aprenentatge també és revisat mitjançant un enfocament evolutiu i incremental d'adquisició, consolidació i oblit de coneixement, necessari quan es treballa amb recursos limitats (memòria i temps). En segon lloc, aquesta tesi analitza l'ús de tests d'intel·ligència humana per a l'avaluació de sistemes de IA i planteja si el seu ús pot constituir una alternativa vàlida als enfocaments actuals d'avaluació de IA (més orientats a tasques). Amb aquesta finalitat, es realitza una exhaustiva revisió bibliogràfica d'aquells sistemes de IA que han sigut utilitzats per a la resolució d'aquest tipus de problemes. Açò ha permès analitzar què mesuren realment els tests d'intel·ligència en els sistemes de IA, si són significatius per a la seua avaluació, si realment constitueixen problemes complexos i, finalment, si són útils per a entendre la intel·ligència (humana). Finalment s'analitzen els conceptes de desenvolupament cognitiu i aprenentatge incremental en sistemes de IA no solament a nivell conceptual, sinó també per mitjà d'aquests problemes millorant per tant la comprensió i construcció de sistemes de propòsit general evolutius. / Martínez Plumed, F. (2016). Incremental and developmental perspectives for general-purpose learning systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/67269 / TESIS
308

Author Profiling en Social Media: Identificación de Edad, Sexo y Variedad del Lenguaje

Rangel Pardo, Francisco Manuel 07 July 2016 (has links)
[EN] The possibility of knowing people traits on the basis of what they write is a field of growing interest named author profiling. To infer a user's gender, age, native language or personality traits, simply by analysing her texts, opens a wide range of possibilities from the point of view of forensics, security and marketing. Furthermore, social media proliferation, which allows for new communication models and human relations, strengthens this wide range of possibilities to bounds never seen before. Idiosyncrasy inherent to social media makes them a special environment of communication, where freedom of expression, informality and spontaneous generation of topics and trends, enhances the knowledge of the daily reality of people in their use of language. However, the same idiosyncrasy makes difficult, or extremely costly, the application of linguistic techniques. In this work we have proposed EmoGraph, a graph-based approach with the aim at modelling the way that users express their emotions, and the way they include them in their discourse, bearing in mind not only their frequency of occurrence, but also their position and relationship with other elements in the discourse. Our starting hypothesis is that users express themselves and their emotions differently depending on their age and gender, and besides, we think that this is independent on their language and social media where they write. We have collaborated in the creation of a common framework of evaluation at the PAN Lab of CLEF, generating resources that allowed us to verify our hypothesis achieving comparable and competitive results with the best ones obtained by other researchers on the field. In addition, we have investigated whether the expression of emotions would help to differentiate among users of different varieties of the same language, for example, Spanish from Spain, Mexican and Argentinian, or Portuguese from Portugal and Brazil. Our hypothesis is that the variation among languages is based more on lexical aspects, and we have corroborated it after comparing EmoGraph with representations based on word patterns, distributed representations and a representation that uses the whole vocabulary, but reducing its dimensionality to only 6 features per class, what is suitable for its application to big data environments such as social media. / [ES] La posibilidad de conocer rasgos de una persona a partir únicamente de los textos que escribe se ha convertido en un área de gran interés denominada author profiling. Ser capaz de inferir de un usuario su sexo, edad, idioma nativo o los rasgos de su personalidad, simplemente analizando sus textos, abre todo un abanico de posibilidades desde el punto de vista forense, de la seguridad o del marketing. Además, la proliferación de los medios sociales, que favorece nuevos modelos de comunicación y relación humana, potencia este abanico de posibilidades hasta cotas nunca antes vistas. La idiosincrasia inherente a estos medios sociales hace de ellos un entorno de comunicación especial, donde la libertad de expresión, la informalidad y la generación espontánea de temáticas y tendencias propician el acercamiento a la realidad diaria de las personas en su uso de la lengua. Sin embargo, esa misma idiosincrasia hace que en muchas ocasiones la aplicación de técnicas lingüísticas de análisis no sea posible, o sea extremadamente costoso. En este trabajo hemos propuesto EmoGraph, una representación basada en grafos con el objetivo de modelar el modo en que los usuarios expresan sus emociones, y el modo en que las articulan en el marco de su discurso, teniendo en consideración no sólo su frecuencia, sino también su posición y relación con y respecto a los elementos del mismo. Nuestra hipótesis de partida es que los usuarios se expresan y expresan sus emociones de manera diferente dependiendo de su edad y sexo, y además, pensamos que esto es así independientemente de su idioma y del medio donde escriban. Hemos colaborado en la creación de un marco común de evaluación en el laboratorio PAN del CLEF, generando recursos que nos han permitido verificar nuestra hipótesis y conseguir resultados comparables y competitivos con los mejores resultados obtenidos por los investigadores del área. Además, hemos querido investigar si la expresión de emociones permitiría diferenciar entre hablantes de diferentes variedades de una misma lengua, por ejemplo españoles, mexicanos o argentinos, o portugueses y brasileños. Nuestra hipótesis es que la variación entre lenguas se basa más en aspectos léxicos, y así lo hemos corroborado tras comparar EmoGraph con representaciones basadas en patrones, representaciones distribuidas y una representación que toma en consideración el vocabulario completo, pero reduciendo su dimensionalidad a únicamente 6 características por clase y que se erige idónea para su aplicación en entornos big data como los medios sociales. / [CAT] La possibilitat de conèixer trets d'una persona únicament a partir dels textos que escriu s'ha convertit en una àrea de gran interès anomenada author profiling. Ser capaç d'inferir d'un usuari el sexe, l'edat, l'idioma nadiu o els trets de la seua personalitat tan sols analitzant els seus textos, obre tot un ventall de possibilitats des del punt de vista forense, de la seguretat o del màrketing. A més, la proliferació dels mitjans socials, que afavoreix nous models de comunicació i de relació humana, potencia aquest ventall de possibilitats fins a cotes que no s'han vist fins ara. La idiosincràsia inherent a aquests mitjans socials en fa d'ells un entorn de comunicació especial, on la llibertat d'expressió, la informalitat i la generació espontània de temàtiques i tendències propicien l'aproximació a la realitat diària de les persones en l'ús que fan de la llengua. Tanmateix, aquesta idiosincràsia fa que en moltes ocasions no es puguin aplicar tècniques lingüístiques d'anàlisi, o que fer-ho resulti extremadament costós. En aquest treball hem proposat EmoGraph, una representació basada en grafs que té l'objectiu de modelar la manera en què els usaris expressen les seves emocions, i la manera com les articulen en el marc de llur discurs, considerant-ne no només la freqüència sinó també la posició i la relació amb i respecte als elements del discurs. La nostra hipòtesi de partida és que els usuaris s'expressen i expressen llurs emocions de manera diferent depenent de l'edat i el sexe, i a més, pensem que això és així independentment de l'idioma i del mitjà en què escriguin. Hem col·laborat en la creació d'un marc comú d'avaluació al laboratori PAN del CLEF, generant recursos que ens han permès verificar la nostra hipòtesi i aconseguir resultats comparables i competitius amb els millors resultats obtinguts pels investigadors de l'àrea. A més, hem volgut investigar si l'expressió d'emocions permetria establir diferències enre parlants de diferents varietats d'una mateixa llengua, per exemple espanyols, mexicans o argentins, o portuguesos i brasilers. La nostra hipòtesi és que la variació entre llengües es basa més en aspectes lèxics, i així ho hem corroborat després de comparar EmoGraph amb representacions basades en patrons, representacions distribuïdes i una representació que considera el vocabulari complet, però reduint-ne la dimensionalitat només a 6 característiques per classe i que s'erigeix de manera idònia per a aplicar-la en entorns big data com els mitjans socials. / Rangel Pardo, FM. (2016). Author Profiling en Social Media: Identificación de Edad, Sexo y Variedad del Lenguaje [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/67270 / TESIS
309

Contributions to Pen & Touch Human-Computer Interaction

Martín-Albo Simón, Daniel 01 September 2016 (has links)
[EN] Computers are now present everywhere, but their potential is not fully exploited due to some lack of acceptance. In this thesis, the pen computer paradigm is adopted, whose main idea is to replace all input devices by a pen and/or the fingers, given that the origin of the rejection comes from using unfriendly interaction devices that must be replaced by something easier for the user. This paradigm, that was was proposed several years ago, has been only recently fully implemented in products, such as the smartphones. But computers are actual illiterates that do not understand gestures or handwriting, thus a recognition step is required to "translate" the meaning of these interactions to computer-understandable language. And for this input modality to be actually usable, its recognition accuracy must be high enough. In order to realistically think about the broader deployment of pen computing, it is necessary to improve the accuracy of handwriting and gesture recognizers. This thesis is devoted to study different approaches to improve the recognition accuracy of those systems. First, we will investigate how to take advantage of interaction-derived information to improve the accuracy of the recognizer. In particular, we will focus on interactive transcription of text images. Here the system initially proposes an automatic transcript. If necessary, the user can make some corrections, implicitly validating a correct part of the transcript. Then the system must take into account this validated prefix to suggest a suitable new hypothesis. Given that in such application the user is constantly interacting with the system, it makes sense to adapt this interactive application to be used on a pen computer. User corrections will be provided by means of pen-strokes and therefore it is necessary to introduce a recognizer in charge of decoding this king of nondeterministic user feedback. However, this recognizer performance can be boosted by taking advantage of interaction-derived information, such as the user-validated prefix. Then, this thesis focuses on the study of human movements, in particular, hand movements, from a generation point of view by tapping into the kinematic theory of rapid human movements and the Sigma-Lognormal model. Understanding how the human body generates movements and, particularly understand the origin of the human movement variability, is important in the development of a recognition system. The contribution of this thesis to this topic is important, since a new technique (which improves the previous results) to extract the Sigma-lognormal model parameters is presented. Closely related to the previous work, this thesis study the benefits of using synthetic data as training. The easiest way to train a recognizer is to provide "infinite" data, representing all possible variations. In general, the more the training data, the smaller the error. But usually it is not possible to infinitely increase the size of a training set. Recruiting participants, data collection, labeling, etc., necessary for achieving this goal can be time-consuming and expensive. One way to overcome this problem is to create and use synthetically generated data that looks like the human. We study how to create these synthetic data and explore different approaches on how to use them, both for handwriting and gesture recognition. The different contributions of this thesis have obtained good results, producing several publications in international conferences and journals. Finally, three applications related to the work of this thesis are presented. First, we created Escritorie, a digital desk prototype based on the pen computer paradigm for transcribing handwritten text images. Second, we developed "Gestures à Go Go", a web application for bootstrapping gestures. Finally, we studied another interactive application under the pen computer paradigm. In this case, we study how translation reviewing can be done more ergonomically using a pen. / [ES] Hoy en día, los ordenadores están presentes en todas partes pero su potencial no se aprovecha debido al "miedo" que se les tiene. En esta tesis se adopta el paradigma del pen computer, cuya idea fundamental es sustituir todos los dispositivos de entrada por un lápiz electrónico o, directamente, por los dedos. El origen del rechazo a los ordenadores proviene del uso de interfaces poco amigables para el humano. El origen de este paradigma data de hace más de 40 años, pero solo recientemente se ha comenzado a implementar en dispositivos móviles. La lenta y tardía implantación probablemente se deba a que es necesario incluir un reconocedor que "traduzca" los trazos del usuario (texto manuscrito o gestos) a algo entendible por el ordenador. Para pensar de forma realista en la implantación del pen computer, es necesario mejorar la precisión del reconocimiento de texto y gestos. El objetivo de esta tesis es el estudio de diferentes estrategias para mejorar esta precisión. En primer lugar, esta tesis investiga como aprovechar información derivada de la interacción para mejorar el reconocimiento, en concreto, en la transcripción interactiva de imágenes con texto manuscrito. En la transcripción interactiva, el sistema y el usuario trabajan "codo con codo" para generar la transcripción. El usuario valida la salida del sistema proporcionando ciertas correcciones, mediante texto manuscrito, que el sistema debe tener en cuenta para proporcionar una mejor transcripción. Este texto manuscrito debe ser reconocido para ser utilizado. En esta tesis se propone aprovechar información contextual, como por ejemplo, el prefijo validado por el usuario, para mejorar la calidad del reconocimiento de la interacción. Tras esto, la tesis se centra en el estudio del movimiento humano, en particular del movimiento de las manos, utilizando la Teoría Cinemática y su modelo Sigma-Lognormal. Entender como se mueven las manos al escribir, y en particular, entender el origen de la variabilidad de la escritura, es importante para el desarrollo de un sistema de reconocimiento, La contribución de esta tesis a este tópico es importante, dado que se presenta una nueva técnica (que mejora los resultados previos) para extraer el modelo Sigma-Lognormal de trazos manuscritos. De forma muy relacionada con el trabajo anterior, se estudia el beneficio de utilizar datos sintéticos como entrenamiento. La forma más fácil de entrenar un reconocedor es proporcionar un conjunto de datos "infinito" que representen todas las posibles variaciones. En general, cuanto más datos de entrenamiento, menor será el error del reconocedor. No obstante, muchas veces no es posible proporcionar más datos, o hacerlo es muy caro. Por ello, se ha estudiado como crear y usar datos sintéticos que se parezcan a los reales. Las diferentes contribuciones de esta tesis han obtenido buenos resultados, produciendo varias publicaciones en conferencias internacionales y revistas. Finalmente, también se han explorado tres aplicaciones relaciones con el trabajo de esta tesis. En primer lugar, se ha creado Escritorie, un prototipo de mesa digital basada en el paradigma del pen computer para realizar transcripción interactiva de documentos manuscritos. En segundo lugar, se ha desarrollado "Gestures à Go Go", una aplicación web para generar datos sintéticos y empaquetarlos con un reconocedor de forma rápida y sencilla. Por último, se presenta un sistema interactivo real bajo el paradigma del pen computer. En este caso, se estudia como la revisión de traducciones automáticas se puede realizar de forma más ergonómica. / [CAT] Avui en dia, els ordinadors són presents a tot arreu i es comunament acceptat que la seva utilització proporciona beneficis. No obstant això, moltes vegades el seu potencial no s'aprofita totalment. En aquesta tesi s'adopta el paradigma del pen computer, on la idea fonamental és substituir tots els dispositius d'entrada per un llapis electrònic, o, directament, pels dits. Aquest paradigma postula que l'origen del rebuig als ordinadors prové de l'ús d'interfícies poc amigables per a l'humà, que han de ser substituïdes per alguna cosa més coneguda. Per tant, la interacció amb l'ordinador sota aquest paradigma es realitza per mitjà de text manuscrit i/o gestos. L'origen d'aquest paradigma data de fa més de 40 anys, però només recentment s'ha començat a implementar en dispositius mòbils. La lenta i tardana implantació probablement es degui al fet que és necessari incloure un reconeixedor que "tradueixi" els traços de l'usuari (text manuscrit o gestos) a alguna cosa comprensible per l'ordinador, i el resultat d'aquest reconeixement, actualment, és lluny de ser òptim. Per pensar de forma realista en la implantació del pen computer, cal millorar la precisió del reconeixement de text i gestos. L'objectiu d'aquesta tesi és l'estudi de diferents estratègies per millorar aquesta precisió. En primer lloc, aquesta tesi investiga com aprofitar informació derivada de la interacció per millorar el reconeixement, en concret, en la transcripció interactiva d'imatges amb text manuscrit. En la transcripció interactiva, el sistema i l'usuari treballen "braç a braç" per generar la transcripció. L'usuari valida la sortida del sistema donant certes correccions, que el sistema ha d'usar per millorar la transcripció. En aquesta tesi es proposa utilitzar correccions manuscrites, que el sistema ha de reconèixer primer. La qualitat del reconeixement d'aquesta interacció és millorada, tenint en compte informació contextual, com per exemple, el prefix validat per l'usuari. Després d'això, la tesi se centra en l'estudi del moviment humà en particular del moviment de les mans, des del punt de vista generatiu, utilitzant la Teoria Cinemàtica i el model Sigma-Lognormal. Entendre com es mouen les mans en escriure és important per al desenvolupament d'un sistema de reconeixement, en particular, per entendre l'origen de la variabilitat de l'escriptura. La contribució d'aquesta tesi a aquest tòpic és important, atès que es presenta una nova tècnica (que millora els resultats previs) per extreure el model Sigma- Lognormal de traços manuscrits. De forma molt relacionada amb el treball anterior, s'estudia el benefici d'utilitzar dades sintètiques per a l'entrenament. La forma més fàcil d'entrenar un reconeixedor és proporcionar un conjunt de dades "infinit" que representin totes les possibles variacions. En general, com més dades d'entrenament, menor serà l'error del reconeixedor. No obstant això, moltes vegades no és possible proporcionar més dades, o fer-ho és molt car. Per això, s'ha estudiat com crear i utilitzar dades sintètiques que s'assemblin a les reals. Les diferents contribucions d'aquesta tesi han obtingut bons resultats, produint diverses publicacions en conferències internacionals i revistes. Finalment, també s'han explorat tres aplicacions relacionades amb el treball d'aquesta tesi. En primer lloc, s'ha creat Escritorie, un prototip de taula digital basada en el paradigma del pen computer per realitzar transcripció interactiva de documents manuscrits. En segon lloc, s'ha desenvolupat "Gestures à Go Go", una aplicació web per a generar dades sintètiques i empaquetar-les amb un reconeixedor de forma ràpida i senzilla. Finalment, es presenta un altre sistema inter- actiu sota el paradigma del pen computer. En aquest cas, s'estudia com la revisió de traduccions automàtiques es pot realitzar de forma més ergonòmica. / Martín-Albo Simón, D. (2016). Contributions to Pen & Touch Human-Computer Interaction [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/68482 / TESIS
310

Software-Assisted Knowledge Generation in the Cultural Heritage Domain: A Conceptual Framework

Martín Rodilla, Patricia 01 September 2016 (has links)
[EN] Software Engineering provides a repository of techniques, methods and tools to manage, process, use and exploit information. In recent decades, this corpus has not only been applied to domains that traditionally act as a receivers of software solutions, but also it has been expanded and enriched by contributions from other disciplines and domains with needs related to the information produced. One of the most common needs in these disciplines is the software assistance to experts or domain professionals in performing processes ranging from the analysis of raw gathered data to the generation of new knowledge based on these, thus allowing the continuous advance of the discipline. In order to assist knowledge generation processes through software, it is necessary a deep understanding of the Software Engineering corpus as well as the particularities of the domain assisted and how knowledge is generated inside it.This situation appears too in the Cultural Heritage domain, whose professionals produce and manage large amounts of data about evidences of our past and present, from which they create new knowledge that constitutes the knowledge about heritage of a particular community.Despite their relevance and the regular application of Software Engineering solutions to the Cultural Heritage domain, the knowledge generation process in Cultural Heritage poses a challenge for Software Engineering, mainly due to the low presence of formal studies of the process, making it difficult to assist it through software. The lack of formal studies implies that we do not know which particular processes in Cultural Heritage we must assist and what should be the appropriate assistance in each case. Furthermore, the Cultural Heritage domain and, in general, the humanities, possesses some particular characteristics that are especially difficult to deal with by software, such as the presence of high subjectivity, the fact that much information is uncertain or vague, and the importance of the temporal aspect in the information. In order to address these two challenges from a transdisciplinary perspective, this thesis presents a conceptual framework based on software models for the construction of software solutions to assist to the knowledge generation process in Cultural Heritage. Firstly, the thesis conducts a deep exploration of the knowledge generation processes in Cultural Heritage, whose inputs are mainly textual sources. As a result, the thesis proposes a methodology and a modelling language to use discourse analysis in Software Engineering. By using this approach, it is possible to relate elements of a text with the domain entities that are referenced and the argumentative mechanisms used during the knowledge generation process and captured in the text. Subsequently, the thesis proposes a conceptual framework whose implementation allows to manage the domain particularities mentioned above, providing a software assistance to the Cultural Heritage professionals through information visualization techniques.The proposed conceptual framework has been validated in two complementary ways. On the one hand, we have developed a full case study in the Cultural Heritage domain, for which we have instantiated all the software models proposed as part of the framework to represent a real-world scenario. This case study application has revealed the potential of the framework in terms of conceptual representation, technical support and software-assistance definition mechanisms.On the other hand, the proposed software models have been implemented as a functional iOS application prototype. The prototype has been validated empirically against professionals in Cultural Heritage, comparing the performance of knowledge generation processes using the proposed framework to the conventional ways without software assistance. The empirical validation has revealed how the proposed framework provides a robust solution for implementing software-assistance in Cultural Heritage. / [ES] La ingeniería del software ofrece un repositorio de técnicas, métodos y herramientas como soluciones para el manejo, tratamiento, uso y explotación de información. En las últimas décadas, este corpus no sólo ha sido aplicado a dominios tradicionalmente receptores de soluciones software, sino que se ha expandido y enriquecido con aportaciones de diversas disciplinas y dominios con necesidades relacionadas con la información que producen.Una de las necesidades más habituales es la asistencia a los profesionales de dichas disciplinas durante el proceso evolutivo que realizan desde el análisis de los datos más primarios hasta la generación de conocimiento nuevo que permita avanzar en la disciplina involucrada. Este es el caso del Patrimonio Cultural, cuyos profesionales producen y manejan ingentes cantidades de datos acerca de evidencias sobre nuestro pasado y presente, y desde los cuáles descubren y generan conocimiento nuevo, que supone la herencia cultural propia de una comunidad. Este conocimiento define la comunidad en el presente y es transmitido a las generaciones presentes y futuras. Pese a su relevancia y a la habitual aplicación de determinadas soluciones de ingeniería software en el dominio, el proceso de generación de conocimiento en Patrimonio Cultural representa en sí mismo un reto para la ingeniería del software, debido fundamentalmente a la poca presencia de estudios formales acerca del mismo, lo que dificulta su asistencia mediante software. Esto implica que no sabemos qué tipo de subprocesos debemos asistir mediante software ni cuál es la asistencia más adecuada. Además, el corpus actual en ingeniería del software debe soportar especificidades del dominio patrimonial y, en general, de las humanidades, como son la presencia de una alta subjetividad, el hecho de que mucha información es incierta o vaga, y la importancia del aspecto temporal en los datos. Con el objetivo de abordar estos dos retos desde una perspectiva co-investigadora y transdisciplinar, la presente tesis doctoral presenta un marco conceptual basado en modelos software para la construcción de soluciones software que asistan a la generación de conocimiento en Patrimonio Cultural. La tesis explora a fondo el proceso de generación de conocimiento en Patrimonio Cultural, cuyas fuentes eminentemente textuales han dado lugar a la propuesta de una metodología completa y un lenguaje de modelado para utilizar análisis del discurso en ingeniería del software. Esta propuesta permite que se puedan relacionar elementos de un texto con las entidades del dominio que se referencian, así como los mecanismos argumentativos que se emplean.Posteriormente, la tesis propone un marco conceptual completo cuya implementación permite gestionar las especificidades del dominio antes señaladas, ofreciendo una asistencia mediante técnicas de visualización de información software a los especialistas en Patrimonio Cultural. El marco conceptual propuesto ha sido validado de dos maneras complementarias. Por un lado, se ha desarrollado un caso de estudio patrimonial completo, para el cual se han implementado todos los modelos software del marco conceptual propuesto, representando un escenario de aplicación completo del mundo real. Este caso de estudio ha permitido comprobar la potencia del marco conceptual propuesto en cuanto a representación, soporte y definición de mecanismos de asistencia software. Por otro lado, los modelos software que conforman el marco conceptual propuesto han sido implementados en un prototipo funcional en forma de aplicación iOS. Esto ha permitido contar con una implementación real de asistencia software en Patrimonio Cultural. Dicha solución se ha validado empíricamente con profesionales del dominio, comparándola con los modos de generación de conocimiento habituales sin dicha asistencia.La validación empírica ha permitido comprobar cómo el marco propuesto constituye una solución sólida para la construcci / [CAT] L'enginyeria del programari ofereix un repositori de tècniques, mètodes i eines com a suport per la manipulació, tractament, ús i explotació d'informació. En les darreres dècades, aquest corpus no sols ha sigut aplicat a dominis tradicionalment receptors de solucions de programari, si no que s'han extés i enriquit amb aportacions des de diferents disciplines i dominis amb necessitats relacionades amb l'informació que produeixen. Una de les necessitats més habituals és l'assistència als professionals d'aquestes disciplines durant el procés evolutiu que realitzen des de l'anàlisi de les dades més primàries fins la generació de nou coneixement que permet avançar en la disciplina involucrada. Aquest és el cas del Patrimoni Cultural, el professionals del qual produeixen i manipulen grans quantitats de dades sobre evidències del nostre passat i present, i des de les quals descobreixen i generen nou coneixement, que suposa l'herència cultural pròpia d'una comunitat. A pesar de la seua relevància i a la normal aplicació de determinades solucions d'enginyeria de programari al domini, el procés de generació de coneixement en Patrimoni Cultural representa, en sí mateix, un repte per a l'enginyeria del programari, fonamentalment per la poca presència d'estudis formals sobre aquest domini, cosa que dificulta la seua assistència per programari. Açò implica que no sabem quin tipus de subprocessos hem d'assistir amb programari ni quina és l'assitència més adient. A més a més, el corpus actual en l'enginyeria del programari ha de suportar especifitats del domini patrimonial i, en general, de les humanitats, com són la presència d'una alta subjectivitat, i el fet que molta informació és incerta o imprescisa, o la importància de la dimensió temporal en les dades. Amb l'objectiu d'abordar aquestos dos reptes des d'una perspectiva de recerca colaborativa i transdisciplinar, aquesta tesi doctoral presenta un marc conceptual basat en models de programari per a la construcció de solucions de programari que assistisquen a la generació de coneixement en Patrimoni Cultural. En primer lloc, la tesi explora en profunditat el procés de generació de coneixement en Patrimoni Cultural, les fonts de les quals són majoritàriament textuals han sigut l'orige per a la proposta d'una metodologia completa i un llenguatge de modelatge per emprar anàlisi del discurs en enginyeria de programari. Aquesta proposta permet que es puguen relacionar elements d'un text amb les entitats del domini que es referencien, així com els mecanismes argumentatius que s'empren. Posteriorment, la tesi proposa un marc conceptual complet amb una implementació que permet gestionar les especificitats del domini abans esmentades, oferint una assistència mitjançant tècniques de visualització d'informació de programari als especialistes en Patrimoni Cultural.El marc conceptual proposat ha sigut validat de dues maneres complementàries. Per una banda, s'ha desenvolupat un cas d'estudi patrimonial complet, implementant tots els models de programari del marc conceptual proposat, representant un escenari d'aplicació complet del món real. Aquest cas d'estudi ha permés comprovar la potència del marc conceptual proposat en quant a la representació, suport i definició de mecanismes d'assistència de programari. Per una altra banda, els models de programari que conformen el marc conceptual proposat s'han implementat en un prototipus funcional en forma d'aplicació iOS. Aquest fet ha permés comptar amb una implementació real d'assistència de programari en Patrimoni Cultural. Aquesta solució s'ha validat empíricament amb professionals del domini, comparant-la amb els modes de generació de coneixement habituals sense aquesta assistència. La validació empírica ha permés comprovar com el marc conceptual proposat constitueix una solució sòlida per a la construcció, a partir dels models de programari especificats, dels sistemes de prog / Martín Rodilla, P. (2016). Software-Assisted Knowledge Generation in the Cultural Heritage Domain: A Conceptual Framework [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/68496 / TESIS

Page generated in 0.025 seconds