• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 219
  • 197
  • 4
  • 2
  • Tagged with
  • 419
  • 359
  • 358
  • 232
  • 117
  • 53
  • 50
  • 45
  • 43
  • 42
  • 41
  • 40
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Streaming Automatic Speech Recognition with Hybrid Architectures and Deep Neural Network Models

Jorge Cano, Javier 30 December 2022 (has links)
Tesis por compendio / [ES] Durante la última década, los medios de comunicación han experimentado una revolución, alejándose de la televisión convencional hacia las plataformas de contenido bajo demanda. Además, esta revolución no ha cambiado solamente la manera en la que nos entretenemos, si no también la manera en la que aprendemos. En este sentido, las plataformas de contenido educativo bajo demanda también han proliferado para proporcionar recursos educativos de diversos tipos. Estas nuevas vías de distribución de contenido han llegado con nuevos requisitos para mejorar la accesibilidad, en particular las relacionadas con las dificultades de audición y las barreras lingüísticas. Aquí radica la oportunidad para el reconocimiento automático del habla (RAH) para cumplir estos requisitos, proporcionando subtitulado automático de alta calidad. Este subtitulado proporciona una base sólida para reducir esta brecha de accesibilidad, especialmente para contenido en directo o streaming. Estos sistemas de streaming deben trabajar bajo estrictas condiciones de tiempo real, proporcionando la subtitulación tan rápido como sea posible, trabajando con un contexto limitado. Sin embargo, esta limitación puede conllevar una degradación de la calidad cuando se compara con los sistemas para contenido en diferido u offline. Esta tesis propone un sistema de RAH en streaming con baja latencia, con una calidad similar a un sistema offline. Concretamente, este trabajo describe el camino seguido desde el sistema offline híbrido inicial hasta el eficiente sistema final de reconocimiento en streaming. El primer paso es la adaptación del sistema para efectuar una sola iteración de reconocimiento haciendo uso de modelos de lenguaje estado del arte basados en redes neuronales. En los sistemas basados en múltiples iteraciones estos modelos son relegados a una segunda (o posterior) iteración por su gran coste computacional. Tras adaptar el modelo de lenguaje, el modelo acústico basado en redes neuronales también tiene que adaptarse para trabajar con un contexto limitado. La integración y la adaptación de estos modelos es ampliamente descrita en esta tesis, evaluando el sistema RAH resultante, completamente adaptado para streaming, en conjuntos de datos académicos extensamente utilizados y desafiantes tareas basadas en contenidos audiovisuales reales. Como resultado, el sistema proporciona bajas tasas de error con un reducido tiempo de respuesta, comparables al sistema offline. / [CA] Durant l'última dècada, els mitjans de comunicació han experimentat una revolució, allunyant-se de la televisió convencional cap a les plataformes de contingut sota demanda. A més a més, aquesta revolució no ha canviat només la manera en la que ens entretenim, si no també la manera en la que aprenem. En aquest sentit, les plataformes de contingut educatiu sota demanda també han proliferat pera proporcionar recursos educatius de diversos tipus. Aquestes noves vies de distribució de contingut han arribat amb nous requisits per a millorar l'accessibilitat, en particular les relacionades amb les dificultats d'audició i les barreres lingüístiques. Aquí radica l'oportunitat per al reconeixement automàtic de la parla (RAH) per a complir aquests requisits, proporcionant subtitulat automàtic d'alta qualitat. Aquest subtitulat proporciona una base sòlida per a reduir aquesta bretxa d'accessibilitat, especialment per a contingut en directe o streaming. Aquests sistemes han de treballar sota estrictes condicions de temps real, proporcionant la subtitulació tan ràpid com sigui possible, treballant en un context limitat. Aquesta limitació, però, pot comportar una degradació de la qualitat quan es compara amb els sistemes per a contingut en diferit o offline. Aquesta tesi proposa un sistema de RAH en streaming amb baixa latència, amb una qualitat similar a un sistema offline. Concretament, aquest treball descriu el camí seguit des del sistema offline híbrid inicial fins l'eficient sistema final de reconeixement en streaming. El primer pas és l'adaptació del sistema per a efectuar una sola iteració de reconeixement fent servir els models de llenguatge de l'estat de l'art basat en xarxes neuronals. En els sistemes basats en múltiples iteracions aquests models son relegades a una segona (o posterior) iteració pel seu gran cost computacional. Un cop el model de llenguatge s'ha adaptat, el model acústic basat en xarxes neuronals també s'ha d'adaptar per a treballar amb un context limitat. La integració i l'adaptació d'aquests models és àmpliament descrita en aquesta tesi, avaluant el sistema RAH resultant, completament adaptat per streaming, en conjunts de dades acadèmiques àmpliament utilitzades i desafiants tasques basades en continguts audiovisuals reals. Com a resultat, el sistema proporciona baixes taxes d'error amb un reduït temps de resposta, comparables al sistema offline. / [EN] Over the last decade, the media have experienced a revolution, turning away from the conventional TV in favor of on-demand platforms. In addition, this media revolution not only changed the way entertainment is conceived but also how learning is conducted. Indeed, on-demand educational platforms have also proliferated and are now providing educational resources on diverse topics. These new ways to distribute content have come along with requirements to improve accessibility, particularly related to hearing difficulties and language barriers. Here is the opportunity for automatic speech recognition (ASR) to comply with these requirements by providing high-quality automatic captioning. Automatic captioning provides a sound basis for diminishing the accessibility gap, especially for live or streaming content. To this end, streaming ASR must work under strict real-time conditions, providing captions as fast as possible, and working with limited context. However, this limited context usually leads to a quality degradation as compared to the pre-recorded or offline content. This thesis is aimed at developing low-latency streaming ASR with a quality similar to offline ASR. More precisely, it describes the path followed from an initial hybrid offline system to an efficient streaming-adapted system. The first step is to perform a single recognition pass using a state-of-the-art neural network-based language model. In conventional multi-pass systems, this model is often deferred to the second or later pass due to its computational complexity. As with the language model, the neural-based acoustic model is also properly adapted to work with limited context. The adaptation and integration of these models is thoroughly described and assessed using fully-fledged streaming systems on well-known academic and challenging real-world benchmarks. In brief, it is shown that the proposed adaptation of the language and acoustic models allows the streaming-adapted system to reach the accuracy of the initial offline system with low latency. / Jorge Cano, J. (2022). Streaming Automatic Speech Recognition with Hybrid Architectures and Deep Neural Network Models [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/191001 / Compendio
412

Streaming Neural Speech Translation

Iranzo Sánchez, Javier 03 November 2023 (has links)
Tesis por compendio / [ES] Gracias a avances significativos en aprendizaje profundo, la traducción del habla (ST) se ha convertido en un campo consolidado, lo que permite la utilización de la tecnología ST en soluciones para entornos de producción. Como consecuencia del aumento constante del número de horas de contenido audiovisual generado cada año, así como una mayor sensibilización sobre la importancia de la accesibilidad, la ST está preparada para convertirse en un elemento clave para la producción de contenidos audiovisuales, tanto de ocio como educativos. A pesar de que se ha progresado significativamente en ST, la mayor parte de la investigación se ha centrado en el escenario en diferido (offline), en el cual todo el audio de entrada está disponible. En cambio, la ST en directo (online) es una temática en la que falta mucho por investigar. En concreto, existe un caso de traducción en directo, la traducción continua (streaming), que traduce un flujo continuo de palabras en tiempo real y bajo unas estrictas condiciones de latencia. Este es un problema mucho más realista, que es necesario resolver para que sea posible aplicar la ST a una variedad de tareas de la vida real. Esta tesis está centrada en investigar y desarrollar las técnicas claves que son necesarias para una solución de ST continua. En primer lugar, de cara a permitir el desarrollo y la evaluación de sistemas de ST, se ha recopilado un nuevo conjunto de datos para ST multilingüe, que expande significativamente el número de horas disponibles para ST. A continuación se ha desarrollado un segmentador preparado para la condición continua, que se utiliza para segmentar las transcripciones intermedias de nuestra solución por etapas, que consiste en un sistema de reconocimiento automático del habla (ASR), seguido de un sistema de traducción automática (MT) encargado de traducir las transcripciones intermedias al idioma de destino elegido. Diversas investigaciones han concluido que la calidad de la segmentación es un factor muy influyente es la calidad del sistema MT, por lo que el desarrollo de un segmentador efectivo es un paso fundamental en el proceso de ST continua. Este segmentador se ha integrado en la solución por etapas, y estas se optimizan de manera conjunta para alcanzar el equilibrio óptimo entre calidad y latencia. La ST continua tiene unas restricciones de latencia mucho más estrictas que la ST en directo, ya que el nivel deseado de latencia tiene que mantenerse durante todo el proceso de traducción. Por tanto, es crucial ser capaz de medir de manera precisa esta latencia, pero las métricas estándar de ST en directo no se adaptan bien a esta tarea. Como consecuencia de esto, se proponen nuevos métodos para la evaluación de ST continua, que garantizan unos resultados precisos a la vez que interpretables. Por último, se presenta un nuevo método para mejorar la calidad de la traducción continua mediante el uso de información contextual. Mientras que los sistemas tradicionales de ST en directo traducen audios de manera aislada, existe abundante información contextual que está disponible para mejorar los sistemas de ST continua. Nuestra propuesta introduce el concepto de historia continua, que consiste en el almacenamiento de la información más reciente del proceso de traducción, que se utiliza más adelante por el modelo para mejorar la calidad de la traducción. / [CA] Gràcies a avanços significatius en aprenentatge profund, la traducció de la parla (ST) s'ha convertit en un camp consolidat, la qual cosa permet la utilització de la tecnologia ST en solucions per a entorns de producció. A conseqüència de l'augment constant del nombre d'hores de contingut audiovisual generat cada any, així com una major sensibilització sobre la importància de l'accessibilitat, la ST està preparada per a convertir-se en un element clau per a la producció de continguts audiovisuals, tant d'oci com educatius. A pesar que s'ha progressat significativament en ST, la major part de la recerca s'ha centrat en l'escenari en diferit, en el qual tot l'àudio d'entrada està disponible. En canvi, la ST en directe és una temàtica en la qual falta molt per investigar. En concret, existeix un cas de traducció en directe, la traducció contínua, que tradueix un flux continu de paraules en temps real i sota unes estrictes condicions de latència. Aquest és un problema molt més realista, que és necessari resoldre perquè sigui possible aplicar la ST a una varietat de tasques de la vida real. Aquesta tesi està centrada en investigar i desenvolupar les tècniques claus que són necessàries per a una solució de ST contínua. En primer lloc, de cara a permetre el desenvolupament i l'avaluació de sistemes de ST, s'ha recopilat un nou conjunt de dades per a ST multilingüe, que expandeix significativament la quantitat de dades disponibles per a ST. A continuació s'ha desenvolupat un segmentador preparat per a la condició contínua, que s'utilitza per a segmentar les transcripcions intermèdies de la nostra solució per etapes, que consisteix en un sistema de reconeixement automàtic de la parla (ASR), seguit d'un sistema de traducció automàtica (MT) encarregat de traduir les transcripcions intermèdies a l'idioma de destí triat. Diveros treballs de recerca han conclòs que la qualitat de la segmentació és un factor molt important en la qualitat del sistema MT, per la qual cosa el desenvolupament d'un segmentador efectiu és un pas fonamental en el procés de ST contínua. Aquest segmentador s'ha integrat en la solució per etapes, i aquestes s'optimitzen de manera conjunta per a aconseguir l'equilibri òptim entre qualitat i latència. La ST contínua té unes restriccions de latència molt més estrictes que la ST en directe, ja que el nivell desitjat de latència ha de mantindre's durant tot el procés de traducció. Per tant, és crucial ser capaç de mesurar de manera precisa aquesta latència, però les mètriques estàndard de ST en directe no s'adapten bé a aquesta tasca. A conseqüència d'això, es proposen nous mètodes per a l'avaluació de ST contínua, que garanteixen uns resultats precisos alhora que interpretables. Finalment, es presenta un nou mètode per a millorar la qualitat de la traducció contínua mitjançant l'ús d'informació contextual. Mentre que els sistemes tradicionals de ST en directe tradueixen àudios de manera aïllada, existeix abundant informació contextual que està disponible per a millorar els sistemes de ST contínua. La nostra proposta introdueix el concepte d'història contínua, que consisteix en l'emmagatzematge de la informació més recent del procés de traducció, que s'utilitza més endavant pel model per a millorar la qualitat de la traducció. / [EN] Thanks to significant advances in Deep Learning, Speech Translation (ST) has become a mature field that enables the use of ST technology in production-ready solutions. Due to the ever-increasing hours of audio-visual content produced each year, as well as higher awareness of the importance of media accessibility, ST is poised to become a key element for the production of entertainment and educational media. Although significant advances have been made in ST, most research has focused on the offline scenario, where the entire input audio is available. In contrast, online ST remains an under-researched topic. A special case of online ST, streaming ST, translates an unbounded input stream in a real-time fashion under strict latency constraints. This is a much more realistic problem that needs to be solved in order to apply ST to a variety of real-life tasks. The focus of this thesis is on researching and developing key techniques necessary for a successful streaming ST solution. First, in order to enable ST system development and evaluation, a new multilingual ST dataset is collected, which significantly expands the amount of hours available for ST. Then, a streaming-ready segmenter component is developed to segment the intermediate transcriptions of our proposed cascade solution, which consists in an Automatic Speech Recognition (ASR) system that transcribes the audio, followed by a Machine Translation (MT) system that translates the intermediate transcriptions into the desired language. Research has shown that segmentation quality plays a significant role in downstream MT performance, so the development of an effective streaming segmenter is a critical step in the streaming ST process. This segmenter is then integrated and the components of the cascade are jointly optimized to achieve an appropriate quality-latency trade-off. Streaming ST has much more strict latency constraints than standard online ST, as the desired latency level must be maintained during the whole translation process. Therefore, it is crucial to be able to accurately measure this latency, but the standard online ST metrics are not well suited for this task. As a consequence, new evaluation methods are proposed for streaming ST evaluation, which ensure realistic, yet interpretable results. Lastly, a novel method is presented for improving translation quality through the use of contextual information. Whereas standard online ST systems translate audios in isolation, there is a wealth of contextual information available for improving streaming ST systems. Our approach introduces the concept of streaming history by storing the most recent information of the translation process, which is then used by the model in order to improve translation quality. / The research leading to these results has received funding from the European Union’s Horizon 2020 research and innovation programme under grant agreements no. 761758 (X5Gon) and 952215 (TAILOR), and Erasmus+ Educa- tion programme under grant agreement no. 20-226-093604-SCH (EXPERT); the Government of Spain’s grant RTI2018-094879-B-I00 (Multisub) funded by MCIN/AEI/10.13039/501100011033 & “ERDF A way of making Europe”, and FPU scholarships FPU18/04135; and the Generalitat Valenciana’s research project Classroom Activity Recognition (ref. PROMETEO/2019/111) and predoctoral research scholarship ACIF/2017/055. / Iranzo Sánchez, J. (2023). Streaming Neural Speech Translation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/199170 / Compendio
413

Confidence Measures for Automatic and Interactive Speech Recognition

Sánchez Cortina, Isaías 07 March 2016 (has links)
[EN] This thesis work contributes to the field of the {Automatic Speech Recognition} (ASR). And particularly to the {Interactive Speech Transcription} and {Confidence Measures} (CM) for ASR. The main goals of this thesis work can be summarised as follows: 1. To design IST methods and tools to tackle the problem of improving automatically generated transcripts. 2. To assess the designed IST methods and tools on real-life tasks of transcription in large educational repositories of video lectures. 3. To improve the reliability of the IST by improving the underlying (CM). Abstracts: The {Automatic Speech Recognition} (ASR) is a crucial task in a broad range of important applications which could not accomplished by means of manual transcription. The ASR can provide cost-effective transcripts in scenarios of increasing social impact such as the {Massive Open Online Courses} (MOOC), for which the availability of accurate enough is crucial even if they are not flawless. The transcripts enable search-ability, summarisation, recommendation, translation; they make the contents accessible to non-native speakers and users with impairments, etc. The usefulness is such that students improve their academic performance when learning from subtitled video lectures even when transcript is not perfect. Unfortunately, the current ASR technology is still far from the necessary accuracy. The imperfect transcripts resulting from ASR can be manually supervised and corrected, but the effort can be even higher than manual transcription. For the purpose of alleviating this issue, a novel {Interactive Transcription of Speech} (IST) system is presented in this thesis. This IST succeeded in reducing the effort if a small quantity of errors can be allowed; and also in improving the underlying ASR models in a cost-effective way. In other to adequate the proposed framework into real-life MOOCs, another intelligent interaction methods involving limited user effort were investigated. And also, it was introduced a new method which benefit from the user interactions to improve automatically the unsupervised parts ({Constrained Search} for ASR). The conducted research was deployed into a web-based IST platform with which it was possible to produce a massive number of semi-supervised lectures from two different well-known repositories, videoLectures.net and poliMedia. Finally, the performance of the IST and ASR systems can be easily increased by improving the computation of the {Confidence Measure} (CM) of transcribed words. As so, two contributions were developed: a new particular {Logistic Regresion} (LR) model; and the speaker adaption of the CM for cases in which it is possible, such with MOOCs. / [ES] Este trabajo contribuye en el campo del {reconocimiento automático del habla} (RAH). Y en especial, en el de la {transcripción interactiva del habla} (TIH) y el de las {medidas de confianza} (MC) para RAH. Los objetivos principales son los siguientes: 1. Diseño de métodos y herramientas TIH para mejorar las transcripciones automáticas. 2. Evaluar los métodos y herramientas TIH empleando tareas de transcripción realistas extraídas de grandes repositorios de vídeos educacionales. 3. Mejorar la fiabilidad del TIH mediante la mejora de las MC. Resumen: El {reconocimiento automático del habla} (RAH) es una tarea crucial en una amplia gama de aplicaciones importantes que no podrían realizarse mediante transcripción manual. El RAH puede proporcionar transcripciones rentables en escenarios de creciente impacto social como el de los {cursos abiertos en linea masivos} (MOOC), para el que la disponibilidad de transcripciones es crucial, incluso cuando no son completamente perfectas. Las transcripciones permiten la automatización de procesos como buscar, resumir, recomendar, traducir; hacen que los contenidos sean más accesibles para hablantes no nativos y usuarios con discapacidades, etc. Incluso se ha comprobado que mejora el rendimiento de los estudiantes que aprenden de videos con subtítulos incluso cuando estos no son completamente perfectos. Desafortunadamente, la tecnología RAH actual aún está lejos de la precisión necesaria. Las transcripciones imperfectas resultantes del RAH pueden ser supervisadas y corregidas manualmente, pero el esfuerzo puede ser incluso superior al de la transcripción manual. Con el fin de aliviar este problema, esta tesis presenta un novedoso sistema de {transcripción interactiva del habla} (TIH). Este método TIH consigue reducir el esfuerzo de semi-supervisión siempre que sea aceptable una pequeña cantidad de errores; además mejora a la par los modelos RAH subyacentes. Con objeto de transportar el marco propuesto para MOOCs, también se investigaron otros métodos de interacción inteligentes que involucran esfuerzo limitado por parte del usuario. Además, se introdujo un nuevo método que aprovecha las interacciones para mejorar aún más las partes no supervisadas (ASR con {búsqueda restringida}). La investigación en TIH llevada a cabo se desplegó en una plataforma web con el que fue posible producir un número masivo de transcripciones de videos de dos conocidos repositorios, videoLectures.net y poliMedia. Por último, el rendimiento de la TIH y los sistemas de RAH se puede aumentar directamente mediante la mejora de la estimación de la {medida de confianza} (MC) de las palabras transcritas. Por este motivo se desarrollaron dos contribuciones: un nuevo modelo discriminativo {logístico} (LR); y la adaptación al locutor de la MC para los casos en que es posible, como por ejemplo en MOOCs. / [CA] Aquest treball hi contribueix al camp del {reconeixment automàtic de la parla} (RAP). I en especial, al de la {transcripció interactiva de la parla} i el de {mesures de confiança} (MC) per a RAP. Els objectius principals són els següents: 1. Dissenyar mètodes i eines per a TIP per tal de millorar les transcripcions automàtiques. 2. Avaluar els mètodes i eines TIP per a tasques de transcripció realistes extretes de grans repositoris de vídeos educacionals. 3. Millorar la fiabilitat del TIP, mitjançant la millora de les MC. Resum: El {reconeixment automàtic de la parla} (RAP) és una tasca crucial per una àmplia gamma d'aplicacions importants que no es poden dur a terme per mitjà de la transcripció manual. El RAP pot proporcionar transcripcions en escenaris de creixent impacte social com els {cursos online oberts massius} (MOOC). Les transcripcions permeten automatitzar tasques com ara cercar, resumir, recomanar, traduir; a més a més, fa accessibles els continguts als parlants no nadius i els usuaris amb discapacitat, etc. Fins i tot, pot millorar el rendiment acadèmic de estudiants que aprenen de xerrades amb subtítols, encara que aquests subtítols no siguen perfectes. Malauradament, la tecnologia RAP actual encara està lluny de la precisió necessària. Les transcripcions imperfectes resultants de RAP poden ser supervisades i corregides manualment, però aquest l'esforç pot acabar sent superior a la transcripció manual. Per tal de resoldre aquest problema, en aquest treball es presenta un sistema nou per a {transcripció interactiva de la parla} (TIP). Aquest sistema TIP va ser reeixit en la reducció de l'esforç per quan es pot permetre una certa quantitat d'errors; així com també en en la millora dels models RAP subjacents. Per tal d'adequar el marc proposat per a MOOCs, també es van investigar altres mètodes d'interacció intel·ligents amb esforç d''usuari limitat. A més a més, es va introduir un nou mètode que aprofita les interaccions per tal de millorar encara més les parts no supervisades (RAP amb {cerca restringida}). La investigació en TIP duta a terme es va desplegar en una plataforma web amb la qual va ser possible produir un nombre massiu de transcripcions semi-supervisades de xerrades de repositoris ben coneguts, videoLectures.net i poliMedia. Finalment, el rendiment de la TIP i els sistemes de RAP es pot augmentar directament mitjançant la millora de l'estimació de la {Confiança Mesura} (MC) de les paraules transcrites. Per tant, es van desenvolupar dues contribucions: un nou model discriminatiu logístic (LR); i l'adaptació al locutor de la MC per casos en que és possible, per exemple amb MOOCs. / Sánchez Cortina, I. (2016). Confidence Measures for Automatic and Interactive Speech Recognition [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61473
414

Desarrollo de habilidades empáticas mediante estrategias de gamificación basadas en realidad aumentada móvil multiusuario para el contexto educativo

López Faicán, Lissette Geoconda 11 December 2023 (has links)
[ES] La falta de empatía en niños y adolescentes son fuertes predictores de desarrollar conductas antisociales, emitir juicios morales inadecuados, dificultades en las relaciones interpersonales o conductas de acoso escolar, por lo que es necesario disponer de programas educativos que promuevan la empatía y una respuesta "orientada hacia los demás" desde edades tempranas para ayudar a fomentar un mayor bienestar social en los estudiantes. Un enfoque ampliamente utilizado para promover el aprendizaje en el contexto educativo es la gamificación dado que mejora en los estudiantes la motivación para aprender, la participación activa y la satisfacción, compartiendo la idea de utilizar experiencias de juego positivas para un propósito serio, como lograr un cambio de comportamiento, en lugar de centrarse en el entretenimiento. Se dispone en la literatura de algunas propuestas gamificadas tecnológicas para promover la empatía en la educación, sin embargo pocos trabajos integran la Realidad Aumentada (RA), una forma de juego radicalmente nueva que permite cultivar experiencias de aprendizaje inmersivas y estimulantes al combinar contenido digital superpuesto en el mundo real. Esta tecnología emergente e innovadora es compatible con los dispositivos móviles, siendo unidades asequibles con capacidades de reconocimiento de imágenes, seguimiento de objetos, detección de ubicación y orientación, siendo una solución práctica para ofrecer al usuario una experiencia RA no necesitando requisitos de hardware sofisticados. Esta tesis revela la falta de investigación sobre entornos sociales digitales para promover la empatía, existiendo evidencias de que la empatía y la respuesta prosocial/prosocialidad están significativamente relacionadas. Por ello, esta tesis propone un modelo circular de empatía híbrido derivado de los modelos existentes en la literatura y que involucra los procesos y componentes principales de esta habilidad, para promover acciones conductuales dirigidas a beneficiar o ayudar a otros, como el comportamiento prosocial. Este modelo circular se transforma en dinámicas de juego operativas a través de un modelo gamificado de aprendizaje de tareas y pasos para llevar al jugador a experimentar diversidad de escenarios o historias reflexivas (observación), organizadas en torno a un desafío o misión central desarrollada de forma individual (monousuario) o grupal (multiusuario), buscando promover emociones positivas como la empatía en términos del comportamiento prosocial (actuación). El modelo de aprendizaje está definido por espacios aumentados basados en la ubicación siendo coordenadas GPS o anclajes espaciales (espacios físicos previamente escaneados) y que puede ser adaptado a múltiples contextos de aprendizaje. En esta tesis se presentan dos estrategias gamificadas basadas en la ubicación con Realidad Aumentada Móvil. La primera EmoFindAR, con "anclajes espaciales" diseñado a nivel multiusuario con dinámica competitiva vs. colaborativa para la identificación y manipulación de estados emocionales básicos, evaluada en la educación primaria donde se observa que promueve en los estudiantes la socialización, las habilidades comunicativas y la inteligencia emocional. La segunda propuesta diseñada con el "Sistema de Posicionamiento Global (GPS)", siendo EmpathyAR para un aprendizaje individualizado y su versión multiusuario SocialTaskAR para un aprendizaje en equipo. / [CA] La falta d'empatia en xiquets i adolescents és un fort predictor de desenvolupar conductes antisocials, emetre judicis morals inadequats, dificultats en les relacions interpersonals o conductes d'assetjament escolar, per la qual cosa és necessari disposar de programes educatius que promouen l'empatia i una resposta "orientada cap als altres" des d'edats primerenques per a ajudar a fomentar un major benestar social en els estudiants. Un enfocament àmpliament utilitzat per a promoure l'aprenentatge en el context educatiu és la ludificació donat que millora en els estudiants la motivació per a aprendre, la participació activa i la satisfacció, compartint la idea d'utilitzar experiències de joc positives per a un propòsit seriós, com aconseguir un canvi de comportament, en lloc de centrar-se en l'entreteniment. Es disposa en la literatura d'algunes propostes lúdiques tecnològiques per a promoure l'empatia en l'educació, no obstant això pocs treballs integren la Realitat Augmentada (RA), una forma de joc radicalment nova que permet cultivar experiències d'aprenentatge immersives i estimulants en combinar contingut digital superposat en el món real. Aquesta tecnologia emergent i innovadora és compatible amb els dispositius mòbils, sent unitats assequibles amb capacitats de reconeixement d'imatges, seguiment d'objectes, detecció d'ubicació i orientació, sent una solució pràctica per a oferir a l'usuari una experiència RA no necessitant requisits de maquinari sofisticat. Aquesta tesi revela la falta d'investigació sobre entorns socials digitals per a promoure l'empatia, existint evidències que l'empatia i la resposta pro social estan significativament relacionades. Per això, aquesta tesi proposa un model circular d'empatia híbrid derivat dels models existents en la literatura i que involucra els processos i components principals d'aquesta habilitat, per a promoure accions conductuals dirigides a beneficiar o ajudar a uns altres, com el comportament pro social. Aquest model circular es transforma en dinàmiques de joc operatives a través d'un model ludificat d'aprenentatge de tasques i passos per a portar al jugador a experimentar diversitat d'escenaris o històries reflexives (observació), organitzades entorn d'un desafiament o missió central desenvolupada de manera individual (monousuari) o grupal (multiusuari), buscant promoure emocions positives com l'empatia en termes del comportament pro social (actuació). El model d'aprenentatge està definit per espais augmentats basats en la ubicació sent coordenades GPS o ancoratges espacials (espais físics prèviament escanejats) i que pot ser adaptat a múltiples contextos d'aprenentatge. En aquesta tesi es presenten dues estratègies lúdiques basades en la ubicació amb Realitat Augmentada Mòbil. La primera EmoFindAR, amb "ancoratges espacials" dissenyat a nivell multiusuari amb dinàmica competitiva vs. col.laborativa per a la identificació i manipulació d'estats emocionals bàsics, avaluada en l'educació primària on s'observa que promou en els estudiants la socialització, les habilitats comunicatives i la intel·ligència emocional. La segona proposta dissenyada amb el "Sistema de Posicionament Global (GPS)", sent EmpathyAR per a un aprenentatge individualitzat i la seua versió multiusuari SocialTaskAR per a un aprenentatge en equip. / [EN] The lack of empathy in children and adolescents is a strong predictor of developing antisocial behavior, resulting in inappropriate moral judgments, difficulties in interpersonal relationships or bullying behavior, which is why it is necessary to have educational programs that promote empathy and an response "oriented towards others" from an early age to help foster greater social well-being in students. A widely used approach to promote learning in the educational context is gamification since it improves students' motivation to learn, active participation and satisfaction, sharing the idea of using positive game experiences for a serious purpose, such as achieving a behavioral change, instead of focusing on entertainment. There are some technological gamified proposals in the literature to promote empathy in education, however few works integrate Augmented Reality (AR), a radically new form of gaming that allows cultivating immersive and stimulating learning experiences by combining digital content superimposed in the real world. This emerging and innovative technology is compatible with mobile devices, which are affordable units with image recognition, object tracking, location detection and orientation capabilities, a practical solution to offer the user an AR experience without needing sophisticated hardware requirements. This thesis reveals the lack of research on digital social environments to promote empathy, with evidence that empathy and prosocial response/pro-sociality are significantly related. Therefore, this thesis proposes a hybrid circular model of empathy derived from existing models in the literature involving the main processes and components of this ability, to promote behavioral actions aimed at benefiting or helping others, such as prosocial behavior. This circular model is transformed into operational game dynamics through a gamified model of learning tasks and steps to lead the player to experience a diversity of scenarios or reflective stories (observation), organized around a central challenge or mission developed in an individual (single-user) or group (multi-user), seeking to promote positive emotions such as empathy in terms of prosocial behavior (performance). The learning model is defined in terms of location-based augmented spaces being GPS coordinates or spatial anchors (previously scanned physical spaces) and that can be adapted to multiple learning contexts. In this thesis two gamified strategies based on location with Mobile Augmented Reality are presented. The first EmoFindAR, with "spatial anchors" designed at a multi-user level with competitive vs. collaborative dynamics for the identification and manipulation of basic emotional states, evaluated in primary education where it is observed that it promotes socialization, communication skills and emotional intelligence in students. The second proposal designed with the "Global Positioning System (GPS)", is EmpathyAR for individualized learning and its multi-user version SocialTaskAR for team learning. / Gracias a todos los miembros del proyecto R+D+i PID2019-108915RB-I00 por sus contribuciones brindadas y en particular a Jorge Montaner Marco por su colaboración incondicional. / López Faicán, LG. (2023). Desarrollo de habilidades empáticas mediante estrategias de gamificación basadas en realidad aumentada móvil multiusuario para el contexto educativo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/200583
415

A Probabilistic Formulation of Keyword Spotting

Puigcerver I Pérez, Joan 18 February 2019 (has links)
[ES] La detección de palabras clave (Keyword Spotting, en inglés), aplicada a documentos de texto manuscrito, tiene como objetivo recuperar los documentos, o partes de ellos, que sean relevantes para una cierta consulta (query, en inglés), indicada por el usuario, entre una gran colección de documentos. La temática ha recogido un gran interés en los últimos 20 años entre investigadores en Reconocimiento de Formas (Pattern Recognition), así como bibliotecas y archivos digitales. Esta tesis, en primer lugar, define el objetivo de la detección de palabras clave a partir de una perspectiva basada en la Teoría de la Decisión y una formulación probabilística adecuada. Más concretamente, la detección de palabras clave se presenta como un caso particular de Recuperación de la Información (Information Retrieval), donde el contenido de los documentos es desconocido, pero puede ser modelado mediante una distribución de probabilidad. Además, la tesis también demuestra que, bajo las distribuciones de probabilidad correctas, el marco de trabajo desarrollada conduce a la solución óptima del problema, según múltiples medidas de evaluación utilizadas tradicionalmente en el campo. Más tarde, se utilizan distintos modelos estadísticos para representar las distribuciones necesarias: Redes Neuronales Recurrentes o Modelos Ocultos de Markov. Los parámetros de estos son estimados a partir de datos de entrenamiento, y las respectivas distribuciones son representadas mediante Transductores de Estados Finitos con Pesos (Weighted Finite State Transducers). Con el objetivo de hacer que el marco de trabajo sea práctico en grandes colecciones de documentos, se presentan distintos algoritmos para construir índices de palabras a partir de modelos probabilísticos, basados tanto en un léxico cerrado como abierto. Estos índices son muy similares a los utilizados por los motores de búsqueda tradicionales. Además, se estudia la relación que hay entre la formulación probabilística presentada y otros métodos de gran influencia en el campo de la detección de palabras clave, destacando cuáles son las limitaciones de los segundos. Finalmente, todas la aportaciones se evalúan de forma experimental, no sólo utilizando pruebas académicas estándar, sino también en colecciones con decenas de miles de páginas provenientes de manuscritos históricos. Los resultados muestran que el marco de trabajo presentado permite construir sistemas de detección de palabras clave muy rápidos y precisos, con una sólida base teórica. / [CA] La detecció de paraules clau (Keyword Spotting, en anglès), aplicada a documents de text manuscrit, té com a objectiu recuperar els documents, o parts d'ells, que siguen rellevants per a una certa consulta (query, en anglès), indicada per l'usuari, dintre d'una gran col·lecció de documents. La temàtica ha recollit un gran interés en els últims 20 anys entre investigadors en Reconeixement de Formes (Pattern Recognition), així com biblioteques i arxius digitals. Aquesta tesi defineix l'objectiu de la detecció de paraules claus a partir d'una perspectiva basada en la Teoria de la Decisió i una formulació probabilística adequada. Més concretament, la detecció de paraules clau es presenta com un cas concret de Recuperació de la Informació (Information Retrieval), on el contingut dels documents és desconegut, però pot ser modelat mitjançant una distribució de probabilitat. A més, la tesi també demostra que, sota les distribucions de probabilitat correctes, el marc de treball desenvolupat condueix a la solució òptima del problema, segons diverses mesures d'avaluació utilitzades tradicionalment en el camp. Després, diferents models estadístics s'utilitzen per representar les distribucions necessàries: Xarxes Neuronal Recurrents i Models Ocults de Markov. Els paràmetres d'aquests són estimats a partir de dades d'entrenament, i les corresponents distribucions són representades mitjançant Transductors d'Estats Finits amb Pesos (Weighted Finite State Transducers). Amb l'objectiu de fer el marc de treball útil per a grans col·leccions de documents, es presenten distints algorismes per construir índexs de paraules a partir dels models probabilístics, tan basats en un lèxic tancat com en un obert. Aquests índexs són molt semblants als utilitzats per motors de cerca tradicionals. A més a més, s'estudia la relació que hi ha entre la formulació probabilística presentada i altres mètodes de gran influència en el camp de la detecció de paraules clau, destacant algunes limitacions dels segons. Finalment, totes les aportacions s'avaluen de forma experimental, no sols utilitzant proves acadèmics estàndard, sinó també en col·leccions amb desenes de milers de pàgines provinents de manuscrits històrics. Els resultats mostren que el marc de treball presentat permet construir sistemes de detecció de paraules clau molt acurats i ràpids, amb una sòlida base teòrica. / [EN] Keyword Spotting, applied to handwritten text documents, aims to retrieve the documents, or parts of them, that are relevant for a query, given by the user, within a large collection of documents. The topic has gained a large interest in the last 20 years among Pattern Recognition researchers, as well as digital libraries and archives. This thesis, first defines the goal of Keyword Spotting from a Decision Theory perspective. Then, the problem is tackled following a probabilistic formulation. More precisely, Keyword Spotting is presented as a particular instance of Information Retrieval, where the content of the documents is unknown, but can be modeled by a probability distribution. In addition, the thesis also proves that, under the correct probability distributions, the framework provides the optimal solution, under many of the evaluation measures traditionally used in the field. Later, different statistical models are used to represent the probability distribution over the content of the documents. These models, Hidden Markov Models or Recurrent Neural Networks, are estimated from training data, and the corresponding distributions over the transcripts of the images can be efficiently represented using Weighted Finite State Transducers. In order to make the framework practical for large collections of documents, this thesis presents several algorithms to build probabilistic word indexes, using both lexicon-based and lexicon-free models. These indexes are very similar to the ones used by traditional search engines. Furthermore, we study the relationship between the presented formulation and other seminal approaches in the field of Keyword Spotting, highlighting some limitations of the latter. Finally, all the contributions are evaluated experimentally, not only on standard academic benchmarks, but also on collections including tens of thousands of pages of historical manuscripts. The results show that the proposed framework and algorithms allow to build very accurate and very fast Keyword Spotting systems, with a solid underlying theory. / Puigcerver I Pérez, J. (2018). A Probabilistic Formulation of Keyword Spotting [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/116834
416

Gestión de Emergencias: Evaluación y mejora continua de la capacitación de los involucrados.

Quiroz Palma, Patricia Alexandra 02 February 2024 (has links)
[ES] El conocimiento se considera un activo esencial en las organizaciones para gestionar adecuadamente las actividades diarias; pero también es importante que las personas cuenten con los conocimientos, formación y entrenamiento necesarios para responder a situaciones imprevistas cuando se produce un incidente, que puede acabar en una situación de emergencia. Los conocimientos adquiridos en la gestión de emergencias mejoran la respuesta de una organización y de su personal. Proporcionar una capacitación adecuada y de calidad en materia de emergencias a todos los implicados, y conocer el nivel actual de capacitación de los recursos humanos son factores vitales en la respuesta a las emergencias. Centrándonos en el enfoque teórico de la capacitación, las organizaciones necesitan implementar un marco que gestione y fomente la formación y entrenamiento de su personal, así como la toma de decisiones en relación con las actividades para la gestión de emergencias. En esta tesis doctoral proponemos el marco de la Mejora Continua para la Capacitación en la Gestión de Emergencias (CiET) que permite personalizar la capacitación de los involucrados (stakeholders) en las diferentes fases de la gestión de emergencias (pre-desastre, respuesta, post-desastre) en una organización. Dicha capacitación ayuda a preparar a las organizaciones, y proporciona información contextual y no contextual a los involucrados sobre cómo responder a los incidentes y cómo volver a la actividad normal lo antes posible. La gestión del conocimiento mejora la sensibilidad al contexto, aumenta la concienciación de las involucrados, apoya la toma de decisiones, mejora la respuesta de éstos, y aumenta la calidad de la gestión de emergencia. Se propone el marco CiET que incluye un modelo de capacitación propio basado en objetivos de aprendizaje personalizados para cada rol de los involucrados en la gestión de emergencias, soportado por una herramienta llamada CiET-Tool. Esta herramienta de capacitación gestiona, organiza y proporciona conocimientos, para transformarlos en formación y entrenamiento que fortalecen las capacidades de los involucrados. Los resultados de la evaluación de la capacitación se gestionan en un cuadro de mando (dashboard) con los principales indicadores de los resultados de los objetivos de aprendizaje, apoyando la toma de decisiones para la mejora continua. Además, el marco CiET puede integrarse con otras herramientas de evaluación de la gestión de emergencias, lo que aumenta su potencial. Finalmente, todas las capacidades a mejorar en los involucrados han sido estudiadas y clasificadas, proponiendo una taxonomía, que se presenta como guía para todo marco de capacitación en gestión de emergencias. / [CA] El coneixement es considera un actiu essencial en les organitzacions per a gestionar adequadament les activitats diàries; però també és important que les persones compten amb els coneixements, formació i entrenament necessaris per a respondre a situacions imprevistes quan es produeix un incident, que pot acabar en una situació d'emergència. Els coneixements adquirits en la gestió d'emergències milloren la resposta d'una organització i del seu personal. Proporcionar una capacitació adequada i de qualitat en matèria d'emergències a tots els implicats, i conèixer el nivell actual de capacitació dels recursos humans són factors vitals en la resposta a les emergències. Centrant-nos en l'enfocament teòric de la capacitació, les organitzacions necessiten implementar un marc que gestione i fomente la formació i entrenament del seu personal, així com la presa de decisions en relació amb les activitats per a la gestió d'emergències. En aquesta tesi doctoral proposem el marc de la Millora Contínua per a la Capacitació en la Gestió d'Emergències (CiET) que permet personalitzar la capacitació dels involucrats (stakeholders) en les diferents fases de la gestió d'emergències (pre-desastre, resposta, post-desastre) en una organització. Aquesta capacitació ajuda a preparar a les organitzacions, i proporciona informació contextual i no contextual als involucrats sobre com respondre als incidents i com tornar a l'activitat normal al més prompte possible. La gestió del coneixement millora la sensibilitat al context, augmenta la conscienciació dels involucrats, dona suport a la presa de decisions, millora la resposta d'aquests, i augmenta la qualitat de la gestió d'emergència. Es proposa el marc CiET que inclou un model de capacitació propi basat en objectius d'aprenentatge personalitzats per a cada rol dels involucrats en la gestió d'emergències, suportat per una eina anomenada CiET-Tool. Aquesta eina de capacitació gestiona, organitza i proporciona coneixements, per a transformar-los en formació i entrenament que enforteixen les capacitats dels involucrats. Els resultats de l'avaluació de la capacitació es gestionen en un quadre de comandament (dashboard) amb els principals indicadors dels resultats dels objectius d'aprenentatge, donant suport a la presa de decisions per a la millora contínua. A més, el marc CiET pot integrar-se amb altres eines d'avaluació de la gestió d'emergències, la qual cosa augmenta el seu potencial. Finalment, totes les capacitats a millorar en els involucrats han sigut estudiades i classificades, proposant una taxonomia, que es presenta com a guia per a tot marc de capacitació en gestió d'emergències. / [EN] Knowledge is considered an essential asset in organizations to properly manage daily activities; but it is also important that people have the necessary knowledge, education, and training to respond to unforeseen situations when an incident occurs, which may end in an emergency. The knowledge acquired in emergency management improves the response of an organization and its personnel. Providing adequate and quality emergency training to all involved and knowing the current level of training of human resources are vital factors in emergency response. Focusing on the theoretical approach to training, organizations need to implement a framework that manages and encourages the education and training of their personnel, as well as decision making in relation to emergency management activities. In this doctoral thesis we propose the Continuous Improvement for Emergency Management Training (CiET) framework that allows to customize the training of stakeholders in the different phases of emergency management (pre-disaster, response, post-disaster) in an organization. Training helps to prepare organizations, and provides contextual and non-contextual information to stakeholders on how to respond to incidents and how to return to normal activity as soon as possible. Knowledge management improves context sensitivity, increases stakeholder awareness, supports decision making, improves stakeholder response, and increases the quality of emergency management. The CiET framework is proposed that includes an own training model based on customized learning objectives for each role of the emergency management stakeholders, supported by a tool called CiET-Tool. This training tool manages, organizes, and provides knowledge, to transform it into training and coaching that strengthen the capabilities of those involved. The results of the training evaluation are managed in a dashboard with the main indicators of the results of the learning objectives, supporting decision making for continuous improvement. In addition, the CiET framework can be integrated with other emergency management evaluation tools, which increases its potential. Finally, all the capabilities to be improved in the stakeholders have been studied and classified, proposing a taxonomy, which is presented as a guide for any emergency management training framework. / Quiroz Palma, PA. (2023). Gestión de Emergencias: Evaluación y mejora continua de la capacitación de los involucrados [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202603
417

Distributed Intersection Management Algorithms for Autonomous Vehicles

González Pinzón, César Leonardo 17 May 2024 (has links)
[ES] Desde hace aproximadamente dos décadas, las ayudas tecnológicas a la conducciónn han ido creciendo a un ritmo vertiginoso con la intención de hacer estos sistemas más eficientes y seguros. Estas ayudas a la conducción han ido cubriendo fallos que los investigadores denominan "conducción errática" ó "comportamientos inseguros al volante" y que son decisiones arbitrarias tomadas por un conductor humano, que ponen en peligro a todos los usuarios de la carretera. Estas malas decisiones, sumadas al creciente número de viajes en coche en una ciudad hoy en día (post pandemia), muestran la necesidad de seguir haciendo propuestas tecnológicas, enfocadas a donde se producen interacciones más complejas entre vehículos; por ejemplo, una intersección en hora punta. Los desarrollos en ayudas a la conducción se han orientado en dos temas: el primero sobre la automatización de la conducción (Sistemas Avanzados de Asistencia al Conductor - ADAS y Vehículos Automatizados - AV) y el segundo sobre la gestión del tráfico vial (algoritmos centralizados o distribuidos para el control del tráfico). Aunque en la actualidad hay varias empresas automotrices y centros de investigación trabajando en los dos temas, y en especial en algunos casos eliminando de la ecuación el comportamiento humano, todavía hay carencias en las configuraciones, para que un vehículo autónomo sea capaz de tomar decisiones óptimas, frente a todas las posibles condiciones disponibles en un tráfico vial. Ahora bien, y teniendo en cuenta los dos temas antes mencionados sobre los desarrollos en ayudas a la conducción, los investigadores prevén a grandes rasgos, que para alcanzar mayores niveles de conducción autónoma en la próxima década, es necesario estudiar cómo hacer más eficientes las interacciones autónomas entre vehículos. Por ello, las intersecciones viales son un ejemplo clave, donde es posible analizar casos de interacciones de alta complejidad entre vehículos, ya que se trata de una parte de la infraestructura vial, donde los vehículos comparten carriles, vías, cruces o cambios de carril a voluntad, y que podría generar colisiones en puntos de conflicto y retrasos en los desplazamientos si no existe una cooperación adecuada. De esta forma, en esta tesis se propone una serie de algoritmos distribuidos para el control del tráfico en intersecciones, basados en el intercambio de comunicaciones entre vehículos autónomos (interacciones locales) cercano a las intersecciones y donde se muestran comportamientos emergentes en el tráfico, resultando en cruces de forma cooperativa, segura y eficiente, desde bajas a altas densidades de tráfico vehicular en las intersecciones. Esta investigación se desarrolla utilizando simuladores de tráfico vial, con calles estilo Manhattan; primero implementando escenarios menos complejos con calles urbanas de un carril, y luego incrementando la complejidad con múltiples carriles. / [CA] Des de fa aproximadament dues dècades, les ajudes tecnològiques a la conducció han anat creixent a un ritme vertiginós amb la intenció de fer aquests sistemes més eficients i segurs. Aquestes ajudes a la conducció han anat cobrint fallades que els investigadors denominen "conducció erràtica" o "comportaments insegurs al volant" i que són decisions arbitràries preses per un conductor humà, que posen en perill a tots els usuaris de la carretera. Aquestes males decisions, sumades al creixent nombre de viatges en cotxe en una ciutat avui dia (post pandèmia), mostren la necessitat de seguir fent propostes tecnològiques, enfocades a on es produeixen interaccions més complexes entre vehicles; per exemple, una intersecció en hora punta. Els desenvolupaments en ajudes a la conducció s'han orientat en dos temes: el primer sobre l'automatització de la conducció (Sistemes Avançats d'Assistència al Conductor - ADAS i Vehicles Automatitzats - AV) i el segon sobre la gestió del trànsit vial (algoritmes centralitzats o distribuïts per al control del trànsit). Encara que actualment hi ha diverses empreses automobilístiques i centres de recerca treballant en els dos temes, i en especial en alguns casos eliminant de l'equació el comportament humà, encara hi ha mancances en les configuracions, perquè un vehicle autònom siga capaç de prendre decisions òptimes, davant totes les possibles condicions disponibles en un trànsit vial. Ara bé, i tenint en compte els dos temes abans esmentats sobre els desenvolupaments en ajudes a la conducció, els investigadors preveuen a grans trets, que per assolir majors nivells de conducció autònoma en la propera dècada, és necessari estudiar com fer més eficients les interaccions autònomes entre vehicles. Per això, les interseccions vials són un exemple clau, on és possible analitzar casos d'interaccions d'alta complexitat entre vehicles, ja que es tracta d'una part de la infraestructura vial, on els vehicles comparteixen carrils, vies, creus o canvis de carril a voluntat, i que podria generar col·lisions en punts de conflicte i retards en els desplaçaments si no existeix una cooperació adequada. D'aquesta manera, en aquesta tesi es proposa una sèrie d'algoritmes distribuïts per al control del trànsit en interseccions, basats en l'intercanvi de comunicacions entre vehicles autònoms (interaccions locals) properes a les interseccions i on es mostren comportaments emergents en el trànsit, resultant en creus de forma cooperativa, segura i eficient, des de baixes a altes densitats de trànsit vehicular en les interseccions. Aquesta investigació es desenvolupa utilitzant simuladors de trànsit vial, amb carrers estil Manhattan; primer implementant escenaris menys complexos amb carrers urbans d'un carril, i després incrementant la complexitat amb múltiples carrils. / [EN] Since a couple of decades, the technological driving aids have gone growing at a dizzying pace with the intention of making these systems more efficient and safe. These driving aids have been covering failures that the researchers name "erratic driving" or "unsafe driving behaviors" and are arbitrary decisions taken by a human driver which endanger all road users. These bad decisions in addition to the increasing number of driving commutes in a city nowadays (post pandemic), show the need to continue doing technological proposals focused on where there are more complex interactions between vehicles when density increases; for instance, an intersection in rush hour. The developments in driving aids have been orientated in two topics: the first driving automation (Advanced Driver Assistance Systems - ADAS and Automated Vehicles - AV) and the second road traffic management (centralized or distributed algorithms to traffic control). Although there are currently several automotive companies and research centers working in the two topics, and in special in some cases removing the equation the human behavior, there are still lacks in the configurations for an vehicle autonomous be able to make optimal decisions front to all possible conditions available in a road traffic. Now, and take into account the two topics aforementioned about driving aids developments, researchers broadly envisage that in order to reach autonomous driving levels higher (first topic) in the next decade, is necessary to study how to do autonomous vehicle interactions (second topic) more efficient. Therefore, road intersections are an instance where it is possible to analyse cases of highly complexity interactions between vehicles, because it is a part of road infrastructure where the vehicles sharing lanes, paths, crossings or lane changes at will and it could generate collisions on conflict points and time delay in the commutes if there is not an appropriate cooperation. Hence, this thesis proposes a series of distributed algorithms to traffic control on intersections, based on interchange of communications between autonomous vehicles (local interactions) near to the intersections that show emergent behaviors to crossing cooperative, safe way and efficiency with high densities the traffic system on intersections. This research is developed using simulators with Manhattan-style streets; first implementing scenarios less complex with one-lane city streets and then increase the complexity with multiple-lanes. / González Pinzón, CL. (2024). Distributed Intersection Management Algorithms for Autonomous Vehicles [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/204406
418

Rehabilitación Virtual Motora: una Evaluación al tratamiento de pacientes con Daño Cerebral Adquirido

Albiol Pérez, Sergio 30 June 2014 (has links)
El uso de la Realidad Virtual dentro del campo de la Rehabilitaci on Motora en pacientes con Da~no Cerebral Adquirido (DCA) es un hecho cient camente contrastado en los ultimos a~nos. Los prometedores y satisfactorios resultados que se est an obteniendo en esta l nea de investigaci on (tanto a nivel cognitivo, como a nivel motor), en conjunci on con los procesos terap euticos tradicionales, proporcionan el auge de un nuevo hito dentro de la rehabilitaci on tradicional conocido como Virtual Motor Rehabilitation cuyo acr onimo es (VMR), describi endolo como Rehabilitaci on Virtual Motora (RVM). Hoy en d a, el Da~no Cerebral Adquirido es uno de los principales problemas de discapacidad y muerte en el mundo, donde las metodolog as propuestas dentro del campo de la rehabilitaci on tradicional, proporcionan resultados prometedores y esperanzadores. No obstante, este tipo de terapias presentan inconvenientes como son la falta de motivaci on del paciente, que lleva a una limitada adherencia al tratamiento, o las limitaciones de tiempo, espacio o coste que surgen en el proceso rehabilitador. Tradicionalmente, los principales experimentos realizados dentro del campo de la Rehabilitaci on Motora, se han realizado en pacientes DCA post-agudos y agudos, con escasas publicaciones basadas en el proceso rehabilitador motor de pacientes DCA cr onicos. En la presente tesis se han desarrollado sistemas de Rehabilitaci on Virtual para que, gracias al uso de dispositivos de bajo coste y las aportaciones obtenidas por los especialistas cl nicos, se haya validado la hip otesis: Mediante t ecnicas de rehabilitaci on virtual es posible obtener en pacientes cr onicos una recuperaci on del equilibrio estad sticamente signi- cativa, y similar a la que es posible obtener en pacientes agudos. Los experimentos realizados en el proceso rehabilitador, junto con las validaciones cl nicas realizadas en el Hospital Valencia al Mar, y el Instituto Valenciano de la Discapacidad, han servido para obtener unos resultados contrastables y satisfactorios, que corroboran la hip otesis de trabajo planteada. / Albiol Pérez, S. (2014). Rehabilitación Virtual Motora: una Evaluación al tratamiento de pacientes con Daño Cerebral Adquirido [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/38450 / TESIS
419

Development of high-performance algorithms for a new generation of versatile molecular descriptors. The Pentacle software

Durán Alcaide, Ángel 04 March 2010 (has links)
The work of this thesis was focused on the development of high-performance algorithms for a new generation of molecular descriptors, with many advantages with respect to its predecessors, suitable for diverse applications in the field of drug design, as well as its implementation in commercial grade scientific software (Pentacle). As a first step, we developed a new algorithm (AMANDA) for discretizing molecular interaction fields which allows extracting from them the most interesting regions in an efficient way. This algorithm was incorporated into a new generation of alignmentindependent molecular descriptors, named GRIND-2. The computing speed and efficiency of the new algorithm allow the application of these descriptors in virtual screening. In addition, we developed a new alignment-independent encoding algorithm (CLACC) producing quantitative structure-activity relationship models which have better predictive ability and are easier to interpret than those obtained with other methods. / El trabajo que se presenta en esta tesis se ha centrado en el desarrollo de algoritmos de altas prestaciones para la obtención de una nueva generación de descriptores moleculares, con numerosas ventajas con respecto a sus predecesores, adecuados para diversas aplicaciones en el área del diseño de fármacos, y en su implementación en un programa científico de calidad comercial (Pentacle). Inicialmente se desarrolló un nuevo algoritmo de discretización de campos de interacción molecular (AMANDA) que permite extraer eficientemente las regiones de máximo interés. Este algoritmo fue incorporado en una nueva generación de descriptores moleculares independientes del alineamiento, denominados GRIND-2. La rapidez y eficiencia del nuevo algoritmo permitieron aplicar estos descriptores en cribados virtuales. Por último, se puso a punto un nuevo algoritmo de codificación independiente de alineamiento (CLACC) que permite obtener modelos cuantitativos de relación estructura-actividad con mejor capacidad predictiva y mucho más fáciles de interpretar que los obtenidos con otros métodos.

Page generated in 0.0263 seconds