• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 5
  • Tagged with
  • 10
  • 10
  • 7
  • 7
  • 7
  • 6
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Clasificadores eficaces basados en algoritmos rápidos de búsqueda del vecino más cercano

Moreno Seco, Francisco January 2004 (has links)
No description available.
2

Alineamiento de cadenas cí­clicas en el reconocimiento de formas bidimensionales

Palazón González, Vicente 28 May 2010 (has links)
Cuando queremos comparar dos formas bidimensionales utilizando sus contornos, suele presentarse un problema importante: la invarianza al punto inicial en su codificación como secuencia. Aunque existen métodos heurísticos para conseguir un buen punto de inicio que funcionan en ciertos contextos, si queremos una solución genérica, la única manera de conseguir esta invarianza es midiendo distancias con todos los posibles puntos iniciales, es decir, utilizando el alineamiento por fuerza bruta con todo posible inicio de la secuencia del contorno. De aquí surge el concepto de cadena cíclica. Así, medir una distancia entre dos cadenas cíclicas sería lo mismo que medir una distancia entre todos los posibles puntos iniciales de las dos cadenas. Esta comparación es muy costosa computacionalmente y el trabajo de la literatura se ha orientado sobre todo a reducir este coste.Existe mucho trabajo, a este respecto, en el dominio de las distancias de edición. Sin embargo, con otras técnicas, como son el alineamiento temporal no lineal (en inglés, Dynamic Time Warping) o los modelos ocultos de Markov (más tolerantes al ruido y otras deformaciones), no se ha profundizado demasiado con las cadenas cíclicas. Las aportaciones de esta tesis, van orientadas en esta dirección.Con el alineamiento temporal no lineal (ATNL), hemos desarrollado un algoritmo eficiente para el cálculo del ATNL cíclico. Hemos planteado también diversas alternativas para acelerar el cálculo del ATNL cíclico en tareas de reconocimiento. En primer lugar, un heurístico para evitar el cálculo cíclico, en el caso de que tengamos categorías etiquetadas. En segundo lugar, un método óptimo para acelerar el cálculo cíclico, utilizando una cota inferior basada en un pseudo-alineamiento que aproxima la distancia cíclica. Finalmente, aportamos soluciones basadas en AESA (Approximating and Eliminating Search Algorithm) y una mejora al algoritmo LAESA (Linear AESA).Con los modelos ocultos de Markov, estudiamos la topología lineal en el reconocimiento de contornos y desarrollamos extensiones cíclicas para los algoritmos de Viterbi (reconocimiento y entrenamiento) y Baum-Welch (entrenamiento).
3

Interactive Pattern Recognition applied to Natural Language Processing

Rodríguez Ruiz, Luis 26 July 2010 (has links)
This thesis is about Pattern Recognition. In the last decades, huge efforts have been made to develop automatic systems able to rival human capabilities in this field. Although these systems achieve high productivity rates, they are not precise enough in most situations. Humans, on the contrary, are very accurate but comparatively quite slower. This poses an interesting question: the possibility of benefiting from both worlds by constructing cooperative systems. This thesis presents diverse contributions to this kind of collaborative approach. The point is to improve the Pattern Recognition systems by properly introducing a human operator into the system. We call this Interactive Pattern Recognition (IPR). Firstly, a general proposal for IPR will be stated. The aim is to develop a framework to easily derive new applications in this area. Some interesting IPR issues are also introduced. Multi-modality or adaptive learning are examples of extensions that can naturally fit into IPR. In the second place, we will focus on a specific application. A novel method to obtain high quality speech transcriptions (CAST, Computer Assisted Speech Transcription). We will start by proposing a CAST formalization and, next, we will cope with different implementation alternatives. Practical issues, as the system response time, will be also taken into account, in order to allow for a practical implementation of CAST. Word graphs and probabilistic error correcting parsing are tools that will be used to reach an alternative formulation that allows for the use of CAST in a real scenario. Afterwards, a special application within the general IPR framework will be discussed. This is intended to test the IPR capabilities in an extreme environment, where no input pattern is available and the system only has access to the user actions to produce a hypothesis. Specifically, we will focus here on providing assistance in the problem of text generation. / Rodríguez Ruiz, L. (2010). Interactive Pattern Recognition applied to Natural Language Processing [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8479 / Palancia
4

Advances in Fully-Automatic and Interactive Phrase-Based Statistical Machine Translation

Ortiz Martínez, Daniel 14 October 2011 (has links)
This thesis presents different contributions in the fields of fully-automatic statistical machine translation and interactive statistical machine translation. In the field of statistical machine translation there are three problems that are to be addressed, namely, the modelling problem, the training problem and the search problem. In this thesis we present contributions regarding these three problems. Regarding the modelling problem, an alternative derivation of phrase-based statistical translation models is proposed. Such derivation introduces a set of statistical submodels governing different aspects of the translation process. In addition to this, the resulting submodels can be introduced as components of a log-linear model. Regarding the training problem, an alternative estimation technique for phrase-based models that tries to reduce the strong heuristic component of the standard estimation technique is proposed. The proposed estimation technique considers the phrase pairs that compose the phrase model as part of complete bisegmentations of the source and target sentences. We theoretically and empirically demonstrate that the proposed estimation technique can be efficiently executed. Experimental results obtained with the open-source THOT toolkit also presented in this thesis, show that the alternative estimation technique obtains phrase models with lower perplexity than those obtained by means of the standard estimation technique. However, the reduction in the perplexity of the model did not allow us to obtain improvements in the translation quality. To deal with the search problem, we propose a search algorithm which is based on the branch-and-bound search paradigm. The proposed algorithm generalises different search strategies that can be accessed bymodifying the input parameters. We carried out experiments to evaluate the performance of the proposed search algorithm. / Ortiz Martínez, D. (2011). Advances in Fully-Automatic and Interactive Phrase-Based Statistical Machine Translation [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/12127 / Palancia
5

Representación, interpretación y aprendizaje de flujos de trabajo basado en actividades para la estandarización de vías clínicas

Fernández Llatas, Carlos 06 May 2009 (has links)
Describir los mejores procesos para ejecutar correctamente una estrategia de una forma eficiente y con calidad no es siempre una tarea fácil. La estandarizaci ón de procesos en general y de Vías Clínicas en particular requiere de potentes herramientas de especificación e implementación que apoyen a los expertos en diseño. La utilización de modelos de Flujos de Trabajo (del inglés Work ows) facilita a los expertos en diseño la creación las reglas de ejecución de sus sistemas como si fueran programadores. Aún así debido a la gran mutabilidad de los procesos reales, es muy difícil conocer como los procesos se están ejecutando en la realidad. La utilización de técnicas de reconocimiento de formas pueden ayudar a los expertos en procesos a inferir, a partir de muestras de ejecución pasadas, modelos que expliquen la forma en la que estos procesos están efectivamente ejecutándose. Este paradigma es conocido como Aprendizaje de Flujos de Trabajo (del inglés Work ow Mining). Los cambios de estado en los procesos de cuidado existentes en las Vías Clínicas se basan en los resultados de las acciones. Los modelos actuales de Aprendizaje de Flujos de Trabajo no recogen esta información en sus corpus. Por eso, los actuales sistemas de aprendizaje no cubren las necesidades de problemas complejos como es el caso de las Vías Clínicas. En esta Tesis se van a estudiar los modelos de representación, interpretación y aprendizaje de Flujos de Trabajo con la intención de proponer un modelo adecuado para resolver los problemas que impiden a los diseñadores de procesos complejos, como Vías Clínicas, utilizar técnicas de Aprendizaje de Flujos de Trabajo. Para ello se va a definir un nuevo paradigma adecuado para el apoyo al diseño de Vías Clínicas, además de proporcionar herramientas para su uso. Por esto en esta Tesis se presenta además un modelo de representación de Flujos de Trabajo con una alta expresividad y legibilidad, una herramienta software capaz de ejecutar y simular Flujos de Trab / Fernández Llatas, C. (2009). Representación, interpretación y aprendizaje de flujos de trabajo basado en actividades para la estandarización de vías clínicas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4562 / Palancia
6

Interactivity, Adaptation and Multimodality in Neural Sequence-to-sequence Learning

Peris Abril, Álvaro 07 January 2020 (has links)
[ES] El problema conocido como de secuencia a secuencia consiste en transformar una secuencia de entrada en una secuencia de salida. Bajo esta perspectiva se puede atacar una amplia cantidad de problemas, entre los cuales destacan la traducción automática o la descripción automática de objetos multimedia. La aplicación de redes neuronales profundas ha revolucionado esta disciplina, y se han logrado avances notables. Pero los sistemas automáticos todavía producen predicciones que distan mucho de ser perfectas. Para obtener predicciones de gran calidad, los sistemas automáticos se utilizan bajo la supervisión de un humano, quien corrige los errores. Esta tesis se centra principalmente en el problema de la traducción del lenguaje natural, usando modelos enteramente neuronales. Nuestro objetivo es desarrollar sistemas de traducción neuronal más eficientes. asentándonos sobre dos pilares fundamentales: cómo utilizar el sistema de una forma más eficiente y cómo aprovechar datos generados durante la fase de explotación del mismo. En el primer caso, aplicamos el marco teórico conocido como predicción interactiva a la traducción automática neuronal. Este proceso consiste en integrar usuario y sistema en un proceso de corrección cooperativo, con el objetivo de reducir el esfuerzo humano empleado en obtener traducciones de alta calidad. Desarrollamos distintos protocolos de interacción para dicha tecnología, aplicando interacción basada en prefijos y en segmentos, implementados modificando el proceso de búsqueda del sistema. Además, ideamos mecanismos para obtener una interacción con el sistema más precisa, manteniendo la velocidad de generación del mismo. Llevamos a cabo una extensa experimentación, que muestra el potencial de estas técnicas: superamos el estado del arte anterior por un gran margen y observamos que nuestros sistemas reaccionan mejor a las interacciones humanas. A continuación, estudiamos cómo mejorar un sistema neuronal mediante los datos generados como subproducto de este proceso de corrección. Para ello, nos basamos en dos paradigmas del aprendizaje automático: el aprendizaje muestra a muestra y el aprendizaje activo. En el primer caso, el sistema se actualiza inmediatamente después de que el usuario corrige una frase, aprendiendo de una manera continua a partir de correcciones, evitando cometer errores previos y especializándose en un usuario o dominio concretos. Evaluamos estos sistemas en una gran cantidad de situaciones y dominios diferentes, que demuestran el potencial que tienen los sistemas adaptativos. También llevamos a cabo una evaluación humana, con traductores profesionales. Éstos quedaron muy satisfechos con el sistema adaptativo. Además, fueron más eficientes cuando lo usaron, comparados con un sistema estático. El segundo paradigma lo aplicamos en un escenario en el que se deban traducir grandes cantidades de frases, siendo inviable la supervisión de todas. El sistema selecciona aquellas muestras que vale la pena supervisar, traduciendo el resto automáticamente. Aplicando este protocolo, redujimos de aproximadamente un cuarto el esfuerzo humano necesario para llegar a cierta calidad de traducción. Finalmente, atacamos el complejo problema de la descripción de objetos multimedia. Este problema consiste en describir en lenguaje natural un objeto visual, una imagen o un vídeo. Comenzamos con la tarea de descripción de vídeos pertenecientes a un dominio general. A continuación, nos movemos a un caso más específico: la descripción de eventos a partir de imágenes egocéntricas, capturadas a lo largo de un día. Buscamos extraer relaciones entre eventos para generar descripciones más informadas, desarrollando un sistema capaz de analizar un mayor contexto. El modelo con contexto extendido genera descripciones de mayor calidad que un modelo básico. Por último, aplicamos la predicción interactiva a estas tareas multimedia, disminuyendo el esfuerzo necesa / [CA] El problema conegut com a de seqüència a seqüència consisteix en transformar una seqüència d'entrada en una seqüència d'eixida. Seguint aquesta perspectiva, es pot atacar una àmplia quantitat de problemes, entre els quals destaquen la traducció automàtica, el reconeixement automàtic de la parla o la descripció automàtica d'objectes multimèdia. L'aplicació de xarxes neuronals profundes ha revolucionat aquesta disciplina, i s'han aconseguit progressos notables. Però els sistemes automàtics encara produeixen prediccions que disten molt de ser perfectes. Per a obtindre prediccions de gran qualitat, els sistemes automàtics són utilitzats amb la supervisió d'un humà, qui corregeix els errors. Aquesta tesi se centra principalment en el problema de la traducció de llenguatge natural, el qual s'ataca emprant models enterament neuronals. El nostre objectiu principal és desenvolupar sistemes més eficients. Per a aquesta tasca, les nostres contribucions s'assenten sobre dos pilars fonamentals: com utilitzar el sistema d'una manera més eficient i com aprofitar dades generades durant la fase d'explotació d'aquest. En el primer cas, apliquem el marc teòric conegut com a predicció interactiva a la traducció automàtica neuronal. Aquest procés consisteix en integrar usuari i sistema en un procés de correcció cooperatiu, amb l'objectiu de reduir l'esforç humà emprat per obtindre traduccions d'alta qualitat. Desenvolupem diferents protocols d'interacció per a aquesta tecnologia, aplicant interacció basada en prefixos i en segments, implementats modificant el procés de cerca del sistema. A més a més, busquem mecanismes per a obtindre una interacció amb el sistema més precisa, mantenint la velocitat de generació. Duem a terme una extensa experimentació, que mostra el potencial d'aquestes tècniques: superem l'estat de l'art anterior per un gran marge i observem que els nostres sistemes reaccionen millor a les interacciones humanes. A continuació, estudiem com millorar un sistema neuronal mitjançant les dades generades com a subproducte d'aquest procés de correcció. Per a això, ens basem en dos paradigmes de l'aprenentatge automàtic: l'aprenentatge mostra a mostra i l'aprenentatge actiu. En el primer cas, el sistema s'actualitza immediatament després que l'usuari corregeix una frase. Per tant, el sistema aprén d'una manera contínua a partir de correccions, evitant cometre errors previs i especialitzant-se en un usuari o domini concrets. Avaluem aquests sistemes en una gran quantitat de situacions i per a dominis diferents, que demostren el potencial que tenen els sistemes adaptatius. També duem a terme una avaluació amb traductors professionals, qui varen quedar molt satisfets amb el sistema adaptatiu. A més, van ser més eficients quan ho van usar, si ho comparem amb el sistema estàtic. Pel que fa al segon paradigma, l'apliquem per a l'escenari en el qual han de traduir-se grans quantitats de frases, i la supervisió de totes elles és inviable. En aquest cas, el sistema selecciona les mostres que paga la pena supervisar, traduint la resta automàticament. Aplicant aquest protocol, reduírem en aproximadament un quart l'esforç necessari per a arribar a certa qualitat de traducció. Finalment, ataquem el complex problema de la descripció d'objectes multimèdia. Aquest problema consisteix en descriure, en llenguatge natural, un objecte visual, una imatge o un vídeo. Comencem amb la tasca de descripció de vídeos d'un domini general. A continuació, ens movem a un cas més específic: la descripció d''esdeveniments a partir d'imatges egocèntriques, capturades al llarg d'un dia. Busquem extraure relacions entre ells per a generar descripcions més informades, desenvolupant un sistema capaç d'analitzar un major context. El model amb context estés genera descripcions de major qualitat que el model bàsic. Finalment, apliquem la predicció interactiva a aquestes tasques multimèdia, di / [EN] The sequence-to-sequence problem consists in transforming an input sequence into an output sequence. A variety of problems can be posed in these terms, including machine translation, speech recognition or multimedia captioning. In the last years, the application of deep neural networks has revolutionized these fields, achieving impressive advances. However and despite the improvements, the output of the automatic systems is still far to be perfect. For achieving high-quality predictions, fully-automatic systems require to be supervised by a human agent, who corrects the errors. This is a common procedure in the translation industry. This thesis is mainly framed into the machine translation problem, tackled using fully neural systems. Our main objective is to develop more efficient neural machine translation systems, that allow for a more productive usage and deployment of the technology. To this end, we base our contributions on two main cornerstones: how to better use of the system and how to better leverage the data generated along its usage. First, we apply the so-called interactive-predictive framework to neural machine translation. This embeds the human agent and the system into a cooperative correction process, that seeks to reduce the human effort spent for obtaining high-quality translations. We develop different interactive protocols for the neural machine translation technology, namely, a prefix-based and a segment-based protocols. They are implemented by modifying the search space of the model. Moreover, we introduce mechanisms for achieving a fine-grained interaction while maintaining the decoding speed of the system. We carried out a wide experimentation that shows the potential of our contributions. The previous state of the art is overcame by a large margin and the current systems are able to react better to the human interactions. Next, we study how to improve a neural system using the data generated as a byproduct of this correction process. To this end, we rely on two main learning paradigms: online and active learning. Under the first one, the system is updated on the fly, as soon as a sentence is corrected. Hence, the system is continuously learning from the corrections, avoiding previous errors and specializing towards a given user or domain. A large experimentation stressed the adaptive systems under different conditions and domains, demonstrating the capabilities of adaptive systems. Moreover, we also carried out a human evaluation of the system, involving professional users. They were very pleased with the adaptive system, and worked more efficiently using it. The second paradigm, active learning, is devised for the translation of huge amounts of data, that are infeasible to being completely supervised. In this scenario, the system selects samples that are worth to be supervised, and leaves the rest automatically translated. Applying this framework, we obtained reductions of approximately a quarter of the effort required for reaching a desired translation quality. The neural approach also obtained large improvements compared with previous translation technologies. Finally, we address another challenging problem: visual captioning. It consists in generating a description in natural language from a visual object, namely an image or a video. We follow the sequence-to-sequence framework, under a a multimodal perspective. We start by tackling the task of generating captions of videos from a general domain. Next, we move on to a more specific case: describing events from egocentric images, acquired along the day. Since these events are consecutive, we aim to extract inter-eventual relationships, for generating more informed captions. The context-aware model improved the generation quality with respect to a regular one. As final point, we apply the intractive-predictive protocol to these multimodal captioning systems, reducing the effort required for correcting the outputs. / Section 5.4 describes an user evaluation of an adaptive translation system. This was done in collaboration with Miguel Domingo and the company Pangeanic, with funding from the Spanish Center for Technological and Industrial Development (Centro para el Desarrollo Tecnológico Industrial). [...] Most of Chapter 6 is the result of a collaboration with Marc Bolaños, supervised by Prof. Petia Radeva, from Universitat de Barcelona/CVC. This collaboration was supported by the R-MIPRCV network, under grant TIN2014-54728-REDC. / Peris Abril, Á. (2019). Interactivity, Adaptation and Multimodality in Neural Sequence-to-sequence Learning [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/134058 / TESIS
7

Aportaciones al diagnóstico de cáncer asistido por ordenador

Llobet Azpitarte, Rafael 06 May 2008 (has links)
Para diagnosticar un cáncer se realiza, entre otras pruebas, algún test de imagen, como puede ser una radiografía, ecografía o resonancia magnética. Mediante estos tests pueden detectarse zonas con alta sospecha tumoral, cuyo diagnóstico debe confirmase finalmente mediante la realización de una biopsia. Este tipo de imágenes, sin embargo, no son fáciles de interpretar, lo que provoca que el profesional encargado de analizarlas, a pesar de su experiencia, no sea capaz de detectar en ellas un porcentaje importante de tumores (falsos negativos). Una posibilidad para mejorar el diagnóstico y disminuir el número de falsos negativos consiste en utilizar sistemas de diagnóstico asistido por ordenador o computer-aided diagnosis (CAD). Un sistema de CAD analiza la imagen médica y trata de detectar zonas sospechosas de contener alguna anomalía. Estas zonas son marcadas sobre la propia imagen con un doble objetivo: llamar la atención del profesional encargado de analizarla hacia la zona sospechosa y aportar una segunda opinión respecto al diagnóstico. En esta tesis se presentan y evaluan diversas técnicas de visión por computador y reconocimiento de formas orientadas a la detección de tumores en imágenes médicas, con el objetivo de diseñar sistemas de CAD que permitan un mejor diagnóstico. El trabajo se ha centrado en el diagnóstico de cáncer de próstata a partir de imágenes de ecografía, y en el diagnóstico de cáncer de mama a partir de imágenes de radiografía. Se han evaluado diversos métodos de extracción de características basados en la intensidad, frecuencia, texturas o en gradientes. En la etapa de clasificación se ha utilizado un clasificador no paramétrico basado en distancias (k-vecinos más cercanos) y otro paramétrico basado en modelos de Markov. A lo largo del trabajo se evidencian las distintas problemáticas que surgen en este tipode tareas y se proponen soluciones a cada una de ellas. El diagnóstico de cáncer de próstata asistido por ordenador es una tarea extrema / Llobet Azpitarte, R. (2006). Aportaciones al diagnóstico de cáncer asistido por ordenador [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1862 / Palancia
8

Análisis de motivos decorativos de tejidos y revestimientos cerámicos en el entorno de la visión artificial. Aplicación a la reconstrucción de motivos históricos y al diseño

Albert Gil, Francisco Eugenio 07 May 2008 (has links)
El objetivo de esta tesis es la contribución a la creación, e implementación en herramientas informáticas, de una metodología aplicable para el análisis y edición de imágenes procedentes del campo de los diseños cerámicos y textiles, y por extensión, de todas aquellas imágenes que siguen un patrón repetitivo y que, por tanto, se ajustan a la Teoría de Grupos de Simetría. Para ello, se ha definido una metodología de análisis dividida en etapas, en la que se va aumentando gradualmente el nivel de la información manejada, desde los píxeles de la imagen inicial, pasando por los objetos (formas o unidades básicas perceptúales) y los motivos (agrupaciones de objetos realizadas con criterios perceptúales) hasta llegar a la estructura del patrón, es decir, las distintas transformaciones geométricas que relacionan los elementos (objetos y motivos) que lo forman. La información estructural obtenida es utilizada con fines diversos: la clasificación de las imágenes según el Grupo de Simetría del Plano del patrón, la reconstrucción de las imágenes aprovechando el conocimiento de qué partes están relacionadas por la estructura, y por último, la edición de patrones, tanto a nivel de formas y motivos, como de estructura, permitiendo realizar cambios estructurales con facilidad, con lo que se generan familias de patrones a partir de uno analizado. Las herramientas desarrolladas han sido probadas con un amplio conjunto de imágenes de patrones de procedencias muy diversas, destacando el estudio de los alicatados de la Alhambra de Granada y del Alcázar de Sevilla, así como de textiles y, ampliando los objetivos iniciales, a diversos elementos del entorno urbano. / Albert Gil, FE. (2006). Análisis de motivos decorativos de tejidos y revestimientos cerámicos en el entorno de la visión artificial. Aplicación a la reconstrucción de motivos históricos y al diseño [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1936 / Palancia
9

Statistical approaches for natural language modelling and monotone statistical machine translation

Andrés Ferrer, Jesús 11 February 2010 (has links)
Esta tesis reune algunas contribuciones al reconocimiento de formas estadístico y, más especícamente, a varias tareas del procesamiento del lenguaje natural. Varias técnicas estadísticas bien conocidas se revisan en esta tesis, a saber: estimación paramétrica, diseño de la función de pérdida y modelado estadístico. Estas técnicas se aplican a varias tareas del procesamiento del lenguajes natural tales como clasicación de documentos, modelado del lenguaje natural y traducción automática estadística. En relación con la estimación paramétrica, abordamos el problema del suavizado proponiendo una nueva técnica de estimación por máxima verosimilitud con dominio restringido (CDMLEa ). La técnica CDMLE evita la necesidad de la etapa de suavizado que propicia la pérdida de las propiedades del estimador máximo verosímil. Esta técnica se aplica a clasicación de documentos mediante el clasificador Naive Bayes. Más tarde, la técnica CDMLE se extiende a la estimación por máxima verosimilitud por leaving-one-out aplicandola al suavizado de modelos de lenguaje. Los resultados obtenidos en varias tareas de modelado del lenguaje natural, muestran una mejora en términos de perplejidad. En a la función de pérdida, se estudia cuidadosamente el diseño de funciones de pérdida diferentes a la 0-1. El estudio se centra en aquellas funciones de pérdida que reteniendo una complejidad de decodificación similar a la función 0-1, proporcionan una mayor flexibilidad. Analizamos y presentamos varias funciones de pérdida en varias tareas de traducción automática y con varios modelos de traducción. También, analizamos algunas reglas de traducción que destacan por causas prácticas tales como la regla de traducción directa; y, así mismo, profundizamos en la comprensión de los modelos log-lineares, que son de hecho, casos particulares de funciones de pérdida. Finalmente, se proponen varios modelos de traducción monótonos basados en técnicas de modelado estadístico . / Andrés Ferrer, J. (2010). Statistical approaches for natural language modelling and monotone statistical machine translation [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7109 / Palancia
10

Pattern recognition approaches for biomedical data in computer-assisted cancer research

García Gómez, Juan Miguel 12 May 2009 (has links)
El análisis sistémico de datos biomédicos procedentes de diferentes niveles biológicos abre amplias expectativas en el proceso de toma de decisiones médicas. Las nuevas tecnologías biomédicas permiten la interpretación del origen de las afecciones que sufren los pacientes, trasladando el paradigma de decisión hacia la medicina basada en la evidencia. Esta Tesis centra su atención en la ayuda al diagnóstico del cáncer asistida por ordenador. El objetivo de nuestro estudio es obtener unos resultados de alto acierto en clasificación, que ofrezcan transparencia en su interpretación mediante conocimiento médico y capacidad de generalización cuando se aplican a pacientes procedentes de múltiples centros estudiados con posterioridad. Los aspectos técnicos cubiertos en esta Tesis incluyen el procesamiento, modelado, extracción de características, y combinación de datos biomédicos; así como la inferencia y evaluación de modelos predictivos de dichos datos y la integración de los modelos predictivos en sistemas de ayuda a la decisión para entornos clínicos. Concretamente, estos puntos se abordan para dos problemas médicos: el diagnóstico de Tumores de Partes Blandas (TPB) y, especialmente, el diagnóstico de Tumores Cerebrales (TC). En los desarrollos realizados para el problema de TPB con hallazgos de imagen se alcanzó una alta eficacia en la clasificación basada en Reconocimiento de Formas de tumores según su carácter benigno o maligno. Un sistema de ayuda a la decisión especializado para el problema de TPB fue diseñado e implementado a partir de los clasificadores aprendidos a partir de una base de datos multicéntrica. Las contribuciones de esta Tesis al estudio de Tumores Cerebrales incluyen el análisis de señales biomédicas in-vivo y ex-vivo del paciente. Ha sido propuesta una nueva aproximación para la combinación de Espectros de Resonancia Magnética (ERM) adquiridos para un mismo paciente con diferentes tiempos de eco (TE corto y TE largo) ha sido propuesta. También se / García Gómez, JM. (2009). Pattern recognition approaches for biomedical data in computer-assisted cancer research [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4602 / Palancia

Page generated in 0.4636 seconds