Spelling suggestions: "subject:"120304 - inteligencia artificial"" "subject:"120304 - inteligencias artificial""
11 |
Particionamiento y resolución distribuida multivariable de problemas de satisfacción de restriccionesAbril López, Montserrat 07 May 2008 (has links)
Hoy en día, muchos problemas reales pueden modelarse como problemas de satisfacción de restricciones (CSPs) y se resuelven usando técnicas específicas de satisfacción de restricciones.
Estos problemas pertenecen a áreas tales como Inteligencia Artificial, investigación operativa, sistemas de información, bases de datos, etc. La mayoría de estos problemas pueden modelarse de forma natural mediante CSPs. Sin embargo, algunos de estos problemas son de naturaleza distribuida, bien por motivos de
seguridad, por requerimientos de privacidad, o por restricciones espaciales. Ello requiere que este tipo de problemas sean modelados como problemas de satisfacción de restricciones distribuidos (DCSPs), donde el conjunto de variables y restricciones del problema está distribuido entre un conjunto de
agentes que se encargan de resolver su propio sub-problema y deben coordinarse con el resto de agentes para alcanzar una solución al problema global.
En la literatura de satisfacción de restricciones, la necesidad de manejar DCSP comenzó a tratarse a principios de los 90. No obstante, la mayoría de los investigadores que trabajan en este campo centran su atención en algoritmos en los que cada agente maneja una única variable. Estos algoritmos pueden ser
transformados para que cada agente maneje múltiples variables. Sin embargo, los algoritmos resultantes no son escalables para manejar grandes sub-problemas locales debido tanto a requerimientos
espaciales como a su coste computacional. Por lo tanto, la resolución de problemas reales mediante este tipo de algoritmos resulta prácticamente inviable.
En esta tesis presentamos nuevos algoritmos para la resolución de problemas de satisfacción de restricciones distribuidos capaces de manejar multiples variables por agente. Estos algoritmos realizan
un manejo eficiente de la información obtenida mediante la comunicación entre los agentes, consiguiendo con ello una mayor eficiencia durante el proceso de resolución. Además, sus requerimientos / Abril López, M. (2007). Particionamiento y resolución distribuida multivariable de problemas de satisfacción de restricciones [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1946 / Palancia
|
12 |
Modelos para el análisis y optimización del control de admisión en redes celularesGiménez Guzmán, José Manuel 04 August 2008 (has links)
En la última década se ha producido una enorme popularización de las redes celulares, siendo incluso muy superior a las previsiones iniciales más optimistas. Este interés que ha despertado entre los usuarios ha provocado que sea en la actualidad el sector de las telecomunicaciones más productivo para los operadores. Aunque el número de usuarios no se prevé que aumente al mismo ritmo a como lo ha hecho hasta ahora porque el número de líneas móviles es superior al de habitantes en muchos países, existe toda una serie de nuevos desafíos para los operadores para poder ofrecer servicios atractivos y competitivos a los usuarios. Estos nuevos servicios se prevé que demanden asimismo una mayor cantidad de recursos. Para el mundo de la investigación, esto supone la necesidad de desarrollar mecanismos cada vez más eficientes y complejos que gestionen los recursos adecuadamente para garantizar unos requisitos de calidad de servicio. Tradicionalmente, para el diseño de estos mecanismos de gestión de recursos se ha partido de las propuestas realizadas para redes fijas. No obstante, las redes celulares introducen nuevos retos por la escasez del espectro radioeléctrico, la aleatoriedad de la propagación y la movilidad de los terminales.
La presente tesis doctoral toma como marco de trabajo las redes celulares que implementan políticas de control de admisión. De forma más concreta, en la primera parte de la tesis doctoral se han desarrollado modelos analíticos que permiten estudiar el impacto de los accesos repetitivos que se producen en un sistema cuando el controlador de admisión decide bloquear una petición de acceso al sistema. Esta contribución se realiza en dos aspectos: en el desarrollo de técnicas de resolución de sistemas con reintentos y en la aplicación de esas técnicas a modelos de redes celulares con el fin de comprender el impacto que los reintentos tienen en ellas. La segunda parte de la tesis doctoral está enfocada al diseño de políticas óptimas de control de admis / Giménez Guzmán, JM. (2008). Modelos para el análisis y optimización del control de admisión en redes celulares [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2936 / Palancia
|
13 |
Un método de desarrollo de hipermedia dirigido por modelosSolís Pineda, Carlos 22 December 2008 (has links)
Esta tesis presenta al Model Driven Hypermedia Development Method (MDHDM). MDHDM es un método de desarrollo de hipermedia basado en el modelado de procesos y la ingeniería dirigida por modelos.
La conjunción de hipertexto y multimedia, por un lado, y la popularización de la Web, por otro, generaron desafíos que los métodos tradicionales no eran capaces de resolver. Entre ellos destaca el diseño y control de la navegación por espacios complejos de información, que ha llevado a los métodos de diseño de hipermedia y de la Ingeniería Web a presentar el modelo navegacional como la gran diferencia frente a los métodos tradicionales. Sin embargo, en la mayoría de los casos el modelo navegacional se deriva de los modelos estructurales.
En MDHDM el eje central del modelado conceptual lo constituye el modelado del proceso de negocio, debido a que permiten representar la naturaleza dinámica de la realidad. El modelo navegacional de MDHDM está compuesto por las estructuras navegacionales derivadas del modelos de proceso y que son llamadas vistas navegacionales y enlaces fuertes. Este modelo se complementa con las estructuras navegacionales derivadas del modelo estructural compuesto por clases navegacionales, estructuras de acceso y enlaces débiles.
En MDHDM se definen los metamodelos, transformaciones y marcas para poder generar automáticamente el modelo navegacional a partir de los modelos de proceso y estructural. Además, se comprueba la correcta construcción de los modelos a través de restricciones OCL.
Los pasos siguientes al diseño navegacional: el diseño de la interfaz abstracta de usuario y la implementación también se abordan. Del primero se proporciona un metamodelo y para la implementación se han tratado algunos modelos específicos de la plataforma. Además, en la tesis se presentan dos casos de estudio. / Solís Pineda, C. (2008). Un método de desarrollo de hipermedia dirigido por modelos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3884 / Palancia
|
14 |
Especificación OWL de una ontología para teleeducación en WEB semánticaRomero Llop, Roberto 06 May 2008 (has links)
Debido al gran desarrollo de la World Wide Web, tanto en cantidad de contenidos y nodos como en velocidades de acceso, aparecen por parte de la comunidad científico-técnica propuestas de utilización de la misma con objetivos más ambiciosos que la mera descarga de ficheros para ser presentados al usuario. Con esa finalidad se desarrolla la Web Semántica, sistema que pretende introducir información entendible por Agentes Inteligentes, permitiendo de este modo que estos Agentes puedan aumentar sus bases de conocimiento y realizar inferencias que faciliten procesos realizados actualmente de forma manual por los usuarios. De esta forma surgen los lenguajes ontológicos para la web, y en concreto el lenguaje recomendado por la World Wide Web Consortium (W3C) denominado Web Ontology Language (OWL), así como razonadores relacionados como FACT++, Racer y Pellet.
Además, con el objetivo de aprovechar el potencial de la web, se han ido generando gran cantidad de contenidos educativos, que debido a los altos costes de producción generan una necesidad de potenciar la reutilización de dichos contenidos. Aparece en este caso el concepto de objeto educativo, que es susceptible de ser reaprovechado para otras experiencias de aprendizaje, con alguna modificación o sin modificación alguna, generando la denominada interoperabilidad de objetos educativos.
El presente trabajo pretende potenciar esta interoperabilidad de objetos educativos. Para ello se especifica una ontología completa para teleeducación, basada en la lógica descriptiva y desarrollada en el lenguaje OWL, para que pueda ser utilizada por medio de la Web Semántica. Se estudian, desarrollan e implementan dentro de esta ontología conceptos relacionados con la interacción de los distintos agentes que intervienen en una experiencia de aprendizaje a través de la web.
La ontología presentada va además acompañada de una especificación de arquitectura de pares o Peer to Peer (P2P) basada en las arquitecturas de tablas de búsqueda distribuidas (DHTs), que denominaremos DHT Semántica. La DHT Semántica está diseñada para permitir la explotación por parte de Agentes Inteligentes de la ontología especificada, con una alta tolerancia a fallos en nodos de la arquitectura. Estos Agentes asisten en la búsqueda de objetos educativos más allá de la búsqueda por palabras claves. Finalmente, tanto la ontología como la arquitectura se validan utilizando un conjunto de experiencias educativas on-line reales. / Romero Llop, R. (2007). Especificación OWL de una ontología para teleeducación en WEB semántica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1828 / Palancia
|
15 |
Aportaciones al diagnóstico de cáncer asistido por ordenadorLlobet Azpitarte, Rafael 06 May 2008 (has links)
Para diagnosticar un cáncer se realiza, entre otras pruebas, algún test de imagen,
como puede ser una radiografía, ecografía o resonancia magnética. Mediante
estos tests pueden detectarse zonas con alta sospecha tumoral, cuyo diagnóstico
debe confirmase finalmente mediante la realización de una biopsia. Este tipo de
imágenes, sin embargo, no son fáciles de interpretar, lo que provoca que el profesional
encargado de analizarlas, a pesar de su experiencia, no sea capaz de detectar
en ellas un porcentaje importante de tumores (falsos negativos).
Una posibilidad para mejorar el diagnóstico y disminuir el número de falsos
negativos consiste en utilizar sistemas de diagnóstico asistido por ordenador o
computer-aided diagnosis (CAD). Un sistema de CAD analiza la imagen médica
y trata de detectar zonas sospechosas de contener alguna anomalía. Estas zonas
son marcadas sobre la propia imagen con un doble objetivo: llamar la atención del
profesional encargado de analizarla hacia la zona sospechosa y aportar una segunda
opinión respecto al diagnóstico.
En esta tesis se presentan y evaluan diversas técnicas de visión por computador
y reconocimiento de formas orientadas a la detección de tumores en imágenes
médicas, con el objetivo de diseñar sistemas de CAD que permitan un mejor diagnóstico. El trabajo se ha centrado en el diagnóstico de cáncer de próstata a partir de imágenes de ecografía, y en el diagnóstico de cáncer de mama a partir de imágenes de radiografía. Se han evaluado diversos métodos de extracción de características basados en la intensidad, frecuencia, texturas o en gradientes. En la etapa de clasificación se ha utilizado un clasificador no paramétrico basado en distancias (k-vecinos más cercanos) y otro paramétrico basado en modelos de Markov. A lo largo del trabajo se evidencian las distintas problemáticas que surgen en este tipode tareas y se proponen soluciones a cada una de ellas.
El diagnóstico de cáncer de próstata asistido por ordenador es una tarea extrema / Llobet Azpitarte, R. (2006). Aportaciones al diagnóstico de cáncer asistido por ordenador [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1862 / Palancia
|
16 |
Sistemas de diálogo basados en modelos estocásticosTorres Goterris, Francisco 06 May 2008 (has links)
En la presente tesis, titulada Sistemas de diálogo basados en modelos estocásticos , se expone el estado del arte en el área de los sistemas de diálogo y se presenta el trabajo realizado en el diseño e implementación de los módulos de un sistema de diálogo determinado. La tesis se centra en el estudio de la gestión de diálogo desde una aproximación estadística. La tesis aporta el desarrollo de un sistema de diálogo completo (con entrada y salida de texto, en lengua española, y para una tarea de dominio semántico restringido, la definida en el proyecto de investigación BASURDE). Dicho sistema está constituido por los módulos de comprensión
del lenguaje natural, de gestión del diálogo y de generación de respuestas en lenguaje natural. Dado el objetivo central de la tesis, el desarrollo del módulo gestor de diálogo ha sido el principal trabajo y, en consecuencia, es expuesto con la máxima amplitud en la presente memoria.
El limitado tamaño del corpus de diálogos de la tarea BASURDE ha supuesto una severa dificultad en el desarrollo de un gestor de diálogo basado exclusivamente en modelos estadísticos. El módulo gestor de diálogo finalmente implementado determina su estrategia de diálogo mediante la combinación de varias fuentes de conocimiento: unas de carácter estocástico, los modelos aprendidos a partir del corpus; otras de arácter heurístico, reglas que incorporan conocimiento pragmático y semántico, ya sea genérico o específico
de la tarea.
Por último, se ha considerado la simulación de los usuarios como una técnica lternativa para fines como la evaluación del comportamiento del sistema de diálogo, la ampliación del corpus mediante diálogos sintéticos, o el aprendizaje dinámico de los modelos estocásticos de diálogo. Se han diseñado e implementado los correspondientes módulos simuladores de usuario, estudiándose las posibilidades de esta técnica.objetivo central de la tesis, el desarrollo del módulo gestor de diálogo ha sido el principal trabajo y, en onsecuencia / Torres Goterris, F. (2006). Sistemas de diálogo basados en modelos estocásticos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1901 / Palancia
|
17 |
On Clustering and Evaluation of Narrow Domain Short-Test CorporaPinto Avendaño, David Eduardo 23 July 2008 (has links)
En este trabajo de tesis doctoral se investiga el problema del agrupamiento de conjuntos especiales de documentos llamados textos cortos de dominios restringidos.
Para llevar a cabo esta tarea, se han analizados diversos corpora y métodos de agrupamiento. Mas aún, se han introducido algunas medidas de evaluación de corpus, técnicas de selección de términos y medidas para la validez de agrupamiento con la finalidad de estudiar los siguientes problemas:
-Determinar la relativa dificultad de un corpus para ser agrupado y estudiar algunas de sus características como longitud de los textos, amplitud del dominio, estilometría, desequilibrio de clases y estructura.
-Contribuir en el estado del arte sobre el agrupamiento de corpora compuesto de textos cortos de dominios restringidos
El trabajo de investigación que se ha llevado a cabo se encuentra parcialmente enfocado en el "agrupamiento de textos cortos". Este tema se considera relevante dado el modo actual y futuro en que las personas tienden a usar un "lenguaje reducido" constituidos por textos cortos (por ejemplo, blogs, snippets, noticias y generación de mensajes de textos como el correo electrónico y el chat).
Adicionalmente, se estudia la amplitud del dominio de corpora. En este sentido, un corpus puede ser considerado como restringido o amplio si el grado de traslape de vocabulario es alto o bajo, respectivamente. En la tarea de categorización, es bastante complejo lidiar con corpora de dominio restringido tales como artículos científicos, reportes técnicos, patentes, etc.
El objetivo principal de este trabajo consiste en estudiar las posibles estrategias para tratar con los siguientes dos problemas:
a) las bajas frecuencias de los términos del vocabulario en textos cortos, y
b) el alto traslape de vocabulario asociado a dominios restringidos.
Si bien, cada uno de los problemas anteriores es un reto suficientemente alto, cuando se trata con textos cortos de dominios restringidos, la complejidad del problema se incr / Pinto Avendaño, DE. (2008). On Clustering and Evaluation of Narrow Domain Short-Test Corpora [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2641 / Palancia
|
18 |
Novel statistical approaches to text classification, machine translation and computer-assisted translationCivera Saiz, Jorge 04 July 2008 (has links)
Esta tesis presenta diversas contribuciones en los campos de la
clasificación automática de texto, traducción automática y traducción
asistida por ordenador bajo el marco estadístico.
En clasificación automática de texto, se propone una nueva aplicación
llamada clasificación de texto bilingüe junto con una serie de modelos
orientados a capturar dicha información bilingüe. Con tal fin se
presentan dos aproximaciones a esta aplicación; la primera de ellas se
basa en una asunción naive que contempla la independencia entre las
dos lenguas involucradas, mientras que la segunda, más sofisticada,
considera la existencia de una correlación entre palabras en
diferentes lenguas. La primera aproximación dió lugar al desarrollo de
cinco modelos basados en modelos de unigrama y modelos de n-gramas
suavizados. Estos modelos fueron evaluados en tres tareas de
complejidad creciente, siendo la más compleja de estas tareas
analizada desde el punto de vista de un sistema de ayuda a la
indexación de documentos. La segunda aproximación se caracteriza por
modelos de traducción capaces de capturar correlación entre palabras
en diferentes lenguas. En nuestro caso, el modelo de traducción
elegido fue el modelo M1 junto con un modelo de unigramas. Este
modelo fue evaluado en dos de las tareas más simples superando la
aproximación naive, que asume la independencia entre palabras en
differentes lenguas procedentes de textos bilingües.
En traducción automática, los modelos estadísticos de traducción
basados en palabras M1, M2 y HMM son extendidos bajo el marco de la
modelización mediante mixturas, con el objetivo de definir modelos de
traducción dependientes del contexto. Asimismo se extiende un
algoritmo iterativo de búsqueda basado en programación dinámica,
originalmente diseñado para el modelo M2, para el caso de mixturas de
modelos M2. Este algoritmo de búsqueda n / Civera Saiz, J. (2008). Novel statistical approaches to text classification, machine translation and computer-assisted translation [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2502 / Palancia
|
19 |
Pattern recognition approaches for biomedical data in computer-assisted cancer researchGarcía Gómez, Juan Miguel 12 May 2009 (has links)
El análisis sistémico de datos biomédicos procedentes de diferentes niveles biológicos
abre amplias expectativas en el proceso de toma de decisiones médicas. Las nuevas tecnologías
biomédicas permiten la interpretación del origen de las afecciones que sufren los
pacientes, trasladando el paradigma de decisión hacia la medicina basada en la evidencia.
Esta Tesis centra su atención en la ayuda al diagnóstico del cáncer asistida por ordenador.
El objetivo de nuestro estudio es obtener unos resultados de alto acierto en
clasificación, que ofrezcan transparencia en su interpretación mediante conocimiento médico
y capacidad de generalización cuando se aplican a pacientes procedentes de múltiples
centros estudiados con posterioridad. Los aspectos técnicos cubiertos en esta Tesis incluyen
el procesamiento, modelado, extracción de características, y combinación de datos
biomédicos; así como la inferencia y evaluación de modelos predictivos de dichos datos y
la integración de los modelos predictivos en sistemas de ayuda a la decisión para entornos
clínicos. Concretamente, estos puntos se abordan para dos problemas médicos: el diagnóstico
de Tumores de Partes Blandas (TPB) y, especialmente, el diagnóstico de Tumores
Cerebrales (TC).
En los desarrollos realizados para el problema de TPB con hallazgos de imagen se alcanzó
una alta eficacia en la clasificación basada en Reconocimiento de Formas de tumores
según su carácter benigno o maligno. Un sistema de ayuda a la decisión especializado para el problema de TPB fue
diseñado e implementado a partir de los clasificadores aprendidos a partir de una base de datos multicéntrica.
Las contribuciones de esta Tesis al estudio de Tumores Cerebrales incluyen el análisis
de señales biomédicas in-vivo y ex-vivo del paciente. Ha sido propuesta una nueva aproximación
para la combinación de Espectros de Resonancia Magnética (ERM) adquiridos
para un mismo paciente con diferentes tiempos de eco (TE corto y TE largo) ha sido
propuesta. También se / García Gómez, JM. (2009). Pattern recognition approaches for biomedical data in computer-assisted cancer research [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4602 / Palancia
|
20 |
Desarrollo de modelos predictivos de contaminantes ambientalesSalazar Ruiz, Enriqueta 04 July 2008 (has links)
El desarrollo de modelos matemáticos predictivos de distinto tipos de fenómenos son aplicaciones fundamentales y útiles de las técnicas de Minería de Datos. Un buen modelo se convierte en una excelente herramienta científica que requiere de la existencia y disposición de grandes volúmenes de datos, además de habilidad y considerable tiempo aplicado del investigador para integrar los conocimientos más relevantes y característicos del fenómeno en estudio.
En el caso concreto de ésta tesis, los modelos de predicción desarrollados se enfocaron en la predicción contaminantes ambientales como el valor medio de Partículas Finas (PM2.5) presentes en el aire respirable con un tiempo de anticipación de 8 horas y del Ozono Troposférico Máximo (O3) con 24 horas de anticipación.
Se trabajó con un interesante conjunto de técnicas de predicción partiendo con herramientas de naturaleza paramétrica tan sencillas como Persistencia, Modelación Lineal Multivariante, así como la técnica semi-paramétrica: Regresión Ridge además de herramientas de naturaleza no paramétrica como Redes Neuronales Artificiales (ANN) como Perceptron Multicapa (MLP), Perceptrón Multi Capa Cuadrática (SMLP), Función de Base Radial (RBF) y Redes Elman, así como Máquinas de Vectores Soporte (SVM), siendo las técnicas no paramétricas las que generalizaron mejor los fenómenos modelizados. / Salazar Ruiz, E. (2008). Desarrollo de modelos predictivos de contaminantes ambientales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2504 / Palancia
|
Page generated in 0.1173 seconds