• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 34
  • 1
  • Tagged with
  • 117
  • 117
  • 117
  • 117
  • 21
  • 19
  • 18
  • 18
  • 15
  • 13
  • 13
  • 12
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Sistemas de clasificación de preguntas basados en corpus para la búsqueda de respuestas

Tomás, David 21 July 2009 (has links)
No description available.
2

Agile Managing of Web requirements with WebSpec

Robles Luna, Esteban 27 June 2011 (has links)
No description available.
3

Selección y ponderación de características para la clasificación de textos y su aplicación en el diagnóstico médico

Ruiz Rico, Fernando 30 September 2013 (has links)
No description available.
4

Una aproximación léxico-semántica para el mapeado automático de medicamentos y su aplicación al enriquecimiento de ontologías farmacoterapéuticas

Cruañes Vilas, Jorge 10 October 2014 (has links)
Recientemente ha entrado en vigor en España una nueva legislación que afecta a la información existente en los medicamentos comercializados en este país. Ésta obliga a la inclusión de información de correspondencia respecto a la terminología internacional multilingüe SNOMED-CT. Este proceso es realizado actualmente de forma manual. Este es el punto de partida de este trabajo. Por tanto, el primer objetivo de esta tesis es obtener un método capaz de realizar estas correspondencias (mapeados) de forma automática. Para ello se hará uso de SNOMED-CT como terminología destino de los mapeados y, como origen, los medicamentos comercializados en España existentes en la ontología OntoFIS. Esta ontología ha sido poblada de forma semi-automática a partir de la base de datos oficial del Ministerio de Sanidad Español DIGITALIS. Usar una ontología en lugar de directamente la base de datos aporta ciertos beneficios, como la existencia de conocimiento semántico explicitado (relaciones semánticas), que supondrán una ayuda en el propio proceso de mapeado y, posteriormente, en otros procesos de marcado, extracción de información o clasificación. Para poder alcanzar este objetivo, sin embargo, es necesario equiparar los niveles de especificidad (también conocida como granularidad) de ambos recursos (OntoFIS y SNOMED-CT), ya que no es posible mapear dos recursos con diferentes granularidades. Finalmente, tras haber logrado establecer los mapeados entre ambas terminologías, el último objetivo de la tesis será el de utilizar dichos mapeados para ampliar semánticamente la ontología OntoFIS. Para la consecución de estos tres objetivos, y tras haber estudiado los trabajos existentes en el domino de salud en castellano e inglés, se ha optado por utilizar técnicas de Procesamiento del Lenguaje Natural (PLN), combinándolo con un sistema basado en patrones. Partiendo de las etiquetas del nombre de los medicamentos comercializados en España (nombres de especialidad) junto con las especificaciones existentes en la legislación vigente, se han extraídos una serie de patrones que ayudarán en el proceso de identificación de los elementos de un medicamento, como por ejemplo sus principios activos, sus concentraciones o la población objetivo a la que van dirigidos. Tras haber identificado los elementos componentes de la denominación de los medicamentos, se procede a crear nuevas etiquetas automáticamente para equiparar su granularidad a la existente en SNOMED-CT. Seguidamente se procede al mapeado de las nuevas etiquetas sobre las existentes en SNOMED-CT. El carácter multilingüe de ambos recursos permite poder utilizar el idioma castellano para realizar dicho mapeado. El mapeado se lleva a cabo mediante técnicas de PLN basadas en la similitud léxica, utilizando complementariamente una serie de recursos semánticos específicos creados manualmente. Para establecer la correspondencia se han considerado cuatro grados de mapeado. Estos grados van desde la equivalencia semántica absoluta hasta un mínimo nivel de similitud. De esta forma se maximiza la cobertura de los mapeados. Seguidamente, a partir de los resultados obtenidos en los mapeados y teniendo en cuenta los cuatro grados de diferenciación de los mapeados, se amplía el conocimiento de OntoFIS mediante un sistema basado en reglas. Estas reglas establecen cuánta información puede ser recuperada de los mapeados establecidos, en base al grado de similitud del mapeado. Dichas reglas persiguen evitar introducir información incorrecta o ambigua en OntoFIS. Para concluir, se ha realizado una prueba final a la propuesta, con el fin de establecer unos resultados sólidos sobre el funcionamiento global, validez y seguridad de la propuesta presentada, evitando el sesgo por el estudio cualitativo y las pruebas piloto en el refinamiento de los algoritmos propuestos. Esta prueba persigue una confianza en los resultados del 95%, con un margen de error del 5%. Tras la evaluación de dicha prueba se ha concluido que se han alcanzado todos los objetivos propuestos satisfactoriamente. En dichas pruebas la cobertura obtenida ha variado entre el 90,96% y el 100% y la precisión ha estado comprendida entre el 77,88% y el 100%.
5

Desarrollo de una metodología para el análisis, diseño, implantación y evaluación de soluciones e-learning de software libre en instituciones de educación superior

Chacón Rivas, Mario 05 February 2016 (has links)
No description available.
6

Sistema Computacional de Programación Flexible diseñado sobre una Máquina Abstracta Reflectiva No Restrictiva

Ortín Soler, Francisco 01 February 2002 (has links)
Esta tesis describe el modo en el que distintas técnicas de reflectividad pueden ser empleadas para el desarrollo de un sistema computacional de programación extensible y adaptable dinámicamente, sin sufrir dependencia alguna de un lenguaje de programación específico, y empleando para ello una plataforma virtual heterogénea.Se diseña una máquina abstracta, de tamaño y complejidad semántica reducida, como la raíz computacional del sistema, que otorga primitivas básicas de reflectividad. Tanto su tamaño restringido como su capacidad introspectiva, la hacen susceptible de ser implantada en entornos computacionales heterogéneos, constituyendo adicionalmente un entorno computacional independiente de la plataforma.Haciendo uso de las facultades reflectivas ofrecidas por la máquina abstracta su nivel de abstracción computacional podrá ser extendido dinámicamente, utilizando para ello su propio lenguaje de programación sin necesidad de modificar la implementación reducida de la máquina virtual, y, por tanto, sin perder portabilidad de su código. El empleo de su capacidad extensible se utilizará, a modo de ejemplo, en el diseño de abstracciones propias de persistencia, distribución, planificación controlada de hilos y recolección de basura. Todas las abstracciones ofrecidas mediante la extensión de la plataforma, utilizando su propio lenguaje, son adaptables para cualquier aplicación, en tiempo de ejecución.Se diseña un sistema de procesamiento genérico de lenguajes disponiendo de las características reflectivas de la plataforma, dando lugar a una independencia global del lenguaje de programación seleccionado por el programador. Cualquier aplicación podrá interactuar con otra bajo el modelo computacional de objetos ofrecido por la máquina abstracta, independientemente del lenguaje en el que hayan sido creadas.La flexibilidad dinámica del sistema creado es superior, tanto en expresividad como en el espectro de facetas computacionales adaptables, a los actualmente existentes. La estructura de las aplicaciones en ejecución, y la especificación léxica, sintáctica y semántica del lenguaje de programación, son parámetros configurables dinámicamente, tanto por la propia aplicación -en cualquiera que sea su lenguaje de programación-, como por cualquier otro programa. El sistema reflectivo ofrecido no posee restricción alguna respecto a las características computacionales a configurar, ni respecto al modo de expresar su adaptación. Toda la flexibilidad ofrecida es dinámica, no siendo necesario finalizar la ejecución de una aplicación para su configuración, pudiéndose adaptar ésta a requisitos surgidos dinámicamente, imprevisibles en tiempo de desarrollo.
7

Estudio de la planificabilidad y optimización de sistemas distribuidos de tiempo real basados en prioridades fijas y EDF

Rivas Concepción, Juan María 15 July 2015 (has links)
El trabajo llevado a cabo en esta tesis se centra en realizar un estudio en profundidad de las soluciones que producen las técnicas de análisis de planificabilidad y asignación de parámetros de planificación para sistemas distribuidos, como consecuencia del cual se obtienen una serie de resultados que pueden guiar al diseñador a identificar qué algoritmo de planificación o técnica debe aplicar a su problema. También se adaptan las técnicas de análisis y optimización existentes a su aplicación a un conjunto más amplio de sistemas, que permiten la mezcla de diferentes planificadores en los recursos procesadores del sistema distribuido, y se proponen nuevas técnicas de asignación de plazos locales de planificación para EDF. / The work carried out in this thesis focuses on performing an exhaustive study of the solutions produced by both the schedulability analysis techniques, and the scheduling parameters assignment techniques, for distributed systems. The results obtained in this study can help a real-time system designer to identify the algorithm or scheduling policy to be applied. Additionally, the current analysis and optimization techniques are adapted for their application to a wider range of systems, where each processing resource could use a different scheduling policy. New techniques for the assignment of local scheduling deadlines for EDF are also proposed.
8

Verificación de autoría, modelos intrínsecos basados en semejanza

Castro, Daniel 28 January 2019 (has links)
El Análisis de Autoría (AA) es una subtarea en el campo de la Minería de Datos (MD), donde se persigue el propósito de minar un estilo o patrón de redacción correspondiente y característico de un autor, a partir de los documentos redactados por el mismo. Una de las aplicaciones o enfoques más analizados en la comunidad internacional se corresponde con determinar el autor de un documento anónimo o uno cuyo autor esté en duda. Para esto es necesario intentar inferir características del estilo de redacción del autor a través de los documentos escritos por él, estas características nos permitirán conformar un modelo del estilo de este autor y medir qué tan similar puede ser un documento cualquiera a los documentos escritos por dicho autor. Un caso de estudio práctico en las ciencias forenses se manifiesta cuando el perito debe evaluar la autoría de un documento desconocido y solo cuenta con muestras certificadas de un autor, para lo cual debe responder si fue redactado o no por el consiguiente autor, se puede abstener o en qué grado pudo ser redactado, entre otros elementos, atendiendo a la semejanza con las muestras conocidas. Este caso de estudio se corresponde con las investigaciones realizadas en la Verificación de Autoría (VA). Al proceso que trata de determinar la autoría de un documento digital a partir de las muestras digitales conocidas de uno o más autores se conoce como Verificación de Autoría Intrínseca (VAI). La propuesta se centra en el diseño y la implementación de métodos supervisados de VAI orientado a una sola clase, donde solo se empleen muestras conocidas de un autor y se analicen las características contenidas en la redacción de cada documento (enfoque basado en instancias) y otra variante donde a partir de las muestras conocidas de autor se crea un nuevo documento ficticio que contiene información de todos los documentos (enfoque basado en prototipo). Los resultados obtenidos son alentadores y permiten evaluar la utilidad y generalización de nuestra propuesta ante diferentes escenarios y dominios de aplicación. En lo fundamental se manifiesta la importancia de disponer de más de una muestra conocida para cada autor que se desee analizar. Los mejores resultados se obtienen para las colecciones con mayor promedio de palabras por documentos y número de muestras por autores. Se aprecia que la combinación de los resultados en las decisiones permite obtener una mayor efectividad que si solo se empleara una función de comparación y una representación de los documentos empleando un solo tipo de rasgo.
9

Publicación y enriquecimiento semántico de datos abiertos en bibliotecas digitales

Candela, Gustavo 02 July 2019 (has links)
La Biblioteca Virtual Miguel de Cervantes, con dirección web http://www.cervantesvirtual.com, es una biblioteca digital española creada en 1999 con el objetivo principal de difundir la cultura hispánica. Siguiendo los pasos de las grandes bibliotecas, a principios de 2015 la BVMC lanzó su primera versión de datos abiertos basada en el vocabulario RDA que se encuentra disponible en la dirección http://data.cervantesvirtual.com. El proyecto de datos abiertos de la BVMC tiene como objetivos promover la compartición y reutilización de datos, así como la difusión de buenas prácticas. Esta tesis presenta los pasos seguidos para publicar y enriquecer semánticamente los datos abiertos de la BVMC e incluye las siguientes aportaciones: • Construcción de un entorno de publicación y enriquecimiento de datos abiertos que permite comprender mejor el contexto, los problemas y necesidades organizacionales, reduciendo las posibilidades de fracaso de este tipo de proyectos. • Establecimiento de una metodología que sistematiza y facilita el descubrimiento e identificación de entidades en un dominio de bibliotecas digitales. • Desarrollo de herramientas y algoritmos para automatizar el procesamiento de conjuntos de datos basados en registros bibliográficos de manera eficiente. • Propuesta de una metodología para la evaluación de la calidad de los datos que incluye la precisión, la consistencia y la accesibilidad, entre otros criterios. Como resultado del trabajo realizado se han publicado tres artículos en revistas indexadas, dos de ellos en Journal of Information Science y uno en Semantic Web Journal, además una publicación en la conferencia Advances in Information Retrieval, así como numerosas comunicaciones a nivel nacional e internacional, en colaboración con otras instituciones.
10

Arquitectura para la gestión de datos en un campus inteligente

Villegas-CH, William 24 January 2020 (has links)
En la actualidad, las tecnologías de la información y comunicación (TIC) se han convertido en herramientas invaluables en el desarrollo de la sociedad. Estas tecnologías están presentes en las empresas, la medicina, la educación, etc. Prácticamente la sociedad ha llegado a un punto en que el principal asistente en cada una de las actividades son las TIC. Esto ha permitido la globalización de todas las áreas donde estas son aplicadas. Las ventajas del uso de las TIC han permitido mejorar y automatizar los procesos en todo nivel, sea en una empresa, una ciudad, una universidad, un hogar, etc. Para hacerlo, las tecnologías se ajustan a las necesidades del usuario y son capaces de interactuar con él, incluso, están en capacidad de interactuar entre sí sin la intervención de un humano. ¿Pero cómo lo hacen y para qué? Las nuevas tecnologías ahora integran varios sistemas y plataformas que están en la capacidad de adquirir información de las personas y sus entornos, analizar esta información y tomar decisiones con base en los resultados del análisis. Estas decisiones se ven plasmadas, por ejemplo, en la mejora de las ventas de una empresa o en la mejora de los procesos de manufactura. Como estos, existen muchos ejemplos que son resultado de numerosas investigaciones que tienen como objetivo mejorar la calidad de vida de las personas en ecosistemas sostenibles. Uno de estos ecosistemas que ha adquirido gran importancia recientemente son las ciudades inteligentes. El valor de las ciudades inteligentes se basa en satisfacer las necesidades de los miembros de su comunidad en armonía con la naturaleza. Esto involucra una mejor administración de los servicios como el transporte, la generación y consumo energético, la seguridad, la gobernabilidad, etc. Sin embargo, transformar una ciudad común en una ciudad inteligente requiere de muchos esfuerzos y recursos, tanto económicos como humanos. Ante este problema, es necesario contar con escenarios similares que incluso sirvan como un banco de pruebas para la implementación de tecnologías y que su implementación en entornos más grandes sea efectiva y con los recursos adecuados. Las universidades, como generadoras de conocimiento, son las llamadas a realizar los procesos de implementación, pruebas y generación de nuevas tecnologías. Su ambiente, administración y organigrama estructural, sumada a extensas áreas que conforman sus campus, permite compararlas con pequeñas ciudades. Esto permite establecer una línea base donde se apliquen todos los componentes necesarios para transformarlos en campus inteligentes (smart campus). Los campus inteligentes buscan mejorar la calidad de la educación a través de la convergencia de nuevas tecnologías. Es importante establecer que un campus universitario pone a disposición de los estudiantes y los miembros de la comunidad todas las condiciones para garantizar la calidad de la educación. Los campus inteligentes, al igual que las ciudades inteligentes, basan sus entornos en satisfacer las necesidades de sus miembros; para esto, es necesario crear procesos o sistemas que adquieran información sobre ellos. Es por esto, que el Internet de las cosas (IoT, acrónimo en inglés de Internet of Things) se convierte en uno de los componentes necesarios para la transformación de un campus tradicional. La información recolectada necesariamente debe convertirse en conocimiento para ejecutar acciones con base en este conocimiento. Estas acciones responden a una toma de decisiones efectiva y eficiente que satisfaga las necesidades de las personas. Para realizar el análisis de datos es necesario contar con una arquitectura que gestione un gran volumen de datos independientemente de su formato. La tecnología que ofrece estas capacidades es el big data, su integración al campus inteligente genera una estructura lo suficientemente robusta para soportar toda la carga del IoT y el análisis de datos requerido por los usuarios. Estas tecnologías, en compañía de la computación en la nube (cloud computing), permiten a los miembros del campus inteligente desarrollar sus actividades en total armonía con los recursos y la naturaleza. Este trabajo de investigación está enfocado en proponer una arquitectura para la gestión de datos en un campus universitario. Este enfoque trata todas las variables que influyen en la educación universitaria. Descubrir estas variables, tratarlas y establecer sus relaciones entre sí, requiere de la integración de las tecnologías mencionadas incluso con modelos de inteligencia artificial que permitan tomar acciones sobre los resultados del análisis de datos.

Page generated in 0.1072 seconds