• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 34
  • 1
  • Tagged with
  • 117
  • 117
  • 117
  • 117
  • 21
  • 19
  • 18
  • 18
  • 15
  • 13
  • 13
  • 12
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

TALISMAN: desarrollo ágil de Software con Arquitecturas Dirigidas por Modelos

Pelayo García-Bustelo, Begoña Cristina 12 July 2007 (has links)
La especificación Model Driven Architecture (MDA), es una especialización del desarrollo dirigido por modelos que separa la lógica del negocio del software y las plataformas tecnológicas. Para ello MDA define tres tipos de modelos. Los CIM, Computation Independent Model, asociados al dominio del negocio, los PIM, Platform Independent Model, asociados a modelos abstractos del software, y los PSM, Platform Specific Model, relacionados con modelos de software específicos de plataformas tecnológicas. Sin embargo MDA no detalla cómo deben ser los modelos CIM y tampoco describe cómo deben ser transformados a modelos PIM. Como solución a dicho problema, esta tesis presenta una recomendación que propone un proceso de desarrollo de software basado en la creación de modelos de procesos del negocio, clasificados como CIM, que son asociados a los modelos iniciales del software, considerados PIM. Partiendo de una interpretación válida de MDA, la recomendación propuesta se apoya además en la aplicación de otras disciplinas de gran actualidad. Entre ellas destacamos el uso de desarrollo ágil de software, para la definición adecuada de los procesos del negocio.
92

A methodology for the visual comprehension of Big Data

Lavalle, Ana 15 July 2021 (has links)
En una era donde el análisis del Big Data está a la orden del día, la analítica visual se convierte en un componente clave. Sin embargo, establecer unos objetivos analíticos y encontrar las visualizaciones que mejor se adapten a un contexto determinado es una tarea desafiante, especialmente cuando se trata con usuarios no expertos en visualización de datos. El uso de un tipo de visualización inadecuado puede llevar a malinterpretar los datos y a tomar decisiones equivocadas, provocando pérdidas significativas. Por ello, el objetivo principal de la presente tesis doctoral es definir una metodología que agrupe una serie de técnicas y aproximaciones para mejorar la comprensión visual de Big Data. En concreto, se han analizado las necesidades actuales en la toma de requisitos para la generación de visualizaciones y se ha propuesto una metodología completa, desde la definición de requisitos hasta la implementación de visualizaciones, que guía al usuario en la definición de sus objetivos analíticos y genera automáticamente la mejor visualización para cada uno, agrupando dichas visualizaciones en cuadros de mandos. La metodología está compuesta por (i) un modelo de requisitos de usuario, (ii) un modelo de perfilado de datos que extrae de forma semiautomática información sobre las características de las fuentes de datos y (iii) un modelo de visualización de datos. Nuestra propuesta ha sido evaluada y aplicada en distintos ámbitos, tales como ciudades inteligentes, procesos de producción industrial y entornos sanitarios. Además, con los resultados obtenidos y que se presentan en el trabajo, podemos concluir que se logra el objetivo principal del estudio, ya que, en línea con los experimentos realizados en el núcleo de la presente tesis doctoral, nuestra propuesta: (i) permite a los usuarios cubrir más cuestiones analíticas; (ii) mejora el conjunto de visualizaciones generadas; (iii) produce una mayor satisfacción general en los usuarios. La investigación realizada en la presente tesis doctoral ha dado como resultado diferentes artículos científicos que han sido presentados en congresos internacionales y revistas científicas de alto impacto, es por ello por lo que se elige presentar la tesis doctoral por compendio de publicaciones.
93

Interfaz en Lenguaje Natural en sistemas de toma de decisiones para tratamiento de preguntas contextuales con anáfora y elipsis

Rojas Hernández, Yenory 04 July 2016 (has links)
No description available.
94

Aportaciones para la mejora de la educación virtual en la enseñanza de la ingeniería

Peñafiel, Myriam 16 February 2018 (has links)
Este trabajo de investigación se enfoca en realizar aportes para la mejora de la educación virtual en la enseñanza de la ingeniería, para ello se han obtenido los siguientes aportes resultados de la investigación realizada: un modelo para implementación de la tecnología en el aula, un modelo de autoformación docente de ingeniería, la metodología ATS, que utiliza análisis de texto y análisis de sentimientos, una adaptación del modelo eMM, para la educación virtual. Así mismo el trabajo desarrollado incluye un conjunto de recomendaciones para la mejora de la educación virtual.
95

El análisis de opiniones en la predicción política basados en Twitter. Un nuevo enfoque

Arroba Rimassa, Jorge 28 October 2019 (has links)
La democracia representa la única forma “justa” de gobierno en los países, pues todos los ciudadanos pueden ejercer libremente su derecho a elegir a sus mandantes o escoger sobre temas de importancia, dados en los Referéndum. En tal sentido, el preservar los resultados electorales es una tarea de todos y una de las diversas formas de conseguirlo es tener un mecanismo por el cual pudiéramos predecir los resultados finales, para que no se manipulen o alteren. Una forma es la realización de encuestas, estadísticamente confiables, pero que al momento de su ejecución se enfrenta a dificultades como: presupuestos reducidos, marcos muestrales imperfectos, tiempos reducidos, trabajos de campo complejos, regulaciones electorales limitantes, etc. Otra forma, es el aprovechar las nuevas formas de comunicación que tenemos las personas, las redes sociales, con las cuales expresamos libremente lo que sentimos y cuáles son nuestras preferencias, electorales también. El utilizar la Inteligencia Artificial (IA), que en la actualidad está presente en diversos campos cotidianos del quehacer de los hombres, aplicado al análisis de la información que fluye a través de las redes sociales y específicamente al campo electoral es casi reciente. Sin embargo, la forma en que este análisis se lo realiza tiene sus dificultades, dadas por la presencia de agentes exógenas que provocan distorsión y “ruido”; el presente trabajo incorpora una nueva metodología de predictibilidad electoral. Y es nueva porque considera que la unidad de análisis no son los mensajes sino más bien los electores, estos tienen su relevancia y ejercen la persuasión política a otros, también ellos están afincados en localidades geográficas diversas, por lo que se introducen los factores de ponderación geográficos, dada la asimetría existente en la utilización del Internet y el uso del Twitter, que es la red social, que se utilizó, dada la facilidad que presenta para la descarga de los mensajes. La metodología se puso a prueba en uno de los campos más sensibles, que es el de predecir un resultado que tiene verificación, como son las elecciones políticas. Esta metodología, será útil en los distintos estudios que se realicen en sociología, marketing y aquellos que requieren del conocer los comportamientos de las personas a través de las redes sociales.
96

Fuzzy-Match Repair in Computer-Aided Translation Using Black-Box Machine Translation

Ortega, John E. 01 March 2021 (has links)
La traducción asistida por ordenador (TAO) basada en memorias de traducción (MT) es ampliamente utilizado para ayudar a traductores profesionales. Una MT es un repositorio que contiene unidades de traducción (UT), esto es, pares de segmentos paralelos (s,t) en lengua origen y lengua meta. Para la traducción de un nuevo segmento en lengua origen s', las herramientas TAO buscan en la MT y recuperan las UT(s,t) cuyo segmento en lengua origen s sea más similar as'. Luego, el traductor elige una UT y edita el segmento en lengua meta t para convertirlo en una traducción adecuada des'. La reparación de concordancias parciales (RCP) se puede utilizar como una técnica para modificar automáticamente las partes de t que necesitan ser editadas. Esta tesis describe un método de RCP, el cual es independiente del idioma y capaz de utilizar cualquier fuente disponible de información bilingüe para generar, dado el segmento a ser traducido s' y una UT (s, t), un conjunto de segmentos reparados y luego elegir el mejor segmento reparado utilizando un método de estimación de la calidad. Una evaluación de nuestro método de RCP muestra que, utilizando un sistema de traducción automática (TA) como fuente de información bilingüe, el segmento reparado elegido usando técnicas de estimación de la calidad es una buena aproximación al mejor candidato (oráculo) producido. Además, con un único modelo de estimación de la calidad de segmentos reparados, nuestro método funciona bien con cualquiera de los idiomas probados. Adicionalmente, describimos un método para elegir el sistema de TA a usar por el sistema de RCP para cada segmento automáticamente, a-priori, sin tener que traducir el segmento en lengua origen s'. Los resultados muestran que mediante el uso de este método nuestro método de RCP genera mejores segmentos reparados que utilizando cualquiera de los sistemas de TA de forma aislada. Finalmente, mostramos que la integración de nuestro método de RCP con un sistema de posedición automática también mejora la calidad de segmentos reparados por nuestro método de RCP.
97

Aproximación de soluciones multimodales para aplicaciones Deep Learning

Ortega Bastida, Javier 30 September 2021 (has links)
Las oficinas de estadísticas de todo el mundo normalmente calculan y publican las estimaciones oficiales de indicadores macroeconómicos, como el Producto Interior Bruto (PIB), solo a nivel nacional y con una periodicidad anual. En algunos países se pueden encontrar también datos oficiales con frecuencias menores, como semestrales o trimestrales, y, en ocasiones, a niveles geográficos inferiores, aunque este último caso es menos común y cuando se publica suele realizarse únicamente con carácter anual. En países como España, el PIB nacional se comunica oficialmente con una regularidad trimestral, sin embargo, el PIB a nivel regional solamente se publica anualmente. Además de estos indicadores, no existen otras estimaciones oficiales, ya que por ejemplo no es posible conocer el PIB para zonas geográficas de niveles inferiores, como ciudades o provincias, o con periodicidades distintas. Sin embargo, para la actividad política y financiera resulta de gran interés conocer la evolución económica en frecuencias menores a un año o trimestre, ya que esto resulta en ocasiones decisivo para la toma de decisiones. De igual forma, conocer esta información para unidades geográficas más específicas, permitiría a los actores económicos potenciar sus inversiones y evitar las zonas de mayor riesgo. Esta disertación propone un enfoque multimodal basado en aprendizaje automático para la predicción del PIB a niveles geográficos distintos al nacional y con frecuencias temporales inferiores a la anual. La aproximación propuesta combina diferentes fuentes de información, como valores históricos y mensajes escritos en la red social Twitter. Para esto, se realiza un estudio exhaustivo donde distintas soluciones y metodologías son evaluadas para comparar su precisión frente a otras propuestas existentes, incluyendo técnicas de aprendizaje supervisado y no supervisado, de procesamiento del lenguaje natural y de análisis de secuencias. La multimodalidad permite mejorar la precisión de un modelo predictivo gracias a su capacidad de combinar información almacenada en distintas fuentes de datos (como son en nuestro caso los valores históricos del PIB y la información textual de los tweets). En un primer estudio sobre técnicas de multimodalidad analizaremos su aplicación a un entorno interactivo para el reconocimiento de objetos, donde imágenes y metadatos textuales y numéricos serán combinados. En base a las conclusiones extraídas de este estudio preliminar, se propuso una solución para la predicción del PIB regional a partir de la información económica extraída y filtrada de la red social Twitter. Esta solución se extendió posteriormente para combinar la información con valores históricos y, de esta forma, mejorar la precisión de las predicciones. Además, esta aproximación también nos permitió determinar las opiniones más y menos influyentes a la hora de realizar una predicción. Los resultados obtenidos se compararon con otros trabajos del estado del arte, demostrando una precisión superior al estimar la tendencia del valor del PIB. Además, se evaluó la validez de la propuesta para frecuencias temporales trimestrales y semanales, y para la predicción en distintas comunidades autónomas, incluyendo casos uniprovinciales y pluriprovinciales. Por último, y dadas las circunstancias en las que este estudio se realizó, el método propuesto fue evaluado en un entorno real condicionado por la pandemia de la COVID-19. Esto nos permitió analizar la capacidad del método en una situación extrema, en la que el desplome del PIB fue el mayor en casi un siglo, obteniendo unos resultados prometedores que no se podrían haber conseguido sin la combinación de diferentes fuentes de información.
98

Un enfoque multidimensional basado en RDF para la publicación de Linked Open Data

Escobar Esteban, María Pilar 07 July 2020 (has links)
Cada vez hay disponibles más datos de manera pública en Internet y surgen nuevas bases de conocimiento conocidas como Knowledge Graph, basadas en conceptos de Linked Open Data (datos abiertos enlazados), como DBPedia, Wikidata, YAGO o Google Knowledge Graph, que cubren un amplio abanico de campos del conocimiento. Además, se incorporan los datos que provienen de diversas fuentes como dispositivos inteligentes o las redes sociales. Sin embargo, que estos datos estén públicos y accesibles no garantiza que sean útiles para los usuarios, no siempre se garantiza que sean confiables ni que puedan ser reutilizados de manera eficiente. Actualmente, siguen existiendo barreras que dificultan la reutilización de los datos, porque los formatos son poco adecuados para el procesamiento automático y publicación de la información, por falta de metadatos descriptivos y de semántica, duplicidades, ambigüedad o incluso errores en los propios datos. A todos estos problemas hay que añadir la complejidad del proceso de explotación de la información de un repositorio de datos abiertos enlazados. El trabajo y conocimientos técnicos que requiere el acceso, recolección, normalización y preparación de los datos para que puedan ser reutilizados supone una carga extra para los usuarios y organizaciones que quieran utilizarlos. Para garantizar una eficiente explotación de los mismos, resulta fundamental dotarlos de más valor estableciendo conexiones con otros repositorios que permitan enriquecerlos; garantizar su valor, evaluando y mejorando la calidad de lo que se publica; y asimismo ofrecer los mecanismos necesarios que faciliten su explotación. En este trabajo de tesis se ha propuesto un modelo para la publicación de Linked Open Data que, a partir de un conjunto de datos obtenidos de diversas fuentes, facilita la publicación, enriquecimiento y validación de los datos, generando información útil y de calidad orientada a usuarios expertos y no expertos.
99

Evaluación de la accesibilidad web con herramientas automáticas y un método heurístico para usuarios con baja visión

Acosta-Vargas, Patricia 11 February 2020 (has links)
Esta investigación se orienta en estudiar la accesibilidad de los sitios web de varios países de Latinoamérica, para evaluar si cumplen con los estándares mínimos de accesibilidad web establecidos por el W3C. Además, este estudio se enfoca a las personas interesadas en conocer el estado relativo a la accesibilidad y estándares de las WCAG 2.0 y 2.1 en los sitios web de varias instituciones de Latinoamérica, y la importancia de utilizar estas normas. Este estudio investigó si los sitios web educativos de Latinoamérica cumplen con los lineamientos vigentes de accesibilidad web y si estas condiciones dependen de la ubicación en el ranking establecido por Webometrics en donde se encuentran aproximadamente 3,942 universidades de Latinoamérica. El estudio permitió evaluar la accesibilidad de 348 páginas de inicio de las universidades de Latinoamérica, de acuerdo con el cálculo del tamaño de la muestra. En la evaluación de la accesibilidad de los sitios web aplicamos herramientas de revisión automática y un método manual que permitan comprobar los estándares de accesibilidad. El mayor número de los problemas identificados con relación a la accesibilidad de los sitios web muestran que es obligatorio robustecer las políticas de accesibilidad web en cada país y brindar lineamientos en este espacio para que los sitios web sean cada vez más inclusivos. Los futuros trabajos deberían seguir analizando la evolución de los sitios web, proporcionando clasificaciones actualizadas periódicamente y haciendo públicos los resultados y los informes. Por otro lado, existen métodos cualitativos y cuantitativos para evidenciar si un sitio web es accesible. La mayoría de los métodos aplican herramientas de revisión automática porque son de bajo costo, pero no presentan una solución ideal. En cambio, los métodos heurísticos requieren un apoyo manual que ayudará al experto a evaluar la accesibilidad mediante el establecimiento de rangos de severidad. Razón por la cual, en esta investigación se utilizó una modificación del método de Barrier Walkthrough propuesto por Brajnik teniendo en cuenta las WCAG 2.1. La modificación consistió en incluir un valor de persistencia para determinar la severidad de una barrera de accesibilidad. Este método permitió medir la accesibilidad de los sitios web para probar un proceso heurístico y obtener datos de muestra para el análisis e interpretación de resultados. La propuesta permite probar una nueva heurística con un rango de persistencia más amplio, que ayude a los evaluadores a tener una aproximación más realista de la severidad de una barrera de accesibilidad web. Esta investigación concluyó que, aunque un sitio web está en una clasificación alta según un ranking, no necesariamente cuenta con un sitio web accesible e inclusivo. Este método puede ser replicado para otros sitios web al incluir diferentes tipos de discapacidades, escenarios de prueba y usuarios finales. Como resultado de esta investigación encontramos que ningún sitio web seleccionado en la muestra alcanzó un nivel aceptable de accesibilidad. Por lo tanto, las universidades de Latinoamérica y los sitios web más visitados según Alexa deben realizar esfuerzos significativos para perfeccionar la accesibilidad en los sitios web. Por último, sugiero animar a los diseñadores y creadores de sitios web a aplicar los lineamientos establecidos en las WCAG 2.0 y 2.1 como punto de partida a la hora de desarrollar sitios web accesibles. En conclusión, los sitios web deben hacer esfuerzos significativos para mejorar la accesibilidad, incluir la diversidad y construir sitios web inclusivos.
100

Diseño y Especificación del ocio digital con fines de aprendizaje ODFA Subproblema: Ocio digital formativo en competencias ODFC para la UCE

Jiménez Álvarez, Luis Gonzalo 25 February 2021 (has links)
El desarrollo humano en la sociedad digital debe ser integral, una alternativa, es la fusión del ocio formal y los recursos digitales que generan el ocio digital, al añadirle el aprendizaje (individual y colaborativo) se forja el ocio digital con fines de aprendizaje ODFA, de este modelo se desprenden varios subproblemas, uno de ellos es el ocio digital formativo en competencia ODFC y su instancia denominada ocio digital formativo que integra competencias ODFIC, constituyendo en nuevas alternativas para enseñar y aprender. La investigación tiene como objetivos: establecer los fundamentos conceptuales y el estado del arte, establecer la especificación funcional y estructural del ODFA, realizar actividades de diseño del ODFC y el ODFIC, controlar y contribuir a la valorización del ocio digital, analizar los datos estadísticos sobre el ODFA y establecer un plan de acción para la Universidad Central del Ecuador UCE. La metodología como proceso de investigación utilizó el método causal formal MCF y el análisis estadístico descriptivo. Antes de construir un edificio se requiere los planos, igualmente, para desarrollar un software para el ODFA previamente se diseña y especifica el sistema, para ello se aplicó el MCF que permite identificar el problema y darle solución [1]. Se estableció que la conjetura (hipótesis inicial) es: “con el ocio digital es posible obtener conocimiento ubicuo para aprender o crear”. La finalidad es especificar y diseñar sistemas de ocio digital para ayudar al aprendizaje que se motiva porque se quiere sacar provecho docente al ocio digital y porque se quiere buscar estrategias para producir aprendizaje en tiempo libre. Posteriormente, se determinó la especificación funcional, estructural y contextual. Aplicando el modelado, dentro del conjunto de las “actividades en ocio digital” se determinó el modelo ODFA, que es el empleo formativo de sistemas digitales en tiempo libre. Se establecieron los objetivos o “para qué” siguientes: explotar el esfuerzo, el tiempo, el factor de complacencia, los rasgos específicos que tiene el ocio digital y ampliar el desarrollo curricular con aprendizaje ubicuo con fines docentes, uso recreativo de los recursos digitales con aprendizaje, ocio digital incorporado a la teoría de la educación, cubrir competencias curriculares, avanzar en la organización escolar, control y valorización del ocio digital. Dado lo extenso del proyecto ODFA, se resolvieron los tres últimos objetivos a través de los “cómo” o módulos siguientes: ODFC, ODFIC, FODA, rastreando y evaluando la actividad, promoviendo la percepción social sobre el ocio digital, gestionando la trazabilidad de los procesos del ODFC y apoyando académica y económicamente al ocio digital formativo, además, se analiza los “con qué” o los componentes de la solución. Adicionalmente se generan los grafos que indican la funcionalidad del problema y subproblemas. En la parte contextual se responden a las cuestiones: ¿cuándo?, ¿quién?, ¿cuánto?, ¿dónde? ¿a quienes? La aportación científica está en avanzar en la identificación de modelos, potenciar la resolución de problemas y la toma de decisiones en el marco del ODFA, en justificar el ocio como “scholé”, describir los recursos digitales orientados al aprendizaje, en plantear que el ODFA se alinea al “constructivismo conectado” a través del MCF que siendo usado en el diseño y especificación de sistemas también permite investigar conocimiento conocido (aprender) y generar conocimiento nuevo (crear) en forma ubicua. El ODFA involucra a la institución universitaria, docentes, el currículo, las actividades de los discentes (actores principales), el rastreo, la evaluación, el MCF (con el soporte de la App Mayéutica) y la ética. Mientras que el subproblema ODFC como una asignatura plantea potenciar las habilidades y capacidades, el ODFIC como un proyecto integrador de varias disciplinas propone la integración de las competencias: resolución de problemas, colaboración, creación y comunicación. Se concluye que el ODFA no solo plantea la transformación de la estrategia educativa sino que agrega valor reflexivo al proceso de aprendizaje con base a la “escuela digital” y “constructivismo conectado”, en este marco, el subproblema ODFC potencia las competencias gracias a MCF fuera de lo tradicional, fortalece el autoaprendizaje formal dirigido por el docente, porque lo que cuenta es la percepción observacional e intelectual hacia la causalidad a fin de comunicar los resultados, inventos o prototipos con objetividad de forma individual o grupal.

Page generated in 0.2141 seconds