• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 506
  • 37
  • 11
  • 2
  • Tagged with
  • 554
  • 464
  • 359
  • 358
  • 340
  • 254
  • 253
  • 244
  • 166
  • 142
  • 140
  • 117
  • 113
  • 105
  • 105
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Interfaz en Lenguaje Natural en sistemas de toma de decisiones para tratamiento de preguntas contextuales con anáfora y elipsis

Rojas Hernández, Yenory 04 July 2016 (has links)
No description available.
412

Aportaciones para la mejora de la educación virtual en la enseñanza de la ingeniería

Peñafiel, Myriam 16 February 2018 (has links)
Este trabajo de investigación se enfoca en realizar aportes para la mejora de la educación virtual en la enseñanza de la ingeniería, para ello se han obtenido los siguientes aportes resultados de la investigación realizada: un modelo para implementación de la tecnología en el aula, un modelo de autoformación docente de ingeniería, la metodología ATS, que utiliza análisis de texto y análisis de sentimientos, una adaptación del modelo eMM, para la educación virtual. Así mismo el trabajo desarrollado incluye un conjunto de recomendaciones para la mejora de la educación virtual.
413

El análisis de opiniones en la predicción política basados en Twitter. Un nuevo enfoque

Arroba Rimassa, Jorge 28 October 2019 (has links)
La democracia representa la única forma “justa” de gobierno en los países, pues todos los ciudadanos pueden ejercer libremente su derecho a elegir a sus mandantes o escoger sobre temas de importancia, dados en los Referéndum. En tal sentido, el preservar los resultados electorales es una tarea de todos y una de las diversas formas de conseguirlo es tener un mecanismo por el cual pudiéramos predecir los resultados finales, para que no se manipulen o alteren. Una forma es la realización de encuestas, estadísticamente confiables, pero que al momento de su ejecución se enfrenta a dificultades como: presupuestos reducidos, marcos muestrales imperfectos, tiempos reducidos, trabajos de campo complejos, regulaciones electorales limitantes, etc. Otra forma, es el aprovechar las nuevas formas de comunicación que tenemos las personas, las redes sociales, con las cuales expresamos libremente lo que sentimos y cuáles son nuestras preferencias, electorales también. El utilizar la Inteligencia Artificial (IA), que en la actualidad está presente en diversos campos cotidianos del quehacer de los hombres, aplicado al análisis de la información que fluye a través de las redes sociales y específicamente al campo electoral es casi reciente. Sin embargo, la forma en que este análisis se lo realiza tiene sus dificultades, dadas por la presencia de agentes exógenas que provocan distorsión y “ruido”; el presente trabajo incorpora una nueva metodología de predictibilidad electoral. Y es nueva porque considera que la unidad de análisis no son los mensajes sino más bien los electores, estos tienen su relevancia y ejercen la persuasión política a otros, también ellos están afincados en localidades geográficas diversas, por lo que se introducen los factores de ponderación geográficos, dada la asimetría existente en la utilización del Internet y el uso del Twitter, que es la red social, que se utilizó, dada la facilidad que presenta para la descarga de los mensajes. La metodología se puso a prueba en uno de los campos más sensibles, que es el de predecir un resultado que tiene verificación, como son las elecciones políticas. Esta metodología, será útil en los distintos estudios que se realicen en sociología, marketing y aquellos que requieren del conocer los comportamientos de las personas a través de las redes sociales.
414

Sistema informático utilizando el algoritmo de priorización de variables basado en matrices para apoyar la atención de servicio de los procesos de soporte técnico en la empresa oficina digital SAC

Berrios Yovera, Elky Cesar, Ulfe Serquen, Marco Antonio January 2018 (has links)
Las peticiones de servicio por soporte técnico o incidencias de TI, han sido diseñadas para ayudar a toda organización a obtener una mayor productividad y reducir los costos operativos, por ende, sus procesos informáticos deben ser siempre constantes y corregidos en el menor tiempo posible. Oficina Digital SAC, empresa dedicada a brindar soporte en los procesos de TI a empresas en las zonas norte y nor-oriente, observamos deficiencia de un 40% de las 240 incidencias atendidas como mínimo al mes, con retrasos de aproximadamente 6 horas por atención aproximadamente, no encontrándose estandarizado las peticiones de incidencias por soporte técnico, realizándose mediante correo electrónico, telefonía fija o móvil, etc. Lo que genera pérdida en horas hombre y aumentan los costos operativos. Se desarrolló un sistema informático utilizando el algoritmo de priorización de variables basado en matrices logrando así mejorar la atención de servicio de los procesos por soporte técnico , se priorizó el registro de incidencias , en especial los de mayor importancia, disminuyó los tiempos de atención de las incidencias para cada una de las empresas cliente, se logró reducir costos operativos por cada atención , se incrementó el número de atenciones de servicio por cada personal de soporte y aumentó los niveles de satisfacción de nuestros clientes. Para el desarrollo del sistema informático se ha utilizado la metodología UWE, modelado UML, sistema operativo Android y la interacción con el sistema se realiza vía dispositivo móvil y/o web. Las técnicas utilizadas para recolección de datos son: observación, encuesta y entrevista.
415

Fuzzy-Match Repair in Computer-Aided Translation Using Black-Box Machine Translation

Ortega, John E. 01 March 2021 (has links)
La traducción asistida por ordenador (TAO) basada en memorias de traducción (MT) es ampliamente utilizado para ayudar a traductores profesionales. Una MT es un repositorio que contiene unidades de traducción (UT), esto es, pares de segmentos paralelos (s,t) en lengua origen y lengua meta. Para la traducción de un nuevo segmento en lengua origen s', las herramientas TAO buscan en la MT y recuperan las UT(s,t) cuyo segmento en lengua origen s sea más similar as'. Luego, el traductor elige una UT y edita el segmento en lengua meta t para convertirlo en una traducción adecuada des'. La reparación de concordancias parciales (RCP) se puede utilizar como una técnica para modificar automáticamente las partes de t que necesitan ser editadas. Esta tesis describe un método de RCP, el cual es independiente del idioma y capaz de utilizar cualquier fuente disponible de información bilingüe para generar, dado el segmento a ser traducido s' y una UT (s, t), un conjunto de segmentos reparados y luego elegir el mejor segmento reparado utilizando un método de estimación de la calidad. Una evaluación de nuestro método de RCP muestra que, utilizando un sistema de traducción automática (TA) como fuente de información bilingüe, el segmento reparado elegido usando técnicas de estimación de la calidad es una buena aproximación al mejor candidato (oráculo) producido. Además, con un único modelo de estimación de la calidad de segmentos reparados, nuestro método funciona bien con cualquiera de los idiomas probados. Adicionalmente, describimos un método para elegir el sistema de TA a usar por el sistema de RCP para cada segmento automáticamente, a-priori, sin tener que traducir el segmento en lengua origen s'. Los resultados muestran que mediante el uso de este método nuestro método de RCP genera mejores segmentos reparados que utilizando cualquiera de los sistemas de TA de forma aislada. Finalmente, mostramos que la integración de nuestro método de RCP con un sistema de posedición automática también mejora la calidad de segmentos reparados por nuestro método de RCP.
416

Implementación del módulo de servicio de comunicaciones convergentes - IP Centrex

Maguiña Gutiérrez, Juan Carlos, Vargas Díaz, Giovanna 19 March 2013 (has links)
Tesis
417

Sistema de creación y gestión de contenidos de aprendizaje

Granda del Águila, Alfredo, Linares Gómez, Jorge, Reyes Villar, Josefina, Valdez Pérez, Julio César 2013 March 1919 (has links)
El trabajo que se presenta a continuación consiste en la memoria del proyecto profesional “Sistema de creación y gestión de contenidos de aprendizaje” que se desarrolló para la obtención del Título de Ingeniero de Software. El proyecto formó parte de los cursos Taller de Proyectos, Proyecto 1 y Proyecto 2 que se cursaron en la Universidad Peruana de Ciencias Aplicadas, permitiendo el seguimiento por parte de los catedráticos. El sistema que se propone permite la administración de contenido de aprendizaje que se utiliza para el proceso de creación, almacenamiento, búsqueda y entrega de los objetos de aprendizaje. El documento a continuación está constituido por 8 capítulos. El Capítulo 1 explica la Fundamentación Teórica del proyecto, en el se va a tratar temas como el objeto de estudio, dominio del problema y la solución propuesta. El Capítulo 2 trata de los requerimientos del sistema, en este capítulo se habla de los actores del sistema, requerimientos funcionales, requerimientos no funcionales del sistema y el análisis de los requerimientos. / Tesis
418

Aproximación de soluciones multimodales para aplicaciones Deep Learning

Ortega Bastida, Javier 30 September 2021 (has links)
Las oficinas de estadísticas de todo el mundo normalmente calculan y publican las estimaciones oficiales de indicadores macroeconómicos, como el Producto Interior Bruto (PIB), solo a nivel nacional y con una periodicidad anual. En algunos países se pueden encontrar también datos oficiales con frecuencias menores, como semestrales o trimestrales, y, en ocasiones, a niveles geográficos inferiores, aunque este último caso es menos común y cuando se publica suele realizarse únicamente con carácter anual. En países como España, el PIB nacional se comunica oficialmente con una regularidad trimestral, sin embargo, el PIB a nivel regional solamente se publica anualmente. Además de estos indicadores, no existen otras estimaciones oficiales, ya que por ejemplo no es posible conocer el PIB para zonas geográficas de niveles inferiores, como ciudades o provincias, o con periodicidades distintas. Sin embargo, para la actividad política y financiera resulta de gran interés conocer la evolución económica en frecuencias menores a un año o trimestre, ya que esto resulta en ocasiones decisivo para la toma de decisiones. De igual forma, conocer esta información para unidades geográficas más específicas, permitiría a los actores económicos potenciar sus inversiones y evitar las zonas de mayor riesgo. Esta disertación propone un enfoque multimodal basado en aprendizaje automático para la predicción del PIB a niveles geográficos distintos al nacional y con frecuencias temporales inferiores a la anual. La aproximación propuesta combina diferentes fuentes de información, como valores históricos y mensajes escritos en la red social Twitter. Para esto, se realiza un estudio exhaustivo donde distintas soluciones y metodologías son evaluadas para comparar su precisión frente a otras propuestas existentes, incluyendo técnicas de aprendizaje supervisado y no supervisado, de procesamiento del lenguaje natural y de análisis de secuencias. La multimodalidad permite mejorar la precisión de un modelo predictivo gracias a su capacidad de combinar información almacenada en distintas fuentes de datos (como son en nuestro caso los valores históricos del PIB y la información textual de los tweets). En un primer estudio sobre técnicas de multimodalidad analizaremos su aplicación a un entorno interactivo para el reconocimiento de objetos, donde imágenes y metadatos textuales y numéricos serán combinados. En base a las conclusiones extraídas de este estudio preliminar, se propuso una solución para la predicción del PIB regional a partir de la información económica extraída y filtrada de la red social Twitter. Esta solución se extendió posteriormente para combinar la información con valores históricos y, de esta forma, mejorar la precisión de las predicciones. Además, esta aproximación también nos permitió determinar las opiniones más y menos influyentes a la hora de realizar una predicción. Los resultados obtenidos se compararon con otros trabajos del estado del arte, demostrando una precisión superior al estimar la tendencia del valor del PIB. Además, se evaluó la validez de la propuesta para frecuencias temporales trimestrales y semanales, y para la predicción en distintas comunidades autónomas, incluyendo casos uniprovinciales y pluriprovinciales. Por último, y dadas las circunstancias en las que este estudio se realizó, el método propuesto fue evaluado en un entorno real condicionado por la pandemia de la COVID-19. Esto nos permitió analizar la capacidad del método en una situación extrema, en la que el desplome del PIB fue el mayor en casi un siglo, obteniendo unos resultados prometedores que no se podrían haber conseguido sin la combinación de diferentes fuentes de información.
419

Un enfoque multidimensional basado en RDF para la publicación de Linked Open Data

Escobar Esteban, María Pilar 07 July 2020 (has links)
Cada vez hay disponibles más datos de manera pública en Internet y surgen nuevas bases de conocimiento conocidas como Knowledge Graph, basadas en conceptos de Linked Open Data (datos abiertos enlazados), como DBPedia, Wikidata, YAGO o Google Knowledge Graph, que cubren un amplio abanico de campos del conocimiento. Además, se incorporan los datos que provienen de diversas fuentes como dispositivos inteligentes o las redes sociales. Sin embargo, que estos datos estén públicos y accesibles no garantiza que sean útiles para los usuarios, no siempre se garantiza que sean confiables ni que puedan ser reutilizados de manera eficiente. Actualmente, siguen existiendo barreras que dificultan la reutilización de los datos, porque los formatos son poco adecuados para el procesamiento automático y publicación de la información, por falta de metadatos descriptivos y de semántica, duplicidades, ambigüedad o incluso errores en los propios datos. A todos estos problemas hay que añadir la complejidad del proceso de explotación de la información de un repositorio de datos abiertos enlazados. El trabajo y conocimientos técnicos que requiere el acceso, recolección, normalización y preparación de los datos para que puedan ser reutilizados supone una carga extra para los usuarios y organizaciones que quieran utilizarlos. Para garantizar una eficiente explotación de los mismos, resulta fundamental dotarlos de más valor estableciendo conexiones con otros repositorios que permitan enriquecerlos; garantizar su valor, evaluando y mejorando la calidad de lo que se publica; y asimismo ofrecer los mecanismos necesarios que faciliten su explotación. En este trabajo de tesis se ha propuesto un modelo para la publicación de Linked Open Data que, a partir de un conjunto de datos obtenidos de diversas fuentes, facilita la publicación, enriquecimiento y validación de los datos, generando información útil y de calidad orientada a usuarios expertos y no expertos.
420

Evaluación de la accesibilidad web con herramientas automáticas y un método heurístico para usuarios con baja visión

Acosta-Vargas, Patricia 11 February 2020 (has links)
Esta investigación se orienta en estudiar la accesibilidad de los sitios web de varios países de Latinoamérica, para evaluar si cumplen con los estándares mínimos de accesibilidad web establecidos por el W3C. Además, este estudio se enfoca a las personas interesadas en conocer el estado relativo a la accesibilidad y estándares de las WCAG 2.0 y 2.1 en los sitios web de varias instituciones de Latinoamérica, y la importancia de utilizar estas normas. Este estudio investigó si los sitios web educativos de Latinoamérica cumplen con los lineamientos vigentes de accesibilidad web y si estas condiciones dependen de la ubicación en el ranking establecido por Webometrics en donde se encuentran aproximadamente 3,942 universidades de Latinoamérica. El estudio permitió evaluar la accesibilidad de 348 páginas de inicio de las universidades de Latinoamérica, de acuerdo con el cálculo del tamaño de la muestra. En la evaluación de la accesibilidad de los sitios web aplicamos herramientas de revisión automática y un método manual que permitan comprobar los estándares de accesibilidad. El mayor número de los problemas identificados con relación a la accesibilidad de los sitios web muestran que es obligatorio robustecer las políticas de accesibilidad web en cada país y brindar lineamientos en este espacio para que los sitios web sean cada vez más inclusivos. Los futuros trabajos deberían seguir analizando la evolución de los sitios web, proporcionando clasificaciones actualizadas periódicamente y haciendo públicos los resultados y los informes. Por otro lado, existen métodos cualitativos y cuantitativos para evidenciar si un sitio web es accesible. La mayoría de los métodos aplican herramientas de revisión automática porque son de bajo costo, pero no presentan una solución ideal. En cambio, los métodos heurísticos requieren un apoyo manual que ayudará al experto a evaluar la accesibilidad mediante el establecimiento de rangos de severidad. Razón por la cual, en esta investigación se utilizó una modificación del método de Barrier Walkthrough propuesto por Brajnik teniendo en cuenta las WCAG 2.1. La modificación consistió en incluir un valor de persistencia para determinar la severidad de una barrera de accesibilidad. Este método permitió medir la accesibilidad de los sitios web para probar un proceso heurístico y obtener datos de muestra para el análisis e interpretación de resultados. La propuesta permite probar una nueva heurística con un rango de persistencia más amplio, que ayude a los evaluadores a tener una aproximación más realista de la severidad de una barrera de accesibilidad web. Esta investigación concluyó que, aunque un sitio web está en una clasificación alta según un ranking, no necesariamente cuenta con un sitio web accesible e inclusivo. Este método puede ser replicado para otros sitios web al incluir diferentes tipos de discapacidades, escenarios de prueba y usuarios finales. Como resultado de esta investigación encontramos que ningún sitio web seleccionado en la muestra alcanzó un nivel aceptable de accesibilidad. Por lo tanto, las universidades de Latinoamérica y los sitios web más visitados según Alexa deben realizar esfuerzos significativos para perfeccionar la accesibilidad en los sitios web. Por último, sugiero animar a los diseñadores y creadores de sitios web a aplicar los lineamientos establecidos en las WCAG 2.0 y 2.1 como punto de partida a la hora de desarrollar sitios web accesibles. En conclusión, los sitios web deben hacer esfuerzos significativos para mejorar la accesibilidad, incluir la diversidad y construir sitios web inclusivos.

Page generated in 0.4152 seconds