• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 104
  • 37
  • 6
  • 1
  • Tagged with
  • 145
  • 145
  • 123
  • 117
  • 26
  • 21
  • 19
  • 18
  • 18
  • 15
  • 13
  • 13
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Descubrimiento Automático de Flujos de Aprendizaje de Máquina basado en Gramáticas Probabilı́sticas

Estévez-Velarde, Suilan 02 December 2021 (has links)
El aprendizaje de máquinas ha ganado terreno utilizándose en casi todas las áreas de la vida cotidiana, ayudando a tomar decisiones en las finanzas, la medicina, el comercio y el entretenimiento. El desarrollo continuo de nuevos algoritmos y técnicas de aprendizaje automático, y la amplia gama de herramientas y conjuntos de datos disponibles han traído nuevas oportunidades y desafíos para investigadores y profesionales tanto del mundo académico como de la industria. Seleccionar la mejor estrategia posible para resolver un problema de aprendizaje automático es cada vez más difícil, en parte porque requiere largos tiempos de experimentación y profundos conocimientos técnicos. En este escenario, el campo de investigación Automated Machine Learning (AutoML) ha ganado protagonismo, proponiendo estrategias para automatizar progresivamente tareas usuales durante el desarrollo de aplicaciones de aprendizaje de máquina. Las herramientas de AutoML más comunes permiten seleccionar automáticamente dentro de un conjunto restringido de algoritmos y parámetros la mejor estrategia para cierto conjunto de datos. Sin embargo, los problemas prácticos a menudo requieren combinar y comparar algoritmos heterogéneos implementados con diferentes tecnologías subyacentes. Un ejemplo es el procesamiento del lenguaje natural, un escenario donde varía el espacio de posibles técnicas a aplicar ampliamente entre diferentes tareas, desde el preprocesamiento hasta la representación y clasificación de textos. Realizar AutoML en un escenario heterogéneo como este es complejo porque la solución necesaria podría incluir herramientas y bibliotecas no compatibles entre sí. Esto requeriría que todos los algoritmos acuerden un protocolo común que permita la salida de un algoritmo para ser compartida como entradas a cualquier otro. En esta investigación se diseña e implementa un sistema de AutoML que utiliza técnicas heterogéneas. A diferencia de los enfoques de AutoML existentes, nuestra contribución puede combinar técnicas y algoritmos de diferentes bibliotecas y tecnologías, incluidos algoritmos de aprendizaje de máquina clásicos, extracción de características, herramientas de procesamiento de lenguaje natural y diversas arquitecturas de redes neuronales. Definimos el problema heterogéneo de optimización de AutoML como la búsqueda de la mejor secuencia de algoritmos que transforme datos de entrada específicos en la salida deseada. Esto proporciona un enfoque teórico y práctico novedoso para AutoML. Nuestra propuesta se evalúa experimentalmente en diversos problemas de aprendizaje automático y se compara con enfoques alternativos, lo que demuestra que es competitiva con otras alternativas de AutoML en los puntos de referencia estándar. Además, se puede aplicar a escenarios novedosos, como varias tareas de procesamiento de lenguaje natural, donde las alternativas existentes no se pueden implementar directamente. El sistema está disponible de forma gratuita e incluye compatibilidad incorporada con una gran cantidad de marcos de aprendizaje automático populares, lo que hace que nuestro enfoque sea útil para resolver problemas prácticos con relativa facilidad y esfuerzo. El uso de la herramienta propuesta en esta investigación permite a los investigadores y profesionales desarrollar rápidamente algoritmos de referencia optimizados en diversos problemas de aprendizaje automático. En algunos escenarios, la solución proporcionada por nuestro sistema podría ser suficiente. Sin embargo, los sistemas AutoML no deben intentar reemplazar a los expertos humanos, sino servir como herramientas complementarias que permitan a los investigadores obtener rápidamente mejores prototipos y conocimientos sobre las estrategias más prometedoras en un problema concreto. Las técnicas de AutoML abren las puertas a revolucionar la forma en que se realiza la investigación y el desarrollo del aprendizaje automático en la academia y la industria.
92

El modelo GOLD: un modelo conceptual orientado a objetos para el diseño de aplicaciones OLAP

Trujillo, Juan 21 June 2001 (has links)
No description available.
93

Ecosistema para el Descubrimiento de Conocimiento en Lenguaje Natural

Piad-Morffis, Alejandro 16 December 2021 (has links)
La creciente cantidad de información publicada en línea presenta un reto significativo para la comunidad científica. La disponibilidad de estos recursos permite acelerar las investigaciones en múltiples ramas de la ciencia, al conectar resultados de diferentes grupos de investigadores. Sin embargo, el volumen de información producido es imposible de procesar por humanos en su totalidad, por lo que la comunidad científica desperdicia tiempo y recursos en redescubrir los mismos resultados, debido a la falta de comunicación. La aplicación de técnicas de inteligencia artificial permite construir sistemas computacionales que ayuden a los investigadores a buscar, analizar y conectar la información existente en grandes volúmenes de datos. Este proceso se denomina descubrimiento automático de conocimiento y es una rama de investigación con un creciente interés. El dominio de la salud es uno de los escenarios en los que el descubrimiento de conocimiento automático puede producir un mayor impacto en beneficio de la sociedad. La reciente pandemia de COVID-19 es un ejemplo donde la producción de artículos científicos ha superado con creces la capacidad de la comunidad científica para asimilarlos. Para mitigar este fenómeno se han publicado recursos lingüísticos que permitan construir sistemas de descubrimiento automático de conocimiento. Sin embargo, el descubrimiento de conocimiento requiere no solo de recursos lingüísticos, sino que necesita recursos computacionales e infraestructura disponibles para evaluar los resultados sistemáticamente y comparar objetivamente enfoques alternativos. Este trabajo describe un ecosistema que facilita la investigación y el desarrollo en el descubrimiento de conocimiento en el dominio biomédico, específicamente en idioma español, aunque puede ser extendido a otros dominios e idiomas. Con este fin, se desarrollan y comparten varios recursos con la comunidad investigadora, incluido un nuevo modelo de anotación semántica, cuatro corpus con más de 3000 oraciones y 40,000 anotaciones semánticas realizadas manualmente, así como recursos computacionales para construir y evaluar técnicas de descubrimiento automático de conocimiento. Entre estos recursos se ofrecen implementaciones baseline de algoritmos de descubrimiento de conocimiento que sirvan de base para construir soluciones más avanzadas. Además, se define una tarea de investigación con criterios de evaluación objetivos y se configura y mantiene un entorno de evaluación en línea que permite a los investigadores interesados en esta tarea obtener retroalimentación inmediata y comparar sus resultados con el estado del arte. Como caso de estudio, se analizan los resultados de varios equipos de investigadores en cuatro ediciones consecutivas de un desafío competitivo organizado en base a estos recursos. A partir de las experiencias obtenidas durante el proceso de anotación manual se diseña una estrategia de anotación asistida que permite reducir considerablemente el tiempo de anotación humano. El enfoque ayuda a los anotadores humanos seleccionando inteligentemente las oraciones más informativas para anotar y luego pre-anotarlas con algunas entidades y relaciones semánticas altamente precisas. Esta estrategia se evalúa en los corpus desarrollados en esta investigación, y se publica en forma de una herramienta computacional disponible para la comunidad científica. El ecosistema construido proporciona un entorno de aprendizaje y evaluación eficaz para fomentar la investigación en el descubrimiento de conocimientos tanto en documentos de contenido biomédico como en otros dominios. Los corpus anotados pueden ser utilizados para entrenar y evaluar sistemas computacionales de descubrimiento de conocimiento, y compararse con el estado del arte de forma automática. Así mismo, las herramientas computacionales desarrolladas pueden servir para construir nuevos sistemas y para crear nuevos recursos lingüísticos en otros idiomas o dominios. Todos los recursos desarrollados en esta investigación están disponibles públicamente para su uso por la comunidad científica (https://ehealthkd.github.io).
94

Arquitectura de componentes de refuerzo del aprendizaje de lengua de señas empleando proximidad fonológica

Naranjo Zeledón, Luis Carlos 29 September 2021 (has links)
Se propone una arquitectura modular y portable de componentes de refuerzo del aprendizaje de lengua de señas, empleando proximidad fonológica, para ayudar al estudiante a diferenciar con mayor facilidad señas que sean muy parecidas y que de ser reproducidas de manera incorrecta se puedan provocar errores de comunicación entre sordos y oyentes. Para lograr esto, ha sido necesario conocer en detalle el estado de la cuestión en lenguas de señas desde una perspectiva computacional, para tener una idea clara de los elementos involucrados en el tratamiento de estas lenguas, por medio de un mapeo sistemático y revisiones exhaustivas de literatura. Además, ha resultado indispensable comprender el concepto de proximidad fonológica en lenguas de señas, a fin de contar con una base teórica robusta, haciendo énfasis en la naturaleza visual de estas lenguas. También se ha escogido una medida de similitud que se adapte a los parámetros fonológicos de una lengua de señas, por medio de la recopilación y depuración del léxico que la constituye, con el propósito de que la forma de las manos en las señas sea comparable de manera formal. Por otra parte, se ha elaborado un diseño de arquitectura basada en el concepto de proximidad fonológica, mediante una agrupación en capas encargadas de atender distintas funciones en el flujo de sesiones de refuerzo del aprendizaje. Por último, se ha analizado el impacto del refuerzo en el aprendizaje, a fin de confirmar que existe una mejora, a través de la implementación de dicha arquitectura en una herramienta de software que incorpora la proximidad fonológica.
95

Impacto de la calidad del documento de requisitos sobre el proceso de licitaciones públicas de proyectos de desarrollo software

Hochstetter Diez, Jorge Alberto 14 January 2021 (has links)
La externalización de servicios es una tendencia en la industria desde hace más de dos décadas que se ha expandido con especial fuerza en el área de Tecnologías de la Información, y sobre todo en relación a los proyectos de desarrollo de software. Esta tendencia ha incluido tanto a las organizaciones públicas como privadas. Cuando las organizaciones públicas desean externalizar servicios, muchas de estas organizaciones, por ley, están obligadas a iniciar un proceso de licitación a través de portales web. De este modo, los gobiernos en general son consumidores relevantes de proyectos de software, produciendo un número importante de documentos técnicos de requisitos con los que se inician los procesos de licitaciones públicas de proyectos de desarrollo de software. El problema observado es que la producción de un anuncio de licitación pública implica un esfuerzo organizacional importante para conseguir que el anuncio quede disponible mediante una ficha resumida y un conjunto de archivos anexos de carácter técnico, de procedimiento y de restricciones legales. Este esfuerzo se convierte además en baldío si el proceso de licitación fracasa, lo que ocurre en numerosos casos y por diversas causas, como pueden ser que no existan proveedores interesados o que, aunque los haya, sus ofertas no cumplan uno o más de los distintos requisitos de las licitaciones. A veces también ocurre que, en el caso de existir solo un proveedor calificado, el proceso de la licitación sea considerada como poco transparente. Estas y otras causas pueden hacer que una licitación se declare finalmente desierta, lo que, en la mayoría de los casos, implica el desperdicio de una cantidad considerable de trabajo y recursos, al tener que reiniciarse de nuevo todo el proceso. Para un proveedor participar en este tipo de procesos tampoco está exento de dificultades. Desde la perspectiva del proveedor, el proceso de selección de una licitación para participar se traduce en un problema de análisis masivo de datos en un periodo de tiempo escaso para postular y sin garantías de que el esfuerzo se traduzca más tarde en un contrato. En este contexto, esta tesis doctoral se focaliza en el problema de conocer los factores que inciden en el éxito del proceso de licitación de proyectos de desarrollo de software y que minimizan los riesgos tanto para oferentes como para proveedores, con el propósito de contribuir al conocimiento que se tiene respecto a los procesos de licitaciones públicas de proyectos de desarrollo de software. Para ello se ha usado el marco metodológico de Design Science, que permitió aplicar en el transcurso de la investigación distintos enfoques metodológicos. El trabajo de esta tesis se ha organizado en dos ciclos de investigación. En el primer ciclo, se utilizó un enfoque cuantitativo seguido de un análisis cualitativo de los documentos de requisitos que acompañan a las licitaciones públicas de software. Los resultados de este primer ciclo dirigieron la propuesta de un segundo ciclo en la investigación, que consistió en el desarrollo de un modelo de madurez para los procesos de licitaciones públicas de software orientado a mejorar su calidad y, específicamente, a asegurar su transparencia. Durante el estudio cuantitativo y cualitativo de licitaciones públicas de desarrollo de software de organizaciones gubernamentales de Chile se analizó un conjunto de licitaciones con el fin de obtener variables de calidad del documento que influyen en el éxito del proceso de licitación. Este análisis no permitió afirmar ni rechazar ninguna relación entre la calidad del documento de licitación y el éxito del proceso de licitación. Tras este análisis, se realizó un análisis de un grupo focal y un cuestionario semi estructurado para recopilar nuevos factores potenciales u otras variables relacionadas en el éxito del proceso de licitación de desarrollo de software; este análisis cualitativo permitió conocer nuevas variables pertenecientes al ámbito de las teorías de la construcción social, es decir, las variables identificadas son principalmente de percepciones humanas con respecto de valores de las personas, de normativas, de poderes, entre otras categorías culturales, que apuntan hacia la transparencia como variable clave en los procesos. Estos resultados permitieron aseverar que los factores de éxito de una licitación no están asociados exclusivamente ni de manera importante a la calidad de los documentos técnicos de requerimientos, sino a elementos asociados a la transparencia. Con estos antecedentes se decidió realizar un segundo ciclo de la investigación, cuyo fin fue la búsqueda de un mecanismo de medir la transparencia en licitaciones. Para lidiar con esta complejidad, se propuso un modelo de madurez basado en variables observables que determina un nivel de transparencia para la organización. Para ello, se utilizaron como base marcos conceptuales de Gobierno Electrónico/Abierto, SW-CMM, Transparencia del Software y Responsabilidad. El trabajo realizado dio lugar a un modelo de madurez que describe cinco niveles de transparencia para licitaciones públicas de proyectos de desarrollo de software: (1) Condición inicial, (2) Desarrollo, (3) Coordinación, (4) Administración y (5) Sistemática. Además, esta propuesta propone medir los niveles de madurez de las agencias para las licitaciones de software en las siguientes dimensiones: institucionalización, proceso de licitación de software, comunicación y responsabilidad. Con el fin de poner a prueba la aplicabilidad del mecanismo de medición, se recogió evidencia de los funcionarios de agencias gubernamentales, y se han probado los criterios de discriminación con resultados positivos. Sin embargo, como indica el marco metodológico adoptado, es necesario todavía completar varias tareas utilizando esta primera propuesta y ampliar la experiencia de aplicación para llegar a un proceso iterativo que logre una posición consolidada. Finalmente, como trabajo futuro se quiere seguir avanzando en la validación de otros aspectos del modelo desde una perspectiva cuantitativa, principalmente su poder discriminador y su carácter evolutivo, dado que se ha identificado que evaluar la transparencia en el proceso licitaciones públicas es una necesidad de los stakeholders en general y, de manera específica, de aquellos involucrados en licitaciones públicas de desarrollo de software.
96

Propuesta de un conjunto de herramientas de minería de datos para evaluar el desempeño de los estudiantes y los procesos de enseñanza-aprendizaje en el ámbito de la educación en ingeniería

Buenaño Fernández, Diego 19 June 2020 (has links)
Diariamente al rededor del mundo se genera una cantidad inmensa de datos producto de nuestra interacción permanente y creciente con la tecnología, ya sea para actividades laborales, académicas, personales o de ocio, entre algunas actividades puntuales tenemos los negocios digitales, el envío y recepción de correos electrónicos, la interacción con plataformas financieras, la interacción con redes sociales, la interacción con plataformas educativas, el uso de mapas virtuales, etc. son solo algunos ejemplos de las acciones que ejecutamos a diario y que producen una cantidad gigante y variada de datos susceptibles de ser analizados. En los próximos años esta tendencia se acelerará debido al incremento de dispositivos y sensores conectados a internet. Es importante y conveniente mencionar que en la situación actual que vive el planeta debido a la pandemia de la covid-19 el teletrabajo ha permitido mantener una situación lo más similar a la de normalidad, haciendo posible que muchos de los sectores no quebrasen, teniendo como soporte principal el uso de plataformas tecnológicas. Además, la mayoría de los servicios de internet se han visto completamente testeados y en la mayoría de casos han pasado las pruebas con éxito. En el campo educativo, el incremento en el uso de sistemas de aprendizaje en línea, tales como entornos personales de aprendizaje, sistemas inteligentes de tutoría, sistemas de gestión de aprendizaje, así como también el aumento de la interacción estudiante - docente a través de blogs, wikis, redes sociales entre otros, genera una variada y extensa cantidad de información. Esta información, almacenada en las bases de datos institucionales, está siendo infrautilizada por estudiantes, docentes y administradores educativos, que utilizan las plataformas digitales simplemente como repositorios de información. En los últimos años, se ha evidenciado en las bases de datos científicas un número significativo de investigaciones tanto teóricas como aplicaciones prácticas, que se enfocan en el ámbito de la minería de datos en entornos educativos y específicamente en el ámbito de la educación superior. La organización y análisis de este volumen gigante de datos tiene al menos dos posibilidades de enfoque, la minería de datos educativos y la analítica de aprendizaje. La primera desarrolla y adapta métodos estadísticos, de minería de datos y de aprendizaje automático, para analizar los datos generados por estudiantes y docentes. Por otro lado, la analítica de aprendizaje se define como el proceso de medición, recopilación, análisis y presentación de datos relacionados con la interacción de estudiantes con las plataformas digitales. La analítica de aprendizaje tiene como objetivo entregar información que permita optimizar el logro de resultados de aprendizaje en el entorno en el que este se produce. Los algoritmos tradicionales de minería de datos en entornos educativos no pueden aplicarse sin un análisis previo de las estrategias institucionales en las que se va a aplicar, ya que las instituciones de educación superior presentan diferentes comportamientos. Por ejemplo, un modelo educativo en una institución puede estar centrado en la enseñanza basada en la práctica e innovación mientras que otro modelo puede hacer énfasis en la investigación acción. Bajo esta premisa es importante tener una visión clara de los siguientes tres elementos para la aplicación de técnicas de minería de datos y analítica de aprendizaje: a) Estrategias institucionales en las que se aplican métodos de minería de datos educativos y analítica de aprendizaje, b) Métodos de minería de datos aplicados en entornos educativos y c) Herramientas para la implementación de minería de datos en entornos educativos. La presente tesis presenta un conjunto de herramientas de minería de datos con el objetivo de reforzar la evaluación de procesos de enseñanza - aprendizaje en el ámbito de la educación en ingeniería. Esta propuesta se sustenta en los tres elementos mencionados anteriormente y sobre los cuales giran los objetivos y artículos científicos incluidos en el compendio. En el momento que redacté este resumen tenía relativamente clara la importancia de la educación en línea y del análisis de datos que se generan en este campo. La situación actual de pandemia y confinamiento ha incrementado exponencialmente no sólo el uso de estos sistemas, sino que le ha conferido a la educación en línea la cualidad de imprescindible. En estos entornos se ha potenciado el uso de elementos tales como entornos personales de aprendizaje, sistemas inteligentes de tutoría, sistemas de gestión de aprendizaje, así como también el aumento de la interacción estudiante - docente a través de blogs, wikis, redes sociales entre otros, generando así una variada y extensa cantidad de información. La situación actual nos plantea el reto y oportunidad de aportar en el desarrollo de herramientas que permitan fortalecer el sistema de educación en línea. Esta es una responsabilidad de todos quienes estamos inmersos en el ámbito de la educación.
97

Propuesta metodológica para el desarrollo de sistemas automáticos de evaluación cualitativa en el dominio educativo

Herrera-Flores, Boris 26 October 2020 (has links)
Esta tesis discute la importancia de la evaluación educativa y propone una metodología para la captura de opiniones de manera no tradicional, planteando un marco de trabajo que permita obtener de manera más rápida el sentir del estudiante hacia la oferta académica que le brinda la institución educativa, bajo un conjunto más amplio de matices emocionales que las encuestas tradicionales no arrojan. Esta metodología para la obtención de datos cuantitativos y cualitativos está basada en la aplicación de técnicas de Procesamiento del Lenguaje Natural (PLN), proponiendo la captura y recogida de datos utilizando técnicas automáticas para el análisis para evaluar el desempeño de los datos obtenidos, que alimentaron un sistema de análisis de sentimientos basado en aprendizaje automático. Como se ha mencionado, la metodología propuesta permite adquirir un corpus formado por opiniones de estudiantes en el dominio específico de la educación, para de esta manera entrenar un sistema de análisis de sentimientos para la captura precisa de opiniones sobre diferentes aspectos relacionados con el ámbito educativo. Este tipo de propuesta metodológica resulta especialmente relevante en los países de Latinoamérica, donde la evaluación del profesorado es un proceso reciente que necesita de un tiempo de prueba para determinar su alcance. Los resultados de aplicar la metodología propuesta ayudan a la toma de decisiones en la institución educativa donde se utilice, provocando una gobernanza asistida con técnicas computacionales, coherentes con la exigencia de calidad en la educación.
98

Un método iterativo y alineado con los planes estratégicos para modelar, integrar y analizar datos en escenarios Big Data

Tardío, Roberto 19 July 2021 (has links)
En esta tesis doctoral se analizan las características de las fuentes de datos Big Data así como las aproximaciones existentes para su procesamiento y uso en aplicaciones de Inteligencia de Negocio. Cómo resultado principal de esta investigación, se presenta una metodología para la gestión, análisis y visualización del Big Data. Esta metodología está basada en el análisis de los requisitos de las aplicaciones de Inteligencia Negocio, guiando de forma sistemática la aplicación del resto técnicas presentadas: (i) un método para la generación del diseño y validación de la arquitectura Big Data, (ii) técnicas para las integración eficiente de las fuentes de datos, (iii) diseño de los modelos de datos óptimos y comparación del rendimiento en sistemas Big Data OLAP (On-Line Analytical Processing) y (iv) diseño de aplicaciones de Inteligencia de Negocio colaborativas. La metodología y métodos propuestos ayudan a reducir la alta tasa de fracaso existente en la implantación de estrategias de Big Data en las organizaciones. Además, la propuesta de benchmarking presentada para sistemas Big Data OLAP es la primera aproximación conocida para este tipo de sistemas, permitiendo su estudio y comparación. Los sistemas Big Data OLAP permiten la ejecución de consultas analíticas, informes o cuadros de mando con tiempos de respuesta inferiores al segundo sobre modelos de datos con tablas de hasta decenas de miles de millones de filas.
99

Using unsupervised corpus-based methods to build rule-based machine translation systems / Empleo de métodos no supervisados basados en corpus para construir traductores automáticos basados en reglas

Sánchez-Martínez, Felipe 30 June 2008 (has links)
No description available.
100

Computationally efficient methods for polyphonic music transcription

Pertusa, Antonio 09 July 2010 (has links)
Este trabajo propone una serie de métodos eficientes para convertir una señal de audio musical polifónica (WAV, MP3) en una partitura (MIDI).

Page generated in 0.0908 seconds