• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 34
  • 1
  • Tagged with
  • 117
  • 117
  • 117
  • 117
  • 21
  • 19
  • 18
  • 18
  • 15
  • 13
  • 13
  • 12
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Development of distributed algorithms for data search and content distribution in structured peer-to-peer network

Pujol Ahulló, Jordi 27 January 2010 (has links)
This thesis defines a generic framework that allows building high level services, of both data search and content distribution, for structured peer-to-peer networks (SPN). We consider a twofold genericity: (i) Extensible framework for services and applications, with a dynamic deploy over other P2P systems; and (ii) generic and portable framework over most of the SPNs. / Esta tesis construye un marco de trabajo genérico que permite construir servicios de alto nivel, tanto de gestión de datos como de distribución de contenidos, para redes peer-to-peer estructradas (RPE). Consideramos que la genericidad proporcionada es doble: (i) Marco de trabajo extensible para servicios y aplicaciones, con un despliegue dinámico sobre diferentes sistemas peer-to-peer; (ii) Marco de trabajo genérico y portable de la mayoría de RPEs.
112

MDCI: Model-Driven Continuous Integration

García Díaz, Vicente 29 June 2011 (has links)
El propósito de esta Tesis es llevar a cabo un proceso en el que se aplique la práctica de la integración continua en un desarrollo de software dirigido por modelos de forma eficiente, mediante el cual los desarrollos de software puedan beneficiarse conjuntamente de las mejoras y ventajas que proporcionan la aproximación de desarrollo de la ingeniería dirigida por modelos y la práctica de la integración continua. La aproximación de la ingeniería dirigida por modelos es el último salto natural de la ingeniería del software en cuanto a la búsqueda de métodos de desarrollo que elevan el nivel de abstracción hasta el punto en el que los expertos de un dominio de conocimiento, ajenos al mundo informático, son capaces de guiar y cambiar la lógica de los sistemas informáticos. La práctica de la integración continua es una recomendación de las principales metodologías de desarrollo, que tiene como objetivo la realización de integraciones automáticas del software en etapas tempranas del desarrollo, ofreciendo ventajas como la reducción del riesgo intrínseco que, dado su carácter temporal y único, tienen todos los proyectos. Con la unión de la ingeniería dirigida por modelos y de la práctica de la integración continua se busca ofrecer, a los equipos de desarrollo que trabajan utilizando algún tipo de iniciativa de la ingeniería dirigida por modelos, la posibilidad de integrar de forma continua y distribuida sus desarrollos. Al mismo tiempo, los clientes, verdaderos expertos del dominio de conocimiento en su ámbito de negocio, se benefician del aumento del nivel de abstracción de las técnicas de desarrollo para que ellos mismos, y de forma transparente, sean capaces de modificar su propio sistema informático sin la ayuda de personal técnico ajeno a su negocio, ahorrando así tiempo y costes. Para cumplir con el objetivo de esta Tesis doctoral se construye un prototipo que salva los impedimentos actuales que no permiten la unión entre estos dos nuevos activos de la ingeniería del software. Los principales problemas encontrados están relacionados con la selección de una iniciativa de desarrollo apropiada, los sistemas de control de versiones especialmente adaptados para trabajar con modelos, la generación incremental de artefactos a partir de modelos y la adaptación a las herramientas actuales de integración continua de forma optimizada. La separación del trabajo realizado en diferentes bloques permite ofrecer soluciones de forma tanto aislada como en conjunto, dando lugar a un trabajo iterativo e incremental de comienzo a fin. Para analizar las ventajas que ofrece la propuesta de este trabajo frente a otras posibilidades de desarrollo, se realiza una evaluación mediante la creación de diferentes casos de prueba en los que la medición de diferentes parámetros ofrecen una estimación numérica de las ventajas reales obtenidas. El análisis descriptivo, el contraste de hipótesis y las técnicas de regresión permiten una mejor interpretación de los resultados. Finalmente, se define el proceso, objetivo último de este trabajo, mediante la respuesta a diferentes preguntas planteadas, que facilitan su comprensión y entendimiento. / The purpose of this Thesis is to create a process in which the continuous integration practice can be applied to a model-driven software development in an e ective way, through which software developments can bene t jointly and simultaneously from the improvements and advantages provided by the model-driven engineering development approach and the continuous integration practice. The model-driven engineering approach is the last natural step of software engineering in the search for development approaches that raise the level of abstraction to the point that experts in a domain of knowledge, outside the computer world, are able to guide and change the logic of computer systems. The continuous integration practice is a recommendation of the most widely accepted development methodologies that aims to carry out automatic software integrations in early stages of development, o ering bene ts such as reducing the inherent risk that, given its unique nature, every project has. By merging the model-driven engineering and the continuous integration practice, the aim is to provide to development teams that work using some kind of model-driven engineering initiative, the possibility to integrate their developments in a continuous and distributed way. At the same time, customers, the real experts in the domain of knowledge in their eld of business, can bene t from the increased level of abstraction in developing techniques. Thus, they, in a transparent manner, are able to modify their own computer system without the help of external technical sta , so saving time and costs. To meet the objective of this Thesis, a prototype which saves all the current constraints that do not allow the union between these two new tools of software engineering is build. The main problems found were related to the selection of an appropriate development initiative, the version control systems specially adapted to working with models, the incremental generation of artifacts from models, and the optimized adaptation to existing continuous integration tools. The separation of work in di erent blocks can provide solutions, both in isolation or in conjunction, resulting in an iterative and incremental work from beginning to end. To analyze the bene ts of the proposal in this work compared to other development possibilities, an evaluation is performed by creating di erent test cases in which the measurement of di erent parameters can give a numerical estimate of the real bene ts obtained. The descriptive analysis, the hypothesis testing, and regression techniques allow a better interpretation of results. Finally, the process, the main objective of this work, is de ned by answering various questions posed to facilitate its comprehension and understanding.
113

Extraction of medical knowledge from clinical reports and chest x-rays using machine learning techniques

Bustos, Aurelia 19 June 2019 (has links)
This thesis addresses the extraction of medical knowledge from clinical text using deep learning techniques. In particular, the proposed methods focus on cancer clinical trial protocols and chest x-rays reports. The main results are a proof of concept of the capability of machine learning methods to discern which are regarded as inclusion or exclusion criteria in short free-text clinical notes, and a large scale chest x-ray image dataset labeled with radiological findings, diagnoses and anatomic locations. Clinical trials provide the evidence needed to determine the safety and effectiveness of new medical treatments. These trials are the basis employed for clinical practice guidelines and greatly assist clinicians in their daily practice when making decisions regarding treatment. However, the eligibility criteria used in oncology trials are too restrictive. Patients are often excluded on the basis of comorbidity, past or concomitant treatments and the fact they are over a certain age, and those patients that are selected do not, therefore, mimic clinical practice. This signifies that the results obtained in clinical trials cannot be extrapolated to patients if their clinical profiles were excluded from the clinical trial protocols. The efficacy and safety of new treatments for patients with these characteristics are not, therefore, defined. Given the clinical characteristics of particular patients, their type of cancer and the intended treatment, discovering whether or not they are represented in the corpus of available clinical trials requires the manual review of numerous eligibility criteria, which is impracticable for clinicians on a daily basis. In this thesis, a large medical corpora comprising all cancer clinical trials protocols in the last 18 years published by competent authorities was used to extract medical knowledge in order to help automatically learn patient’s eligibility in these trials. For this, a model is built to automatically predict whether short clinical statements were considered inclusion or exclusion criteria. A method based on deep neural networks is trained on a dataset of 6 million short free-texts to classify them between elegible or not elegible. For this, pretrained word embeddings were used as inputs in order to predict whether or not short free-text statements describing clinical information were considered eligible. The semantic reasoning of the word-embedding representations obtained was also analyzed, being able to identify equivalent treatments for a type of tumor in an analogy with the drugs used to treat other tumors. Results show that representation learning using deep neural networks can be successfully leveraged to extract the medical knowledge from clinical trial protocols and potentially assist practitioners when prescribing treatments. The second main task addressed in this thesis is related to knowledge extraction from medical reports associated with radiographs. Conventional radiology remains the most performed technique in radiodiagnosis services, with a percentage close to 75% (Radiología Médica, 2010). In particular, chest x-ray is the most common medical imaging exam with over 35 million taken every year in the US alone (Kamel et al., 2017). They allow for inexpensive screening of several pathologies including masses, pulmonary nodules, effusions, cardiac abnormalities and pneumothorax. For this task, all the chest-x rays that had been interpreted and reported by radiologists at the Hospital Universitario de San Juan (Alicante) from Jan 2009 to Dec 2017 were used to build a novel large-scale dataset in which each high-resolution radiograph is labeled with its corresponding metadata, radiological findings and pathologies. This dataset, named PadChest, includes more than 160,000 images obtained from 67,000 patients, covering six different position views and additional information on image acquisition and patient demography. The free text reports written in Spanish by radiologists were labeled with 174 different radiographic findings, 19 differential diagnoses and 104 anatomic locations organized as a hierarchical taxonomy and mapped onto standard Unified Medical Language System (UMLS) terminology. For this, a subset of the reports (a 27%) were manually annotated by trained physicians, whereas the remaining set was automatically labeled with deep supervised learning methods using attention mechanisms and fed with the text reports. The labels generated were then validated in an independent test set achieving a 0.93 Micro-F1 score. To the best of our knowledge, this is one of the largest public chest x-ray databases suitable for training supervised models concerning radiographs, and also the first to contain radiographic reports in Spanish. The PadChest dataset can be downloaded on request from http://bimcv.cipf.es/bimcv-projects/padchest/. PadChest is intended for training image classifiers based on deep learning techniques to extract medical knowledge from chest x-rays. It is essential that automatic radiology reporting methods could be integrated in a clinically validated manner in radiologists’ workflow in order to help specialists to improve their efficiency and enable safer and actionable reporting. Computer vision methods capable of identifying both the large spectrum of thoracic abnormalities (and also the normality) need to be trained on large-scale comprehensively labeled large-scale x-ray datasets such as PadChest. The development of these computer vision tools, once clinically validated, could serve to fulfill a broad range of unmet needs. Beyond implementing and obtaining results for both clinical trials and chest x-rays, this thesis studies the nature of the health data, the novelty of applying deep learning methods to obtain large-scale labeled medical datasets, and the relevance of its applications in medical research, which have contributed to its extramural diffusion and worldwide reach. This thesis describes this journey so that the reader is navigated across multiple disciplines, from engineering to medicine up to ethical considerations in artificial intelligence applied to medicine.
114

Enfoque Metodológico para la selección de controles de seguridad de la información

Diéguez Rebolledo, Mauricio 18 February 2022 (has links)
La gestión de la seguridad de la información es un desafío que ha ido cobrando cada vez más importancia. A medida que el número y gravedad de los ataques informáticos han crecido en el mundo, las empresas han comenzado a tomar conciencia de cuán importante es estar protegidos frente a acciones maliciosas que buscan vulnerar sus sistemas y acceder a sus activos de información. En particular, la automatización de los procesos y la digitalización de la información han expuesto a las organizaciones a ataques que buscan robar información o dañar sus sistemas. Cada vez es menos extraño escuchar noticias sobre un secuestro de información a través de los ransomware, o sobre ataques de denegación de servicio (DoS) para bloquear los accesos a dichos servicios. Estos ataques provocan cientos de millones de dólares en pérdidas en el mundo entero e incluso pueden llegar a detener la continuidad operacional de una organización. Frente a este escenario, es primordial que las organizaciones realicen una correcta gestión de la seguridad de la información, con el objetivo de proteger sus activos de información. Para ello, las organizaciones deben adoptar una actitud proactiva en lo referente a la seguridad, e implementar un conjunto de buenas prácticas en el quehacer de la organización que les permitan disminuir el riesgo de ser afectados por ataques informáticos. Con el fin de lograr este objetivo, existen estándares de seguridad en los que las organizaciones pueden apoyarse. Un estándar de seguridad de la información es una guía de implementación de buenas prácticas de seguridad, desde una perspectiva holística e integrada, que busca disminuir las vulnerabilidades de la organización a través de la implementación de un sistema de gestión de la seguridad de la información. Por tanto, a simple vista, la acción de protegerse es sencilla, ya que en teoría debería bastar con implementar el estándar para considerarse protegido. Sin embargo, la situación es algo más compleja, ya que se debe considerar que cada organización es un mundo aparte, con condiciones de operación y disponibilidad de recursos distintas. Lamentablemente el problema no consiste solo en implementar el estándar, sino que radica en determinar cuál es la mejor ruta de avance que puede tener una organización, considerando sus objetivos y condiciones particulares, así como su disponibilidad de recursos. Esto implica que cada definición de ruta es propia para cada organización. Desafortunadamente, hasta el momento no existe un modelo estándar que haya sistematizado el proceso de la definición de una ruta de avance de manera que pueda ser aplicada por cualquier organización. Actualmente la definición de una ruta de avance se traduce en la selección y planificación de la implementación de controles de un estándar de seguridad, y se basa principalmente en el juicio experto. Sin embargo, este proceder es subjetivo, ya que depende de la experiencia y visión del asesor, que no siempre considera las condiciones propias de la organización. Además, es un proceso que puede tomar bastante tiempo, ya que son múltiples las variables que se deben considerar. Otro problema es que este modo de definir la ruta de avance no asegura que la respuesta sea la óptima para la organización en base a sus condiciones, ya que, si bien se utilizan algunas técnicas como la gestión de riesgos, estas mayormente son de índole cualitativa. Por último, dado que el proceso de recomendación de la selección e implementación de controles de seguridad no está estandarizado ni es sistemático y dependen del asesor de seguridad, éste no es replicable, es decir, nada asegura que, de realizarse nuevamente, se obtendrían los mismos resultados. Esta tesis pretende paliar estos problemas, para lo cual plantea un enfoque metodológico para la selección y planificación de la implementación de controles de seguridad que estandarice y sistematice dicho proceso a través de la aplicación de modelos y técnicas de optimización. Estos modelos y técnicas permiten modelar la situación particular de la organización (Objetivos y restricciones) y aseguran una solución óptima para las condiciones representadas. La principal contribución de este trabajo es por tanto la propuesta de un proceso estándar y sistemático, pero que puede ser aplicado a cualquier organización, ajustándose a sus condiciones particulares, y que entrega la mejor solución para dichas condiciones. Este proceso se presenta como un apoyo útil para el asesor de seguridad a la hora de que éste realice sus recomendaciones de seguridad respecto de los controles que cada organización debe implementar para avanzar en el logro de un estándar de seguridad. Como contribuciones secundarias, se ha definido un marco conceptual de seguridad de la información que integra diversas visiones de las variables y relaciones que involucra la seguridad de la información. Es este marco conceptual el que apoya la modelación de los problemas de optimización que genera nuestra propuesta. Otro aporte es la identificación y categorización de los diversos problemas o escenarios que podrían considerarse para la modelación, es decir, basada en los diversos tipos de situaciones que una organización podría querer resolver. Esta categorización va más allá de los casos particulares de la industria que se suelen reportar en la literatura, y ha permitido identificar casos de las categorías más complejas que las que suelen encontrarse en dicha literatura. En esta línea, hemos desarrollado un ejemplo con una situación de una categoría compleja, lo que representa una contribución en sí misma. Un cuarto aporte es la generación de una herramienta informática que soporta el enfoque propuesto y apoya al asesor de seguridad en la aplicación de nuestra propuesta. La herramienta facilita, principalmente, la modelación y la resolución de dichos modelos, por lo que el asesor solo debe preocuparse del análisis de las respuestas. No hemos encontrado en otras propuestas descritas en la literatura herramientas que apoyen sus propuestas. Por último, el trabajo presenta una evaluación de la propuesta, a través de un estudio de adopción de métodos, con estudiantes de pregrado en un curso de auditoría informática. Este estudio evidenció una tendencia de los sujetos en estudio hacia la adopción de la propuesta, percibiéndola como un elemento útil y que se ajusta a su manera de trabajar. La principal debilidad de la propuesta se centró en la facilidad de uso, ya que la modelación y resolución del problema requiere de conocimientos avanzados de técnicas de optimización. En definitiva, la propuesta de este trabajo provee a la comunidad de la gestión de la seguridad de la información de un enfoque metodológico que permite sistematizar un proceso que hasta el momento solo se sustentaba en propuestas sobre casos particulares, por lo que no había sido estandarizado y su alcance era bastante limitado. Esto representa un avance en un ámbito que se encuentra en desarrollo y que aún no logra abarcar y solucionar todas las complejidades que presenta este problema. Creemos que la propuesta de esta tesis representa un avance en la dirección correcta, al definir lineamientos y soluciones sobre problemas que aún no habían sido enfrentados.
115

Desarrollo de software basado en experiencia de usuario y prototipado para personas con discapacidad

Larco, Andres 23 February 2022 (has links)
Hoy en día, la Web se considera una herramienta importante que se puede utilizar para realizar numerosas tareas, las cuales potencian el desarrollo de la vida. Las más importantes son obtener conocimientos y aprender nuevas habilidades. Se puede utilizar una amplia variedad de dispositivos para acceder a la misma. La Web promueve un cambio considerable para las personas con discapacidad, eliminando las barreras de comunicación e interacción en comparación con los desafíos del mundo físico. Las tecnologías de la información y la comunicación (TIC) permiten que las personas con discapacidad se integren mejor social y económicamente en sus comunidades. Para las personas con discapacidad, el acceso a la tecnología significa tener vidas más independientes, acceder a información y servicios. Las TIC ofrecen excelentes niveles de flexibilidad y personalización para usuarios con discapacidad. Las TIC juegan un papel fundamental en la creación de oportunidades para las personas con discapacidad en todas las etapas de la vida. Pueden usar aplicaciones para buscar profesionales, controlar su tratamiento, evaluar sus actividades terapéuticas, realizar evaluaciones de diagnóstico y ayudar a los pacientes a completar tareas de forma independiente. Con la aparición de la Web a través del internet es como que se democratiza el acceso a la información y servicios existiendo al momento millones de páginas web en las cuales se ofrece todo tipo de información y servicios. En el ámbito de la tecnología los teléfonos móviles inteligentes ahora se puede escuchar música, tomar fotos, hacer y ver videos, se tiene acceso a redes sociales y se dispone de una gran variedad de aplicaciones. De esta manera aparecen las aplicaciones móviles, que pueden haber de varios tipos nativas de cada sistema operativo, o hibridas que pueden ejecutarse en un móvil o en un navegador web, es decir la misma aplicación se puede utilizar de manera sencilla pero muy efectiva en tu teléfono inteligente, y por otro lado se puede tener esta aplicación en pantalla de un computador de escritorio o computador portátil. Las personas con discapacidad pueden lidiar con tres tipos de barreras cuando se relaciona con el entorno circundante: ambiental, actitudinal y digital. Las barreras digitales surgen cuando la tecnología no se puede cambiar a un diseño más accesible. En este contexto: ¿Se puede construir software de calidad utilizando experiencia de usuario y prototipado para desarrollar aplicaciones web y móviles para personas con discapacidad? Se plantean tres fases para dar respuesta a esta pregunta: 1. La primera fase se identifica el problema a través de un estudio exploratorio que da como resultado que en Ecuador existe una falta de uso de software en instituciones que ofrecen servicios a personas con discapacidad. 2. La segunda fase se realizó una revisión sistemática de la literatura en la cual se buscaba conocer cuáles eran los factores relevantes de calidad que debían tener aplicaciones web y móviles los cinco factores principales son diseño, contenido, funcionalidad, accesibilidad, usabilidad. 3. La tercera fase se refiere a la propuesta para desarrollo de Software para personas con discapacidad. Se inicia con la recopilación de aplicaciones web y móviles, la investigación de productos de software ha revelado que existe un grado de dificultad para encontrar software existente diseñado para ayudar a las personas con discapacidad a mejorar sus habilidades de aprendizaje. Se propone la creación de un catálogo prototipo inicial de software, analizando los recursos existentes y la asociación de características de discapacidad con los atributos de cada software existente diseñado para discapacidad intelectual. Se encontró que existen tres aspectos a considerar para desarrollar el catálogo: tipo de catálogo, acceso y especificaciones de la categorización. Además, es importante distinguir entre los tipos de catálogos, los sitios web propios de los desarrolladores y los sitios web de los promotores. Se debe tener en consideración el acceso al software no debe exceder los 3 a 5 clics para acceder; y que los usuarios prefieren categorizar el catálogo por tipo de discapacidad porque están familiarizados con las discapacidades de acuerdo con sus antecedentes. Para seleccionar las aplicaciones que iban a formar parte del catálogo se debía conocer su calidad, para esto se realiza una evaluación de aplicaciones web y móviles. Para autismo, síndrome de Down y la parálisis cerebral, que constituyen las discapacidades más comunes desde el punto de vista médico. En la presente tesis se evaluó la calidad de las aplicaciones web y móviles utilizando la herramienta Mobile Apps Rating Scale (MARS). Los resultados mostraron que las aplicaciones evaluadas necesitaban mejoras en personalización e interactividad. Además, se ha establecido una lista de aplicaciones basada en puntajes MARS, la cual es útil para terapeutas, padres y personas con discapacidad. Sin embargo, los 18 ítems de MARS son extensos y tediosos para terapeutas, padres de familia y personas con discapacidad por lo cual se propuso un modelo para identificar los ítems que representan los factores de calidad más relevantes. Para lo cual se realizó dos estudios: 1. El primer estudio utilizó análisis de componentes principales para identificar los factores subyacentes de calidad más relevantes. En el estudio se seleccionó y evaluó un grupo de 285 Apps en español, dirigidas a personas con discapacidad intelectual, incluyendo autismo, síndrome de Down y parálisis cerebral, que se ejecutan en diversas plataformas. Los probadores de software y un grupo especializado de profesores de personas con discapacidad formaron el equipo evaluador. Los resultados generales muestran que la estética y la funcionalidad son las categorías más adecuadas para mejorar la calidad de las aplicaciones. Este estudio contribuye al conocimiento existente sobre la mejora de la calidad de las aplicaciones para ayudar a la calidad de vida de las personas con discapacidad. 2. El segundo estudio, determina los factores de calidad más relevantes de las aplicaciones para personas con discapacidad, para lo cual se utilizó el enfoque abductivo para la generación de una teoría explicativa. En primer lugar, el enfoque abductivo se refería a la descripción de los resultados, establecida por la evaluación de la calidad de las aplicaciones, utilizando la herramienta MARS. Sin embargo, debido a las restricciones de las salidas MARS, no se pudo establecer la identificación de factores críticos de calidad, lo que requirió la búsqueda de una respuesta para una nueva regla. Finalmente, la explicación del caso (último componente del enfoque abductivo) para probar la nueva hipótesis de la regla. Este problema se resolvió aplicando un nuevo modelo cuantitativo, combinando técnicas de minería de datos, que identificó los ítems de calidad más relevantes de MARS. Este estudio es un segundo intento de mejorar la herramienta MARS, con el objetivo de brindar a los especialistas datos relevantes, reduciendo los efectos del ruido, logrando mejores resultados predictivos para potenciar sus investigaciones. Además, ofrece una evaluación de calidad concisa de las aplicaciones relacionadas con la discapacidad. Con todo lo aprendido, en la recopilación de aplicaciones web y móviles, en la evaluación de estas con la herramienta MARS, se hace una propuesta de un nuevo enfoque para desarrollo de software para personas con discapacidad. En líneas generales se trata del diseño y desarrollo de un artefacto utilizando experiencia de usuario y prototipado; para lo cual se aplicó estos conceptos en dos aplicaciones: la primera aplicación es un catálogo digital para personas con discapacidad motora, a través de este catálogo las personas puedan encontrar y usar las aplicaciones de una manera fácil y rápida. La segunda aplicación es Helpdys la cual ayuda al diagnóstico y tratamiento de niños con dislexia. El catálogo digital para personas con discapacidad motora, identifico que el problema de los sitios web o catálogos es que no brindan información confiable, búsqueda fácil y acceso intuitivo a estas aplicaciones, lo que genera dificultades de acceso a la información. Para lo cual se ofreció como solución el desarrollo el catálogo usando experiencia de usuario y prototipado. El catálogo obtuvo una puntuación de calidad satisfactoria en función de la satisfacción de los usuarios finales y terapeutas a la hora de encontrar recursos tecnológicos para utilizar en sus actividades profesionales y asistenciales. Este trabajo de investigación contribuye a los interesados en desarrollar software para personas con discapacidad y animarlos a crear y diseñar sus implementaciones en base a este estudio. La aplicación Helpdys, identifico a la dislexia como un trastorno del lenguaje relativamente común que generalmente se ignora en las comunidades rurales, la cual dificulta los procesos de aprendizaje de los niños y, en algunos casos, es la causa de la deserción escolar o la violencia en las escuelas. Se desarrollo una aplicación web y móvil que contribuye al diagnóstico y tratamiento de los niños con dislexia, la aplicación ofrece juegos y actividades didácticas. Como parte del método las mejoras de la aplicación se implementaron y probaron de inmediato en la escuela “Escuela Línea Equinoccial” (Ecuador), demostrando su utilidad para su uso futuro en el sistema educativo. La aplicación puede ser una herramienta valiosa para que los niños con dislexia progresen con éxito en la escuela, aumentando su autoconfianza y, por lo tanto, ayudándoles a alcanzar su máximo potencial como adultos capaces de hacer una contribución positiva a la sociedad. De esta manera se probó el nuevo enfoque de desarrollo de software basado en experiencia de usuario y prototipado para personas con discapacidad.
116

Arquitectura para analíticas de datos orientada a la ayuda del proceso de la toma de decisiones

Kauffmann, Erick 16 January 2020 (has links)
Internet ha ayudado a revolucionar muchas actividades cotidianas, y en ellas se generan grandes cantidades de datos, muchos de ellos expresados por los usuarios en lenguaje natural. Son datos no estructurados que no son fáciles de procesar ni de organizar. Obtener información relevante de esos datos puede ayudar a conocer un entorno, organizarlo y/o tomar decisiones respecto al conocimiento que se adquiere con ellos. Para esto, en esta tesis doctoral se propone una arquitectura para analíticas de datos a través de las herramientas de procesamiento de lenguaje natural para transformar esos datos en información cuantitativa que permitirá tomar decisiones y/o organizar mejor la información. La arquitectura se ha probado en dos áreas en los que se genera un gran volumen de datos textuales en actividades diarias que se realizan actualmente por Internet: Comercio electrónico y Foros de discusión de cursos masivos abiertos en línea. En las redes sociales de comercio electrónico, diariamente los compradores generan una gran cantidad de revisiones y calificaciones acerca de los productos en venta. Estas evaluaciones contienen información importante que puede ser utilizada para mejorar la toma de decisiones de directivos y compradores. El reto principal es automáticamente extraer información fiable de las opiniones textuales de los consumidores y utilizarla para calificar los mejores productos o marcas. Se utilizan herramientas de Análisis de Sentimientos y detección de Revisiones Falsas (Fake Reviews) para ayudar tanto a usuarios como a empresarios en la toma de decisiones respecto a los productos afectados por esas opiniones. Para ello, se propone transformar las opiniones de los usuarios en una nueva variable cuantitativa empleando Análisis de Sentimiento, así como detectar y eliminar las Revisiones Falsas. La propuesta se ha evaluado sobre productos de electrónica para clasificar la imagen de la marca de acuerdo al sentimiento expresado por el consumidor y mostrar el comportamiento en cuadros de mandos. Otra actividad que ha hecho uso del Internet es el aprendizaje en línea como una respuesta a las nuevas necesidades educativas. Sin embargo, presenta muchos retos, tales como el procesamiento de la gran cantidad de datos que se genera en los foros en línea. Darle seguimiento y buscar información en ese volumen de datos puede ser contraproducente, dado que son datos no estructurados y de una gran variedad de temas. La arquitectura propuesta en esta tesis propone resolver los principales retos encontrados en el estado del arte administrando los datos de forma eficiente mediante un monitoreo y seguimiento eficiente de los foros, el diseño de mecanismos efectivos de búsqueda para preguntas y respuestas en los foros, y extrayendo indicadores claves de rendimiento para administrar adecuadamente los foros. / Este trabajo ha sido parcialmente financiado por el Ministerio de Ciencia, Innovación y Universidades de España a través del Proyecto ECLIPSE-UA (Enhancing Data Quality and Security for Improving Business Processes and Strategic Decisions in Cyber Physical Systems) con referencia RTI2018-094283-B-C32.
117

Ingeniería de conocimiento para la mejora de la orientación académica (2015-2020)

Startseva, Elena 11 February 2021 (has links)
Elegir el grado universitario que van a cursar es una decisión muy importante para muchos jóvenes que carecen de experiencias previas en este sentido. El objetivo principal de este trabajo es construir el sistema de apoyo a la toma de decisión sobre una base de conocimiento modular. En este caso, los módulos que definen las directrices de capacitación se forman conjuntamente con los expertos y se fundan en el método de Holland. Permitirá al usuario, en primer lugar, definir una modalidad académica elegida en la escuela secundaria y solo después ser definido con una carrera universitaria, dentro de la rama de conocimiento establecida. Se ha desarrollado BPMN-modelo del proceso a la toma de decisiones para elegir la mejor carrera universitaria. Se han identificado los factores significativos con método de análisis jerárquico, el efecto de los cuales se correlaciona directamente con los resultados de elección de la carrera universitaria y, además, afectan al rendimiento de los estudiantes. Se ha desarrollado la ontología con las interrelaciones entre los factores clave. Se ha formado del principio modular un base de conocimiento. Se han elaborado satisfactoriamente las reglas de entrada a la universidad, las reglas de elección de la rama de los estudios universitarios, y las reglas para mejorar el rendimiento académico con la finalización satisfactoria de los estudios universitarios. Con los resultados obtenidos y que se presenten en el trabajo, podemos concluir que se pueda lograr el objetivo principal del estudio para optimizar tiempo dedicado a los estudios y mejorar la calidad de vida y el rendimiento académico de los estudiantes de una carrera universitaria. Además, permite poder anticipar los itinerarios a elegir durante la etapa de educación secundaria para así incrementar su preparación.

Page generated in 0.1012 seconds