Spelling suggestions: "subject:"ciencias dde lla computación"" "subject:"ciencias dde lla computaciónn""
41 |
Diseño de una estrategia para disminuir las deserciones temprana de los estudiantes de Pregrado de la Universidad de ChileSerrano Vergara, Mauricio Gonzalo January 2017 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / La deserción conlleva costos altísimos a los estudiantes, sobre todo aquellos que sus familias no disponen de los recursos y debe solicitar créditos, quedando endeudados y debiendo pagar por no lograr obtener un grado o título. Por otro lado, también genera costos a la institución, ya que se determinan cupos de ingreso a cada Programa de Formación, los cuales se utilizan en su totalidad y se espera que los estudiantes permanezcan hasta lograr su graduación y/o titulación.
El objetivo del proyecto es diseñar una estrategia para disminuir las deserciones tempranas de los estudiantes de pregrado de la Universidad de Chile, a través de la creación y aplicación de un modelo que permita detectar tempranamente a los posibles desertores de los estudiantes de pregrado.
El presente proyecto contempla estudiantes que hayan ingresado sólo a través de la Prueba de Selección Universitaria y las deserciones que ocurren en el primer año, realizándose un piloto con el Programa de Formación de Arquitectura.
Se utilizan las metodologías de Ingeniería de Negocios y Proceso de Extracción del Conocimiento (KDD) para obtener un modelo el cual debe ser ejecutado los primeros días del año, cuando se obtiene la matrícula de los estudiantes nuevos, luego se publica el listado de estudiantes que podrían desertar en el Sistema de Información para la Gestión Académica (SIGA), donde los Profesionales contratados para realizar el seguimiento y acompañamiento de los estudiantes se informan, para luego llevar a cabo sus actividades con los estudiantes.
En el presente proyecto se ha obtenido un modelo de redes neuronales, el cual considera las variables de Educación Secundaria: Grupo Dependencia y Nota de Enseñanza Media; PSU: Puntaje de Prueba de Lenguaje y Comunicación, puntaje de Prueba de Matemáticas, Puntaje Ponderado y Preferencia; Socioeconómico: Ingreso Bruto y si tiene o no beca; Personal: Género; y Grupo Familiar: Número de integrantes del grupo familiar y si están vivos sus padres. El modelo tiene un resultado sobresaliente, ya que predice al 74,32% de los estudiantes que van a desertar en su primer año de carrera.
Se realizó un análisis de sensibilidad en la evaluación económica del proyecto, lo cual permite apreciar que los beneficios sobre los costos son notablemente mayores, haciendo que el proyecto sea muy rentable.
Se han obtenido beneficios que no estaban presupuestados como la creación del portal SIGA, los formularios de registro con posteriores reportes de análisis y un comparador de modelos, que permite realizar en menor tiempo todas las combinaciones de modelos evaluados.
|
42 |
El algoritmo de la Máquina de Soporte Vectorial aplicado a la detección de personas en imágenes de intensidadBenavides Vidal, Diego Armando January 2015 (has links)
Describe detalladamente las bases teóricas de un algoritmo que implementa una máquina de aprendizaje conocido como el algoritmo de la Máquina de Soporte Vectorial que ha demostrado tener mejores resultados para la extracción de patrones de datos y tareas de clasificación que otros modelos conocidos. Para demostrar estos resultados presenta la implementación del modelo aplicado al problema de detección de personas en imágenes de intensidad que comúnmente se utiliza en sistemas de seguridad y video vigilancia. / Tesis
|
43 |
Metodología AHP para la toma de decisiones de inversión en un portafolio de accionesPérez Tapia, Jessica Raquel January 2017 (has links)
Comprende y analiza la toma de decisiones de inversión en un portafolio de acciones del mercado peruano utilizando la metodología del Proceso Analítico Jerárquico conocido como AHP (Analytic Hierarchy Process). La problemática está relacionada con el diseño de una metodología para la toma de decisiones de inversión considerando criterios de riesgo y rentabilidad el cual incluye la integración de las técnicas tradicionales y modernas de decisión junto con la técnica multicriterio AHP, ésta se basa en la construcción de un modelo de jerarquías, el cual permite organizar la información de un problema complejo de forma gráfica bajo un objetivo, criterios y alternativas, de modo tal que se pueda descomponer y analizar por partes, construido ya el modelo jerárquico, se realizan comparaciones pareadas entre dichos elementos y se atribuyen valores numéricos a las preferencias señaladas por los decisores, entregando una síntesis de las mismas mediante la agregación de esos juicios parciales. La metodología propuesta se ha adaptado para la solución del problema de selección del portafolio de acciones en el mercado peruano durante el periodo de enero 2012 a setiembre 2016. Los resultados obtenidos muestran la eficiencia de la integración exitosa de los métodos tradicionales de inversión junto con la metodología AHP para encontrar un balance apropiado entre rentabilidad y riesgo en el proceso de toma de decisiones de inversión. / Trabajo de suficiencia profesional
|
44 |
Desarrollo de un repositorio de artículos científicosChacón Candia, Felipe Ignacio January 2012 (has links)
Ingeniero Civil en Computación / El año 2010 visitó Chile el Dr. Tony Hey, ex decano de la Universidad de Southampton, Reino Unido. Mencionó cómo su ex universidad desarrolló un servicio (Eprints) donde se almacenan las publicaciones de académicos de la universidad y quedan disponibles a la comunidad mundial. Eprints provee búsquedas por varios criterios y así, las publicaciones propias tienen mayor visibilidad y accesibilidad. De hecho, mostró estadísticas que mostraban que estas publicaciones recibían más citas que publicaciones de otras universidades británicas incluso con mayor tradición de investigación.
Antes de este trabajo de memoria, el Departamento de Ciencias de la Computación de la Universidad de Chile de ahora en adelante DCC - no disponía de una buena herramienta donde los artículos científicos pudiesen ser publicados de manera eficaz. Es por esto que la motivación principal era tener un espacio con el cual se pudiera dar visibilidad a la publicación de papers de todo el DCC. Básicamente, un espacio donde se pudiera subir estos documentos a una plataforma web y realizar búsquedas por distintos criterios.
La solución desarrollada resultó ser un sistema web llamado U-papers. Las características principales de este sistema lo convierten en un repositorio en donde se almacena información valiosa de publicaciones que permite realizar búsquedas.
Actualmente es accesible desde la siguiente dirección: http://upapers.dcc.uchile.cl.
|
45 |
Monitorización visual automática de tráfico rodadoKachach, Redouane 23 September 2016 (has links)
La gestión del tráfico es una tarea muy compleja. La información generada por los sistemas tradicionales de monitorización (por ejemplo espirales) es muy limitada e insuficiente para realizar estudios más ambiciosos y complejos sobre el tráfico. Hoy en día esto es un problema en un mundo donde técnicas como el Big Data se han metido en todos los ámbitos. Esta tesis se enfoca en abordar el problema de monitorización automática de vehículos empleando sensores más modernos como las cámaras. Estos sensores llevan ya varias décadas instalados en las carreteras pero con una misión limitada a la monitorización pasiva de las mismas. El objetivo de la tesis es aprovechar estos sensores con algoritmos capaces de extraer información útil de forma automática de las imágenes. Para ello, vamos a abordar dos problemas clásicos en este campo como son el seguimiento y la clasificación automática de vehículos en varias categorías. Dentro del marco de los sistemas inteligentes de transporte (ITS, por sus siglas en inglés), el trabajo presentado en esta tesis aborda los problemas típicos relacionados con el seguimiento de vehículos como la eliminación de sombras y el manejo de oclusiones. Para ello se ha desarrollado un algoritmo que combina criterios de proximidad espacial y temporal con un algoritmo basado en KLT para el seguimiento tratando de aprovechar las ventajas de cada uno de ellos. En el contexto de la clasificación se ha desarrollado un algoritmo híbrido que combina plantillas 3D que representan las distintas categorías de vehículos junto con un clasificador SVM entrenado con características visuales de camiones y autobuses para afinar la clasificación. Todos los algoritmos utilizan una sola cámara como sensor principal. Los sistemas desarrollados han sido probados y validados experimentalmente sobre una amplia base de vídeos tanto propios como otros independientes. Hemos recopilado y etiquetado una amplia colección de vídeos de tráfico representativos de un variado abanico de situaciones que ponemos a disposición de la comunidad científica como banco de pruebas.
|
46 |
Deep Landmarking : reconocimiento automático de estructuras anatómicas por medio de morfometría geométricaCintas, Celia 13 December 2017 (has links)
La adquisición de información fenotípica es un aspecto clave en diversos contextos,
incluyendo análisis biométricos, estudios bioantropológicos, investigaciones biomédicas, y
ciencia forense por citar algunos. Para ello se requiere la identificación automática de estructuras
anatómicas de interés biométrico, como por ejemplo huellas dactilares, patrones
en el iris, o rasgos faciales. Estas estructuras son utilizadas masivamente, pero poseen la
desventaja de requerir intrusión para adquirir la información a ser analizada. En esta tesis
presentamos un nuevo método, basado en la Morfometría Geométrica, para la detección y
extacción automática de datos anatómicos característicos (features) en la forma de hitos
(landmarks) en 2D o 3D. Para ello se entrenó una red neuronal con conjuntos de datos
obtenidos en forma supervisada por medio de expertos antropólogos y biólogos. El sistema
resultante posee la capacidad de realizar landmarking en forma automática en imágenes y
video sin preparación previa, obteniéndose parámetros de calidad equivalente o superiores
a los adquiridos por expertos humanos. Estos resultados abren la posibilidad de generar en
forma automática y confiable vectores de atributos basados en propiedades fenotípicas.
Se exploran algunas aplicaciones en diversos contextos incluyendo biometría, videojuegos,
interfases naturales y otras aplicaciones. / Accurate gathering of phenotypic information is a key aspect in several subject matters,
including biometric identification, biomedical analysis, bioanthropology studies, forensics,
and many other. Automatic identification of anatomical structures of biometric interest,
such as fingerprints, iris patterns, or facial traits, are extensively used in applications like
access control, anthropological research, and surveillance, all having in common the
drawback of requiring intrusive means for acquiring the required information. In this thesis
we present a new method, based on two well established methodologies, Geometric
Morphometrics and Deep Learning algorithms, for automatic phenotype detection and
feature extraction in the form of 2D and 3D landmarks. A convolutional neural network
was trained with a set of manually landmarked examples. The trained network is able to
provide morphometric landmarks on images automatically, with a performance that matches
human assisted landmarking. The ability to perform in the open (i.e., in images or
video taken with no specific acquisition preparation). The feasibility of using landmarks
as feature vectors for different classifications tasks is explored in a novel spectrum of
biometrics, video games, and natural user interfaces applications.
|
47 |
Selección de variables y descubrimiento causal a partir de textos de artículos periodísticosMaisonnave, Mariano 22 October 2021 (has links)
La existencia de relaciones o dependencias estadísticas en los datos (correlaciones) se puede estudiar mediante herramientas estadísticas que se han desarrollado en los últimos dos siglos. Sin embargo, una pregunta tan simple de formular como: “¿Existe un vínculo causal entre estas dos variables correlacionadas?'' presenta un desafío diferente que escapa a las respuestas que pueden brindar herramientas estadísticas clásicas, ya que, como se suele enseñar en todos los cursos de estadística: “correlación no es causalidad''. La necesidad por parte de la comunidad científica de responder preguntas causales (¿El fumar causa cáncer? ¿Este medicamento es efectivo para tratar esta enfermedad?, etc.) generó un esfuerzo para la creación de herramientas formales que permitan descubrir y cuantificar efectos causales. Algunos ejemplos son la técnica basada en la Causalidad de Granger (GC por sus siglas en inglés) y la técnica de descubrimiento de estructuras causales PC (que recibe el nombre por las iniciales de sus autores).
Por otro lado, existe un gran interés por parte de la comunidad de procesamiento de lenguaje natural (NLP por sus siglas en inglés) en el descubrimiento de relaciones causales a partir de textos. Sin embargo, la mayoría de los esfuerzos están enfocados en recuperar información causal ya explícita en el texto. Por ejemplo, en la siguiente frase sobre la crisis argentina del 2001: “Sucedió en el marco de una crisis mayor que se extendió entre 1998 y 2002, causada por una larga recesión que disparó una crisis humanitaria'' se tendría por objetivo extraer los dos vínculos causales que relacionan los tres eventos descritos (la recesión, una crisis económica y otra humanitaria). Estos trabajos, si bien tienen por objetivo el descubrimiento causal, utilizan herramientas más cercanas al área de NLP que a las herramientas usuales en la literatura sobre descubrimiento causal (tales como GC o PC).
Esta tesis propone un marco de trabajo (framework) en el que, a través de la utilización de herramientas como GC o PC, se plantea como objetivo el descubrimiento causal entre variables extraídas de textos de artículos periodísticos cuya relación causal no necesariamente está explícita en el texto. De este modo se obtiene una red causal, donde cada nodo es una variable relevante y cada arco un vínculo causal. Para alcanzar este objetivo primero se proponen soluciones al desafío de extraer y filtrar variables relevantes a partir de textos. Este problema se resuelve mediante el uso de dos enfoques tomados de NLP: (1) una técnica de pesaje de términos y (2) un modelo de detección de menciones de eventos en curso a partir de textos de artículos periodísticos. Se crea un conjunto de datos utilizando las variables extraídas usando estas herramientas de NLP ((1) y (2)). Este conjunto de datos es usado en el paso posterior de extracción de relaciones causales. Se estudian nueve técnicas de descubrimiento causal, y se lleva a cabo un estudio comparativo de la aplicación de las técnicas en más de sesenta conjuntos de datos sintéticos y en un conjunto de datos real de demanda de energía eléctrica. Finalmente, un caso de uso es presentado donde se aplican las mejores técnicas de descubrimiento causal sobre los conjuntos de datos de variables extraídas de los textos de artículos periodísticos, dando lugar así a una demostración completa de la funcionalidad del framework (extracción de variables de textos y descubrimiento causal a partir de las mismas).
Los resultados obtenidos muestran la gran flexibilidad del framework, permitiendo la combinación de variables de diferentes tipos, con diferentes procesos de construcción, posibilitando la extracción causal posterior. Más aún, dando evidencia que información no textual podría ser incorporada al framework (por ejemplo, precios de materias primas, precios de acciones de la bolsa, indicadores socioeconómicos, entre otros). Este framework permitiría a un experto partir de un dominio, que puede ser un conjunto de textos periodísticos sobre algún episodio del mundo real, y obtener de manera automática un conjunto de variables relevantes a ese dominio (de las cuales puede elegir visualizar solo algunas, o todas). Posteriormente, se le mostraría al experto un conjunto de vínculos causales extraídos de manera automática, que vincularía a las diferentes variables relevantes al dominio. El grafo causal resultante (variables y vínculos relevantes a un dominio) puede representar una herramienta de gran interés para permitir a un experto tener una visión procesada y resumida de las interdependencias, permitiéndole un mejor entendimiento del dominio o posibilitando sacar conclusiones o explicaciones sobre eventos que se sucedieron o están sucediendo.
Las primeras dos contribuciones de esta tesis están enfocadas en la propuesta de técnicas novedosas de NLP para la etapa de extracción de variables. En esta etapa se propone, primero, una herramienta nueva para pesaje de términos y estimación de puntajes de relevancia de términos asignados por usuarios. Segundo, se propone una tarea de NLP, de detección de eventos en curso (OED por sus siglas en inglés) para ser usados como variables en el framework. Se muestran los resultados de diferentes modelos para la tarea de OED, alcanzando un modelo superador con respecto a modelos existentes para tareas similares. Estas dos contribuciones permitieron la extracción de variables relevantes para ser usadas como nodos del grafo. Finalmente, la tercera contribución principal es la presentación de un análisis comparativo de nueve técnicas de extracción de causalidad y la posterior aplicación de las mejores para un ejemplo de un caso de uso del framework completo. / The existence of statistical relationships or dependencies in the data (correlations) can be studied using well-known statistical tools that have been developed over the last two centuries. However, a question as simple to pose as “Is there a causal link between these two correlated variables?'' entails a whole set of different challenges that escape from the answer that classical statistical tools can provide, since, as is usually taught in statistical courses: “correlation is not causation''.
The need by the scientific community to answers to causal questions (such as: “does smoking cause cancer?'' or “is this drug effective in treating this disease?'') generated an effort to create formal tools for detecting and quantifying causal effects. Some examples are the methods based on the Granger Causality (GC) test and the PC causal structure learning algorithm.
On the other hand, there is great interest from the natural language processing (NLP) community in discovering causal relationships from texts.
However, most efforts are focused on recovering causal information already explicit in the text.
For example, in the following sentence about the Argentine crisis of 2001: “It happened in the context of a bigger crisis that lasted between 1998 and 2002, caused by a long recession that triggered a humanitarian crisis'' the goal would be to extract the two causal links that relate the three events described (the recession, an economic crisis, and a humanitarian crisis).
In that literature, although the goal is also to detect causal relations, tools closer to the NLP field are used, instead of the usual tools in the literature of causal discovery (such as GC-based techniques or PC).
This thesis proposes a framework that aims at performing causal discovery between variables extracted from texts of newspaper articles using tools like GC and PC. In contrast to other approaches, the causal relationships do not need to be explicit in the texts.
Using this framework, a causal network is obtained, where each node is a relevant variable and each edge is a causal link.
To achieve this goal, the first challenge addressed is to extract and select relevant variables from texts.
This is achieved by the use of two NLP approaches: (1) a term weighting technique and (2) a model for detecting ongoing event mentions in news articles.
A data set is built using these two types of variables extracted from texts using these two NLP approaches ((1) and (2)).
This data set is used in the following stage of causal discovery.
Nine causal discovery techniques are analyzed, and a comparative study of the application of these techniques is carried out in sixty-four synthetic data sets and in one real-world electricity demand data set.
Finally, a use case is presented where the best causal discovery techniques are applied to the data sets of variables extracted from the texts of newspaper articles, thus giving rise to a complete demonstration of the functionality of the framework (extraction of text variables and causal discovery from them).
The results obtained show the great flexibility of the framework, which allows the combination of variables of different types (potentially with different generative processes), enabling the subsequent causal extraction.
Furthermore, they provide evidence that non-textual information could be incorporated into the framework (for example, commodity prices, stock prices, and socioeconomic indicators, among others).
This framework would allow an expert to start from a domain, which can be defined as a set of newspaper texts about some real-world episode, and automatically obtain a set of variables relevant to that domain (from which the expert could choose to visualize either a subset or the entire set).
Subsequently, the expert would be shown a set of causal links extracted automatically, linking the relevant variables of the domain.
The resulting causal graph (variables and edges relevant to a domain) can become a tool of great interest for an expert to process and summarize the variables and interdependencies in a domain, allowing a better understanding and making it possible to draw conclusions or find explanations for events that happened or are happening in the domain.
The first two contributions of this thesis are focused on the proposal of novel NLP techniques to be applied at the variable extraction stage.
First, a new tool for weighing terms and estimating relevance scores of terms assigned by users is proposed.
Secondly, an NLP task consisting of the detection of ongoing events (OED) from texts is proposed to use those events as variables in the framework.
The results for different instances of the OED task are shown, indicating that the model outperforms state-of-the-art models for similar tasks.
These two contributions allow the extraction of relevant variables to be used as nodes of the graph.
Finally, the third main contribution is the presentation of a comparative analysis of nine causality extraction techniques and the subsequent application of the best ones on a use case of the complete framework.
|
48 |
Confianza y reputación de agentes en sistemas multi-agente para entornos dinámicosJoaquín, Federico 23 June 2023 (has links)
Esta tesis doctoral se enfoca en la representación y la dinámica de los sistemas computacionales de reputación y confianza multi-contexto en Sistemas Multi-Agente. Para abordar tanto la representación como la dinámica, se propone el uso de órdenes parciales de credibilidad, que representan las creencias que un agente mantiene asociadas al nivel de confianza existente entre diferentes agentes. Cada orden podría estar asociado a un determinado contexto o tópico. De esta forma, la información de confianza que mantengan los agentes puede ser usada en dominios de aplicación donde se requiere de sistemas computaciones de reputación y confianza multi-contexto. En particular, la confianza será representada de manera simbólica, esto es, mediante un conjunto de elementos de credibilidad que indican que un agente es más creíble que otro. Esto será especialmente útil para modelar situaciones donde la relación de credibilidad entre dos agentes aún no ha sido establecida, esto es, cuando dos o más agentes se mantienen incomparables. Se favorecerá el uso de la palabra credibilidad para referir a la confianza de los agentes, ya que esta palabra tiene un sentido intuitivo que ayuda a comprender los problemas relacionados.
Los valores de confianza entre agentes representan valoraciones que pueden modificarse con el tiempo. En consecuencia, los órdenes parciales de credibilidad que se plantean utilizar no necesariamente permanecerán estáticos. Particularmente, un orden de credibilidad entre agentes puede actualizarse con información de otro orden de credibilidad para así obtener información útil para la toma de decisiones. Es por ello que en esta tesis se propone un modelo de confianza simbólico y multi-contexto, donde los contextos pueden relacionarse mediante una taxonomía de contextos. Además, en esta investigación se presenta la formalización de dos operadores de cambio múltiple sobre órdenes parciales de credibilidad entre agentes. En la búsqueda de una herramienta que pueda utilizarse para la toma de decisiones usando el formalismo propuesto, se introduce el análisis y formalización de tres funciones de selección que permiten decidir qué información prevalece en situaciones conflictivas ante la revisión de dos órdenes de credibilidad. Basado en el formalismo propuesto, en esta tesis se introduce el desarrollo de una aplicación con interfaz gráfica de usuario que implementa el operador de revisión múltiple priorizada, y permite visualizar su comportamiento. / This Thesis focuses on the representation and dynamics of multi-context reputation
and trust computational systems in Multi-Agent Systems. To address both representation
and dynamics, the use of partial credibility orders is proposed, which represent the beliefs that an agent maintains associated with the level of trust existing between different
agents. Each order may be associated with a specific context or topic. In this way, the
trust information maintained by agents can be used in application domains where multi-context trust and reputation systems are required. In particular, trust will be represented
symbolically, that is, through a set of credibility elements that indicate that one agent is
more credible than another. This will be especially useful to model situations where the
credibility relationship between two agents has not yet been established, that is, when
two or more agents remain incomparable. We will favor the use of the word credibility to
refer to the trust of agents as this particular word carries an intuitive sense that helps to
understand the related problems.
The trust values among agents represent valuations that can vary or change over time.
Consequently, the partial credibility orders that are proposed to be used will not necessarily remain static. In particular, a credibility order among agents can be updated with
information from another credibility order in order to obtain useful information for decision making. For this reason, in this Thesis a symbolic and multi-context trust model is
proposed, where contexts can be related through a taxonomy of contexts. In addition, this
research presents the formalization of two multiple change operators on partial credibility
orders among agents. In order to achieve a tool that can be used for decision-making using
the proposed formalism, the analysis and formalization of three selection functions that
allow deciding which information prevails in conflicting situations before the revision of
two credibility orders is introduced. Based on the proposed formalism, this Thesis introduces the development of an application with a graphical user interface that implements
the prioritized multiple revision operator, and allows visualizing its behavior.
|
49 |
Toma de decisiones individuales y colectivas en sistemas multi-agente : un enfoque argumentativo con explicaciones interactivas.Buron Brarda, M. E. 15 September 2023 (has links)
Esta tesis presenta un marco de trabajo para toma de decisiones individuales y colectivas en sistemas multi-agentes el cual hace uso de un sistema argumentativo. Este marco
de trabajo permite modelar diferentes escenarios en los que un grupo de agentes debe
tomar una decisión para resolver un problema en común, teniendo en cuenta múltiples
criterios de evaluación.
Como parte de las contribuciones de esta tesis, se introduce un tipo especial de reglas
llamadas reglas de preferencia rebatibles. Estas reglas permiten a los agentes expresar las
razones que consideran apropiadas para preferir una alternativa por sobre otra. Debido
a las fortalezas y debilidades de cada alternativa, estas reglas pueden generar preferencias contradictorias que deben resolverse antes de tomar una decisión. Para abordar este
problema, el marco de trabajo propuesto utiliza un sistema argumentativo donde los argumentos se generan a partir de las reglas de preferencia rebatibles y la información sobre
las alternativas. Las contradicciones entre las preferencias inferidas se resuelven a través
de un proceso de evaluación de argumentos que determina su aceptación y, por lo tanto, la
aceptación de las preferencias que respaldan. Este proceso de evaluación tiene en cuenta
los intereses de cada agente y también considera la posibilidad de priorizar los intereses
de ciertos agentes. En esta tesis, no solo se define la estructura del marco de trabajo, sino
que también se estudian las propiedades formales que caracterizan el comportamiento del
mismo. Además, el marco de trabajo propuesto puede ser aplicado en escenarios donde
la información sobre las alternativas es incompleta, y también se adapta muy bien en
escenarios donde la información es dinámica.
Si bien el uso de argumentación como mecanismo de razonamiento, facilita la posibilidad de brindar explicaciones, estas no siempre son fáciles de comprender. El marco de
trabajo propuesto permite obtener explicaciones interactivas para que los usuarios puedan
comprender el funcionamiento del formalismo sin sentirse abrumados por la información
presentada. Además, en esta tesis se describe y estudia el funcionamiento y rendimiento
de una aplicación de escritorio desarrollada para implementar este formalismo, la cual
permite visualizar las explicaciones e interactuar con ellas. / This thesis presents a framework for individual and collective decision-making in multi-
agent systems that utilizes an argumentation system. This framework allows for modeling
different scenarios in which a group of agents must make a decision to solve a common
problem, taking into account multiple evaluation criteria.
As part of the contributions of this thesis, a special type of rules called defeasible
preference rules is introduced. These rules enable agents to express the reasons they con-
sider appropriate for preferring one alternative over another. Due to the strengths and
weaknesses of each alternative, these rules can lead to contradictory preferences that need
to be resolved before making a decision. To address this problem, the proposed frame-
work utilizes an argumentative system where arguments are generated from the defeasible
preference rules and information about the alternatives. Contradictions between inferred
preferences are then resolved through an argument evaluation process that determines
their acceptance, and therefore, the acceptance of the preferences they support. This
evaluation process takes into account the interests of each agent and also considers the
possibility of prioritizing the interests of certain agents. In this thesis, not only is the
structure of the framework defined, but the formal properties characterizing its behavior
are also studied. Moreover, the proposed framework can be applied in scenarios where
information about the alternatives is incomplete and it also adapts well to scenarios with
dynamic information.
While the use of argumentation as a reasoning mechanism facilitates the possibility of
providing explanations, they are not always easy to comprehend. The proposed framework
allows for obtaining interactive explanations so that users can understand the workings
of the formalism without feeling overwhelmed by the presented information. Additionally,
in this thesis, the operation and performance of a desktop application developed to im-
plement this formalism are described and studied. This application enables visualization
of the explanations and interaction with them.
|
50 |
Estudio, desarrollo e implementación de sistemas embebidos flow-batch para el análisis de muestras petroquímicas, medioambientales y alimentosEggly, Gabriel Martín 28 November 2018 (has links)
La presente tesis de doctorado es un trabajo interdisciplinario en el cual la Química
Analítica y la Ingeniería de Computación atravesaron sus propios límites y métodos de
investigación para alcanzar resultados originales que fueron validados en congresos nacionales
e internacionales y en revistas científicas. El objetivo primario fue el desarrollo de sistemas
automáticos para evaluar estándares de calidad en diferentes matrices con especial interés en
combustibles, alimentos y medio ambiente. En las tres áreas se realizaron aportes importantes
que tienen además la potencialidad de convertirse en transferencia de tecnología.
La tesis se desarrolla en 6 partes. En las primeras dos, se enmarca la investigación en
cuanto a la metodología y las herramientas de trabajo que fueron desarrolladas y utilizadas
a lo largo de las investigaciones. En las siguientes tres partes se presentan los resultados
obtenidos en biocombustibles, alimentos y medioambiente respectivamente. En el caso de
las primeras dos matrices, las técnicas planteadas fueron contrastadas con los métodos de
referencia y se utilizaron para esto muestras provistas por el sector productivo/industrial. Es
además importante destacar, que las soluciones alcanzadas no sólo tienen una alta efectividad
en el procesamiento de la información sino que además reducen el costo económico de las
determinaciones y permiten la portabilidad de los instrumentos debido a su reducido peso
y tamaño. En el caso de medioambiente, el estudio refiere a un modelo de comunicación de
sensores subacuáticos para la determinación de variables ambientales. Debido a los elevados
costos asociados a este tipo de sensores, en este caso la evaluación de la propuesta se realizó
por medio de simulaciones y no fue posible la implementación física de la red. Finalmente
en la última parte presentan las conclusiones generales y se dejan planteadas las lineas de
investigación futuras. / This PhD thesis is an interdisciplinary work in which Analytical Chemistry and Computer
Engineering went through their own limits and research methods to achieve original
results that were validated in national and international conferences and in scientific journals.
The main objective was the development of automatic systems to evaluate quality standards
in different matrices with special interest in fuels, food and environment. In the three areas,
important contributions were made that also have the potential to become technology transfer.
The thesis is divided in 6 parts. In the first two, research is framed in terms of methodology
and work tools that were developed and used throughout the investigations. The results
obtained in biofuels, food and environment respectively are presented in the following three
parts. In the case of the first two matrices, the techniques proposed were contrasted with
the reference methods and samples provided by the productive/industrial sector were used
for this. It is also important to emphasize that the solutions achieved not only have a high
effectiveness in the processing of information but also reduce the economic cost of the determinations
and allow the portability of the instruments since their reduced weight and size.
In the case of the environment, the study refers to a communication model of underwater
sensors for the determination of environmental variables. Due to the high costs associated
with this type of sensors, in this case the evaluation of the proposal was made through simulations
and the physical implementation of the network was not possible. Finally, in the
last part, the general conclusions and the future research lines are presented.
|
Page generated in 0.1204 seconds