Spelling suggestions: "subject:"inteligencia artificial"" "subject:"inteligencia aartificial""
201 |
Efectos de la inteligencia artificial y la automatización empresarial: una revisión sistemática de literaturaRuiz Valdez, Raibran Anthony January 2020 (has links)
La inteligencia artificial aplicada a la automatización de procesos en las empresas busca generar beneficios como: Reducción de los porcentajes de error, reducción de costos de operación, aumentar la eficiencia de los procesos empresariales y la mejora en la productividad, lo que se ve reflejado finalmente en un mejor servicio al cliente. Sin embrago, desde la perspectiva del trabajador no constituye un beneficio, sino una amenaza para la continuidad laboral en las empresas. El objetivo del artículo fue la revisión sistemática de la literatura sobre el impacto de la inteligencia artificial tanto en los procesos de las empresas como en la situación laborar del empleado en los últimos 10 años, empleando la metodología propuesta por Kitchenham y como fuente de la información la base de datos ProQuest. Los resultados del estudio destacan que la inteligencia artificial aplicada a la automatización de los procesos empresariales tiene efectos tanto en la productividad de la empresa, como a nivel de empleado en su susceptibilidad a la automatización, en su salario y la restructuración de los mercados laborales.
|
202 |
Inteligencia artificial aplicada en la odontología: revisión sistemática de la literaturaCieza Bances, Paola Elizabeth January 2020 (has links)
La presente revisión sistemática de la literatura tiene como objetivo recopilar los principales trabajos de investigación que hayan aplicado la inteligencia artificial en la odontología. Para cumplir con este objetivo, se realizó una búsqueda en tres bases de datos: ProQuest Central, IEEE Xplore y ScienceDirect, dónde se utilizó la cadena de búsqueda “Inteligencia artificial en la odontología” limitando los resultados a las publicaciones hechas desde el año 2017 al año 2020. Posteriormente, se aplicaron criterios de inclusión y exclusión, para finalmente evaluar la calidad de forma manual. Se inició con 180 artículos, de los cuales fueron seleccionados 15, siendo estos, las fuentes de información primaria. Los documentos se agruparon por: países, logrando de esta manera saber cuál de ellos mostraba un mayor interés en la aplicación de la inteligencia artificial en la odontología; por año, y así dar a conocer en cual hubo más productividad de investigaciones y por revistas, con el propósito de notar en cuál se publica más sobre la inteligencia artificial aplicada en la odontología. Finalmente, se concluyó que los países de Estados Unidos y Reino Unido son los que tienen mayor interés en estos estudios, con mayor acogida en el año 2020. Además, la revista IEEE Access fue la que obtuvo el mayor porcentaje de publicaciones con un 27%.
|
203 |
Contributions to 3D data processing and social roboticsEscalona, Félix 30 September 2021 (has links)
In this thesis, a study of artificial intelligence applied to 3D data and social robotics is carried out. The first part of the present document is dedicated to 3D object recognition. Object recognition consists on the automatic detection and categorisation of the objects that appear in a scene. This capability is an important need for social robots, as it allows them to understand and interact with their environment. Image-based methods have been largely studied with great results, but they only rely on visual features and can confuse different objects with similar appearances (picture with the object depicted in it), so 3D data can help to improve these systems using topological features. For this part, we present different novel techniques that use pure 3D data. The second part of the thesis is about the mapping of the environment. Mapping of the environment consists on constructing a map that can be used by a robot to locate itself. This capability enables them to perform a more elaborated navigation strategy, which is tremendously usable by a social robot to interact with the different rooms of a house and its objects. In this section, we will explore 2D and 3D maps and their refinement with object recognition. Finally, the third part of this work is about social robotics. Social robotics is focused on serving people in a caring interaction rather than to perform a mechanical task. Previous sections are related to two main capabilities of a social robot, and this final section contains a survey about this kind of robots and other projects that explore other aspects of them.
|
204 |
Un Algoritmo GRASP para resolver el problema de la programación de tareas dependientes en máquinas diferentes (task scheduling)Tupia Anticona, Manuel Francisco January 2005 (has links)
La planificación de las operaciones involucradas en un proyecto de desarrollo de software ha sido un problema a superar, desde el auge del uso de metodologías que guían dicho proceso. Tanto la eficiencia como la sofisticación de los algoritmos que buscan resolver los estos ordenamientos, han ido evolucionando durante la segunda mitad del siglo XX. Al mencionado problema de ordenar tareas con dependencias se le conoce en la algorítmica como programación de tareas o task scheduling y es definido de la siguiente forma: dado un conjunto de tareas a ser programadas en determinado grupo de máquinas (o recursos hombre-máquina como podrían ser programadores, analistas, etc.), encontrar un orden adecuado de ejecución. Es un problema de complejidad NP-difícil por lo que se justifica el uso de métodos heurísticos para obtener soluciones aproximadas. El presente trabajo de tesis presenta una meta heurística GRASP para resolver la variante en donde las tareas son dependientes y los organismos ejecutores son diferentes entre sí: con esto se podrían planificar las tareas de las etapas iniciales de un proceso particular de desarrollo de software. En la tesis, se incide en la metodología RUP, y en particular en sus disciplinas de modelamiento de negocios (business modeling) y captación de requerimientos (requirement). Se han desarrollado tanto un algoritmo voraz como una meta heurística GRASP con dos parámetros de relajación, planteamiento novedoso pues hasta el momento no se había intentado resolver el problema de esta forma. Igualmente se muestra un modelo matemático para la variante específica del problema a tratar.
Para demostrar la corrección de los algoritmos, se desarrolló un prototipo que los implementa obteniéndose como resultado que el algoritmo GRASP mejora casi en un 6% los resultados del algoritmo voraz, para instancias de hasta 12500 variables involucradas.
Palabras clave: Programación de tareas, algoritmos GRASP, Desarrollo de Software, planificación de recursos en proyectos de desarrollo software, RUP. / --- Operation’s planning for Software Development has been a complicated by-solve problem experienced since the golden age of the use methodologies whose rule those process. In which it is used, as well as in the efficiency and sophistication of the algorithms that try to solve the problems that appear in a software project, since its origin in the middle of the 20th century. The previously mentioned problem is known within algorithmic as task scheduling and it is defined as follows: given a group of tasks (operations) to be scheduled within a group of machines (or human resources, or human-machine resources), find an appropriate execution order. It is a NP-difficult complexity problem, so it justifies the usage of heuristic methods to obtain approximate solutions. This thesis presents a GRASP heuristic goal to solve the variant in which tasks are dependent and executing entities are different one from the other: now it could be possible the planning of the operation s from the inception’s RUP phase. We are remarking in particular, two disciplines of RUP methodology: business modeling and requirement. Both a greedy algorithm and a GRASP heuristic goal with two relaxation parameters have been developed. Innovative proposition because until now nobody has tried to solve the problem this way. Likewise a mathematical model for the specific variant of the problem to be considered is shown.
To show efficiency of the GRASP algorithm, we developed a prototype program that executes and compares the results obtained by greedy and GRASP algorithms. The GRASP algorithm improves by 6% the results of the greedy algorithm, for instances with up to 12500 variables involved. Finally we measured the quality of these results with those of the mathematical model which would obtain the exact solution for smaller instances, taking advantage of software that solves linear programming problems: the GRASP algorithm got close to the exact result within a range of 95 to 99%, and even equaled it in some tests.
Keywords: Task scheduling, GRASP algorithm, Software development, resource planning in software projects, RUP. / Tesis
|
205 |
Sistema de arquitectura multisensorial para supervisión y seguridad industrial aplicando tecnología de inteligencia artificial /Utrilla Salazar, Dario January 2014 (has links)
La presente investigación responde al siguiente problema principal ¿Cómo formular el modelo de un sistema multisensorial para la supervisión y seguridad industrial aplicando tecnología de inteligencia artificial para las empresas de nuestro país, considerando las variables más importantes del sistema?
El diseño del proyecto, fue desarrollado en una empresa de manufactura, en donde no existia un ambiente de seguridad industrial, lo cual aumentó la probabilidad en los trabajadores de sufrir riesgos y accidentes en el trabajo.
El objetivo del presente proyecto fue diseñar un modelo del sistema multisensorial de seguridad industrial, para lo cual se aplicaron conceptos de redes industriales RS-485 por las múltiples ventajas que representa, así como dispositivos programables con características de inteligencia artificial y elementos sensores de diversas señales físicas.
Para obtener un diagnóstico luego de un periodo de observación, y como estrategia para probar la utilidad del modelo electrónico planteado se consideró implementar en una empresa piloto, específicamente en el departamento de producción considerando las instalaciones, la maquinaria, los trabajadores. Para las evaluaciones fueron elaborados recopilación de información con el objeto de analizar las informaciones obtenidas. Se realizaron evaluaciones técnicas para determinar las zonas de riesgos de accidentalidad en la empresa piloto en mención.
Se pretende que éste modelo de seguridad industrial sea desarrollado en diversas empresas, como recurso para reducir el índice de accidentalidad laboral así como mejorar el factor costo-beneficio. / Tesis
|
206 |
Image-Based Biomarker Localization from Regression NetworksCano Espinosa, Carlos 26 September 2019 (has links)
La inteligencia artificial, y en concreto la desarrollada mediante aprendizaje profundo, se ha instaurado firmemente en nuestra sociedad en la última década. Los avances tecnológicos han hecho posible su uso en todos los ámbitos, lo que ha impulsado la investigación y el desarrollo de nuevos métodos que superan enormemente a lo que hasta hace poco era lo que se consideraba más avanzado. Las técnicas tradicionales han sido sustituidas por redes neuronales que permiten obtener resultados de mejor calidad de una forma mucho más rápida. Esto ha sido posible principalmente por dos factores: Primero, el avance en la tecnología de procesadores gráficos, que permiten una alta paralelización, ha permitido el desarrollo de técnicas que hasta la fecha eran completamente inviables debido a su coste temporal. Segundo, la proliferación de la ``cultura de los datos'' en la que estos son tratados como un recurso imprescindible, sumado al abaratamiento de la capacidad de almacenamiento digital, ha propiciado la aparición de grandes bases de datos de todo tipo y para todo propósito, creciendo exponencialmente con el tiempo y con una calidad cada vez superior debido a que se diseñan con el propósito específico de servir como base a estos tipos de sistemas inteligentes. Uno de los ámbitos que más se han beneficiado por estas técnicas es el entorno médico. La era de la digitalización ha hecho posible la recopilación de datos con información de pacientes, enfermedades, tratamientos, etc. No obstante, algo que diferencia al entorno médico de muchos otros ámbitos es que para poder atender correctamente a un paciente y valorar su estado es necesario la opinión de un experto, lo que provoca cierta inseguridad en el uso de los sistemas inteligentes, ya que estos hasta la fecha tienen una gran falta de explicabilidad. Es decir, pueden por ejemplo predecir, categorizar o localizar una enfermedad, pero no es fácilmente interpretable el cómo ha llegado a esa conclusión, cosa que es imprescindible conocer antes de tomar una decisión que puede ser crítica para el paciente. Además, este tipo de técnicas aplicadas al entorno médico tienen un problema añadido. Puesto que las bases de datos suelen provenir de diferentes instituciones, con una diversidad importante en cuanto a los modelos de máquinas empleadas para la obtención de estos datos, cada una con unas propiedades y características diferentes. Por ejemplo, suele existir una diferencia importante en los resultados al aplicar un método que se entrenó con datos provenientes de un hospital, en datos de otro diferente. Para hacer uso de estas bases de datos se requiere que sean lo suficientemente grandes como para poder generalizar de manera adecuada este hecho. Por otro lado, nos encontramos con que las bases de datos suelen estar etiquetadas por varios especialistas, por lo que se introduce cierto grado de diversidad subjetiva e incluso algunos errores que han de tenerse en cuenta. No obstante, en los últimos años se está haciendo un esfuerzo importante en solventar todos estos problemas. Concretamente en el campo de la interpretabilidad, aunque aún es un tema que está en sus fases más tempranas, surgen muchas propuestas que lo abordan desde diferentes perspectivas. Con ello en mente, esta investigación hace su aporte centrándose en redes neuronales para la regresión de biomarcadores, proponiendo un método capaz de indicar la localización de aquellas estructuras, órganos, tejidos o fluidos a partir de los cuales se infieren. Para ello, únicamente se dispone del valor agregado final de dichos biomarcadores y se pretende obtener una localización que explique dicho valor. En esta tesis se analizarán las redes de regresión directa, proponiendo una arquitectura para el cálculo de la Enfermedad de las Arterias Coronarias (CAD), haciendo un estudio de los diferentes elementos que la compone, incluyendo la función de coste empleada y cómo afecta al resultado dependiendo de las propiedades de los datos utilizados para su entrenamiento. Los resultados se validan en otros dos problemas de regresión, Área del Musculo Pectoral (PMA) y Área de Grasa Subcutánea (SFA). Como resultado de esta tesis podemos concluir que la regresión directa de los biomarcadores es una tarea totalmente viable, obteniendo altos índices de correlación entre los resultados calculados por este tipo de redes y la referencia real obtenida de la evaluación de un especialista en el campo al cual se aplica. En segundo lugar, la percepción de este tipo de sistemas en el entorno médico puede mejorarse si, junto con el resultado de la regresión, se proporciona una localización que guíe al especialista para inferir de dónde proviene este valor, centrando su atención en una región específica de la imagen. En esta tesis se profundiza en las redes de regresión de biomarcadores y permitiéndoles localizar las estructuras utilizadas para inferir el valor del biomarcador.
|
207 |
Caracterización formal y análisis empírico de mecanismos incrementales de búsqueda basados en contextoLorenzetti, Carlos M. 18 March 2011 (has links)
LaWeb se ha vuelto un recurso potencialmente infinito de información, transformándose además en una herramienta imprescindible para muchas tareas de la vida diaria. Esto provocó un aumento en la cantidad de información existente en el contexto de los usuarios, que no es tenida en cuenta por los sistemas de recuperación de información actuales. En esta tesis se propone una técnica semisupervisada de recupe-ración de información que ayuda al usuario a recuperar infor-mación relevante para su contexto actual. El objetivo de la misma es contrarrestar la diferencia de vocabulario que pudiera existir entre el conocimiento que tiene el usuario sobre un tema y los documentos relevantes que se encuen-tran en la Web. Esta tesis presenta un método de aprendizaje de nuevos términos asociados a un contexto temático, a través de la identificación de términos que sean buenos descriptores y términos que sean buenos discriminadores del tópico del contexto actual del usuario. Para la evaluación
del método propuesto se desarrolló un marco teórico de eva-luación de mecanismos de búsqueda y se implementó una plataforma de evaluación, que además permitió comparar
las técnicas desarrolladas en esta tesis con otras técnicas existentes en la literatura. La evidencia experimental muestra que las mejoras alcanzadas son significativas respecto de otros trabajos publicados. Dentro de este marco se desarrolla-ron asimismo nuevas métricas de evaluación que favorecen la exploración de material novedoso y que incorporan una medida de relación semántica entre documentos. Los algorit-mos desarrollados a la largo de esta tesis evolucionan con-sultas de alta calidad, permitiendo recuperar recursos relevan-tes al contexto del usuario, e impactan positivamente en la forma en la que éste interactúa con los recursos que tiene disponibles. / The Web has become a potentially infinite information resour-ce, turning into an essential tool for many daily activities. This resulted in an increase in the amount of information available in users contexts that is not taken into account by current information retrieval systems. This thesis proposes a semisupervised information retrieval technique that helps users to recover context relevant information. The objective of the proposed technique is to reduce the vocabulary gap existing between the knowledge a user has about a specific topic and the relevant documents available in the Web. This thesis presents a method for learning novel terms associated with a thematic context. This is achieved by identifying those terms that are good descriptors and good discriminators of the users current thematic context. In order to evaluate
the proposed method, a theoretical framework for the evalua-tion of search mechanisms was developed. This served as a guide for the implementation of an evaluation framework
that allowed to compare the techniques proposed in this thesis with other techniques existing in the literature. The experimental evidence indicates that the methods proposed in this thesis present significant improvements over previously published techniques. In addition the evaluation framework was equipped with novel evaluation metrics that favor the exploration of novel material and incorporates a semantic relationship metric between documents. The algorithms developed in this thesis evolve high quality queries, which have the capability of retrieving results that are relevant to the user context. These results have a positive impact on
the way users interact with available resources.
|
208 |
De Mr. Increíble a Judy Hoops : un estudio sobre modelado de cabello y pelaje en producciones de animaciónSegovia, Leonardo Emanuel 30 April 2021 (has links)
El pelo, o pelaje en animales, es uno de los componentes cruciales a considerar en el diseño y
producción de personajes virtuales. Es una de las características más reconocibles que contribuye
a su autenticidad e identidad. Por lo tanto, no sólo su simulación debe ser estéticamente agradable
y físicamente plausible, sino también debe encajar con el universo del personaje.
En esta tesis, estudiamos todos los métodos y técnicas disponibles para el diseño, simulación,
y renderización de pelo, tanto para uso fuera de línea como para aplicaciones de tiempo
real. Para cada etapa, identificamos el conjunto de propiedades necesarias para considerar a un
modelo físicamente plausible, y presentamos un análisis de los modelos reseñados según dichas
propiedades. Hacemos especial énfasis en aquellos modelos con uso conocido en animación
cinematográfica, en particular las películas Enredados, Valiente, y Zootopia. Además, presentamos
la implementación de un sistema completo de sombreado de pelo, construida según las
especificaciones de uno de los modelos reseñados, y realizada dentro de la suite de creación 3D
libre y de código abierto, Blender. / Hair, and fur for animals, is one of the crucial components to be considered in the design and
production of virtual characters. It is one of the most noticeable features that contribute to its
authenticity and identity. As such, not only its simulation must be aesthetically pleasing and
physically plausible, but it must also fit within the character’s universe.
In this thesis, we survey all available methods and techniques of hair styling, simulation, and
rendering, both for offline and realtime use. For each stage, we identify the set of properties which
make a model physically plausible, and analyse the surveyed models. We make special emphasis
in those models known to be used in feature animation, in particular the films Tangled, Brave,
and Zootopia. Additionally, we present an implementation of a complete hair shading system,
constructed according to the specifications of one of the surveyed models, and implemented
within the free, open source 3D creation suite, Blender.
|
209 |
Modelos computacionales de movimiento ocularBiondi, Juan Andrés 10 February 2021 (has links)
El análisis de los movimientos oculares constituye un importante desafío dada la gran
cantidad de información presente en los mismos. Estos movimientos proveen numerosas
claves para estudiar diversos procesos cognitivos considerando, entre otros aspectos, el
modo y el tiempo en que se codi fica la información y qué parte de los datos obtenidos
se usan o se ignoran.
Avanzar en el entendimiento de los procesos involucrados en tareas de alta carga
cognitiva puede ayudar en la detección temprana de enfermedades neurodegenerativas
tales como el mal de Alzheimer o el de Parkinson. A su vez, la comprensión de estos
procesos puede ampliar el abordaje de una gran variedad de temas vinculados con el
modelado y control del sistema oculomotor humano.
Durante el desarrollo de esta Tesis Doctoral se llevaron a cabo tres experimentos que
utilizan técnicas de deep-learning y modelos lineales de efecto mixto a n de identi car
patrones de movimiento ocular a partir del estudio de situaciones controladas.
La primera experiencia tiene como objetivo diferenciar adultos mayores sanos de
adultos mayores con posible enfermedad de Alzheimer, utilizando deep-learning con
denoise-sparse-autoencoders y un clasifi cador, a partir de información del movimiento
ocular durante la lectura. Los resultados obtenidos, con un 89;8% de efectividad en
la clasi ficación por oración y 100% por sujeto, son satisfactorios. Esto sugiere que el uso
de esta técnica es una alternativa factible para esta tarea.
La segunda experiencia tiene como objetivo demostrar la factibilidad de la utilización
de la dilatación de la pupila como un marcador cognitivo, en este caso mediante modelos
lineales de efecto mixto. Los resultados indican que la dilatación se ve influenciada por
la carga cognitiva, la semántica y las características específi cas de la oración, por lo que
representa una alternativa viable para el análisis cognitivo.
El tercero y último experimento tiene como objetivo comprobar la efectividad de la
utilización de redes neuronales recurrentes, con unidades LSTM, para lograr una clasifi cación efectiva en rangos etarios correspondientes a jóvenes sanos y adultos mayores
sanos, a partir del análisis de la dinámica de la pupila. Los resultados obtenidos demuestran
que la utilización de esta técnica tiene un alto potencial en este campo logrando
clasifi car jóvenes vs. adultos mayores con una efectividad media por oración de 76;99%
y una efectividad media por sujeto del 90;24 %, utilizando información del ojo derecho
o información binocular.
Los resultados de estos estudios permiten afi rmar que la utilización de técnicas de
deep learning, que no han sido exploradas para resolver problemas como los planteados
utilizando eye-tracking, constituyen un gran área de interés. / TEXTO PARCIAL en período de teletrabajo
|
210 |
Generación automática de hipótesis vía razonamiento automatizado con aplicación a ciberseguridadParedes, José Nicolás 05 March 2021 (has links)
Esta tesis se enfoca en el estudio de sistemas para la generación automatizada de
hipótesis contextualizadas en la detección de comportamiento malicioso en plataformas
sociales. Como primer aporte de esta tesis, se presenta una aproximación inicial para
un sistema como el mencionado anteriormente y se consideran dos enfoques ligeramente
diferentes acotando la detección de comportamiento malicioso a un tipo de problema
específi co bautizado como deduplicación adversarial. Para el primer enfoque, se pone
mayor énfasis en la generación de hipótesis a partir de la utilización de reglas lógicas
bien de finidas, aunque la esencia de su funcionamiento está apoyada en los resultados que
puedan ser obtenidos de aplicar técnicas de aprendizaje automatizado con anterioridad.
Luego para el segundo enfoque, se realiza mayor hincapié en la utilización de técnicas de
aprendizaje automatizado, específi camente clasi ficadores, como estrategia para atacar el
problema y la generación de hipótesis es llevada a cabo por reglas más simples que son
activadas cuando el resultado de los clasifi cadores supera cierto umbral.
Sin embargo, el objetivo general de esta tesis es avanzar hacia el desarrollo de sistemas
más robustos que no se encuentran acotados a un solo problema de comportamiento
malicioso en plataformas sociales, sino que considere la multiplicidad de los mismos y
aproveche la relación que pueda haber entre ellos. Por esta razón, el principal aporte de
esta tesis es la presentación de la arquitectura NetDER para razonar sobre comportamiento
malicioso en plataformas sociales, la cual en principio, busca servir de guía para
la implementación de software en dicho dominio. Asimismo, en esta misma dirección,
otro aporte realizado es el estudio de los fundamentos teóricos involucrados en la implementación de una versión particular de NetDER. Más específicamente, la generación
de hipótesis está apoyada en un proceso conocido como de respuesta a consultas, por lo
cual fue necesario investigar su incidencia en este modelo, y a partir de dicho estudio
se llega a un interesante conjunto de resultados que varían de la tratabilidad del tiempo
polinomial a la indecidibilidad, dependiendo de las características que estén disponibles.
Adicionalmente, se desarrolla un caso de uso para ilustrar cómo el enfoque puede ser aplicado
en un dominio de ciberseguridad para razonar sobre productos en riesgo basados en
publicaciones de foros de la Darknet.
Finalmente, como último aporte se realiza una evaluación experimental de la arquitectura
NetDER, considerando las cuestiones de diseño y fundamentos teóricos estudiados
a lo largo de esta tesis. Asimismo, debido a la difi cultad de obtener datasets adecuados
con ground truth, lo cual es necesario para llevar adelante evaluaciones de desempeño,
fue necesario desarrollar un testbed general (dejando disponible públicamente su código)
diseñado con el propósito de generar trazas completas de actividades de publicación involucrando
potencialmente todo tipo de contenido malicioso como lo pueden ser noticias
falsas, actores maliciosos, botnets, enlaces a malware, discursos de odio, etc. Los resultados
obtenidos fueron satisfactorios, debido a que en general son estadísticamente signifi cativos
y constituyen un paso importante para avanzar al logro del objetivo general que es disponer
de sistemas robustos de generación automatizada de hipótesis que puedan utilizarse para resolver problemas de comportamiento malicioso en plataformas sociales. / In this thesis we focus on the study of systems for the automated generation of hypotheses
in order to detect malicious behavior on social media. The rst contribution of
this thesis is the development of an initial approach for a system such as the one we mentioned
above, where two slightly di erent approaches are considered, limiting the detection
of malicious behavior to a speci c kind of problem called adversarial deduplication. For
the rst approach, greater emphasis is placed on the generation of hypotheses from the
use of well-de ned logical rules, although they are essentially based on the results that
can be obtained from the prior application of machine learning techniques. Then, for the
second approach, greater emphasis is placed on the use of machine learning techniques,
speci cally classi ers, as a strategy to attack the problem and the generation of hypotheses
is carried out by simpler rules that are activated when the result of the classi ers
exceeds a certain threshold.
The general objective of this thesis is however to advance towards the development
of more robust systems that are not limited to a single problem of malicious behavior on
social media, but rather consider their multiplicity and take advantage of the relationship
that may exist between them. For this reason, the main contribution of this thesis is the
presentation of the NetDER architecture to reason about malicious behavior on social
media, which in principle seeks to serve as a guide for the implementation of software
in this domain. Also, in this same direction, another contribution is the study of the
theoretical foundations involved in the implementation of a particular version of Net-
DER. More speci cally, the generation of hypotheses is supported by a process known as
query answering; therefore, we need to research its incidence in this model, and from this
study an interesting set of results is reached that vary from polynomial-time tractability
to undecidability, depending on the features that are available. Additionally, a use case
is developed to illustrate how the approach can be applied in a cybersecurity domain to
reason about at-risk products based on Darknet forum posts.
Finally, as a last contribution, an experimental evaluation of the NetDER architecture
is carried out, considering the design issues and theoretical foundations studied
throughout this thesis. Also, due to the di culty of obtaining adequate datasets with
ground truth, which is necessary to carry out performance evaluations, it was necessary
to develop a general testbed (making its code publicly available) designed with the purpose
of generating complete traces of posting activities potentially involving all types of
malicious content, such as fake news, malicious actors, botnets, links to malware, hate
speech, etc. The results obtained were satisfactory, because in general they are statistically
signi cant and constitute an important step to advance towards the achievement
of the general objective, which is to have robust systems for the automated generation
of hypotheses that can be used to solve problems related to malicious behavior on social
media.
|
Page generated in 0.0583 seconds