• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 39
  • Tagged with
  • 117
  • 117
  • 58
  • 55
  • 49
  • 46
  • 44
  • 44
  • 44
  • 44
  • 44
  • 37
  • 32
  • 27
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Análisis de las características que identifica a un usuario de practisis premium: variables que deciden para convertirse de una cuenta freemium a premium

Bocangel Carbajal, Jose Luis, Chavarria Contreras, Jonathan, Murrugarra Ocharan, Eric Gonzalo, Quispe Vivanco, Cesar Manuel 13 December 2020 (has links)
El presente trabajo de investigación constituye el análisis de la problemática planteada por la empresa Practisis, el cual se refiere a un déficit de migración de cuentas Freemium a Premium de usuarios del software Dora en el 2020 en Perú, a pesar de que esta empresa inició sus operaciones en enero 2019, la migración de cuentas Freemium a premium es muy baja y afecta directamente a las ventas. Para el desarrollo de este trabajo se ha utilizado la metodología de ciencia de datos de IBM, logrando identificar las variables que influyen en la migración de cuentas Freemium a Premium, las cuales afectan directamente a las ventas para el año 2020. La base de datos se obtuvo directamente desde la plataforma de la empresa, la cual captura a los clientes y lleva el control de cada cuenta. Con estos datos se pudieron identificar 15 variables y 1348 registros. Para ello, se utilizó el modelo de árbol de decisión como técnica de aprendizaje automático supervisado, el cual nos ayudó a identificar, según las variables utilizadas, el requisito para que un cliente convierta su cuenta Freemium a Premium. Finalmente, para el resultado de este análisis, se elaboraron diversos gráficos y tablas, así como también un análisis en Python como respuesta para sustentar la problemática de Practisis. / The present research paper constitutes the analysis of the problem posed by the company Practisis, which refers to a deficit of migration of Freemium accounts to Premium of users of Dora software in 2020 in Peru, although this company started operations in January 2019, the migration of Freemium accounts to premium is very low and directly affects sales. For the development of this work, IBM’s data science methodology has been used, identifying the variables that influence the migration of Freemium accounts to Premium, which directly affect sales by 2020. The database was obtained directly from the company’s platform, which captures customers and controls each account. With these data, 15 variables and 1348 records could be identified. To do this, the decision tree model was used as a supervised machine learning technique, which helped us to identify, according to the variables used, the requirement for a customer to convert their Freemium account to Premium. Finalmente, para el resultado de este análisis, se elaboraron diversos gráficos y tablas, así como también un análisis en Python como respuesta para sustentar la problemática de Practisis. / Trabajo de investigación
82

Decision Support Elements and Enabling Techniques to Achieve a Cyber Defence Situational Awareness Capability

Llopis Sánchez, Salvador 15 June 2023 (has links)
[ES] La presente tesis doctoral realiza un análisis en detalle de los elementos de decisión necesarios para mejorar la comprensión de la situación en ciberdefensa con especial énfasis en la percepción y comprensión del analista de un centro de operaciones de ciberseguridad (SOC). Se proponen dos arquitecturas diferentes basadas en el análisis forense de flujos de datos (NF3). La primera arquitectura emplea técnicas de Ensemble Machine Learning mientras que la segunda es una variante de Machine Learning de mayor complejidad algorítmica (lambda-NF3) que ofrece un marco de defensa de mayor robustez frente a ataques adversarios. Ambas propuestas buscan automatizar de forma efectiva la detección de malware y su posterior gestión de incidentes mostrando unos resultados satisfactorios en aproximar lo que se ha denominado un SOC de próxima generación y de computación cognitiva (NGC2SOC). La supervisión y monitorización de eventos para la protección de las redes informáticas de una organización debe ir acompañada de técnicas de visualización. En este caso, la tesis aborda la generación de representaciones tridimensionales basadas en métricas orientadas a la misión y procedimientos que usan un sistema experto basado en lógica difusa. Precisamente, el estado del arte muestra serias deficiencias a la hora de implementar soluciones de ciberdefensa que reflejen la relevancia de la misión, los recursos y cometidos de una organización para una decisión mejor informada. El trabajo de investigación proporciona finalmente dos áreas claves para mejorar la toma de decisiones en ciberdefensa: un marco sólido y completo de verificación y validación para evaluar parámetros de soluciones y la elaboración de un conjunto de datos sintéticos que referencian unívocamente las fases de un ciberataque con los estándares Cyber Kill Chain y MITRE ATT & CK. / [CA] La present tesi doctoral realitza una anàlisi detalladament dels elements de decisió necessaris per a millorar la comprensió de la situació en ciberdefensa amb especial èmfasi en la percepció i comprensió de l'analista d'un centre d'operacions de ciberseguretat (SOC). Es proposen dues arquitectures diferents basades en l'anàlisi forense de fluxos de dades (NF3). La primera arquitectura empra tècniques de Ensemble Machine Learning mentre que la segona és una variant de Machine Learning de major complexitat algorítmica (lambda-NF3) que ofereix un marc de defensa de major robustesa enfront d'atacs adversaris. Totes dues propostes busquen automatitzar de manera efectiva la detecció de malware i la seua posterior gestió d'incidents mostrant uns resultats satisfactoris a aproximar el que s'ha denominat un SOC de pròxima generació i de computació cognitiva (NGC2SOC). La supervisió i monitoratge d'esdeveniments per a la protecció de les xarxes informàtiques d'una organització ha d'anar acompanyada de tècniques de visualització. En aquest cas, la tesi aborda la generació de representacions tridimensionals basades en mètriques orientades a la missió i procediments que usen un sistema expert basat en lògica difusa. Precisament, l'estat de l'art mostra serioses deficiències a l'hora d'implementar solucions de ciberdefensa que reflectisquen la rellevància de la missió, els recursos i comeses d'una organització per a una decisió més ben informada. El treball de recerca proporciona finalment dues àrees claus per a millorar la presa de decisions en ciberdefensa: un marc sòlid i complet de verificació i validació per a avaluar paràmetres de solucions i l'elaboració d'un conjunt de dades sintètiques que referencien unívocament les fases d'un ciberatac amb els estàndards Cyber Kill Chain i MITRE ATT & CK. / [EN] This doctoral thesis performs a detailed analysis of the decision elements necessary to improve the cyber defence situation awareness with a special emphasis on the perception and understanding of the analyst of a cybersecurity operations center (SOC). Two different architectures based on the network flow forensics of data streams (NF3) are proposed. The first architecture uses Ensemble Machine Learning techniques while the second is a variant of Machine Learning with greater algorithmic complexity (lambda-NF3) that offers a more robust defense framework against adversarial attacks. Both proposals seek to effectively automate the detection of malware and its subsequent incident management, showing satisfactory results in approximating what has been called a next generation cognitive computing SOC (NGC2SOC). The supervision and monitoring of events for the protection of an organisation's computer networks must be accompanied by visualisation techniques. In this case, the thesis addresses the representation of three-dimensional pictures based on mission oriented metrics and procedures that use an expert system based on fuzzy logic. Precisely, the state-of-the-art evidences serious deficiencies when it comes to implementing cyber defence solutions that consider the relevance of the mission, resources and tasks of an organisation for a better-informed decision. The research work finally provides two key areas to improve decision-making in cyber defence: a solid and complete verification and validation framework to evaluate solution parameters and the development of a synthetic dataset that univocally references the phases of a cyber-attack with the Cyber Kill Chain and MITRE ATT & CK standards. / Llopis Sánchez, S. (2023). Decision Support Elements and Enabling Techniques to Achieve a Cyber Defence Situational Awareness Capability [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/194242
83

Machine Learning and Multivariate Statistical Tools for Football Analytics

Malagón Selma, María del Pilar 05 October 2023 (has links)
[ES] Esta tesis doctoral se centra en el estudio, implementación y aplicación de técnicas de aprendizaje automático y estadística multivariante en el emergente campo de la analítica deportiva, concretamente en el fútbol. Se aplican procedimientos comunmente utilizados y métodos nuevos para resolver cuestiones de investigación en diferentes áreas del análisis del fútbol, tanto en el ámbito del rendimiento deportivo como en el económico. Las metodologías empleadas en esta tesis enriquecen las técnicas utilizadas hasta el momento para obtener una visión global del comportamiento de los equipos de fútbol y pretenden ayudar al proceso de toma de decisiones. Además, la metodología se ha implementado utilizando el software estadístico libre R y datos abiertos, lo que permite la replicabilidad de los resultados. Esta tesis doctoral pretende contribuir a la comprensión de los modelos de aprendizaje automático y estadística multivariante para la predicción analítica deportiva, comparando su capacidad predictiva y estudiando las variables que más influyen en los resultados predictivos de estos modelos. Así, siendo el fútbol un juego de azar donde la suerte juega un papel importante, se proponen metodologías que ayuden a estudiar, comprender y modelizar la parte objetiva de este deporte. Esta tesis se estructura en cinco bloques, diferenciando cada uno en función de la base de datos utilizada para alcanzar los objetivos propuestos. El primer bloque describe las áreas de estudio más comunes en la analítica del fútbol y las clasifica en función de los datos utilizados. Esta parte contiene un estudio exhaustivo del estado del arte de la analítica del fútbol. Así, se recopila parte de la literatura existente en función de los objetivos alcanzados, conjuntamente con una revisión de los métodos estadísticos aplicados. Estos modelos son los pilares sobre los que se sustentan los nuevos procedimientos aquí propuestos. El segundo bloque consta de dos capítulos que estudian el comportamiento de los equipos que alcanzan la Liga de Campeones o la Europa League, descienden a segunda división o permanecen en mitad de la tabla. Se proponen varias técnicas de aprendizaje automático y estadística multivariante para predecir la posición de los equipos a final de temporada. Una vez realizada la predicción, se selecciona el modelo con mejor precisión predictiva para estudiar las acciones de juego que más discriminan entre posiciones. Además, se analizan las ventajas de las técnicas propuestas frente a los métodos clásicos utilizados hasta el momento. El tercer bloque consta de un único capítulo en el que se desarrolla un código de web scraping para facilitar la recuperación de una nueva base de datos con información cuantitativa de las acciones de juego realizadas a lo largo del tiempo en los partidos de fútbol. Este bloque se centra en la predicción de los resultados de los partidos (victoria, empate o derrota) y propone la combinación de una técnica de aprendizaje automático, random forest, y la regresión Skellam, un método clásico utilizado habitualmente para predecir la diferencia de goles en el fútbol. Por último, se compara la precisión predictiva de los métodos clásicos utilizados hasta ahora con los métodos multivariantes propuestos. El cuarto bloque también comprende un único capítulo y pertenece al área económica del fútbol. En este capítulo se aplica un novedoso procedimiento para desarrollar indicadores que ayuden a predecir los precios de traspaso. En concreto, se muestra la importancia de la popularidad a la hora de calcular el valor de mercado de los jugadores, por lo que este capítulo propone una nueva metodología para la recogida de información sobre la popularidad de los jugadores. En el quinto bloque se revelan los aspectos más relevantes de esta tesis para la investigación y la analítica en el fútbol, incluyendo futuras líneas de trabajo. / [CA] Aquesta tesi doctoral se centra en l'estudi, implementació i aplicació de tècniques d'aprenentatge automàtic i estadística multivariant en l'emergent camp de l'analítica esportiva, concretament en el futbol. S'apliquen procediments comunament utilitzats i mètodes nous per a resoldre qu¿estions d'investigació en diferents àrees de l'anàlisi del futbol, tant en l'àmbit del rendiment esportiu com en l'econòmic. Les metodologies emprades en aquesta tesi enriqueixen les tècniques utilitzades fins al moment per a obtindre una visió global del comportament dels equips de futbol i pretenen ajudar al procés de presa de decisions. A més, la metodologia s'ha implementat utilitzant el programari estadístic lliure R i dades obertes, la qual cosa permet la replicabilitat dels resultats. Aquesta tesi doctoral pretén contribuir a la comprensió dels models d'aprenentatge automàtic i estadística multivariant per a la predicció analítica esportiva, comparant la seua capacitat predictiva i estudiant les variables que més influeixen en els resultats predictius d'aquests models. Així, sent el futbol un joc d'atzar on la sort juga un paper important, es proposen metodologies que ajuden a estudiar, comprendre i modelitzar la part objectiva d'aquest esport. Aquesta tesi s'estructura en cinc blocs, diferenciant cadascun en funció de la base de dades utilitzada per a aconseguir els objectius proposats. El primer bloc descriu les àrees d'estudi més comuns en l'analítica del futbol i les classifica en funció de les dades utilitzades. Aquesta part conté un estudi exhaustiu de l'estat de l'art de l'analítica del futbol. Així, es recopila part de la literatura existent en funció dels objectius aconseguits, conjuntament amb una revisió dels mètodes estadístics aplicats. Aquests models són els pilars sobre els quals se sustenten els nous procediments ací proposats. El segon bloc consta de dos capítols que estudien el comportament dels equips que aconsegueixen la Lliga de Campions o l'Europa League, descendeixen a segona divisió o romanen a la meitat de la taula. Es proposen diverses tècniques d'aprenentatge automàtic i estadística multivariant per a predir la posició dels equips a final de temporada. Una vegada realitzada la predicció, se selecciona el model amb millor precisió predictiva per a estudiar les accions de joc que més discriminen entre posicions. A més, s'analitzen els avantatges de les tècniques proposades enfront dels mètodes clàssics utilitzats fins al moment. El tercer bloc consta d'un únic capítol en el qual es desenvolupa un codi de web scraping per a facilitar la recuperació d'una nova base de dades amb informació quantitativa de les accions de joc realitzades al llarg del temps en els partits de futbol. Aquest bloc se centra en la predicció dels resultats dels partits (victòria, empat o derrota) i proposa la combinació d'una tècnica d'aprenentatge automàtic, random forest, i la regressió Skellam, un mètode clàssic utilitzat habitualment per a predir la diferència de gols en el futbol. Finalment, es compara la precisió predictiva dels mètodes clàssics utilitzats fins ara amb els mètodes multivariants proposats. El quart bloc també comprén un únic capítol i pertany a l'àrea econòmica del futbol. En aquest capítol s'aplica un nou procediment per a desenvolupar indicadors que ajuden a predir els preus de traspàs. En concret, es mostra la importància de la popularitat a l'hora de calcular el valor de mercat dels jugadors, per la qual cosa aquest capítol proposa una nova metodologia per a la recollida d'informació sobre la popularitat dels jugadors. En el cinqué bloc es revelen els aspectes més rellevants d'aquesta tesi per a la investigació i l'analítica en el futbol, incloent-hi futures línies de treball. / [EN] This doctoral thesis focuses on studying, implementing, and applying machine learning and multivariate statistics techniques in the emerging field of sports analytics, specifically in football. Commonly used procedures and new methods are applied to solve research questions in different areas of football analytics, both in the field of sports performance and in the economic field. The methodologies used in this thesis enrich the techniques used so far to obtain a global vision of the behaviour of football teams and are intended to help the decision-making process. In addition, the methodology was implemented using the free statistical software R and open data, which allows for reproducibility of the results. This doctoral thesis aims to contribute to the understanding of the behaviour of machine learning and multivariate models for analytical sports prediction, comparing their predictive capacity and studying the variables that most influence the predictive results of these models. Thus, since football is a game of chance where luck plays an important role, this document proposes methodologies that help to study, understand, and model the objective part of this sport. This thesis is structured into five blocks, differentiating each according to the database used to achieve the proposed objectives. The first block describes the most common study areas in football analytics and classifies them according to the available data. This part contains an exhaustive study of football analytics state of the art. Thus, part of the existing literature is compiled based on the objectives achieved, with a review of the statistical methods applied. These methods are the pillars on which the new procedures proposed here are based. The second block consists of two chapters that study the behaviour of teams concerning the ranking at the end of the season: top (qualifying for the Champions League or Europa League), middle, or bottom (relegating to a lower division). Several machine learning and multivariate statistical techniques are proposed to predict the teams' position at the season's end. Once the prediction has been made, the model with the best predictive accuracy is selected to study the game actions that most discriminate between positions. In addition, the advantages of our proposed techniques compared to the classical methods used so far are analysed. The third block consists of a single chapter in which a web scraping code is developed to facilitate the retrieval of a new database with quantitative information on the game actions carried out over time in football matches. This block focuses on predicting match outcomes (win, draw, or loss) and proposing the combination of a machine learning technique, random forest, and Skellam regression model, a classical method commonly used to predict goal difference in football. Finally, the predictive accuracy of the classical methods used so far is compared with the proposed multivariate methods. The fourth block also comprises a single chapter and pertains to the economic football area. This chapter applies a novel procedure to develop indicators that help predict transfer fees. Specifically, it is shown the importance of popularity when calculating the players' market value, so this chapter is devoted to propose a new methodology for collecting players' popularity information. The fifth block reveals the most relevant aspects of this thesis for research and football analytics, including future lines of work. / Malagón Selma, MDP. (2023). Machine Learning and Multivariate Statistical Tools for Football Analytics [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/197630
84

Development of Hybrid Optimization Techniques of Mechanical Components Employing the Cartesian Grid Finite Element Method

Muñoz Pellicer, David 15 February 2024 (has links)
Tesis por compendio / [ES] Esta tesis explora enfoques innovadores para la optimización estructural, abarcando una variedad de algoritmos de optimización comúnmente utilizados en el campo. Se centra específicamente en la optimización de forma (SO) y la optimización de topología (TO). La primera contribución de esta tesis gira en torno a garantizar y mantener un nivel deseado de precisión durante todo el proceso de TO y la solución propuesta. Al establecer confianza en los componentes sugeridos por el algoritmo de TO, nuestra atención puede centrarse en la siguiente contribución. La segunda contribución de esta tesis tiene como objetivo establecer una comunicación efectiva entre los algoritmos de TO y SO. Para lograr esto, nuestro objetivo es convertir directamente la distribución óptima de materiales propuesta por el algoritmo de TO en geometría. Posteriormente, optimizamos la geometría utilizando algoritmos de SO. Facilitar una comunicación fluida entre estos dos algoritmos presenta un desafío complejo, que abordamos proponiendo una metodología basada en aprendizaje automático. Este enfoque busca extraer un número reducido de modos geométricos que pueden servir como parametrización para la geometría, lo que permite su optimización mediante algoritmos de SO. Por último, la tercera contribución recoge algunas de las ideas previas y las lleva un paso hacia delante. La metodología propuesta tiene como objetivo derivar nuevos componentes a través de enfoques basados en el conocimiento existente en lugar de depender únicamente de procesos de TO basados en la física. Sostenemos que este conocimiento se puede obtener del histórico de diseños empleados por una determinada empresa, ya que retienen un valioso conocimiento inmaterial. Esta metodología también se basa en algoritmos de aprendizaje automático, pero también consideramos técnicas para analizar datos de alta dimensionalidad y estrategias de interpolación más adecuadas. / [CA] Aquesta tesi explora enfocaments innovadors per a l'optimització estructural, abastant una varietat d'algorismes d'optimització comunament utilitzats en el camp. Se centra específicament en l'optimització de forma (SO) i l'optimització de topologia (TO). La primera contribució d'aquesta tesi gira entorn de garantir i mantenir un nivell desitjat de precisió durant tot el procés de TO i la solució proposada. En establir confiança en els components suggerits per l'algorisme de TO, la nostra atenció pot centrar-se en la següent contribució. La segona contribució d'aquesta tesi té com a objectiu establir una comunicació efectiva entre els algorismes de TO i SO. Per a aconseguir això, el nostre objectiu és convertir directament la distribució òptima de materials proposta per l'algorisme de TO en geometria. Posteriorment, optimitzem la geometria utilitzant algorismes de SO. Facilitar una comunicació fluida entre aquests dos algorismes presenta un desafiament complex, que abordem proposant una metodologia basada en aprenentatge automàtic. Aquest enfocament busca extreure un nombre reduït de maneres geomètriques que poden servir com a parametrització per a la geometria, la qual cosa permet la seua optimització mitjançant algorismes de SO. Finalment, la tercera contribució recull algunes de les idees prèvies i les porta un pas cap endavant. La metodologia recomanada té com a objectiu derivar nous components a través d'enfocaments basats en el coneixement existent en lloc de dependre únicament de processos de TO basats en la física. Sostenim que aquest coneixement es pot obtenir de l'històric de dissenys emprats per una determinada empresa, ja que retenen un valuós coneixement immaterial. Aquesta metodologia també es basa en algorismes d'aprenentatge automàtic, però també considerem tècniques per a analitzar dades d'alta dimensionalitat i estratègies d'interpolació més adequades. / [EN] This thesis explores innovative approaches for structural optimization, encompassing a variety of commonly used optimization algorithms in this field. It specifically focuses on shape optimization (SO) and topology optimization (TO). The first contribution of this research revolves around ensuring and maintaining a desired level of accuracy throughout the TO process and the proposed solution. By establishing confidence in the suggested components of the TO algorithm, our attention can then shift to the subsequent contribution. The second contribution of this thesis aims to establish effective communication between TO and SO algorithms. To achieve this, our goal is to directly convert the optimal material distribution proposed by the TO algorithm into geometry. Subsequently, we optimize the geometry using SO algorithms. Facilitating seamless communication between these two algorithms presents a non-trivial challenge, which we address by proposing a machine learning-based methodology. This approach seeks to extract a reduced number of geometric modes that can serve as a parameterization for the geometry, enabling further optimization by SO algorithms. Lastly, the third contribution builds upon the previous idea, taking it a step forward. The proposed methodology aims to derive new components through knowledge-based approaches instead of relying solely on physics-based TO processes. We argue that this knowledge can be acquired from the historical designs employed by a given company as they retain invaluable immaterial know-how. This methodology also relies on machine learning algorithms, but we also consider techniques for analyzing high-dimensional data and more suitable interpolation strategies. / The authors gratefully acknowledge the financial support of Conselleria d’Educació, Investigació, Cultura i Esport, Generalitat Valenciana, project Prometeo/2016/007, Prometeo/2021/046 and CIAICO/2021/226. Ministerio de Economía, Industria y Competitividad project DPI2017-89816-R and Ministerio de Educación FPU16/07121. / Muñoz Pellicer, D. (2024). Development of Hybrid Optimization Techniques of Mechanical Components Employing the Cartesian Grid Finite Element Method [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202661 / Compendio
85

Threat Hunting basado en técnicas de Inteligencia Artificial

Aragonés Lozano, Mario 23 May 2024 (has links)
[ES] Tanto la cantidad como la tipología de los ciberataques va en aumento día a día y la tendencia es que continúen creciendo de forma exponencial en los próximos años. Estos ciberataques afectan a todos los dispositivos, independientemente de si su propietario es un particular (o ciudadano), una empresa privada, un organismo público o una infraestructura crítica y los objetivos de estos ataques son muchos, desde la solicitud de una recompensa económica hasta el robo de información clasificada. Dado este hecho, los individuos, las organizaciones y las corporaciones deben tomar medidas para prevenirlos y, en caso de que en algún momento los reciban, analizarlos y reaccionar en caso de que fuese necesario. Cabe destacar que aquellos ataques que buscan ser más eficientes, son capaces de ocultarse un largo tiempo, incluso después de sus acciones iniciales, por lo que la detección del ataque y el saneamiento del sistema puede llegar a dificultarse a niveles insospechados o, incluso, no tenerse la certeza de que se ha hecho correctamente. Para prevenir, analizar y reaccionar ante los ataques más complejos, normalmente conocidos como ataques de día cero, las organizaciones deben tener ciberespecialistas conocidos como cazadores de amenazas. Éstos son los encargados de monitorizar los dispositivos de la empresa con el objetivo de detectar comportamientos extraños, analizarlos y concluir si se está produciendo un ataque o no con la finalidad de tomar decisiones al respecto. Estos ciberespecialistas deben analizar grandes cantidades de datos (mayormente benignos, repetitivos y con patrones predecibles) en cortos periodos de tiempo para detectar ciberataques, con la sobrecarga cognitiva asociada. El uso de inteligencia artificial, específicamente aprendizaje automático y aprendizaje profundo, puede impactar de forma notable en el análisis en tiempo real de dichos datos. Además, si los ciberespecialistas son capaces de visualizar los datos de forma correcta, éstos pueden ser capaces de obtener una mayor consciencia situacional del problema al que se enfrentan. Este trabajo busca definir una arquitectura que contemple desde la adquisición de datos hasta la visualización de los mismos, pasando por el procesamiento de éstos y la generación de hipótesis acerca de lo que está sucediendo en la infraestructura monitorizada. Además, en la definición de la misma se deberá tener en consideración aspectos tan importantes como la disponibilidad, integridad y confidencialidad de los datos, así como la alta disponibilidad de los distintos componentes que conformen ésta. Una vez definida la arquitectura, este trabajo busca validarla haciendo uso de un prototipo que la implemente en su totalidad. Durante esta fase de evaluación, es importante que quede demostrada la versatilidad de la arquitectura propuesta para trabajar en diferentes casos de uso, así como su capacidad para adaptarse a los cambios que se producen en las distintas técnicas de aprendizaje automático y aprendizaje profundo. / [CA] Tant la quantitat com la tipologia dels ciberatacs va en augment dia a dia i la tendència és que continuen creixent de manera exponencial en els pròxims anys. Aquestos ciberatacs afecten a tots els dispositius, independentment de si el seu propietari és un particular (o ciutadà), una empresa privada, un organisme públic o una infraestructura crítica i els objectius d'aquestos atacs són molts, des de la sol·licitud d'una recompensa econòmica fins al robatori d'informació classificada. Donat aquest fet, els individus, les organitzacions i les corporacions deuen prendre mesures per a previndre'ls i, en cas que en algun moment els reben, analitzar-los i reaccionar en cas que fora necessari. Cal destacar que aquells atacs que busquen ser més eficients, són capaços d'ocultar-se un llarg temps, fins i tot després de les seues accions inicials, per la qual cosa la detecció de l'atac i el sanejament del sistema pot arribar a dificultar-se a nivells insospitats o, fins i tot, no tindre's la certesa que s'ha fet correctament. Per a previndre, analitzar i reaccionar davant els atacs més complexos, normalment coneguts com a atacs de dia zero, les organitzacions han de tindre ciberespecialistes coneguts com caçadors d'amenaces. Aquestos són els encarregats de monitoritzar els dispositius de l'empresa amb l'objectiu de detectar comportaments estranys, analitzar-los i concloure si s'està produint un atac o no amb la finalitat de prendre decisions al respecte. Aquestos ciberespecialistes han d'analitzar grans quantitats de dades (majoritàriament benignes, repetitives i amb patrons predictibles) en curts períodes de temps per a detectar els ciberatacs, amb la sobrecàrrega cognitiva associada. L'ús d'intel·ligència artificial, específicament aprenentatge automàtic i aprenentatge profund, pot impactar de manera notable en l'anàlisi en temps real d'aquestes dades. A més, si els ciberespecialistes són capaços de visualitzar les dades de manera correcta, aquestos poden ser capaços d'obtindre una major consciència situacional del problema al qual s'enfronten. Aquest treball busca definir una arquitectura que contemple des de l'adquisició de dades fins a la visualització d'aquestes, passant pel processament de la informació recol·lectada i la generació d'hipòtesis sobre el que està succeint en la infraestructura monitoritzada. A més, en la definició de la mateixa s'haurà de tindre en consideració aspectes tan importants com la disponibilitat, integritat i confidencialitat de les dades, així com la alta disponibilitat dels diferents components que conformen aquesta. Una volta s'hatja definit l'arquitectura, aquest treball busca validar-la fent ús d'un prototip que la implemente íntegrament. Durant aquesta fase d'avaluació, és important que quede demostrada la versatilitat de l'arquitectura proposada per a treballar en diferents casos d'ús, així com la seua capacitat per a adaptar-se als canvis que es produïxen en les diferents tècniques d'aprenentatge automàtic i aprenentatge profund. / [EN] Both the number and type of cyber-attacks are increasing day by day and the trend is that they will continue to grow exponentially in the coming years. These cyber-attacks affect all devices, regardless of whether the owner is an individual (or citizen), a private company, a public entity or a critical infrastructure, and the targets of these attacks are many, ranging from the demand for financial reward to the theft of classified information. Given this fact, individuals, organisations and corporations must take steps to prevent them and, in case they ever receive them, analyse them and react if necessary. It should be noted that those attacks that seek to be more efficient are able to hide for a long time, even after their initial actions, so that the detection of the attack and the remediation of the system can become difficult to unsuspected levels or even uncertain whether it has been done correctly. To prevent, analyse and react to the most complex attacks, usually known as zero-day attacks, organisations must have cyber-specialists known as threat hunters. They are responsible for monitoring the company's devices in order to detect strange behaviours, analyse it and conclude whether or not an attack is taking place in order to make decisions about it. These cyber-specialists must analyse large amounts of data (mostly benign, repetitive and with predictable patterns) in short periods of time to detect cyber-attacks, with the associated cognitive overload. The use of artificial intelligence, specifically machine learning and deep learning, can significantly impact the real-time analysis of such data. Not only that, but if these cyber-specialists are able to visualise the data correctly, they may be able to gain greater situational awareness of the problem they face. This work seeks to define an architecture that contemplates from data acquisition to data visualisation, including data processing and the generation of hypotheses about what is happening in the monitored infrastructure. In addition, the definition of the architecture must take into consideration important aspects such as the availability, integrity and confidentiality of the data, as well as the high availability of the different components that make it up. Once the architecture has been defined, this work seeks to validate it by using a prototype that fully implements it. During this evaluation phase, it is important to demonstrate the versatility of the proposed architecture to work in different use cases, as well as its capacity to adapt to the changes that occur in the different machine learning and deep learning techniques. / Aragonés Lozano, M. (2024). Threat Hunting basado en técnicas de Inteligencia Artificial [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/204427
86

Plan de negocio para crear una plataforma M-learning que brinde asesorías pedagógicas en Lima, 2021

Solano Levano, Eric Grey, Flores Chong, Luy Lam, Murrugarra Murga, Sara Victoria, Abanto Lara, Yissella 10 September 2022 (has links)
El objetivo principal de esta investigación fue desarrollar una propuesta de negocio para la creación de una plataforma de ventas de cursos online dirigida inicialmente a docentes, estudiantes y empresas privadas interesadas en la formación y/o asesoramiento en áreas de administración, economía e informática. Inicialmente solo se espera interactuar con la demanda en el departamento de Lima, para posteriormente lograr posicionamiento a nivel nacional y luego de cinco años incursionar en el mercado internacional. La educación siempre ha sido un pilar fundamental para la sociedad y tras el escenario del covid-19, al igual que otras actividades se vio interrumpida. Acentuándose así una creciente necesidad, sobre todo en aquella población tanto de alumnos como de profesores, que aún seguía bajo metodologías de formación tradicional. Esto hizo que los métodos de aprendizaje digital acelerarán su globalización, puesto que actualmente utilizar internet es prácticamente de carácter necesario para la mayoría de actividades cotidianas, entre ellas la educación. En nuestro caso la capacitación on-line ha desencadenado que la formación sea cada más accesible desde el punto de vista técnico y económico, ya que, en cualquier parte del mundo, una persona con un dispositivo inteligente y conectividad a internet puede recibir asesoría o capacitación de calidad con tasas de inversión bajas o gratuitas. En la presente investigación se analizan escenarios y estrategias para la puesta en marcha de una empresa, que brindará servicios de asesorías pedagógicas en Lima, bajo la metodología M-learning, considerando aspectos, económicos, financieros y técnicos para lograr un negocio sólido. Junto a ello un estudio de mercado que muestra la factibilidad de incursionar en este sector. Concluyendo con una propuesta viable que arroja un Valor Actual Neto Económico (VANE) de S /. 373 '010.91 y una Tasa Interna de Retorno del 292.22%, cuyas cifras hacen factible la puesta en marcha de la propuesta.
87

Comparación de modelos scoring para la estimación de probabilidad de default

Bravo Castro, Gerson Enrique 11 January 2022 (has links)
El presente trabajo propone el desarrollo de modelos machine learning para la estimación de la probabilidad de default, que ayuden a reducir los niveles de deterioro de las carteras de créditos de consumo de las instituciones financieras de Perú, las cuales basan sus políticas de créditos en los modelos econométricos tradicionales como la regresión logística. Las variables que mejor explican la probabilidad de default están relacionadas a la evolución de niveles de endeudamiento y la historia de comportamiento de pago en el sistema financiero. Los modelos Random Forest (Bagging) y XGBoost (Boosting) presentan mejores niveles de discriminación y predictibilidad que el modelo tradicional, asimismo, se demuestra que estos modelos machine learning se complementan muy bien con el modelo tradicional dado que permiten identificar conjuntos de intercambio de deudores con menor riesgo por deudores de mayor riesgo calificados por el modelo tradicional. Adicionalmente, estos modelos machine learning permiten una vista complementaria al momento de identificar los perfiles con mayor riesgo ya que metodológicamente no se basan en la identificación de patrones promedio como la regresión logística tradicional.
88

Plan y diseño de la puesta en marcha del negocio: Sistema de inteligencia financiera para pymes

Contreras Iglesias, Anguie María del Milagro, Contreras Miranda, Milagros Asunción Sarita, Andoa Llallico, Gerardo Manuel 13 December 2021 (has links)
Según el Ministerio de Comercio Exterior y Turismo (Mincetur), al 2019, el mercado empresarial estaba integrado en un 94% por microempresas; 4.5%, pequeñas y medianas empresas (Pymes); y solo un 0.5%, por grandes empresas (Produce, 2020), lo cual demuestra que la economía peruana es sostenida principalmente por el sector microempresa y pyme. Sin embargo, estos sectores no han logrado crecer y convertirse en una gran empresa, ya que lograr dicho objetivo depende no solo de las oportunidades del mercado, sino también de las habilidades del emprendedor, conocimiento del negocio, capacidad de gestión y conocimiento financiero (Izquierdo, 2019). Por ello, como han expuesto diferentes autores, los medianos, pequeños y microempresarios, para crear valor tienen que enfrentarse a un complejo ambiente externo y, por otro lado, también buscar resaltar en un ambiente interno siempre retador. Cabe resaltar que, por creación de valor, se entiende cuando la rentabilidad económica ha sido superior al costo de los recursos económicos utilizados durante un período. Sin embargo, para los emprendedores no es fácil analizar el estado de sus negocios mientras operan, debido a sus carencias en gestión financiera; comprendiéndose esta última como una buena gestión financiera basada en información interna o externa que crea valor para la compañía, maximizando su rentabilidad por encima del costo de oportunidad. Si bien con el tiempo los empresarios desarrollan buenas habilidades de gestión y profundo conocimiento de sus negocios, no logran generar buenas prácticas financieras debido a que se acostumbran a tercerizarlas y mantenerlas solo con el fin de cumplimiento fiscal; menospreciando, así, las eficiencias que pueden generarse a través de la buena gestión financiera. En ese sentido, considerando esta debilidad, la presente idea de negocio parte del supuesto de que uno de los factores que limitan el crecimiento de las Pymes está relacionado con la falta de una buena gestión financiera, por lo que se presenta una propuesta de solución que busca facilitar la gestión financiera a todo tipo de empresario y que, luego de usarla, las empresas consideren a las finanzas como un pilar dentro de sus estrategias y gestión. Por ello, se consideró que la solución más eficiente es crear una plataforma al alcance del presupuesto de las Pymes, que permita incrementar las posibilidades de crecimiento y éxito de sus negocios. La plataforma estará construida considerando nuevas tecnologías digitales como Business Intelligence, Data Analytics y Machine Learning, para facilitar el entendimiento de las finanzas. Es decir, se busca que el producto sea un sistema de asesoría inteligente que facilite la gestión financiera del usuario bajo una relación ganar ganar, donde el usuario, empresa o emprendedor recibirá soporte constante con consejos automatizados y personalizados. En contraparte, esta propuesta logrará ser rentable y tener un valor económico mayor a la inversión inicial, alcanzando un VAN de USD 672 mil. / According to Mincetur, as of 2019, 94% of the business market are microenterprises, 4.5% are small and medium-sized enterprises (hereinafter Pymes) and only 0.5% are considered big enterprises (Produce, 2020), demonstrating that the Peruvian economy is mainly sustained by the microenterprise and Pyme sector. Nevertheless, these sectors have not managed to grow and become a big enterprise, since achieving such a goal depends not only on market opportunities, but also on the entrepreneur's skills, business knowledge, management skills and financial knowledge. (Izquierdo, 2019). Therefore, as different authors have explained, to create value, medium, small, and micro-businesses must face a complex external environment and, on the other hand, they also seek to stand out in an internal environment that is always challenging. It should also be noted that value creation is understood as when the economic profitability has been higher than the cost of the economic resources used during a period. However, it is not easy for businesspersons to analyze the state of their businesses while they are operating due to their flaws in financial management. And good financial management is understood as any decision based on internal or external information that creates value in the company, maximizing its profitability above the opportunity cost. In addition, although over time entrepreneurs develop good management skills and deep knowledge of their business, they fail to generate good financial practices because they tend to outsource financial activities and keep them only for tax compliance purposes, thus underestimating the efficiencies that can be generated through good financial management. In this sense, considering this weakness, this business idea assumes that one of the factors that limit the growth of Pymes is related to the lack of good financial management. And a solution proposal is submitted that seeks to facilitate financial management to all types of entrepreneurs and that, after using it, companies consider finances as a pillar within their strategies and management. Therefore, it was considered that the most efficient solution is to create a platform within the reach of the Pymes' budget, which will increase the possibilities of growth and success of their businesses. The platform will be built considering new digital technologies such as business intelligence, data analytics and machine learning, facilitating the understanding of finances. In other words, the product is intended to be an intelligent advisory system that facilitates the user's financial management under a win-win relationship, where the user, company or entrepreneur will receive constant support to entrepreneurs with automated and personalized advice, while the company will become profitable and an economic value greater than the initial investment, reaching an NPV of 672 thousand dollars.
89

Técnicas de Sistemas Automáticos de Soporte Vectorial en la Réplica del Rating Crediticio

Campos Espinoza, Ricardo Álex 10 July 2012 (has links)
La correcta qualificació de risc de crèdit d'un emissor és un factor crític en l’economia actual. Aquest és un punt d’acord entre professionals i acadèmics. Actualment, des dels mitjans de comunicació s’han difós sovint notícies d'impacte provocades per agències de ràting. És per aquest motiu que treball d'anàlisi realitzat per experts financers aporta importants recursos a les empreses de consultoria d'inversió i agències qualificadores. Avui en dia, hi ha molts avenços metodològics i tècnics que permeten donar suport a la tasca que fan els professionals de la qualificació de la qualitat de crèdit dels emissors. Tanmateix encara queden molts buits per completar i àrees a desenvolupar per tal què aquesta tasca sigui tan precisa com cal. D'altra banda, els sistemes d'aprenentatge automàtic basats en funcions nucli, particularment les Support Vector Machines (SVM), han donat bons resultats en problemes de classificació quan les dades no són linealment separables o quan hi ha patrons amb soroll. A més, al usar estructures basades en funcions nucli és possible tractar qualsevol espai de dades, ampliant les possibilitats per trobar relacions entre els patrons, tasca que no resulta fàcil amb tècniques estadístiques convencionals. L’objectiu d'aquesta tesi és examinar les aportacions que s'han fet en la rèplica de ràting, i alhora, examinar diferents alternatives que permetin millorar l'acompliment de la rèplica amb SVM. Per a això, primer s'ha revisat la literatura financera amb la idea d'obtenir una visió general i panoràmica dels models usats per al mesurament del risc de crèdit. S'han revisat les aproximacions de mesurament de risc de crèdit individuals, utilitzades principalment per a la concessió de crèdits bancaris i per l'avaluació individual d'inversions en títols de renda fixa. També s'han revisat models de carteres d'actius, tant aquells proposats des del món acadèmic com els patrocinats per institucions financeres. A més, s'han revisat les aportacions dutes a terme per avaluar el risc de crèdit usant tècniques estadístiques i sistemes d'aprenentatge automàtic. S'ha fet especial èmfasi en aquest últim conjunt de mètodes d'aprenentatge i en el conjunt de metodologies usades per realitzar adequadament la rèplica de ràting. Per millorar l'acompliment de la rèplica, s'ha triat una tècnica de discretització de les variables sota la suposició que, per emetre l'opinió tècnica del ràting de les companyies, els experts financers en forma intuïtiva avaluen les característiques de les empreses en termes intervalars. En aquesta tesi, per fer la rèplica de ràting, s'ha fet servir una mostra de dades de companyies de països desenvolupats. S'han usat diferents tipus de SVM per replicar i s'ha exposat la bondat dels resultats d'aquesta rèplica, comparant-la amb altres dues tècniques estadístiques àmpliament usades en la literatura financera. S'ha concentrat l'atenció de la mesura de la bondat de l'ajust dels models en les taxes d'encert i en la forma en què es distribueixen els errors. D'acord amb els resultats obtinguts es pot sostenir que l'acompliment de les SVM és millor que el de les tècniques estadístiques usades en aquesta tesi, i després de la discretització de les dades d'entrada s'ha mostrat que no es perd informació rellevant en aquest procés. Això contribueix a la idea que els experts financers instintivament realitzen un procés similar de discretització de la informació financera per lliurar la seva opinió creditícia de les companyies qualificades. / La correcta calificación de riesgo crediticio de un emisor es un factor crítico en nuestra actual economía. Profesionales y académicos están de acuerdo en esto, y los medios de comunicación han difundido mediáticamente eventos de impacto provocados por agencias de rating. Por ello, el trabajo de análisis del deudor realizado por expertos financieros conlleva importantes recursos en las empresas de consultoría de inversión y agencias calificadoras. Hoy en día, muchos avances metodológicos y técnicos permiten el apoyo a la labor que hacen los profesionales en de calificación de la calidad crediticia de los emisores. No obstante aún quedan muchos vacíos por completar y áreas que desarrollar para que esta tarea sea todo lo precisa que necesita. Por otra parte, los sistemas de aprendizaje automático basados en funciones núcleo, particularmente las Support Vector Machines (SVM), han dado buenos resultados en problemas de clasificación cuando los datos no son linealmente separables o cuando hay patrones ruidosos. Además, al usar estructuras basadas en funciones núcleo resulta posible tratar cualquier espacio de datos, expandiendo las posibilidades para encontrar relaciones entre los patrones, tarea que no resulta fácil con técnicas estadísticas convencionales. El propósito de esta tesis es examinar los aportes que se han hecho en la réplica de rating, y a la vez, examinar diferentes alternativas que permitan mejorar el desempeño de la réplica con SVM. Para ello, primero se ha revisado la literatura financiera con la idea de obtener una visión general y panorámica de los modelos usados para la medición del riesgo crediticio. Se han revisado las aproximaciones de medición de riesgo crediticio individuales, utilizadas principalmente para la concesión de créditos bancarios y para la evaluación individual de inversiones en títulos de renta fija. También se han revisado modelos de carteras de activos, tanto aquellos propuestos desde el mundo académico como los patrocinados por instituciones financieras. Además, se han revisado los aportes llevados a cabo para evaluar el riesgo crediticio usando técnicas estadísticas y sistemas de aprendizaje automático. Se ha hecho especial énfasis en este último conjunto de métodos de aprendizaje y en el conjunto de metodologías usadas para realizar adecuadamente la réplica de rating. Para mejorar el desempeño de la réplica, se ha elegido una técnica de discretización de las variables bajo la suposición de que, para emitir la opinión técnica del rating de las compañías, los expertos financieros en forma intuitiva evalúan las características de las empresas en términos intervalares. En esta tesis, para realizar la réplica de rating, se ha usado una muestra de datos de compañías de países desarrollados. Se han usado diferentes tipos de SVM para replicar y se ha expuesto la bondad de los resultados de dicha réplica, comparándola con otras dos técnicas estadísticas ampliamente usadas en la literatura financiera. Se ha concentrado la atención de la medición de la bondad del ajuste de los modelos en las tasas de acierto y en la forma en que se distribuyen los errores. De acuerdo con los resultados obtenidos se puede sostener que el desempeño de las SVM es mejor que el de las técnicas estadísticas usadas en esta tesis; y luego de la discretización de los datos de entrada se ha mostrado que no se pierde información relevante en dicho proceso. Esto contribuye a la idea de que los expertos financieros instintivamente realizan un proceso similar de discretización de la información financiera para entregar su opinión crediticia de las compañías calificadas. / Proper credit rating of an issuer is a critical factor in our current economy. Professionals and academics agree on this, and the media have spread impact events caused by rating agencies. Therefore, the analysis performed by the debtor's financial experts has significant resources on investment consulting firms and rating agencies. Nowadays, many methodological and technical exist to support the professional qualification of the credit quality of issuers. However there are still many gaps to complete and areas to develop for this task to be as precise as needed. Moreover, machine learning systems based on core functions, particularly Support Vector Machines (SVM) have been successful in classification problems when the data are not linearly separable or when noisy patterns are used. In addition, by using structures based on kernel functions is possible to treat any data space, expanding the possibilities to find relationships between patterns, a task that is not easy with conventional statistical techniques. The purpose of this thesis is to examine the contributions made in the replica of rating, and, to look at different alternatives to improve the performance of prediction with SVM. To do this, we first reviewed the financial literature and overview the models used to measure credit risk. We reviewed the approaches of individual credit risk measurement, used principally for the lending bank and the individual assessment of investments in fixed income securities. Models based on portfolio of assets have also been revised, both those proposed from academia such as those used by financial institutions. In addition, we have reviewed the contributions carried out to assess credit risk using statistical techniques and machine learning systems. Particular emphasis has been placed on learning methods methodologies used to perform adequately replicate rating. To improve the performance of replication, a discretization technique has been chosen for the variables under the assumption that, for the opinion of the technical rating companies, financial experts intuitively evaluate the performances of companies in intervalar terms. In this thesis, for rating replication, we used a data sample of companies in developed countries. Different types of SVM have been used to replicate and discussed the goodness of the results of the replica, compared with two other statistical techniques widely used in the financial literature. Special attention has been given to measure the goodness of fit of the models in terms of rates of success and how they errors are distributed. According to the results it can be argued that the performance of SVM is better than the statistical techniques used in this thesis. In addition, it has been shown that in the process of discretization of the input data no-relevant information is lost. This contributes to the idea that financial experts instinctively made a similar process of discretization of financial information to deliver their credit opinion of the qualified companies.
90

Automatic acquisition of semantic classes for adjectives

Boleda Torrent, Gemma 18 April 2007 (has links)
Aquesta tesi tracta l'adquisició automàtica de classes semàntiques per a adjectius. La tesi es basa en dues hipòtesis. La primera, que alguns aspectes de la semàntica dels adjectius no són totalment impredictibles, sinó que corresponen a un conjunt de tipus denotacionals, o classes semàntiques. En conseqüència, els adjectius es poden agrupar en funció de la seva classe semàntica. La segona hipòtesi de treball és que la classe semàntica es reflecteix en més d'un nivell de descripció lingüística. Les interfícies entre morfologia i semàntica i entre sintaxi i semàntica són les que s'exploren en detall a la tesi. Com que no ens podíem basar en una classificació establerta prèviament, bona part dels esforços van dirigits precisament a definir una classificació adequada. La proposta de classificació s'assoleix mitjançant una metodologia iterativa. Es combinen aproximacions deductives i inductives, cosa que permet evolucionar d'una classificació inicial basada en la bibliografia teòrica a una classificació final que té en compte els resultats empírics dels diversos experiments. / Esta tesis versa sobre la adquisición automática de clases semánticas para adjetivos. La tesis se basa en dos hipótesis. La primera, que algunos aspectos de la semántica de los adjetivos no son totalmente impredecibles, sino que corresponden a un conjunto de tipos denotacionales, o clases semánticas. En consecuencia, los adjetivos se pueden agrupar en función de su clase semántica. La segunda hipótesis de trabajo es que la clase semántica se refleja en más de un nivel de descripción lingüística. Las interfaces entre morfología y semántica y entre sintaxis y semántica son las que se exploran en detalle en la tesis. Dado que no nos podíamos basar en una clasificación establecida previamente, buena parte de los esfuerzos van dirigidos precisamente a definir una clasificación adecuada. La propuesta de clasificación se logra mediante una metodología iterativa. Se combinan aproximaciones deductivas e inductivas, cosa que permite evolucionar de una clasificación inicial basada en la bibliografía teórica a una clasificación final que tiene en cuenta los resultados empíricos de los diversos experimentos. / This thesis concerns the automatic acquisition of semantic classes for adjectives. Our work builds on two hypotheses: first, that some aspects of the semantics of adjectives are not totally unpredictable, but correspond to a set of denotational types (semantic classes). Therefore, adjectives can be grouped together according to their semantic class. Second, that the semantic class of an adjective can be traced in more than one linguistic level. In particular, the morphology-semantics and syntax-semantics interfaces are explored for clues that lead to the acquisition of the targeted semantic classes.Since we could not rely on a previously established classification, a major effort is devoted to defining an adequate classification. The classification proposal is reached through an iterative methodology. By combining deductive and inductive approaches, we evolve from an initial classification based on literature review to a final classification proposal that takes advantage of the insight gained through a set of experiments.

Page generated in 0.1131 seconds