• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 352
  • 313
  • 107
  • 2
  • 2
  • 1
  • Tagged with
  • 777
  • 777
  • 214
  • 145
  • 143
  • 127
  • 126
  • 126
  • 126
  • 126
  • 111
  • 103
  • 98
  • 96
  • 92
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
541

A methodology for the visual comprehension of Big Data

Lavalle, Ana 15 July 2021 (has links)
En una era donde el análisis del Big Data está a la orden del día, la analítica visual se convierte en un componente clave. Sin embargo, establecer unos objetivos analíticos y encontrar las visualizaciones que mejor se adapten a un contexto determinado es una tarea desafiante, especialmente cuando se trata con usuarios no expertos en visualización de datos. El uso de un tipo de visualización inadecuado puede llevar a malinterpretar los datos y a tomar decisiones equivocadas, provocando pérdidas significativas. Por ello, el objetivo principal de la presente tesis doctoral es definir una metodología que agrupe una serie de técnicas y aproximaciones para mejorar la comprensión visual de Big Data. En concreto, se han analizado las necesidades actuales en la toma de requisitos para la generación de visualizaciones y se ha propuesto una metodología completa, desde la definición de requisitos hasta la implementación de visualizaciones, que guía al usuario en la definición de sus objetivos analíticos y genera automáticamente la mejor visualización para cada uno, agrupando dichas visualizaciones en cuadros de mandos. La metodología está compuesta por (i) un modelo de requisitos de usuario, (ii) un modelo de perfilado de datos que extrae de forma semiautomática información sobre las características de las fuentes de datos y (iii) un modelo de visualización de datos. Nuestra propuesta ha sido evaluada y aplicada en distintos ámbitos, tales como ciudades inteligentes, procesos de producción industrial y entornos sanitarios. Además, con los resultados obtenidos y que se presentan en el trabajo, podemos concluir que se logra el objetivo principal del estudio, ya que, en línea con los experimentos realizados en el núcleo de la presente tesis doctoral, nuestra propuesta: (i) permite a los usuarios cubrir más cuestiones analíticas; (ii) mejora el conjunto de visualizaciones generadas; (iii) produce una mayor satisfacción general en los usuarios. La investigación realizada en la presente tesis doctoral ha dado como resultado diferentes artículos científicos que han sido presentados en congresos internacionales y revistas científicas de alto impacto, es por ello por lo que se elige presentar la tesis doctoral por compendio de publicaciones.
542

Solución de inteligencia de negocios para el control de incidencias de seguridad de las unidades mineras de una empresa

Jáuregui Hernández, Joel, Moncada Flores, María Angélica January 2013 (has links)
Surge como una necesidad de mejorar el control de incidencias de seguridad en el área de riesgos y seguridad de la empresa, dado que no existe confiabilidad en la información, se invierte grandes cantidades de tiempo en la generación de reportes y no existe un repositorio con data histórica. El procedimiento actual de los usuarios de dicha área es recepcionar, clasificar y depurar los informes de los usuarios encargados de cada unidad minera para luego generar los reportes que presentará a quien lo requiera. Este procedimiento no ayuda a tomar decisiones adecuadas por parte de la gerencia. Es por ello que se plantea una solución de inteligencia de negocios que permitirá un mejor control de las incidencias. Se utilizará la metodología CRISP-DM. / Trabajo de suficiencia profesional
543

Modelamiento del proceso de difusión de productos editoriales basado en árboles de decisión

Farfan Jimenes, Luis Carlos January 2012 (has links)
Realiza el modelado de un proceso de difusión de productos editoriales utilizando métodos de Inteligencia artificial como son los árboles de decisión, para poder ajustar con la mayor precisión el reparto de los productos entre los distintos Puntos de Ventas distribuidos geográficamente por todo el territorio Nacional. El análisis se basa en la identificación de los principales indicadores que influyen positiva o negativamente en comportamiento de su la venta. El objetivo es que al modelar el proceso este permita automatizar y optimizar el reparto de productos a cada punto de venta, poder predecir con más precisión el comportamiento de ventas de cada Punto de venta y con ello poder tomar mejores tomas de decisión a la hora de realizar una difusión de productos. Se utiliza el método de árboles binarios porque es un método de predicción que nos ayuda en base a atributos que componen una situación descrita y que a partir de esta nos da una respuesta la cual traducimos en una toma de decisión. / Trabajo de suficiencia profesional
544

Machine Learning para predecir la morosidad en créditos MYPEs de la Caja Metropolitana de Lima

Alva Ranilla, Mayra Yessica, Tamashiro Wong, Keiko Cecilia January 2012 (has links)
Publicación a texto completo no autorizada por el autor / Propone el uso de una red neuronal (Perceptrón multicapa) para predecir el comportamiento de una MYPE respecto a la morosidad en el pago de sus créditos, permitiendo así anticipar y minimizar los efectos desfavorables en la eco nomía y gestión de la Caja Metropolitana de Lima. Se aplicó la metodología CRISP-DM para elaborar el modelo de la red neuronal. La implementación de la red se realizó utilizando el software WEKA como herramienta de análisis y procesamiento de datos. El sistema se desarrolló bajo la plataforma Java. En el software Weka se realizó el entrenamiento y validación de los datos, obteniéndose como resultado final de la validación del modelo de red neuronal una tasa de error de 1.25% / Tesis
545

Sistemas de ayuda a la decisión clínica en enfermedades de diagnóstico complejo

Monsalve Torra, Ana 24 February 2017 (has links)
El trabajo de investigación presentado en esta tesis doctoral aborda el uso de algoritmos de inteligencia artificial y su aplicación en los sistemas de ayuda para la toma de decisiones en enfermedades de diagnóstico complejo. La dificultad en la gestión clínica de dichas enfermedades requiere un trabajo en conjunto (área de salud e ingeniería informática) y un intercambio de conocimientos, experiencias e información que permita obtener mejores resultados en el proceso de atención de los enfermos. La creación de sistemas que contribuyan en la toma de decisiones tiene como propósito mejorar la calidad de los procesos médico-asistenciales en la predicción y clasificación de enfermedades buscando enriquecer el cuidado de los pacientes. Dichos sistemas de ayuda tienen tres componentes fundamentales: base de datos (información del paciente), algoritmos de inteligencia artificial y usuarios (médicos, personal asistencial, etc.). La integración de los componentes mencionados trae mejoras en la atención de los pacientes, la reducción de errores médicos, diagnósticos y protocolos clínicos más acertados, agilidad en los procesos, prevención de eventos adversos, entre otros. Dada la gran variedad de datos que se recogen en la historia clínica, extraer conocimiento de ellos es una tarea muy difícil de realizar con los métodos tradicionales. Por este motivo se han incorporado redes neuronales artificiales, redes bayesianas y árboles de decisión en el campo médico, logrando importantes contribuciones. En esta tesis doctoral estos modelos se han utilizado en la clasificación del riesgo en cirugía cardíaca y en la predicción de la mortalidad hospitalaria. Los modelos han sido evaluados teniendo en cuenta su precisión, sensibilidad, especificidad. Tales clasificadores son sensibles cuando los datos presentan un alto contenido de ruido, datos incompletos, duplicidad de las variables, texto, amplio rango de magnitudes, etc. Para solucionar estos problemas, se han utilizado herramientas para el preprocesado de los datos, como la normalización, discretización e imputación de datos. Cuando estas fueron aplicadas se observó una mejora en los resultados. Otra dificultad que tienen las bases de datos médicas es la alta dimensionalidad. Por lo tanto, se ha optado por la aplicación de técnicas de selección de características principales y por el análisis de cada una de las variables para evitar la duplicidad de la información. Estas técnicas han mejorado notablemente el desempeño de los clasificadores. En cuanto a los algoritmos utilizados en este trabajo se ha evidenciado un buen resultado en la clasificación de enfermedades y en la predicción de la mortalidad hospitalaria. Para clasificar el riesgo de cirugía cardíaca pediátrica en tres categorías (alto, medio y bajo) se han implementado el perceptrón multicapa, mapas autoorganizados, redes de función de base radial y árboles de decisión. Los resultados muestran que las redes neuronales presentan un buen desempeño con una precisión entre el 81.7% y 99.8%, mientras que los árboles de decisión produjeron errores más elevados en la clasificación. Una adecuada clasificación del riesgo quirúrgico permite al personal médico y asistencial mejorar el plan de atención y por lo tanto reducir las posibles complicaciones y el riesgo de muerte. Teniendo en cuenta esto, los árboles de decisión no son los más adecuados para la clasificación del riesgo, sin embargo presentan excelentes resultados cuando se trata de un resultado binario. Los algoritmos usados para la predicción de la mortalidad hospitalaria de los pacientes operados de reparación abierta de aneurisma de aorta abdominal han sido el perceptrón multicapa, las redes de función de base radial y las redes bayesianas. Esta parte de la investigación fue desarrollada en dos fases: en la primera fase, la implementación se llevó a cabo utilizando todas las variables de la base de datos. En la segunda fase, se emplearon técnicas de selección de características principales. Los resultados generales respecto a la precisión de los algoritmos en las dos fases fueron entre 91.2% y 96.4%. La diferencia de las pruebas radica en los valores de sensibilidad y especificidad, pues en la primera fase la sensibilidad y especificidad muestran valores entre 52.1% y 72% y entre 92.6% y 97%, respectivamente. En la segunda fase, en la cual se aplicó un método de selección de características y una combinación de todos los algoritmos, se observó un aumento en la sensibilidad con valores entre el 65.5% y 86.8%, es decir, que los algoritmos mejoraron la capacidad para predecir la mortalidad hospitalaria. El algoritmo que mostró el mejor resultado en todas las pruebas realizadas fue la red bayesiana. El desarrollo de un sistema de ayuda para la toma de decisiones clínicas basado en los métodos de aprendizaje mencionados en este trabajo podría mejorar la clasificación del riesgo en cirugía y la predicción de mortalidad hospitalaria. Además, el sistema sería útil para que los médicos y el personal asistencial puedan evaluar a tiempo el impacto de las decisiones y dar prioridad a las actividades de prevención de eventos adversos.
546

Modelos neuronales basados en la metaplasticidad para la ayuda al diagnóstico clínico

Vives-Boix, Víctor 03 December 2021 (has links)
La inteligencia artificial tiene el potencial de transformar radicalmente la asistencia sanitaria aportando gran rapidez en la gestión de la información que manejan los profesionales y repercutiendo directamente en sus actuaciones. Los estudios más recientes sobre el rol actual de la inteligencia artificial en la medicina y la atención sanitaria, identifican cuatro líneas principales de investigación directamente relacionadas con la mejora de los sistemas de ayuda a la decisión clínica: gestión de los servicios de salud, medicina predictiva, datos del paciente y toma de decisiones clínicas. En esta tesis doctoral nos centramos en la segunda línea de investigación, la medicina predictiva, con el objetivo de mejorar el rendimiento de los actuales métodos y algoritmos de inteligencia artificial para el diagnóstico clínico. Para ello, se ha incorporado en algunas de las redes neuronales artificiales más utilizadas de la literatura actual, una propiedad biológica que emerge del cerebro y que está directamente relacionada con la homeostasis, la memoria y el aprendizaje: la metaplasticidad sináptica. La metaplasticidad sináptica es un fenómeno biológico que se define brevemente como la plasticidad de la plasticidad sináptica, lo que significa que la historia previa de la actividad sináptica determina su plasticidad actual. Este fenómeno interfiere con algunos de los mecanismos subyacentes que se consideran importantes en los procesos de memoria y aprendizaje, como la potenciación a largo plazo y la depresión a largo plazo. En un modelo computacional la metaplasticidad sináptica se define como metaplasticidad artificial, un procedimiento de aprendizaje que produce una mayor ponderación de los pesos sinápticos de los patrones menos frecuentes que de los patrones más frecuentes, como una forma de extraer más información de los primeros que de los segundos. Esta mejora se estima que puede afectar al rendimiento en las redes neuronales artificiales tanto en términos de precisión como en tiempos de convergencia o velocidad de aprendizaje. Así mismo, dadas ambas mejoras, se plantea abordar también uno de los grandes problemas de la inteligencia artificial en medicina: el entrenamiento de redes neuronales artificiales utilizando conjuntos de datos reducidos. Este mecanismo biológico se ha incorporado en diferentes tipos de redes neuronales artificiales como un mecanismo de actualización de pesos que modifica la ponderación en función de la frecuencia de un patrón. Además, dadas las particularidades de cada arquitectura de red neuronal, la modificación de sus procesos de aprendizaje para la incorporación de la metaplasticidad artificial no es una tarea trivial. En este trabajo se han utilizado dos tipos de redes neuronales artificiales orientadas al análisis de datos y al diagnóstico por imagen, respectivamente: las redes neuronales artificiales de base radial y las redes neuronales convolucionales. Para la primera, se ha incorporado la metaplasticidad artificial modificando el aprendizaje en tres fases, mientras que para la segunda, se ha modificado el proceso de convolución de las capas convolucionales de la red. En ambos casos se ha logrado que la red neuronal mejore su rendimiento tanto en términos de precisión como en velocidad de convergencia, confirmando así las hipótesis iniciales.
547

Evolución e impacto de la inteligencia artificial desde una perspectiva económica: una mirada global, europea y regional

Peretó Rovira, Alexandre 16 June 2023 (has links)
La presente tesis doctoral se estructura en un total de seis capítulos. En el primer capítulo se presenta la motivación de este trabajo y se expone la estructura de la investigación, las hipótesis y los objetivos más relevantes. Además, se comentan de forma breve las conclusiones que se derivan de cada uno de los capítulos y los antecedentes de investigación que el doctorando ha llevado a cabo hasta la fecha, incluyendo artículos, participación en congresos y seminarios, y el trabajo en proyectos de investigación, entre otros. En el Capítulo II se realiza una aproximación a la teoría de la economía de la innovación, estudiando la aportación de los autores más relevantes, como Joseph A. Schumpeter, Paul Romer, Robert Solow o Robert Lucas, entre otros muchos. En él se establece la que será la base teórica para el conjunto de la tesis, dado que son los fundamentos teóricos de estos autores los que permiten entender la relevancia de la tecnología en el desarrollo económico. Sin comprender por qué la disrupción tecnológica es capaz de provocar un verdadero salto cualitativo y cuantitativo en nuestro tejido productivo, pero también en la propia teoría económica, no podríamos explicar las transformaciones que están teniendo lugar en nuestra sociedad, ni el impacto macroeconómico esperado de la inteligencia artificial (IA) en una mayor fase de desarrollo. En el Capítulo III, tras exponer las medidas y estrategias de las principales potencias económicas en el campo de la IA, realizamos nuestra primera aproximación aplicada. En concreto, llevamos a cabo un análisis sobre el grado de preparación para la adopción de la IA por parte de un conjunto de países, lo que nos conduce a generar un índice multivariable en el que se tiene en cuenta diferentes dimensiones como el capital físico y el entorno, el capital humano y el capital organizativo y social. Ello nos permite conocer qué países están mejor posicionados para liderar la era de la IA. Además, en este primer ejercicio, se ha trabajado sobre un conjunto de factores amplio, muchos de los cuales son usados por primera vez en esta tesis. La metodología Borda Condorcet es empleada para dar robustez a los resultados obtenidos, en los que se comparan las economías europeas más destacadas con países asiáticos y otras potencias occidentales como Estados Unidos (EE.UU.), Canadá o Australia. Los resultados obtenidos con nuestro estudio nos permiten identificar el liderazgo relativo de Asia en lo que respecta a su capacidad de transformación socioeconómica presente y futura en base a la IA. Además, al realizar varias técnicas de análisis comparado, podemos identificar cómo las variables utilizadas condicionan la posición de cada uno de los países analizados, permitiéndonos identificar las principales fortalezas y debilidades de cada uno de ellos. En el Capítulo IV se realiza un análisis sobre si el grado de despliegue de la IA en los países europeos es suficiente como para reflejar el impacto de esta tecnología en su desarrollo económico. Empleando variables similares a las del Capítulo III e incorporando más variables relacionadas con el ecosistema IA, se contrasta si el grado de implantación de la IA tiene un reflejo en factores como el empleo, la productividad, el reparto de la riqueza o el índice de desarrollo humano. Para ello se emplea un modelo de ecuaciones estructurales basado en Partial Least Squares Equation Modeling (PLS-SEM), complementado con un análisis de tétradas –que nos confirma que estamos ante un modelo de constructos formativos– y un test de cúpula gaussiana para controlar los problemas de endogeneidad. La incorporación de este test a nuestro estudio representa una importante novedad en este tipo de trabajos y proporciona información clave para el correcto análisis de la relación entre los constructos. Los resultados de este capítulo ofrecen indicios sólidos sobre el impacto positivo del ecosistema IA europeo en el desarrollo económico del continente. Además, permiten identificar el efecto de cada una de las variables utilizadas sobre los constructos relacionados con el entorno tecnológico y de inteligencia artificial. Por su parte, el test de cúpula gaussiana refleja problemas de endogeneidad entre el entorno tecnológico vinculado a tecnologías más maduras como pueden ser las TIC y el desarrollo económico, no siendo así en el caso del ecosistema IA. Estos resultados enriquecen la argumentación expuesta en el apartado de implicaciones políticas y conclusiones con el que se culmina este capítulo. Una vez descubiertos indicios sólidos sobre el impacto positivo de los ecosistemas IA sobre el desarrollo económico. En el Capítulo V nos planteamos el objetivo de aproximar el estado actual del ecosistema IA de la Comunitat Valenciana. Para ello, en primer lugar analizamos el contexto español puesto que consideramos que constituye un factor determinante para entender la situación de la Comunitat Valenciana. A continuación, llevamos a cabo un ejercicio de inferencia. En concreto, ante la escasez de datos oficiales sobre el estado de la IA a nivel autonómico, procedemos a identificar las organizaciones públicas y privadas que están relacionadas con la IA en esta comunidad. Una vez identificadas, pasamos a extraer información de las mismas mediante la elaboración de una encuesta y la realización de entrevistas telefónicas. Además, esta información se combina con los datos disponibles en CamerData e información disponible en las webs de las propias organizaciones. El propósito de este capítulo es doble: en primer lugar, nos sirve para reconocernos como país y región dentro del entramado geopolítico descrito en los capítulos anteriores, y en segundo lugar para tener información de fuentes directas con la que advertir de los retrasos en el desarrollo y la aplicación de los algoritmos inteligentes en nuestro territorio. Dado el avance que las grandes potencias económicas están llevando a cabo, podemos exponer con datos los riesgos que corremos en materia competitiva y productiva si nos quedamos atrás en el proceso de transformación económica basado en la IA y las tecnologías digitales. En el Capítulos VI se presentan las conclusiones de los apartados anteriores, se exponen las limitaciones encontradas durante la realización de esta tesis doctoral, así como las líneas futuras de investigación que se abren gracias a este trabajo. Finalmente, este capítulo es posteriormente traducido al inglés en el Capítulo VII, a modo de resumen y con una extensión superior a las 5000 palabras, en cumplimiento de los requisitos establecidos por la Escuela Internacional de Doctorado de la Universidad de Alicante para las tesis doctorales con mención internacional.
548

[pt] DESENVOLVIMENTO DE MODELOS PREDITIVOS PARA A GASEIFICAÇÃO DE BIOMASSA USANDO REDES NEURAIS ARTIFICIAIS / [en] DEVELOPMENT OF PREDICTIVE MODELS FOR BIOMASS GASIFICATION USING ARTIFICIAL NEURAL NETWORKS

FERNANDA DA SILVA PIMENTEL 02 May 2023 (has links)
[pt] Na tentativa de reduzir os efeitos das emissões de dióxido de carbono, há uma necessidade por maior utilização de fontes de energia renováveis, tal como energia proveniente de biomassa. Para geração de energia a partir da biomassa, destaca-se o processo de gaseificação, por meio do qual é possível gerar um combustível nobre. Objetivou-se simular no software Matlab (marca registrada) a gaseificação da biomassa usando técnicas de inteligência artificial que são as Redes Neurais Artificiais (RNA). Particularmente, objetivou-se desenvolver modelos abrangentes de RNA com dez variáveis de entrada (carbono, hidrogênio, oxigênio, nitrogênio, material volátil, teor de umidade, cinzas, razão de equivalência, temperatura e razão vapor/biomassa), aplicáveis a uma diversidade de biomassa, com diversos tipos e concentrações de agentes de gaseificação em diferentes tipos de gaseificadores, capazes de predizer a composição do gás de síntese (CO2, CO, CH4 e H2). Para treinamento, teste e validação dos modelos, foram preparados bancos de dados robustos, a partir de informações coletadas em estudos anteriores disponíveis na literatura e do tratamento dos dados obtidos dos artigos. Foram avaliadas 33 topologias das redes neurais para eleger a melhor delas de acordo com quatro critérios referente a robustez do treinamento e do teste. A rede considerada como tendo a melhor topologia possui 10 neurônios na camada de entrada; 2 camadas intermediárias, com funções de ativação logsig e 10 neurônios em cada camada intermediária; função de ativação purelin na camada final; 4 neurônios na camada final; e algoritmo de treinamento trainbr. Tal rede possui um bom desempenho, com valores de R2 de treinamento e de teste maiores que 0,88 e 0,70, respectivamente, para cada uma das quatro saídas. Para avaliação do modelo, uma validação foi executada, cujo desempenho não foi muito adequado, mas foi possível identificar com uma métrica quantitativa simples as regiões mais confiáveis onde há uma maior densidade de dados no treinamento. / [en] In an attempt to reduce the effects of carbon dioxide emissions, there is a need for greater use of renewable energy sources, such as energy from biomass. In order to generate energy from biomass, the gasification process, by means of which it is possible to generate a noble fuel, can be highlighted. This work aimed to simulate the biomass gasification using artificial intelligence techniques, namely Artificial Neural Networks (ANN), using Matlab (trademark) software. Particularly, the objective was the development of ANN models with ten inputs (carbon, hydrogen, oxygen, nitrogen, volatile matter, moisture content, ash, equivalence ratio, temperature and steam/biomass ratio), applicable to a broad variety of biomass, with different types and concentrations of gasification agents in different types of gasifiers, capable of predicting the syngas composition (CO2, CO, CH4 and H2). Robust databases were built for training, testing and validation of the models, based on information collected in previous studies available in the literature and on the treatment of data obtained from the papers. Thirty-three neural network topologies were evaluated in order to choose the best one according to four criteria regarding training and test robustness. The network considered to have the best topology has 10 neurons in the input layer; 2 hidden layers, with logsig activation functions and 10 neurons in each hidden layer; the activation function is purelin in the output layer; 4 neurons in the output layer; and the training algorithm is trainbr. Such network has a good performance, with R2 values greater than 0.88 and 0.70 for training and test, respectively, for each of the four outputs. To evaluate the model, a validation was carried out, whose performance was not very appropriate, but it was possible to identify through a simple quantitative metric the more reliable regions where there is a greater density of training data.
549

Desarrollo de un software para la gestión de proyectos de desarrollo PM4R que permita automatizar la etapa de planificación para estimar tiempos a través de algoritmos de aprendizaje automático

Espinoza Muñoz, Jorge Enrique 20 June 2019 (has links)
La gestión de proyectos es un trabajo arduo que demanda de experiencia en el sector para la correcta definición de actividades y estimación de costos y tiempos de los proyectos. Es por ello que PM4R o gestión para resultados propone 7 etapas integradas. En este contexto, esta metodología es potente al permitir tener una ruta en cómo realizar una buena gestión, pero la habilidad de estimación aún queda definida por los gestores de proyectos, los que en base a su experiencia definen los tiempos de los proyectos y en consecuencia los costos. ¿Qué pasaría si este proceso estuviera automatizado? Ante esta pregunta, en la presente tesis se desarrolla un software para esta metodología. Sin embargo, como componente adicional se integran algoritmos de Machine Learning para permitir una estimación de la duración de los proyectos (tiempos) haciendo uso de la data histórica, para lo cual se procede a generar data en base a un conjunto de datos público del Banco Mundial. Además de que el diseño del software se basa en los lineamientos de Nielsen, lo que permitió la publicación de un artículo en el rubro de Interacción Humano-Computador. En base a lo anterior, los resultados muestran una herramienta potente que ha integrado la metodología en su totalidad (7 pasos) y además los resultados de la integración con Machine Learning son prometedores ya que tanto la clasificación como la regresión presentan valores de error acorde a la revisión del estado del arte y quedan pendientes trabajos como el tuneo de los algoritmos para la obtención de mejores resultados. Además de que a partir de la evaluación del incremento de los datos se observan resultados en los que, si bien es cierto se incrementa la precisión, también se incluye ruido o desbalanceo. Es un trade-off que el gestor de proyectos puede utilizar a su favor, ya que el software en cuestión es una herramienta de apoyo para los gestores, de tal manera que estos puedan tomar mejores decisiones en la etapa de planificación de nuevos proyectos.
550

[en] LIMITED TIME MACHINE TEACHING FOR REGRESSION PROBLEMS / [pt] MACHINE TEACHING COM TEMPO LIMITADO PARA PROBLEMAS DE REGRESSÃO

PEDRO LAZERA CARDOSO 02 December 2021 (has links)
[pt] Este trabalho considera o problema de Regressão com Tempo Limitado. Dados um dataset, um algoritmo de aprendizado (Learner) a ser treinado e um tempo limitado, não sabemos se seria possível treinar o modelo com todo o dataset dentro deste tempo. Queremos então elaborar a estratégia que extraia o melhor modelo possível deste algoritmo de aprendizado respeitando o limite de tempo. Uma estratégia consiste em interagir com o Learner de duas formas: enviando exemplos para o Learner treinar e enviando exemplos para o Learner rotular. Nós definimos o que é o problema de Regressão com Tempo Limitado, decompomos o problema de elaborar uma estratégia em subproblemas mais simples e bem definidos, elaboramos uma estratégia natural baseada em escolha aleatória de exemplos e finalmente apresentamos uma estratégia, TW+BH, que supera a estratégia natural em experimentos que realizamos com diversos datasets reais. / [en] This work considers the Time-Limited Regression problem. Given a dataset, a learning algorithm (Learner) to be trained and a limited time, we do not know if it s going to be possible to train the model with the entire dataset within this time constraint. We then want to elaborate the strategy that extracts the best possible model from this learning algorithm respecting the time limit. A strategy consists of a series of interactions with the Learner, in two possible ways: sending labeled examples for the Learner to train and sending unlabeled examples for the Learner to classify. We define what the Time-Limited Regression problem is, we decompose the problem of elaborating a strategy into simpler and more well-defined sub-problems, we elaborate a natural strategy based on random choice of examples and finally we present a strategy, TW+BH, that performs better than the natural strategy in experiments we have done with several real datasets.

Page generated in 0.1214 seconds