Spelling suggestions: "subject:"redes neuronales"" "subject:"redes neuronale""
91 |
"Análisis del desempeño de MPLS VPN L2 y L3"Flores Baldes, Jorge Eduardo January 2018 (has links)
Magíster en Ingeniería de Redes de Comunicaciones / La conmutación de etiquetas multiprotocolo (MPLS por sus siglas en inglés, Multiprotocol Label Switching) surge como un mecanismo de convergencia para los protocolos que operan sobre los niveles 2 y 3 del modelo OSI. Su capacidad para proveer y administrar diversos servicios con garantías de calidad de servicio y disponibilidad sobre una infraestructura común, ha hecho que MPLS sea un estándar en las redes de transporte de los proveedores de servicios.
La interconexión de data centers y en general de redes LAN y MAN corporativas, se realiza a través de servicios MPLS VPN considerando solamente la topología de la red. En este contexto, resulta útil proporcionar información adicional para seleccionar modelos VPN en función del tipo de tráfico que se desea transportar.
En este trabajo se diseña e implementa escenarios experimentales para proporcionar métricas que permiten ese contraste; el resumen de cada capítulo se detalla a continuación.
En el primer capítulo se describen tecnologías, métricas de desempeño, herramientas de modelación y herramientas estadísticas.
En el segundo capítulo se describen los procesos de diseño, implementación y simulación de los escenarios experimentales. Los escenarios garantizan que el desempeño de los servicios MPLS VPN se ponga a prueba bajo las mismas condiciones. Esas condiciones comprenden nodos de borde y políticas de QoS comunes para los servicios que se contrastan. Además, los escenarios consideran la capacidad de los nodos emulados por Dynamips como restricción y el tráfico que atraviesa una red operativa como condición inicial. Este tráfico se modela con redes neuronales artificiales y para poder generarlo con IPERF, se utiliza BoxCox y Bootstrapping sobre el modelo para obtener estadísticos representativos. Los procesos de implementación y simulación se realizan sobre GNS3; este último comprende la ejecución simultanea y recurrente de IP SLA, kron, IPERF, Wireshark, NTP y TFTP.
En el tercer capítulo se presenta el resultado de los test estadísticos aplicados sobre las métricas de estudio. Además, se utilizan herramientas de simulación para estimar los intervalos de confianza de la media y obtener una representación gráfica del desempeño de los servicios MPLS VPN.
En el cuarto capítulo se exponen las conclusiones de este trabajo, estas analizan los resultados de los test estadísticos asociados a los objetivos e hipótesis planteadas. Para finalizar se exponen algunas apreciaciones sobre trabajos futuros.
|
92 |
A capsule neural network based model for structural damage localization and quantification using transmissibilty dataFigueroa Barraza, Joaquín Eduardo January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería Mención Mecánica / Memoría para optar al título de Ingeniero Civil Mecánico / Dentro de la ingeniería estructural, el monitoreo de condición usando diferentes tipos de sensores ha sido importante en la prevención de fallas y diagnóstico del estado de salud. El desafío actual es aprovechar al máximo las grandes cantidades de datos para entregar mediciones y predicciones precisas. Los algoritmos de aprendizaje profundo abordan estos problemas mediante el uso de datos para encontrar relaciones complejas entre ellos.
Entre estos algoritmos, las redes neuronales convolucionales (CNN) han logrado resultados de vanguardia, especialmente cuando se trabaja con imágenes. Sin embargo, existen dos problemas principales: la incapacidad de reconocer imágenes rotadas como tales, y la inexistencia de jerarquías dentro de las imágenes. Para resolver estos problemas, se desarrollaron las redes de cápsulas (Capsule Networks), logrando resultados prometedores en problemas de tipo benchmark.
En esta tesis, las Capsule Networks se modifican para localizar y cuantificar daños estructurales. Esto implica una tarea doble de clasificación y regresión, lo que no se ha realizado anteriormente. El objetivo es generar modelos para dos casos de estudio diferentes, utilizando dos algoritmos de routing diferentes. Se analizan y comparan los resultados entre ellos y con el estado del arte.
Los resultados muestran que las Capsule Networks con Dynamic routing logran mejores resultados que las CNN, especialmente cuando se trata de valores falsos positivos. No se observa sobreajuste en el conjunto de validación sino en el conjunto de prueba. Para resolver esto, se implementa la técnica de dropout, mejorando los resultados obtenidos en este último conjunto.
|
93 |
An End-to-End Framework for Audio-to-Score Music TranscriptionRomán, Miguel A. 20 January 2021 (has links)
Esta tesis doctoral presenta un nuevo enfoque en el área de la transcripción musical automática (AMT), definiendo la tarea de Audio-to-Score (A2S), que realiza la transcripción musical de extremo a extremo gracias a la capacidad de modelado de problemas que nos ofrecen las redes neuronales profundas. Este enfoque va un paso más allá de los sistemas de transcripción tradicionales, que están basados en predecir notas musicales en el formato de tiempo-frecuencia llamado pianola o piano-roll en inglés. Las principales ventajas del enfoque propuesto frente a los métodos tradicionales son las siguientes: - La salida es una partitura válida de música que puede ser directamente interpretada por músicos o analizada por musicólogos. - La aproximación extremo a extremo evita que los errores de una etapa se propaguen a la siguiente. - No precisa de anotaciones de alineamiento temporal entre el audio de entrada y la partitura de salida, dado que se aprende por el modelo de forma implícita. - Mediante la aproximación extremo a extremo se aprende también un modelo de lenguaje musical que ayuda a reducir los errores de transcripción de manera global.
|
94 |
Predicción de propiedades de sustancias y materiales de interés en la industria química a través del desarrollo de métodos computacionalesPalomba, Damián 17 March 2014 (has links)
El objetivo de esta Tesis es desarrollar métodos computacionales predictivos
para propiedades específicas de compuestos de interés en la industria química,
particularmente en la industria farmacéutica y de materiales poliméricos. Para
desarrollar la metodología de trabajo se utilizó como herramienta la técnica Relación
Cuantitativa Estructura/Propiedad (QSPR) (Quantitative Structure/Property
Relationship), que consiste en relacionar cuantitativamente diferentes parámetros de una
entidad química (por ejemplo una molécula pequeña o un polímero) con una propiedad
bien definida de la misma. Este trabajo se plantea como un estudio interdisciplinario, de
forma tal que la técnica QSPR sea enriquecida con el conocimiento del ensayo de
medición de las propiedades que se buscan predecir y fundamentalmente con los
aspectos físico-químicos involucrados.
La metodología de trabajo se aplicó en una primera instancia a la predicción de
propiedades de drogas y compuestos orgánicos en general y, en una segunda, a
propiedades de materiales poliméricos. Las propiedades que se exploraron vinculadas a
las drogas y compuestos orgánicos fueron algunas de las físico-químicas relacionadas al
comportamiento ADMET (absorción, distribución, metabolismo, excreción y toxicidad)
de los mismos. Estas fueron la absorción intestinal humana (AIH) (Human Intestinal
Absorption) y el pasaje de la barrera hemato-encefálica (BHE) (Blood-Brain Barrier),
ambas esenciales para el desarrollo de nuevos fármacos. Asimismo, se estudiaron los
compuestos orgánicos volátiles (VOCs) (volatile organic compounds) que son gases
emitidos de ciertos sólidos o líquidos. Se predijeron sus coeficientes de distribución
sangre-hígado (log Pliver), que se pueden emplear en la evaluación de riesgos y toma de
decisiones en políticas de salud pública. Por otro lado, con respecto al campo de los
materiales poliméricos se exploraron diferentes propiedades. Una de ellas es una
propiedad térmica, la temperatura de transición vítrea (Tg), la cual se relaciona con el
desempeño mecánico y la procesabilidad del material; las restantes son propiedades
mecánicas derivadas del ensayo de tracción en una dimensión: elongación a la rotura
(Elongation at Break), resistencia a la rotura (Strength at Break) y módulo elástico o
de Young (Tensile Modulus). Estas propiedades mecánicas brindan información
relacionada con la ductilidad, resistencia y rigidez de un material polimérico
respectivamente, y junto con otras definen su perfil de aplicación estructural.
La Tesis se organiza, de modo general, en dos grandes bloques en relación con
el material al cual se aplica la predicción: drogas y compuestos orgánicos volátiles
(compuestos de interés farmacéutico y de salud pública) por un lado, y por el otro,
materiales poliméricos (materiales de interés en la industria química). Esta estructura
obedece a las significativas diferencias moleculares entre los compuestos de trabajo de
los cuales se obtiene la propiedad a predecir, denominada propiedad objetivo o target, y
por lo tanto de aquí surgen también los distintos enfoques con los que se plantearon
cada una de las predicciones.
La contribución original en el área de las drogas y compuestos orgánicos
volátiles fue el desarrollo de nuevos modelos de predicción para las propiedades
previamente mencionadas, mediante un enfoque semi-automático (un método de
selección automática de variables combinado con una selección manual guiada por el
conocimiento experto) que se puede aplicar también para modelar otras propiedades y
otros compuestos. También el aporte del conocimiento físico-químico durante la fase de
modelado conduciendo a modelos más aceptables, ya que son más fáciles de interpretar
y tienden a generalizar mejor a los compuestos de diseño (virtuales), es decir
compuestos aún no sintetizados.
Con relación al campo de los materiales poliméricos, las contribuciones
novedosas fueron generar diferentes modelos para predecir la propiedad térmica y las
propiedades mecánicas nombradas. Se desarrolló un prototipo molecular sintético,
consistente en una estructura trimérica, para representar a los polímeros. Se propusieron
nuevos descriptores para materiales poliméricos mediante un enfoque original de las
cadenas de los polímeros, distinguiendo los fragmentos que corresponden
respectivamente a la cadena principal y a la cadena lateral. Se obtuvo un modelo de
predicción para la Tg enriquecido con el conocimiento físico-químico subyacente del
fenómeno estudiado y se presentó una explicación estructural detallada de los
descriptores del modelo y su relación con la propiedad estudiada. Luego, se validó el
prototipo molecular (trímero) en relación a estructuras más complejas (31 unidades
repetitivas). Con respecto a las propiedades mecánicas, se presentó un set de datos de
trabajo que se recopiló y depuró para polímeros sintéticos a partir de fuentes
disponibles. Se propusieron descriptores: por un lado, nuevos de cadena de polímeros, y
por el otro, parámetros experimentales. Finalmente, se demostró la utilidad de
incorporar información experimental del ensayo de tensión junto con estrategias
estructurales para abordar la predicción, generando así herramientas más inteligentes e
interpretables para el diseño de nuevos materiales con un perfil de aplicación específico. / The goal of this Thesis is to develop predictive computational methods for
specific properties of compounds of interest in the chemical industry, particularly in
pharmaceutical and polymeric materials industry. In order to develop the working
method, the Quantitative Structure/Property Relationship (QSPR) technique was
utilized, which relates quantitatively different parameters of an entity (e.g. a molecule or
polymer) with an own well-defined process, such as a property. This work is planned as
an interdisciplinary study, with the aim of improving the QSPR technique by means of
physicochemical comprehension and the knowledge of target property measurement
test.
Firstly, the method was applied to predict properties of drugs and general
organic compounds and, secondly, to predict polymeric materials properties.
Physicochemical properties related to the ADMET (absorption, distribution,
metabolism, excretion and toxicity) behavior of drugs and organic compounds were
explored. These were the Human Intestinal Absorption (HIA) and the Blood Brain
Barrier (BBB) penetration, both essential for drug development. Furthermore, the
volatile organic compounds (VOCs) were studied, which are gases emitted from certain
solids or liquids. Their blood-to-liver partition coefficients (log Pliver) were predicted; it
can be applied to risk assessment and decision making in public health policies.
Regarding to the polymeric materials field, several properties were studied. One of them
is a thermal property, the glass transition temperature (Tg), which is related to the
processability and material mechanical performance; the remaining ones are tensile
properties: elongation at break, strength at break, and tensile modulus. These
mechanical properties provide information related to the ductility, strength, and stiffness
of a polymeric material, respectively and, along with other ones, define its structural
application profile.
This Thesis can be broadly divided into two main categories, according to the
material that prediction is performed: drugs and volatile organic compounds
(compounds of interest in pharmaceutical industry and public health) on the one hand,
and polymeric materials (materials of interest in the chemical industry) on the other.
This structure is due to significant molecular differences between the working
compounds (organic and polymeric materials) from which the property to predict is
obtained (target property), and therefore to the different approaches whereby each
prediction was addressed.
The original contribution in the drugs and volatile organic compounds field was
the development of new predictive models for the aforementioned properties, using a
semi-automatic approach (an automatic-variable-selection method combined with a
knowledge-aided-manual selection) that can also be applied so as to model another
properties. Moreover, during the modeling phase, the contribution of the physicalchemical
knowledge led to acceptable models since they are easier to interpret and tend
to better generalize design compounds (virtual), i.e. not-yet-synthesized compounds.
Regarding the polymeric materials science, the generation of different models
for predicting the already mentioned thermal property and the mechanical properties
was a novel contribution. A molecular prototype, consisting of a trimeric structure, was
used in order to represent the polymers. New descriptors were proposed for polymeric
materials by means of a polymer chains approach, the main and side chain. A prediction
model for Tg was obtained, enriched by the underlying physicochemical knowledge
from the studied phenomenon, and a detailed structural explanation of the model
descriptors and its relation to the studied property was presented. Afterwards, the
molecular prototype (trimer) was validated against to more complex structures (31
repeating units). With respect to tensile properties, a tailor-made dataset was presented.
Several descriptors were proposed: new ones of polymer chain, and alternatively,
experimental parameters. Finally, we demonstrated the usefulness of considering
experimental information from the tensile test along with structural strategies to tackle
the prediction, thereby more intelligent tools for the design of new materials with a
specific application profile are provided.
|
95 |
Aplicación de las redes neuronales al modelado de la propagación para la planificación de sistemas de telefonía móvil celularFraile Muñoz, Rubén 23 September 2009 (has links)
El modelado de la propagación y la predicción son tareas clave del proceso de planificación de los sistemas de telefonía móvil celular. En ellas se deben lograr predicciones lo más precisas posible empleando el menor tiempo de cálculo. La precisión de los modelos se puede ver incrementada mediante el uso de medidas de campo. Las redes neuronales son sistemas capaces de aprender de medidas y proporcionar resultados con una velocidad de proceso alta. En esta tesis se investiga la aplicabilidad de las redes neuronales al modelado de la propagación en sistemas celulares. Se proponen diferentes modelos para macroceldas y microceldas, entorno urbano y rural, logrando en todos los casos un nivel de precisión similar al de los mejores modelos de propagación y unos ahorros de tiempo de cálculo muy notables. / Fraile Muñoz, R. (2000). Aplicación de las redes neuronales al modelado de la propagación para la planificación de sistemas de telefonía móvil celular [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6201
|
96 |
Predicción a corto plazo de la demanda de agua urbana en áreas densamente pobladasEspinoza Rodríguez, César Alejandro 05 July 2010 (has links)
Ante un escenario donde el recurso agua es limitado y con una sociedad que la demanda cada vez con más garantías, la ingeniería es exigida a desarrollar técnicas y metodologías eficientes para asegurar que el vital líquido sea entregado en óptimas condiciones de calidad y cantidad a los usuarios domésticos, comerciales e industriales que conforman el conjunto de abonados de una ciudad. Cada tipo de usuario demanda el agua en diferentes escalas temporales y de cantidad, pero el conjunto de ellos consumiendo agua a la vez generan la demanda global de una ciudad.
Los operadores de los sistemas de abastecimiento y distribución de agua potable están obligados a gestionar sus operaciones de tal manera que el conjunto de abonados cuente con el servicio en el momento que lo demanden. La experiencia que acumula el personal de operación se vuelve fundamental para que este objetivo se cumpla ya que son capaces de predecir con gran precisión las demandas futuras.
En la búsqueda de predicciones con un fundamento matemático y estadístico sólido, hemos desarrollado este trabajo en el cual se han revisado las metodologías más destacadas que se han utilizado a lo largo de las últimas décadas par modelar y predecir la demanda de agua urbana en áreas densamente pobladas, encontrando que los modelos estocásticos del tipo ARIMA son la base de las principales metodologías. Sin embargo, encontramos también que los modelos existentes están desarrollados y pensados para ciudades en la cuales la demanda presenta un patrón con poca variabilidad derivada de patrones sociológicos y donde las componentes climáticas son poco relevantes. Esta variabilidad es generada por eventos puntuales que perturban el proceso de demanda y que cuando ocurren alteran los patrones repetitivos esperados. El presente trabajo de tesis tiene como principal objetivo proponer, analizar
y comparar el desempeño con otras técnicas, de un modelo estocástico
para la estimación a corto plazo de la demanda global de agua potable en
sistemas de abastecimiento y distribución. / Espinoza Rodríguez, CA. (2010). Predicción a corto plazo de la demanda de agua urbana en áreas densamente pobladas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8421
|
97 |
Implementación de algoritmos de redes neuronales artificiales de tipo Fuzzy Artmap y Multilayer Feed Fordward con dispositivos electrónicos programables en sistemas de lenguas electrónicas para la clasificación de muestras y determinación de parámetros fisicoquímicosGarrigues Baixauli, José 27 June 2013 (has links)
En los últimos años las lenguas electrónicas se han convertido en una excelente alternativa a los métodos tradicionales de análisis para el control de los procesos y productos, entre otros, en el ámbito agroalimentario. Se trata de sistemas que, mediante técnicas electroquímicas, como la potenciometría o la voltametría combinadas con herramientas de análisis multivariante, son capaces de clasificar muestras y cuantificar sus parámetros fisicoquímicos. Su funcionamiento se basa en la utilización de sensores de sensibilidad cruzada, lo que permite medir muestras en las que existan interferencias entre los distintos compuestos que la integran.
En la actualidad la mayoría de los métodos empleados para la determinación de las propiedades fisicoquímicas son destructivos. El diseño de sistemas de medida no destructivos es un reto. Pero además de preservar la integridad de las muestras analizadas, las nuevas técnicas analíticas deben tener un bajo coste y un funcionamiento sencillo, no dependiente de mano de obra cualificada.
Para el análisis de los datos se suele utilizar técnicas de reconocimiento de patrones no supervisadas, como es el Análisis de Componentes Principales (PCA). Pero en muchas ocasiones, es conveniente realizar análisis supervi-sado, donde, las categorías de las muestras están predefinidas y la finalidad es comprobar si es posible conseguir un sistema que sea capaz de clasificar adecuadamente muestras nuevas que entra en el sistema de medida. Uno de los métodos más utilizados para realizar una clasificación de la muestras con técnicas supervisadas son las redes neuronales artificiales (RNA).
Existen diversos tipos de redes neuronales, una de las más conocidas y utilizadas es la denominada Perceptrón multicapa. El entrenamiento de esta red consiste en fijar los pesos de cada una de las neuronas. Este tipo de red neuronal, ha comprobado su utilidad en múltiples aplicaciones con lenguas electrónicas, pero también ha demostrado sus limitaciones, que vienen d / Garrigues Baixauli, J. (2013). Implementación de algoritmos de redes neuronales artificiales de tipo Fuzzy Artmap y Multilayer Feed Fordward con dispositivos electrónicos programables en sistemas de lenguas electrónicas para la clasificación de muestras y determinación de parámetros fisicoquímicos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/30219
|
98 |
Predicción de asistencia en accidentes de tráfico con un modelo de aprendizaje profundoPérez-Sala, Luis 13 September 2024 (has links)
Esta tesis doctoral versa sobre la necesidad de predecir la gravedad de los accidentes de tráfico con el objetivo de anticiparse a las posibles consecuencias que sufrirían las víctimas utilizando como información base la descripción de las circunstancias que rodean al accidente mediante el uso de la inteligencia artificial. La principal motivación de esta tesis es limitar dichas consecuencias que sufrirían las víctimas tanto a corto como a largo plazo, y que pueden ser reducidas gracias a una gestión eficiente y rápida de recursos médicos una vez se conocen las características del accidente. Diversos estudios avalan que una rápida respuesta por parte de los servicios de emergencia pueden evitar resultados mortales en los accidentados si cuentan con asistencia médica en un tiempo acorde a su gravedad, además de poder reducir las futuras lesiones a largo plazo que las víctimas puedan sufrir. Históricamente, en el estado del arte el principal inconveniente en distintos enfoques de este problema, en lo que respecta a la predicción de la gravedad de los accidentes, radica en que los métodos que han sido aplicados hasta ahora son dependientes de los datos disponibles por cada región concreta, siendo estos asimétricos y, en muchos casos, dependientes de la economía del lugar (un país desarrollado siempre tiene acceso a más información que otro que no tenga suficientes recursos para ello). Esta dependencia de los datos es un inconveniente, ya que impide la presencia de un modelo generalista que pueda ser agnóstico a los datos ofrecidos por una región concreta en la que han sido entrenados. Es por esto que es necesario la presencia de un método general que pueda ser aplicado en cualquier población o región independientemente de los datos de los que cada región dispone, independientemente de la limitación marcada por sus condiciones socioeconómicas o culturales. Para solventar este reto, en esta tesis se propone un modelo general de predicción en la gravedad de los accidentes de tráfico (GTAAF) independiente a los datos propios de cada región, que clasifica muestras de accidentes en dos clases distintas: necesidad de asistencia médica y sin necesidad de ella, con el objetivo de poder priorizar los recursos médicos cuando se produce un nuevo accidente. Gracias a un sistema de categorización de variables disponibles en los datos se presenta un modelo que puede ser aplicado a cualquier área, región o población. La metodología diseñada en esta tesis se basa en un modelo que, teniendo como entrada la descripción de los accidentes en formato de datos tabulares, aplica diferentes etapas de limpieza de datos, discretización, filtrado de accidentes en base a la división por áreas de las regiones, y rebalanceo de datos para posteriormente transformar los datos resultantes en matrices que serán la entrada al modelo convolucional diseñado. Esto último, gracias a un método de transformación de matrices que hace uso de la importancia que ha tenido cada una de las características en los datos en el entrenamiento de un modelo tipo boosting basado en árboles de decisión optimizado mediante un algoritmo genético, para posteriormente hacer uso de la categorización de las características que serán la referencia de la construcción de las matrices. Una vez entrenado, los resultados obtenidos por el modelo convolucional propuesto GTAAF superan ampliamente a los seis modelos del estado del arte contra los que se ha comparado, a lo largo de ocho poblaciones distintas, con características diferentes, de tres países distintos (España, Reino Unido y Australia). Así, el marco GTAAF llega a mejorar un 6.7% en la métrica F1-Score sobre el segundo mejor modelo para accidentes sin necesidad de asistencia y hasta un 13.8% de mejora en accidentes con necesidad de asistencia. Para comprobar la generalización y escalabilidad del modelo GTAAF, se diseñan una serie de pruebas de robustez en las que se eliminan las características de mayor y menor influencia de manera individual y posteriormente ambas conjuntamente, ofreciendo resultados que resaltan, aún más, la mejora respecto a los seis modelos comparativos del estado del arte. En conclusión, en esta tesis se presenta un modelo general para predecir la gravedad de los accidentes de tráfico y la necesidad o no de asistencia médica, con un potencial para ser aplicado a cualquier región del mundo.
|
99 |
Modeling Uncertainty for Reliable Probabilistic Modeling in Deep Learning and BeyondMaroñas Molano, Juan 28 February 2022 (has links)
[ES] Esta tesis se enmarca en la intersección entre las técnicas modernas de Machine Learning, como las Redes Neuronales Profundas, y el modelado probabilístico confiable. En muchas aplicaciones, no solo nos importa la predicción hecha por un modelo (por ejemplo esta imagen de pulmón presenta cáncer) sino también la confianza que tiene el modelo para hacer esta predicción (por ejemplo esta imagen de pulmón presenta cáncer con 67% probabilidad). En tales aplicaciones, el modelo ayuda al tomador de decisiones (en este caso un médico) a tomar la decisión final. Como consecuencia, es necesario que las probabilidades proporcionadas por un modelo reflejen las proporciones reales presentes en el conjunto al que se ha asignado dichas probabilidades; de lo contrario, el modelo es inútil en la práctica. Cuando esto sucede, decimos que un modelo está perfectamente calibrado.
En esta tesis se exploran tres vias para proveer modelos más calibrados. Primero se muestra como calibrar modelos de manera implicita, que son descalibrados por técnicas de aumentación de datos. Se introduce una función de coste que resuelve esta descalibración tomando como partida las ideas derivadas de la toma de decisiones con la regla de Bayes. Segundo, se muestra como calibrar modelos utilizando una etapa de post calibración implementada con una red neuronal Bayesiana. Finalmente, y en base a las limitaciones estudiadas en la red neuronal Bayesiana, que hipotetizamos que se basan en un prior mispecificado, se introduce un nuevo proceso estocástico que sirve como distribución a priori en un problema de inferencia Bayesiana. / [CA] Aquesta tesi s'emmarca en la intersecció entre les tècniques modernes de Machine Learning, com ara les Xarxes Neuronals Profundes, i el modelatge probabilístic fiable. En moltes aplicacions, no només ens importa la predicció feta per un model (per ejemplem aquesta imatge de pulmó presenta càncer) sinó també la confiança que té el model per fer aquesta predicció (per exemple aquesta imatge de pulmó presenta càncer amb 67% probabilitat). En aquestes aplicacions, el model ajuda el prenedor de decisions (en aquest cas un metge) a prendre la decisió final. Com a conseqüència, cal que les probabilitats proporcionades per un model reflecteixin les proporcions reals presents en el conjunt a què s'han assignat aquestes probabilitats; altrament, el model és inútil a la pràctica. Quan això passa, diem que un model està perfectament calibrat.
En aquesta tesi s'exploren tres vies per proveir models més calibrats. Primer es mostra com calibrar models de manera implícita, que són descalibrats per tècniques d'augmentació de dades. S'introdueix una funció de cost que resol aquesta descalibració prenent com a partida les idees derivades de la presa de decisions amb la regla de Bayes. Segon, es mostra com calibrar models utilitzant una etapa de post calibratge implementada amb una xarxa neuronal Bayesiana. Finalment, i segons les limitacions estudiades a la xarxa neuronal Bayesiana, que es basen en un prior mispecificat, s'introdueix un nou procés estocàstic que serveix com a distribució a priori en un problema d'inferència Bayesiana. / [EN] This thesis is framed at the intersection between modern Machine Learning techniques, such as Deep Neural Networks, and reliable probabilistic modeling. In many machine learning applications, we do not only care about the prediction made by a model (e.g. this lung image presents cancer) but also in how confident is the model in making this prediction (e.g. this lung image presents cancer with 67% probability). In such applications, the model assists the decision-maker (in this case a doctor) towards making the final decision. As a consequence, one needs that the probabilities provided by a model reflects the true underlying set of outcomes, otherwise the model is useless in practice. When this happens, we say that a model is perfectly calibrated.
In this thesis three ways are explored to provide more calibrated models. First, it is shown how to calibrate models implicitly, which are decalibrated by data augmentation techniques. A cost function is introduced that solves this decalibration taking as a starting point the ideas derived from decision making with Bayes' rule. Second, it shows how to calibrate models using a post-calibration stage implemented with a Bayesian neural network. Finally, and based on the limitations studied in the Bayesian neural network, which we hypothesize that came from a mispecified prior, a new stochastic process is introduced that serves as a priori distribution in a Bayesian inference problem. / Maroñas Molano, J. (2022). Modeling Uncertainty for Reliable Probabilistic Modeling in Deep Learning and Beyond [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181582
|
100 |
Diseño de un Nuevo Sistema de Vigilancia de Dominio de InternetZumaeta Morales, Rodrigo Andrés January 2007 (has links)
No description available.
|
Page generated in 0.0684 seconds