• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 256
  • 43
  • 2
  • Tagged with
  • 301
  • 301
  • 140
  • 78
  • 78
  • 78
  • 78
  • 78
  • 64
  • 61
  • 47
  • 47
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Predicción de rentas en Santiago de Chile utilizando algoritmos de aprendizaje automático

Chardon Schirm, Isabelle January 2019 (has links)
Memoria para optar al título de Ingeniera Civil / En este trabajo se aplican tres algoritmos de aprendizaje automático al problema de predicción de rentas de bienes inmobiliarios en la ciudad de Santiago de Chile por primera vez. Se dispone de una base de datos de 600.902 transacciones de casas y departamentos efectuadas entre los años 2007 y 2018, facilitada por la empresa TocToc.com, especialista en georreferenciación y tasación de bienes inmobiliarios. Se comparan una red neuronal, un algoritmo de máquinas de vectores de soporte para la regresión (SVR) y un bosque aleatorio (conjunto de árboles de regresión) para la predicción de rentas de departamentos en la comuna de La Florida. Los errores absolutos porcentuales medios obtenidos son de 19,17%, 14,69% y 9,67% respectivamente, por lo que el bosque aleatorio es el algoritmo más preciso para la predicción de rentas. Además, el bosque aleatorio funciona tanto con muestras pequeñas como con muestras grandes, mientras el poder predictivo de la red neuronal y del algoritmo SVR baja al reducir el tamaño de la muestra. También se observa que baja el error absoluto porcentual medio cuando la variable de precio a predecir es el valor del metro cuadrado y no el precio total del departamento, en concordancia con las conclusiones de Antipov y Pokryshevskaya (2012). Luego, se construyen distintas muestras según ingresos comunales y por región geográfica para predecir rentas de departamentos utilizando el bosque aleatorio, con lo que se calcula la importancia de los atributos de los bienes según el método de importancia de Gini (Breimann, 2001). Las variables que más contribuyen en la determinación de los precios de los bienes son el año de venta, el ingreso promedio de los hogares por comuna y el índice de calidad calculado por el Servicio de Impuestos Internos, que representa la calidad estructural y la antigüedad de los departamentos. Cuando mejora el índice de calidad y aumenta el ingreso promedio de los hogares suben la rentas de los departamentos. Este último resultado también ha sido encontrado en Santiago de Chile por Figueroa (1992).
92

Monitoreo y aprendizaje de redes neuronales utilizando medidas de información y su aplicación en detección de eventos astronómicos transitorios

Reyes Jainaga, Ignacio Alfredo January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / Durante los últimos años, las redes neuronales profundas han mostrado excelentes resultados en múltiples tareas. Sin embargo, estos modelos son percibidos como "cajas negras", cuyos procesos internos no son comprendidos del todo. Dados los prometedores resultados alcanzados, estos modelos se proyectan como herramientas de gran utilidad en astronomía y otras áreas. Sin embargo, si se quieren utilizar para la toma automática de decisiones es necesario comprender mejor los principios fundamentales que rigen el comportamiento de las redes. En esta tesis se propone utilizar la teoría de la información para analizar el flujo de información en redes neuronales. Primero se analizan teóricamente algunas operaciones utilizadas en las redes neuronales, explicando los mecanismos mediante los cuales se destruye la información. Segundo, se monitorean las representaciones internas de los datos en la red durante el entrenamiento usando dos medidas de información. La primera medida utilizada es la "suficiencia", que corresponde a la información mutua entre la representación y las etiquetas, mientras que la segunda es una nueva medida propuesta llamada "robustez", que corresponde a la información mutua entre las etiquetas y la representación contaminada con ruido aditivo gaussiano. Tercero, se propone un algoritmo para aprender representaciones basado en la optimización de la robustez. Cuarto, se diseña un algoritmo capaz de entrenar redes neuronales completas, tanto redes MLP como redes neuronales convolucionales. Por otra parte se introduce Deep-HiTS, una red convolucional para detectar eventos astronómicos transitorios, la cual se entrena con datos semi-sintéticos construidos desde observaciones del High cadence Transient Survey (HiTS). Al comparar los resultados de Deep-HiTS con un modelo Random Forests y características diseñadas a mano, se observa que la red obtiene un error de clasificación de 0.53 % versus un 1.04 % del Random Forests. Usando las herramientas propuestas, se monitorea el flujo de información en las representaciones internas de Deep-HiTS. Además se entrena una red Deep-HiTS con arquitectura simplificada con el método propuesto basado en teoría de la información. Los experimentos verifican el cumplimiento de la desigualdad de procesamiento de información y el aumento de la suficiencia durante el aprendizaje. Los valores de suficiencia medidos sobre versiones reducidas de las representaciones reflejan la construcción jerárquica de características en las redes profundas. En el caso de Deep-HiTS, las propiedades medidas permiten cuantificar la dificultad del problema y muestran cómo fluye la información a través de la red. Los experimentos de aprendizaje muestran que los algoritmos propuestos permiten entrenar modelos efectivamente, aunque con un desempeño subóptimo. Varias mejoras posibles para el algoritmo de entrenamiento propuesto se describen en trabajo futuro. / Programa de formación de capital humano avanzado de CONICYT, a través de la Beca de Magíster Nacional 2016 número 22162464
93

Image sequence simulation and deep learning for astronomical object classification

Carrasco Davis, Rodrigo Antonio January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / En esta tesis, se propone un nuevo modelo de clasificación secuencial para objetos astronómicos basado en el modelo de red neuronal convolucional recurrente (RCNN) que utiliza secuencias de imágenes como entradas. Este enfoque evita el cálculo de curvas de luz o imágenes de diferencia. Esta es la primera vez que se usan secuencias de imágenes directamente para la clasificación de objetos variables en astronomía. Otra contribución de este trabajo es el proceso de simulación de imagen. Se simularon secuencias de imágenes sintéticas que toman en cuenta las condiciones instrumentales y de observación, obteniendo una serie de películas de ruido variable, realistas, muestreadas de manera irregular para cada objeto astronómico. El conjunto de datos simulado se utiliza para entrenar el clasificador RCNN. Este enfoque permite generar conjuntos de datos para entrenar y probar el modelo RCNN para diferentes estudios astronómicos y telescopios. Además, el uso de un conjunto de datos simulado es más rápido y más adaptable a diferentes surveys y tareas de clasificación. El objetivo es crear un conjunto de datos simulado cuya distribución sea lo suficientemente cercana al conjunto de datos real, de modo que un ajuste fino sobre el modelo propuesto pueda hacer coincidir las distribuciones y resolver el problema de adaptación del dominio entre el conjunto de datos simulado y el conjunto de datos real. Para probar el clasificador RCNN entrenado con el conjunto de datos sintéticos, se utilizaron datos reales de High Cadence Transient Survey (HiTS), obteniendo un recall promedio del 85% en 5 clases, mejorado a 94% después de realizar un ajuste fino de 1000 iteraciones con 10 muestras reales por clase. Los resultados del modelo RCNN propuesto se compararon con los de un clasificador de bosque aleatorio o random forest de curvas de luz. El RCNN propuesto con ajuste fino tiene un rendimiento similar en el conjunto de datos HiTS en comparación con el clasificador de bosque aleatorio de curva de luz, entrenado en un conjunto de entrenamiento aumentado con 100 copias de 10 muestras reales por clase. El enfoque RCNN presenta varias ventajas en un escenario de clasificación de streaming de alertas astronómicas, como una reducción del preprocesamiento de datos, una evaluación más rápida y una mejora más sencilla del rendimiento utilizando unas pocas muestras de datos reales. Los resultados obtenidos fomentan el uso del método propuesto para los sistemas astronomical alert brokers que procesarán streamings de alertas generados por nuevos telescopios, como el Large Synoptic Survey Telescope (LSST). Se proponen ideas para un clasificador multibanda y un mejor simulador de imágenes en función de las dificultades encontradas en este trabajo.
94

"Análisis del desempeño de MPLS VPN L2 y L3"

Flores Baldes, Jorge Eduardo January 2018 (has links)
Magíster en Ingeniería de Redes de Comunicaciones / La conmutación de etiquetas multiprotocolo (MPLS por sus siglas en inglés, Multiprotocol Label Switching) surge como un mecanismo de convergencia para los protocolos que operan sobre los niveles 2 y 3 del modelo OSI. Su capacidad para proveer y administrar diversos servicios con garantías de calidad de servicio y disponibilidad sobre una infraestructura común, ha hecho que MPLS sea un estándar en las redes de transporte de los proveedores de servicios. La interconexión de data centers y en general de redes LAN y MAN corporativas, se realiza a través de servicios MPLS VPN considerando solamente la topología de la red. En este contexto, resulta útil proporcionar información adicional para seleccionar modelos VPN en función del tipo de tráfico que se desea transportar. En este trabajo se diseña e implementa escenarios experimentales para proporcionar métricas que permiten ese contraste; el resumen de cada capítulo se detalla a continuación. En el primer capítulo se describen tecnologías, métricas de desempeño, herramientas de modelación y herramientas estadísticas. En el segundo capítulo se describen los procesos de diseño, implementación y simulación de los escenarios experimentales. Los escenarios garantizan que el desempeño de los servicios MPLS VPN se ponga a prueba bajo las mismas condiciones. Esas condiciones comprenden nodos de borde y políticas de QoS comunes para los servicios que se contrastan. Además, los escenarios consideran la capacidad de los nodos emulados por Dynamips como restricción y el tráfico que atraviesa una red operativa como condición inicial. Este tráfico se modela con redes neuronales artificiales y para poder generarlo con IPERF, se utiliza BoxCox y Bootstrapping sobre el modelo para obtener estadísticos representativos. Los procesos de implementación y simulación se realizan sobre GNS3; este último comprende la ejecución simultanea y recurrente de IP SLA, kron, IPERF, Wireshark, NTP y TFTP. En el tercer capítulo se presenta el resultado de los test estadísticos aplicados sobre las métricas de estudio. Además, se utilizan herramientas de simulación para estimar los intervalos de confianza de la media y obtener una representación gráfica del desempeño de los servicios MPLS VPN. En el cuarto capítulo se exponen las conclusiones de este trabajo, estas analizan los resultados de los test estadísticos asociados a los objetivos e hipótesis planteadas. Para finalizar se exponen algunas apreciaciones sobre trabajos futuros.
95

A capsule neural network based model for structural damage localization and quantification using transmissibilty data

Figueroa Barraza, Joaquín Eduardo January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería Mención Mecánica / Memoría para optar al título de Ingeniero Civil Mecánico / Dentro de la ingeniería estructural, el monitoreo de condición usando diferentes tipos de sensores ha sido importante en la prevención de fallas y diagnóstico del estado de salud. El desafío actual es aprovechar al máximo las grandes cantidades de datos para entregar mediciones y predicciones precisas. Los algoritmos de aprendizaje profundo abordan estos problemas mediante el uso de datos para encontrar relaciones complejas entre ellos. Entre estos algoritmos, las redes neuronales convolucionales (CNN) han logrado resultados de vanguardia, especialmente cuando se trabaja con imágenes. Sin embargo, existen dos problemas principales: la incapacidad de reconocer imágenes rotadas como tales, y la inexistencia de jerarquías dentro de las imágenes. Para resolver estos problemas, se desarrollaron las redes de cápsulas (Capsule Networks), logrando resultados prometedores en problemas de tipo benchmark. En esta tesis, las Capsule Networks se modifican para localizar y cuantificar daños estructurales. Esto implica una tarea doble de clasificación y regresión, lo que no se ha realizado anteriormente. El objetivo es generar modelos para dos casos de estudio diferentes, utilizando dos algoritmos de routing diferentes. Se analizan y comparan los resultados entre ellos y con el estado del arte. Los resultados muestran que las Capsule Networks con Dynamic routing logran mejores resultados que las CNN, especialmente cuando se trata de valores falsos positivos. No se observa sobreajuste en el conjunto de validación sino en el conjunto de prueba. Para resolver esto, se implementa la técnica de dropout, mejorando los resultados obtenidos en este último conjunto.
96

An End-to-End Framework for Audio-to-Score Music Transcription

Román, Miguel A. 20 January 2021 (has links)
Esta tesis doctoral presenta un nuevo enfoque en el área de la transcripción musical automática (AMT), definiendo la tarea de Audio-to-Score (A2S), que realiza la transcripción musical de extremo a extremo gracias a la capacidad de modelado de problemas que nos ofrecen las redes neuronales profundas. Este enfoque va un paso más allá de los sistemas de transcripción tradicionales, que están basados en predecir notas musicales en el formato de tiempo-frecuencia llamado pianola o piano-roll en inglés. Las principales ventajas del enfoque propuesto frente a los métodos tradicionales son las siguientes: - La salida es una partitura válida de música que puede ser directamente interpretada por músicos o analizada por musicólogos. - La aproximación extremo a extremo evita que los errores de una etapa se propaguen a la siguiente. - No precisa de anotaciones de alineamiento temporal entre el audio de entrada y la partitura de salida, dado que se aprende por el modelo de forma implícita. - Mediante la aproximación extremo a extremo se aprende también un modelo de lenguaje musical que ayuda a reducir los errores de transcripción de manera global.
97

Predicción de propiedades de sustancias y materiales de interés en la industria química a través del desarrollo de métodos computacionales

Palomba, Damián 17 March 2014 (has links)
El objetivo de esta Tesis es desarrollar métodos computacionales predictivos para propiedades específicas de compuestos de interés en la industria química, particularmente en la industria farmacéutica y de materiales poliméricos. Para desarrollar la metodología de trabajo se utilizó como herramienta la técnica Relación Cuantitativa Estructura/Propiedad (QSPR) (Quantitative Structure/Property Relationship), que consiste en relacionar cuantitativamente diferentes parámetros de una entidad química (por ejemplo una molécula pequeña o un polímero) con una propiedad bien definida de la misma. Este trabajo se plantea como un estudio interdisciplinario, de forma tal que la técnica QSPR sea enriquecida con el conocimiento del ensayo de medición de las propiedades que se buscan predecir y fundamentalmente con los aspectos físico-químicos involucrados. La metodología de trabajo se aplicó en una primera instancia a la predicción de propiedades de drogas y compuestos orgánicos en general y, en una segunda, a propiedades de materiales poliméricos. Las propiedades que se exploraron vinculadas a las drogas y compuestos orgánicos fueron algunas de las físico-químicas relacionadas al comportamiento ADMET (absorción, distribución, metabolismo, excreción y toxicidad) de los mismos. Estas fueron la absorción intestinal humana (AIH) (Human Intestinal Absorption) y el pasaje de la barrera hemato-encefálica (BHE) (Blood-Brain Barrier), ambas esenciales para el desarrollo de nuevos fármacos. Asimismo, se estudiaron los compuestos orgánicos volátiles (VOCs) (volatile organic compounds) que son gases emitidos de ciertos sólidos o líquidos. Se predijeron sus coeficientes de distribución sangre-hígado (log Pliver), que se pueden emplear en la evaluación de riesgos y toma de decisiones en políticas de salud pública. Por otro lado, con respecto al campo de los materiales poliméricos se exploraron diferentes propiedades. Una de ellas es una propiedad térmica, la temperatura de transición vítrea (Tg), la cual se relaciona con el desempeño mecánico y la procesabilidad del material; las restantes son propiedades mecánicas derivadas del ensayo de tracción en una dimensión: elongación a la rotura (Elongation at Break), resistencia a la rotura (Strength at Break) y módulo elástico o de Young (Tensile Modulus). Estas propiedades mecánicas brindan información relacionada con la ductilidad, resistencia y rigidez de un material polimérico respectivamente, y junto con otras definen su perfil de aplicación estructural. La Tesis se organiza, de modo general, en dos grandes bloques en relación con el material al cual se aplica la predicción: drogas y compuestos orgánicos volátiles (compuestos de interés farmacéutico y de salud pública) por un lado, y por el otro, materiales poliméricos (materiales de interés en la industria química). Esta estructura obedece a las significativas diferencias moleculares entre los compuestos de trabajo de los cuales se obtiene la propiedad a predecir, denominada propiedad objetivo o target, y por lo tanto de aquí surgen también los distintos enfoques con los que se plantearon cada una de las predicciones. La contribución original en el área de las drogas y compuestos orgánicos volátiles fue el desarrollo de nuevos modelos de predicción para las propiedades previamente mencionadas, mediante un enfoque semi-automático (un método de selección automática de variables combinado con una selección manual guiada por el conocimiento experto) que se puede aplicar también para modelar otras propiedades y otros compuestos. También el aporte del conocimiento físico-químico durante la fase de modelado conduciendo a modelos más aceptables, ya que son más fáciles de interpretar y tienden a generalizar mejor a los compuestos de diseño (virtuales), es decir compuestos aún no sintetizados. Con relación al campo de los materiales poliméricos, las contribuciones novedosas fueron generar diferentes modelos para predecir la propiedad térmica y las propiedades mecánicas nombradas. Se desarrolló un prototipo molecular sintético, consistente en una estructura trimérica, para representar a los polímeros. Se propusieron nuevos descriptores para materiales poliméricos mediante un enfoque original de las cadenas de los polímeros, distinguiendo los fragmentos que corresponden respectivamente a la cadena principal y a la cadena lateral. Se obtuvo un modelo de predicción para la Tg enriquecido con el conocimiento físico-químico subyacente del fenómeno estudiado y se presentó una explicación estructural detallada de los descriptores del modelo y su relación con la propiedad estudiada. Luego, se validó el prototipo molecular (trímero) en relación a estructuras más complejas (31 unidades repetitivas). Con respecto a las propiedades mecánicas, se presentó un set de datos de trabajo que se recopiló y depuró para polímeros sintéticos a partir de fuentes disponibles. Se propusieron descriptores: por un lado, nuevos de cadena de polímeros, y por el otro, parámetros experimentales. Finalmente, se demostró la utilidad de incorporar información experimental del ensayo de tensión junto con estrategias estructurales para abordar la predicción, generando así herramientas más inteligentes e interpretables para el diseño de nuevos materiales con un perfil de aplicación específico. / The goal of this Thesis is to develop predictive computational methods for specific properties of compounds of interest in the chemical industry, particularly in pharmaceutical and polymeric materials industry. In order to develop the working method, the Quantitative Structure/Property Relationship (QSPR) technique was utilized, which relates quantitatively different parameters of an entity (e.g. a molecule or polymer) with an own well-defined process, such as a property. This work is planned as an interdisciplinary study, with the aim of improving the QSPR technique by means of physicochemical comprehension and the knowledge of target property measurement test. Firstly, the method was applied to predict properties of drugs and general organic compounds and, secondly, to predict polymeric materials properties. Physicochemical properties related to the ADMET (absorption, distribution, metabolism, excretion and toxicity) behavior of drugs and organic compounds were explored. These were the Human Intestinal Absorption (HIA) and the Blood Brain Barrier (BBB) penetration, both essential for drug development. Furthermore, the volatile organic compounds (VOCs) were studied, which are gases emitted from certain solids or liquids. Their blood-to-liver partition coefficients (log Pliver) were predicted; it can be applied to risk assessment and decision making in public health policies. Regarding to the polymeric materials field, several properties were studied. One of them is a thermal property, the glass transition temperature (Tg), which is related to the processability and material mechanical performance; the remaining ones are tensile properties: elongation at break, strength at break, and tensile modulus. These mechanical properties provide information related to the ductility, strength, and stiffness of a polymeric material, respectively and, along with other ones, define its structural application profile. This Thesis can be broadly divided into two main categories, according to the material that prediction is performed: drugs and volatile organic compounds (compounds of interest in pharmaceutical industry and public health) on the one hand, and polymeric materials (materials of interest in the chemical industry) on the other. This structure is due to significant molecular differences between the working compounds (organic and polymeric materials) from which the property to predict is obtained (target property), and therefore to the different approaches whereby each prediction was addressed. The original contribution in the drugs and volatile organic compounds field was the development of new predictive models for the aforementioned properties, using a semi-automatic approach (an automatic-variable-selection method combined with a knowledge-aided-manual selection) that can also be applied so as to model another properties. Moreover, during the modeling phase, the contribution of the physicalchemical knowledge led to acceptable models since they are easier to interpret and tend to better generalize design compounds (virtual), i.e. not-yet-synthesized compounds. Regarding the polymeric materials science, the generation of different models for predicting the already mentioned thermal property and the mechanical properties was a novel contribution. A molecular prototype, consisting of a trimeric structure, was used in order to represent the polymers. New descriptors were proposed for polymeric materials by means of a polymer chains approach, the main and side chain. A prediction model for Tg was obtained, enriched by the underlying physicochemical knowledge from the studied phenomenon, and a detailed structural explanation of the model descriptors and its relation to the studied property was presented. Afterwards, the molecular prototype (trimer) was validated against to more complex structures (31 repeating units). With respect to tensile properties, a tailor-made dataset was presented. Several descriptors were proposed: new ones of polymer chain, and alternatively, experimental parameters. Finally, we demonstrated the usefulness of considering experimental information from the tensile test along with structural strategies to tackle the prediction, thereby more intelligent tools for the design of new materials with a specific application profile are provided.
98

Modeling Uncertainty for Reliable Probabilistic Modeling in Deep Learning and Beyond

Maroñas Molano, Juan 28 February 2022 (has links)
[ES] Esta tesis se enmarca en la intersección entre las técnicas modernas de Machine Learning, como las Redes Neuronales Profundas, y el modelado probabilístico confiable. En muchas aplicaciones, no solo nos importa la predicción hecha por un modelo (por ejemplo esta imagen de pulmón presenta cáncer) sino también la confianza que tiene el modelo para hacer esta predicción (por ejemplo esta imagen de pulmón presenta cáncer con 67% probabilidad). En tales aplicaciones, el modelo ayuda al tomador de decisiones (en este caso un médico) a tomar la decisión final. Como consecuencia, es necesario que las probabilidades proporcionadas por un modelo reflejen las proporciones reales presentes en el conjunto al que se ha asignado dichas probabilidades; de lo contrario, el modelo es inútil en la práctica. Cuando esto sucede, decimos que un modelo está perfectamente calibrado. En esta tesis se exploran tres vias para proveer modelos más calibrados. Primero se muestra como calibrar modelos de manera implicita, que son descalibrados por técnicas de aumentación de datos. Se introduce una función de coste que resuelve esta descalibración tomando como partida las ideas derivadas de la toma de decisiones con la regla de Bayes. Segundo, se muestra como calibrar modelos utilizando una etapa de post calibración implementada con una red neuronal Bayesiana. Finalmente, y en base a las limitaciones estudiadas en la red neuronal Bayesiana, que hipotetizamos que se basan en un prior mispecificado, se introduce un nuevo proceso estocástico que sirve como distribución a priori en un problema de inferencia Bayesiana. / [CA] Aquesta tesi s'emmarca en la intersecció entre les tècniques modernes de Machine Learning, com ara les Xarxes Neuronals Profundes, i el modelatge probabilístic fiable. En moltes aplicacions, no només ens importa la predicció feta per un model (per ejemplem aquesta imatge de pulmó presenta càncer) sinó també la confiança que té el model per fer aquesta predicció (per exemple aquesta imatge de pulmó presenta càncer amb 67% probabilitat). En aquestes aplicacions, el model ajuda el prenedor de decisions (en aquest cas un metge) a prendre la decisió final. Com a conseqüència, cal que les probabilitats proporcionades per un model reflecteixin les proporcions reals presents en el conjunt a què s'han assignat aquestes probabilitats; altrament, el model és inútil a la pràctica. Quan això passa, diem que un model està perfectament calibrat. En aquesta tesi s'exploren tres vies per proveir models més calibrats. Primer es mostra com calibrar models de manera implícita, que són descalibrats per tècniques d'augmentació de dades. S'introdueix una funció de cost que resol aquesta descalibració prenent com a partida les idees derivades de la presa de decisions amb la regla de Bayes. Segon, es mostra com calibrar models utilitzant una etapa de post calibratge implementada amb una xarxa neuronal Bayesiana. Finalment, i segons les limitacions estudiades a la xarxa neuronal Bayesiana, que es basen en un prior mispecificat, s'introdueix un nou procés estocàstic que serveix com a distribució a priori en un problema d'inferència Bayesiana. / [EN] This thesis is framed at the intersection between modern Machine Learning techniques, such as Deep Neural Networks, and reliable probabilistic modeling. In many machine learning applications, we do not only care about the prediction made by a model (e.g. this lung image presents cancer) but also in how confident is the model in making this prediction (e.g. this lung image presents cancer with 67% probability). In such applications, the model assists the decision-maker (in this case a doctor) towards making the final decision. As a consequence, one needs that the probabilities provided by a model reflects the true underlying set of outcomes, otherwise the model is useless in practice. When this happens, we say that a model is perfectly calibrated. In this thesis three ways are explored to provide more calibrated models. First, it is shown how to calibrate models implicitly, which are decalibrated by data augmentation techniques. A cost function is introduced that solves this decalibration taking as a starting point the ideas derived from decision making with Bayes' rule. Second, it shows how to calibrate models using a post-calibration stage implemented with a Bayesian neural network. Finally, and based on the limitations studied in the Bayesian neural network, which we hypothesize that came from a mispecified prior, a new stochastic process is introduced that serves as a priori distribution in a Bayesian inference problem. / Maroñas Molano, J. (2022). Modeling Uncertainty for Reliable Probabilistic Modeling in Deep Learning and Beyond [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181582 / TESIS
99

Diseño de un Nuevo Sistema de Vigilancia de Dominio de Internet

Zumaeta Morales, Rodrigo Andrés January 2007 (has links)
No description available.
100

Proveniencia Sedimentaria y Ambiente Deposicional de Unidades Atribuídas a los Complejos Duque de York y Denaro, Patagonia XII Región, Chile

Quezada Jara, Andrés Alberto January 2010 (has links)
Se caracterizó petrográfica y geoquímicamente las muestras de rocas asignadas al Complejo Duque de York (CDY) y Complejo Denaro (CD). La asignación ha sido hecha en base a características texturales, litológicas, relaciones de contacto y deformación de las rocas que allí se presentan; pero no se habían hecho estudios petrográficos y geoquímicos para confirmar tales asignaciones. El CDY y el CD forman parte de los Complejos Acrecionarios Costeros. El CDY es una sucesión metasedimentaria que aflora en el margen occidental de la Patagonia con una extensión latitudinal de más de 400 km desde isla Mornington hasta isla Desolación. Está constituído por sucesiones turbidíticas con la presencia de lentes tectónicos de chert. El CD está formado por una sucesión que de base a techo incluye basaltos, 3 niveles de chert y calcarenitas. Asimismo en la Península Antártica afloran rocas consistentes en metaturbiditas similares a las del CDY en el bajo grado metamórfico y en edad de depósito, ubicándose en el rango entre el Pérmico Temprano y el Jurásico Temprano. Las muestras analizadas incluyen areniscas, argilitas y chert que cubren latitudinalmente casi toda el área de la Patagonia donde afloran el CDY y CD. Para las dos primeras litologías se determinó fuente y régimen tectónico de la cuenca de depósito y para el tercero su ambiente deposicional. En total se realizaron análisis químicos a 36 muestras de los 3 tipos litológicos nombrados. Las características petrográficas de las areniscas y argilitas estudiadas aquí se asocian a una proveniencia que es congruente con sedimentos generados a partir de la erosión de raíces plutónicas de un arco magmático ubicado en un margen continental. En cuanto a la geoquímica de estas rocas estas evidenciarían una fuente ígnea común, de composición intermedia a ácida y depósito en una cuenca en un margen continental activo. Se pudo establecer que hay muestras de chert de los tres tipos de ambientes distinguibles es decir ridge, pelágico y margen continental. Esto es evidencia de la presencia de un margen continental activo a lo largo de toda la Patagonia entre las latitudes donde aflora el CDY. Se compararon los resultados de este trabajo con los de estudios anteriores en rocas del CDY en la Patagonia y del Grupo Península Trinidad de la Península Antártica confirmándose las similitudes reportadas en trabajos anteriores.

Page generated in 0.088 seconds