• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 20
  • 4
  • 3
  • Tagged with
  • 204
  • 146
  • 76
  • 54
  • 54
  • 54
  • 54
  • 54
  • 46
  • 43
  • 38
  • 37
  • 35
  • 34
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Proveedores de la minería en Chile y el efecto de la intensidad tecnológica en sus exportaciones

Opazo Araya, Felipe Andrés 30 June 2017 (has links)
Estudio de caso para optar al grado de Magíster en Estrategia Internacional y Política Comercial / En este estudio de casos, se examina el efecto de la intensidad tecnológica en las exportaciones de bienes y servicios de los proveedores de la minería en Chile, por medio de la elaboración de un modelo gravedad de exportaciones y cuatro entrevistas realizadas a 4 autoridades relacionadas al rol público y privado de los proveedores de la minería. Se analizan las exportaciones entre los años 2010 y 2014 y a cada una de las 342 partidas arancelarias exportadas realizadas por 112 países, se les asigna una intensidad tecnológica definida por CEPAL. Los datos analizados del modelo de gravedad y de las entrevistas realizadas, sugieren que el efecto de la intensidad tecnológica es bajo en las exportaciones, observándose en las exportaciones de los países un alto grado de concentración en algunas partidas arancelarias que no tienen un índice tecnológico alto asociado. Se describen los principales resultados y desafíos del sector como son el desarrollo de una hoja de ruta de la minería y una plataforma de innovación que permita a los proveedores chilenos desarrollar soluciones tecnológicas para luego llevarlas a los mercados internacionales.
172

Predicción de la demanda para un general sales service agent (GSSA) mediante regresión lineal simple / Demand forecasting for a general sales service agent through simple linear regression

Rojas García, Freddy Wiliam 09 December 2020 (has links)
Pacific Feeder Services (PFS) es un agente general de venta de espacios aéreos de distintas aerolíneas; por ejemplo, Korean Air, Aeroméxico, Alitalia, Aerolíneas Argentinas y Gol. Estas aerolíneas no cuentan con infraestructura propia en el Perú, de modo que PFS actúa como representante de estas aerolíneas ante sus clientes. En el presente trabajo de investigación se utilizará la metodología iterativa de la ciencia de datos para abordar el problema relacionado a la demanda, puesto que esta es incierta en algunos meses del año. Para ello, se plantea la siguiente hipótesis: ¿Será una regresión lineal simple el modelo adecuado para realizar el pronóstico de los volúmenes de la demanda que tendrá PFS en los próximos meses? El objetivo por alcanzar será proyectar la demanda mediante una regresión lineal simple, para lo cual se está tomando como base los datos de los kilos exportados por PFS en el año 2019. Asimismo, el presente trabajo de investigación académico presenta una arquitectura de datos funcional y una arquitectura de datos tecnológica que da soporte al modelo de regresión lineal simple. La primera explica cuáles son los insumos, almacenamiento y consumo que se requieren para implementar el mencionado modelo, mientras que la segunda expone las herramientas del modelo. Finalmente, el trabajo acaba con las conclusiones y recomendaciones asociadas a la correcta implementación del modelo de regresión lineal simple en el caso específico de PFS. / Pacific Feeder Services (PFS) is a general sales service agent (GSSA) whose main duty is to commercialize air freight capacity of different airlines; for example, Korean Air, Aeroméxico, Alitalia, Aerolineas Argentinas and Gol. These airlines do not have their own infrastructure in the country, so PFS acts as a representative of these airlines to their customers. In this research paper, the iterative methodology of data science will be used to address the problem related to demand, inasmuch as this is uncertain in some months of the year. To do this, the following hypothesis is proposed: Will a simple linear regression be the appropriate model to forecast the volumes of demand that PFS will have in the coming months? The objective to be achieved will be to project the demand through a simple linear regression, for which the data of the kilos exported by PFS in 2019 is being taken as a basis. Likewise, this academic research paper presents a functional data architecture and a technological data architecture that supports the simple linear regression model. The first explains what the inputs, storage and consumption required to implement the mentioned model are, while the second exposes the tools of the model. Finally, the research paper ends with the conclusions and recommendations associated with the correct implementation of the simple linear regression model in the specific case of PFS. / Trabajo de investigación
173

Aplicación de Data Science en la productividad de emisiones de pólizas / Data Science Application in productivity of policies issuance

Escobar Pacheco, Víctor Eduardo, Lazo vera, Zadith Elizabeth, Padilla Mantilla, Bryan Obed, Sangay Espinoza, Almendra Alessandra 13 December 2020 (has links)
El presente trabajo tiene como objetivo identificar las variables que influyeron en la productividad de las emisiones de nuevas pólizas en el periodo del 2019 en las agencias de Lima, en las siguientes páginas se detalla de manera concreta y pormenorizada. Por otro lado, dicho estudio abarca temas tales como comprensión del negocio y enfoque analítico, compresión y preparación de los datos, producción, análisis e interpretación de los datos, modelado y evaluación de la data. Asimismo, la metodología utilizada para el estudio en mención está basada en la metodología de la ciencia de datos de IBM, que se espera contribuya a la obtención de resultados favorables de cara a responder la pregunta de investigación. El presente trabajo de investigación tiene un enfoque descriptivo que emplea la técnica de aprendizaje supervisado con la ayuda de regresión lineal. Por último, el propósito del presente proyecto de investigación no es el de brindar una solución en concreto para la organización en estudio, sino el de dar alternativas para posibles planes de acción y/o mejor toma de decisiones al problema identificado, los cuales puedan ser implementados en pro de la mejora departamental de la compañía. / The work purpose is to identify the variables that influenced the productivity of the issuance of new policies in the 2019 period in the Lima agencies, which is detailed in a concrete and detailed way in the following pages. On the other hand, this study covers topics such as business understanding and analytical approach, data compression and preparation, data production, analysis and interpretation, data modeling and evaluation. Likewise, the methodology used for the study in question is based on the IBM data science methodology, which is expected to contribute to obtaining favorable results in order to answer the research question. The present research work has a descriptive approach, the same one that uses the supervised learning technique with the help of linear regression. Finally, the purpose of this research project is not to provide a specific solution for the organization under study, but to provide alternatives for possible action plans and / or better decision-making to the identified problem, which may be implemented in favor of the departmental improvement of the company. / Trabajo de investigación
174

Analizar el incremento de suscriptores de Netflix con respecto a la competencia desde el 2010 hasta lo que va del año 2020

Figueroa López, Romina Beatriz, Uriarte Mori, José André 28 November 2020 (has links)
El presente trabajo de investigación tiene como finalidad analizar el incremento de suscriptores de Netflix con respecto a la competencia desde el 2010 hasta lo que va del año 2020. Hemos determinado que el enfoque será predictivo para que la organización a cargo pueda hacer uso del modelo supervisado de la manera que más le favorezca y estos puedan tomar las mejores decisiones estratégicas. Para ello, se ha generado una base de datos recopilada de diversas fuentes públicas confiables para obtener las variables: “cantidad de suscriptores”, “costo de contenido original”, “covid-19” … y posterior a ello, con toda la data adquirida se procederá a realizar cada etapa de la metodología de la ciencia de datos descrita en el curso durante el programa de ciencia de datos. Para aclarar el panorama hemos optado por el uso de la técnica de correlación de Pearson, lo cual nos permitió determinar las variables que tenían mejor correlación entre ellas, esto advierte que la variable más adecuada para determinar futuros pronósticos y analizar el incremento de suscriptores es la del costo de contenido original. Finalmente, para mostrar los resultados de la investigación se ha decidido utilizar como herramienta de visualización Power BI para exponer el presente estudio y responder a los objetivos planteados. / The purpose of this research work is to analyze the increase in Netflix subscribers with respect to the competition from 2010 to so far in 2020. We have determined that the approach will be predictive so that the organization in charge can make use of the supervised model in the way that best suits them and they can make the best strategic decisions. For this, a database compiled from various reliable public sources has been generated to obtain the variables: "number of subscribers", "cost of original content", "covid-19" ... and after that, with all the data acquired Each stage of the data science methodology described in the course will be carried out during the data science program. To clarify the panorama we have opted for the use of the Pearson correlation technique, which allowed us to determine the variables that had the best correlation between them, this warns that the most appropriate variable to determine future forecasts and analyze the increase in subscribers is the of the cost of original content. Finally, to show the results of the research, it has been decided to use Power BI as a visualization tool to present the present study and respond to the objectives set. / Trabajo de investigación
175

Factores que influyeron en la exportación de mango fresco del perú hacia EE.UU durante el periodo 2002-2019 / Factor that influence the export of fresh mango from Peru to the US during the period 2002-2019

Flores Otoya, Brunela Belén, Martinez Suarez, Franco Alonso 13 January 2021 (has links)
Dentro del sector no tradicional agrícola, el mango fresco es la quinta fruta peruana más exportada, con un crecimiento promedio anual de 12.92 por ciento desde el 2002 al 2019. Estados Unidos es el segundo destino de las exportaciones peruanas de mango, abarcando un promedio del 24% por ciento de las ventas totales en el 2019. Ante ello, la presente investigación busca determinar los factores que influyeron en la exportación de mango fresco del Perú hacia Estados Unidos durante el periodo 2002 – 2019. El estudio tuvo un enfoque mixto, con un alcance descriptivo, correlacional y causal; con un diseño no experimental longitudinal, donde se analizaron las variables Producción, Precio FOB, Tipo de Cambio, Demanda EE.UU y PBI de EE.UU. Además, de carácter descriptivo se analizaron las variables Gestión empresarial, Apoyo del Estado y Clima. Para el análisis cuantitativo se obtuvo información de fuentes secundarias como Adex Data Trade, BCRP, Banco Mundial, MINAGRI y Bureau of Economic donde se procesaron los datos a través de un modelo de regresión lineal múltiple. Mientras que, para el análisis cualitativo, se usó la técnica de entrevistas semi estructuradas en el cual se entrevistaron a trece actores clave pertenecientes a entidades del sector privado, sector público y gremios relacionados donde se procesó la información a través de la herramienta Atlas Ti. Sobre los resultados de la investigación se concluyeron que las variables producción nacional y demanda de Estados Unidos influyeron en la exportación de mango fresco peruano hacia Estados Unidos. / Within the non-traditional agricultural sector, fresh mango is the fifth most exported Peruvian fruit, with an average annual growth of 12.92 percent from 2002 to 2019. The United States is the second destination for Peruvian mango exports, covering an average of 24% percent of total sales in 2019. Given this, this research seeks to determine the factors that influenced the export of fresh mango from Peru to the United States during the period 2002 - 2019. The study had a mixed approach, with a descriptive, correlational and causal scope; With a non-experimental longitudinal design, where the variables Production, FOB Price, Exchange Rate, US Demand and US GDP were analyzed. In addition, of a descriptive nature, the variables Business Management, State Support and Climate were analyzed. For the quantitative analysis, information was obtained from secondary sources such as Adex Data Trade, BCRP, World Bank, MINAGRI and Bureau of Economic, where the data was processed through a multiple linear regression model. While, for the qualitative analysis, the semi-structured interview technique was used in which thirteen key actors belonging to entities of the private sector, public sector and related unions were interviewed where the information was processed through the Atlas Ti tool. Regarding the results of the investigation, it was concluded that the variables national production and demand from the United States influenced the export of fresh Peruvian mango to the United States. / Tesis
176

A Statistical Methodology for Classifying Time Series in the Context of Climatic Data

Ramírez Buelvas, Sandra Milena 24 February 2022 (has links)
[ES] De acuerdo con las regulaciones europeas y muchos estudios científicos, es necesario monitorear y analizar las condiciones microclimáticas en museos o edificios, para preservar las obras de arte en ellos. Con el objetivo de ofrecer herramientas para el monitoreo de las condiciones climáticas en este tipo de edificios, en esta tesis doctoral se propone una nueva metodología estadística para clasificar series temporales de parámetros climáticos como la temperatura y humedad relativa. La metodología consiste en aplicar un método de clasificación usando variables que se computan a partir de las series de tiempos. Los dos primeros métodos de clasificación son versiones conocidas de métodos sparse PLS que no se habían aplicado a datos correlacionados en el tiempo. El tercer método es una nueva propuesta que usa dos algoritmos conocidos. Los métodos de clasificación se basan en diferentes versiones de un método sparse de análisis discriminante de mínimos cuadra- dos parciales PLS (sPLS-DA, SPLSDA y sPLS) y análisis discriminante lineal (LDA). Las variables que los métodos de clasificación usan como input, corresponden a parámetros estimados a partir de distintos modelos, métodos y funciones del área de las series de tiempo, por ejemplo, modelo ARIMA estacional, modelo ARIMA- TGARCH estacional, método estacional Holt-Winters, función de densidad espectral, función de autocorrelación (ACF), función de autocorrelación parcial (PACF), rango móvil (MR), entre otras funciones. También fueron utilizadas algunas variables que se utilizan en el campo de la astronomía para clasificar estrellas. En los casos que a priori no hubo información de los clusters de las series de tiempos, las dos primeras componentes de un análisis de componentes principales (PCA) fueron utilizadas por el algoritmo k- means para identificar posibles clusters de las series de tiempo. Adicionalmente, los resultados del método sPLS-DA fueron comparados con los del algoritmo random forest. Tres bases de datos de series de tiempos de humedad relativa o de temperatura fueron analizadas. Los clusters de las series de tiempos se analizaron de acuerdo a diferentes zonas o diferentes niveles de alturas donde fueron instalados sensores para el monitoreo de las condiciones climáticas en los 3 edificios.El algoritmo random forest y las diferentes versiones del método sparse PLS fueron útiles para identificar las variables más importantes en la clasificación de las series de tiempos. Los resultados de sPLS-DA y random forest fueron muy similares cuando se usaron como variables de entrada las calculadas a partir del método Holt-Winters o a partir de funciones aplicadas a las series de tiempo. Aunque los resultados del método random forest fueron levemente mejores que los encontrados por sPLS-DA en cuanto a las tasas de error de clasificación, los resultados de sPLS- DA fueron más fáciles de interpretar. Cuando las diferentes versiones del método sparse PLS utilizaron variables resultantes del método Holt-Winters, los clusters de las series de tiempo fueron mejor discriminados. Entre las diferentes versiones del método sparse PLS, la versión sPLS con LDA obtuvo la mejor discriminación de las series de tiempo, con un menor valor de la tasa de error de clasificación, y utilizando el menor o segundo menor número de variables.En esta tesis doctoral se propone usar una versión sparse de PLS (sPLS-DA, o sPLS con LDA) con variables calculadas a partir de series de tiempo para la clasificación de éstas. Al aplicar la metodología a las distintas bases de datos estudiadas, se encontraron modelos parsimoniosos, con pocas variables, y se obtuvo una discriminación satisfactoria de los diferentes clusters de las series de tiempo con fácil interpretación. La metodología propuesta puede ser útil para caracterizar las distintas zonas o alturas en museos o edificios históricos de acuerdo con sus condiciones climáticas, con el objetivo de prevenir problemas de conservación con las obras de arte. / [CA] D'acord amb les regulacions europees i molts estudis científics, és necessari monitorar i analitzar les condiciones microclimàtiques en museus i en edificis similars, per a preservar les obres d'art que s'exposen en ells. Amb l'objectiu d'oferir eines per al monitoratge de les condicions climàtiques en aquesta mena d'edificis, en aquesta tesi es proposa una nova metodologia estadística per a classificar series temporals de paràmetres climàtics com la temperatura i humitat relativa.La metodologia consisteix a aplicar un mètode de classificació usant variables que es computen a partir de les sèries de temps. Els dos primers mètodes de classificació són versions conegudes de mètodes sparse PLS que no s'havien aplicat adades correlacionades en el temps. El tercer mètode és una nova proposta que usados algorismes coneguts. Els mètodes de classificació es basen en diferents versions d'un mètode sparse d'anàlisi discriminant de mínims quadrats parcials PLS (sPLS-DA, SPLSDA i sPLS) i anàlisi discriminant lineal (LDA). Les variables queels mètodes de classificació usen com a input, corresponen a paràmetres estimats a partir de diferents models, mètodes i funcions de l'àrea de les sèries de temps, per exemple, model ARIMA estacional, model ARIMA-TGARCH estacional, mètode estacional Holt-Winters, funció de densitat espectral, funció d'autocorrelació (ACF), funció d'autocorrelació parcial (PACF), rang mòbil (MR), entre altres funcions. També van ser utilitzades algunes variables que s'utilitzen en el camp de l'astronomia per a classificar estreles. En els casos que a priori no va haver-hi información dels clústers de les sèries de temps, les dues primeres components d'una anàlisi de components principals (PCA) van ser utilitzades per l'algorisme k-means per a identificar possibles clústers de les sèries de temps. Addicionalment, els resultats del mètode sPLS-DA van ser comparats amb els de l'algorisme random forest.Tres bases de dades de sèries de temps d'humitat relativa o de temperatura varen ser analitzades. Els clústers de les sèries de temps es van analitzar d'acord a diferents zones o diferents nivells d'altures on van ser instal·lats sensors per al monitoratge de les condicions climàtiques en els edificis.L'algorisme random forest i les diferents versions del mètode sparse PLS van ser útils per a identificar les variables més importants en la classificació de les series de temps. Els resultats de sPLS-DA i random forest van ser molt similars quan es van usar com a variables d'entrada les calculades a partir del mètode Holt-winters o a partir de funcions aplicades a les sèries de temps. Encara que els resultats del mètode random forest van ser lleument millors que els trobats per sPLS-DA quant a les taxes d'error de classificació, els resultats de sPLS-DA van ser més fàcils d'interpretar.Quan les diferents versions del mètode sparse PLS van utilitzar variables resultants del mètode Holt-Winters, els clústers de les sèries de temps van ser més ben discriminats. Entre les diferents versions del mètode sparse PLS, la versió sPLS amb LDA va obtindre la millor discriminació de les sèries de temps, amb un menor valor de la taxa d'error de classificació, i utilitzant el menor o segon menor nombre de variables.En aquesta tesi proposem usar una versió sparse de PLS (sPLS-DA, o sPLS amb LDA) amb variables calculades a partir de sèries de temps per a classificar series de temps. En aplicar la metodologia a les diferents bases de dades estudiades, es van trobar models parsimoniosos, amb poques variables, i varem obtindre una discriminació satisfactòria dels diferents clústers de les sèries de temps amb fácil interpretació. La metodologia proposada pot ser útil per a caracteritzar les diferents zones o altures en museus o edificis similars d'acord amb les seues condicions climàtiques, amb l'objectiu de previndre problemes amb les obres d'art. / [EN] According to different European Standards and several studies, it is necessary to monitor and analyze the microclimatic conditions in museums and similar buildings, with the goal of preserving artworks. With the aim of offering tools to monitor the climatic conditions, a new statistical methodology for classifying time series of different climatic parameters, such as relative humidity and temperature, is pro- posed in this dissertation.The methodology consists of applying a classification method using variables that are computed from time series. The two first classification methods are ver- sions of known sparse methods which have not been applied to time dependent data. The third method is a new proposal that uses two known algorithms. These classification methods are based on different versions of sparse partial least squares discriminant analysis PLS (sPLS-DA, SPLSDA, and sPLS) and Linear Discriminant Analysis (LDA). The variables that are computed from time series, correspond to parameter estimates from functions, methods, or models commonly found in the area of time series, e.g., seasonal ARIMA model, seasonal ARIMA-TGARCH model, seasonal Holt-Winters method, spectral density function, autocorrelation function (ACF), partial autocorrelation function (PACF), moving range (MR), among others functions. Also, some variables employed in the field of astronomy (for classifying stars) were proposed.The methodology proposed consists of two parts. Firstly, different variables are computed applying the methods, models or functions mentioned above, to time series. Next, once the variables are calculated, they are used as input for a classification method like sPLS-DA, SPLSDA, or SPLS with LDA (new proposal). When there was no information about the clusters of the different time series, the first two components from principal component analysis (PCA) were used as input for k-means method for identifying possible clusters of time series. In addition, results from random forest algorithm were compared with results from sPLS-DA.This study analyzed three sets of time series of relative humidity or temperate, recorded in different buildings (Valencia's Cathedral, the archaeological site of L'Almoina, and the baroque church of Saint Thomas and Saint Philip Neri) in Valencia, Spain. The clusters of the time series were analyzed according to different zones or different levels of the sensor heights, for monitoring the climatic conditions in these buildings.Random forest algorithm and different versions of sparse PLS helped identifying the main variables for classifying the time series. When comparing the results from sPLS-DA and random forest, they were very similar for variables from seasonal Holt-Winters method and functions which were applied to the time series. The results from sPLS-DA were easier to interpret than results from random forest. When the different versions of sparse PLS used variables from seasonal Holt- Winters method as input, the clusters of the time series were identified effectively.The variables from seasonal Holt-Winters helped to obtain the best, or the second best results, according to the classification error rate. Among the different versions of sparse PLS proposed, sPLS with LDA helped to classify time series using a fewer number of variables with the lowest classification error rate.We propose using a version of sparse PLS (sPLS-DA, or sPLS with LDA) with variables computed from time series for classifying time series. For the different data sets studied, the methodology helped to produce parsimonious models with few variables, it achieved satisfactory discrimination of the different clusters of the time series which are easily interpreted. This methodology can be useful for characterizing and monitoring micro-climatic conditions in museums, or similar buildings, for preventing problems with artwork. / I gratefully acknowledge the financial support of Pontificia Universidad Javeriana Cali – PUJ and Instituto Colombiano de Crédito Educativo y Estudios Técnicos en el Exterior – ICETEX who awarded me the scholarships ’Convenio de Capacitación para Docentes O. J. 086/17’ and ’Programa Crédito Pasaporte a la Ciencia ID 3595089 foco-reto salud’ respectively. The scholarships were essential for obtaining the Ph.D. Also, I gratefully acknowledge the financial support of the European Union’s Horizon 2020 research and innovation programme under grant agreement No. 814624. / Ramírez Buelvas, SM. (2022). A Statistical Methodology for Classifying Time Series in the Context of Climatic Data [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181123 / TESIS
177

Analysis Techniques for Software Maintenance

Pérez Rubio, Sergio 05 May 2023 (has links)
[ES] Vivimos en una sociedad donde la digitalización está presente en nuestro día a día. Nos despertamos con la alarma de nuestro teléfono móvil, apuntamos nuestras reuniones en nuestro calendario digital, guardamos nuestros archivos en el almacenamiento en la nube, y entramos a las redes sociales prácticamente a diario. Cada una de estas acciones se ejecuta sobre un sistema software que asegura su correcto funcionamiento. Esta digitalización masiva ha hecho que el desarrollo de software se dispare en los últimos años. Durante el ciclo de vida de un sistema software, la etapa de mantenimiento supone un gasto de billones de dólares anuales. La razón detrás de este gasto es la aparición de bugs o errores que no fueron detectados durante la fase de producción del software, y que se traducen en un mal funcionamiento del sistema. Por este motivo, las técnicas de detección y localización de errores como el testeo, la verificación o la depuración son un factor clave para asegurar la calidad del software. Aunque son muchas las técnicas que se utilizan para la depuración, testeo y verificación de sistemas software, esta tesis se centra solo en algunas de ellas. En concreto, esta tesis presenta mejoras en la técnica de fragmentación de programas (depuración), una nueva metodología para hacer testeo de regresión (testeo) y una nueva implementación del modelo de verificación de diseño-por-contrato para el lenguaje de programación Erlang (verificación). Las mejoras propuestas para la técnica de fragmentación de programas incluyen diversas propuestas aplicables a diferentes escenarios: (i) mejoras en la representación y fragmentación de programas orientados a objetos, (ii) mejoras en la representación y fragmentación de estructuras de datos complejas (objetos, vectores, listas, tuplas, registros, etc.), (iii) un nuevo modelo de grafo basado en una representación más detallada de programas, aumentando la expresividad del grafo y generando fragmentos de código más precisos como resultado, y (iv) una nueva técnica para calcular fragmentos mínimos de un programa dado un conjunto específico de posibles valores de entrada. Por otro lado, la nueva metodología para hacer testeo de regresión se denomina testeo de punto de interés, e introduce la posibilidad de comparar automáticamente el comportamiento de un punto cualquiera del código dadas dos versiones del mismo sistema software. Por último, la tesis contiene la nueva implementación del modelo de verificación de programas diseño-por-contrato para el lenguaje de programación Erlang, donde se explican en detalle los nuevos tipos de contratos diseñados para las partes secuencial y concurrente de Erlang. Todos los análisis presentados en esta tesis han sido formalmente definidos y su corrección ha sido probada, asegurando de esta manera que los resultados tendrán el grado de fiabilidad necesario para ser aplicados a sistemas reales. Otra contribución de esta tesis es la implementación de dos herramientas de fragmentación de programas para dos lenguajes de programación diferentes (Java y Erlang), una herramienta para realizar testeo de punto de interés para el lenguaje de programación Erlang y un sistema para ejecutar verificación de diseño-por-contrato en Erlang. Es de destacar que todas las herramientas implementadas a lo largo del desarrollo de esta tesis son herramientas de código abierto y públicamente accesibles, de manera que pueden ser usadas o extendidas por cualquier investigador interesado en este area. / [CA] Vivim en una societat on la digitalització està present al nostre dia a dia. Ens alcem amb l'alarma del nostre telèfon mòbil, apuntem les nostres reunions al nostre calendari digital, guardem els nostres arxius al emmagatzematge al núvol, i entrem a las xarxes socials pràcticament a diari. Cadascuna d'aquestes accions s'executa sobre un sistema programari que assegura el seu correcte funcionament. Aquesta digitalizació massiva ha fet que el desenvolupament de programari es dispare en els últims anys. Durant el cicle de vida de un sistema programari, l'etapa de manteniment suposa una despesa de bilions de dòlars anuals. La raó darrere d'aquesta despesa és l'aparició de bugs o errors que no van ser detectats durant la fase de producció del programari, i que es traduïxen en un mal funcionament del sistema Per este motiu, les tècniques de detecció i localització d'errors com el testeig, la verificació o la depuració són un factor clau per a assegurar la qualitat del programari. Encara que són moltes les tècniques utilitzades per a la depuració, testeig i verificació de sistemes programari, esta tesi es centra només en algunes d'elles. En concret, esta tesi presenta millores en la tècnica de fragmentació de programes (depuració), una nova metodologia per a fer testeig de regressió (testeig) i una nova implementació del model de verificació de disseny-per-contracte per al llenguatge de programació Erlang (verificació). Les millores proposades per a la tècnica de fragmentació de programes inclouen diverses propostes aplicables a diferents escenaris: (i) millores en la representació i fragmentació de programes orientats a objectes, (ii) millores en la representació i fragmentació d'estructures de dades complexes (objectes, vectors, llistes, tuples, registres, etc.), (iii) un nou model de graf basat en una representació més detallada de programes, augmentant l'expressivitat del graf i generant fragments de codi més precisos com a resultat, i (iv) una nova tècnica per a calcular fragments mínims d'un programa donat un conjunt específic de possibles valors d'entrada. D'altra banda, la nova metodologia per a fer testeig de regressió es denomina testeig de punt d'interés, i introduïx la possibilitat de comparar automàticament el comportament d'un punt qualsevol del codi donades dos versions del mateix sistema programari. Finalment, la tesi conté la nova implementació del model de verificació de programes disseny-per-contracte per al llenguatge de programació Erlang, on s'expliquen en detall els nous tipus de contractes dissenyats per a les parts seqüencial i concurrent d'Erlang. Totes les anàlisis presentades en aquesta tesi han sigut formalment definides i la seua correcció ha sigut provada, assegurant d'aquesta manera que els resultats tindran el grau de fiabilitat necessari per a ser aplicats a sistemes reals. Una altra contribució d'aquesta tesi és la implementació de dos ferramentes de fragmentació de programes per a dos llenguatges de programació diferents (Java i Erlang), una ferramenta per a realitzar testeig the punt d'interés per al llenguatge de programació Erlang i un sistema per a executar verificació de disseny-per-contracte a Erlang. Cal destacar que totes les ferramentes implementades al llarg del desenvolupament d'aquesta tesi són ferramentes de codi obert i públicament accessibles, de manera que poden ser usades o esteses per qualsevol investigador interessat en el tema. / [EN] We live in a society where digitalisation is present in our everyday life. We wake up with the alarm of our mobile phone, book our meetings in our digital calendar, save all our media in the cloud storage, and spend time in social networks almost daily. Every one of these tasks is run over a software system that ensures its correct functionality. This massive digitalisation has made software development to shoot up in the last years. During the lifetime of software systems, the maintenance process entails a waste of billions of dollars every year. The cause of this waste is the occurrence of bugs or errors undetected during the software production, which result in a malfunction of the system. For this reason, error detection and localisation techniques, such as testing, verification, or debugging, are a key factor to ensure software quality. Although many different techniques are used for the debugging, testing, and verification of software systems, this thesis focus on only some of them. In particular, this thesis presents improvements in the program slicing technique (debugging field), a new approach for regression testing (testing field), and a new implementation of the design-by-contract verification model for the Erlang programming language (verification field). The improvements proposed for the program slicing technique include several enhancements applicable to different scenarios: (i) improvements in the representation and slicing of object-oriented programs, (ii) enhancements in the representation and slicing of (possibly recursive) complex data structures (objects, arrays, lists, tuples, records, etc.), (iii) a new graph model based on a fine-grained representation of programs that augments the expressivity of the graph and provides more accurate slicing results, and (iv) a new technique to compute minimal slices for a program given a set of specific program inputs. On the other side, the new approach for regression testing is called point of interest testing, and it introduces the possibility of automatically comparing the behaviour of any arbitrary point in the code given two versions of the same software system. Finally, the thesis presents a new implementation of the design-by-contract verification model for the Erlang programming language, where new types of contracts are explained in detail for both the sequential and concurrent parts of Erlang. All the analyses presented here have been formally defined and their correctness have been proved, ensuring that the results will have the reliability degree needed for real-life systems. Another contribution of this thesis is the implementation of two program slicers for two different programming languages (Java and Erlang), a tool to perform point of interest testing for the Erlang programming language, and a system to run design-by-contract verification in Erlang. It is worth mentioning that all the tools implemented in this thesis are open source and publicly available, so they can be used or extended by any interested researcher. / Pérez Rubio, S. (2023). Analysis Techniques for Software Maintenance [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193146
178

Regresión cuantílica binaria: un enfoque bayesiano basado en la distribución asimétrica de Laplace

Baldeon Molleda, Dante Reynaldo 15 February 2024 (has links)
La regresión cuantílica es una técnica estadística que permite analizar la relación entre variables en distintos cuantiles de la distribución de la variable respuesta. No obstante, su aplicación en variables respuesta binaria puede contraintuitivo, pues la definición tradicional de cuantiles se conceptualiza para variables continuas y no tienen una interpretación directa en una variable binaria. A pesar de que una variable de respuesta binaria sólo toma dos valores y no permite una definición tradicional de cuantiles, es posible extender la regresión cuantílica para modelar los cuantiles de la variable latente subyacente a la variable de respuesta binaria. Esta variable latente es continua y permite aplicar la regresión cuantílica en contextos donde la variable de respuesta sea binaria. En este estudio, adoptamos un enfoque bayesiano para la regresión cuantílica binarios basado en la distribución asimétrica de Laplace (ALD); aplicaremos el modelo en un conjunto de datos correspondiente a resultados de descarte de pruebas COVID-19 en pacientes oncológicos y estimaremos los coeficientes de la regresión mediante el paquete bayesQR desarrollado en R. / Quantile regression is a statistical technique that allows for the analysis of relationships between variables across different quantiles of the response variable’s distribution. However, its application to binary response variables can be counterintuitive, as the traditional definition of quantiles is conceptualized for continuous variables and does not have a direct interpretation in a binary variable. Although a binary response variable only takes two values and does not allow for a traditional definition of quantiles, it is possible to extend quantile regression to model the quantiles of the latent variable underlying the binary response variable. This latent variable is continuous and enables the application of quantile regression in contexts where the response variable is binary. In this study, we adopt a Bayesian approach to binary quantile regression based on the Asymmetric Laplace Distribution (ALD); we will apply the model to a dataset comprising discarded COVID-19 test results in oncology patients and estimate the regression coefficients using the bayesQR package developed in R.
179

Desarrollo de modelos estadísticos de predicción del ajuste y talla de prendas de ropa a partir de la percepción y características antropométricas del usuario

Alemany Mut, María Sandra 23 January 2024 (has links)
[ES] Los problemas de selección de talla y ajuste en la compra online de ropa son la causa de aproximadamente el 70% de las devoluciones. Esto se debe principalmente a la falta de estandarización del tallaje y al funcionamiento deficiente de los métodos de recomendación de talla. Actualmente, el comercio online de ropa tiene mucho potencial, sin embargo, las elevadas tasas de devolución, suponen costes relevantes en logística y gestión de stocks. En el estado del arte de esta tesis se refleja la complejidad del problema del ajuste de ropa, en el que intervienen múltiples factores tanto objetivos (tipo de tejido, patronaje, número de tallas, moda, morfotipo del usuario, medidas corporales, etc.), como subjetivos (percepción de ajuste y preferencias del usuario). Siendo el ajuste de las prendas uno de los problemas de mayor relevancia en el sector de la confección es de crucial interés avanzar en la generación de un conocimiento que permita relacionar con mayor precisión las dimensiones corporales, el ajuste de las prendas y el tallaje. El objetivo general de esta tesis consiste en establecer los fundamentos para desarrollar un sistema de recomendación del ajuste y talla de prendas de ropa a partir de medidas antropométricas del usuario y valoraciones de ajuste planteando un desarrollo metodológico que sirve de punto de partida para posteriormente escalar el proceso a cualquier tipo de prenda, estilo y sistema de tallaje de ropa. La aproximación propuesta consiste en la predicción del ajuste por zonas de la prenda a partir de medidas antropométricas del usuario y pruebas de ajuste previas utilizando el método estadístico de regresión logística multinomial. A partir de esta predicción de ajuste por zonas, y aplicando de nuevo modelos de regresión logística multinomial, se obtiene la probabilidad de ajuste de la serie de tallas de la prenda analizada. En primer lugar, se ha determinado la fiabilidad de las medidas antropométricas obtenidas a partir de escaneados 3D del cuerpo. Para desarrollar los modelos de predicción, se ha puesto a punto un método de caracterización del ajuste de ropa mediante valoración subjetiva de usurarios y expertos. Además, se han definido los conjuntos de medidas antropométricas relacionadas con el ajuste de la prenda en cada zona. El proceso de entrenamiento de los modelos de predicción de ajuste ha permitido determinar cuáles son las medidas antropométricas más relevantes para el ajuste de cada tipo de prenda, así como las zonas de ajuste que influyen en la selección de la talla. En la fase de validación, se ha demostrado que, con un porcentaje de acierto entre el 80-100%, los modelos de predicción de talla basados en probabilidades de ajuste obtenidas mediante regresión logística multinomial en zonas relevantes de la prenda, ofrecen mayor fiabilidad que los métodos actuales que solo consideran una variable corporal y sus intervalos. Finalmente, se ha propuesto un método para extrapolar los modelos individuales de predicción de talla a toda población objetivo, estimar la cuota de mercado potencial y optimizar la distribución de tallas de cada prenda. / [CA] Els problemes de selecció de talla i ajust en les compres de roba en la xarxa representen aproximadament el 70% de les devolucions. Això es degut principalment a la manca d'estandardització en les talles i al funcionament deficient dels mètodes de recomanació de talles. Actualment, el comerç de roba en la xarxa té molt potencial, no obstant això, les altes taxes de devolució comporten costos rellevants en logística i gestió d'estocs. L'estat de l'art en aquesta tesi reflecteix la complexitat del problema de l'ajust de la roba, que implica múltiples factors, tant objectius (tipus de teixit, patró, nombre de talles, tendències de moda, tipus de cos de l'usuari, mesures corporals, etc.) com subjectius (percepció de l'ajust per part de l'usuari i preferències). Ja que l'ajust de les peces de vestir és un dels problemes més importants en la indústria de la moda, és crucial avançar en la generació de coneixement que permeti establir una relació més precisa entre les dimensions del cos, l'ajust de la roba i les talles. L'objectiu general d'aquesta tesi és establir els fonaments per al desenvolupament d'un sistema de recomanació de l'ajust i la talla de peces de roba basat en les mesures antropomètriques de l'usuari. Això implica un desenvolupament metodològic que serveix com a punt de partida per a posteriorment escalar el procés a qualsevol tipus de peça de roba, estil i sistema de mides. L'aproximació proposada consistix en predir l'ajust per zones de la peça de roba basat en les mesures antropomètriques de l'usuari i proves prèvies d'ajust mitjançant el mètode estadístic de la regressió logística multinomial. A partir d'aquesta predicció d'ajust per zones, i aplicant novament models de regressió logística multinomial, s'obté la probabilitat d'ajust per a la gamma de talles de la peça de roba analitzada. S'ha determinat la fiabilitat de les mesures antropomètriques obtingudes a partir d'escaneigs 3D del cos. Per desenvolupar els models de predicció, s'ha posat a punt un mètode per caracteritzar l'ajust de la roba mitjançant avaluacions subjectives dels usuaris i experts. A més, s'han definit conjunts de mesures antropomètriques relacionades amb l'ajust de la peça a cada zona. El procés de formació dels models de predicció de l'ajust ha permès determinar les mesures antropomètriques més rellevants per a l'ajust de cada tipus de peça, així com les zones d'ajust que influeixen en la selecció de la talla. En la fase de validació, s'ha demostrat que, amb un percentatge d'encert entre el 80-100%, els models de predicció de talla basats en les probabilitats d'ajust obtingudes mitjançant la regressió logística multinomial en zones rellevants de la peça de roba ofereixen una major fiabilitat que els mètodes actuals que només consideren una variable corporal i els seus intervals. Finalment, s'ha proposat un mètode per extrapol·lar els models individuals de predicció de talla a tota la població objectiu, estimar la quota de mercat potencial i optimitzar la distribució de talles per a cada peça. / [EN] The problems of size selection and fit in online clothing purchases account for approximately 70% of returns. This is primarily due to the lack of standardization in sizing and the inefficient performance of current size recommendation methods. Currently, online clothing retail has a lot of potential; however, the high product return rates result in significant costs in logistics and stock management. The state of the art in this thesis reflects the complexity of the clothing fit problem, which involves multiple factors, both objective (fabric type, pattern, number of sizes, fashion trends, user body type, body measurements, etc.) and subjective (user's perception of fit and preferences). Since garment fit is one of the most significant issues in the fashion industry, it is crucial to advance in generating knowledge that allows for a more precise relationship between body dimensions, garment fit, and sizing. The general objective of this thesis is to establish the foundations for developing a recommendation system for clothing fit and size based on user anthropometric measurements and fit evaluations. This involves a methodological development that serves as a starting point for subsequently scaling the process to any type of garment, style, and sizing system. The proposed approach consists of predicting the fit by garment zones based on user anthropometric measurements and previous fit trials using the statistical method of multinomial logistic regression. From this prediction of fit by zones, and by once again applying multinomial logistic regression models, the probability of fit for the range of sizes of the analyzed garment is obtained. The reliability of anthropometric measurements obtained from 3D body scans has been determined. To develop the prediction models, a method for characterizing garment fit through subjective assessments by users and experts has been refined. In addition, sets of anthropometric measurements related to garment fit in each zone have been defined. The training process of the fit prediction models has enabled determining the most relevant anthropometric measurements for the fit of each type of garment, as well as the fit zones that influence size selection. In the validation phase, it has been demonstrated that, with an accuracy rate between 80-100%, size prediction models based on fit probabilities obtained through multinomial logistic regression in relevant garment zones offer greater reliability than current methods that only consider a single body variable and its intervals. Finally, a method has been proposed to extrapolate individual size prediction models to the entire target population, estimate the potential market share, and optimize the distribution of sizes for each garment. / Alemany Mut, MS. (2023). Desarrollo de modelos estadísticos de predicción del ajuste y talla de prendas de ropa a partir de la percepción y características antropométricas del usuario [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202617
180

La isla de calor urbana de superficie y sus factores condicionantes: El caso del área metropolitana de Santiago

Sarricolea Espinoza, Pablo 05 October 2012 (has links)
Se ha sintetizado la información de las temperaturas de emisión superficial obtenidas mediante 53 imágenes del satélite Terra MODIS, aplicando para ello promedios anuales y estacionales de las temperaturas estandarizadas, y reducción de las imágenes a factores complejos de los patrones espaciales usando Análisis de Componentes Principales (ACP); finalmente, se han realizado mapas de diferencias térmicas para conocer la intensidad de la isla de calor urbana de superficie (ICUs) estacional y anual. Los resultados muestran que la isla de calor tiende a localizar el máximo térmico en las comunas de Santiago, Providencia, Las Condes, Ñuñoa y Vitacura, conformando un núcleo cálido asociado a la mayor densidad construida; además, las comunas de Huechuraba y Quilicura conforman otro núcleo cálido, el que está asociado a viviendas de alto nivel de ingresos en el primer caso e industrias en el caso de Quilicura. El ACP revela cuatro patrones típicos, que explican el 90,6% de las situaciones, a saber: ICUs consolidada (44,5%), ICUs del piedmont y cuña de altos ingresos (22,3%), un tipo sin isla de calor urbana (20,2%) e ICUs más intensa al sur (3,6%). Finalmente, la intensidad de la isla de calor urbana de superficie es de mayor magnitud durante el otoño (7,4ºC), seguida de verano (5,9ºC), primavera (5,4ºC) e invierno (5,0ºC); incluso en verano y otoño supera los 7ºC en la zona oriente de la ciudad. De las situaciones sin isla de calor, se ha sugerido la hipótesis de efecto sumidero de calor o «urban heat sink», asociado a fuerte brisa de la Cordillera de Los Andes, que barre la ICUs y la desplaza al poniente de la ciudad, lo que en días de contaminación por material particulado (PM10) tendría efectos nocivos sobre la salud de la población de esa parte de la ciudad. Además, se modela la isla de calor urbana de superficie (ICUs) en función de una serie de variables geográficas y urbanas, con el propósito de plantear alternativas para la mitigación de los efectos negativos que las ICUs provocan a los habitantes de la ciudad de Santiago. Además, se entregan algunas directrices para una planificación territorial más sostenible. En total se utilizaron 42 mapas de isla de calor del año 2010, los cuales se generaron con imágenes satelitales Terra MODIS. Ellos fueron sintetizados en cinco cartografías, un mapa anual y cuatro correspondientes a las estaciones del año. Las variables explicativas para predecir la isla de calor fueron nueve: densidad de población y construida, elevación topográfica, NDVI, albedo, radiación solar y las distancias euclidianas al centro, la costa y los ríos y esteros. Los resultados de los modelos de regresión lineal múltiple por pasos indican coeficientes de determinación entre 47,39% y 80,08% (invierno y verano respectivamente). Las variables explicativas más influyentes son el albedo y el NDVI (relación negativa), y la densidad construida (relación positiva). Al modificar las variables que explican la ICUs se podría variar la intensidad de ella, por ejemplo: al aumentar de 10.000 m2 a 20.000 m2 construidos por hectárea la temperatura deberá aumentar entre 1ºC y 2ºC; implementando de áreas verdes un espacio sin vegetación, la isla de calor se verá reducida entre 1,2ºC y 5,5ºC; y al modificar el albedo de la ciudad desde un 10% a un 20% se consigue una reducción de la ICUs entre 1,1ºC y 2,7ºC.

Page generated in 0.0658 seconds