• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 2
  • Tagged with
  • 14
  • 14
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modelo predictivo de la distribución de triatominos a escala local

Bacigalupo, Antonella January 2016 (has links)
Memoria para optar al Título Profesional de Médico Veterinario. Tesis para optar al Grado de Magíster en Ciencias Animales y Veterinarias mención Medicina Preventiva Animal. / El objetivo de este estudio fue determinar un modelo predictivo de distribución de focos de triatominos a escala local en zonas rurales del área endémica de Chile. Se realizó un muestreo sistemático por conglomerados en 3 zonas de estudio: Aucó, en la Región de Coquimbo; Putaendo, en la Región de Valparaíso; y Til-Til, en la Región Metropolitana, utilizando trampas de levadura en fermentación y observación directa para realizar un recuento de triatominos en cada punto investigado. Se determinó el patrón de distribución de los triatominos mediante el índice de autocorrelación de Moran. Mediante variables medidas en terreno y variables calculadas desde productos de sensores remotos, se determinaron aquellas que resultaron diferentes entre sitios con y sin triatominos, utilizando el test de Kruskal-Wallis. Con las variables derivadas de sensores remotos se generaron modelos predictivos de la distribución de los triatominos mediante el software Maxent, los que se proyectaron en 3 zonas donde no se había realizado el muestreo sistemático. Se compararon los modelos generados al utilizar una resolución espacial de 6x6 metros respecto a una resolución de 1x1 metro, y además se comparó el incorporar el total de las variables al modelo respecto a utilizar sólo aquellas que resultaron significativas previamente. Para la validación de los modelos se utilizó el software Partial ROC para la predicción umbral independiente, y la probabilidad de la distribución binomial en el caso de la predicción binaria al aplicar un umbral, utilizando puntos positivos a triatominos que no habían sido ocupados en la modelación. El recuento de triatominos fue 211, todos de la especie Mepraia spinolai. La distribución espacial de las capturas tuvo un patrón agrupado a nivel de puntos investigados, pero fue aleatoria al analizarlo entre conglomerados. Las variables de terreno que fueron significativamente diferentes entre puntos con y sin triatominos detectados fueron: la pendiente, el porcentaje de piedras, de vegetación herbácea y de vegetación arbustiva, y el promedio de humedad relativa. Las variables producto de sensores remotos que se diferenciaban según la presencia de triatominos fueron: la pendiente, la exposición, el índice de vegetación NDVI y la distancia a construcciones. Los resultados de los modelos predictivos de distribución de M. spinolai indicaron que el modelo de resolución espacial 6x6 m con 6 variables (aquellas significativas más la altitud y la distancia a cursos de agua) tuvo el mayor ajuste, por lo que podría utilizarse este modelo para determinar áreas con riesgo elevado de presencia de vectores de la enfermedad de Chagas a escala local en Chile / The goal of this study was to determine a predictive distribution model of triatomines’ foci at local scale in rural areas of the endemic area of Chile. Systematic sampling by clusters was carried out in three study areas: Aucó, in the Region of Coquimbo; Putaendo, in the Region of Valparaiso; and Til-Til, in the Metropolitan Region, using yeast baited traps and direct observation to count triatomines at each assessed point. The distribution pattern of the triatomines was determined using the Moran autocorrelation index. Field variables and variables calculated from remote sensing products were compared between sites with and without triatomines using the Kruskal-Wallis test. Predictive models of the distribution of the triatomines were generated with the variables derived from remote sensors, using Maxent software. These models were projected in 3 areas where systematic sampling was not performed. The models generated were compared using a spatial resolution of 6x6 meters and of 1x1 meter, and comparing the incorporation of the total of the variables to the model or using only those previously significant. Model validation was performed using Partial ROC software for the thresholdindependent prediction, and using the binomial distribution probability for the binary prediction, when applying a threshold; triatomine positive points that had not been used previously for modeling were used for validation. The triatomines’ count was 211, all from the species Mepraia spinolai. The spatial distribution of the triatomines had a clustered pattern at the point level, but it was random when analyzed between clusters. The field variables that were significantly different between points with and without triatomines were: slope, percentage of stones, herbaceous vegetation and shrub vegetation, and average relative humidity. The variables from remote sensors that differed according to the presence of triatomines were: slope, aspect, NDVI vegetation index and distance to constructions. The predictive distribution models of M. spinolai results indicated that the model of spatial resolution 6x6 m with 6 variables (those significant plus elevation and distance to watercourses) had higher accuracy, so it could be used to determine areas with an elevated risk of Chagas disease vectors’ presence at a local scale in Chile / Financiamiento: Proyecto Fondecyt No. 1100339 y No. 1140650.
2

Caracterización de la respuesta emocional ante estímulos visuales en registros electroencefalográficos

Candia Rivera, Diego Andrés January 2016 (has links)
Ingeniero Civil Eléctrico / El presente trabajo de título tiene por objetivo caracterizar la respuesta en la actividad neuronal de sujetos que han sido expuestos a estímulos visuales con contenido emocional mediante el análisis de series de tiempo de los registros electroencefalográficos (EEG). En particular, se comparan tres estados emocionales en base a sus diferencias en los valores de valencia y excitación emocional. La hipótesis de este trabajo es que la respuesta emocional ante estímulos visuales puede ser caracterizada en registros EEG en las dimensiones de tiempo, frecuencia y topografía en el cuero cabelludo. Para esto se introduce un enfoque metodológico en el que se analizan canales individuales de EEG descompuestos en bandas de frecuencia. La base de datos utilizada consiste en nueve sujetos, cuyos registros fueron pre-procesados para eliminar el ruido y artefactos oculares. La metodología propuesta consiste en extracción de características, y la construcción de modelos predictivos de emociones basados en Máquinas de Soporte Vectorial y Bosques Aleatorios. De los nueve sujetos, seis fueron utilizados como conjunto de entrenamiento para construir los modelos predictivos y los tres sujetos restantes fueron usados como conjunto de prueba. Los resultados obtenidos fueron una completa discriminación entre emociones positivas y negativas. Para la distinción entre las tres emociones a la vez se obtuvo una precisión de 2/3. Las 20 características utilizadas para la clasificación incluyen canales de distintos lóbulos del cerebro y frecuencias que van desde la banda delta hasta la gamma. Se observó además una alta influencia de la actividad de la banda alfa en los estados emocionales. Los resultados sugieren que el registro de la actividad neuronal a través de EEG permite obtener signos del estado emocional en respuesta a estímulos visuales, pero para obtener una mayor precisión se deben combinar características de múltiples canales y frecuencias.
3

Diseño y construcción de un modelo de predicción de mortalidad en pacientes adultos mayores hospitalizados en Unidad de Cuidados Intensivos del Hospital Clínico de la Universidad de Chile

Harnecker Fontecilla, María Belén January 2017 (has links)
Ingeniera Civil Industrial / El presente trabajo de título tiene como objetivo diseñar y construir un modelo de predicción de mortalidad en adultos mayores admitidos en unidades de cuidados intensivos, utilizando información de salud específica de una cohorte de 403 pacientes admitidos en UCI del Hospital Clínico de la Universidad de Chile (HCUCH), almacenada bajo la forma de bases de datos disponibles en los sistemas de información del hospital. A causa del envejecimiento de la población y del aumento de la esperanza de vida, las unidades de cuidados intensivos enfrentan nuevos desafíos: en el caso del HCUCH, casi la mitad de los pacientes que han pasado por este servicio en los últimos cinco años tienen más de 65 años. Adicionalmente, se ha demostrado que los pacientes mayores obtienen peores resultados después de un evento crítico comparado con el resto de la población adulta, lo cual se manifiesta tanto en el deterioro cognitivo y funcional, como en mayores tasas de mortalidad. Por otro lado, se identifica la oportunidad brindada por la masificación del uso de registros electrónicos de salud durante los últimos años, lo que da paso a la generación de grandes cantidades de información específica de cada paciente, almacenada bajo la forma de datos estructurados y no estructurados. Este conjunto problema-oportunidad, motiva al desarrollo de modelos que asignen a cada paciente un indicador de riesgo de mortalidad que, por un lado, apoye la toma de decisiones de los médicos, y por otro lado ayude a entender cuáles son los factores que explican un mayor riesgo y por lo tanto peores desenlaces clínicos. Utilizando la metodología Knowledge Discovery in Databases (KDD), se construye un modelo de predicción de mortalidad intra-hospitalaria, mediante el entrenamiento de algoritmos de clasificación de data mining, empleando datos correspondientes a información demográfica y clínica de cada paciente, incluyendo diagnósticos, procedimientos, fármacos y exámenes de laboratorio, disponibles durante las primeras 24, 48 y 72 horas de hospitalización. Tanto el pre-procesamiento, la transformación y el modelamiento de la data fue realizado utilizando el lenguaje Python. Los modelos construidos demuestran resultados satisfactorios: AUC 0.78- 0.83, 0.82-0.85 y 0.81-0.82 para modelos de 24, 48 y 72 horas respectivamente, desempeño comparable con los sistemas de scoring comúnmente utilizados en UCI (APACHE II y SOFA), teniendo la ventaja de ser modelos potencialmente útiles para desarrollar sistemas predictivos automáticos y dinámicos en el tiempo, además del gran impacto y aporte de ser construidos a partir de población chilena y específica de pacientes adultos mayores. Por otro lado la interpretación de los resultados resultan ser biológicamente plausibles, identificando factores de riesgo que pueden ser motivo de futuras investigaciones e iteraciones sobre el modelo propuesto. Se concluye que los resultados de este trabajo alientan seguir una línea de investigación al respecto.
4

El científico de datos en las organizaciones data driven / El papel de los modelos predictivos en la toma de decisiones empresariales

Palacios Ruiz, Julio 26 November 2021 (has links)
Data Week UPC 2021 - día 3 / Data WeeK UPC es un evento anual organizado por las Facultades de Negocios e Ingeniería, con el propósito de reunir a investigadores y expertos en la gestión empresarial para reflexionar acerca del papel de la Ciencia de Datos en la generación de valor en las organizaciones. Nueve expositores de distintas instituciones se unirán a las 4 fechas del Data Week 2021 este 23, 25, 26 y 27 de noviembre, para reflexionar acerca de los retos en el proceso de la transformación de datos para la toma de decisiones. No se pierdan la oportunidad de participar en este espacio en el que discutiremos las principales tendencias en cuanto a la aplicación de la ciencia de datos en la gestión empresarial. 7:00 PM EL CIENTÍFICO DE DATOS EN LAS ORGANIZACIONES DATA DRIVEN Ante la necesidad de manipular o manejar software, lenguajes especializados, capturar, procesar, analizar y representar grandes cantidades de datos, ¿cuáles son los perfiles requeridos para responder a esta nueva realidad? En esta charla abordaremos los perfiles relacionados con la ciencia de datos y su papel en el presente y el futuro de las organizaciones. 8:00 PM EL PAPEL DE LOS MODELOS PREDICTIVOS EN LA TOMA DE DECISIONES EMPRESARIALES Las organizaciones enfrentan muchos retos en el proceso de implementar modelos de machine learning y crear una cultura de data-driven. En esta charla se aborda el papel estratégico de los modelos predictivos para detectar riesgos en diferentes frentes. La aplicación de la ciencia en los datos permite un conocimiento cada vez mayor como base para la toma de decisiones empresariales."
5

Análisis de las dificultades financieras de las empresas en una economía emergente: las bases de datos y las variables independientes en el sector hotelero de la bolsa mexicana de valores

Ibarra Mares, Alberto 13 September 2001 (has links)
Este trabajo desarrolla de forma muy detallada la primera fase de un modelo predictivo para evaluar el éxito o fracaso empresarial dentro de un sector muy específico en una economía emergente, como es el caso de México dentro del sector hotelero que cotiza en la Bolsa Mexicana de Valores. Esta situación conlleva importantes particularidades por el aspecto tan "sui generis" que presenta el análisis financiero en empresas de economías emergentes. En general los modelos predictivos presentan dos fases para su desarrollo que son muy complejas y de igual importancia, y sin embargo, en la primera de ellas poco se ha trabajado en términos de una estrecha relación conceptual-empírica.La primera fase comprende el estudio y estructuración detallada de la base de datos para evitar el efecto window dressing, mantener la utilidad y confiabilidad del sistema contable a través de los años para su comparabilidad, y llegar al máximo grado de armonización conceptual entre los diferentes estados financieros utilizados.Continuando con esta fase, el siguiente paso consiste en que con la base de datos se estima un conjunto de ratios financieros previamente seleccionados dentro de un marco teórico bien fundamentado, el cual también incluye la definición conceptual de la variable dependiente. Si esto se ha cumplido, sólo entonces se debería proceder a utilizar un método mulvariable reductivo, como el análisis factorial, para determinar un conjunto de factores y eliminar al mismo tiempo aquellos ratios que presenten una alta multicolinealidad. Esto es con el fin de llegar a obtener los ratios finales que representarán a los factores con base en su alta correlación entre cada factor y cada ratio emparejado. Una vez llevado a cabo lo anterior es de suma importancia que al factor se le asigne un nombre clave de acuerdo al marco teórico que presentó originalmente el ratio para su interpretación financiera.Para concluir con la metodología propuesta, se recomienda no pasar por alto la importancia que conlleva seleccionar adecuadamente el sector de la unidad de análisis, la unidad temporal, la muestra y la unidad geográfica. De no ser posible llevar con éxito el desarrollo de la primera fase en términos generales, consideramos que definitivamente no se debería proceder al desarrollo de la segunda fase, pues el modelo adolecería de un sustento conceptual y empírico confiable.En cuanto a la segunda fase y siguiendo a Altman (1968), el modelo se enfoca a determinar la variable dependiente de forma categórica e incorporar en una función lineal los ratios seleccionados como variables independientes, asignándoles una ponderación individual a cada uno de ellos y aplicando un método multivariable clasificatorio, como el análisis discriminante o el análisis logit, con el fin de obtener un indicador global denominado Z-Score que presenta porcentajes de exactitud y de errores predictivos. / This investigation develops in a very detailed form the first phase of a predictive model in order to evaluate corporate success or failure in a specific industrial sector in an emerging economy, such is Mexico's case with the hospitality industry that lists in the Mexican Stock Exchange. This situation brings important peculiarities due to its "sui generis" aspect which presents the financial analysis of firms in emerging economies.In general, predictive models present two complex and equally important phases for their development, and the work realized during the first of these phases has been very narrow in its empiric-conceptual relation.The first phase includes the study and detailed structuring of the data base in order to evade the window dressing effect, to maintain the usefulness and trustfulness of the accounting system through out the years for their comparison, and to achieve the highest grade of conceptual harmonization of the financial statements most commonly used.Along the same phase, the next step consists in estimating a group of financial ratios previously selected inside a well-founded theoretical frame by using the data base; this frame also includes the conceptual definition of the dependent variable. If this has not been accomplished, only then could a reductive multivariable method be used, for example, the factorial analysis to determine a group of factors and to eliminate at the same time, those ratios that represent high multicolineality . The purpose here is to obtain the final ratios that will represent the factors based on their high correlation between each factor and each matched ratio. Once this is finished, it is very important to assign a key name to each factor according to the theoretical frame originally presented by the ratio for its financial interpretation.To conclude with the proposed methodology, it is recommended not to ignore the importance of dealing with the accurate selection of the sector's unit of analysis, the temporal unit, sample and geographic unit. In general terms, if succeeding with the development of the first phase is not possible, it is considered not to proceed to the development of the second phase, due to the model's lack of conceptual support and empiric trustfulness.Concerning the second phase and following Altman (1968), the model focuses on determining the dependent variable in a categorical form and in incorporating the selected ratios in a linear function as independent variables, assigning to each one of them an individual weight and applying a classificatory multivariable method, for example, the discriminant analysis or logit analysis, with the purpose of obtaining a global indicator denominated Z-Score which presents accuracy percentages and predictive errors.
6

Determinación de la propensión al aumento de consumo con tarjeta de crédito de clientes de una institución bancaria

Calderón Testa, Benjamín Alberto January 2016 (has links)
Ingeniero Civil Industrial / La industria bancaria se caracteriza por ofrecer a sus clientes diferentes medios de pago dentro de los que destacan las tarjetas de crédito, con las cuales se transa anualmente un monto equivalente al 7% del PIB Chileno. Por otro lado, los clientes del banco con el que se desarrolla este trabajo utilizan menos la tarjeta que los clientes de los bancos líderes y además, la rentabilidad del negocio de tarjetas está directamente ligada al consumo. En base a lo anterior, el objetivo general de este proyecto es determinar las acciones con las cuales se puede incentivar el aumento de consumo con la tarjeta de crédito, usando información transaccional de los clientes. Considerando esto, se busca responder dos preguntas básicas del negocio ¿a quienes incentivar? y ¿con qué acciones hacerlo? Para responder esto se comienza clasificando a los clientes según variables transaccionales, con lo cual se encuentran cinco niveles de consumo que pueden tener los clientes durante un periodo. Dentro de estos destacan los clientes de Medio Bajo consumo, los cuales representan el 54% de la cartera del banco y se caracterizan por transar principalmente en rubros básicos como supermercados o grandes tiendas. Una vez clasificados los clientes, se realizan modelos predictivos para identificar a aquellos que aumentarán su nivel de consumo en el futuro, además de los principales factores que inducen este aumento. En base a esto se define que los clientes a incentivar son todos aquellos que no incrementarán su consumo, pues los otros lo harán con alta probabilidad sin necesidad de ser incentivados. Con respecto a las acciones, los resultados indican que se debe incentivar a los clientes a ampliar la variedad de rubros en que consumen, además de la cantidad de semanas en que tienen transacciones. Por otro lado, el banco debe incentivar los avances en efectivo, las compras internacionales y algunos rubros como supermercados o grandes tiendas. Se destaca además el hecho de que, al aplicar la metodología propuesta en este trabajo, el banco podría ganar 51 millones de pesos en un año, dejando de enviar promociones a clientes que no lo necesitan y generando nuevos aumentos de consumo. Finalmente como trabajo futuro se propone complementar el estudio con información de las promociones del banco, para así analizar además la efectividad de las campañas y determinar si aumentan el consumo de los clientes a largo plazo o sólo en el periodo en que se realizan.
7

Modelo predictivo de recidiva y mortalidad en pacientes con cáncer glótico

Jover-Esplá, Ana Gabriela 30 November 2018 (has links)
El cáncer de laringe sigue teniendo alta incidencia en nuestro medio a pesar de las medidas de salud pública que se han tomado en los últimos 10 años que han promovido la reducción del consumo de tabaco, factor causal conocido de múltiples tumores de entre ellos los del ámbito otorrinolaringológico. El hecho de que un paciente presente un factor pronóstico para una enfermedad aumenta la probabilidad de muerte y recidiva de dicha enfermedad. Proponemos la creación y desarrollo de un modelo pronóstico de recidiva y mortalidad para cáncer glótico a los 5 años, cuyas variables principales sean tiempo hasta la muerte o tiempo hasta la recidiva. Y otras secundarias: el estadio, la histología del tumor, el consumo de tabaco o alcohol y el tratamiento recibido. Para ello realizaremos un estudio de cohortes recogiendo todos los pacientes diagnosticados de cáncer glótico entre los años 2004 y 2014 en el Hospital General Universitario de Alicante. Se construirá un modelo de regresión de Cox y se adaptará a un sistema de puntos. El modelo será validado internamente por bootstrapping y se determinará el estadístico C, realizando una calibración de tal forma que las probabilidades observadas sean similares a las esperadas. Todo esto se integrará en una aplicación móvil del sistema de puntos para facilitar el manejo de la misma en la práctica clínica. Con los resultados obtenidos se conocerá el pronóstico de mortalidad y recidiva de los pacientes diagnosticados de cáncer glótico a los 5 años, dato que podrá ayudar y reforzar una decisión terapéutica de las propuestas en las guías clínicas oncológicas internacionales usadas en la actualidad.
8

Modelos predictivos de las características prestacionales de hormigones fabricados en condiciones industriales

Navarro Ferrer, Ferrán 07 July 2016 (has links)
[EN] Nowadays concrete is the most used material in construction. This is because of its malleability, its ability to resist compressive and its economy. The benefits of concrete depend on its composition, curing conditions and the blending method and conditions. The basic specifications of this material, demanded by the petitioner to the manufacturer, are the compressive strength and the consistency, which indicates the workability. This thesis is a contribution to the knowledge and research of the influence that different parameters have on the compressive strength and on the consistency of the concrete produced in industrial conditions, and also contributes to the performance of predictive modelling with these characteristics. Most of the concrete used in construction is manufactured in ready-mixed concrete plants or in plants of construction. The characteristics of this concrete are the following: a strength between 25 and 30 N/mm2, soft or fluid consistency, placed by pouring or pumping and compacted by vibration. The conditions of production on the plant are affected by conditions of the industrial process and the business itself; being the amount of water in the mixture indirectly controlled. This paper presents an extensive database of thousands of test results on compressive resistance and consistency of the concrete produced in the same plants and varying the dosage, type of cement and additives. There are also taken into account other aspects such as the inclusion of fibres, the concrete and room temperature or when the concrete specimens are made. A second database is created by tests performed on a short period of time with the same cement and additive and taking into account the exact water-cement relationship. Furthermore, a convenient characterization of the constituent materials of the tested concrete has been done. To analyse the influence of different parameters and technological and environmental factors on the compressive strength, in the evolution of it over time, and on the consistency of concrete, firstly classical statistics has been used, more precisely multiple linear regression, analysis of variance (ANOVA) and multivariate analysis have been used. It has also been verified the fit of the experimental data to the models existing in literature and to the new proposed behaviour models. Finally artificial neural networks have been developed to predict the compressive strength or the consistency of concrete depending on input variables, as well as for obtaining behaviour models. The results obtained by the application of artificial neural networks are proofed to be more efficient and better than those obtained by statistical methods. / [ES] En la actualidad el hormigón es el material más empleado en la construcción debido a su moldeabilidad, a su capacidad de resistir esfuerzos de compresión y a su economía. Las prestaciones del hormigón dependen de su composición, de las condiciones de curado y del método y condiciones de mezclado. Las especificaciones básicas del hormigón demandadas por el peticionario al fabricante son la resistencia a compresión y la consistencia, que indica la trabajabilidad del mismo. Esta tesis es una contribución al conocimiento y la investigación de la influencia de diferentes parámetros en la resistencia a compresión y la consistencia del hormigón fabricado en condiciones industriales y la elaboración de modelos predictivos de dichas características prestacionales. La mayor parte de los hormigones que se emplean en construcción se fabrican en centrales de hormigón preparado o en centrales de obra, y se corresponden con hormigones de resistencia entre 25 y 30 N/mm2, consistencia blanda o fluida, colocación mediante vertido o bombeo y compactación mediante vibración. Las condiciones de producción de hormigones en planta se ven afectadas por los condicionantes del proceso industrial y del negocio en sí, siendo controlada la cantidad de agua existente en la mezcla indirectamente. En este trabajo se presenta una extensa base de datos construida con miles de resultados de ensayos de resistencia a compresión y consistencia realizados sobre hormigones fabricados en la misma planta y con diferentes dosificaciones, tipos de cemento y aditivos. Se tienen en consideración otros aspectos como la inclusión de fibras, la temperatura ambiente y del hormigón o la hora de realización de las probetas. Se crea una segunda base de datos de ensayos realizados en un periodo de tiempo corto con el mismo cemento y aditivo y teniendo en cuenta la relación agua/cemento exacta. Además, se ha realizado la conveniente caracterización de los materiales constituyentes de los hormigones ensayados. Para analizar la influencia de los diferentes parámetros y factores tecnológicos y ambientales en la resistencia a compresión, en la evolución de la misma con el tiempo y en la consistencia del hormigón, se ha utilizado primeramente estadística clásica, concretamente análisis de regresión lineal múltiple, análisis de varianza (ANOVA) y análisis multivariante. También se ha verificado el ajuste de los datos experimentales a modelos existentes en la bibliografía y a nuevos modelos de comportamiento propuestos. Finalmente se han elaborado redes neuronales artificiales para predecir la resistencia a compresión o la consistencia de un hormigón en función de diversas variables de entrada, al igual que para la obtención de modelos de comportamiento. Los resultados obtenidos mediante la aplicación de redes neuronales artificiales han sido más eficientes y mejores que los obtenidos mediante métodos estadísticos. / [CAT] Actualment el formigó és el material més empleat en la construcció gràcies a ser moldejable, a la seua capacitat de resistir esforços de compresió i a la seua economia. Les prestacions del formigó depenen de la seua composició, de les condicions de curat i del mètode i condicions de mesclat. Les especificacions bàsiques demanades pel peticionari al fabricant són la resistència a la compresió i la consistència, que indica la treballabilitat del mateix. Aquesta tesi és una constribució al coneixement i a la investigació de la influència de diferents paràmetres en la resistència a la compresió i la consistència del formigó fabricat en condicions industrials i l'elaboració de models predictius d'aquestes característiques prestacionals. La major part dels formigons empleats en la construcció es fabriquen en centrals de formigó preparat o en centrals d'obra, i es corresponen amb formigons de resistència entre 25 i 30 N/mm2, consistència tova o fluida, colocació mitjançant versament o bombament i compactació mitjançant vibració. Les condicions de producció de formigó en planta es venen afectades pels condicionants del procés industrial i del negoci en si, sent controlada la quantitat d'aigua existente en la mescla indirectament. Aquest treball presenta una extensa base de dades construïda amb milers de resultats d'assajos de resistència a compresió i consistència realitzats sobre formigons fabricats en la mateixa planta i amb diferents dosificacions, tipus de ciment i additius. Es tenen en compte altres aspectes com la inclusió de fibres, la temperatura ambient i del formigó o l'hora de realització de les probetes. Es crea una segona base de dades d'assajos realitzats en un període de temps curt amb el mateix ciment i additiu i tenint en compte la relació aigua/ciment exacta. A més a més, s'ha realitzat la caracterització corresponent dels materials constituents dels formigons assajats. Per a analitzar la influencia dels diferents paràmetres i factors tecnològics i ambientals en la resitència a compresió, en l'evolució d'aquesta en el temps i en la consistència del formigó, s'ha utilitzat l'estadistica clàssica, concretament anàlisi de regressió lineal múltiple, anàlisi de variància (ANOVA) i anàlisi multivariant. Alhora, s'ha verificat l'ajustament de les dades experimentals a models existents en la bibliografía i a nous models de comportament proposats. Finalment s'han elaborat xarxes neuronals artificials per a predir la resistència a la compresió o la consistència d'un formigó en funció de diverses variables d'entrada, al igual que per a l'obtenció de models de comportament. Els resultats obtinguts mitjançant l'aplicació de xarxes neuronals artificials han sigut més eficients i millors que els obtinguts mitjançant mètodes estadistics. / Navarro Ferrer, F. (2016). Modelos predictivos de las características prestacionales de hormigones fabricados en condiciones industriales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/67272 / TESIS
9

Propuesta de analítica de negocios para determinar un modelo de priorización de pacientes Covid-19 en Perú / Business analytics proposal to determine a Covid-19 patient prioritization model in Peru

Chávez Saume, Julio Cesar, Campos Herrera, Jaime Aaron, Méndez Lara, Derly Marcela 15 April 2021 (has links)
El Covid-19 es una enfermedad nueva que ha puesto en una situación muy difícil al mundo entero. La situación del Perú ha sido de las más difíciles, llegando a sumar a abril del 2021 más de 140,000 muertes según SINADEF, llegando a un nuevo pico de 783 muertes promedio día a marzo del 2021. Ante esta alta demanda de servicios de salud, los profesionales del sector toman la responsabilidad de priorizar la atención de los pacientes con protocolos subjetivos. El Instituto Nacional de Salud (INS), lugar donde se desarrolló el presente estudio, tiene entre sus responsabilidades la prestación de servicios de salud para el control de enfermedades transmisibles y el desarrollo de investigación científica-tecnológica. Por esto ha implementado laboratorios para pruebas moleculares, protocolos de atención, secuenciado el genoma de la variante peruana, etc. En esa línea el INS, además de facilitarnos la información de las pruebas Covid19 (Mas de 7 millones de registros con factores de riesgo, síntomas, edad, género, etc.) y los fallecidos del SINADEF nos proveyeron de juicio experto a través de sus profesionales: epidemiólogos, informáticos biomédicos, investigadores, etc. Los modelos predictivos permiten analizar grandes volúmenes de datos y a partir de ellos descubrir patrones y determinar sus correlaciones. Con toda la información disponible y aplicando los procesos de Business Analytics, se desarrolló un modelo analítico para la priorización de pacientes Covid-19. El modelo podría también ser utilizado en la prelación de la vacunación y en diseño de políticas públicas de salud relacionadas con la pandemia / Covid-19 is a new disease that has put the whole world in a very difficult situation. The situation in Peru has been one of the most difficult, reaching more than 140,000 deaths in April 2021 according to SINADEF, reaching a new peak of 783 average deaths per day in March 2021. Faced with this high demand for health services, the Industry professionals take responsibility for prioritizing patient care with subjective protocols. The National Institute of Health (INS), the place where this study was carried out, has among its responsibilities the provision of health services for the control of communicable diseases and the development of scientific-technological research. For this reason, it has implemented laboratories for molecular tests, care protocols, sequenced the genome of the Peruvian variant, etc. Along these lines, the INS, in addition to providing us with information on the Covid19 tests (more than 7 million records with risk factors, symptoms, age, gender, etc.) and the deceased from SINADEF, provided us with expert judgment through their professionals: epidemiologists, biomedical computer scientists, researchers, etc. Predictive models allow you to analyze large volumes of data and from them discover patterns and determine their correlations. With all the information available, applying the Business Analytics processes, an analytical model was developed for the prioritization of Covid-19 patients. The model could also be used in the priority of vaccination and in the design of public health policies related to the pandemic. / Trabajo de investigación
10

Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto

Pérez-Ortiz, Juan Antonio 06 September 2002 (has links)
No description available.

Page generated in 0.0763 seconds