• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 19
  • Tagged with
  • 88
  • 52
  • 22
  • 21
  • 18
  • 17
  • 15
  • 14
  • 14
  • 14
  • 14
  • 14
  • 14
  • 14
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Control predictivo basado en modelos (CPBM) robusto con BDU

Ramos Fernández, César 06 May 2008 (has links)
El Control Predictivo Basado en Modelos (CPBM) optimiza un índice que incorpora un parámetro de penalización para las acciones de control lambda, con el fin de que no sean demasiado bruscas, a la vez que se mejora la robustez del sistema. El principal inconveniente radica en que el sintonizado de lambda se suele regir por criterios empíricos, y poco orientados a la mejora de la robustez. De entre las diferentes técnicas de mejora de la robustez en CPBM se destaca la optimización Min-Max de las especificaciones, donde se resuelve el problema de optimización para el peor modelo en una región acotada. Desde otro punto de vista, el principio de mínimos cuadrados está presente en numerosas teorías de identificación y control. De hecho el CPBM se puede plantear como un problema de mínimos cuadrados. Su principal inconveniente radica en que es sensible a los errores en los datos (mal condicionamiento), lo cual se puede mejorar regularizando el problema mediante el parámetro de regularización lambda ajustado empíricamente (análogo al parámetro lambda de penalización del esfuerzo de control en CPBM). La técnica BDU (Bounded Data Uncertainties) es una técnica de regularización de problemas de mínimos cuadrados, originalmente desarrollada para problemas de estimación, y poco usada en control, salvo el controlador lineal cuadrático (LQR) con horizonte de predicción finito considerando incertidumbre paramétrica. Dicha técnica diseña el parámetro de regularización lambda teniendo en cuenta la cota de la incertidumbre presente en el sistema y plantea el problema como una optimización Min-Max. Por lo tanto se puede establecer la analogía con el problema Min-Max de CPBM robusto, así el objetivo principal de la tesis consiste en usar la técnica BDU para sintonizar lambda de modo guiado y con el fin de mejorar la robustez del sistema. Otro objetivo adicional es asegurar la estabilidad. Por tanto, se pretende plantear un LQR robusto y estable, denominado LQR-BDU, robusto por usar / Ramos Fernández, C. (2007). Control predictivo basado en modelos (CPBM) robusto con BDU [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1844
62

CONTROL PREDICTIVO SUJETO A RESTRICCIONES POLIÉDRICAS NO CONVEXAS: SOLUCIÓN EXPLÍCITA Y ESTABILIDAD

Pérez Soler, Emilio 01 February 2011 (has links)
En esta tesis doctoral se aborda el problema del control predictivo sujeto a restricciones definidas como la unión no convexa de varios poliedros. Los controladores propuestos son de utilidad, por un lado, para procesos que presentan de manera natural restricciones de dicha forma y, por otra parte, como una alternativa al control predictivo no lineal cuando períodos de muestreo bajos no permiten la aplicación de programación no lineal. En los primeros capítulos del trabajo se demuestra la existencia de una solución explícita a los problemas de optimización que aparecen al plantear este tipo de controladores predictivos. Dicha solución es afín a tramos definidos mediante desigualdades lineales y cuadráticas. Se introducen dos metodologías diferentes para la obtención de esta solución explícita: la metodología de intersección, división y unión y la de la envolvente convexa. La primera de estas metodologías se basa en formular subproblemas con las restricciones convexas cuya unión forma las restricciones originales y obtener la solución explícita del problema original a partir de las soluciones de dichos subproblemas. La segunda metodología planteada se basa en el cálculo de la envolvente convexa de los conjuntos de restricciones y la obtención de la solución explícita del problema convexo definido por estas nuevas restricciones. Se demuestra como parte de las regiones de la solución explícita del problema original coinciden con las del nuevo problema, y se propone un procedimiento para identificarlas y obtener el resto de regiones, completando la solución explícita buscada. Se estudian también algoritmos eficientes para la implementación en línea de leyes de control explícitas como las obtenidas. En particular, se propone un algoritmo basado en un árbol binario de una partición lineal y una comparación de índices de costes en las regiones en las que sea necesario. / Pérez Soler, E. (2011). CONTROL PREDICTIVO SUJETO A RESTRICCIONES POLIÉDRICAS NO CONVEXAS: SOLUCIÓN EXPLÍCITA Y ESTABILIDAD [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/9315
63

Control predictivo basado en modelos mediante técnicas de optimización heurística. Aplicación a procesos no lineales y multivariables

Blasco Ferragud, Francesc Xavier 06 June 2012 (has links)
La Tesis Doctoral se fundamenta, principalmente, en la exploración de nuevos métodos de Control Predictivo Basado en Modelos (MBPC) mediante la incorporación de herramientas de optimización heurística y las mejoras en las prestaciones que se pueden conseguir con ello. La metodología de MBPC constituye un campo cada vez más importante en el control de procesos debido a que se trata de una formulación muy intuitiva, y a la vez muy potente, de un problema de control (por tanto es más fácilmente aceptable en el ámbito industrial). A pesar de ello, presenta limitaciones cuando se quiere aplicar a ciertos procesos complejos. Un elemento fundamental y al mismo tiempo limitante de ésta metodología lo constituye la técnica de optimización que se utilice. Simplificando mucho, el MBPC se convierte en un problema de minimización en cada periodo de muestreo, y la complejidad del problema de control se refleja directamente en la función a minimizar en cada instante. Si se incorporan modelos no lineales, restricciones en las variables, e índices de funcionamiento sofisticados, todo ello asociado a los problemas de tiempo real, se va a requerir algoritmos de optimización adecuados que garanticen el mínimo global en un tiempo acotado. En este sentido, la tesis incluye un análisis de las metodologías de Optimización Heurísticas, Simulated Annealing y Algoritmos Genéticos, como candidatas a la resolución de ese tipo de problemas y apartir de ellas realiza una implementación novedosa (denominada ASA) dentro del grupo de los algoritmos de Simulated Annealing que reduce el coste computacional. En los Algoritmos Genéticos, se obtienen las combinaciones de codificación y operadores genéticos más adecuadas para conseguir buenas relaciones de 'calidad de la solución/coste computacional' en la resolución de problemas de minimización complejos (no convexos, con discontinuidades, restricciones, etc.). Todo este análisis previo, permite la adaptación adecuada de estas técnicas heurísticas...... / Blasco Ferragud, FX. (1999). Control predictivo basado en modelos mediante técnicas de optimización heurística. Aplicación a procesos no lineales y multivariables [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/15995
64

Sistema de información para el control, seguimiento y mantenimiento del equipamiento hospitalario

Chávez Gómez, Víctor Hugo January 2010 (has links)
The main purpose of this research is to present a solution that enable to manage efficient and reliable way, all of the information in relation to control, tracking and the hospital equipment maintenance. So, was taken as an object of study of Engineering Department of the Central Hospital of the Air Force of Peru, which presents a lot of administrative deficiencies character in its internal processes of reception, record and closing of Work Orders as well as the preventive and corrective maintenance of the hospital equipment of the HCFAP.The contemplated solution comprises from analysis and design to the development of some use cases more significant of the application. / El presente trabajo de investigación tiene como propósito fundamental presentar una solución que permita administrar de forma eficiente y confiable toda la información respecto al control, seguimiento y mantenimiento del equipamiento hospitalario. Para ello se tomó como objeto de estudio al Departamento de Ingeniería del Hospital Central de la Fuerza Aérea del Perú, el cual presenta muchas deficiencias de carácter administrativo en sus procesos internos de recepción, registro y cierre de Órdenes de Trabajo así como el mantenimiento preventivo y correctivo de los equipos hospitalarios del HCFAP. La solución contemplada abarca desde el análisis y diseño hasta el desarrollo de algunos casos de uso más significativos de la aplicación.
65

Elucidating mechanisms of gene regulation. Integration of high-throughput sequencing data for studying the epigenome

Althammer, Sonja Daniela 27 April 2012 (has links)
The recent advent of High-Throughput Sequencing (HTS) methods has triggered a revolution in gene regulation studies. Demand has never been higher to process the immense amount of emerging data to gain insight into the regulatory mechanisms of the cell. We address this issue by describing methods to analyze, integrate and interpret HTS data from different sources. In particular, we developed and benchmarked Pyicos, a powerful toolkit that offers flexibility, versatility and efficient memory usage. We applied it to data from ChIP-Seq on progesterone receptor in breast cancer cells to gain insight into regulatory mechanisms of hormones. Moreover, we embedded Pyicos into a pipeline to integrate HTS data from different sources. In order to do so, we used data sets from ENCODE to systematically calculate signal changes between two cell lines. We thus created a model that accurately predicts the regulatory outcome of gene expression, based on epigenetic changes in a gene locus. Finally, we provide the processed data in a Biomart database to the scientific community. / La llegada reciente de nuevos métodos de High-Throughput Sequencing (HTS) ha provocado una revolución en el estudio de la regulación génica. La necesidad de procesar la inmensa cantidad de datos generados, con el objectivo de estudiar los mecanismos regulatorios en la celula, nunca ha sido mayor. En esta tesis abordamos este tema presentando métodos para analizar, integrar e interpretar datos HTS de diferentes fuentes. En particular, hemos desarollado Pyicos, un potente conjunto de herramientas que ofrece flexibilidad, versatilidad y un uso eficiente de la memoria. Lo hemos aplicado a datos de ChIP-Seq del receptor de progesterona en células de cáncer de mama con el fin de investigar los mecanismos de la regulación por hormonas. Además, hemos incorporado Pyicos en una pipeline para integrar los datos HTS de diferentes fuentes. Hemos usado los conjuntos de datos de ENCODE para calcular de forma sistemática los cambios de señal entre dos líneas celulares. De esta manera hemos logrado crear un modelo que predice con bastante precisión los cambios de la expresión génica, basándose en los cambios epigenéticos en el locus de un gen. Por último, hemos puesto los datos procesados a disposición de la comunidad científica en una base de datos Biomart.
66

Implementación y modelamiento predictivo de cocción downflow lo-solid en digestor continuo / Implementação de modelo preditivo de polpação downflow lo-solid em digestor contínuo

Saavedra, Daniel Maximiliano Aracena 21 July 2011 (has links)
Made available in DSpace on 2015-03-26T14:01:09Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1343369 bytes, checksum: 2a6229ec53b7135013d3024cb0472c30 (MD5) Previous issue date: 2011-07-21 / Neste trabalho, pretende-se mostrar as alterações feitas no processo de polpação do digestor contínuo de uma das linhas na Planta Arauco, a partir dos resultados alcançados pretende-se fornecer dados para o desenvolvimento de um modelo preditivo do número kappa no digestor contínuo Down Flow Lo-Solid. O cozimento Lo-sólido que estava em operação desde 2000, foi deficiente na área de lavagem, o que levou ao desenvolvimento de um novo processo chamado Downflow Lo-Solid. A partir desse processo conseguiu-se reduzir significativamente os níveis DQO na linha de fibra, incluindo a entrada de branqueamento que diminuiu 24%, atingindo valores de 10,8 (kg DQO / tas), porém este não se traduz em poupança dióxido de na área de branqueamento. As melhorias na lavagem da polpa permitiram reduzir o consumo de antiespumante 42%, reduzindo o consumo a um valor especifico de 0,81 (kg AE / tsa). Com relação à qualidade da polpa obtida, esta apresenta diminuição nas propriedades físico-mecânicas, embora essa característica seja atribuída ao fato de o digestor receber uma mistura de cavacos com diferentes tempos de armazenamento, o que alterou diversos parâmetros analisados neste trabalho. Foi definido que era necessário para modelar o comportamento do número kappa no digestor, devido à importância desta variável, como ele define todo o processo de cozimento. Obtiveram-se modelos que preveem um coeficiente de correlação de 0,817 para uma rede neural artificial com controle de Bayesian e uma camada. / En el presente trabajo se muestran las modificaciones efectuadas al proceso de cocción del digestor continuo de línea 2 en Planta Arauco, los resultados alcanzados y adicionalmente entregar las bases para el desarrollo de un modelo predictivo del número kappa en la línea de soplado del digestor continuo con la cocción Down Flow Lo-Solid. El proceso de cocción Lo-Solid que se encontraba en operación desde el año 2000, presentaba deficiencias en la zona de lavado que impulsaron el desarrollo de la modificación al proceso denominado DownFlow Lo-Solid. Se consigue disminuir de manera importante los niveles de DQO en la línea de fibra, en particular a la entrada de blanqueo disminuyó cerca de un 24% alcanzando valores de 10,8 (kg DQO/tas), sin embargo esto no se traducen en ahorros de dióxido en el área de blanqueo. Las mejoras en el lavado de la pulpa permitieron reducir el consumo de antiespumante en un 42% en el área de lavado llegando a un especifico de 0,81 (kg AE/tsa). Con respecto a la calidad de la pulpa obtenida esta presenta descensos en la propiedades físico-mecánicos, aunque esto se atribuye al hecho de utilizar un porcentaje de madera de alto tiempo de almacenamiento en la mezcla de astillas al digestor, lo cual alteró varios de los parámetros analizados en este trabajo. Se definió modelar el comportamiento del número kappa en la línea de soplado del digestor por la importancia de esta variable, ya que define completamente el proceso de cocción. Consiguiendo modelos que predicen con un coeficiente de correlación de 0,817 para una red neuronal artificial con regulación bayesiana y una capa.
67

Desarrollo de un APP basado en modelos predictivos y tecnología GPS para la recomendación y reservas de espacios en playas de estacionamiento

Diaz Mantilla, Francisco Alberto, Ocampo Hidalgo, Alexander 01 June 2021 (has links)
El presente proyecto de tesis reúne la información del proceso y los sub procesos involucrados en la gestión de venta de eventuales Central Parking Systems S.A., así mismo, las nuevas ideas propuestas para la mejora de los procesos en el campo de Acción. En el capítulo 1, se expondrá el marco teórico el cual estará constituido por los fundamentos teóricos del negocio y las tendencias y tecnologías actuales, también se presentará a la organización, su estructura organizacional, sus objetivos estratégicos y sus procesos. Para cerrar el capítulo 1 se expondrá su problemática. En el capítulo 2, se presentará los objetivos del proyecto tanto generales como específicos junto a sus respectivos fundamentos. Se expondrá los distintos beneficios que traerá consigo el proyecto. Para terminar, se presentará la evaluación comparativa de nuestra solución versus 3 otras soluciones y un detallado análisis. En el capítulo 3, se expondrá todo el modelado de negocio, tendremos los distintos artefactos del UML como el diagrama de casos de uso del negocio, los distintos actores y trabajadores de negocio para finalizar se presentará las especificaciones de casos de uso asociadas a sus reglas de negocio y representados por su diagrama de actividades. En el capítulo 4, se abordarán los temas de análisis de sistema, se presentarán los distintos requerimientos funcionales y no funcionales, como estos requerimientos funcionales son agrupados en distintos paquetes y casos de uso de sistema. En el capítulo 5, donde se definirá la arquitectura de software, es en este capítulo donde se plantean las metas y restricciones de la arquitectura, se plantean las distintas mecánicas que darán soporte de la arquitectura, por último, se tiene las distintas vistas (lógica, implementación, despliegue). En el capítulo 6, podremos apreciar la construcción de los patrones de la solución propuesta, así como el diagrama de patrones y el diccionario de datos En el capítulo 7, se definirá la calidad de software como nuestro plan de pruebas. Estos planes son la parte fundamental del software, brindaran los lineamientos a seguir para poder garantizar la calidad y buen funcionamiento de nuestro sistema En el capítulo 8, abordaremos temas de la gestión del proyecto, se presentará a los principales interesados, la EDT y por último el cronograma de trabajo en un Gantt. / This thesis project gathers the information of the process and the sub processes involved in the management of the sale of eventual Central Parking Systems S.A., as well as the new ideas proposed for the improvement of the processes in the field of Action. In chapter 1, the theoretical framework will be exposed, which will be constituted by the theoretical foundations of the business and current trends and technologies, it will also be presented to the organization, its organizational structure, its strategic objectives and its processes. To close chapter 1, its problems will be exposed. In Chapter 2, both general and specific project objectives will be presented along with their respective rationale. The different benefits that the project will bring will be exposed. Finally, the benchmarking of our solution versus 3 other solutions and a detailed analysis will be presented. In chapter 3, all the business modeling will be exposed, we will have the different UML artifacts such as the business use case diagram, the different actors and business workers, to finish, the use case specifications associated with their rules will be presented. of business and represented by its activity diagram. In Chapter 4, the issues of system analysis will be addressed, the different functional and non-functional requirements will be presented, as these functional requirements are grouped into different packages and system use cases. In chapter 5, where the software architecture will be defined, it is in this chapter where the goals and constraints of the architecture are raised, the different mechanics that will support the architecture are raised, finally, the different views (logic, implementation, deployment). In chapter 6, we will be able to appreciate the construction of the patterns of the proposed solution, as well as the pattern diagram and the data dictionary In Chapter 7, we will define software quality as our test plan. These plans are the fundamental part of the software, they will provide the guidelines to follow in order to guarantee the quality and proper functioning of our system. In Chapter 8, we will address project management issues, introduce key stakeholders, the WBS, and finally the work schedule in a Gantt. / Tesis
68

Propuesta de mercados alternativos y potenciales para la empresa Sociedad Agrícola Drokasa S.A

Gonzales Lanasca, Felix Junior, Mejia Mendoza, Jimmy Gerson, Otoya Pagan, Angela Katia 30 November 2020 (has links)
El presente proyecto de investigación es un análisis desde la perspectiva de negocios y estadístico de la empresa Agrokasa. El objetivo principal es encontrar nuevos mercados alternativos en crecimiento que le permitan obtener una mejor rentabilidad por el precio de kilo exportado de palta. Para alcanzar lo mencionado, se llevó a cabo un análisis empresarial que nos permita comprender el contexto y rubro de la empresa. Una vez alcanzado ese objetivo, se aplicó la metodología de la ciencia de datos para encontrar países de destino que son atractivos para Agrokasa. En cuanto al conjunto de datos, se obtuvo de diferentes fuentes públicas y privadas como Veritrade, Trade Map y Adex Data Trade. En consecuencia, se logró identificar 03 mercados alternativos y potenciales, tales como, Rusia, China y Corea Del Sur. En el análisis se utilizaron diferentes herramientas tecnológicas para la compilación, depuración, procesamiento y visualización de los datos, tales como Excel, Power Bi y Python. Con lo cual se demostró la importancia de ver todas las variables en una visualización que nos permite entender el comportamiento de los datos y nos sirve como fundamento para la toma de decisiones. En cuanto a los nuevos mercados, China presento el mayor valor total FOB exportado en el periodo analizado, 2018 -2020. Pese a presentar una tendencia negativa en la Regresión Lineal. Sin embargo, el precio promedio por kilo de palta aun es conveniente. Por otro lado, Rusia fue el mercado con mayores perspectivas de crecimiento y Corea Del Sur con un mejor precio por KG. Finalmente, para todos los mercados se utilizó una técnica de ciencia de datos con aprendizaje supervisado con un enfoque predictivo para pronosticar las importaciones de cada uno de ellos a fin de establecer estrategias comerciales para penetrar en ellos. / This paper is an analysis from a business and statistical perspective of the Agrokasa company in order to find new potential markets that allow it to grow in the volume of its avocado exports and in profitability per Kg exported. To achieve the aforementioned, a previous analysis from a business approach has been used, to understand the context and business area. Once this is understood, the methodology of data science has been applied to find destination countries that are attractive to Agrokasa. The data set was obtained from different public and private sources such as Veritrade and Trademap, with which it was possible to identify 03 potential markets that were China, Russia and South Korea. In the analysis, different technological tools were used to compile, debug, process and visualize the data, such as Excel, Power Bi and Python. With which it was demonstrated the importance of seeing all the variables in a visualization that allows us to understand the behavior of the data and serves as a basis for decision-making. China was the market with the highest total FOB value exported in the analyzed period, which was from 2018 -2020, however, with a negative trend, but with a convenient average price. On the other hand, Russia was the market with the best growth prospects and South Korea with a better price per KG. ​Finally, for all markets, a data science technique with supervised learning with a predictive approach was used to forecast the imports of each of them in order to establish commercial strategies to penetrate them. / Trabajo de investigación
69

Modelo para automatizar el proceso de predicción de la deserción en estudiantes universitarios en el primer año de estudio / Model to automate the dropout prediction process in university students in the first year of study

Cevallos Medina, Erik Nicolay, Barahona Chunga, Claudio Jorge 13 May 2021 (has links)
La presente investigación propone un modelo para la automatización de predicción de la deserción de estudiantes universitarios. Esta investigación surge de una problemática existente en el sector educativo peruano: la deserción estudiantil universitaria; es decir, aquellos estudiantes universitarios que abandonan sus estudios de forma parcial o definitiva. La investigación tiene por finalidad brindar una solución que contribuya a reducir la tasa de deserción universitaria, aplicando tecnologías de análisis predictivo y minería de datos, que detecte anticipadamente a estudiantes con posibilidades de abandonar sus estudios, brindando así a las instituciones educativas mayor visibilidad y oportunidades de acción ante esta problemática. Se diseñó un modelo de análisis predictivo, en base al análisis y definición de 15 variables de predicción, 3 fases y la aplicación de algoritmos de predicción, basados en la disciplina del Educational Data Minig (EDM) y soportada por la plataforma IBM SPSS Modeler. Para validar, se evaluó la aplicación de 4 algoritmos de predicción: árboles de decisión, redes bayesianas, regresión lineal y redes neuronales; en un estudio en una institución universitaria de Lima. Los resultados indican que las redes bayesianas se comportan mejor que otros algoritmos, comparados bajo las métricas de precisión, exactitud, especificidad y tasa de error. Particularmente, la precisión de las redes bayesianas alcanza un 67.10% mientras que para los árboles de decisión (el segundo mejor algoritmo) es de un 61,92% en la muestra de entrenamiento para la iteración con razón de 8:2. Además, las variables “persona deportista” (0,29%), “vivienda propia” (0,20%) y “calificaciones de preparatoria” (0,15%) son las que más contribuyen al modelo de predicción. / This research proposes a model for the automation of prediction of university student dropout. This research arises from an existing problem in the Peruvian educational sector: university student dropout; that is, those university students who partially or permanently abandon their studies. The purpose of the research is to provide a solution that contributes to reducing the university dropout rate, applying predictive analysis technologies and data mining, which detects in advance students with the possibility of dropping out of their studies, thus providing educational institutions with greater visibility and opportunities. of action before this problem. A predictive analysis model was designed, based on the analysis and definition of 15 prediction variables, 3 phases and the application of prediction algorithms, based on the Educational Data Mining (EDM) discipline and supported by the IBM SPSS Modeler platform. To validate, the application of 4 prediction algorithms was evaluated: decision trees, Bayesian networks, linear regression, and neural networks; in a study at a university institution in Lima. The results indicate that Bayesian networks perform better than other algorithms, compared under the metrics of precision, accuracy, specificity, and error rate. Particularly, the precision of Bayesian networks reaches 67.10% while for decision trees (the second-best algorithm) it is 61.92% in the training sample for the iteration with a ratio of 8: 2. In addition, the variables "sports person" (0.29%), "own home" (0.20%) and "high school grades" (0.15%) are the ones that contribute the most to the prediction model. / Tesis
70

Índice SatO2/FiO2 versus PaO2/FiO2 para predecir mortalidad en pacientes con COVID-19 en un hospital de altura / SatO2/FiO2 rate versus PaO2/FiO2 rate for predicting mortality in patients with COVID-19 in a high-altitude hospital

Marmanillo Mendoza, Gabriela, Zuñiga Manrique, Rosario Elsa Jesús, Cornejo Del Valle, Oscar Eduardo, Portilla Canqui, Luis Alberto 04 February 2022 (has links)
Objetivo: comparar el índice SatO2/FiO2 versus PaO2/FiO2 para predecir mortalidad en pacientes con COVID-19 en un hospital de altura. Materiales y métodos: estudio observacional, retrospectivo y transversal, donde se compararon la sensibilidad (S), especificidad (E), valor predictivo positivo (VPP) y valor predictivo negativo (VPN) de ambos índices. Resultados: La edad promedio de los pacientes con COVID-19 fue 62.2 ±12.8 años, el 73.7% fueron varones, las comorbilidades de mayor frecuencia fueron la diabetes mellitus (21.6%) y la hipertensión arterial (27.2%). Por otro lado el índice promedio SatO2/FiO2 fue 234.9 ±121.9 y el PaO2/FiO2 fue 169.7 ± 84 y el 30.5% de pacientes falleció. Se evidenció relación significativa entre los índices en mención y la mortalidad. Se obtuvo como puntos de corte 114.4 para SatO2/FiO2, con sensibilidad de 43.1%, especificidad de 91.2%, valor predictivo positivo de 68.3% y valor predictivo negativo de 78.5%, mientras que el punto de corte para PaO2/FiO2 fue 134.2, con sensibilidad de 63.1%, especificidad de 67.6%, valor predictivo positivo de 46.1% y valor predictivo negativo de 80.7%. Conclusión: Ambos índices son predictores de mortalidad, sin embargo el SatO2/FiO2 presentó mejores valores, con respecto a algunos de los criterios de sensibilidad, especificidad, valor predictivo positivo y valor predictivo negativo.

Page generated in 0.0559 seconds