• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1094
  • 101
  • 7
  • 1
  • Tagged with
  • 1204
  • 519
  • 382
  • 382
  • 382
  • 382
  • 382
  • 337
  • 330
  • 315
  • 270
  • 238
  • 169
  • 150
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
711

Comparación de modelos estadísticos para la detección de campos reverberantes uniformes en la formación de imágenes de elastografía

Miranda Zárate, Edmundo Arom 15 August 2022 (has links)
La elastografía abarca un grupo de técnicas no invasivas para la caracterización de tejidos como complemento al diagnóstico médico de diversas patologías. Una de estas técnicas es la elastografía por campo reverberante (R-SWE, por sus siglas en inglés), la cual consiste en generar un campo reverberante en el tejido de interés mediante múltiples fuentes de vibración asumiendo una distribución isotrópica de ondas planas para facilitar el cálculo de la velocidad de onda de corte (SWS, por sus siglas en inglés). Su factibilidad ha sido validada para la caracterización de mamas, hígado, riñones, músculo y pie; sin embargo, el cálculo de la SWS ha sido comprobado mientras se verifique la uniformidad del campo. El modelo actual que valida la estimación de la SWS se basa en la umbralización del coeficiente de determinación R2, el cual es producto del ajuste de curva a la autocorrelación de la velocidad de partículas, no obstante, este no analiza propiamente el concepto de uniformidad. En el presente trabajo, se presenta el estudio del fenómeno de uniformidad en un campo reverberante, mediante la extracción y análisis de estimadores estadísticos usados en campos reverberantes de ondas electromagnéticas con sus equivalencias en ondas mecánicas. Se propone un modelo identificación de campos reverberantes uniformes para la asistencia de la R-SWE, basado en clasificadores automáticos basados en regresión logística, análisis discriminante lineal y máquinas de vector soporte (con kernel lineal y gaussiano) con exactitudes de 0.713, 0.729, 0.732 y 0.817, respectivamente.
712

Análisis de clustering de secuencias genómicas de SARS-COV-2 identificadas en Perú

Mejia Mujica, Carolina Estefania 02 November 2023 (has links)
El presente proyecto de tesis tiene como objetivo el desarrollo de una herramienta analítica interactiva para representar visualmente la diversidad de las secuencias genómicas de SARS-CoV-2 en el Perú, que facilite el análisis de agrupamientos en el espacio y tiempo; y, que permita incorporar nuevas secuencias. Este trabajo pretende resolver la necesidad de realizar una analítica avanzada que incluya representaciones de agrupamiento en el espacio y tiempo de la diversidad de las secuencias genómicas de SARS-CoV-2 en el Perú con el fin de apoyar la vigilancia genómica. Esta investigación surge debido a la pandemia y al virus que evoluciona aceleradamente presentando constantes variantes genómicas, por lo que, la comunidad académica y autoridades sanitarias están interesados en entender la diversidad de estas para así realizar más estudios sobre su propagación. En el caso del Perú, de acuerdo a la revisión bibliográfica, no se encontraron estudios publicados que investiguen la distribución de las variantes del virus SARS-CoV-2. Comprender esta dinámica es importante porque ayudará a conocer el impacto de la pandemia en el país, además de tener un mejor conocimiento de la propagación del virus SARS-CoV-2 para que las autoridades sanitarias tomen acciones informadas. Por ello, los objetivos planteados son el desarrollo de un módulo de software que permita realizar una representación visual espacio-temporal de las secuencias genómicas SARS-CoV- 2; el desarrollo de un módulo de software que permita realizar un análisis de agrupamiento de las secuencias genómicas SARS-CoV-2 con la capacidad de incorporar nuevas secuencias; y la implementación de vistas con capacidades interactivas en ambos módulos para que el usuario interactúe con ellos. Finalmente, la herramienta desarrollada cumple con realizar un análisis de agrupamiento y una representación visual en el espacio-tiempo de la diversidad de secuencias genómicas SARS-CoV-2 para apoyar la vigilancia genómica en el Perú.
713

Clasificación de estados tipo grafo para implementación de circuitos cuánticos

Pardo Figueroa Rojas, Renzo Fernando 25 March 2024 (has links)
La computación cuántica es uno de los campos de investigación más activos en los últimos años. La idea de realizar computación mediante bits cuánticos (cúbits) se remonta a Benioff y Feynman en la década de 1980. Esto dio origen al modelo del circuito que es un enfoque que utiliza compuertas cuánticas para describir transformaciones sobre cúbits en un estado inicial. Otra alternativa es el modelo de computación cuántica basado en mediciones (MBQC). En particular, el llamado modelo one-way que es el primero de este tipo. Este modelo no utiliza compuertas, sino mediciones de un cúbit a la vez sobre un estado cuántico de múltiples cúbits altamente entrelazado. Este modelo se origina en el trabajo seminal de Raussendorf & Briegel [53] quienes demostraron la computación cuántica universal en estados cluster o grafos. En la presente investigación, estudiamos la implementación de circuitos cuánticos utilizando estados grafos con el modelo one-way. Proponemos un sistema de clasificación de los circuitos implementables utilizando un código en base ternaria que permite representar las distintas configuraciones de grafos lineales. Con el empleo de esta clasificación, estimamos recursivamente el número de circuitos implementables con un cluster lineal y mostramos que crece de manera exponencial en función al número de cúbits. Esta clasificación puede usarse para operar un compilador de una computadora cuántica tipo one-way. Un compilador cuántico para una computadora que use el modelo one-way va a requerir realizar mediciones y/o transformaciones sobre cúbits de forma selectiva. El orden de estas mediciones y sobre qué cúbit se implemente cuál transormación dependerá del circuito requerido por el usuario del computador cuántico.
714

Propuesta de método de evaluación de tecnologías serverless tipo FaaS y CaaS para el despliegue de software de aplicaciones transaccionales

Matos Cuba, Guillermo Dante 16 April 2024 (has links)
Los proveedores de servicios de computación en nube ofrecen una amplia variedad de servicios de despliegue de software que están en constante actualización, lo que implica diversos desafíos para arquitectos y desarrolladores cuando tiene que decidir cuál es la opción más adecuada para cumplir con los requerimientos de performance, generándose entonces la necesidad de validar con precisión los parámetros de configuración de los servicios de despliegue ofrecidos por estos proveedores. El estudio realizado propone un método de evaluación de los servicios de despliegue de software que presentan mayores avances en la actualidad, denominados serverless, considerando a FaaS y las nuevas versiones de CaaS como las tecnologías que representan sus beneficios. El método se ha elaborado en base a buenas prácticas de pruebas de performance e investigación experimental. Para validar la efectividad del método se han implementado experimentos en la plataforma de AWS usando una aplicación de benchmark desarrollado exclusivamente para este estudio, durante la experimentación se observaron oportunidades para optimizar costos en el diseño y selección de servicios de los componentes de una arquitectura CaaS. Estos experimentos han sido realizados usando el framework de desarrollo de software de AWS CDK que permite el despliegue y eliminación de arquitecturas en segundos, lo cual permite optimizar tiempos y costos durante el ciclo de evaluación de performance. / Cloud computing service providers offer a wide variety of software deployment services that are constantly updated, which implies various challenges for architects and developers when they need to decide which is the most appropriate option to meet performance requirements. Thus, generating the need to precisely validate the configuration parameters of the deployment services offered by these providers. The study carried out proposes a method for evaluating the software deployment services that currently present the greatest advances, called serverless, considering FaaS and the new versions of CaaS as the technologies that represent their benefits. The method has been developed based on good practices of performance testing and experimental research. To validate the effectiveness of the method, experiments have been implemented on the AWS platform using a benchmark application developed exclusively for this study. During the experimentation, opportunities were observed to optimize costs in the design and selection of services of the components of a CaaS architecture. These experiments have been carried out using the AWS CDK software development framework that allows the deployment and elimination of architectures in seconds, which allows optimizing time and costs during the performance evaluation cycle.
715

Estudio de prefactibilidad para la producción y comercialización de envases descartables biodegradables a base de fécula de maíz

Reyes Pazos, Renzo Santiago 24 August 2022 (has links)
El presente documento muestra el estudio de prefactibilidad para la producción y comercialización de envases descartables biodegradables a base de fécula de maíz. En el capítulo del estudio del mercado, se explora a detalle la importancia del mercado objetivo, el comportamiento del consumidor y el mercado proveedor. Además, se busca encontrar la demanda insatisfecha con el análisis de la demanda y la oferta del producto. Con esta información se establece la demanda del proyecto y las estrategias de comercialización. Para el capítulo del estudio técnico, bajo un análisis de micro y macro localización se definió al distrito de Lurín como localidad para la planta de producción. Consiguiente a ello, se estableció la capacidad de la planta y el proceso productivo que será necesario para obtener el producto final. Finalmente, en este capítulo se muestra el layout de la planta. Posteriormente se presenta el estudio legal en el cual se detalla las normas y leyes las cuales que afectan al proyecto. Así mismo, se presenta el estudio organizacional donde se describe a la empresa y el organigrama. Concluyendo con el escrito, se realizó el estudio económico. En este se presenta la inversión inicial requerida total, para poder adquirir los insumos, máquinas o personal necesario para poder iniciar con las operaciones. Además, se evaluaron distintos métodos de financiamiento para la inversión de activos y de capital de trabajo y se armaron los presupuestos proyectados durante los próximos 5 años. Luego, se armó el flujo de caja económico y financiero y se evaluó la viabilidad del proyecto, las cuales obtuvieron como resultado S/.704,469 para VAN-E y S/.612,971 para VAN-F. Finalmente, se presentó un estudio de sensibilidad donde se evalúan los indicadores de demanda, precio y costo de materia prima en distintos escenarios tanto pesimista como optimistas en los cuales se podrá concluir con resultados positivos que permiten volver viable el proyecto.
716

Evaluación de las propiedades de los elementos químicos en la construcción de árboles consensus usando las metodologías de Adams y regla del mayor

Flores Turpo, Alberto Einstein 15 December 2021 (has links)
El presente trabajo de investigación desarrolla una metodología para analizar cómo varían los árboles consensus respecto al número de propiedades que se usan para su construcción. Para tal motivo, en primer lugar y como marco teórico, se muestran brevemente las metodologías usadas en el análisis jerárquico de clusters para obtener dendrogramas y árboles consensus (Adams y regla del mayor). Asimismo, también se muestran algunos conceptos puntuales que nos ayudan a estudiar la similitud y disimilitud de una base de datos de prueba (subconjunto de elementos químicos del sistema periodico). En segundo lugar, se muestra la metodología para analizar la variación de los árboles consensus respecto al número de propiedades de la base de datos de prueba. Esta consiste en proponer algunos algoritmos que ayuden a obtener y analizar los arboles consensus cuantificando la similitud y disimilitud, para luego aplicar estos conceptos sobre los subconjuntos de elementos comparables del espacio de base de datos. Luego, se discuten estos resultados considerando un conjunto de 32 elementos químicos descritos por 8 propiedades haciendo énfasis en el costo computacional y en el estudio del número de propiedades para obtener los árboles consensus. Finalmente se analizan los resultados obtenidos y se evalúa una propuesta alternativa basada en redes neuronales que permite reducir el costo computacional. De esta manera se da una posible respuesta más completa a una de las preguntas abiertas hasta ahora sobre el sistema periodico.
717

Dirección de la Estrategia de Data en el grupo CREDICORP

Almeyda Alcántara, José Marcelo 18 May 2021 (has links)
Luego de egresar de la carrera de Ingeniería Informática de la Pontificia Universidad Católica en 1998 ingrese a trabajar en el área de sistemas del Banco de Crédito del Perú en diferentes roles Programador, Analista y finalmente Arquitecto de Sistemas, luego de ello pase por otras de negocio del mencionado Banco para finalmente estar a cargo de la creación del Área de Data dentro del grupo Credicorp. En Enero del 2015 el Banco de Crédito del Perú empezó a delinear la creación del Área de Data y Analytics debido a la necesidad de contar con la información necesaria para poder cumplir con su principal objetivo “Transformar sueños en realidad”, antes de la creación de esta área, los datos no eran gobernados por una única entidad y estaba dispersa en las diferentes áreas de negocio y tecnología lo que llevaba a tener diversos problemas de disponibilidad, integridad y veracidad de la información, además del alto costo que conllevaba este modelo de trabajo. A mediados del 2015 se me encargó crear y liderar el Área de Data con el objetivo principal de poner en valor los activos de información del BCP, al poco tiempo se incrementó el alcance de la función a todo el grupo Credicorp (BCP, Prima, Pacifico, Credicorp Capital y Mi Banco). Para la realización de este encargo se dividió en 5 principales iniciativas, desarrolladas principalmente por el personal del BCP: Gestión del recurso humano, el cual incluye organización, funciones, perfiles, capacitación y desarrollo de carrera dentro de un entorno de agilidad, esto conlleva a incluir especializaciones en lugar de estructura jerarquica asi como verdaderas evaluaciones 360. Gobierno y Calidad de Datos, definición e implementación del gobierno de datos que permita tener una sola verdad en relación a que significa cada dato y donde es posible encontrarlo complementándolo con los estándares de calidad de acuerdo a la criticidad del mismo, el entregable fue el diccionario de datos (20mil) de la organización. Arquitectura de Datos basado en tecnología de Big Data, definición e implementación de los diversos componentes de almacenamiento (data lake), explotación y visualización , carga de datos, gobierno y calidad, seguridad y streaming, finalmente se opto por el uso de tecnología de Cloudera on-premise para el almacenamiento, Datameer y Qlik para explotacion y visualizacion, IBM Infosphere para la carga de datos de los aplicativos core y bases externas, Spark para la carga entre capas del datalake, kafka para el streaming de datos y Cloudera DataScience Workbench como herramienta de modelamiento estadísticos donde se podía programar en Python, R y Spark.. Cultura de Datos, definición e implementación de la metodología de cultura de datos como un segundo idioma que permita definir el nivel de madurez de cada área en termino de uso de datos en la toma de decisiones. Data Enrichment, si bien la información que posee el grupo es relevante, es necesario enriquecer la información no solo con nuevos elementos de datos sino también actualizando los existentes de tal manera de tener información fiable. Por otro lado se hizo necesario la creación de un laboratorio de datos donde no solo se probaba tecnología sino también permitía implementar soluciones que capturen mas datos para la tomar de decisiones. Laboratorio de Big Data, definición e implementación del laboratorio de Big Data de tal manera que se pueda poner en valor de forma inmediata el uso de los datos sin esperar a que se culmine todo el proceso de carga de información, para esta labor se utilizo el framework Scrum para el desarrollo de productos de data y la Arquitecture de Big Data con herramientas de Microsoft Azure. Dentro de las principales conclusiones que conllevaron al éxito en la implementación de la estrategia de data se encuentran : • El desarrollo de una estrategia de datos tiene diferentes aristas tecnológicas, culturales y de procesos que deben avanzar en paralelo para el mejor aprovechamiento del valor de la data. • Es necesario un alineamiento de la estrategia de datos a la estrategia corporativa, de esta manera se asegura el soporte de la gerencia central. • La estrategia de datos debe ser conocida por toda la organización y a todo nivel, debido a que es un proceso federado. • Se deben desarrollar las capacidades técnicas del personal ya que el universo de personas que conocen tecnología de big data en el país es muy reducido.
718

Análisis de flujo peatonal en una intersección de avenidas utilizando procesamiento de imágenes

Reátegui Arones, Rolando Jesús 15 December 2021 (has links)
En diversos cruces de avenidas de la ciudad de Lima, se observan patrones anormales de comportamiento peatonal, inadecuada semaforización y diseño vial no ideal para los peatones. Estos últimos son los más vulnerables en los accidentes de tránsito y son quienes deberían requerir mayor prioridad en el diseño de intersecciones. Para mejorar los diseños de las intersecciones se requiere datos de flujo peatonal, que se pueden medir de diversas maneras. Actualmente, el método de conteo de peatones utilizado es manual, el cual es realizado por equipos de personas desde una esquina o mediante una grabación y que tiene una baja eficiencia por error humano, además del costo por hora que ello implica. Por esta razón, la presente tesis expone nuevos métodos de conteo más eficaces ejecutados en una intersección conocida y sus resultados comparados con cifras esperadas. El primer capítulo de la tesis presenta el marco problemático que justifica la importancia de la presente tesis, los métodos generales usuales para detección de peatones y expone los objetivos de la tesis. El segundo capítulo describe los fundamentos teóricos sobre procesamiento de imágenes utilizados para el desarrollo de los posteriores capítulos y los métodos específicos para cada etapa del algoritmo. El tercer capítulo enumera los pasos de la propuesta para el conteo de peatones, las funciones implementadas y librerías utilizadas para cada una de las etapas de esta aplicación. Por último, el cuarto capítulo revisa los resultados de la propuesta por cada etapa para diferentes videos y hace un análisis de estos para su recomendación de uso en futuras aplicaciones.
719

Intrumentación estructural de edificios en países sísmicos

Felices Gilvonio, Christian Andree 18 March 2021 (has links)
Este trabajo explora la normativa internacional referida a la instrumentación sísmica de edificios y la aplicación de un sistema de procesamiento de señales sísmicas registradas en edificios instrumentados bajo la normativa de instrumentación sísmica peruana. Las normativas revisadas pertenecen a Colombia, Venezuela, Chile, Costa Rica, Turquía, Estados Unidos y Filipinas. Esta recopilación se presenta en cuadros informativos con las principales disposiciones de cada capítulo de instrumentación. Asimismo, se incluye una comparación entre las estipulaciones de una de las normativas estudiadas versus las disposiciones sugeridas por las principales guías internacionales de monitoreo sísmico de edificaciones. Finalmente, se sugieren aspectos normativos a incluir en el capítulo de instrumentación sísmica peruana propuestos en base a la información estudiada. Por otra parte, se revisan los conceptos básicos de señales sísmicas y su procesamiento. Luego, se presentan los conceptos y especificaciones técnicas de estaciones sísmicas y acelerómetros. Después, se realiza el estudio de los métodos numéricos usados para el cálculo de la respuesta dinámica de modelos de un grado de libertad y la construcción de espectros de respuesta de desplazamiento, velocidad y aceleración. Finalmente, se desarrolla un programa en LabVIEW para la construcción de espectros de respuesta y la creación de reportes automáticos con la información obtenida del evento sísmico registrado en una edificación instrumentada.
720

Optimización de alimentación a planta: facilitación del incremento del Throughput en procesos planta

Angulo Cajavilca, José Miguel 14 December 2020 (has links)
El presente proyecto, liderado por el autor de tesis en todas sus aristas, desde la planificación, ejecución, cierre y seguimiento del mismo, tiene como objetivo facilitar el incremento del tratamiento en la Planta de Procesos mediante el incremento del porcentaje de finos y generación de microfracturas en mineral tipo hipógeno mediante pruebas y análisis de resultados de cambios en las variables de perforación y voladura, de modo que se evalúe la influencia del proyecto en la rentabilidad de la operación global. La propuesta de valor considera aumentar el potencial de procesamiento de minerales futuros de 75,000 t/d a un rendimiento nominal de 90,000 t/d. Esto surge principalmente debido a la presencia creciente de minerales tipo hipógeno según revisión del plan de la vida de la mina (LOM, por sus siglas en ingles), cuyos índices de dureza tienden a incrementar a medida que se siga profundizando, lo que tiene un significativo impacto negativo en el rendimiento de las líneas de producción de Procesos Planta. Así mismo, este proyecto surge de la necesidad de lograr niveles de producción similares de cobre fino a lo largo de la vida de la mina teniendo en cuenta la disminución de leyes de cobre (factor geológico) en los procesos de concentración, lo que implica mover y procesar un mayor tonelaje de mineral. Por último, acotar que a lo largo del documento se hace uso del anglicismo “throughput”, el cual es un indicador de Procesos Planta que hace referencia al rendimiento o ritmo productivo, expresado en t/h, de las líneas de producción N°1 y N°2 correspondientes a la molienda primaria. El éxito del proyecto resulta en un aumento del 7% sobre el rendimiento de las líneas de producción de Procesos Planta, que significa tratar mineral a razón de 90 Ktpd. Esta optimización se refleja en ventas anuales adicionales de concentrado de cobre estimadas alrededor de los 30MMU$.

Page generated in 0.1033 seconds