Spelling suggestions: "subject:"processamento."" "subject:"procedimiento.""
711 |
Comparación de modelos estadísticos para la detección de campos reverberantes uniformes en la formación de imágenes de elastografíaMiranda Zárate, Edmundo Arom 15 August 2022 (has links)
La elastografía abarca un grupo de técnicas no invasivas para la caracterización de tejidos como complemento al diagnóstico médico de diversas patologías. Una de estas técnicas es la elastografía por campo reverberante (R-SWE, por sus siglas en inglés), la cual consiste en generar un campo reverberante en el tejido de interés mediante múltiples fuentes de vibración asumiendo una distribución isotrópica de ondas planas para facilitar el cálculo de la velocidad de onda de corte (SWS, por sus siglas en inglés). Su factibilidad ha sido validada para la caracterización de mamas, hígado, riñones, músculo y pie; sin embargo, el cálculo de la SWS ha sido comprobado mientras se verifique la uniformidad del campo. El modelo actual que valida la estimación de la SWS se basa en la umbralización del coeficiente de determinación R2, el cual es producto del ajuste de curva a la autocorrelación de la velocidad de partículas, no obstante, este no analiza propiamente el concepto de uniformidad. En el presente trabajo, se presenta el estudio del fenómeno de uniformidad en un campo reverberante, mediante la extracción y análisis de estimadores estadísticos usados en campos reverberantes de ondas electromagnéticas con sus equivalencias en ondas mecánicas. Se propone un modelo identificación de campos reverberantes uniformes para la asistencia de la R-SWE, basado en clasificadores automáticos basados en regresión logística, análisis discriminante lineal y máquinas de vector soporte (con kernel lineal y gaussiano) con exactitudes de 0.713, 0.729, 0.732 y 0.817, respectivamente.
|
712 |
Análisis de clustering de secuencias genómicas de SARS-COV-2 identificadas en PerúMejia Mujica, Carolina Estefania 02 November 2023 (has links)
El presente proyecto de tesis tiene como objetivo el desarrollo de una herramienta
analítica interactiva para representar visualmente la diversidad de las secuencias genómicas de
SARS-CoV-2 en el Perú, que facilite el análisis de agrupamientos en el espacio y tiempo; y,
que permita incorporar nuevas secuencias. Este trabajo pretende resolver la necesidad de
realizar una analítica avanzada que incluya representaciones de agrupamiento en el espacio y
tiempo de la diversidad de las secuencias genómicas de SARS-CoV-2 en el Perú con el fin de
apoyar la vigilancia genómica.
Esta investigación surge debido a la pandemia y al virus que evoluciona aceleradamente
presentando constantes variantes genómicas, por lo que, la comunidad académica y autoridades
sanitarias están interesados en entender la diversidad de estas para así realizar más estudios
sobre su propagación. En el caso del Perú, de acuerdo a la revisión bibliográfica, no se
encontraron estudios publicados que investiguen la distribución de las variantes del virus
SARS-CoV-2. Comprender esta dinámica es importante porque ayudará a conocer el impacto
de la pandemia en el país, además de tener un mejor conocimiento de la propagación del virus
SARS-CoV-2 para que las autoridades sanitarias tomen acciones informadas.
Por ello, los objetivos planteados son el desarrollo de un módulo de software que permita
realizar una representación visual espacio-temporal de las secuencias genómicas SARS-CoV-
2; el desarrollo de un módulo de software que permita realizar un análisis de agrupamiento de
las secuencias genómicas SARS-CoV-2 con la capacidad de incorporar nuevas secuencias; y
la implementación de vistas con capacidades interactivas en ambos módulos para que el usuario
interactúe con ellos.
Finalmente, la herramienta desarrollada cumple con realizar un análisis de agrupamiento
y una representación visual en el espacio-tiempo de la diversidad de secuencias genómicas
SARS-CoV-2 para apoyar la vigilancia genómica en el Perú.
|
713 |
Clasificación de estados tipo grafo para implementación de circuitos cuánticosPardo Figueroa Rojas, Renzo Fernando 25 March 2024 (has links)
La computación cuántica es uno de los campos de investigación más activos en los últimos
años. La idea de realizar computación mediante bits cuánticos (cúbits) se remonta a Benioff y
Feynman en la década de 1980. Esto dio origen al modelo del circuito que es un enfoque que
utiliza compuertas cuánticas para describir transformaciones sobre cúbits en un estado inicial.
Otra alternativa es el modelo de computación cuántica basado en mediciones (MBQC). En
particular, el llamado modelo one-way que es el primero de este tipo. Este modelo no utiliza
compuertas, sino mediciones de un cúbit a la vez sobre un estado cuántico de múltiples cúbits
altamente entrelazado. Este modelo se origina en el trabajo seminal de Raussendorf & Briegel
[53] quienes demostraron la computación cuántica universal en estados cluster o grafos.
En la presente investigación, estudiamos la implementación de circuitos cuánticos utilizando
estados grafos con el modelo one-way. Proponemos un sistema de clasificación de los circuitos
implementables utilizando un código en base ternaria que permite representar las distintas configuraciones de grafos lineales. Con el empleo de esta clasificación, estimamos recursivamente
el número de circuitos implementables con un cluster lineal y mostramos que crece de manera
exponencial en función al número de cúbits.
Esta clasificación puede usarse para operar un compilador de una computadora cuántica
tipo one-way. Un compilador cuántico para una computadora que use el modelo one-way va a
requerir realizar mediciones y/o transformaciones sobre cúbits de forma selectiva. El orden de
estas mediciones y sobre qué cúbit se implemente cuál transormación dependerá del circuito
requerido por el usuario del computador cuántico.
|
714 |
Propuesta de método de evaluación de tecnologías serverless tipo FaaS y CaaS para el despliegue de software de aplicaciones transaccionalesMatos Cuba, Guillermo Dante 16 April 2024 (has links)
Los proveedores de servicios de computación en nube ofrecen una amplia variedad de servicios de despliegue de software que están en constante actualización, lo que implica diversos desafíos para arquitectos y desarrolladores cuando tiene que decidir cuál es la opción más adecuada para cumplir con los requerimientos de performance, generándose entonces la necesidad de validar con precisión los parámetros de configuración de los servicios de despliegue ofrecidos por estos proveedores.
El estudio realizado propone un método de evaluación de los servicios de despliegue de software que presentan mayores avances en la actualidad, denominados serverless, considerando a FaaS y las nuevas versiones de CaaS como las tecnologías que representan sus beneficios.
El método se ha elaborado en base a buenas prácticas de pruebas de performance e investigación experimental.
Para validar la efectividad del método se han implementado experimentos en la plataforma de AWS usando una aplicación de benchmark desarrollado exclusivamente para este estudio, durante la experimentación se observaron oportunidades para optimizar costos en el diseño y selección de servicios de los componentes de una arquitectura CaaS.
Estos experimentos han sido realizados usando el framework de desarrollo de software de AWS CDK que permite el despliegue y eliminación de arquitecturas en segundos, lo cual permite optimizar tiempos y costos durante el ciclo de evaluación de performance. / Cloud computing service providers offer a wide variety of software deployment services that are constantly updated, which implies various challenges for architects and developers when they need to decide which is the most appropriate option to meet performance requirements. Thus, generating the need to precisely validate the configuration parameters of the deployment services offered by these providers.
The study carried out proposes a method for evaluating the software deployment services that currently present the greatest advances, called serverless, considering FaaS and the new versions of CaaS as the technologies that represent their benefits.
The method has been developed based on good practices of performance testing and experimental research.
To validate the effectiveness of the method, experiments have been implemented on the AWS platform using a benchmark application developed exclusively for this study. During the experimentation, opportunities were observed to optimize costs in the design and selection of services of the components of a CaaS architecture.
These experiments have been carried out using the AWS CDK software development framework that allows the deployment and elimination of architectures in seconds, which allows optimizing time and costs during the performance evaluation cycle.
|
715 |
Estudio de prefactibilidad para la producción y comercialización de envases descartables biodegradables a base de fécula de maízReyes Pazos, Renzo Santiago 24 August 2022 (has links)
El presente documento muestra el estudio de prefactibilidad para la producción y comercialización de
envases descartables biodegradables a base de fécula de maíz. En el capítulo del estudio del mercado,
se explora a detalle la importancia del mercado objetivo, el comportamiento del consumidor y el
mercado proveedor. Además, se busca encontrar la demanda insatisfecha con el análisis de la demanda
y la oferta del producto. Con esta información se establece la demanda del proyecto y las estrategias de
comercialización.
Para el capítulo del estudio técnico, bajo un análisis de micro y macro localización se definió al distrito
de Lurín como localidad para la planta de producción. Consiguiente a ello, se estableció la capacidad
de la planta y el proceso productivo que será necesario para obtener el producto final. Finalmente, en
este capítulo se muestra el layout de la planta.
Posteriormente se presenta el estudio legal en el cual se detalla las normas y leyes las cuales que afectan
al proyecto. Así mismo, se presenta el estudio organizacional donde se describe a la empresa y el
organigrama.
Concluyendo con el escrito, se realizó el estudio económico. En este se presenta la inversión inicial
requerida total, para poder adquirir los insumos, máquinas o personal necesario para poder iniciar con
las operaciones. Además, se evaluaron distintos métodos de financiamiento para la inversión de activos
y de capital de trabajo y se armaron los presupuestos proyectados durante los próximos 5 años. Luego,
se armó el flujo de caja económico y financiero y se evaluó la viabilidad del proyecto, las cuales
obtuvieron como resultado S/.704,469 para VAN-E y S/.612,971 para VAN-F.
Finalmente, se presentó un estudio de sensibilidad donde se evalúan los indicadores de demanda, precio
y costo de materia prima en distintos escenarios tanto pesimista como optimistas en los cuales se podrá
concluir con resultados positivos que permiten volver viable el proyecto.
|
716 |
Evaluación de las propiedades de los elementos químicos en la construcción de árboles consensus usando las metodologías de Adams y regla del mayorFlores Turpo, Alberto Einstein 15 December 2021 (has links)
El presente trabajo de investigación desarrolla una metodología para analizar cómo varían los árboles consensus respecto al número de propiedades que se usan para su construcción. Para tal motivo, en primer lugar y como marco teórico, se muestran brevemente las metodologías usadas en el análisis jerárquico de clusters para obtener dendrogramas y árboles consensus (Adams y regla del mayor). Asimismo, también se muestran algunos conceptos puntuales que nos ayudan a estudiar la similitud y disimilitud de una base de datos de prueba (subconjunto de elementos químicos del sistema periodico). En segundo lugar, se muestra la metodología para analizar la variación de los árboles consensus respecto al número de propiedades de la base de datos de prueba. Esta consiste en proponer algunos algoritmos que ayuden a obtener y analizar los arboles consensus cuantificando la similitud y disimilitud, para luego aplicar estos conceptos sobre los subconjuntos de elementos comparables del espacio de base de datos. Luego, se discuten estos resultados considerando un conjunto de 32 elementos químicos descritos por 8 propiedades haciendo énfasis en el costo computacional y en el estudio del número de propiedades para obtener los árboles consensus. Finalmente se analizan los resultados obtenidos y se evalúa una propuesta alternativa basada en redes neuronales que permite reducir el costo computacional. De esta manera se da una posible respuesta más completa a una de las preguntas abiertas hasta ahora sobre el sistema periodico.
|
717 |
Dirección de la Estrategia de Data en el grupo CREDICORPAlmeyda Alcántara, José Marcelo 18 May 2021 (has links)
Luego de egresar de la carrera de Ingeniería Informática de la Pontificia
Universidad Católica en 1998 ingrese a trabajar en el área de sistemas del
Banco de Crédito del Perú en diferentes roles Programador, Analista y finalmente
Arquitecto de Sistemas, luego de ello pase por otras de negocio del mencionado
Banco para finalmente estar a cargo de la creación del Área de Data dentro del
grupo Credicorp.
En Enero del 2015 el Banco de Crédito del Perú empezó a delinear la
creación del Área de Data y Analytics debido a la necesidad de contar con la
información necesaria para poder cumplir con su principal objetivo “Transformar
sueños en realidad”, antes de la creación de esta área, los datos no eran
gobernados por una única entidad y estaba dispersa en las diferentes áreas de
negocio y tecnología lo que llevaba a tener diversos problemas de disponibilidad,
integridad y veracidad de la información, además del alto costo que conllevaba
este modelo de trabajo.
A mediados del 2015 se me encargó crear y liderar el Área de Data con el
objetivo principal de poner en valor los activos de información del BCP, al poco
tiempo se incrementó el alcance de la función a todo el grupo Credicorp (BCP,
Prima, Pacifico, Credicorp Capital y Mi Banco).
Para la realización de este encargo se dividió en 5 principales iniciativas,
desarrolladas principalmente por el personal del BCP:
Gestión del recurso humano, el cual incluye organización, funciones, perfiles,
capacitación y desarrollo de carrera dentro de un entorno de agilidad, esto
conlleva a incluir especializaciones en lugar de estructura jerarquica asi como
verdaderas evaluaciones 360.
Gobierno y Calidad de Datos, definición e implementación del gobierno de
datos que permita tener una sola verdad en relación a que significa cada dato y
donde es posible encontrarlo complementándolo con los estándares de calidad
de acuerdo a la criticidad del mismo, el entregable fue el diccionario de datos
(20mil) de la organización.
Arquitectura de Datos basado en tecnología de Big Data, definición e
implementación de los diversos componentes de almacenamiento (data lake),
explotación y visualización , carga de datos, gobierno y calidad, seguridad y
streaming, finalmente se opto por el uso de tecnología de Cloudera on-premise
para el almacenamiento, Datameer y Qlik para explotacion y visualizacion, IBM
Infosphere para la carga de datos de los aplicativos core y bases externas, Spark
para la carga entre capas del datalake, kafka para el streaming de datos y
Cloudera DataScience Workbench como herramienta de modelamiento
estadísticos donde se podía programar en Python, R y Spark..
Cultura de Datos, definición e implementación de la metodología de cultura de
datos como un segundo idioma que permita definir el nivel de madurez de cada
área en termino de uso de datos en la toma de decisiones.
Data Enrichment, si bien la información que posee el grupo es relevante, es
necesario enriquecer la información no solo con nuevos elementos de datos sino
también actualizando los existentes de tal manera de tener información fiable.
Por otro lado se hizo necesario la creación de un laboratorio de datos
donde no solo se probaba tecnología sino también permitía implementar
soluciones que capturen mas datos para la tomar de decisiones.
Laboratorio de Big Data, definición e implementación del laboratorio de Big
Data de tal manera que se pueda poner en valor de forma inmediata el uso de
los datos sin esperar a que se culmine todo el proceso de carga de información,
para esta labor se utilizo el framework Scrum para el desarrollo de productos de
data y la Arquitecture de Big Data con herramientas de Microsoft Azure.
Dentro de las principales conclusiones que conllevaron al éxito en la
implementación de la estrategia de data se encuentran :
• El desarrollo de una estrategia de datos tiene diferentes aristas
tecnológicas, culturales y de procesos que deben avanzar en paralelo
para el mejor aprovechamiento del valor de la data.
• Es necesario un alineamiento de la estrategia de datos a la estrategia
corporativa, de esta manera se asegura el soporte de la gerencia central.
• La estrategia de datos debe ser conocida por toda la organización y a todo
nivel, debido a que es un proceso federado.
• Se deben desarrollar las capacidades técnicas del personal ya que el
universo de personas que conocen tecnología de big data en el país es
muy reducido.
|
718 |
Análisis de flujo peatonal en una intersección de avenidas utilizando procesamiento de imágenesReátegui Arones, Rolando Jesús 15 December 2021 (has links)
En diversos cruces de avenidas de la ciudad de Lima, se observan patrones anormales de
comportamiento peatonal, inadecuada semaforización y diseño vial no ideal para los peatones.
Estos últimos son los más vulnerables en los accidentes de tránsito y son quienes deberían
requerir mayor prioridad en el diseño de intersecciones. Para mejorar los diseños de las
intersecciones se requiere datos de flujo peatonal, que se pueden medir de diversas maneras.
Actualmente, el método de conteo de peatones utilizado es manual, el cual es realizado por
equipos de personas desde una esquina o mediante una grabación y que tiene una baja eficiencia
por error humano, además del costo por hora que ello implica. Por esta razón, la presente tesis
expone nuevos métodos de conteo más eficaces ejecutados en una intersección conocida y sus
resultados comparados con cifras esperadas.
El primer capítulo de la tesis presenta el marco problemático que justifica la importancia de la
presente tesis, los métodos generales usuales para detección de peatones y expone los objetivos
de la tesis.
El segundo capítulo describe los fundamentos teóricos sobre procesamiento de imágenes
utilizados para el desarrollo de los posteriores capítulos y los métodos específicos para cada
etapa del algoritmo.
El tercer capítulo enumera los pasos de la propuesta para el conteo de peatones, las funciones
implementadas y librerías utilizadas para cada una de las etapas de esta aplicación.
Por último, el cuarto capítulo revisa los resultados de la propuesta por cada etapa para diferentes
videos y hace un análisis de estos para su recomendación de uso en futuras aplicaciones.
|
719 |
Intrumentación estructural de edificios en países sísmicosFelices Gilvonio, Christian Andree 18 March 2021 (has links)
Este trabajo explora la normativa internacional referida a la instrumentación sísmica de edificios y la aplicación de un sistema de procesamiento de señales sísmicas registradas en edificios instrumentados bajo la normativa de instrumentación sísmica peruana. Las normativas revisadas pertenecen a Colombia, Venezuela, Chile, Costa Rica, Turquía, Estados Unidos y Filipinas. Esta recopilación se presenta en cuadros informativos con las principales disposiciones de cada capítulo de instrumentación. Asimismo, se incluye una comparación entre las estipulaciones de una de las normativas estudiadas versus las disposiciones sugeridas por las principales guías internacionales de monitoreo sísmico de edificaciones. Finalmente, se sugieren aspectos normativos a incluir en el capítulo de instrumentación sísmica peruana propuestos en base a la información estudiada. Por otra parte, se revisan los conceptos básicos de señales sísmicas y su procesamiento. Luego, se presentan los conceptos y especificaciones técnicas de estaciones sísmicas y acelerómetros. Después, se realiza el estudio de los métodos numéricos usados para el cálculo de la respuesta dinámica de modelos de un grado de libertad y la construcción de espectros de respuesta de desplazamiento, velocidad y aceleración. Finalmente, se desarrolla un programa en LabVIEW para la construcción de espectros de respuesta y la creación de reportes automáticos con la información obtenida del evento sísmico registrado en una edificación instrumentada.
|
720 |
Optimización de alimentación a planta: facilitación del incremento del Throughput en procesos plantaAngulo Cajavilca, José Miguel 14 December 2020 (has links)
El presente proyecto, liderado por el autor de tesis en todas sus aristas, desde la
planificación, ejecución, cierre y seguimiento del mismo, tiene como objetivo facilitar el
incremento del tratamiento en la Planta de Procesos mediante el incremento del porcentaje de
finos y generación de microfracturas en mineral tipo hipógeno mediante pruebas y análisis de
resultados de cambios en las variables de perforación y voladura, de modo que se evalúe la
influencia del proyecto en la rentabilidad de la operación global. La propuesta de valor considera
aumentar el potencial de procesamiento de minerales futuros de 75,000 t/d a un rendimiento
nominal de 90,000 t/d.
Esto surge principalmente debido a la presencia creciente de minerales tipo hipógeno
según revisión del plan de la vida de la mina (LOM, por sus siglas en ingles), cuyos índices de
dureza tienden a incrementar a medida que se siga profundizando, lo que tiene un significativo
impacto negativo en el rendimiento de las líneas de producción de Procesos Planta. Así mismo,
este proyecto surge de la necesidad de lograr niveles de producción similares de cobre fino a lo
largo de la vida de la mina teniendo en cuenta la disminución de leyes de cobre (factor
geológico) en los procesos de concentración, lo que implica mover y procesar un mayor tonelaje
de mineral. Por último, acotar que a lo largo del documento se hace uso del anglicismo
“throughput”, el cual es un indicador de Procesos Planta que hace referencia al rendimiento o
ritmo productivo, expresado en t/h, de las líneas de producción N°1 y N°2 correspondientes a la
molienda primaria.
El éxito del proyecto resulta en un aumento del 7% sobre el rendimiento de las líneas de
producción de Procesos Planta, que significa tratar mineral a razón de 90 Ktpd. Esta
optimización se refleja en ventas anuales adicionales de concentrado de cobre estimadas
alrededor de los 30MMU$.
|
Page generated in 0.1033 seconds