Spelling suggestions: "subject:"procesamiento dde datos"" "subject:"procesamiento dee datos""
271 |
Dirección de la Estrategia de Data en el grupo CREDICORPAlmeyda Alcántara, José Marcelo 18 May 2021 (has links)
Luego de egresar de la carrera de Ingeniería Informática de la Pontificia
Universidad Católica en 1998 ingrese a trabajar en el área de sistemas del
Banco de Crédito del Perú en diferentes roles Programador, Analista y finalmente
Arquitecto de Sistemas, luego de ello pase por otras de negocio del mencionado
Banco para finalmente estar a cargo de la creación del Área de Data dentro del
grupo Credicorp.
En Enero del 2015 el Banco de Crédito del Perú empezó a delinear la
creación del Área de Data y Analytics debido a la necesidad de contar con la
información necesaria para poder cumplir con su principal objetivo “Transformar
sueños en realidad”, antes de la creación de esta área, los datos no eran
gobernados por una única entidad y estaba dispersa en las diferentes áreas de
negocio y tecnología lo que llevaba a tener diversos problemas de disponibilidad,
integridad y veracidad de la información, además del alto costo que conllevaba
este modelo de trabajo.
A mediados del 2015 se me encargó crear y liderar el Área de Data con el
objetivo principal de poner en valor los activos de información del BCP, al poco
tiempo se incrementó el alcance de la función a todo el grupo Credicorp (BCP,
Prima, Pacifico, Credicorp Capital y Mi Banco).
Para la realización de este encargo se dividió en 5 principales iniciativas,
desarrolladas principalmente por el personal del BCP:
Gestión del recurso humano, el cual incluye organización, funciones, perfiles,
capacitación y desarrollo de carrera dentro de un entorno de agilidad, esto
conlleva a incluir especializaciones en lugar de estructura jerarquica asi como
verdaderas evaluaciones 360.
Gobierno y Calidad de Datos, definición e implementación del gobierno de
datos que permita tener una sola verdad en relación a que significa cada dato y
donde es posible encontrarlo complementándolo con los estándares de calidad
de acuerdo a la criticidad del mismo, el entregable fue el diccionario de datos
(20mil) de la organización.
Arquitectura de Datos basado en tecnología de Big Data, definición e
implementación de los diversos componentes de almacenamiento (data lake),
explotación y visualización , carga de datos, gobierno y calidad, seguridad y
streaming, finalmente se opto por el uso de tecnología de Cloudera on-premise
para el almacenamiento, Datameer y Qlik para explotacion y visualizacion, IBM
Infosphere para la carga de datos de los aplicativos core y bases externas, Spark
para la carga entre capas del datalake, kafka para el streaming de datos y
Cloudera DataScience Workbench como herramienta de modelamiento
estadísticos donde se podía programar en Python, R y Spark..
Cultura de Datos, definición e implementación de la metodología de cultura de
datos como un segundo idioma que permita definir el nivel de madurez de cada
área en termino de uso de datos en la toma de decisiones.
Data Enrichment, si bien la información que posee el grupo es relevante, es
necesario enriquecer la información no solo con nuevos elementos de datos sino
también actualizando los existentes de tal manera de tener información fiable.
Por otro lado se hizo necesario la creación de un laboratorio de datos
donde no solo se probaba tecnología sino también permitía implementar
soluciones que capturen mas datos para la tomar de decisiones.
Laboratorio de Big Data, definición e implementación del laboratorio de Big
Data de tal manera que se pueda poner en valor de forma inmediata el uso de
los datos sin esperar a que se culmine todo el proceso de carga de información,
para esta labor se utilizo el framework Scrum para el desarrollo de productos de
data y la Arquitecture de Big Data con herramientas de Microsoft Azure.
Dentro de las principales conclusiones que conllevaron al éxito en la
implementación de la estrategia de data se encuentran :
• El desarrollo de una estrategia de datos tiene diferentes aristas
tecnológicas, culturales y de procesos que deben avanzar en paralelo
para el mejor aprovechamiento del valor de la data.
• Es necesario un alineamiento de la estrategia de datos a la estrategia
corporativa, de esta manera se asegura el soporte de la gerencia central.
• La estrategia de datos debe ser conocida por toda la organización y a todo
nivel, debido a que es un proceso federado.
• Se deben desarrollar las capacidades técnicas del personal ya que el
universo de personas que conocen tecnología de big data en el país es
muy reducido.
|
272 |
Estudio e implementación de una solución de aceleración WAN de una plataforma de productividad en la nube para un entorno empresarial a través de internetPérez Gutierrez, Renato David 24 September 2020 (has links)
La presente tesis consiste en brindar una propuesta técnica para el acceso optimizado a una
plataforma de productividad y colaboración en la nube a través de Internet, a través del
estudio y comparativa de las diversas alternativas existentes en el mercado y su posterior
sometimiento a pruebas. En el capítulo 1 se presenta el mercado actual de las principales
plataformas de productividad y colaboración en la nube, así como su principal problemática
en cuanto al acceso por parte de los usuarios finales a través de Internet. Asimismo, se
detallan los objetivos a cubrir en la presente tesis. En el capítulo 2 se repasa el marco teórico
con los principales conceptos y definiciones necesarios para el mejor entendimiento de los
temas planteados en la presente tesis. En el capítulo 3 se menciona el estado del arte y se
muestran las principales alternativas de solución existentes en el ámbito del sector
empresarial. En el capítulo 4 se estudia detalladamente las alternativas de solución
mencionadas en el anterior capítulo y se las evalúa en función a criterios determinados para
así poder implementarla. Adicionalmente, se estudia al detalle el funcionamiento de esta
solución. En el capítulo 5 se implementa la solución propuesta y se ejecutan las pruebas de
desempeño para su posterior discusión de resultados y comparación con los valores
esperados. Asimismo, se evalúa el impacto económico analizado desde el punto de vista de
un integrador local de servicios de telecomunicaciones y se analiza la rentabilidad del
proyecto.
|
273 |
Data science como base en la toma de decisiones para una gestión eficiente de las perforadoras de producción en una mina superficial a gran escalaTarrillo Silva, Jheran Brenner, Bautista Marin, Edinson Samir 25 April 2022 (has links)
El mundo es hoy en día una revolución de datos; es por ello, que todas las industrias se ven enfrentadas a un gran desafío, el cual es la transformación digital a fin de obtener el mayor beneficio de estos grandes volúmenes de datos que esta pueda generar. La digitalización se refiere a la manera en que los datos se almacenan, gestionan y utilizan.
Con la cantidad de datos generados cada minuto, las industrias deben capitalizar este nuevo paradigma para diseñar cada vez más innovadoras capacidades analíticas. Para las empresas la data se ha convertido en un activo fundamental, debido a que la calidad y cantidad de la misma influye en su valoración.
La Ciencia de Datos o Data Science posibilita crear conocimiento de negocio, optimizando de esta manera la toma de decisiones y extrayendo información que se encuentra oculta entre los datos generados por una empresa.
En minería, se puede observar un considerable rezago en la adopción de la digitalización comparado con otras industrias como la construcción, el retail o la industria financiera; sin embargo, a nivel global se evidencia una preocupación por reducir esta brecha. El beneficio para la industria minera se puede dar en términos de una mejor gestión de las operaciones, el mantenimiento de equipo pesado, la seguridad y la productividad.
La productividad se puede ver incrementada gracias a una toma eficiente de decisiones operativas en el momento adecuado, de esta manera los inventarios de productos por vender de la empresa (stock piles) se pueden ver incrementados, así como los costos unitarios del proceso productivo se logran disminuir, por ende, la rentabilidad y valor de mercado de la minera se maximiza.
Identificar qué etapas se deben seguir para abordar un proyecto de Data Science es esencial para estructurar y analizar los recursos necesarios y la fase en la cual tendrán una mayor implicancia; es por ello, que la presente tesis brindará una metodología adecuada para la implementación de este tipo de proyecto en una operación de Minería Superficial, con el objetivo de agregar valor a la empresa mediante el incremento de activos corrientes (stock piles) a través de la optimización del proceso de perforación, primer proceso en la cadena de valor de una empresa minera.
|
274 |
Implementación de una herramienta de monitoreo y gestión de carga de trabajo para hipervisores de tipo ILinares Bracamonte, Andrés Alberto 15 February 2017 (has links)
En los últimos años se ha incrementado la presencia de los centros de datos, principalmente debido a las tendencias de computación en la nube de hoy en día. Se cuenta cada vez más con centros de datos más grandes debido a la alta demanda que existe. En conjunto, los equipos que forman parte de los centros de datos deben de ser administrados de la mejor manera a fin de aprovechar de forma óptima factores críticos como memoria RAM, tráfico de red y uso de CPU, para mejorar la calidad del servicio otorgado a los usuarios.
Paralelamente, el escenario ha cambiado drásticamente en cuanto a la contaminación ambiental. Los daños por el calentamiento global debido al efecto invernadero están afectando gravemente el ecosistema mundial, incidiendo de forma negativa en el derretimiento de los polos y con ello poniendo en peligro a múltiples especies. Dicha contaminación es causada en parte por la combustión que ocasiona la generación de energía eléctrica con fuentes no renovables. Con esto, los centros de datos requieren de un enfoque de manejo de energía que permita utilizarla de forma eficiente y amigable para el planeta.
El presente proyecto de fin de carrera busca de proveer de un conjunto de herramientas que de solución a los problemas que puedan involucrar error humano en la administración de carga de trabajo en los hipervisores de tipo 1 –utilizados precisamente en los centros de datos–, obteniendo un mejor manejo de los recursos de hardware y haciendo énfasis en el ahorro de energía.
|
275 |
Implementación de un sistema de información para la gestión y procesamiento de datos geotécnicosQuilca Vilcapoma, José Gustavo 01 June 2021 (has links)
La gestión de datos es importante en diversas áreas de estudios y resalta en el área
de la Ingeniería Geotécnica, donde al realizarse ensayos para el estudio de suelos, se llega
a obtener una gran cantidad de datos. Los cuales cada vez son mayores, debido al
desarrollo de nuevas técnicas usando instrumentación digital y al avanzado desarrollo de
instrumentos electrónicos de medición. Este documento describe un proyecto que
propone gestionar y procesar datos de ensayos para el estudio de suelos mediante la
implementación de un sistema de información. La cual, para una organización prestadora
de servicios de estudios de suelos, permite mejorar sus procesos en los siguientes
aspectos: (a) brindado un almacenamiento de datos centralizado, lo que permitirá
compartir fácilmente la información, (b) mantener un histórico de datos, para auditorías
realizadas en un futuro al proyecto, (c) acceso ágil a la información , al tener la
información almacenada con distinción de lugar y tiempo, con la posibilidad de acceso
desde diversas ubicaciones, (d) uso de respaldo de datos automatizado, (e) integridad,
para evitar la corrupción de información y correspondencia para la correcta
referenciación a los proyectos reales, (f) generar nueva información a partir de otros
datos, mediante ecuaciones definidas o correlaciones entre ensayos.
|
276 |
Clasificación de proteínas repetidas basado en su información estructural utilizando aprendizaje de máquinaTenorio Ku, Luiggi Gianpiere 12 February 2021 (has links)
En los últimos años, las proteínas repetidas, las cuales son caracterizadas por
poseer regiones que se repiten a lo largo de su estructura, han demostrado
poseer un rol fundamental dentro de la naturaleza. Esta importancia se debe a
sus propiedades funcionales que toman relevancia dentro de varios procesos
biológicos como la salud, el desarrollo neuronal y la ingeniería de proteínas.
Debido a ello, una tarea, dentro del área de estudio de estas proteínas, es la
identificación y clasificación de estas, lo que permite identificar las propiedades
funcionales que posee.
Asimismo, en la actualidad, existen métodos complejos para la clasificación e
identificación de proteínas repetidas a partir de su estructura, los cuales implican
un uso intenso y costoso de recursos computacionales. Además, por la aparición
de nuevos procesos experimentales, las proteínas recientemente descubiertas por
año se incrementan de forma exponencial. En consecuencia, ello obliga que estos
procesos realicen una gran cantidad ejecuciones y generen una gran cantidad de
archivos que se traducen en grandes costos de procesamiento y almacenamiento.
En este proyecto se busca implementar un modelo de aprendizaje de máquina
con la capacidad de detectar la presencia de regiones repetidas dentro de una
cadena proteica con el fin de que esta información sea útil para procesos más
complejos como ReUPred para que eviten procesar grandes cantidades de datos
irrelevantes. Dicho objetivo, implica la construcción de un proceso de
transformación de datos necesaria para extraer las características estructurales
de la cadena de proteína y formar la representación de datos a utilizar como
entrada para el desarrollo, entrenamiento y validación del modelo.
Adicionalmente, se plantea desplegar dicho modelo mediante un servicio web
para que pueda ser utilizado por otros investigadores del área.
|
277 |
Evolución del arrendamiento leaseback en el Perú y modo de otorgamiento a través del banco BBVA PerúPachas Munayco, Erick Luiyi 02 February 2022 (has links)
A nivel mundial el contrato de arrendamiento financiero es una importante forma de
financiamiento para empresas de todo sector, ya que pueden realizarse sobre bienes muebles o
inmuebles dependiendo de las distintas necesidades de los demandantes, y estructurado de
acuerdo con las características que estos prefieran. En el presente trabajo se define el
arrendamiento financiero leaseback con el objetivo principal de presentar los beneficios tanto
para las empresas demandantes y ofertantes de este tipo de financiamiento.
Para poder contextualizar la información de este trabajo, en primer lugar, se realizará una
presentación de datos del arrendamiento financiero a nivel global y nacional. Seguido de ello
se procederá a mostrar información relevante del sistema bancario peruano y del Banco BBVA
Perú, de forma tal que puedan ser contrastados. Luego se desarrollará de manera más detallada
la definición del arrendamiento leaseback y sus características, adicionalmente con el apoyo de
un ejemplo práctico. Consecuentemente se detallará un caso real que permita observar el flujo
del proceso de arrendamiento leaseback desde el punto de vista del Banco BBVA Perú.
Finalmente se plantearán recomendaciones y conclusiones con base en la información
presentada para este tipo de arrendamiento financiero leaseback.
|
278 |
Diseño de una arquitectura hardware del algoritmo Blockmerging según el estándar HEVC de transmisión de video 4K en tiempo realCaceres Palacios, Salvador 20 July 2023 (has links)
Las exigencias actuales en cuanto a calidad del contenido de video, a la par con el incremento del ancho de banda destinado a la transmisión de video, impulsan la necesidad de desarrollar estándares de codificación que sean más eficientes en cuanto a la calidad de reconstrucción de las imágenes decodificadas y a la cantidad de bits usados para la codificación. En este contexto, surge el nuevo estándar HEVC (High Efficiency VideoCoding) denominadoH.265[1].
Si bien el estándar HEVC ha superado enormemente a sus predecesores con la inclusión de nuevas herramientas tales como el particionamiento en bloques de dimensión variable de los cuadros de la secuencia de video, así como nuevas técnicas de predicción de vectores de movimiento como el AMVP (Advanced Motion Vector Prediction), la etapa de codificación no es del todo eficiente.
Con el objetivo de mejorar la eficiencia de codificación del HEVC se incorpora la técnica de Block Merging. Esta técnica busca provechar las redundancias temporales y espaciales entre bloques de predicción vecinos, de manera que se puedan codificar en conjunto aquellos bloques que cumplan con ciertos criterios de selección [2]. Por lo tanto, el algoritmo de Block Merging tiene como finalidad encontrar, a partir de una lista de posibles candidatos, el bloque de predicción (bloque de píxeles de 8x8,16x16,32x32 o 64x64) cuyo vector de movimiento tenga asociado el mejor costo RD (Rate-Distortion). Al codificar en conjunto bloques de predicción, se evita enviar parámetros (como los vectores de movimiento) repetidas veces, logrando así una importante reducción en la cantidad de bytes a emplear durante la codificación de cuadros de video , considerando que resoluciones de 4k u 8k son cada vez más comunes en los contenidos audiovisuales[2].
El presente trabajo se enfoca en implementar la etapa de elección del mejor candidato usando el algoritmo de SATD (Sum of Absolute Transformed Differences) como parte del algoritmo de Block Merging. La arquitectura fue descrita usando Verilog-HDL y sintetizada en dispositivos FPGA (Field Programmable Gate Array) de la familia Kintex 7 de Xilinx. Por otra parte, se verificó el funcionamiento de la arquitectura mediante el uso conjunto del simulador RTL (Register Transfer Level) de la herramienta Vivado Design Suite y un software de referencia en MATLAB (Matrix Laboratory), logrando una frecuencia de operación de 263.158 MHz. Tomando en cuenta una lista de tres candidatos y un particionamiento variable con un Parámetro de Cuantizaciónn QP (Quantization Parameter) en el rango de 22 hasta 36 considerado en trabajos pasados, la tasa de procesamiento de secuencias de video 4k (3840x2160) de la presente arquitectura se encuentra en el rango de 77.30 fps hasta 145.93 fps, lo cual se ajusta a los requerimientos por parte del estándar HEVC para transmitir video en tiempo real.
|
279 |
Aprendizaje estadístico supervisado con máquina de soporte vectorialFalcón Cisneros, Sergio Daniel 26 February 2024 (has links)
Actualmente las organizaciones recolectan datos en grandes volúmenes y de fuentes muy
variadas. Para dar sentido y convertir los datos en información útil es necesario utilizar
técnicas que permitan encontrar y entender las relaciones ocultas en los datos. Generalmente,
la relación que nos interesa estudiar es cómo predecir un evento utilizando un conjunto de
variables. Sin embargo, muchas veces la relación entre los datos es muy compleja y no puede
ser analizada adecuadamente usando las técnicas más conocidas, dado que éstas suelen tener
supuestos que no necesariamente se cumplen. Por ello, es importante conocer técnicas de
análisis más complejas y flexibles.
Esta tesis busca ser un instrumento de ayuda en el aprendizaje y uso de nuevas técnicas
para estudiar los datos, lo cual es relevante sobre todo en el medio local en el que este tema
es poco conocido. Con este objetivo, presenta una revisión introductoria de la teoría del
aprendizaje estadístico, la cual provee del marco teórico para que distintos métodos utilicen
los datos para aprender, y usando este conocimiento puedan hacer predicciones sobre datos
nuevos o diferentes. Luego se centra en un estudio exhaustivo del método de aprendizaje de
Máquinas de Soporte Vectorial (SVM por sus siglas en inglés), introduciendo y aplicando las
funciones Kernel. Este método se puede entender como una representación de los datos como
puntos en el espacio, asignados de tal forma que exista una brecha grande que separe a los
elementos diferentes.
Finalmente se pone en práctica la teoría estudiada aplicando el método SVM a datos de
clientes de una entidad financiera. Esta entidad financiera usa predominantemente técnicas
de aprendizaje estadístico simples y con varios supuestos; particularmente usa una de estas
técnicas en un modelo que predice la propensión a la compra y persistencia del producto
Seguro de Protección de Tarjetas. Por ello, la presente tesis se centra en aplicar el método
SVM para construir una alternativa a este modelo.
|
280 |
Implementación de chatbots, migraciones y lago de datos en AWSÁvila Flores, Patricio José 13 February 2024 (has links)
Desde el momento del egreso en julio del 2020, se ha ejercido labores en
dos consultoras de servicios informáticos. Primero, en una consultora
canadiense llamada Rules Cube que se enfoca en el desarrollo de aplicaciones
en Pega. Segundo, en una consultora peruana llamada Tuxpas, que se
especializa en proyectos de implementación de chatbots en la plataforma
Workplace, y construcción de lagos de datos y migraciones en AWS.
En Rules Cube con el rol de practicante profesional de TI se apoyó en el
desarrollo de una aplicación móvil de reconocimiento de tickets y boletas de
compra por un período de cuatro meses. El objetivo de esta aplicación era
poder obtener con fotos rápidamente todos los gastos en los que se incurre día
a día. Como parte de las herramientas se utilizó Pega, Sharepoint, y diversos
aplicativos de la misma empresa.
En Tuxpas es donde se ha ejercido la gran mayoría del tiempo desde el
egreso. En el primer año en la compañía con el rol de desarrollador de software
se formó parte de un equipo que implementó y desplegó chatbots en la red
social para empresas Workplace para reconocer a colaboradores y conocer el
estado del clima laboral, en un cliente de venta de productos de beleza,
información que resultaba vital para la gerencia para conocer la
retroalimentación de trabajadores de primera línea.
En el segundo y tercer año, ahora con el rol de arquitecto de software y con
la responsabilidad de liderar proyectos, es que se han llevado a cabo diseños y
desarrollos de diversos lagos de datos y migraciones. Una de las migraciones
más resaltantes fue realizada para un cliente del sector salud y que implicó el
movimiento de toda su infraestructura y aplicaciones hacia la nube de AWS.
Esto incrementó enormemente la disponibilidad de las aplicaciones y gracias a
ello se redujo el tiempo de baja. Asimismo, se pudieron refactorizar las
aplicaciones para que puedan ser alojadas en servicios auto-escalables.
Más adelante, se llevó a cabo un lago de datos que centralizaba toda la
información generada en las diversas fuentes del cliente, perteneciente al
sector educativo. Esto permitió poder tener una misma estructura para todos
los datos, que en el origen se encontraba con distintas nomenclaturas que
hacían más difícil una visión completa de los datos generados. Además,
permitió agilizar la creación y ejecución de procesos analíticos para toda el
área de Inteligencia de Negocios.
|
Page generated in 0.2228 seconds