• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 429
  • 12
  • 3
  • Tagged with
  • 444
  • 444
  • 175
  • 136
  • 113
  • 113
  • 113
  • 113
  • 113
  • 110
  • 105
  • 103
  • 94
  • 64
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Dirección de la Estrategia de Data en el grupo CREDICORP

Almeyda Alcántara, José Marcelo 18 May 2021 (has links)
Luego de egresar de la carrera de Ingeniería Informática de la Pontificia Universidad Católica en 1998 ingrese a trabajar en el área de sistemas del Banco de Crédito del Perú en diferentes roles Programador, Analista y finalmente Arquitecto de Sistemas, luego de ello pase por otras de negocio del mencionado Banco para finalmente estar a cargo de la creación del Área de Data dentro del grupo Credicorp. En Enero del 2015 el Banco de Crédito del Perú empezó a delinear la creación del Área de Data y Analytics debido a la necesidad de contar con la información necesaria para poder cumplir con su principal objetivo “Transformar sueños en realidad”, antes de la creación de esta área, los datos no eran gobernados por una única entidad y estaba dispersa en las diferentes áreas de negocio y tecnología lo que llevaba a tener diversos problemas de disponibilidad, integridad y veracidad de la información, además del alto costo que conllevaba este modelo de trabajo. A mediados del 2015 se me encargó crear y liderar el Área de Data con el objetivo principal de poner en valor los activos de información del BCP, al poco tiempo se incrementó el alcance de la función a todo el grupo Credicorp (BCP, Prima, Pacifico, Credicorp Capital y Mi Banco). Para la realización de este encargo se dividió en 5 principales iniciativas, desarrolladas principalmente por el personal del BCP: Gestión del recurso humano, el cual incluye organización, funciones, perfiles, capacitación y desarrollo de carrera dentro de un entorno de agilidad, esto conlleva a incluir especializaciones en lugar de estructura jerarquica asi como verdaderas evaluaciones 360. Gobierno y Calidad de Datos, definición e implementación del gobierno de datos que permita tener una sola verdad en relación a que significa cada dato y donde es posible encontrarlo complementándolo con los estándares de calidad de acuerdo a la criticidad del mismo, el entregable fue el diccionario de datos (20mil) de la organización. Arquitectura de Datos basado en tecnología de Big Data, definición e implementación de los diversos componentes de almacenamiento (data lake), explotación y visualización , carga de datos, gobierno y calidad, seguridad y streaming, finalmente se opto por el uso de tecnología de Cloudera on-premise para el almacenamiento, Datameer y Qlik para explotacion y visualizacion, IBM Infosphere para la carga de datos de los aplicativos core y bases externas, Spark para la carga entre capas del datalake, kafka para el streaming de datos y Cloudera DataScience Workbench como herramienta de modelamiento estadísticos donde se podía programar en Python, R y Spark.. Cultura de Datos, definición e implementación de la metodología de cultura de datos como un segundo idioma que permita definir el nivel de madurez de cada área en termino de uso de datos en la toma de decisiones. Data Enrichment, si bien la información que posee el grupo es relevante, es necesario enriquecer la información no solo con nuevos elementos de datos sino también actualizando los existentes de tal manera de tener información fiable. Por otro lado se hizo necesario la creación de un laboratorio de datos donde no solo se probaba tecnología sino también permitía implementar soluciones que capturen mas datos para la tomar de decisiones. Laboratorio de Big Data, definición e implementación del laboratorio de Big Data de tal manera que se pueda poner en valor de forma inmediata el uso de los datos sin esperar a que se culmine todo el proceso de carga de información, para esta labor se utilizo el framework Scrum para el desarrollo de productos de data y la Arquitecture de Big Data con herramientas de Microsoft Azure. Dentro de las principales conclusiones que conllevaron al éxito en la implementación de la estrategia de data se encuentran : • El desarrollo de una estrategia de datos tiene diferentes aristas tecnológicas, culturales y de procesos que deben avanzar en paralelo para el mejor aprovechamiento del valor de la data. • Es necesario un alineamiento de la estrategia de datos a la estrategia corporativa, de esta manera se asegura el soporte de la gerencia central. • La estrategia de datos debe ser conocida por toda la organización y a todo nivel, debido a que es un proceso federado. • Se deben desarrollar las capacidades técnicas del personal ya que el universo de personas que conocen tecnología de big data en el país es muy reducido.
272

Estudio e implementación de una solución de aceleración WAN de una plataforma de productividad en la nube para un entorno empresarial a través de internet

Pérez Gutierrez, Renato David 24 September 2020 (has links)
La presente tesis consiste en brindar una propuesta técnica para el acceso optimizado a una plataforma de productividad y colaboración en la nube a través de Internet, a través del estudio y comparativa de las diversas alternativas existentes en el mercado y su posterior sometimiento a pruebas. En el capítulo 1 se presenta el mercado actual de las principales plataformas de productividad y colaboración en la nube, así como su principal problemática en cuanto al acceso por parte de los usuarios finales a través de Internet. Asimismo, se detallan los objetivos a cubrir en la presente tesis. En el capítulo 2 se repasa el marco teórico con los principales conceptos y definiciones necesarios para el mejor entendimiento de los temas planteados en la presente tesis. En el capítulo 3 se menciona el estado del arte y se muestran las principales alternativas de solución existentes en el ámbito del sector empresarial. En el capítulo 4 se estudia detalladamente las alternativas de solución mencionadas en el anterior capítulo y se las evalúa en función a criterios determinados para así poder implementarla. Adicionalmente, se estudia al detalle el funcionamiento de esta solución. En el capítulo 5 se implementa la solución propuesta y se ejecutan las pruebas de desempeño para su posterior discusión de resultados y comparación con los valores esperados. Asimismo, se evalúa el impacto económico analizado desde el punto de vista de un integrador local de servicios de telecomunicaciones y se analiza la rentabilidad del proyecto.
273

Data science como base en la toma de decisiones para una gestión eficiente de las perforadoras de producción en una mina superficial a gran escala

Tarrillo Silva, Jheran Brenner, Bautista Marin, Edinson Samir 25 April 2022 (has links)
El mundo es hoy en día una revolución de datos; es por ello, que todas las industrias se ven enfrentadas a un gran desafío, el cual es la transformación digital a fin de obtener el mayor beneficio de estos grandes volúmenes de datos que esta pueda generar. La digitalización se refiere a la manera en que los datos se almacenan, gestionan y utilizan. Con la cantidad de datos generados cada minuto, las industrias deben capitalizar este nuevo paradigma para diseñar cada vez más innovadoras capacidades analíticas. Para las empresas la data se ha convertido en un activo fundamental, debido a que la calidad y cantidad de la misma influye en su valoración. La Ciencia de Datos o Data Science posibilita crear conocimiento de negocio, optimizando de esta manera la toma de decisiones y extrayendo información que se encuentra oculta entre los datos generados por una empresa. En minería, se puede observar un considerable rezago en la adopción de la digitalización comparado con otras industrias como la construcción, el retail o la industria financiera; sin embargo, a nivel global se evidencia una preocupación por reducir esta brecha. El beneficio para la industria minera se puede dar en términos de una mejor gestión de las operaciones, el mantenimiento de equipo pesado, la seguridad y la productividad. La productividad se puede ver incrementada gracias a una toma eficiente de decisiones operativas en el momento adecuado, de esta manera los inventarios de productos por vender de la empresa (stock piles) se pueden ver incrementados, así como los costos unitarios del proceso productivo se logran disminuir, por ende, la rentabilidad y valor de mercado de la minera se maximiza. Identificar qué etapas se deben seguir para abordar un proyecto de Data Science es esencial para estructurar y analizar los recursos necesarios y la fase en la cual tendrán una mayor implicancia; es por ello, que la presente tesis brindará una metodología adecuada para la implementación de este tipo de proyecto en una operación de Minería Superficial, con el objetivo de agregar valor a la empresa mediante el incremento de activos corrientes (stock piles) a través de la optimización del proceso de perforación, primer proceso en la cadena de valor de una empresa minera.
274

Implementación de una herramienta de monitoreo y gestión de carga de trabajo para hipervisores de tipo I

Linares Bracamonte, Andrés Alberto 15 February 2017 (has links)
En los últimos años se ha incrementado la presencia de los centros de datos, principalmente debido a las tendencias de computación en la nube de hoy en día. Se cuenta cada vez más con centros de datos más grandes debido a la alta demanda que existe. En conjunto, los equipos que forman parte de los centros de datos deben de ser administrados de la mejor manera a fin de aprovechar de forma óptima factores críticos como memoria RAM, tráfico de red y uso de CPU, para mejorar la calidad del servicio otorgado a los usuarios. Paralelamente, el escenario ha cambiado drásticamente en cuanto a la contaminación ambiental. Los daños por el calentamiento global debido al efecto invernadero están afectando gravemente el ecosistema mundial, incidiendo de forma negativa en el derretimiento de los polos y con ello poniendo en peligro a múltiples especies. Dicha contaminación es causada en parte por la combustión que ocasiona la generación de energía eléctrica con fuentes no renovables. Con esto, los centros de datos requieren de un enfoque de manejo de energía que permita utilizarla de forma eficiente y amigable para el planeta. El presente proyecto de fin de carrera busca de proveer de un conjunto de herramientas que de solución a los problemas que puedan involucrar error humano en la administración de carga de trabajo en los hipervisores de tipo 1 –utilizados precisamente en los centros de datos–, obteniendo un mejor manejo de los recursos de hardware y haciendo énfasis en el ahorro de energía.
275

Implementación de un sistema de información para la gestión y procesamiento de datos geotécnicos

Quilca Vilcapoma, José Gustavo 01 June 2021 (has links)
La gestión de datos es importante en diversas áreas de estudios y resalta en el área de la Ingeniería Geotécnica, donde al realizarse ensayos para el estudio de suelos, se llega a obtener una gran cantidad de datos. Los cuales cada vez son mayores, debido al desarrollo de nuevas técnicas usando instrumentación digital y al avanzado desarrollo de instrumentos electrónicos de medición. Este documento describe un proyecto que propone gestionar y procesar datos de ensayos para el estudio de suelos mediante la implementación de un sistema de información. La cual, para una organización prestadora de servicios de estudios de suelos, permite mejorar sus procesos en los siguientes aspectos: (a) brindado un almacenamiento de datos centralizado, lo que permitirá compartir fácilmente la información, (b) mantener un histórico de datos, para auditorías realizadas en un futuro al proyecto, (c) acceso ágil a la información , al tener la información almacenada con distinción de lugar y tiempo, con la posibilidad de acceso desde diversas ubicaciones, (d) uso de respaldo de datos automatizado, (e) integridad, para evitar la corrupción de información y correspondencia para la correcta referenciación a los proyectos reales, (f) generar nueva información a partir de otros datos, mediante ecuaciones definidas o correlaciones entre ensayos.
276

Clasificación de proteínas repetidas basado en su información estructural utilizando aprendizaje de máquina

Tenorio Ku, Luiggi Gianpiere 12 February 2021 (has links)
En los últimos años, las proteínas repetidas, las cuales son caracterizadas por poseer regiones que se repiten a lo largo de su estructura, han demostrado poseer un rol fundamental dentro de la naturaleza. Esta importancia se debe a sus propiedades funcionales que toman relevancia dentro de varios procesos biológicos como la salud, el desarrollo neuronal y la ingeniería de proteínas. Debido a ello, una tarea, dentro del área de estudio de estas proteínas, es la identificación y clasificación de estas, lo que permite identificar las propiedades funcionales que posee. Asimismo, en la actualidad, existen métodos complejos para la clasificación e identificación de proteínas repetidas a partir de su estructura, los cuales implican un uso intenso y costoso de recursos computacionales. Además, por la aparición de nuevos procesos experimentales, las proteínas recientemente descubiertas por año se incrementan de forma exponencial. En consecuencia, ello obliga que estos procesos realicen una gran cantidad ejecuciones y generen una gran cantidad de archivos que se traducen en grandes costos de procesamiento y almacenamiento. En este proyecto se busca implementar un modelo de aprendizaje de máquina con la capacidad de detectar la presencia de regiones repetidas dentro de una cadena proteica con el fin de que esta información sea útil para procesos más complejos como ReUPred para que eviten procesar grandes cantidades de datos irrelevantes. Dicho objetivo, implica la construcción de un proceso de transformación de datos necesaria para extraer las características estructurales de la cadena de proteína y formar la representación de datos a utilizar como entrada para el desarrollo, entrenamiento y validación del modelo. Adicionalmente, se plantea desplegar dicho modelo mediante un servicio web para que pueda ser utilizado por otros investigadores del área.
277

Evolución del arrendamiento leaseback en el Perú y modo de otorgamiento a través del banco BBVA Perú

Pachas Munayco, Erick Luiyi 02 February 2022 (has links)
A nivel mundial el contrato de arrendamiento financiero es una importante forma de financiamiento para empresas de todo sector, ya que pueden realizarse sobre bienes muebles o inmuebles dependiendo de las distintas necesidades de los demandantes, y estructurado de acuerdo con las características que estos prefieran. En el presente trabajo se define el arrendamiento financiero leaseback con el objetivo principal de presentar los beneficios tanto para las empresas demandantes y ofertantes de este tipo de financiamiento. Para poder contextualizar la información de este trabajo, en primer lugar, se realizará una presentación de datos del arrendamiento financiero a nivel global y nacional. Seguido de ello se procederá a mostrar información relevante del sistema bancario peruano y del Banco BBVA Perú, de forma tal que puedan ser contrastados. Luego se desarrollará de manera más detallada la definición del arrendamiento leaseback y sus características, adicionalmente con el apoyo de un ejemplo práctico. Consecuentemente se detallará un caso real que permita observar el flujo del proceso de arrendamiento leaseback desde el punto de vista del Banco BBVA Perú. Finalmente se plantearán recomendaciones y conclusiones con base en la información presentada para este tipo de arrendamiento financiero leaseback.
278

Diseño de una arquitectura hardware del algoritmo Blockmerging según el estándar HEVC de transmisión de video 4K en tiempo real

Caceres Palacios, Salvador 20 July 2023 (has links)
Las exigencias actuales en cuanto a calidad del contenido de video, a la par con el incremento del ancho de banda destinado a la transmisión de video, impulsan la necesidad de desarrollar estándares de codificación que sean más eficientes en cuanto a la calidad de reconstrucción de las imágenes decodificadas y a la cantidad de bits usados para la codificación. En este contexto, surge el nuevo estándar HEVC (High Efficiency VideoCoding) denominadoH.265[1]. Si bien el estándar HEVC ha superado enormemente a sus predecesores con la inclusión de nuevas herramientas tales como el particionamiento en bloques de dimensión variable de los cuadros de la secuencia de video, así como nuevas técnicas de predicción de vectores de movimiento como el AMVP (Advanced Motion Vector Prediction), la etapa de codificación no es del todo eficiente. Con el objetivo de mejorar la eficiencia de codificación del HEVC se incorpora la técnica de Block Merging. Esta técnica busca provechar las redundancias temporales y espaciales entre bloques de predicción vecinos, de manera que se puedan codificar en conjunto aquellos bloques que cumplan con ciertos criterios de selección [2]. Por lo tanto, el algoritmo de Block Merging tiene como finalidad encontrar, a partir de una lista de posibles candidatos, el bloque de predicción (bloque de píxeles de 8x8,16x16,32x32 o 64x64) cuyo vector de movimiento tenga asociado el mejor costo RD (Rate-Distortion). Al codificar en conjunto bloques de predicción, se evita enviar parámetros (como los vectores de movimiento) repetidas veces, logrando así una importante reducción en la cantidad de bytes a emplear durante la codificación de cuadros de video , considerando que resoluciones de 4k u 8k son cada vez más comunes en los contenidos audiovisuales[2]. El presente trabajo se enfoca en implementar la etapa de elección del mejor candidato usando el algoritmo de SATD (Sum of Absolute Transformed Differences) como parte del algoritmo de Block Merging. La arquitectura fue descrita usando Verilog-HDL y sintetizada en dispositivos FPGA (Field Programmable Gate Array) de la familia Kintex 7 de Xilinx. Por otra parte, se verificó el funcionamiento de la arquitectura mediante el uso conjunto del simulador RTL (Register Transfer Level) de la herramienta Vivado Design Suite y un software de referencia en MATLAB (Matrix Laboratory), logrando una frecuencia de operación de 263.158 MHz. Tomando en cuenta una lista de tres candidatos y un particionamiento variable con un Parámetro de Cuantizaciónn QP (Quantization Parameter) en el rango de 22 hasta 36 considerado en trabajos pasados, la tasa de procesamiento de secuencias de video 4k (3840x2160) de la presente arquitectura se encuentra en el rango de 77.30 fps hasta 145.93 fps, lo cual se ajusta a los requerimientos por parte del estándar HEVC para transmitir video en tiempo real.
279

Aprendizaje estadístico supervisado con máquina de soporte vectorial

Falcón Cisneros, Sergio Daniel 26 February 2024 (has links)
Actualmente las organizaciones recolectan datos en grandes volúmenes y de fuentes muy variadas. Para dar sentido y convertir los datos en información útil es necesario utilizar técnicas que permitan encontrar y entender las relaciones ocultas en los datos. Generalmente, la relación que nos interesa estudiar es cómo predecir un evento utilizando un conjunto de variables. Sin embargo, muchas veces la relación entre los datos es muy compleja y no puede ser analizada adecuadamente usando las técnicas más conocidas, dado que éstas suelen tener supuestos que no necesariamente se cumplen. Por ello, es importante conocer técnicas de análisis más complejas y flexibles. Esta tesis busca ser un instrumento de ayuda en el aprendizaje y uso de nuevas técnicas para estudiar los datos, lo cual es relevante sobre todo en el medio local en el que este tema es poco conocido. Con este objetivo, presenta una revisión introductoria de la teoría del aprendizaje estadístico, la cual provee del marco teórico para que distintos métodos utilicen los datos para aprender, y usando este conocimiento puedan hacer predicciones sobre datos nuevos o diferentes. Luego se centra en un estudio exhaustivo del método de aprendizaje de Máquinas de Soporte Vectorial (SVM por sus siglas en inglés), introduciendo y aplicando las funciones Kernel. Este método se puede entender como una representación de los datos como puntos en el espacio, asignados de tal forma que exista una brecha grande que separe a los elementos diferentes. Finalmente se pone en práctica la teoría estudiada aplicando el método SVM a datos de clientes de una entidad financiera. Esta entidad financiera usa predominantemente técnicas de aprendizaje estadístico simples y con varios supuestos; particularmente usa una de estas técnicas en un modelo que predice la propensión a la compra y persistencia del producto Seguro de Protección de Tarjetas. Por ello, la presente tesis se centra en aplicar el método SVM para construir una alternativa a este modelo.
280

Implementación de chatbots, migraciones y lago de datos en AWS

Ávila Flores, Patricio José 13 February 2024 (has links)
Desde el momento del egreso en julio del 2020, se ha ejercido labores en dos consultoras de servicios informáticos. Primero, en una consultora canadiense llamada Rules Cube que se enfoca en el desarrollo de aplicaciones en Pega. Segundo, en una consultora peruana llamada Tuxpas, que se especializa en proyectos de implementación de chatbots en la plataforma Workplace, y construcción de lagos de datos y migraciones en AWS. En Rules Cube con el rol de practicante profesional de TI se apoyó en el desarrollo de una aplicación móvil de reconocimiento de tickets y boletas de compra por un período de cuatro meses. El objetivo de esta aplicación era poder obtener con fotos rápidamente todos los gastos en los que se incurre día a día. Como parte de las herramientas se utilizó Pega, Sharepoint, y diversos aplicativos de la misma empresa. En Tuxpas es donde se ha ejercido la gran mayoría del tiempo desde el egreso. En el primer año en la compañía con el rol de desarrollador de software se formó parte de un equipo que implementó y desplegó chatbots en la red social para empresas Workplace para reconocer a colaboradores y conocer el estado del clima laboral, en un cliente de venta de productos de beleza, información que resultaba vital para la gerencia para conocer la retroalimentación de trabajadores de primera línea. En el segundo y tercer año, ahora con el rol de arquitecto de software y con la responsabilidad de liderar proyectos, es que se han llevado a cabo diseños y desarrollos de diversos lagos de datos y migraciones. Una de las migraciones más resaltantes fue realizada para un cliente del sector salud y que implicó el movimiento de toda su infraestructura y aplicaciones hacia la nube de AWS. Esto incrementó enormemente la disponibilidad de las aplicaciones y gracias a ello se redujo el tiempo de baja. Asimismo, se pudieron refactorizar las aplicaciones para que puedan ser alojadas en servicios auto-escalables. Más adelante, se llevó a cabo un lago de datos que centralizaba toda la información generada en las diversas fuentes del cliente, perteneciente al sector educativo. Esto permitió poder tener una misma estructura para todos los datos, que en el origen se encontraba con distintas nomenclaturas que hacían más difícil una visión completa de los datos generados. Además, permitió agilizar la creación y ejecución de procesos analíticos para toda el área de Inteligencia de Negocios.

Page generated in 0.2228 seconds