Spelling suggestions: "subject:"procesamiento dde datos"" "subject:"procesamiento dee datos""
411 |
Análisis del estándar celular TD-SCDMA y comparación técnica con WCDMAEstrada Gomero, Daniel Carmelo January 2010 (has links)
Publicación a texto completo no autorizada por el autor / Realiza un análisis de las características técnicas de TD-SCDMA (Acceso síncrono múltiple por división de código y división de tiempo), el cual ha sido aprobado por la UIT como estándar oficial 3G. TD-SCDMA es un estándar 3G desarrollado por la Academia China de Tecnología de Telecomunicaciones y utiliza acceso múltiple por división de código (CDMA) y multiplexación por división de tiempo (TDD) para soportar en un mismo canal físico transmisiones de downlink y uplink. Este aspecto, junto con otras características técnicas de TD-SCDMA, son estudiados y evaluados para determinar las ventajas técnicas que ofrece con respecto a WCDMA. Así mismo, se realiza una comparación integral entre WCDMA y TD-SCDMA enfocando los aspectos de capacidad y cobertura. En esta comparación se incluirá el uso de HSDPA para ambas tecnologías. Por último se exponen aspectos comerciales sobre ambas tecnologías y se concluye con una recomendación sobre la viabilidad de implementar TD-SCDMA para un operador celular. Se deja en claro que tarde o temprano el mercado de servicios 3G va a despegar de manera agresiva y para entonces los operadores de red y proveedores de contenidos deberán estar preparados para prestar servicios avanzados relacionados con internet y aplicaciones basados en IP de alta velocidad, comercio electrónico, servicios basados en la ubicación del usuario, etc. En la actualidad, los 3 operadores de telefonía móvil nacionales ya tienen implementadas y en fase de desarrollo sus redes 3G y por esta razón no se aborda un estudio de factibilidad de implementar 3G, simplemente ya es una realidad. / Tesis
|
412 |
Determinación de los usos BIM que satisfacen los principios valorados en proyectos públicos de construcciónPrado Luján, Guillermo Antonio 14 November 2018 (has links)
La infraestructura pública en Perú posee muchas falencias, desde la decisión sobre
en qué se debe invertir el gasto público, hasta los problemas propios de los proyectos
de construcción. Estos problemas se agrandan al incluir toda la burocracia presente
en los procesos del estado. Estudios señalan que este tipo de proyectos presentan
hasta 9000% de aumento en tiempo y hasta 200% de aumento en costo. Una
alternativa usada por las entidades públicas para aminorar estos problemas ha sido
aplicar algunos usos BIM en ciertos proyectos, al igual que lo hacen países como los
pertenecientes al Reino Unido y Singapur, donde es obligatorio usar BIM en
proyectos públicos. Desafortunadamente, no se han obtenido los resultados
esperados. Esto puede ser consecuencia de una baja capacitación por parte de los
funcionarios públicos para entender cómo se usa BIM en los proyectos y, además,
de la falta de entendimiento de lo que se valora en este tipo de proyectos. Debido a
estos problemas en la implementación BIM a nivel de gobierno en Perú se plantea
un esquema de alineamiento entre los usos BIM más importantes, según la literatura,
y los principios valorados por parte de los funcionarios públicos peruanos. La
recolección de estos principios ha sido por medio lo encontrado en la literatura sobre
lo valorado en estos proyectos y luego validado mediante entrevistas semiestructuradas
a los directores de infraestructura de 4 ministerios peruanos. Como
resultado de esta validación de principios se tiene que el uso de tecnología y la
transparencia de la información son los más importantes para estos agentes. Para el
esquema de alineamiento entre usos BIM y estos principios se ha explicado cómo
estos usos pueden satisfacer estos principios, con el objetivo de agregarle valor a los
proyectos públicos. Este esquema descrito corresponde a uno conceptual. Luego se
verificó por medio de 3 proyectos públicos del Ministerio del Interior, donde se
aplicaron hasta 6 usos BIM en un mismo proyecto, dando como resultado un
esquema de alineamiento entre usos BIM y principios valorados ya validado. En
conclusión, queda demostrado la necesidad de estos usos BIM para satisfacer estos
principios, siendo el uso más importante el de detección de interferencias e
incompatibilidades. Además, se proponen futuras investigaciones para reforzar la
necesidad de una implementación BIM a nivel de gobierno en Perú.
|
413 |
Fuentes históricas digitales, promesa y problemaChávez Rodríguez, Carlos Alberto 27 June 2011 (has links)
Actualmente no es posible sustraerse a la profunda transformación que está
modificando día a día el vasto universo de las fuentes históricas. Consideraremos
algunos casos. Si para el desarrollo de nuestras investigaciones o estudios,
necesitamos revisar, por ejemplo, un documento de la Audiencia de Lima fechado a
principios del siglo XVII y que sabemos se encuentra depositado en el Archivo
General de Indias. O si más bien, requerimos leer el artículo que sobre la “Historia de
la mina de Huancavelica” publicó el Mercurio Peruano. O si nos proponemos
analizar la simbología utilizada por Guamán Poma en sus ilustraciones de la Nueva
corónica y buen gobierno, para las “primeras armas del Inca”. O finalmente, si nos
proponemos conocer las comunicaciones, hoy desclasificadas. cursadas entre el
embajador de los Estados Unidos de América en el Perú con su sede en Washington, a
propósito de las tensiones entre el régimen de Velasco Alvarado y el de Pinochet, días
antes del golpe de Morales Bermúdez. Para todos estos casos, hoy ya es posible
acceder a estas fuentes históricas, no solo bajo la forma tradicional del soporte
impreso; sino también bajo su forma digital.
|
414 |
Diseño de la arquitectura de un extractor de endmembers de imágenes hiperespectrales sobre un FPGA en tiempo realLuis Peña, Christian Jair 27 November 2018 (has links)
El presente trabajo consiste en el dise˜no hardware de un extractor de endmembers
para im´agenes hiperespectrales en tiempo real empleando el algoritmo N-FINDR. Para
comprobar la efeciencia de la arquictectura se utiliz´o la imagen hiperespectral Cuprite la
cual tiene un tama˜no de 350 350 y fue capturada por el sensor aerotransportado AVIRIS,
el cual escanea una columna de 512 p´ıxeles en 8.3ms. Por ende, el procesamiento de la
referida imagen se realizar´a en menos de 1.98 segundos para alcanzar el tiempo real.
En primer lugar, el algoritmo fue analizado por medio del entorno de programaci´on
MATLAB® con el fin de identificar los procesos m´as costosos computacionalmente para
optimizarlos. Adem´as, se realiz´o el estudio de una nueva forma de eliminaci´on de pixeles
en el an´alisis por medio de un pre-procesamiento con la intenci´on de reducir el tiempo de
ejecuci´on del algoritmo. Posteriormente, se analiz´o el proceso m´as costoso
computacionalmente y se propuso un dise˜no algor´ıtmico para mejorar la velocidad del
proceso. En segundo lugar, se realiz´o la s´ıntesis comportamental de la aplicaci´on
software con la finalidad de obtener una arquitectura hardware del sistema. La
arquitectura fue descrita utilizando el lenguaje de descripci´on de hardware Verilog.
Finalmente, el dise˜no se verific´o y valid´o mediante la herramienta ISim de Xilinx, a
trav´es del uso de testbenches, realizando la sintesis de la arquitectura dise˜nada sobre un
FPGA Virtex 4 utilizado el software ISE de la empresa Xilinx obteniendo una frecuencia
de operaci´on estimada de 69.4Mhz, que representa un 64% de mejora, respecto de la
referencia [1], llegando a procesar una imagen hiperespectral en 17.98 segundos. Sin
embargo, con esta frecuencia no es posible alcanzar el procesamiento en tiempo real
esperado utilizando la familia Virtex 4. La arquitectura dise˜nada, fue optimizada
utilizando paralelismo de operaciones, lo cual hace que se incremente el ´area de dise˜no,
excediendo el l´ımite de slices disponibles en el modelo Virtex 4 utilizando en la
referencia [1], por ello se identific´o mediante las hojas de datos de la familia Virtex que
el FPGA m´as id´oneo para soportar la arquitectura dise˜nada es la Virtex 7 modelo
XC7VX980T que supera los 71,096 slices que requiere la presente arquitectura,
obteniendo una frecuencia de operaci´on de 112.819MHz.
|
415 |
Extracción de información para la generación de reportes estructurados a partir de noticias peruanas relacionadas a crímenesBustamante Alvarez, Gina 12 September 2019 (has links)
Actualmente, múltiples fuerzas policiales y agencias de inteligencia han decidido enfocar
parte de sus esfuerzos en la recolección de todo tipo de información sobre crímenes. Esto
con el objetivo de poder analizar los datos disponibles y utilizar los resultados de esta
tarea para la mejora de procesos actuales, e incluso, para la prevención de ataques y
delitos futuros.
No obstante, debido a la velocidad con la que se generan datos e información en la última
década, las técnicas de análisis tradicional han resultado en baja productividad y en un
uso ineficiente de recursos. Es por esta razón, que desde el campo de la informática, y
específicamente desde las ciencias de la computación, se vienen realizado múltiples
intentos para ayudar a identificar y obtener la información más importante dentro de estos
grandes volúmenes de datos.
Hasta el momento los estudios previos realizados para este dominio, abarcan desde la
predicción del lugar de un delito utilizando data numérica, hasta la identificación de
nombres y entidades en descripciones textuales. En este contexto, este trabajo propone la
creación de una herramienta de extracción de información para noticias relacionadas al
dominio criminal peruano. Buscando identificar automáticamente culpables, víctimas y
locaciones mediante los siguientes pasos: (1) Procesamiento y generación de un conjunto
de datos en base a noticias criminales, (2) Implementación y validación de algoritmos de
extracción e información, y (3) Elaboración de una interfaz de programación de
aplicaciones para el consumo del modelo desarrollado.
Los resultados obtenidos evidencian que el enfoque utilizado, basado en dependencias
sintácticas y reconocimiento de entidades nombradas, es exitoso. Además, se espera que en el futuro se puedan mejorar los resultados obtenidos con técnicas de procesamiento de lenguaje natural para dominios con pocos recursos.
|
416 |
Diseño e implementación de un sistema de administración de calendarios online con sincronización móvilLucho Romero, César Stuardo 06 September 2012 (has links)
El presente proyecto de Tesis consiste en el diseño e implementación de un sistema de administración de calendarios online de código abierto, para ser usado por los alumnos de la Pontificia Universidad Católica del Perú como alternativa al servicio de agendas presente en el campus virtual, con la posibilidad de sincronizar eventos programados vía un dispositivo móvil.
Se ha dividido el proyecto en 5 etapas. El primer capítulo está centrado en la exposición de las tecnologías y software a usarse en todo el proyecto. El segundo capítulo presenta un análisis de sistemas de calendario online, tanto gratuitos como de código libre, con el fin de realizar una comparativa de requerimientos y funcionalidades, que sirvan para la elección de dos sistemas de calendario, uno web y uno móvil, como parte de la arquitectura del sistema final. El tercer capítulo detalla el manejo de los usuarios y de los eventos de cada sistema seleccionado previamente en función de sus campos a nivel de base de datos. El cuarto capítulo muestra el diseño de la arquitectura del sistema que se logra mediante la sincronización de las bases de datos del sistema de calendarios online y del móvil. En un primer lugar se muestra la interconexión de los usuarios y posteriormente la interconexión y sincronización de los eventos de ambos sistemas. Así mismo se muestran las interfaces y módulos que se adicionan con la finalidad de lograr un único sistema de calendarios online con soporte para la sincronización de eventos vía un dispositivo móvil. El quinto capítulo presenta el procedimiento seguido para lograr la implementación del sistema diseñado en un entorno real, usando un servidor y un nombre de dominio activo en la PUCP. Finalmente en el sexto capítulo, se muestran las pruebas realizadas al sistema en producción.
Por último, se presentan las conclusiones y recomendaciones del presente trabajo, además de proponer algunos trabajos futuros que permitan optimizar el diseño de la arquitectura del sistema para una posible implementación en un entorno externo al de la Pontificia Universidad Católica del Perú.
|
417 |
Diseño de la implementación del módulo Sales & Distribution del sistema ERP SAP R/3 en una empresa comercializadora : estudio de casoCuba Legua, Cynthia Giuliana 24 November 2011 (has links)
La presente tesis presenta un diseño de implementación del módulo Sales &
Distribution del ERP SAP R/3 en una empresa comercializadora peruana importante
en el sector, esta tesis muestra el análisis y diagnóstico de los procesos principales de
la Distribución considerándose la venta y los traslados entre centros de la misma
empresa, también se analiza el funcionamiento interno del Centro de Distribución
como la estructura organizativa y los sistemas informáticos involucrados.
En base a dicho análisis se establecen mejoras en los procesos de distribución
apoyados también en el empleo de la herramienta informática SAP R/3 que integra la
información optimizando la toma de decisiones en los niveles operativos, tácticos y
estratégicos.
La tesis tiene como objetivo general evaluar, diagnosticar y diseñar los procesos de
expedición en la empresa en estudio de modo que ésta pueda responder rápidamente
a los cambios en el negocio teniendo la información correcta en el momento correcto.
Adicionalmente tiene como objetivo específico diseñar el módulo Sales & Distribution
del Sistema ERP SAP R/3 para lograr la integración de la información y la
automatización de los procesos con el fin de optimizar y mejorar el desempeño de la
empresa en la Cadena de Suministro.
El trabajo desarrollado en esta tesis permite configurar toda la información necesaria
para introducirla al sistema SAP, con el fin de activar el módulo relacionado a la
expedición y lograr un mejor flujo de materiales e información en los procesos de
distribución.
Con la propuesta presentada en esta tesis se mejora la información para la toma de
decisiones, el cumplimiento en la entrega a los clientes internos y externos, así mismo
se reduce el recorrido, se mejora la utilización del recurso humano y se aprovecha el
sistema informático en toda su magnitud.
|
418 |
StadCore - herramienta estadística modular : una orientación a los procesos de confiabilidad y análisis de psicometríaCayetano Muro, César Augusto, Rojas Bustillos, Koening Alfredo 30 November 2011 (has links)
La posibilidad de tener una herramienta que de una solución completa a un determinado problema es difícil de encontrar en la actualidad. Las herramientas orientadas a áreas específicas de estudio son prácticamente escasas y normalmente requieren del uso de más de una aplicación para llegar a un resultado. De esta forma, se obtienen soluciones parciales a una problemática, lo que ocasiona la necesidad de recurrir a otras herramientas para que terminen el trabajo.
Un caso muy particular de este problema es el del proceso de psicometría en el cual las etapas de confiabilidad y análisis requieren del uso de varias herramientas. Además, las soluciones obtenidas en cada etapa no son completas dado que se necesita realizar procesos no automatizados que tienen mayor probabilidad de conllevar a errores. La presencia de estos errores en un test trae consigo importantes consecuencias dado que podría obtenerse conclusiones inexactas.
Para solucionar este problema se implementó una herramienta que sea lo suficientemente flexible como para permitir ampliar sus funcionalidades a diversas áreas de trabajo. Debido a que las hojas de cálculo electrónicas son aplicaciones que fácilmente pueden desempeñarse en cualquier área de estudio, se utilizó esta característica como interfaz de la herramienta. Bajo este modelo, se diseñó una arquitectura que permita soportar la ampliación mediante módulos con archivos XML como interfaces.
Respecto al problema del proceso de psicometría, se estará contando con un módulo orientado al proceso de confiabilidad y de análisis que automatizará sus procesos manuales, mejorando el tiempo de respuesta.
La presente tesis se desarrolló utilizando UML como lenguaje de modelamiento, RUP para los procesos a seguir durante el trabajo y Six Sigma para alcanzar un nivel deseado en la mejora de los procesos implementados.
|
419 |
Análisis, diseño e implementación de datamarts para las áreas de ventas y recursos humanos de una empresa dedicada a la exportación e importación de productos alimenticiosMoreno Reyes, Rolando Heli 15 October 2014 (has links)
Hoy en día en donde el tiempo es un factor muy importante para las empresas;
muchas de estas se ven en desventaja frente a otras debido a la demora en la toma
de decisiones de cara al negocio, esto es debido al retardo de procesamiento de
datos; es decir, muchas veces los reportes sobre la venta y compra de productos,
manejo de dinero, personal, entre otros, no son realizados a tiempo causando que
las decisiones administrativas se realicen de manera tardía. Es por ello que las
diversas áreas de una empresa están sujetas a mejoras y depende de los
directores o gerentes priorizar sobre qué área llevar a cabo dichas mejoras de
acuerdo a las necesidades del negocio.
El presente proyecto de fin de carrera ha tomado como estudio una empresa
dedicada a la comercialización de productos alimenticios, que en los últimos años
ha crecido considerablemente y ha obtenido grandes ganancias; sin embargo
arrastra dos problemas claramente marcados relacionados a las áreas de ventas y
recursos humanos.
Pese a que las ganancias de los últimos años han sido buenas, el sobre-stock de
productos ha aumentado debido a la producción masiva de los mismos lo que ha
llevado que en muchas épocas de año sean rematados e incluso eliminados de la
comercialización. La empresa se encuentra entonces en la necesidad de equilibrar
su producción para lo cual debe de considerar una tendencia de las ventas a
realizar, así como las diversas zonas del Perú donde serán comercializado los
productos, la época del año de dichas zonas y los clientes de las mismas a quienes
van dirigidos los productos elaborados. Asimismo la empresa no lleva un control de
las metas mensuales a las que deben llegar los vendedores de las distintas zonas
donde se comercializa, ni tampoco un control mensual de las devoluciones que en
muchas épocas del año han sido más de lo normal.
Por otro lado, se ha evidenciado que el personal administrativo no cumple con sus
horas de trabajo y excede con el número de solicitudes de licencias, perjudicando
así la productividad de la empresa. A esto se suma la gran cantidad de pagos
realizados por horas extras ocasionando que el presupuesto destinado para cubrir
la planilla y contratación de nuevo personal sea mayor a lo inicial. Para este caso la
empresa se encuentra ante la necesidad de evaluar el horario de trabajo de su
personal; así como llevar un control del presupuesto que maneja teniendo en
cuenta las áreas de la organización, los puestos y los roles del personal.
En base a lo anterior, se propone la construcción de una solución de Inteligencia de
Negocios mediante la implementación de dos Datamarts para las áreas de ventas y
recursos humanos que servirán de apoyo en el proceso de la toma de decisiones
administrativas para una empresa dedicada a la exportación e importación de
productos alimenticios.
El uso de los Datamarts de ventas y recursos humanos permitirá que se cuente con
dimensiones (conjunto de información acerca de un evento) que puedan
interrelacionarse entre sí y brindar información a detalle sobre una venta, personal o
presupuesto de la organización en estudio; así por ejemplo podemos obtener la
consulta sobre las ventas realizadas en el segundo trimestre para los clientes del
departamento de Ica, o la consultas sobre el personal nombrado del área de
producción que no cumplió con sus horas obligatorias en el mes de diciembre del
año 2006. Además el uso de Datamarts permitirá tener resultados predefinidos en
una o más tablas de hechos (tablas que relaciona las dimensiones y los eventos o
hechos); como el monto o la cantidad de ventas mensuales, horas diarias
trabajadas del personal, entre otros; los que junto a las dimensiones permitirán que
las consultas sean mucho más óptimas y rápidas en comparación con las bases de
datos transaccionales en donde las consultas complejas implica barrerse varias
tablas del modelo.
Para la implementación del presente proyecto de fin de carrera se optó por usar un
hibrido de herramientas siguiendo todos los pasos que implica una solución de
Inteligencia de Negocios: análisis, diseño y construcción de los Datamarts, creación
y programación de los procesos ETL, creación de los cubos, creación de los
informes y finalmente la implementación de la plataforma BI (Web). Para el proceso
ETL se usó la herramienta Kettle de la suite de Pentaho permitiendo de este modo
ahorrar costos de licencia de software ya que esta es una herramienta que se
encuentra bajo licencia GNU GPL. Para el diseño y explotación del cubo se usó la
herramienta SQL Server 2008 de Microsoft (Analysis Services y Reporting Services)
el cual permite explotar los reportes no sólo vía web sino también crear reportes
adicionales que se necesite mediante tablas dinámicas en excel. Esta última es la
herramienta con la cual los usuarios finales (personal administrativo) ya se
encuentran familiarizados ya que es su herramienta del día a día; lo cual se
convierte en una ventaja al momento de realizar la explotación del cubo.
Resumiendo, el presente proyecto de fin de carrera consiste en implementar una
solución de inteligencia de negocios en la empresa en estudio que permita tomar
las mejores decisiones frente a los problemas presentados en las áreas de ventas y
de recursos humanos; aprovechando, de este modo, todas las ventajas que una
solución de BI brinda; como la granularidad de la información, uso de técnicas de
explotación como dice, slice, drill down, consultas rápidas y cuyo objetivo es
generar una mayor rentabilidad en la organización.
|
420 |
Análisis, diseño e implementación de un sistema de administración de contenidos CMS (Content Management System) para un portal Web corporativoZavaleta Cuevas, Daniel 15 February 2013 (has links)
El presente documento de tesis permitirá modelar, construir y documentar artefactos que forman parte del análisis, diseño e implementación de un sistema de administración de contenidos CMS (Content Management System) orientado a un portal Web corporativo.
La metodología empleada es UML (lenguaje unificado de modelado). Esta metodología incluye conceptos semánticos, notación, y principios generales de modelado de sistemas software. Es un lenguaje gráfico para visualizar, especificar, construir y documentar sistemas.
El fenómeno Internet se ha desarrollado en varias fases. En las primeras, se fue haciendo importante para las empresas e instituciones “conseguir-disponer” de algún tipo de presencia en Internet, con lo que fueron apareciendo multitud de pequeñas páginas corporativas en las que se mostraba algún tipo de información acerca de la institución, posteriormente, la vasta presencia en Internet dejó de ser suficiente, se fue haciendo necesario introducir nuevos elementos y ofrecer algún tipo de servicio, así como una mejora en los contenidos.
Hoy en día, algunas instituciones prácticamente permanecen como en esos primeros momentos y otras empiezan a ver clara la necesidad de ser más ambiciosos respecto a las posibilidades de Internet. Ahora no basta con “estar” sino que es preciso “hacer”. Ya no sirve esperar que vengan los clientes, sino que se hace necesario ir a buscarlos y conseguir mantenerlos fieles a nuestros espacios en Internet y a nuestras instituciones.
|
Page generated in 0.1562 seconds