Spelling suggestions: "subject:"datos"" "subject:"ratos""
331 |
Gestión por procesos (BPM) usando mejora continua y reingeniería de procesos de negocioAgip Valverde, Johanna, Andrade Sánchez, Fabiola Evelyn January 2007 (has links)
El siguiente trabajo tiene por objetivo presentar el paradigma de gestión por procesos, el cuál es muy importante como parte principal de la estrategia organizacional. Éste concepto hoy en día conocido como BPM (Gestión de Procesos de Negocio) consta de dos partes fundamentales: la Gestión y las Tecnologías. En éste aspecto, el presente trabajo hace énfasis en la primera parte, mostrando dos metodologías necesarias en la Gestión: La Mejora Continua y la Reingeniería; aplicándolas en dos casos para organizaciones reales (Telecom y DataSec).
-- Palabras Claves: Procesos. Gestión de Procesos de Negocio (BPM), Tecnología, Mejora Continua, Reingeniería.
|
332 |
Modelo de gestión del conocimiento aplicado a la gestión de procesos de negocioAlarcón Matta, José Luis January 2007 (has links)
El presente trabajo de investigación tiene como objetivo proponer un modelo de Gestión del Conocimiento que se aplique a la Gestión de Procesos de Negocio (Business Process Management, BPM) en las organizaciones, ante los enormes desafíos de competitividad, y la problemática de una deficiente gestión de los recursos intangibles, siendo entre ellos los fundamentales: el conocimiento y las personas - con sus competencias y habilidades -.
La generación y gestión del conocimiento constituyen una disciplina de transformación organizacional que habilita a la empresa a crear y sostener ventajas competitivas en el tiempo, que para hacerlas efectivas, es necesario enfrentar un diseño de la estructura y actividades que soportan el nacimiento, identificación, almacenamiento y distribución de este activo intangible, para lo cual es posible apoyarse en el enfoque BPM.
Para lograr el objetivo anterior, se establece una metodología que genera la arquitectura de conocimiento (AC) que una empresa en un dominio particular requiere para llevar a la práctica la gestión de su activo intangible.
Como resultados esperados se tiene la fusión de la Gestión del Conocimiento, BPM y las Tecnologías de Información; la definición de lineamientos básicos para la cultura de conocimiento alineado a los modelos de gestión de conocimientos, así como para la construcción de una arquitectura de conocimiento de la organización, con la que se podrá encontrar toda la información relevante y se transformará en conocimiento que podrá ser aplicado para optimizar aspectos funcionales de la organización, dando la eficiencia para ser competitivos con respecto a otras organizaciones y enfrentarse al constante cambio. / The present investigation has as objective propose a model of Knowledge Management that is applied to the Business Process Management in organizations, before the enormous challenges of competitiveness, and the problematic of a deficient management of the intangible resources, being among them the fundamental ones: the knowledge and the people - with its competitions and abilities -.
The generation and management of the knowledge constitute a discipline of organizational transformation that it qualifies to the company to create and to maintain competitive advantages in the time, that to make them effective, is necessary to face a design of the structure and activities that support the creation, identification, storage and distribution of this intangible assets, for which it is possible to lean in the approach BPM.
In order to obtain the previous objective, a methodology settles down that generates the knowledge architecture (AC) that a company in a particular dominion requires to take to the practice the management of its intangible assets.
As awaited results have the fusion of the Kownledge Management, BPM and the Information Technologies; the definition of basic guidelines for the culture of knowledge aligned to the models of knowledge management, as well as for the construction of a knowledge architecture of the organization, with whom all the information will be able to be found and it will be transformed into knowledge that could be applied to optimize functional aspects of the organization, giving the efficiency to be competitive with respect to other organizations and to face the constant change.
|
333 |
Técnicas de auditoría asistidas por computador en la gestión de los órganos de control institucional del sector público nacionalHidalgo Carreón, Edwin Hernando January 2007 (has links)
El objetivo central del presente trabajo, está dirigido al estudio de la aplicación de las Técnicas de Auditoría Asistidas por Computador - TAACs, en el desarrollo de la gestión de auditoría lnterna de las entidades gubernamentales a fin de presentar nuevos enfoques en el planeamiento y ejecución de las acciones de control.
La hipótesis es la siguiente: Si los auditores internos están dotados con suficientes equipos y Técnicas de Auditoria Asistidas por Computador - TAACs, pueden lograr mayor extensión y profundidad en la búsqueda, acumulación y evaluación de evidencias de auditoría en el examen de los procesos computarizados, entonces el desarrollo de tecnología informática en auditoría interna, debe ir en paralelo al que utiliza la administración para lograr la conveniente extensión y profundidad en la aplicación de procedimientos de auditoría.
El estudio presenta la base normativa en la que se desarrolla la gestión de control del auditor interno, detallando las normas emitidas al respecto por la Contraloría General de la República; así como las organizaciones internacionales especializadas en éste campo de la auditoría.
Para conocer las potencialidades con que se cuenta, se ha tomado como base la última encuesta que realizó la Oficina Nacional de Gobierno Electrónico e Informática, sobre los recursos informáticos del Sector Público denominado V Encuesta Nacional de Recursos Informáticos y Tecnológicos de la Administración Pública (V ENRIAP), precisando las cantidades, tipos y características tanto del hardware y software que se vienen utilizando en la administración pública,
Por otro lado se ha efectuado una encuesta en auditoría interna de las entidades gubernamentales, que ha hecho posible verificar, que su equipamiento en cómputo es básico, lo que sí se observa es que no se cuenta con programas especializados para auditoría tales como el Audit Command Language – ACL o el Interactive Data Extraction and Análisis - IDEA.
La utilización de la tecnología moderna por parte de los auditores internos de las entidades que se encuentran bajo el ámbito de la Contraloría General será una respuesta de alta calidad profesional, frente a una realidad que constituye el avance del mundo en tecnologías de información que requiere auditores utilizando también herramientas de última generación. Este hecho es una realidad que estamos seguros será parte importante del desarrollo de un gran proyecto nacional sobre la materia. / The main objective of this work, is focused to the study of the application of the Computer Assisted Audit Techniques (CAATs), for the development of the management of the internal audit of governmental entities in order to present new approaches in the planning and execution of the control actions.
The hypothesis is the following: If internal auditors are assigned with enough equipment and Computer Assisted Audit Techniques (CAATs), they can achieve a great depth in the search, accumulation and evaluation of audit evidences in the test of computerized processes. The development of computer science technology must go in a parallel way to which the administration uses to obtain the convenient depth in the application of audit procedures.
The study shows the normative base the public internal auditor follows to develop its control management labour, describing all norms concerned to the General Controller of the Republic; and specialized international organizations in the audit field.
To know the existing potentialities, there has taken as a base the last survey that realized the National Office of Electronic Government and Computer Science about the computer resources of the Public Sector named The Vth National Survey of Computer and Technological Resources of the Public Administration (V ENRIAP), indicating the quantities, types and characteristics so much of the hardware and the software that are used in the public administration.
On the other hand, a specific survey in the internal audit of governmental entities has taken place, where it was possible to be verified that the computer equipment of internal audit is basic, being observed in addition which there are not programs specialized for audit such as the ACL - Audit Language Command and IDEA - Interactive Data Extraction and Analysis.
The use of modern technology by internal auditors that belongs to organizations under the scope of the General Controller will be an answer of high professional quality, knowing that the advance of the Information Technologies around the World requires auditors using last generation tools. This fact is a reality we are sure will be an important part of the development of a great national project on this field .
|
334 |
Aplicación de la minería de datos distribuida usando algoritmo de clustering k-means para mejorar la calidad de servicios de las organizaciones modernas caso: Poder judicialMamani Rodríguez, Zoraida Emperatriz January 2015 (has links)
La minería de datos distribuida está contemplada en el campo de la investigación que implica la aplicación del proceso de extracción de conocimiento sobre grandes volúmenes de información almacenados en bases de datos distribuidas. Las organizaciones modernas requieren de herramientas que realicen tareas de predicción, pronósticos, clasificación entre otros y en línea, sobre sus bases de datos que se ubican en diferentes nodos interconectados a través de internet, de manera que les permita mejorar la calidad de sus servicios.
En ese contexto, el presente trabajo realiza una revisión bibliográfica de las técnicas clustering k-means, elabora una propuesta concreta, desarrolla un prototipo de aplicación y concluye fundamentando los beneficios que obtendrían las organizaciones con su implementación.
|
335 |
Sistema de predicción de clientes desertores de tarjetas de crédito para la banca peruana usando Support Vector MachineOrdoñez Cairo, Rosa Angela del Carmen, Pastor Zapata, Maria Doris January 2016 (has links)
Propone la implementación de un sistema de predicción de clientes desertores de tarjeta de crédito usando un modelo de predicción basado en el comportamiento transaccional y datos demográficos de los clientes para la determinación de los patrones de reconocimiento, para ello se definirán las técnicas y algoritmos con los que se validará la propuesta.
|
336 |
Un sistema de generación de horarios para la enseñanza de pregrado en universidades peruanas mediante algoritmos genéticosBlaz Aristo, Sherly Patricia January 2016 (has links)
Desarrolla una solución al problema de generación de horarios para los cursos universitarios de pregrado en las universidades peruanas, en la cual cada encargado de la elaboración de horarios debe realizar una laboriosa tarea de asignación de salones y docentes en un periodo específico para los dictados de clases de las asignaturas que se imparten en un ciclo académico. Propone un sistema inteligente de generación de horarios basado en algoritmos genéticos, el cual fue adaptado para poder cumplir con los requisitos específicos impuestos por cada facultad de las diferentes universidades del Perú y así satisfacer a los usuarios involucrados. En nuestras pruebas se consideró como caso de estudio la Facultad de Ingeniería de Sistemas de la Universidad Nacional Mayor de San Marcos, obteniendo como resultado un horario con cero violaciones de restricciones obligatorias y reduciendo en lo más posible las violaciones de las restricciones blandas y así superando la generación de horarios elaborado de forma manual que actualmente se lleva a cabo.
|
337 |
Aplicación de técnicas de minería de datos para mejorar el proceso de control de gestión de ENTELMartínez Álvarez, Clemente Antonio January 2012 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / El presente estudio se enfoca en el análisis de ingresos no percibidos en la empresa de telecomunicaciones ENTEL, dentro del proceso de provisión de servicios privados de telefonía, internet y comunicaciones a los clientes de mercados no residenciales. Dicho proceso es controlado mediante indicadores de gestión, obtenidos a partir de la transformación de datos de clientes y servicios. La generación de estos indicadores demanda tiempo y esfuerzo por parte de los analistas de la empresa, debido a que es un trabajo realizado en forma manual.
El objetivo principal de esta tesis consiste en reducir el tiempo de cálculo de los indicadores de servicios privados de ENTEL, para lo cual se aplicó modelamiento multidimensional, técnicas de minería de datos y automatización de procesos, y de este modo poder entregar información más oportunamente.
La metodología de este trabajo se basa principalmente en las etapas del proceso conocido como Knowledge Discovery in Databases (KDD), implementadas de acuerdo a la metodología CRISP-DM, la cual es usada para el desarrollo de proyectos de minería de datos. Para comenzar, se hizo un levantamiento de las métricas existentes para la gestión de la provisión de servicios. Luego, se seleccionaron y procesaron las fuentes de datos para el estudio de forma automática, almacenando las variables más relevantes en un repositorio multidimensional (Data Mart), reduciendo drásticamente el tiempo de cálculo de indicadores y liberando recursos humanos altamente calificados. A partir de lo anterior, se aplicaron técnicas de clustering para obtener grupos de elementos con datos de clientes y servicios cuyas características fueran similares, asociándoles un valor de precio según información histórica de consumo. Por último, se generó un modelo de clasificación que asignara, de acuerdo a una medida de similitud, elementos que no habían sido facturados a los grupos previamente definidos, y de esta manera estimar los ingresos no percibidos.
Con ayuda de minería de datos se logró diseñar nuevas métricas para el proceso e identificar a los clientes y servicios más críticos, lo que permite llegar a valores más exactos de los ingresos perdidos en cada segmento, y aplicar estrategias diferenciadas para hacer el cobro a sus clientes.
El trabajo realizado permitió una reducción del tiempo de obtención de los indicadores en un 78%, pasando de un total de 14 horas inicialmente a tan sólo 3 horas, logrando además estimar los ingresos perdidos mensualmente por servicios no facturados en un monto de MM $ 210, con un error de la estimación menor al 5%. Se espera que, con ayuda de este estudio, la empresa pueda tomar decisiones informadas y mejorar su capacidad de control del proceso de provisión de servicios privados, con el fin de regularizar su flujo de ingreso mensual.
|
338 |
Métodos para estimar riesgo crediticio en base a minería de datos y teoría de juegosBravo Román, Cristián Danilo January 2012 (has links)
Doctor en Sistemas de Ingeniería / Medir la probabilidad de no pago de un gran número de solicitantes de crédito, el llamado riesgo de crédito a consumidores, es un problema clásico de la gestión financiera. Este problema requiere de una gran cantidad de herramientas estadísticas que lo hacen idóneo para su estudio por el área de Business Analytics. Su análisis se justifica en el fuerte impacto que los créditos a consumidores tienen en el mercado, pues por ejemplo en Chile más del 50% de los créditos se encuentran en carteras masivas, y en el resto del mundo se estima que superan a los créditos comerciales en más de un 50%. Esta tesis estudia este problema en base a la formalización de lo que se conoce sobre las determinantes del no pago (default) y la transformación de ese conocimiento en herramientas estadísticas para la medición del riesgo.
Para lo anterior, durante el doctorado desarrollé una sucesión de publicaciones con el fin de unir el modelamiento económico con la práctica estadística predictiva, formalizando el conocido hecho que existen no pagadores por razones de falta de capacidad de pago, y por problemas en voluntad de pago. El trabajo comenzó generando un modelo económico que captura las utilidades de los solicitantes y la entidad prestamista, utilizando esta nueva definición de no pagadores, resultando en una serie de restricciones que definen un espacio de créditos factibles. Luego, los no pagadores son asignados a estas dos clases utilizando un nuevo método de clustering semi-supervisado que los agrupa tanto por sus características estadísticas como por su comportamiento económico, reflejado a través de las restricciones generadas previamente.
El fin último de esta separación es mejorar la clasificación de los créditos y la comprensión del default, por lo que el siguiente paso correspondió al estudio de métodos de clasificación con múltiples clases. Para ello se exploró inicialmente la regresión logística multinomial, y luego se profundizó en el análisis de supervivencia, estudiando teóricamente los métodos de riesgos en competencia y los modelos mixtos, y desarrollando herramientas computacionales liberadas públicamente para apoyar futuras aplicaciones.
Los métodos propuestos mejoran entre 1%-10% la discriminación por sobre los métodos clásicos en bases de datos reales, y enriquecen fuertemente la comprensión del default a través de las nuevas variables significativas y los patrones encontrados. Más aún, los modelos y herramientas desarrollados pueden ser perfectamente extrapolados a otras disciplinas, pues este trabajo ha mostrado cómo se puede enriquecer la clasificación donde típicamente se cuenta con dos clases, por la vía de añadir conocimiento adicional acerca de comportamientos económicos observados.
|
339 |
Estado situacional de la protección de datos personales en Chile, regulación jurídica y alcancesBarrera Quintanilla, Tania Isabel January 2013 (has links)
Magíster en Gestión y Políticas Públicas / En el año 2009, sobresalió en los medios de comunicación un caso emblemático concerniente a la legislación chilena sobre la protección de Datos Personales. Sara Castro, una profesional diagnosticada con depresión, enfermedad catalogada bajo la cobertura GES, acudió a una sucursal de la Farmacia Cruz Verde para adquirir medicamentos no relacionados con dicha enfermedad. Sara se encontraba inscrita en la Isapre Banmédica y a la vez, ésta institución sostenía un convenio con dicha farmacia para hacer efectiva la asignación de medicamentos, trasladando datos sensibles, como el diagnóstico médico de los afiliados, situación que se descubrió a raíz de la participación de Sara Castro. El dependiente de la farmacia le explicó que los descuentos en medicamentos solo eran efectivos para tratar su depresión, situación que ocurrió de forma pública frente a los demás clientes. Sara Castro observó no sólo como el vendedor hacía pública su enfermedad, sino que los datos personales catalogados como sensibles y confidenciales de su estado de salud, entregados y resguardados por la Isapre, se encontraban en manejo de una red de farmacias, a quien no había otorgado permiso alguno para el tratamiento de dicha información.
Este caso demostró la ineficiente protección de datos personales que se observa en Chile, no obstante tener una ley especial en la materia. Paradójicamente, Chile fue una de las primeras naciones de Latinoamérica en redactar un cuerpo legal que busca salvaguardar el tratamiento de los Datos Personales, con la promulgación en agosto de 1999 de la Ley 19.268, también conocida como Sobre la Protección de la Vida Privada .
Con el tiempo, Chile ha promulgado una serie de leyes complementarias y reformas que buscan generar un mayor marco de protección de los Datos Personales. Un ejemplo de esto es la reciente puesta en marcha de la Ley 20.575 intitulada Establece el Principio de Finalidad en el Tratamiento de Datos Personales , más conocida como Ley Dicom. No obstante, estas medidas no se encuentras acorde con el veloz avance de las tecnologías de información y comunicación así como del comercio, siendo posible la producción múltiple de nuevos casos en cuanto al inadecuado tratamiento de Datos Personales.
Asimismo, resalta el hecho que en el año 2010, Chile ingresó a la OCDE (Organización para la Cooperación y el Desarrollo Económicos). Dicha Organización posee una serie de Directrices sobre protección de la privacidad y flujos transfronterizos de datos personales para que sean retomados por sus miembros. De igual forma se encuentran lineamientos sobre el tema emitidos por organizaciones internacionales, como la Directiva 95/46/CE del Parlamento Europeo y del Consejo, las Directrices de las Naciones Unidas para la regulación de los archivos de datos personales informatizados y las Directrices para la Armonización de la Protección de Datos en la Comunidad Iberoamericana.
El presente estudio, es de carácter descriptivo y cualitativo. Primeramente se establece un marco conceptual con la finalidad de establecer los conceptos básicos así como la pertinencia e importancia del tema de Protección de Datos, los retos existentes en torno al avance tecnológico y de las múltiples relaciones comerciales entre países, posteriormente efectúa un análisis comparativo de las directrices antes mencionadas con la legislación chilena, permitiendo determinar brechas que requieren una corrección urgente. El análisis del caso de Sara Castro, demuestra las actuaciones de los involucrados, abordando deficiencias en cuanto a la protección actual, y posible trade off para asegurar la cobertura de salud y la protección de datos sensibles.
|
340 |
Privacidad de ubicación para un sistema de monitoreo de la calidad de acceso a internet móvil: Location privacy for a monitoring system of the quality of access to mobile internetFont Brevis, Giselle Alejandra January 2015 (has links)
Magíster en Ciencias, Mención Computación / Ingeniera Civil en Computación / Con el objeto de medir la calidad de acceso a Internet móvil, NIC Chile Research Labs desarrolló Adkintun Mobile, un monitor pasivo instalado en los celulares de usuarios voluntarios.
Periódicamente, la aplicación registra datos relativos al estado de la red, los que son enviados
a un servidor que los recolecta. Los investigadores del laboratorio tienen acceso a los datos
almacenados por el colector.
A partir de la conexión a las antenas de celulares, la ubicación del dispositivo puede ser
deducida, por lo que la ubicación de los usuarios queda expuesta a la vista de los investigadores,
lo que resulta preocupante desde el punto de vista de la privacidad de ubicación
de los individuos. Más aún, sólo cuatro puntos espacio temporales son suficientes para reidentificar al 95% de la población a partir de una base de datos anonimizada. Es por ello
que este trabajo se enfoca en resolver el problema usando un enfoque criptográfico.
Se propone un modelo en el que los investigadores pueden acceder, consultar y calcular
agregaciones sobre los datos almacenados, pero sólo obteniendo de la ubicación de los individuos
el resultado de las agregaciones. El modelo utiliza encriptación homomórfica para
resguardar la privacidad de ubicación. La información relativa a la ubicación es enviada encriptada
desde los celulares hacia el servidor. El servidor puede calcular homomórficamente
funciones predefinidas, como contar el número de usuarios en un determinado lugar. Las
consultas a la base de datos y la desencriptación, se ejecutan en capas separadas, para evitar
que la llave secreta sea utilizada en la desencriptación directa de los datos.
Se implementaron dos versiones de la capa de privacidad de ubicación, con encriptación
completamente homomórfica (FHE) usando el esquema BGV, y con encriptación parcialmente
homomórfica (PHE) usando el esquema Paillier. El desempeño y overhead del sistema,
muestran que el modelo es adecuado para cálculo offline de estadísticas.
Las contribuciones de este trabajo consisten en proponer una aplicación práctica de FHE
para privacidad de ubicación; y discutir sobre el trade-off entre privacidad de ubicación y el
desempeño del sistema en ambas implementaciones (FHE y PHE).
--------------------------
In order to measure the quality of access to mobile Internet, NIC Chile Research
Labs developed Adkintun Mobile, a passive monitor installed in volunteer users'
mobile phones. Periodically, the client application records data related to
network state, which is sent to the collector server. Researchers of the
laboratory have access to such stored data.
Since from connexion to antennas location can be deduced, location data of
individuals is exposed to researchers, which is a concern for location privacy.
Moreover, as only four spatio-temporal points are enough to identify 95\% of the
population in an anonymized dataset, this work takes a cryptographic approach
to solve the problem.
We propose a model where researchers can access, query and compute aggregations
on stored data, learning nothing more about users' location than the result of
the aggregation. Our model uses homomorphic encryption to preserve location
privacy. Location data is sent encrypted from mobile devices to the server. The
server can homomorphically evaluate predefined functions such as counting the
number of users in a given location. Query and result decryption are performed
from a separate layer, which protects the secret key from being used for direct
decryption of the records.
We implemented two versions of the location privacy layer using a Leveled Fully
Homomorphic encryption (FHE) scheme (BGV), and a Partial (additive) Homomorphic
encryption (PHE) scheme (Paillier). The overhead and performance evaluation
show that both versions are adequate for offline statistical analysis.
The contribution of this work is to propose a practical use of FHE for
location privacy; and to discuss the trade-off between location privacy and
system performance for implementations using FHE and PHE.
|
Page generated in 0.0353 seconds