Spelling suggestions: "subject:"datos"" "subject:"ratos""
251 |
Detección de fraudes usando técnicas de clusteringRantes García, Mónica Tahiz, Cruz Quispe, Lizbeth María January 2010 (has links)
El fraude con tarjetas de crédito es uno de los problemas más importantes a los que se enfrentan actualmente las entidades financieras. Si bien la tecnología ha permitido aumentar la seguridad en las tarjetas de crédito con el uso de claves PIN, la introducción de chips en las tarjetas, el uso de claves adicionales como tokens y mejoras en la reglamentación de su uso, también es una necesidad para las entidades bancarias, actuar de manera preventiva frente a este crimen. Para actuar de manera preventiva es necesario monitorear en tiempo real las operaciones que se realizan y tener la capacidad de reaccionar oportunamente frente a alguna operación dudosa que se realice. La técnica de Clustering frente a esta problemática es un método muy utilizado puesto que permite la agrupación de datos lo que permitiría clasificarlos por su similitud de acuerdo a alguna métrica, esta medida de similaridad está basada en los atributos que describen a los objetos. Además esta técnica es muy sensible a la herramienta Outlier que se caracteriza por el impacto que causa sobre el estadístico cuando va a analizar los datos. / The credit card fraud is one of the most important problems currently facing financial institutions. While technology has enhanced security in credit cards with the use of PINs, the introduction of chips on the cards, the use of additional keys as tokens and improvements in the regulation of their use, is also a need for banks, act preemptively against this crime. To act proactively need real-time monitoring operations are carried out and have the ability to react promptly against any questionable transaction that takes place. Clustering technique tackle this problem is a common method since it allows the grouping of data allowing classifying them by their similarity according to some metric, this measure of similarity is based on the attributes that describe the objects. Moreover, this technique is very sensitive to Outlier tool that is characterized by the impact they cause on the statistic when going to analyze the data.
|
252 |
Utilización del análisis envolvente de datos en la seguridad ciudadanaPérez Rodríguez, Karla Milagros January 2009 (has links)
El análisis envolvente de datos (Data Envelopment Analysis), desarrollado por A. Charnes, W Cooper y E. Rhodes, es un método no paramétrico, basado en programación lineal y benchmarking, para medir la productividad y la eficiencia relativa de unidades de organización. El objetivo fundamental de DEA es hallar una frontera de eficiencia, formada por aquellas combinaciones de recursos que optimizan la cantidad de productos fabricados minimizando los costos de producción, y a partir de esta frontera, evaluar la eficiencia relativa de las combinaciones de recursos que no pertenezcan a la misma. En este trabajo se mostrará la eficiencia de la Seguridad Ciudadana de los distintos distritos de Lima Metropolitana utilizando DEA donde se utilizo el programa Frontier Analyst para el análisis correspondiente. / Data Envelopment Analysis (DEA) developed for Charnes, W Cooper and Rhodes, is a method not paramétrico, based on linear programming, to measure the productivity and the relative efficiency of units of organization. DEA's fundamental goal is to find a border of efficiency, formed by those combinations of resources that optimize the quantity of made products minimizing the costs of production, and from this border, to evaluate the relative efficiency of the combinations of resources that do not belong(concern) to the same one. In this work there will appear the efficiency of the Civil Security of the different districts of Metropolitan Lima using DEA where I use the program Frontier Analyst for the corresponding analysis.
|
253 |
Enfoque integrado de procesamiento de flujos de datos centrado en metadatos de medicionesDiván, Mario José January 2011 (has links) (PDF)
Cuando se trata de tomar decisiones a un nivel ingenieril, medir no es una posibilidad sino una necesidad; representa una práctica sistemática y disciplinada por la cual se puede cuantificar el estado de un ente. Si hay un aspecto que se debe tener en claro en medición, es que para comparar mediciones diferentes las mismas deben ser consistentes entre sí, esto es, deben poseer la misma escala y tipo de escala además de obtenerse bajo métodos de medición y/o reglas de cálculos equivalentes. Los marcos de medición y evaluación representan un esfuerzo, desde la óptica de cada estrategia, por formalizar el modo de definir las métricas, sus objetivos, entre otros aspectos asociados, a los efectos de garantizar la repetitividad y consistencia en el proceso de medición que sustentan. Existen aplicaciones capaces de procesar flujos de mediciones en línea, pero el inconveniente principal con el que se enfrentan, es que no contienen información con respecto al significado del dato que están procesando. Para este tipo de aplicaciones, la medición es un dato, es decir, una forma de representar un hecho captado, careciendo de información sobre el concepto al que se asocian o bien, el contexto en el cual es obtenida dicha medición. Los dispositivos de medición, están en general desarrollados para captar una medida mediante un método dado, y en la mayoría de los casos, la forma de obtener dicha medida para su posterior procesamiento en otros entornos (ordenadores de escritorio, móviles, etc.), está en función de servicios o accesorios provistos por el fabricante. Suponiendo que la totalidad de las mediciones, provenientes de diferentes dispositivos, pudieran ser incorporadas en un mismo canal de transmisión, pocos son los entornos de procesamiento de flujos de datos que incorporan comportamiento predictivo. En aquellos que se incorpora comportamiento predictivo, ninguno de los analizados se sustenta en una base conceptual, que permita contrastar una medida contra la definición formal de su métrica. Esto último, incorpora un serio riesgo de inconsistencia, que afecta directamente al proceso de medición y en consecuencia, a los posteriores análisis que en base a estos datos se realicen. Nuestra Estrategia de Procesamiento de Flujos de Datos centrado en Metadatos de Mediciones (EIPFDcMM), se focaliza en permitir la incorporación de fuentes de datos heterogéneas, cuyos flujos de mediciones estructurados y enriquecidos con metadatos embebidos basados C-INCAMI, permitan realizar análisis estadísticos de un modo consistente a los efectos de implementar un comportamiento detectivo y a su vez, permitan incorporar información contextual a las mediciones, para enriquecer la función de clasificación con el objeto de implementar el comportamiento predictivo. Tanto la implementación del comportamiento detectivo como del predictivo tendrán asociados mecanismos de alarma, que permitirán proceder a la notificación ante la eventual identificación de una zona de riesgo. De este modo, se pretende garantizar la repetitividad y consistencia en el proceso de medición que sustentan.
|
254 |
Sistema de gestión de seguridad para la red de datos de una institución del Estado Peruano, con la aplicación controles basados en software libreBurga Guardales, José Steve January 2016 (has links)
El documento digital no refiere asesor / Publicación a texto completo no autorizada por el autor / Establece un sistema de gestión de seguridad para redes de datos, cuyo propósito es coadyuvar a mantener la disponibilidad de los servicios informáticos críticos en una institución del Estado Peruano, gestionando los riesgos producto de amenazas y vulnerabilidades a los que puede estar expuesto la red de datos de la organización que se estudia. Asimismo, se plantea como propuesta tecnológica, la utilización de software libre para establecer controles de acuerdo a los principales riesgos que se determinen para la red de datos, y que tengan un impacto en la organización de llegar a materializarse alguna amenaza. / Tesis
|
255 |
Modelo de gestión del tratamiento de datos personales en la universidad públicaMolina Sánchez, Víctor Isaías 03 1900 (has links)
Autorizada por el autor, pero con restricción para ser publicada a texto completo hasta el año 2014 / Memoria (magíster en derecho, mención en derecho informático y derecho de las telecomunicaciones) / En este documento se exponen los resultados obtenidos de la investigación descriptiva sobre la caracterización y funcionamiento del Modelo de Gestión del Tratamiento de Datos Personales, que se desarrolla en el marco de una institución universitaria. Se ha tomado como estudio de caso, el tratamiento de datos que se ejecuta en la Dirección de Ingreso Permanencia y Promoción de la Universidad Nacional Autónoma de Honduras (UNAH).
Se busca realizar un análisis crítico de las actividades desarrolladas por dicha universidad desde la perspectiva jurídica de la protección de datos personales, y de los criterios o regulaciones que se expresan en otras realidades como en los países europeos, Argentina, México, Chile y otros, en las que ya se toman las medidas necesarias con un marco jurídico importante que regula la protección de datos personales y que influye significativamente en los sistemas de registro.
Por lo antes dicho, con la investigación se planteó como objetivo principal explicar el estado actual de la protección de datos personales en un sistema de registro de datos personales de la Universidad Nacional Autónoma de Honduras en particular, aplicando para tales efectos variables e indicadores jurídicos basados en las normas y principios del Derecho de la Protección de los Datos Personales, para describir el contexto y caracterización funcional del modelo de gestión del tratamiento de los datos de docentes, estudiantes y administrativos.
En este sentido la investigación es oportuna pues permitirá por una parte generar un documento que permita a cualquier universidad analizar sus niveles de cumplimiento en materia de protección de datos personales y de otra develar, si el tratamiento de los datos en la Dirección de Ingreso Permanencia y Promoción de la UNAH, goza de legalidad en el marco Jurídico en el contexto de país y en forma interna en la propia universidad, que garantice a las personas que ofrecen su información, seguridad, confidencialidad, cumpliéndose de esta forma con el derecho de la privacidad que todo ciudadano hondureño tiene como derecho constitucional.
Para lograr esta descripción fue necesario realizar un procedimiento de recogida de información, desde la lectura de algunas fuentes de información referencial, que permitiera contrastar la realidad de otros países, con la que se presenta en la realidad hondureña, además de realizar entrevistas con estudiantes y docentes y grupos de discusión con abogados que conocen del tema, se incluyen las entrevistas con los representantes de la Dirección de Ingreso Permanencia y Promoción de la Universidad Nacional Autónoma de Honduras, cuya información y contraste con el marco jurídico serviría para lograr el objetivo pretendido en esta iniciativa de investigación.
En los resultados de la investigación se logra integrar una visión general de la existencia o no de leyes que regulan la protección de datos personales, como parte del marco jurídico de país, y a la vez el grado de avance de la protección de datos personales con la que funciona la Dirección de Ingreso Permanencia y Promoción de la Universidad Nacional Autónoma de Honduras, como institución que rectora el nivel de Educación Superior en este país.
|
256 |
Datos biométricos y derechos fundamentalesMuñoz Gallardo, Sebastián Andrés January 2017 (has links)
Memoria (licenciado en ciencias jurídicas y sociales) / La presente investigación efectúa un análisis de la situación normativa y fáctica en la que se encuentran los datos biométricos en Chile. Para esto, el trabajo se desarrolla a través de diversos capítulos. El primero de ellos explica a grandes rasgos en qué consisten y para qué se utiliza la información biométrica, tomando en consideración los avances tecnológicos e informáticos desarrollados a nivel mundial. En segundo lugar, se abordan las problemáticas jurídicas que estos datos representan, enfocado principalmente en las diversas relaciones que estos tienen con derechos fundamentales. El tercer capítulo analiza cuál es la protección que nuestro ordenamiento jurídico ofrece a este tipo de información, para finalmente pasar a analizar, en el cuarto y último capítulo, acerca de la situación y protección ofrecida por otros países de América y Europa, a esta problemática específica.
|
257 |
Soft-clustering in static and dynamic environmentsSaltos Atiencia, Ramiro Javier January 2016 (has links)
Doctor en Sistemas de Ingeniería / En la actualidad, el entorno macro y micro económico en el cual op eran las empresas está
cambiando constantemente y a gran velo cidad. Esto se deb e princip almente al auge de las
nuevas tecnologías, la revolución de la información y la gran facilidad con la que ahora p o demos comu nicarnos con cualquier parte d el mundo. Debido a la gran canti dad de información
que está siendo generada segundo tras segundo, junto con la facilidad con la que se puede
acceder a ella, la minería de datos y la investigación de op eracion es se han convertido en
una de las herramientas más imp ortantes para desarrollar sistemas de ap oyo a la toma de
decisiones en to dos los niveles. La imp ortancia del traba jo conjunto de ambas disciplinas
radica en la faci lidad relativa con la que extraen cono cimiento de enormes bases de datos y
la utilizan para optimizar los pro cesos organizacionales relevantes.
En particular, para la min ería de datos, estos hechos h an provo cado qu e las bases de datos
sean dinámicas, es decir, el nà omero de datos disponibles crece cada segundo haciendo que
tiempo de vida útil de los modelos se reduzca, haciendo necesario actualizarlos periódicamente de tal forma que encajen con la realidad actual. Lo anterior demanda el desarrollo de
nuevos algoritmos que sean capaces de manejar este tipo de cambios, lo cual ha ido ganando
importancia en los últimos años.
Adicionalmente, la incertidumbre, ambigüedad e imprecisión presentes en los problemas
de la vida real son factores muy importantes a considerar cuando se desarrollan diferentes
algoritmos de minería de datos. La forma más común de lidiar con la incertidumbre viene
dada por la teoría de probabilidad, sin embargo, la ambigüedad e imprecisión han sido dejadas
de lado hasta la aparición de nuevas formas de tratarlas; dos de las cuales son la teoría de
conjuntos " fuzzy" y "rough."
Con las ideas anteriores en mente, en esta tesis, un algoritmo clásico de clustering basado
en support vectors es estudiado profundamente y extendido a una versión rough-fuzzy con
el fin de darle la habilidad de manejar la ambigüedad e imprecisión presente en el mundo
real. Luego de esto, este novedoso algoritmo de soft-computing es generalizado a una versión
dinámica siendo capaz de procesar bases de datos que reciben nueva información con el paso
del tiempo. Finalmente, utilizando como base estos dos algoritmos, un método de detección
de outliers es propuesto como una de las múltiples posibles aplicaciones que resultan de esta
investigación.
En cada capítulo, los experimentos computacionales, resultados y discusión son provistos
enfatizando la contribución que este trabajo de investigación tiene para la sociedad señalando
los futuros desarrollos y posibles campos de aplicación
|
258 |
Análisis de árboles de clasificación para la creación de un modelo que permita describir el perfil de los morosos y no morosos en una entidad financiera de Lima Metropolitana en el 2014Tafur Tembladera, Edelina Anyela January 2016 (has links)
Publicación a texto completo no autorizada por el autor / Las entidades financieras están desarrollando constantemente modelos que les ayuden a predecir el comportamiento de sus clientes, con el fin de mejorar sus ganancias o de reducir las pérdidas, como el riesgo de “no pago” o de “morosidad”.
El objetivo es crear un modelo predictivo de Árboles de Decisión por Clasificación con minería de datos para predecir la morosidad financiera en Lima Metropolitana, describiendo y analizando las variables independientes con el algoritmo CHAID (Detector automático de Chi-cuadrado de interacción) siguiendo la metodología CRISP-DM en una base de datos de una entidad financiera. La principal ventaja de esta metodología es que no está sujeta a supuestos estadísticos, este método es muy usado cuando se busca predecir o clasificar comportamientos de riesgo, como la morosidad, y se cuenta con más variables cualitativas que cuantitativas. La metodología persigue la separación óptima en la muestra, de tal modo que los grupos de la variable respuesta ofrecen distintos perfiles de riesgo. / Trabajo de suficiencia profesional
|
259 |
Investigación de Métodos Eficaces para Búsquedas por Similitud en Bases de Datos MultimediaVéliz Gutiérrez, Jaime January 2009 (has links)
El presente trabajo está enfocado en las bases de datos multimedia, área importante de investigación en los últimos años. Por objetos multimedia se entiende contenido como audio, imágenes, objetos 3D, etc. A diferencia de las bases de datos tradicionales, en una base de datos multimedia no se buscan los objetos que cumplan una condición exacta, sino los más parecidos a un objeto conocido de antemano, llamado objeto de consulta. Por esta razón, la búsqueda por similitud es uno de los temas principales de estudio en las bases de datos multimedia.
Para reflejar la similitud entre objetos multimedia, en general existen distintos métodos para calcular una distancia entre dos objetos multimedia, los cuales intentan reflejar el parecido entre dichos objetos (a mayor distancia, más disímiles son). Se ha comprobado empíricamente que algunos métodos funcionan mejor que otros ante distintos tipos de objetos de consulta, y que combinar varios de ellos a la vez entrega generalmente mejores resultados que utilizar cada uno en forma separada. Sin embargo, aún no existe una forma clara de decidir la forma de combinarlos en el momento de la consulta, y muchas veces se termina utilizando el mejor método en promedio, lo cual no siempre es la mejor opción.
En este trabajo se estudia un método formal para combinar estos métodos, realizando una consulta previa en un conjunto de objetos conocido como conjunto de entrenamiento, que permite estimar en forma dinámica la calidad de cada método ante un objeto de consulta dado. Como primera tarea, se implementó un entorno de trabajo que permite realizar experimentos de manera masiva, incorporar fácilmente distintos tipos de bases de datos y definir los tipos de experimentos a ejecutar. El entorno de trabajo implementado permitió estudiar cómo afecta la selección de un conjunto de entrenamiento en determinar la calidad de un método de transformación de objetos multimedia.
De los resultados experimentales obtenidos, se concluye que un conjunto de entrenamiento adecuado es de un tamaño bastante pequeño en relación a la base de datos original, lo que permite estimar la calidad de un método de cálculo de similitud con poco esfuerzo adicional. Adicionalmente, se observó que el cálculo dinámico de esta información permite aproximarse bastante a mejores combinaciones de métodos, las cuales sólo pueden ser obtenidas mediante fuerza bruta. Se muestra también que algunos resultados tienden a ser independientes de la base de datos, mientras que otros son exclusivos de la forma en que ésta haya sido construida, y que en general todos los resultados poseen un buen grado de robustez, lo que permite reproducirlos fácilmente en bases de datos con distintos tipos de información multimedia.
|
260 |
Búsqueda en Texto Mediante un Índice Comprimido de Q-GramasArroyo García, Hernán Enrique January 2010 (has links)
No autorizado por el autor para ser publicada a texto completo / La cantidad de datos disponibles crece de forma dramática cada día. Esto trae consigo la necesidad de poder manejar éstos datos de forma adecuada, de manera de poder acceder a estos de forma eficiente y al mismo tiempo ahorrar espacio de almacenamiento. En particular, para manejar grandes cantidades de texto una herramienta clave son los índices de texto, y en el contexto de este trabajo los índices comprimidos, los cuales no sólo responden consultas de forma rápida sino que también almacenan sus datos y el texto en forma eficiente.
El objetivo general del presente trabajo fue desarrollar un índice comprimido basado en listas de ocurrencias de los q-gramas del texto y comprimir este último. Se desea comparar la eficacia de este índice con los auto-índices ya desarrollados en el sitio Pizza&Chili (http://pizzachili.dcc.uchile.cl).
Un índice invertido de q-gramas permite encontrar patrones en un texto. Para tal efecto las consultas se dividen en dos etapas. En la primera etapa se seleccionan las regiones del texto (llamadas bloques) donde ocurren todos los q-gramas del patrón y por lo tanto éste podría encontrarse. En la segunda etapa se verifica si efectivamente el patrón se encuentra en los bloques que fueron seleccionados.
Además es necesario almacenar el texto de forma independiente. En la implementación realizada se mantiene el texto dividido en bloques comprimidos, los cuales se almacenan en memoria secundaria. Esto permite utilizar menos espacio y acceder a los bloques individualmente.
Se implementaron diversos algoritmos para comprimir el índice y realizar consultas. Además se diseñaron y ejecutaron experimentos para medir el rendimiento de las distintas variantes obtenidas al combinar los diferentes algoritmos. En base a los resultados obtenidos se seleccionaron los algoritmos que presentaron mejor rendimiento tanto en velocidad como en niveles de compresión alcanzados.
De la misma forma se implementaron y midieron experimentalmente alternativas para comprimir y buscar en el texto.
Finalmente se comparó el rendimiento de las variantes seleccionadas del índice frente a los índices competitivos presentes en el sitio Pizza&Chili.
Los resultados indican que el índice tiene un rendimiento competitivo para búsquedas de patrones pequeños.
|
Page generated in 0.0868 seconds