• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1432
  • 90
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1574
  • 511
  • 480
  • 355
  • 345
  • 345
  • 345
  • 345
  • 328
  • 292
  • 289
  • 222
  • 210
  • 193
  • 185
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Webinar Tecnológico. Desarrollo y Gestión de Proyectos de Software: Programación Reactiva en Java con Spring

Medina, Jaime 22 May 2020 (has links)
La programación reactiva es un paradigma enfocado en el trabajo con flujos de datos de manera asíncrona. En este webinar veremos cómo Spring Framework implementa la programación reactiva con WebFlux.
92

Desafío de los Derechos Digitales y la Soberanía de Datos / VI Semana de Derecho

Keane Woods, Andrew 06 November 2020 (has links)
Ponente: Andrew Keane Woods, profesor de la Universidad de Arizona - USA / Desafío de los Derechos Digitales y la Soberanía de Datos
93

Sistematización del proceso de depuración de los datos en estudios con seguimientos

Bonillo Martín, Albert 15 September 2003 (has links)
El objetivo principal de esta tesis es realizar un análisis exhaustivo de los errores de tipo lógico que pueden presentarse en los datos ya grabados y aportar un procedimiento sistemático original para detectarlos y corregirlos. Para ello se ha programado un conjunto de macros SPSS que permiten detectar todos estos errores, generar de forma totalmente automática un informe de incidencias para corregirlos y ofrecer una estadística final de errores. Los algoritmos de estas macros son fácilmente transportables a SAS o a otros sistemas.El procedimiento propuesto consiste en crear un archivo de sintaxis con un conjunto de llamadas a macros que realizan el proceso de acuerdo con las siguientes fases: 1) lectura de la tabla con los datos originales grabados; 2) depurar el identificador para garantizar que cada registro está unívocamente identificado y se adecua a las formas normales de integridad referencial de la teoría relacional; 3) corregir las incidencias detectadas en el indentificador; 4) incorporar las variables de referencia de otras tablas que sean necesarias para depurar la tabla de datos; 5) depurar las variables de salto; 6) corregir las incidencias detectadas en las variables de salto; 7) depurar el resto de variables del estudio, detectando las incidencias que sean consecuencia de inconsistencias y los valores desconocidos; 8) corregir las incidencias detectadas, introduciendo el valor correcto o valor desconocido si no se conoce el valor correcto; y 9) generar una estadística de los errores detectados y de los valores desconocidos presentes en la matriz de datos depurados.El proceso comporta realizar de forma iterativa las fases de chequeo y corrección hasta que las únicas incidencias detectadas sean valores desconocidos no recuperables. Asimismo, el proceso incorpora un historial de cambios que permita conocer todas las modificaciones efectuadas sobre los datos originales. La tesis se estructura en seis capítulos, los tres primeros de carácter teórico y los tres últimos aplicados.El capítulo primero revisa de forma sucinta los conceptos básicos de "medida" en psicología y "error", así como los controles que se deben implementar para minimizar las incidencias en el proceso de los datos, distinguiendo entre aquellos que son aplicables a la captura diferida y los que lo son a la captura directa. El segundo capítulo se centra en la definición operativa del error en el proceso de la gestión de los datos, exponiendo la necesidad de evaluar la calidad de la información previamente a su análisis estadístico e introduciendo el concepto de depuración.En el tercer capítulo se revisan múltiples controles propuestos para distintas tipologías de variables. Se muestran técnicas de detección de errores por registros duplicados, en variables cuantitativas, en variables categóricas, etc. Así mismo, se presentan técnicas novedosas en la detección de errores que, pese a ser habituales en otras disciplinas como la economía o la auditoría, no lo son en absoluto en las Ciencias de la Salud.En el cuarto capítulo, de carácter aplicado, se expone el proceso de depuración propuesto en esta tesis y se especifican controles y chequeos para todas las tipologías de variables descritas en los apartados teóricos, se detalla el tipo de comprobación que debe efectuarse y el algoritmo en pseudocódigo que permite su implantación. Asimismo, para cada tipo de variable se ha programado una macro en lenguaje SPSS que permite automatizar el control.En el quinto capítulo se detalla la aplicación de la metodología de depuración propuesta a datos reales: la Encuesta Sociodemográfica, el Conjunto de Datos Mínimo de Alta Hospitalaria y la Historia Clínica Electrónica. Estos ejemplos se caracterizan por bases de datos extensas y de estructura compleja. En esta parte del trabajo se expone de qué modo se ha realizado la depuración y se valora el comportamiento mostrado por este proceso. Finalmente, en el último capítulo se exponen las principales conclusiones y se discuten las implicaciones teóricas y prácticas de este trabajo. / The primary target main purpose of this thesis is to contribute improve data quality with a procedure that allows to detect and to correct errors in the recorded data already recorded. To do this, For it a data cleansing purgingcleansing /depuration/(busca una palabra más técnica en la literatura) process has been designed that is organized in the following phases: 1) reading of the recorded data; 2) depuration/purge cleans of the identifier, guaranteeing that each registry is univocally identified and that is adapted to the referential integrity normal forms of referential integrity of the relational theory; 3) correction of the incidences detected in the indentificador identifier 4) depuration/purge cleans of the skip (¿No hay una palabra más técnica para variable de salto? Esto Lourdes no lo sabrá y yo tampoco) skip variables, 5) correction of the incidences detected in the skip variables, 6) cleans purge/depuration of the other rest of variables of the study, by detecting the incidences contained in the recorded data like that are not known consequence of inconsistencieas (inconsistencies) and missing (desconocidos) values; 7) correction of the detected incidences, introducing whenever it is possible the correct value or assigning to missing value when it is not had this one; and 8) obtaining of a statistic of the errors detected by the data cleansingcleans purge/depuration process and of the unknown/missing values contents in the final data.It is important to repeat in an iterative form tThe phases of control and correction are due to make of iterative form until the only detected incidences would beare missing and nonrecoverable values nonrecoverable. Also, this data cleansing process of cleansing must be accompanied by a file of historical changes that allows to know all the modifications conducted from in the original data. The systematic controls of this design must be integrated through macros (for example in SPSS or SAS language SPSS or SAS) that automates and guarantees them their functionality. In addition, we have elaborated created the macros in SPSS syntax SPSS to carry out the data cleansingcleansing; the algorithms contained in these macros are easily transportable to other statistical packages.This thesis is structured in six chapters, the three first three chapters are of theoretical character and the other are three last ones applied.The first chapter first reviews the basic concepts of measure and error in psychology and error, as well as the controls that it is necessary to are due to implement to diminish the incidences in the dataof the data. We, distinguishing between controls that they are applicable to the deferred capture and those that are it applicable to the direct capture.The second chapter is centered focused in on the operative definition of the error in the process of the management of the data process. We, explainhaving exposed it is necessarythe necessity to previously evaluate the quality of the information prior to conduct to its statistical analysis, and introduceing the cleansing concept of data cleansing.In the third chapter they we review manifold many controls proposed for different tipology from of variables. Are Ttechniques to detect of detection of errors by duplicated records, in quantitative and variables, categorical variables, etc., are shown. Also, we show novel new techniques in the detection of errors appear that are wellknown , in spite of to be habitual in other disciplines like the economy economics or the auditory, but unknown in the Health Sciencesare not it absolutely in Sciences of the Health.In the fourth chapter, of applied character, the data cleansing process of cleansing is exposed proposed in this thesis and controls are specified and controls for all the tipology of variables described in the theoretical sections are specified. We, detail the type of verification that must take place and the algorithm in pseudocode that allows its implementationantation. Also, for each type of variable a macro in SPSS language SPSS has been programmed that allows to automate the control.In the fifth chapter the application to real data of this proposed depuration process the methodology of propose purification to real data is detailedspecified: the Sociodemographic Survey, the Minimum Data set of Hospitable Discharge and the Electronic Clinical History. These examples are characterized by large and complex structure data bases extensive complex structure and data bases. In this part of the work it is exposed how the purification data cleansing process has been made in this case and the behavior shown by this process is valued.Finally, in the last chapter the main conclusions are exposed and the theoretical and practical implications of this work are discussed.
94

Extracción de conocimiento en grandes bases de datos utilizando estrategias adaptativas

Hasperué, Waldo 27 March 2012 (has links)
El objetivo general de esta tesis es el desarrollo de una técnica adaptativa para la extracción de conocimiento en grandes bases de datos. Hoy en día, la tecnología posibilita el almacenamiento de enormes volúmenes de información. Por tal motivo, resulta de interés contar con técnicas que permitan, en una primera etapa, analizar tal información y obtener conocimiento que pueda ser expresado como reglas de clasificación. Sin embargo, es de esperar que la información disponible se modifique o incremente a lo largo del tiempo y por lo tanto, en una segunda etapa, sería relevante poder adaptar el conocimiento adquirido a los cambios o variaciones que ocurran en el conjunto de datos original. El aporte de la tesis está centrado en la definición de una técnica adaptativa que permite extraer conocimiento de grandes bases de datos a partir de un modelo dinámico capaz de adaptarse a los cambios de la información, obteniendo así una técnica de minería de datos que sea capaz de generar conocimiento útil, produciendo resultados que sean de provecho al usuario final. Los resultados de esta investigación pueden aplicarse en áreas tales como análisis de suelos, análisis genético, biología, robótica, economía, medicina, detección de fallas en plantas y comunicación de sistemas móviles. En estos casos es importante la obtención de un resultado óptimo, de modo de mejorar la calidad de las decisiones que se toman a partir del procesamiento. Desde el punto de vista informático estos problemas son un desafío interesante debido al volumen y distribución de los datos a analizar (incluso su complejidad) para obtener el conocimiento buscado.
95

Análisis de archivos Logs semi-estructurados de ambientes Web usando tecnologías Big-Data

Villalobos Luengo, César Alexis January 2016 (has links)
Magíster en Tecnologías de la Información / Actualmente el volumen de datos que las empresas generan es mucho más grande del que realmente pueden procesar, por ende existe un gran universo de información que se pierde implícito en estos datos. Este proyecto de tesis logró implementar tecnologías Big Data capaces de extraer información de estos grandes volúmenes de datos existentes en la organización y que no eran utilizados, de tal forma de transformarlos en valor para el negocio. La empresa elegida para este proyecto se dedicada al pago de cotizaciones previsionales de forma electrónica por internet. Su función es ser el medio por el cual se recaudan las cotizaciones de los trabajadores del país. Cada una de estas cotizaciones es informada, rendida y publicada a las instituciones previsionales correspondientes (Mutuales, Cajas de Compensación, AFPs, etc.). Para realizar su función, la organización ha implementado a lo largo de sus 15 años una gran infraestructura de alto rendimiento orientada a servicios web. Actualmente esta arquitectura de servicios genera una gran cantidad de archivos logs que registran los sucesos de las distintas aplicaciones y portales web. Los archivos logs tienen la característica de poseer un gran tamaño y a la vez no tener una estructura rigurosamente definida. Esto ha causado que la organización no realice un eficiente procesamiento de estos datos, ya que las actuales tecnologías de bases de datos relaciones que posee no lo permiten. Por consiguiente, en este proyecto de tesis se buscó diseñar, desarrollar, implementar y validar métodos que sean capaces de procesar eficientemente estos archivos de logs con el objetivo de responder preguntas de negocio que entreguen valor a la compañía. La tecnología Big Data utilizada fue Cloudera, la que se encuentra en el marco que la organización exige, como por ejemplo: Que tenga soporte en el país, que esté dentro de presupuesto del año, etc. De igual forma, Cloudera es líder en el mercado de soluciones Big Data de código abierto, lo cual entrega seguridad y confianza de estar trabajando sobre una herramienta de calidad. Los métodos desarrollados dentro de esta tecnología se basan en el framework de procesamiento MapReduce sobre un sistema de archivos distribuido HDFS. Este proyecto de tesis probó que los métodos implementados tienen la capacidad de escalar horizontalmente a medida que se le agregan nodos de procesamiento a la arquitectura, de forma que la organización tenga la seguridad que en el futuro, cuando los archivos de logs tengan un mayor volumen o una mayor velocidad de generación, la arquitectura seguirá entregando el mismo o mejor rendimiento de procesamiento, todo dependerá del número de nodos que se decidan incorporar.
96

RDF binario para una publicación, intercambio y consumo escalable en la web de datos

Fernández García, Javier David January 2014 (has links)
Doctor en Ciencias, Mención Computación / El actual diluvio de datos está inundando la Web con grandes volúmenes de datos representados en RDF, dando lugar a la denominada Web de Datos. En la actualidad, se publican datos abiertos e interrelacionados sobre bioinformática, geografía o sobre redes sociales, entre otros, que forman parte de proyectos tan activos como Linked Open Data. Varias áreas de investigación han emergido de este diluvio; indexación y consulta de RDF (típicamente mediante el lenguaje SPARQL), razonamiento, esquemas de publicación, alineamiento de ontologías, visualización de RDF, etc. Los tópicos de la Web Semántica relacionados con RDF son, de hecho, trending topics en casi cualquier conferencia informática. Sin embargo, podemos discernir tres importantes hechos del actual estado del arte: i) se han realizado aplicaciones e investigaciones apoyándose en datos RDF, pero aún no se ha realizado un trabajo que permita entender la esencia de este modelo de datos, ii) las representaciones clásicas de RDF continúan influenciadas por la visión tradicional de la Web basada en documentos, lo que resulta en sintaxis verbosas, redundantes y, aún, centradas en humanos. Ello conlleva iii) publicaciones pobres y difusas, procesamientos complejos e ineficientes y una falta de escalabilidad para poder desarrollar la Web de Datos en toda su extensión. En esta tesis proponemos, en primer lugar, un estudio profundo de aquellos retos que nos permitan abordar un conocimiento global de la estructura real de los conjuntos de datos RDF. Dicho estudio puede avanzar en la consecución de mejores diseños de conjuntos de datos y mejores y más eficientes estructuras de datos, índices y compresores de RDF. Posteriormente, presentamos nuestra representación binaria de RDF, HDT, que afronta la representación eficiente de grandes volúmenes de datos RDF a través de estructuras optimizadas para su almacenamiento y transmisión en red. HDT representa eficazmente un conjunto de datos RDF a través de su división en tres componentes: La cabecera (Header), el diccionario (Dictionary) y la estructura de sentencias RDF (Triples). A continuación, nos centramos en proveer estructuras eficientes tanto para el diccionario como para dicha estructura de sentencias, ya que forman parte de HDT pero también de la mayoría de aplicaciones sobre grandes volúmenes de datos RDF. Para ello, estudiamos y proponemos nuevas técnicas que permiten disponer de diccionarios e índices de sentencias RDF comprimidos, a la par que altamente funcionales. Por último, planteamos una configuración compacta para explorar y consultar conjuntos de datos codificados en HDT. Esta estructura mantiene la naturaleza compacta de la representación permitiendo el acceso directo a cualquier dato.
97

Data mart para el análisis de información de clientes y sus facturaciones en una empresa de telecomunicaciones del Perú

Cantera Salazar, Mirella, Salazar Cañari, Cindy Susan January 2013 (has links)
Desarrolla una solución de inteligencia de negocio (BI) que resuelva los problemas de explotación de información de clientes y sus facturaciones, en el Área de Administración y Finanzas de una empresa de Telecomunicaciones del Perú, para llevar a cabo un adecuado análisis de información, entregando una herramienta automática para la generación de los reportes solicitados por la Gerencia General en la toma de decisiones. Para seleccionar la solución de BI más opta a las necesidades de la empresa, se realizó un análisis comparativo con otras investigaciones similares, obteniéndose como resultado el desarrollo de un Data Mart aplicando la metodología propuesta por Gill Harjinder y Rao Prakash. / Trabajo de suficiencia profesional
98

Es posible generar más competencia en el mercado de plataformas digitales y al mismo tiempo garantizar la protección de datos personales que le conciernen a los usuarios? : análisis de tres propuestas regulatorias en la era del Big Data

Arroyo Revatta, Luisa Verónica 23 March 2022 (has links)
En la actualidad, las actividades de las plataformas digitales mayoritariamente son impulsadas por datos, sobre todo datos personales. Los datos al ser información se comportan como bienes públicos; ello daría a entender que todas las plataformas podrían acceder y utilizar los mismos datos sin perjudicar a las otras. Sin embargo, diversos autores y autoridades identifican que unas cuantas plataformas que acumulan y procesan gran cantidad de datos están dominando el mercado donde operan y que nuevas y pequeñas plataformas competidoras no puedan entrar y/o quedarse en el mercado. Ante ello, surgen soluciones como la portabilidad de datos, interoperabilidad de plataformas y la compartición de datos. Estas tienen un impacto no solo en el proceso competitivo sino también en la protección de los datos personales. De esta manera, nuestro objetivo es determinar cuál de estas tres propuestas tiene mayor posibilidad de dinamizar el mercado sin descuidar la protección de datos personales ni afectar excesivamente el derecho a la libre competencia. Para ello, estudiamos cada una de las propuestas y cómo las plataformas digitales se benefician del procesamiento de grandes cantidades de datos. Asimismo, para la evaluación nos inspiramos en el test de proporcionalidad que tiene como finalidad evitar que las decisiones que intervienen en los derechos, como estas propuestas con la protección de datos personales, no sean excesivas. Luego de realizar la evaluación, concluimos que la interoperabilidad de plataformas, de manera general, podría dinamizar el mercado de plataformas digitales y a la vez garantizar la protección de los datos personales sin limitar excesivamente el derecho a la libre competencia. Además, aprendemos que cada mercado podría tener una solución específica. De esta forma, la presente tesis aporta al debate actual que aún está buscando la solución a la falta de dinamismo en diversos mercados de plataformas digitales.
99

Marco de referencia para la publicación de datos abiertos comprensibles basado en estándares de calidad

Cadena-Vela, Susana 20 November 2019 (has links)
Los portales donde se publican datos abiertos son una oportunidad para democratizar el acceso a la información generada por las instituciones del sector público, así como potenciar su reutilización. Esta reutilización de datos abiertos permite el desarrollo de nuevos productos y servicios digitales, creando oportunidades de desarrollo social y económico. Sin embargo, la reutilización de estos datos se enfrenta con diversas barreras en su expansión, debido a diversos problemas relacionados con la calidad de datos que van desde la incompletitud de los datos hasta la falta de actualización de los mismos. En concreto, un criterio relevante de calidad de datos abiertos es la comprensibilidad, ya que un proceso de interpretación errónea de los datos abiertos provocará ambigüedades o malentendidos que desmotivará su reutilización. Por esta razón, un aspecto importante en el acceso a los datos abiertos son sus metadatos, es decir aquellos datos que describen el contenido del conjunto de datos abiertos, cuya finalidad es facilitar su comprensión. Con el fin de mejorar la comprensibilidad de los datos abiertos, las propuestas actuales se centran en la evaluación de los datos ya publicados, no existiendo propuestas que evalúen cómo se puede mejorar la comprensibilidad de los datos abiertos desde los sistemas de información de origen del dato. Esta tesis doctoral revisa y analiza los trabajos de investigación en datos abiertos mediante el desarrollo de un mapeo sistemático, incluyendo un análisis de barreras en la reutilización de datos abiertos, así como buenas prácticas y estándares aplicables al proceso de publicación de datos en formatos abiertos. Este análisis sistemático de trabajos previos de investigación ha servido como punto de partida para la definición de un marco de referencia que permita la publicación de datos abiertos comprensibles. En este marco de referencia se considera la comprensibilidad de los datos abiertos mediante la gestión de los metadatos desde las mismas fuentes de datos en los sistemas de información de origen, incluyendo el concepto de fichero de datos maestros de apertura. Finalmente, cabe destacar que, a través de la aplicación del método de investigación-acción, se ha validado el marco de referencia, utilizando entrevistas y grupos de discusión con varios administradores de portales de datos abiertos.
100

Desarrollo de un sistema de inteligencia de negocios en tiempo real utilizando el enfoque Agile Data Warehousing basado en una arquitectura de virtualización de datos para el análisis del tráfico postal de la empresa Servicios Postales del Perú

Quiroz Ñato, Jorge Enrique January 2018 (has links)
Publicación a texto completo no autorizada por el autor / Desarrolla un sistema de inteligencia de negocio (BI) que resuelva los problemas de análisis y monitoreo del tráfico postal, en el Área de Postal de la empresa de Servicios Postales del Perú, para llevar a cabo un adecuado análisis de información, entregando una herramienta análisis y monitoreo de la información en tiempo real para las áreas de Gerencia Postal. El análisis del tráfico postal es muy importante y para la toma de decisiones de estas áreas, como la apertura de nuevas sucursales, la gestión del personal y creación de nuevos servicios de envíos, la fijación de tarifas de los servicios de envíos, entre otros. Para seleccionar la solución de BI más apta a las necesidades de la empresa, se realiza un análisis comparativo de arquitecturas y metodologías que son usadas para el desarrollo de soluciones de inteligencia de negocio, obteniéndose como resultado el desarrollo de una solución usando la metodología Agile Data Warehousing basado en una arquitectura de virtualización de datos. / Tesis

Page generated in 0.1106 seconds