• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1458
  • 93
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1603
  • 521
  • 488
  • 379
  • 369
  • 369
  • 369
  • 369
  • 333
  • 313
  • 297
  • 231
  • 211
  • 195
  • 192
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Construcción y validación de una metodología de seguimiento para modelos de regresión logística

Covarrubias Mondaca, Gabriela Esmeralda January 2012 (has links)
Este trabajo de título tiene por objetivo general construir, implementar y validar una metodología de seguimiento no supervisada, para detectar cambios significativos en la distribución de las variables, en modelos de regresión logística. El problema de seguimiento corresponde a detectar cambios en un modelo de minería de datos cuando éste es construido usando bases de datos no-estacionarias, es decir, conjuntos de información a los cuales constantemente se les están agregando nuevas observaciones. La consecuencia de estos cambios es que progresivamente el modelo perderá validez, por lo que deberá ser recalibrado en algún momento. El enfoque desarrollado para las metodologías propuestas es que cada parámetro de un modelo de regresión logística asociado a la variable x_i del modelo posee un intervalo de confianza donde se presume que se encuentra su valor real. El supuesto es que si la población cambia de tal manera que el nuevo parámetro estimado está fuera de este intervalo, entonces el modelo no es válido para esa nueva muestra. Se considera que el cuociente entre las medias es una buena medida del cambio entre dos muestras, solamente que no considera el efecto de la forma de la distribución. Es por ello que se corrige la media dividiéndola por la varianza muestral, obteniendo un coeficiente llamado ICV. Se plantean dos modelos a contrastar con el intervalo de cambio máximo: ICV-1 que corresponde al módulo de la diferencia del ICV de cada muestra e ICV-2 que corresponde al cuociente de dichos valores. Se construyó un modelo de regresión logística utilizando una base datos de comportamiento crediticio, cuyo error de predicción total fue de 23,3%. Con los parámetros de este modelo se construyeron los intervalos de cambio máximo para cada variable y se las perturbó de tres maneras distintas para proceder a la validación. Al aplicar los modelos propuestos, junto con otras metodologías de seguimiento, se concluye que ICV-1 presenta problemas debido a la forma en que se ha definido el intervalo de cambio máximo e ICV-2 tiene un buen rendimiento, comparable con el de Stability Index y la Distancia de Hellinger y considerablemente mejor que el test K-S y el test Chi-cuadrado.
202

Sistema de detección de tendencias en la Web 2.0 basado en algoritmos de calificación de relevancia y selección automática de fuentes de documentos

Dueñas Fernández, Rodrigo Alfonso January 2012 (has links)
Ingeniero Civil en Computación / El objetivo de esta memoria es solucionar las falencias de un sistema informático para la detección de tendencias en la Web de la consultora Duam S.A., a través del rediseño de su arquitectura de hardware y software, y la modificación de sus algoritmos de extracción de conocimiento. Haciendo uso de este sistema informático, Duam S.A. ofrece el servicio de inteligencia de mercado a variadas empresas, el cual consiste en la realización de un informe donde se analiza el mercado en el cual están inmersas estas instituciones, señalando sus principales competidores, posibles amenazas, oportunidades de inversión, nuevas tecnologías, etc. Este estudio es realizado a través del minado de documentos desde blogs y sitios de noticias, junto con el análisis de las opiniones vertidas en la Web por parte de los usuarios de las redes sociales. Debido a la alta cohesión del código utilizado por el sistema, replicar los procesos internos era una tarea ardua que involucraba altos costos para la empresa, por lo que no era factible dar abasto al minado de cientos de fuentes de documentos o al análisis de múltiples temáticas. Por otro lado, sus algoritmos de extracción de conocimiento no aprovechaban toda la información presente en los documentos recuperados. Además, el uso de una arquitectura física sin separación de capas, no permitía que el sistema escale eficientemente, por lo que la plataforma no era capaz de escalar acorde a la cantidad de fuentes. Por esta misma razón, el exponer la información recuperada para otras aplicaciones mermaba el rendimiento total de la aplicación. Como solución a esta problemática, se desarrollaron nuevos algoritmos de extracción de información y conocimiento desde la Web 2.0 basándose en dos hipótesis: la primera es que es posible obtener fuentes presentes en web que aporten a los resultados obtenidos a partir del análisis de la información existente en los documentos minados por el sistema. La segunda hipótesis es que es posible hacer uso de los emoticones que se encuentran en los documentos opinados para obtener mejores resultados en la extracción de opiniones a partir de estos. Para solucionar los problemas de escalabilidad del sistema se rediseñó la arquitectura considerando múltiples capas de procesamiento en donde todas las componentes están comunicadas y orientada a servicios. Para remediar las falencias del sistema desde el punto de vista de software se modularizó cada una de sus componentes y se planteó una arquitectura para aplicaciones orientadas a terceros con el fin de que estas no mermen su rendimiento. Además, se implementó un algoritmo de calificación de relevancia y selección automática para fuentes de documentos para que la información recuperada retroalimente al sistema. Finalmente, se modificó el algoritmo de extracción de opiniones para que hiciera uso de los emoticones presentes en los documentos opinados a la hora de clasificar éstos según su polaridad. El rediseño de la arquitectura del sistema resultó ser exitoso, reduciendo el uso de recursos, permitiendo la escalabilidad del sistema y además, la replicación de sus procesos internos para analizar múltiples temáticas a la vez. En cuanto al modelo de minado de opiniones, este obtuvo mejores resultados que el original. Al detectar opiniones positivas, el recall aumento de un 0.59 a un 0.62, y la precision de 0.6 a 0.67; mientras que al detectar opiniones negativas, el recall y la precision aumentaron en 0.02 y 0.03 respectivamente. Para el algoritmo de calificación de relevancia, se obtuvo un recall de 0.62 y una precision de 0.35, que están dentro de los rangos esperados debido a la gran cantidad de ruido inducida por nombres de dominio que aparecen pocas veces entre los documentos minados. Se concluye que realizar el rediseño de la plataforma fue beneficioso para la empresa, desde el punto de vista de negocio, debido a la reducción en costo humano que esta implica, y además, la mejora en los resultados entregados por el algoritmo de minado de opiniones permite una mejor apreciación del sistema por parte del usuario final. Así mismo, la posibilidad de incluir aplicaciones orientadas a terceros abre nuevas posibilidades de negocio para la empresa.
203

Visualización espacio/temporal de eventos noticiosos

Palma Pradena, Camilo Pablo Antonio January 2013 (has links)
Ingeniero Civil en Computación / Todos los días y a toda hora ocurren eventos en el mundo. Los eventos importantes pasan a ser noticia y generan contenido en la Web. La motivación de este trabajo es visualizar este tipo de datos, mediante la construcción de una aplicación, para saber qué ocurre en un determinado intervalo de tiempo y a su vez utilizar esta herramienta para investigación de datos estructurados de noticias. Para ello fue necesario investigar cómo visualizar eventos, para entregar de manera efectiva la información de estas noticias. También, analizar las distintas fuentes de datos de noticias disponibles en la web, como Google News y Feedzilla, para poder recolectar datos y validar una solución. Además, se modeló un diseño de base de datos que permite unificar la estructura de los datos de distintas fuentes. Se desarrolló una aplicación web llamada Eventsvis capaz de visualizar datos estructurados de noticias, en la que se muestra la relevancia, ubicación, categoría y fecha en la que ocurren estas noticias. También, se desarrollaron dos módulos capaces de recolectar noticias tanto de la API de Google News como de la API de Feedzilla. Además, esta información se enriqueció con información adicional que no era entregada por las fuentes, como la ubicación de las noticias y keywords del contenido de estas. Finalmente se pudo automatizar la recolección de noticias mediante un cron. Como resultado de la solución desarrollada, se pudo obtener información adicional de los conjuntos de datos solamente observando la visualización. Se determinó que ciertas categorías son más difíciles de georeferenciar que otras, también que en ciertos intervalos de tiempo no se recolectaban datos y que ciertas ubicaciones poseen más noticias que otras. Al mismo tiempo, se construye una herramienta capaz de mostrar los eventos ocurridos en un intervalo de tiempo. Finalmente, se discute cómo sería posible extender este trabajo o reutilizar este trabajo para utilizar otras fuentes de datos.
204

Eficiencia en instituciones microfinancieras - aplicación del DEA : (análisis envolventes de datos)

Farfán Herrera, Jorge Luis, Ruiz Fernández, Frida Angélica January 2005 (has links)
Las instituciones de microfinanzas (IMF) en el Perú se pueden agrupar en Cajas Municipales de Ahorro y Crédito (CMAC), Cajas Rurales de Ahorro y Crédito (CRAC) y Empresas de Desarrollo de la Pequeña y Micro Empresa (EDPYME). Los tres tipos de IMF se diferencian desde su origen por el objetivo, la coyuntura económica y política, y el marco legal bajo el cual fueron creados. De acuerdo con el marco normativo, cada uno de los sistemas microfinancieros se encuentra autorizado a realizar diferentes tipos de operaciones, y el universo de dichas operaciones no es el mismo que el permitido a las empresas bancarias. Este trabajo intenta responder a dichos planteamientos y analiza la eficiencia relativa de las IMF aplicando una herramienta no tradicional: el análisis envolvente de datos (DEA, por sus siglas en inglés). El trabajo se divide en cuatro secciones. En la primera sección se desarrolla el marco teórico y la metodología por usar; en la segunda sección se esboza una reseña del sector y de la eficiencia de las instituciones microfinancieras en el Perú. En la tercera sección se especifica el modelo, la selección de las variables para aplicar el DEA y se analizan los resultados obtenidos. Una simulación de cambios regulatorios y su impacto en el nivel de eficiencia se desarrolla en la cuarta sección. Finalmente, se presentan las conclusiones y recomendaciones.
205

Bloomberg UPT 2019. Parte 3 de 12. Bloomberg for Education

Rojas, Javier 05 November 2019 (has links)
La Universidad Peruana de Ciencias Aplicadas (UPC) fue sede de la segunda edición del “University Premium Training” organizada por Bloomberg, empresa líder en información financiera y económica a nivel mundial. / El evento, que fue realizado los días 5, 6 y 7 de noviembre en el campus San Isidro, tuvo como objetivo poder reforzar las competencias de los docentes de diversas universidades de Lima que emplean Bloomberg como una herramienta didáctica para la educación y planificación financiera. Esta compañía brinda herramientas de software financiero, como análisis, plataformas de comercio capital y servicios de datos para las empresas quienes deseen consultar información bursátil y financiera en tiempo real. / Además, se contó con la participación de expertos que emplean la herramienta como apoyo para la toma de decisión financiero: Lizzette Lara; especialista en riesgos y derivados, André Lapponi; especialista Senior en Portafolio y Análisis técnico, Pedro Cortejo, CEO-Founder de Decision Capital, entre otros. / Se explica cómo mejorar el flujo de aprendizaje de la terminal en las universidades, los flujos de información en los equipos de trabajo, y las bases de datos de índices. Finalmente, se presentan ejemplos y casos y se interpretaron algunos gráficos. Ponente: Javier Rojas, responsable por las operaciones de Bloomberg en Perú.
206

Adaptación y aplicación del índice de pobreza hídrica en el Valle de Azapa, Región de Arica y Parinacota, para apoyar la gestión territorial e institucional / Adaptation and aplication of the water poverty index in azapa Valley, Arica y Parinacota Region, to support the local and institutional management

Araya Valenzuela, Dámare January 2015 (has links)
Memoria para optar al título profesional de Ingeniera en Recursos Naturales Renovables / El Índice de Pobreza Hídrica (WPI, por sus siglas en inglés) es un índice compuesto, desarrollado por el Centro para la Ecología e Hidrología de Reino Unido en 2002, que busca apoyar el proceso de toma de decisiones respecto a la gestión de los recursos hídricos. El índice integra factores humanos, técnicos y ambientales, que reflejen la condición actual de un territorio. siguiendo una estructura compuesta, en base a 5 ámbitos: Recurso, Acceso, Capacidad, Uso y Ambiente. Cada uno de los ámbitos se compone de variables, que al ser evaluadas a través de indicadores, entregan un valor de WPI, variando de 0 a 100, donde 0 es alta pobreza hídrica, es decir, la ausencia de alguna dimensión de la gestión hídrica obstaculizan el desarrollo de la población, a 100, nula pobreza hídrica, donde la gestión favorece el desarrollo. El presente trabajo adaptó el Índice de Pobreza Hídrica para el Valle de Azapa, Región de Arica y Parinacota, mediante metodologías participativas. Este proceso constó de tres etapas: 1) Identificación de variables relevantes (entrevistas y primer grupo focal) 2) Búsqueda y análisis de indicadores e información para determinar la factibilidad de evaluar las variables identificadas (trabajo de gabinete) 3) Aprobación de variables e indicadores y determinación de pesos relativos de variables y ámbitos (segundo grupo focal). Se evaluaron un total de 10 variables, resultando un valor de Índice de Pobreza Hídrica de 49,81, equivalente a alta pobreza hídrica (poco seguro), es decir, a una condición de vulnerabilidad, asociada a los recursos hídricos, donde el equilibrio entre los sistemas ambientales, sociales y económicos permiten el desarrollo, pero es inseguro. Posteriormente se identificaron las variables relevantes para mejorar esta situación, reconociendo dos vías de análisis, una que agrupa a las variables con mayor influencia en el Índice (mayor peso relativo), y otra que selecciona las variables de menor complejidad de intervención (que la decisión recaiga sólo en un actor y/o que actualmente existan mecanismos que permitan su mejora). De ambos grupos, el que mayor impacto genera es el segundo, que incluye las variables Estado de canales (Acceso), Escuelas (Capacidad), Capacitaciones (Capacidad), y Tecnificación (Uso), generando un aumento de 23,34 puntos, resultando en un Índice de Pobreza Hídrica de 73,15, alcanzando la seguridad hídrica. / The Water Poverty Index (WPI) is a composite index developed by the Centre for Ecology and Hydrology of the United Kingdom in 2002, that aims to support the decision making process regarding water resources. The index integrates human, technical and environmental factors that reflect the territory’s conditions, through a composite structure based in 5 components: Resources, Access, Capacity, Use and Environment. Each of them is formed by variables, which, after being evaluated through indicators, create a WPI value that moves from 0, meaning high water poverty- the lack of any dimension of water management hinders development- and 100, null water poverty, where management facilitates the territory’s development. The present work adapted the Water Poverty Index in Azapa Valley, Arica y Parinacota Region, through participatory methods (interviews and focal groups). This process was developed in three phases: 1. Identification of important variables (through interviews and a first focal group) 2. Research and analysis of indicators and information to determined the feasibility of evaluating the identified variables. 3. Approval of variables and indicators and determination of relative weights (second focal group) A total of 10 variables were evaluated, resulting in a WPI of 49,81, high water poverty, meaning a vulnerability condition, associated to water resources, where the balance among the social, environmental and economical systems allows development, but is unsafe. After the variables’ identification and evaluation, an analysis to determine which variables were relevant to improve the situation was made, recognizing two possible intervention lines: one that works with the variables that have more influence in the WPI value and a second line that considers actions in those variables with lower intervention complexity (were the decision making process is only depending on one actor or that currently have improvement mechanisms). The line that more impact caused in the final WPI value was the second, including the variables of Canals’ condition (Access), Schools (Capacity), Trainings (Capacity) and Technification of irrigation systems (Use), producing an increment of 23,34 points, resulting in a WPI of 73,15, reaching water security.
207

Diseño y optimización de una pauta de mantenimiento para equipos móviles en una operación minera subterránea

Domic Bouza, Juraj Nicolás January 2013 (has links)
Ingeniero Civil Industrial / La industria minera se caracteriza por requerir fuertes inversiones de capital para el desarrollo de proyectos, dentro de los cuales los servicios de construcción pueden concentrar cerca del 45% de los costos de un proyecto. En este contexto, una empresa proveedora especializada en servicios de construcción subterránea presenta un aumento de costos y horas de falla de sus equipos críticos. La disponibilidad física, si bien se mantiene por sobre el promedio requerido, presenta períodos en que se encuentra por debajo del límite de 85%. A partir de los registros operacionales y de mantenciones de equipos, se busca determinar las condiciones que favorecen la ocurrencia de fallas, como también obtener períodos de trabajo entre mantenciones preventivas que permitan maximizar el beneficio o disponibilidad esperada. El trabajo se realiza en tres etapas: Consolidación de registros operacionales y mantención, estimación de la probabilidad de falla de equipos a partir del ajuste de distribuciones de probabilidad o modelos de minería de datos, determinar una pauta de mantenimiento para cada tipo de equipo dependiendo del modelo escogido. De acuerdo a los modelos predictivos, la variable principal corresponde a las horas de mantenimiento correctivo recibido, aumentando la probabilidad de falla en la medida que el equipo recibe mayores horas de reparación. Dejando fuera esta variable, la utilización, productividad y horas de mantenimiento preventivo corresponden a las variables explicativas. Si bien se proponen distintas teorías, la información actual del modelo es insuficiente para determinar la causa principal de este fenómeno. Para el caso de los equipos scoop y jumbo se obtienen modelos de Regresión Logística y Árbol de Decisión que alcanzan precisiones en torno al 30%, mejorando la proporción inicial de fallas de 8%. La aplicación de modelos predictivos se traduce en un ahorro estimado de 4% sobre los costos de reparación anuales. A partir del análisis de funciones de probabilidad de falla se determinan intervalos de mantención eficientes para cada equipo: 25 horas efectivas de trabajo para los equipos dumper, 2970 metros perforados para equipos jumbo y 473 paladas para el caso de equipos scoop. Los dos primeros resultados suponen una reducción de los intervalos actuales de la constructora, mientras que para los equipos jumbo un leve aumento. Recomendaciones finales del trabajo incluyen mejorar el sistema de registros, consolidar la información de operador y mecánico, incorporar indicadores de mantenimiento preventivo y realizar un seguimiento de equipos reparados. Aplicar los modelos a nivel de equipos y componentes, como también incorporar nuevas variables explicativas, pueden ser alternativas interesantes de trabajo futuro.
208

Modelling dynamics of RDF graphs with formal concept analysis

González González, Larry Javier January 2018 (has links)
Magíster en Ciencias, Mención Computación / La Web Semántica es una red de datos organizados de tal manera que permite su manipulación directa tanto por humanos como por computadoras. RDF es el framework recomendado por W3C para representar información en la Web Semántica. RDF usa un modelo de datos basado en grafos que no requiere ningún esquema fijo, provocando que los grafos RDF sean fáciles de extender e integrar, pero también difíciles de consultar, entender, explorar, resumir, etc. En esta tesis, inspirados en formal concept analysis (un subcampo de las matemáticas aplicadas, basados en la formalización de conceptos y jerarquı́as conceptuales, llamadas lattices) proponemos un data-driven schema para grandes y heterogéneos grafos RDF La idea principal es que si podemos definir un formal context a partir de un grafo RDF, entonces podemos extraer sus formal concepts y computar una lattice con ellos, lo que resulta en nuestra propuesta de esquema jerárquico para grafos RDF. Luego, proponemos un álgebra sobre tales lattices, que permite (1) calcular deltas entre dos lattices (por ejemplo, para resumir los cambios de una versión de un grafo a otro), y (2) sumar un delta a un lattice (por ejemplo, para proyectar cambios futuros). Mientras esta estructura (y su álgebra asociada) puede tener varias aplicaciones, nos centramos en el caso de uso de modelar y predecir el comportamiento dinámico de los grafos RDF. Evaluamos nuestros métodos al analizar cómo Wikidata ha cambiado durante 11 semanas. Primero extraemos los conjuntos de propiedades asociadas a entidades individuales de una manera escalable usando el framework MapReduce. Estos conjuntos de propiedades (también conocidos como characteristic sets) son anotados con sus entidades asociadas, y posteriormente, con su cardinalidad. En segundo lugar, proponemos un algoritmo para construir la lattice sobre los characteristic sets basados en la relación de subconjunto. Evaluamos la eficiencia y la escalabilidad de ambos procedimientos. Finalmente, usamos los métodos algebraicos para predecir cómo el esquema jerárquico de Wikidata evolucionaría. Contrastamos nuestros resultados con un modelo de regresión lineal como referencia. Nuestra propuesta supera al modelo lineal por un gran margen, llegando a obtener un root mean square error 12 veces más pequeño que el modelo de referencia. Concluimos que, basados en formal concept analysis, podemos definir y generar un esquema jerárquico a partir de un grafo RDF y que podemos usar esos esquemas para predecir cómo evolucionarán, en un alto nivel, estos grafos RDF en el tiempo.
209

Mejora del proceso de selección de proyecto de investigación y desarrollo en Molymet

Soto Infante, Christian Ignacio January 2018 (has links)
Magíster en Ingeniería de negocios con Tecnologías de Información / En las empresas del área de los commodities el crecimiento siempre está acotado a la demanda mundial del producto. Un crecimiento mayor solo puede lograrse a partir de la exploración de nuevos negocios y la empresa ha depositado su confianza en la innovación como el motor generador de proyectos conducentes a este objetivo. Las ideas de proyectos conducentes a nuevos negocios deben provenir de información externa a la empresa, puesto que la información interna apunta solo a la mejora continua. En este sentido, se ha utilizado la vigilancia tecnológica como herramienta de análisis del entorno competitivo, aunque sin contar con un proceso bien definido y coherente dada la gran cantidad de información disponible. En el presente proyecto se propone el rediseño de este proceso, incluyendo una herramienta tecnológica que permita realizar un análisis global de toda la información disponible. El conocimiento generado se utilizará para apoyar la toma de decisiones respecto a la selección de proyectos de investigación. Una toma de decisiones informada permite además disminuir la incerteza y por lo tanto aumentar el índice de proyectos exitosos. Para el desarrollo se utilizaron las metodologías de ingeniería de negocios de Barros y la de extracción de conocimiento CRISP-DM. Se utilizaron modelos de extracción de tópicos y se determinó que LDA es el modelo que funciona mejor dada la naturaleza del cluster objetivo, obteniéndose tópicos y subtópicos perfectamente interpretables. Además, se construyó una herramienta de visualización que facilita la selección del número óptimo de tópicos y que permite exportar la información en forma de reportes HTML, y un sistema de recomendación de documentos basado en citaciones. La evaluación económica y el análisis de sensibilidad permiten concluir que el proyecto se justifica económicamente siempre que el aumento en el índice de proyectos exitosos sea mayor a 0.13%. Valor relativamente bajo si se considera que el índice de proyectos exitosos actual ronda el 11%. Se espera que la aplicación de un proyecto de esta naturaleza signifique un incentivo para crear proyectos de mejora similares, que utilicen tecnologías de información como una alternativa a los proyectos de ingeniería tradicional.
210

Canonicalisation of SPARQL Queries

Salas Trejo, Jaime Osvaldo January 2018 (has links)
Magíster en Ciencias, Mención Computación. Ingeniero Civil en Computación / SPARQL es el lenguaje de consulta estándar para RDF, definido por el World Wide Web Consortium. Presentemente, hay una gran cantidad de servicios de consulta de SPARQL en la Web. También hay una gran demanda por estos servicios diariamente. Debido a la gran cantidad de consultas que deben procesar estos servicios, los procesadores sufren una sobrecarga que podría ser reducida si fuésemos capaces de detectar consultas equivalentes. Nuestra propuesta consiste en el diseño y la implementación de un algoritmo de canonicalización eficiente, el cual nos permitirá computar una forma canónica para las consultas. Las consultas que sean equivalentes deben tener la misma forma canónica, lo cual haría posible detectar un mayor número de consultas duplicadas. Hemos cubierto una parte significante de SPARQL 1.0 con nuestro trabajo; principalmente consultas que tengan la forma de uniones de consultas conjuntivas. El algoritmo que hemos desarrollado realiza una canonicalización completa de las consultas que contienen estas operaciones. Para las otras operaciones, realizamos una canonicalización parcial, pues estas otras operaciones son usadas popularmente en consultas reales. Hemos diseñado experimentos para probar la correctitud y el desempeño de nuestro algoritmo en comparación contra otros métodos sintácticos. Realizamos nuestros experimentos sobre consultas reales extraídas de bitácoras de bases de datos de RDF, y también sobre consultas sintéticas que diseñamos para forzar un mal comportamiento del algoritmo. Los resultados de nuestros experimentos son excitosos, pues la mayoría de las consultas reales son procesables en un tiempo corto, menor a un segundo. El número de consultas duplicadas encontradas es considerablemente superior que las encontradas por el algoritmo base definido. Finalmente, el algoritmo deja de funcionar únicamente para las consultas sintéticas diseñadas por nosotros, y de una gran complejidad, las cuales no ocurren en la práctica. El siguiente documento presenta el trabajo hecho.

Page generated in 0.0543 seconds