Spelling suggestions: "subject:"based dde datos"" "subject:"based dee datos""
111 |
Análisis de la convergencia de modelos sobre las comparaciones entre ISO/IEC I2207 y el modelo CMMI-DEV-UNA revisión sistemática de la literaturaCrisóstomo Almeyda, Javier Alejandro 27 April 2017 (has links)
Las organizaciones cada vez más demandan una mejor y eficiente gestión de los procesos de desarrollo de software, pues han comprendido la importancia en proporcionar servicios de calidad alineados a sus objetivos operacionales y estratégicos. En el contexto de la Industria del Software se tienen a CMMI-DEV como el modelo más popular para la mejora de procesos y a la ISO/IEC 12207 como el estándar para la definición de los procesos en el ciclo de vida del software los cuales son comparados para analizar su cobertura y las ventajas de uno respecto del otro. En este estudio se busca analizar los resulta-dos de las comparaciones (parciales o completas) de las distintas versiones para determinar si estos modelos van evolucionando de manera convergente o no en los procesos técnicos relacionados a la producción de software. Para el estudio se realizó una revisión sistemática de la literatura en las principales bases de datos indexadas relacionadas con el tema de estudio. Este estudio ha identificado 9 artículos directamente relacionados a la comparación entre ISO/IEC 12207 y CMMI, en los cuales la técnica más empleada en la comparación de estos modelos es el mapping. / Trabajo de investigación
|
112 |
Modelo de integración de conocimiento huérfano descubierto mediante minería de datosWilford Rivera, Ingrid 10 December 2010 (has links)
No description available.
|
113 |
La adaptación de las bases de datos electrónicas internacionales al principio de territorialidad: el mercado afectadoGarcía Mirete, Carmen María 15 June 2012 (has links)
No description available.
|
114 |
Implementación de un sistema de consultas analíticas para el soporte de las decisiones en instituciones educativas públicas basado en un Datamart, aplicando la metodología HEFESTO. Caso de estudio: I.E. N° 170 Santa Rosa de SauceVilca Ypanaqué, Jorge Alberto January 2016 (has links)
Da a conocer la implementación de un sistema de consultas analíticas utilizando un datamart para la captura y análisis de información sobre los resultados de las evaluaciones de estudiantes y monitoreos docentes que disminuya el tiempo de su recopilación y explotación y facilite el acceso a datos históricos, caso de estudio I.E. N° 170 Santa Rosa del Sauce. Esta información proporcionará un análisis del estilo de desarrollo de temas de los docentes permitiéndoles saber el nivel de desarrollo de sus estudiantes, las tendencias respecto a los temas que se realizan en clase y poder realizar cambios en sus metodologías de enseñanza adecuándolas al grupo de estudios que dirige. / Tesis
|
115 |
Extracción de conocimiento en grandes bases de datos utilizando estrategias adaptativasHasperué, Waldo 27 March 2012 (has links)
El objetivo general de esta tesis es el desarrollo de una técnica adaptativa para la extracción de conocimiento en grandes bases de datos. Hoy en día, la tecnología posibilita el almacenamiento de enormes volúmenes de información. Por tal motivo, resulta de interés contar con técnicas que permitan, en una primera etapa, analizar tal información y obtener conocimiento que pueda ser expresado como reglas de clasificación. Sin embargo, es de esperar que la información disponible se modifique o incremente a lo largo del tiempo y por lo tanto, en una segunda etapa, sería relevante poder adaptar el conocimiento adquirido a los cambios o variaciones que ocurran en el conjunto de datos original. El aporte de la tesis está centrado en la definición de una técnica adaptativa que permite extraer conocimiento de grandes bases de datos a partir de un modelo dinámico capaz de adaptarse a los cambios de la información, obteniendo así una técnica de minería de datos que sea capaz de generar conocimiento útil, produciendo resultados que sean de provecho al usuario final. Los resultados de esta investigación pueden aplicarse en áreas tales como análisis de suelos, análisis genético, biología, robótica, economía, medicina, detección de fallas en plantas y comunicación de sistemas móviles. En estos casos es importante la obtención de un resultado óptimo, de modo de mejorar la calidad de las decisiones que se toman a partir del procesamiento. Desde el punto de vista informático estos problemas son un desafío interesante debido al volumen y distribución de los datos a analizar (incluso su complejidad) para obtener el conocimiento buscado.
|
116 |
Flexible techniques for heterogeneous XML data retrievalSanz Blasco, Ismael 31 October 2007 (has links)
The progressive adoption of XML by new communities of users has motivated the appearance of applications that require the management of large and complex collections, which present a large amount of heterogeneity. Some relevant examples are present in the fields of bioinformatics, cultural heritage, ontology management and geographic information systems, where heterogeneity is not only reflected in the textual content of documents, but also in the presence of rich structures which cannot be properly accounted for using fixed schema definitions. Current approaches for dealing with heterogeneous XML data are, however, mainly focused at the content level, whereas at the structural level only a limited amount of heterogeneity is tolerated; for instance, weakening the parent-child relationship between nodes into the ancestor-descendant relationship. The main objective of this thesis is devising new approaches for querying heterogeneous XML collections. This general objective has several implications: First, a collection can present different levels of heterogeneity in different granularity levels; this fact has a significant impact in the selection of specific approaches for handling, indexing and querying the collection. Therefore, several metrics are proposed for evaluating the level of heterogeneity at different levels, based on information-theoretical considerations. These metrics can be employed for characterizing collections, and clustering together those collections which present similar characteristics. Second, the high structural variability implies that query techniques based on exact tree matching, such as the standard XPath and XQuery languages, are not suitable for heterogeneous XML collections. As a consequence, approximate querying techniques based on similarity measures must be adopted. Within the thesis, we present a formal framework for the creation of similarity measures which is based on a study of the literature that shows that most approaches for approximate XML retrieval (i) are highly tailored to very specific problems and (ii) use similarity measures for ranking that can be expressed as ad-hoc combinations of a set of --basic' measures. Some examples of these widely used measures are tf-idf for textual information and several variations of edit distances. Our approach wraps these basic measures into generic, parametrizable components that can be combined into complex measures by exploiting the composite pattern, commonly used in Software Engineering. This approach also allows us to integrate seamlessly highly specific measures, such as protein-oriented matching functions.Finally, these measures are employed for the approximate retrieval of data in a context of highly structural heterogeneity, using a new approach based on the concepts of pattern and fragment. In our context, a pattern is a concise representations of the information needs of a user, and a fragment is a match of a pattern found in the database. A pattern consists of a set of tree-structured elements --- basically an XML subtree that is intended to be found in the database, but with a flexible semantics that is strongly dependent on a particular similarity measure. For example, depending on a particular measure, the particular hierarchy of elements, or the ordering of siblings, may or may not be deemed to be relevant when searching for occurrences in the database. Fragment matching, as a query primitive, can deal with a much higher degree of flexibility than existing approaches. In this thesis we provide exhaustive and top-k query algorithms. In the latter case, we adopt an approach that does not require the similarity measure to be monotonic, as all previous XML top-k algorithms (usually based on Fagin's algorithm) do. We also presents two extensions which are important in practical settings: a specification for the integration of the aforementioned techniques into XQuery, and a clustering algorithm that is useful to manage complex result sets.All of the algorithms have been implemented as part of ArHeX, a toolkit for the development of multi-similarity XML applications, which supports fragment-based queries through an extension of the XQuery language, and includes graphical tools for designing similarity measures and querying collections. We have used ArHeX to demonstrate the effectiveness of our approach using both synthetic and real data sets, in the context of a biomedical research project.
|
117 |
La actividad científica de la Cirugía de la Región de Murcia a través de sus publicaciones (1975-2009)Palomares Ortiz, Gloria María 15 November 2011 (has links)
El objetivo central de esta Tesis Doctoral es analizar las publicaciones realizadas por los Cirujanos Murcianos desde finales del siglo XX hasta nuestros días, en concreto desde 1975 hasta finales del año 2009. Así mismo se establece la evolución, perfil temático, institucional y geográfico de las publicaciones realizadas por los Cirujanos Murcianos a lo largo del periodo objeto del estudio. Para localizar e identificar correctamente las publicaciones se han utilizado Bases de Datos tanto nacionales (Índice Médico Español e IBECS) como internacionales (Medline). Se han estudiado las siguientes variables: evolución del número de publicaciones por año, autores (con especial interés en el primer autor y en el último, generalmente responsable de los Grupos de Trabajo), revistas donde se publican los artículos (analizando exhaustivamente aquellas con mayor Factor de Impacto), palabras MESH utilizadas (unificando los términos utilizando la nomenclatura DeCS de la Biblioteca Virtual de la Salud), lugar e idioma de publicación y tipo de documento. El número total de artículos publicados por los Cirujanos Murcianos es de 1096, evidenciándose un gran crecimiento de las publicaciones a lo largo del periodo estudiado. En cuanto a la autoría de las publicaciones, se destaca que existe una gran cantidad de autores con un gran número de ellas y un déficit de autores poco productores, lo que contradice la Ley de Lotka. Estos máximos productores que constituyen la élite de los Cirujanos Murcianos pertenecen a la escuela iniciada por el Dr. P. Parrilla Paricio tras su llegada a Murcia en 1975, siendo este autor el máximo productor con 810 publicaciones en total. Al analizar las revistas con mayor Factor de Impacto, se aprecia que la gran mayoría de las publicaciones realizadas en ellas, pertenecen al grupo de la élite de los autores. Al analizar las palabras MESH se identifican los Grupos de Trabajo y su interés temático, así como la tendencia a lo largo de los años a publicar en revistas internacionales sobre todo en inglés (tanto en Estados Unidos como en Gran Bretaña). En cuanto al tipo de documento, se aprecia que casi la mitad de las publicaciones corresponden a casos clínicos y a estudios comparativos.
|
118 |
Diseño de Procesos de Servicio: unidad 10Cremer, Rodolfo 07 November 2007 (has links)
Diseño de procesos de servicio, participación dle cliente y manejo de expectativas
|
119 |
Carga de datos y gestión de indicadoresEspinoza Carranza, Renato, Carreño Castillo, José Bernardo 06 November 2018 (has links)
El presente documento contiene información detallada de la gestión y desarrollo de los módulos de Carga de Datos y Gestión de Indicadores (CDGI) como parte del Sistema de Acreditación 2016. Los módulos de CDGI serán los encargados de realizar las cargas masivas de los datos requeridos en cada ciclo académico, a partir de información recopilada de distintas fuentes y organizada en hojas de cálculo. En base a la explotación de estos datos, se generarán indicadores claves de rendimiento (KPI), en forma de tablas y gráficos, que expresen el valor de cumplimiento de los objetivos de la Dirección Académica de Ingeniería de Sistemas de Información y, Ingeniería de Software y Ciencias de la Computación (DAISIICC). Los beneficios que este proyecto brindará a la DAISIICC son la simplificación del proceso de carga de información al sistema, la reducción en el tiempo necesario para la recopilación de información para las cargas, la centralización de la información recopilada y el apoyo a la toma de decisiones a través de los indicadores generados. / This document contains detailed information regarding the management and development of Data Upload’s and Indicator Management’s modules (CDGI), which belong to the Accreditation System 2016. The CDGI module’s main task will be to carry out all the massive data upload required for each academic term, from gathered information, organized in spreadsheets, from diverse sources. This processed information will generate Key Performance Indicators (KPI’s), which will be represented in graphs and tables that will express the compliance value of the DAISIICC’s objectives to achieve accreditation. The primary benefits of this project are the elimination of the dependency between DAISIICC and the task of data upload, reduce the required time to collect the information needed for the upload, the centralization of all gathered information and support DAISIICC’s decision making process throughout the generated KPI’s. / Tesis
|
120 |
Diseño y Construcción de un Web Warehouse para Almacenar Información Extraída a Partir de Datos Originados en la WebCercós Brownell, Robert January 2008 (has links)
El objetivo general del presente trabajo es diseñar y construir un respositorio de
información respecto del uso, contenido y estructura de un sitio web. Lo anterior
tiene por finalidad el aprovechamiento de los datos que genera la navegación a
través de un sitio, mediante la extracción de información que sirva de apoyo para la
toma de decisiones en función de mejorar su estructura y contenido.
La Web se ha convertido en un canal con altas potencialidades de uso para las
organizaciones, mostrando importantes ventajas, sobretodo en sus aplicaciones en
ventas y marketing. Es así como se ha generado una creciente necesidad de
comprender las preferencias de los visitantes de un sitio, de manera de atraer su
atención e, idealmente, transformarlo en cliente. Sin embargo, debido a la gran
cantidad de datos generados a partir de la navegación y del contenido de un sitio, se
hace muy complejo sacar conclusiones a partir de ellos.
Para dar inicio a esta investigación se estudiaron los algoritmos existentes para
el procesamiento de los datos de la Web, además de los distintos modelos de
almacenamiento para la información construida a partir de ellos.
En base a lo anterior, se desarrolló un modelo genérico para almacenar,
procesar y presentar la información. Ésta se extrae a partir de datos que se obtienen
mediante una estrategia no invasiva para los visitantes, utilizando para su
almacenamiento la arquitectura data warehouse, que permite mantener información
limpia, consolidada y confiable a partir de una gran cantidad de datos provenientes
de múltiples fuentes.
Posteriormente, el modelo desarrollado se aplicó a un sitio web real relacionado
a la industria bancaria, de manera de probar su correcto funcionamiento y utilidad.
Como resultado, se concluyó que la arquitectura implementada es efectiva para
el análisis estadístico de los datos, siendo el porcentaje de conversión por objetivos
el indicador más relevante para la medición del desempeño de un sitio web,
pudiendo transformarse, incluso, en una dimensión del modelo de información. Se
recomienda que, en trabajos futuros, se constraste los resultados de la operación de
este repositorio con el de otras estrategias de obtención de la información.
|
Page generated in 0.1074 seconds