• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1458
  • 93
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1603
  • 521
  • 488
  • 379
  • 369
  • 369
  • 369
  • 369
  • 333
  • 313
  • 297
  • 231
  • 211
  • 195
  • 192
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Webinar: Conoce la nueva plataforma de Web of Science y aprende a buscar información para tu investigación académica

Meneses Jiménez, Susana 31 August 2021 (has links)
Ponente: Susana Meneses Jiménez (México) / En este webinar conocerás las nuevas herramientas e interface que ofrece Web of Sciences como plataforma que provee información, análisis y evaluación de publicaciones científicas.
232

Webinar: Capital IQ: Accede a la plataforma más importante de inteligencia financiera.

Candela Blasco, María, Alvarez Masgo, José 14 September 2021 (has links)
María Candela Blasco (Colombia) - Expositora / José Alvarez Masgo (Perú) - Moderador / Webinar enfocado en capacitar a los alumnos en el uso de la base de datos Capital IQ. En ella se enseñarán los pasos para acceder a una gran variedad de datos financieros, análisis e investigación.
233

Un sistema para el mantenimiento de almacenes de datos

García Gerardo, Clemente 04 July 2008 (has links)
Un almacén de datos es una base de datos diseñada para dar soporte al proceso de toma de decisiones en una organización. Un sistema de almacén de datos integra en un único repositorio, información histórica procedente de distintas fuentes de datos operacionales de la organización o externas a ella. Para que el almacén de datos sea en todo momento un reflejo fiel de la organización a la que sirve, debe ser actualizado periódicamente. Este proceso puede consumir muchos recursos, y en algunos casos inhabilitar el almacén de datos para los usuarios. En organizaciones donde el sistema debe estar disponible para los analistas en todo momento, el mantenimiento del almacén se convierte en un punto crítico del sistema. Por este motivo la investigación en estrategias eficientes de mantenimiento de almacenes de datos ha recibido la atención de los investigadores desde la aparición de esta tecnología. El mantenimiento de un almacén de datos se realiza en tres fases: extracción de datos de las fuentes, transformación de los datos y actualización del almacén. En este trabajo de tesis se han abordado, las fases de transformación y principalmente la fase de actualización. Para la fase de transformación se ha desarrollado un sistema que permite realizar tareas de limpieza moderada de los datos, integración de formato e integración semántica. Pero, el trabajo principal se ha centrado en la fase de actualización, para ella se han definido e implementado dos algoritmos que permiten realizar la actualización del almacén de datos de forma incremental y en línea, es decir evitando inhabilitar el almacén de datos durante el mantenimiento. Los algoritmos se basan en una estrategia multiversión, que permite mantener un número ilimitado de versiones de los datos actualizados, permitiendo de esta manera que los usuarios accedan a una misma versión del almacén mientras éste se está actualizando. / García Gerardo, C. (2008). Un sistema para el mantenimiento de almacenes de datos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2505
234

Evaluación y mejora de un sistema de reconocimiento de iris a distancia utilizando cámara de alta resolución

Yonekura Baeza, Sebastián January 2014 (has links)
Ingeniero Civil Eléctrico / Los sistemas biométricos corresponden a sistemas que realizan el reconocomiento automático de individuos a través de atributos únicos. Para que un patrón biométrico sea utilizable, debe cumplir ciertas propiedades, entre ellas las más importantes son: universalidad; invarianza en el tiempo; fácil recolección y almacenamiento. Se considera que el iris cumple con todas estas características y ha sido utilizado en sistemas de reconocimiento por más de una década. A medida que ha transcurrido el tiempo, los sistemas basados en reconocimiento de iris han mejorado considerablemente con respecto a su exactitud, sin embargo, aún se utilizan sistemas altamente cooperativos y en particular en condiciones de iluminación dañinas para la salud, por lo que la comunidad de investigadores se ha volcado en torno a relajar las restricciones en las que operan estos sistemas, con el fin de mejorar la experiencia de uso y la calidad de vida de los usufructuarios. En este trabajo se evalúa un sistema de reconocimiento de iris a distancia, en donde se utilizan las características de color y textura del mismo para llevar a cabo la clasificación. El trabajo abarca el estudio de distintos algoritmos de preprocesamiento de imágenes, esquemas de codificación y comparación propuestos durante los últimos años, los cuales se evalúan cada uno por separado y finalmente se utilizan en conjunto, además de describir el método propuesto para computar la desición final del sistema. El algoritmo se evalúa en una base de datos que consta de 1505 imágenes correspondientes a 54 sujetos, tomadas a una distancia aproximada de 1.5 [m] de distancia de la cámara utilizando iluminación de espectro visible. A partir de esta base de datos se seleccionan las mejores imágenes de iris utilizando distintos sistemas de evaluación de enfoque, luego se particiona en una base de datos de entrenamiento de parámetros y otra de validación, y finalmente se muestran los resultados con respecto a la base de datos de validación. Se utilizaron kernels para evaluar el enfoque de las imágenes capturadas, en particular los propuestos por Daugman, Kang y Wei y se observó que el kernel de Daugman resulta ser más efectivo. Se utilizaron distintos métodos de corrección de enfoque, reducción de ruido y ecualización de imágenes combinados para mejorar la tasa de reconocimiento del sistema, y se concluyó que el filtro de Wiener para reducir el ruido otorga los mejores resultados. Se implementó un sistema de codificación generalizada para aumentar arbitrariamente la cantidad de bits que se obtienen por cada pixel de la imagen, concluyendo que el mejor tamaño de codificación fue de 4 bits por pixel luego de reducir el ruido en las imágenes utilizando el filtro de Wiener. Se implementó un mapa de pesos por cada usuario registrado en la base de datos, la cual se encarga de otorgarle mayor peso a los bits que a priori son menos variables entre muestras, lo que aumentó la exactitud promedio desde 17.72% a 26.6% utilizando sólo esta mejora, con 5 imágenes por usuario enrolado. Se evaluaron dos métodos para clasificar el iris de acuerdo a su coloración, diferencia promedio y distancia de difusión, en donde se concluyó que la diferencia promedio otorga mejores resultados, sin embargo esta característica no es lo suficientemente discriminadora como para ser utilizada por sí sola. El resultado final del índice de reconocimiento del sistema al utilizar todas las mejoras antes mencionadas y fusionando las características de textura iridal y color de iris de ambos ojos es del 90.77%, con una tasa de aceptación de impostores del 0% en promedio.
235

Desarrollo de un Workspace Colaborativo Móvil para Apoyar a los Inspectores de Obra en Escenarios de Construcción

Bravo Ojeda, Gabriel January 2010 (has links)
No description available.
236

Utilización del análisis envolvente de datos en la seguridad ciudadana

Pérez Rodríguez, Karla Milagros January 2009 (has links)
El análisis envolvente de datos (Data Envelopment Analysis), desarrollado por A. Charnes, W Cooper y E. Rhodes, es un método no paramétrico, basado en programación lineal y benchmarking, para medir la productividad y la eficiencia relativa de unidades de organización. El objetivo fundamental de DEA es hallar una frontera de eficiencia, formada por aquellas combinaciones de recursos que optimizan la cantidad de productos fabricados minimizando los costos de producción, y a partir de esta frontera, evaluar la eficiencia relativa de las combinaciones de recursos que no pertenezcan a la misma. En este trabajo se mostrará la eficiencia de la Seguridad Ciudadana de los distintos distritos de Lima Metropolitana utilizando DEA donde se utilizo el programa Frontier Analyst para el análisis correspondiente. / -- Data Envelopment Analysis (DEA) developed for Charnes, W Cooper and Rhodes, is a method not paramétrico, based on linear programming, to measure the productivity and the relative efficiency of units of organization. DEA's fundamental goal is to find a border of efficiency, formed by those combinations of resources that optimize the quantity of made products minimizing the costs of production, and from this border, to evaluate the relative efficiency of the combinations of resources that do not belong(concern) to the same one. In this work there will appear the efficiency of the Civil Security of the different districts of Metropolitan Lima using DEA where I use the program Frontier Analyst for the corresponding analysis.
237

Estructuras comprimidas para grafos de la Web

Claude Faust, Francisco José January 2008 (has links)
Magíster en Ciencias, Mención Computación / La estructura de la Web se puede modelar como un grafo, donde las páginas son los nodos y los hipervínculos las aristas. Estos grafos Web son ampliamente utilizados para diversas tareas de análisis de la Web, tales como el cálculo de Page-Rank o la detección de spam en la Web, entre otras. Una de las limitantes que se presentan al trabajar con estos grafos es su tamaño, por ejemplo, el 2005 se calculó que la Web pública y estática tenía 11.5 mil millones de nodos, y unas 15 aristas por nodo, lo que requiere más de 600 GB para su representación plana. De aquí surge la motivación de este trabajo, que consiste en la creación de estructuras de datos comprimidas para representar grafos de la Web. Una estructura comprimida busca almacenar la mayor cantidad de datos en el menor espacio posible, ya sea en memoria principal o en disco, soportando las consultas de interés sin la necesidad de descomprimir la estructura en su totalidad. La principal ventaja de estas estructuras es que se puede evitar mantener la información en disco o se disminuye la cantidad de transferencias necesarias. Esto es de vital importancia dado que el disco puede llegar a ser un millón de veces más lento que la memoria principal. Entre los resultados más importantes de este trabajo se presenta una estructura comprimida para grafos de la Web que mejora el estado del arte, ofreciendo el mejor compromiso espacio-tiempo conocido para recuperar listas de adyacencia. Además se muestra cómo extender esta estructura para soportar consultas más complejas, como vecinos reversos, manteniendo los requerimientos de espacio. Como productos agregados se incluyen resultados experimentales y propuestas para el problema de Rank y Select sobre secuencias generales, incluyendo estructuras no implementadas antes. Los resultados derivan en mejoras inmediatas para índices comprimidos para texto, en los cuales se reduce el espacio utilizado por los mejores índices existentes, a veces incluso sin penalización en el tiempo de búsqueda. Además se presenta un algoritmo aproximado para comprimir utilizando el método Re-Pair cuando la memoria principal es limitada. También se obtienen resultados en estructuras comprimidas para relaciones binarias, presentándose una nueva propuesta que, además de utilizar espacio proporcional a la entropía de la relación binaria, permite dinamizar la estructura, vale decir, aceptar inserciones y borrados de pares en la relación.
238

Data warehouse design with UML

Luján Mora, Sergio 22 July 2005 (has links)
No description available.
239

Construcción y pruebas de una herramienta de desarrollo de soluciones para inteligencia de negocios : análisis dimensional

López Gonzáles, Rosario Graciela, Urbina Palomino, Luis Alejandro 09 May 2011 (has links)
El presente proyecto de tesis consiste en construir una aplicación que asiste en el diseño de modelos de datos dimensionales, parte fundamental del data mart. Estos modelos podrán ser enviados a motores de base de datos y generados en ellos, automáticamente. / Tesis
240

Análisis y diseño de una herramienta de desarrollo de soluciones para inteligencia de negocios : análisis dimensional

Valdiviezo Basauri, Manuel Javier, Herrera Geldres, Iván Zico Segundo, Jáuregui Puertas, Gerardo Daniel 09 May 2011 (has links)
Para aquellos que desarrollan y mantienen los sistemas de información de soporte de decisiones, se hace necesario contar con una herramienta que ofrezca versatilidad y facilidad en la implementación de soluciones. Esta herramienta debe permitir generar reportes de diversos tipos e integrar información y datos desde diversos contextos. / Tesis

Page generated in 0.0377 seconds