• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1432
  • 90
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1574
  • 511
  • 480
  • 355
  • 345
  • 345
  • 345
  • 345
  • 328
  • 292
  • 289
  • 222
  • 210
  • 193
  • 185
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Procedimientos de interpolación en el cálculo de asentamientos sobre suelos granulares usando el método de schmertmann

Cier Honores, Roberto Jesús 19 March 2016 (has links)
Uno de los métodos más conocidos en el cálculo de asentamientos sobre suelos granulares es el método de Schmertmann. Este propone la obtención del valor del asentamiento a partir del uso del gráfico del factor de influencia de la deformación unitaria, el cual describe la variación de la deformación unitaria debido a la carga aplicada sobre la zapata a lo largo de la profundidad. Este gráfico tiene una configuración para el caso de zapatas cuadradas y otro para el caso de zapatas corridas, y plantea una interpolación lineal de los valores pico del gráfico y de la profundidad de influencia para obtener el asentamiento en una zapata. El principal objetivo de esta tesis ha sido determinar la validez de la interpolación lineal que Schmertmann plantea en su método de cálculo de asentamiento sobre suelos granulares para zapatas rectangulares, ya que este procedimiento es impreciso. Para tal fin, se llevó a cabo una serie de cálculos de asentamiento de manera manual con el método de Schmertmann y con las modificaciones planteadas por diversos autores. Estos valores se han comparado con los obtenidos a través de métodos computacionales por el software Plaxis 3D Foundation y haciendo uso del modelo constitutivo Hardening Soil. Se analizaron en total 17 casos de zapatas rectangulares de ancho constante de 2.4 m apoyadas sobre un estrato uniforme de arena limosa de parámetros calibrados a través del software y el modelo constitutivo anteriormente mencionados, sometidas a una carga constante de 200 kN/m2. Adicionalmente, se evaluó la variación de la deformación unitaria a partir de la construcción de las gráficas del factor de influencia planteado por Schmertmann. Los valores de asentamiento obtenidos a través del método computacional describen una variación no lineal, diferente a la planteada por Schmertmann. No obstante, los valores de asentamiento obtenidos por el método de Schmertmann difieren poco de los obtenidos por medio del método computacional, por lo que se puede inferir que la interpolación lineal del método de Schmertmann resta precisión al mismo. Se espera que futuras investigaciones puedan confirmar los resultados obtenidos en esta tesis a fin de establecer una metodología más precisa para el procedimiento de interpolación. PALABRAS CLAVE: Asentamiento, zapata rectangular, interpolación lineal, Plaxis 3D Foundation, Hardening Soil Model. / Tesis
82

Proceso de extracción de patrones secuenciales para la caracterización de fenómenos espacio-temporales

Maldonado Cadenillas, Rodrigo Ricardo 30 May 2016 (has links)
El objetivo de este trabajo de fin de carrera es realizar un proceso de extracción de patrones secuenciales basado en KDD, empleando el algoritmo de minería de patrones secuenciales PrefixSpan para prever el comportamiento de fenómenos representados por eventos que cambian con el tiempo y el espacio. Estos tipos de fenómenos son llamados fenómenos espacio-temporales, los cuales son un conjunto de eventos o hechos perceptibles por el hombre. Además, están compuestos por un componente espacial (la ubicación donde sucede el fenómeno), un componente temporal (el momento o intervalo de tiempo en el que ocurre el fenómeno) y un componente de análisis (el conjunto de características que describen el comportamiento del fenómeno). En el mundo, se pueden observar una gran diversidad de fenómenos espaciotemporales; sin embargo, el presente trabajo de fin de carrera se centra en los fenómenos naturales, tomando como caso de prueba el fenómeno espacio-temporal de la contaminación de los ríos en Reino Unido. Por lo tanto, con el fin de realizar un estudio completo sobre este fenómeno, se utiliza KDD (Knowledge Discovery in Databases) para la extracción del conocimiento a través de la generación de patrones novedosos y útiles dentro de esquemas sistemáticos complejos. Además, se utilizan métodos de Minería de Datos para extraer información útil a partir de grandes conjuntos de datos. Así mismo, se utilizan patrones secuenciales, los cuales son eventos frecuentes que ocurren en el tiempo y que permiten descubrir correlaciones entre eventos y revelar relaciones de “antes” y “después”. En resumen, el presente trabajo de fin de carrera se trata de un proceso para mejorar el estudio del comportamiento de los fenómenos gracias al uso de patrones secuenciales. De esta manera, se brinda una alternativa adicional para mejorar el entendimiento de los fenómenos espacio-temporales; y a su vez, el conocimiento previo de sus factores causantes y consecuentes que se puedan desencadenar, lo cual permitiría lanzar alertas tempranas ante posibles acontecimientos atípicos. / Tesis
83

Desarrollo de un modelo de calidad de datos aplicado a una solución de inteligencia de negocios en una institución educativa : Caso Lambda

Fernández Sáenz, Marshall André 08 May 2018 (has links)
La Inteligencia de Negocios comprende una serie de tecnologías que permiten la extracción, transformación y carga de datos hacia Data Warehouse preparados para recibir información útil para altos mandos de la organización. En la actualidad, las soluciones basadas en Inteligencia de Negocios permiten que las organizaciones de todo tipo cuenten con apoyo en la toma de decisiones de gran impacto. Sin embargo, en un contexto en el que los datos están en rápido y constante crecimiento, las soluciones de Inteligencia de Negocios son vulnerables a los problemas de consistencia que puedan presentar los datos, por lo que los procedimientos realizados para su transformación llevan a la obtención de reportes inconsistentes que generan problemas en el manejo de la institución. Bajo esta situación, se proponen diversas herramientas para garantizar la calidad de los datos, como la descrita en el actual documento. En el presente proyecto de tesis se propuso el desarrollo de un Modelo de Calidad de Datos que permite la evaluación de los datos que guarda un Data Warehouse, así como sus métricas relacionadas. Este modelo permitió la realización de investigaciones de calidad sobre la base de los parámetros especificados en la familia de normas ISO/IEC 25000, enfocándose especialmente en la ISO/IEC 25012 y la ISO/IEC 25024. Asimismo, se planificó su aplicación práctica en los datos relacionados a la solución de Inteligencia de Negocios de una institución elegida, la institución educativa Edu.Lambda. Este proyecto forma parte de la iniciativa del Grupo de Investigación y Desarrollo de Ingeniería de Software de la Pontificia Universidad Católica del Perú (GIDIS-PUCP), dentro del marco del proyecto [Pro]ductividad y [Cal]idad en [Pro]ductos software y [Ser]vicios software (ProCal-ProSer). El presente trabajo consta de 4 capítulos; en el primero, se realiza la formulación del proyecto al detalle de la problemática, objetivos, resultados esperados, herramientas y alcances; en el segundo, se detallan los conceptos relacionados a la investigación, así como los avances que se han realizado en la misma línea de trabajo; en el tercero, se detalla el modelo de calidad propuesto y la aplicación del mismo sobre la solución de Inteligencia de Negocios de la institución mencionada; y en el cuarto, se muestran las conclusiones, observaciones y recomendaciones relacionadas al proyecto. / Tesis
84

Un framework para la gestión de la memoria organizacional orientado a proyectos de investigación dentro de una institución de educación superior

Corro Portella, Linder Maycol 05 June 2015 (has links)
An institution of higher education that develops research projects can learn and remember the knowledge generated by these projects. In this applied research proposes a framework for the management of organizational memory oriented research projects within a Higher Education Institution to support the capture, storage and retrieval of knowledge from research projects, which could provide access to documents or documentation thereof, of the events that accompany them and are specific for each research project, the sources of information necessary to conduct a research project, the skills required for a given (s) project (s) for research and solutions or results of research projects. / Una Institución de Educación Superior que desarrolla proyectos de investigación puede aprender y recordar el conocimiento generado por éstos proyectos. En la presente investigación aplicada se propone un framework para la gestión de una memoria organizacional orientada a proyectos de investigación dentro de una Institución de Educación Superior para soportar la captura, almacenamiento y recuperación del conocimiento de proyectos de investigación, con lo cual se podría brindar acceso a los documentos o documentación de los mismos, de los hechos que los acompañan y que son específicos para cada proyecto de investigación, de las fuentes de información necesarias para llevar a cabo un proyecto de investigación, de las competencias requeridas para determinado(s) proyecto(s) de investigación y de las soluciones o resultados de los proyectos de investigación. / Tesis
85

Revisión matemática y análisis asintótico

Muñoz Jugo, Cynthia Mariela 29 May 2007 (has links)
Introducción al análisis de algoritmos. Tiempos asintóticos. Descripción de problema.
86

Inducción a los Recursos de Investigación - Artes contemporáneas

Vásquez Melgar, Kelly 01 1900 (has links)
Guía de recursos para la investigación para usuario de la Facultad de Artes Comtemporáneas.
87

Buscando interoperabilidade entre diferentes bases de dados: o caso da biblioteca do Instituto Fernandes Figueira / Seeking interoperability between different daases: the case of the library of the Instituto Fernandes Figueira

Oliveira, Viviane Santos January 2005 (has links)
Made available in DSpace on 2012-09-06T01:11:57Z (GMT). No. of bitstreams: 2 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) 849.pdf: 1878124 bytes, checksum: 96c6fd44407809d315bca0121b1f16ff (MD5) Previous issue date: 2005 / Este trabalho analisa as possibilidades de tornar interoperáveis bases de dados heterogêneas, de forma que possam ser pesquisadas através de uma única interface. A biblioteca do Instituto Fernandes Figueira, Unidade materno-infantil da Fiocruz é referência em tratamento de doenças de alta complexidade. Estes profissionais buscam a Biblioteca co necessidades de informações voltadas para a decisão clínica. As bases de dados mais pesquisadas por estes profissionais são as bases de dados LILACS, MEDLINE e ACERVO FIOCRUZ. Portanto estas bases norteiam este estudo e são algumas facetas como: os procedimentos de descrição e as estruturas das bases, buscando semelhanças e divergências nos índices e nos campos de exibição dos Tesauros DeCS e MeSH; e tecnologias utilizadas e/ou compatíveis. Paalelamente busca-se apresentar algumas ferramentas tecnológicas como os protocolos Z39.50 e o OAI-PMH, os meuscadores, o conjunto de metadados Dublin Core e o MetaIAH. Através destas análises delineou-se três modelos conceituais para alcançar a interoperabilidade, são eles: compartilhamento de esforços, quando tanto a Interface de Consulta (IC) e os Recursos Informacionais (RI) trabalham para garantir interoperabilidade; Esforço concentrado nos Ris, quando os Recursos Informacionais arcam com todo o esforço para possibilitar a interoperabilidade; e, Esforço concentrado na IC, quando a Interface de consulta se adapta para suprir as divergências de cada base proporcionando a interoperabilidade. Para finalizar comparam-se os modelos e as bases de dados estudadas destacando-se os modelos que se constituem como alternativas de interoperabilidade para a biblioteca do Instituto Fernandes e quais as vantagens e desvantagens de cada uma delas.
88

Autoíndices Comprimidos para Texto

González del Barrio, Rodrigo January 2008 (has links)
Doctor en Ciencias, Mención Computación / Los autoíndices comprimidos para texto ofrecen una funcionalidad similar a la de los índices clásicos, ocupan espacio proporcional al tamaño del texto comprimido, y además lo reemplazan, pues son capaces de reproducir cualquier subcadena del texto. Aunque un índice comprimido es más lento que su versión clásica, puede funcionar en memoria principal en casos en que un índice tradicional tendría que recurrir a la memoria secundaria, que es órdenes de magnitud más lenta. Por otra parte, los autoíndices comprimidos para texto actuales sufren de varias deficiencias, como la falta de practicidad, la lentitud para localizar un patrón y para extraer un texto, y la falta de mecanismos de construcción eficientes en espacio, de versiones en memoria secundaria o de capacidades para actualizar el índice. Esta tesis aporta soluciones para todos estos problemas. Nuestra primera contribución es una estructura de datos para arreglos de bits, sencilla y eficiente, que permite consultas de rank y select, y que se ha hecho muy popular por su practicidad. También se creó el sitio Pizza&Chili, que contiene una colección de textos y de índices comprimidos, y se realizó un estudio práctico que compara los índices más prometedores. Cabe destacar que este sitio se ha convertido en una referencia habitual en la comunidad. Se desarrolló un nuevo índice comprimido para texto, basado en regularidades del arreglo de sufijos, el cual permite localizar ocurrencias rápidamente, y aún es más pequeño que los índices clásicos. Esta estructura se basa en Re-Pair, un compresor que posee propiedades de localidad que no tienen los índices comprimidos clásicos. Se desarrolló un codificador estadístico de secuencias, que permite el acceso directo a cualquier parte de la secuencia y logra una compresión de alto orden. Esta es una herramienta clave para lograr velocidad y localidad en la extracción de texto en un índice comprimido. Aprovechando esta localidad en la localización y en la extracción, se presentó un nuevo índice para memoria secundaria cuyo tiempo de acceso mejora gracias a la compresión, en lugar de empeorar como es lo normal en otros autoíndices. Este índice ofrece un compromiso muy competitivo entre espacio y tiempo. / Esta tesis ha recibido el apoyo de Mecesup, Proyecto UCH 0109, Chile; del Núcleo Milenio Centro de Investigación de la Web, Proyecto P04-067F, Mideplan, Chile; de Yahoo! Research Latin America, y del Instituto Milenio de Dinámica Celular y Biotecnología, Proyecto P05-001-F, Mideplan, Chile
89

Santiago hacia una Ciudad Inteligente. Distribución espacial de la producción de datos en el gran Santiago

Hernández Milla, Cristián January 2014 (has links)
Memoria para optar al título de Geógrafo / La siguiente investigación busca explorar los patrones espaciales de la producción de datos en el Gran Santiago, en tanto “los datos”, como la piedra fundacional de lo que conocemos como una “Ciudad Inteligente”. Así también, se analiza la relación de dichos patrones espaciales generados por los datos, tanto activos como pasivos, con la distribución espacial del ingreso por hogar en el área estudiada, con el fin de establecer, si existe una relación entre ellos en el contexto de Santiago como una ciudad segregada. Finalmente, se entregan conclusiones en relación a la potencialidad de ciertas comunas del Gran Santiago, para transformarse en territorios que fomenten una “Sociedad Habilitada Espacialmente”, en términos del aprovechamiento de los datos para una mejor planificación y diseño de la Ciudad.
90

Mecanismo de filtrado criptográfico para sistemas de comunicación anónima basados en reencriptación

Bahamonde Vega, Jorge Andrés January 2013 (has links)
Ingeniero Civil en Computación / Las redes de comunicación anónima posibilitan nuevas formas de interacción entre las personas. En particular, la libre expresión de ideas contrarias a la opinión popular o la de la autoridad ha permitido, en ciertos casos, el inicio de procesos de cambio en las sociedades. Sin embargo, el anonimato puede ser abusado, lo cual lleva al cuestionamiento de la utilidad del mismo y a la tentación de no implementar estos sistemas. En este contexto, la posibilidad de filtrar de manera segura mensajes según un criterio público permite resolver este problema, al permitir implementar sistemas de comunicación anónima donde es posible filtrar (descartar) mensajes que no calzan con una política pública predefinida. Por ejemplo, el sistema de comunicación anónima pudiera establecer la restricción de que sólo mensajes "certificados" (firmados) por entidades confiables pueden ser comunicados. Un posible escenario de uso de tal sistema sería el caso en que usuarios pueden "comprar" el acceso al sistema de comunicación anónima, vía una autorización de su autoridad certificadora local. Una solución para este escenario se complica debido a la naturaleza distribuida de las implementaciones de canales de comunicación anónima - cada participante del sistema debe poder verificar si está procesando mensajes certificados o no. En la presente memoria se trabajó en la definición e instanciación de un sistema de comunicación anónima (en particular, una red de mezcla basada en reencriptación) que permitiese el filtrado de mensajes según una propiedad claramente definida. Para ello, primero se realizó un estudio de herramientas comúnmente aplicadas para obtener propiedades criptográficamente verificables, firmado y anonimato. Habiendo identificado un conjunto de herramientas útiles, el trabajo se focalizó en el aspecto definicional. Se logró construir una definición basada en conceptos criptográficos estándares. Luego, utilizando herramientas criptográficas analizadas, se construyó una instanciación de esta definición, utilizándose técnicas criptográficas formales y rigurosas para demostrar la seguridad del esquema. La solución desarrollada no sólo logra resolver el problema planteado, sino que provee una base sobre la cual pueden realizarse múltiples mejoras y extensiones futuras.

Page generated in 0.1024 seconds