• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 496
  • 409
  • 373
  • 198
  • 40
  • 35
  • 25
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 6
  • 6
  • Tagged with
  • 1716
  • 277
  • 195
  • 191
  • 165
  • 163
  • 155
  • 137
  • 131
  • 127
  • 104
  • 89
  • 85
  • 85
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Estándares de publicación de datos para la información pública en Chile

Hernández Hernández, Daniel Ricardo January 2013 (has links)
Magíster en Ciencias, Mención Computación / En las últimas décadas presenciamos un aumento exponencial en la generación y en el almacenamiento de datos en el mundo. En paralelo, han surgido movimientos promoviendo el acceso abierto a los datos. En Chile, por ejemplo, se dictó la Ley Nº20285 sobre el acceso a la información pública, que obliga a las instituciones públicas a publicar cierto conjunto de información y define la forma en que el resto puede ser requerida. En esta dirección han surgido iniciativas que promueven además la publicación de datos en forma de datos enlazados. Este cambio de paradigma en el manejo de la información y datos requiere de nuevas políticas y estándares. La presente tesis aborda los problemas observados en la publicación de datos, los conceptualiza y propone buenas prácticas para su publicación. Las prácticas propuestas se organizan en tres niveles, que van desde lo general a lo particular. En el primer nivel se presentan prácticas generales, que son independientes de las tecnologías usadas y que tienen por objetivo satisfacer los principios de los datos abiertos. En el segundo, se proponen prácticas para la publicación usando el lenguaje RDF. RDF es un estándar del Consorcio de la Web, y su modelo de grafos facilita la integración de datos, uno de los desafíos principales de la publicación de datos. Es de particular interés en este segundo nivel la discusión sobre cómo modelar usando el lenguaje RDF. En esta tesis se propone un conjunto de prácticas y se plantea la necesidad de desarrollar metodologías. Finalmente, en el tercer nivel, se presenta un modelo (o vocabulario RDF) que ejemplifica las prácticas propuestas sobre un caso de estudio particular, centrado en la publicación de datos de transparencia gubernamental y en datos de historia política chilena. La tesis concluye con una discusión sobre aquellos aspectos de RDF que lo hacen complejo y que se vislumbran como una barrera para su amplia adopción. Es decir, se plantea la necesidad de revisar la pregunta sobre si las bases de RDF necesitan ser cambiadas.
242

Ação do campo eletromagnético de 60 Hz, 3μT, emratas prenhas submetidas à Dieta Básica Regional :regulação hormonal e metabólica das ratas prenhas e maturação reflexa e somática da prole

Wanderley Ferreira Anselmo, Caroline January 2005 (has links)
Made available in DSpace on 2014-06-12T23:03:25Z (GMT). No. of bitstreams: 2 arquivo8755_1.pdf: 1529395 bytes, checksum: ab816c9bc6ea3abaa0881b665e15b2ee (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / O objetivo do presente estudo foi Investigar a ação do campo eletromagnético (CEM) de 60 Hz, senoidal, com intensidade de 3 μT, duas horas ao dia, durante vinte e um dias consecutivos, na regulação das concentrações hormonais e metabólicas em ratas prenhas, submetidas à dieta balanceada e ratas prenhas submetidas à Dieta Básica Regional (DBR), bem como o desenvolvimento reflexo e somático e evolução do crescimento corporal da prole. Foram constituídos quatro grupos de animais: dois grupos caseína (A e B), com 18% de caseína e dois grupos DBR (C e D), tratados com dieta contendo 8% de proteína mista, com ou sem exposição. As manipulações dietéticas ocorreram durante a gestação. Os parâmetros hormonais (insulina, cortisol , T3 e T4) e bioquímico (glicose) foram determinados no soro. Foram pesquisados, diariamente, entre 12:00 e 14:00 horas, os reflexos congênitos: preensão palmar (PP), recuperação do decúbito (RD), aversão ao precipício (AV), colocação pelas vibrissas (CV), geotaxia negativa (GN), resposta ao susto (RS) e recuperação do decúbito em queda livre (RDQL) e as características físicas: abertura do pavilhão (APA), do conduto auditivo (ACA), do olho (AO) e erupção dos dentes incisivos superiores (EDIS) e inferiores (EDII). Quanto aos parâmetros bioquímicos e hormonais: o grupo D apresentou concentração de glicose 113,09% maior em relação ao grupo C. O grupo C apresentou insulina e cortisol menores (77,5% e 54,67%) que o Grupo A, respectivamente. As concentrações séricas de T3, oscilaram em valores percentuais menores, (71,43%, 91,16% e 97,28%) nos grupos B, C e D respectivamente em relação ao A e 69,05% no C comparado ao B. As de T4, apresentaram 37,88%, 74% e 51,38% nos grupos B, C e D, respectivamente e 58,16% no C em relação a B. Quanto a maturação reflexa, o CEM associado a desnutrição (D) induziu retardo, em dias, no aparecimento ou desaparecimento dos reflexos RD, AP, CV, GN, RS, RQDL e PP em relação ao grupo A (caseína sem exposição ao CEM). Comparando-se a DBR à Caseína (D e B), ambos expostos ao CEM, o retardo ocorreu nos RD, CV, GN e AP e nos grupos (C e A), o efeito foi observado nos RD, AP, CV, GN, RS e PP. Quanto ao CEM, o grupo B diferiu do grupo A nos AP, RS, RDQL e PP e o grupo D diferiu do C apenas no reflexo PP. Considerando os indicadores de maturação somática, o grupo D apresentou retardo em relação ao grupo A, nos APA, ACA, AO, EDIS e EDII. Comparando-se a DBR à Caseína (D e B), os afetados foram APA e AO. Conclui-se que o CEM associado a desnutrição causou uma diminuição nas dosagens de T3 e T4 das ratas prenhas e retardo na maturação reflexa e somática da prole
243

Bloomberg UPT 2019. Parte 3 de 12. Bloomberg for Education

Rojas, Javier 05 November 2019 (has links)
La Universidad Peruana de Ciencias Aplicadas (UPC) fue sede de la segunda edición del “University Premium Training” organizada por Bloomberg, empresa líder en información financiera y económica a nivel mundial. / El evento, que fue realizado los días 5, 6 y 7 de noviembre en el campus San Isidro, tuvo como objetivo poder reforzar las competencias de los docentes de diversas universidades de Lima que emplean Bloomberg como una herramienta didáctica para la educación y planificación financiera. Esta compañía brinda herramientas de software financiero, como análisis, plataformas de comercio capital y servicios de datos para las empresas quienes deseen consultar información bursátil y financiera en tiempo real. / Además, se contó con la participación de expertos que emplean la herramienta como apoyo para la toma de decisión financiero: Lizzette Lara; especialista en riesgos y derivados, André Lapponi; especialista Senior en Portafolio y Análisis técnico, Pedro Cortejo, CEO-Founder de Decision Capital, entre otros. / Se explica cómo mejorar el flujo de aprendizaje de la terminal en las universidades, los flujos de información en los equipos de trabajo, y las bases de datos de índices. Finalmente, se presentan ejemplos y casos y se interpretaron algunos gráficos. Ponente: Javier Rojas, responsable por las operaciones de Bloomberg en Perú.
244

Modelling dynamics of RDF graphs with formal concept analysis

González González, Larry Javier January 2018 (has links)
Magíster en Ciencias, Mención Computación / La Web Semántica es una red de datos organizados de tal manera que permite su manipulación directa tanto por humanos como por computadoras. RDF es el framework recomendado por W3C para representar información en la Web Semántica. RDF usa un modelo de datos basado en grafos que no requiere ningún esquema fijo, provocando que los grafos RDF sean fáciles de extender e integrar, pero también difíciles de consultar, entender, explorar, resumir, etc. En esta tesis, inspirados en formal concept analysis (un subcampo de las matemáticas aplicadas, basados en la formalización de conceptos y jerarquı́as conceptuales, llamadas lattices) proponemos un data-driven schema para grandes y heterogéneos grafos RDF La idea principal es que si podemos definir un formal context a partir de un grafo RDF, entonces podemos extraer sus formal concepts y computar una lattice con ellos, lo que resulta en nuestra propuesta de esquema jerárquico para grafos RDF. Luego, proponemos un álgebra sobre tales lattices, que permite (1) calcular deltas entre dos lattices (por ejemplo, para resumir los cambios de una versión de un grafo a otro), y (2) sumar un delta a un lattice (por ejemplo, para proyectar cambios futuros). Mientras esta estructura (y su álgebra asociada) puede tener varias aplicaciones, nos centramos en el caso de uso de modelar y predecir el comportamiento dinámico de los grafos RDF. Evaluamos nuestros métodos al analizar cómo Wikidata ha cambiado durante 11 semanas. Primero extraemos los conjuntos de propiedades asociadas a entidades individuales de una manera escalable usando el framework MapReduce. Estos conjuntos de propiedades (también conocidos como characteristic sets) son anotados con sus entidades asociadas, y posteriormente, con su cardinalidad. En segundo lugar, proponemos un algoritmo para construir la lattice sobre los characteristic sets basados en la relación de subconjunto. Evaluamos la eficiencia y la escalabilidad de ambos procedimientos. Finalmente, usamos los métodos algebraicos para predecir cómo el esquema jerárquico de Wikidata evolucionaría. Contrastamos nuestros resultados con un modelo de regresión lineal como referencia. Nuestra propuesta supera al modelo lineal por un gran margen, llegando a obtener un root mean square error 12 veces más pequeño que el modelo de referencia. Concluimos que, basados en formal concept analysis, podemos definir y generar un esquema jerárquico a partir de un grafo RDF y que podemos usar esos esquemas para predecir cómo evolucionarán, en un alto nivel, estos grafos RDF en el tiempo.
245

Canonicalisation of SPARQL Queries

Salas Trejo, Jaime Osvaldo January 2018 (has links)
Magíster en Ciencias, Mención Computación. Ingeniero Civil en Computación / SPARQL es el lenguaje de consulta estándar para RDF, definido por el World Wide Web Consortium. Presentemente, hay una gran cantidad de servicios de consulta de SPARQL en la Web. También hay una gran demanda por estos servicios diariamente. Debido a la gran cantidad de consultas que deben procesar estos servicios, los procesadores sufren una sobrecarga que podría ser reducida si fuésemos capaces de detectar consultas equivalentes. Nuestra propuesta consiste en el diseño y la implementación de un algoritmo de canonicalización eficiente, el cual nos permitirá computar una forma canónica para las consultas. Las consultas que sean equivalentes deben tener la misma forma canónica, lo cual haría posible detectar un mayor número de consultas duplicadas. Hemos cubierto una parte significante de SPARQL 1.0 con nuestro trabajo; principalmente consultas que tengan la forma de uniones de consultas conjuntivas. El algoritmo que hemos desarrollado realiza una canonicalización completa de las consultas que contienen estas operaciones. Para las otras operaciones, realizamos una canonicalización parcial, pues estas otras operaciones son usadas popularmente en consultas reales. Hemos diseñado experimentos para probar la correctitud y el desempeño de nuestro algoritmo en comparación contra otros métodos sintácticos. Realizamos nuestros experimentos sobre consultas reales extraídas de bitácoras de bases de datos de RDF, y también sobre consultas sintéticas que diseñamos para forzar un mal comportamiento del algoritmo. Los resultados de nuestros experimentos son excitosos, pues la mayoría de las consultas reales son procesables en un tiempo corto, menor a un segundo. El número de consultas duplicadas encontradas es considerablemente superior que las encontradas por el algoritmo base definido. Finalmente, el algoritmo deja de funcionar únicamente para las consultas sintéticas diseñadas por nosotros, y de una gran complejidad, las cuales no ocurren en la práctica. El siguiente documento presenta el trabajo hecho.
246

Synthesis, characterization and photophysical properties of metal complexes with schiff-base and prophyrin ligands

Zhang, Jie 01 January 2012 (has links)
No description available.
247

Búsqueda de caminos relevantes en grafos RDF

Tartari Barriga, Gonzalo January 2018 (has links)
Ingeniero Civil en Computación / A partir de información representada en una colección de declaraciones en RDF (Resource Description Framework), esta representa intrínsecamente un multi-grafo etiquetado, dirigido. Con esto es posible utilizar algoritmos de búsqueda de caminos, que permiten encontrar la ruta más corta entre dos nodos. Con el fin de estudiar tecnologías basadas en el desarrollo de la web semántica, el tema de memoria propuesto consiste en la búsqueda de caminos relevantes para grafos en RDF. Para esto se construye una herramienta la que, a partir de un archivo con información en RDF, sea capaz de resolver consultas sobre caminos entre un nodo de origen y un nodo objetivo de tal manera que estos contengan información relevante para el usuario. La relevancia de los caminos se representa a través del peso asignado tanto a aristas, según su etiqueta, como a vértices, principalmente por métodos basados en su grado, PageRank o variaciones de estos. Para la búsqueda del camino mínimo entre un nodo origen y un nodo objetivo se implementa una versión del algoritmo de Dijkstra para grafos ponderados. Con el objetivo de tener la posibilidad de visualizar los resultados obtenidos y usar la herramienta en un contexto real para reportar resultados, es que se construye una aplicación que resuelva consultas de caminos entre dos nodos y represente esta respuesta gráficamente. Finalmente se realizan pruebas de rendimiento del algoritmo utilizado y pruebas para comparar los caminos resultantes de los distintos métodos de ponderación del grafo. Además se lleva a cabo una evaluación con usuarios para la validación de la solución obtenida.
248

Descubre O’Reilly for higher education: fomentando la investigación e innovación desde casa

Cavieres, Alonso 06 November 2020 (has links)
Ponente: Alonso Cavieres, Librarian MSc TI, Training & Consulting. Partner, Customer Experience / La videoconferencia “Descubre O’Reilly for higher education: fomentando la investigación e innovación desde casa” fue organizada por el Sistema de Bibliotecas de la UPC, y contó principalmente con la participación de docentes y estudiantes de los distintos programas académicos. El expositor Alonso Cavieres (Librarian MSc TI, Training & Consulting Partner, Customer Experience) presentó las principales características y funcionalidades del recurso para buscar y recuperar información relevante, de alta calidad y renombre mundial; además, detalló el uso de las herramientas interactivas, las cuales funcionan de forma dinámica, proporcionando soporte al aprendizaje de los estudiantes y enriqueciendo las sesiones de clases de los docentes. Este recurso puede ser consultado en nuestro Portal de Recursos de investigación (http://recursosinvestigacion.upc.edu.pe).
249

Modelado de un sistema inteligente de ayuda a la toma de decisiones en la evaluación de la accesibilidad de los edificios

García-Quismondo Cartes, Ada 11 December 2015 (has links)
Si bien la necesidad de eliminar las barreras arquitectónicas en el entorno edificado ya fue reconocida internacionalmente en la década de los 70, no ha sido hasta el siglo XXI cuando se ha reconocido su verdadera importancia, situándola al mismo nivel que la seguridad o la eficiencia energética. Tras los últimos tratados internacionales en la materia ha habido un cambio de paradigma considerando a las personas con discapacidad como sujetos titulares de derechos, siendo el entorno el que debe adaptarse a la persona y no la persona al entorno. La Unión Europea y España han asumido el compromiso no solo de diseñar nuevos edificios inclusivos, sino también de eliminar las barreras en los existentes. En concreto, en España para el cumplimiento de esta obligación legal se ha fijado como fecha límite el 4 de diciembre de 2017. A la vista de los estudios sobre el estado de la accesibilidad al entorno edificado existente se puede afirmar que la tarea de su adaptación va a ser compleja y extensa. Por ello, los técnicos tanto proyectistas como de ejecución necesitan sistemas inteligentes de apoyo en la evaluación del estado de los edificios y ayuda en la toma de decisiones. Por otro lado, la realidad constatada es que difícilmente se podrá obtener un grado de accesibilidad plenamente satisfactorio en todos los edificios. Aun haciendo grandes esfuerzos no será posible eliminar la heterogeneidad existente entre unos edificios y otros, lo que generará incertidumbre en los usuarios. Por este motivo se pone en relieve la necesidad de sistemas de información a los usuarios sobre el estado real de accesibilidad de los edificios y establecimientos. Dentro de este contexto, en esta tesis se realiza el modelado de un sistema inteligente de ayuda a la toma de decisiones en la evaluación de la accesibilidad de los edificios, denominado Sistema de Información para Accesibilidad Arquitectónica (ISAA). Este sistema permite también el almacenamiento de los datos relativos a la accesibilidad para su uso posterior por otros sistemas de información que puedan tener diversas aplicaciones, tanto con el objetivo de intervención en el edificio como con el de información a los usuarios. Con este sistema se persigue una doble finalidad: - Apoyar a los técnicos en la labor de evaluar la accesibilidad de los edificios, contribuyendo por tanto a mejorar las condiciones del entorno construido. - Contribuir a la difusión de la información de las condiciones de accesibilidad de los edificios existentes, ayudando de esta manera a fomentar la autonomía de las personas con discapacidad. En este trabajo se realiza el modelado del sistema así como el diseño conceptual y lógico de la base de datos que contiene la información. Así mismo, también se ha desarrollado un prototipo y sometido a experimentación para comprobar su validez y obtener una serie de propuestas de mejora a introducir en la implementación definitiva del sistema. Por último, se analizan una serie de posibilidades de tratamiento posterior de los datos almacenados en el ISAA por otras aplicaciones con diversas finalidades. Se analizan las características que deben tener las futuras aplicaciones web que se desarrollen para informar a los usuarios discapacitados, así como la compatibilidad del ISAA con Sistemas de Información Geográfica o la posible utilidad de los datos en información estadística. Tras el proceso de experimentación se concluye que el sistema es plenamente válido para servir de apoyo en la evaluación de la accesibilidad frente a otros métodos no basados en sistemas inteligentes. Así mismo, se señalan las ventajas que presenta frente a otros métodos en la ayuda a la toma de decisiones. En cuanto al desarrollo de futuras aplicaciones, el ISAA no es un modelo cerrado, sino que permite que sobre el diseño realizado se puedan introducir variantes y/o ampliaciones para adaptar el tratamiento de los datos al uso específico que demande el sistema de información que se vaya a desarrollar posteriormente. Por último, se señalan una serie de futuros trabajos, tanto teóricos como aplicados, que se pueden desarrollar en esta materia que está demandando en la actualidad el apoyo de las nuevas tecnologías.
250

Webinar. Descubridores de contenidos: caso Proquest

Cavieres, Alonso 11 June 2021 (has links)
Alonso Cavieres (Chile) - Expositor / El webinar organizado por la Dirección de Gestión del Conocimiento se llevó a cabo el viernes 11 de junio a las 3:00 p.m. y contó con la participación de Alonso Cavieres (Chile) – Training & Consulting Partner, Customer Experience – Proquest, quien nos apoyó como expositor enfatizando el tema de las tecnologías de descubrimiento en un entorno actual donde las bibliotecas académicas manejan grandes volúmenes de información con el propósito de apoyar el proceso de enseñanza/aprendizaje e investigación de su comunidad académica, se resaltó también la importancia de contar con herramientas de descubrimiento como puntos de acceso únicos de información, para ello mostró como ejemplo nuestro catálogo UPC haciendo una búsqueda integral y enfocando los resultados a los contenidos diversos que nos ofrece Proquest como base de datos suscrita por la UPC.

Page generated in 0.0414 seconds