• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3126
  • 167
  • 104
  • 77
  • 70
  • 14
  • 5
  • 5
  • 5
  • 2
  • 2
  • 1
  • Tagged with
  • 3589
  • 821
  • 729
  • 716
  • 695
  • 695
  • 695
  • 695
  • 695
  • 658
  • 575
  • 555
  • 528
  • 514
  • 465
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Del tema a la tesis: manual para la elaboración del documento de tesis en arquitectura

Dreifuss Serrano, Cristina Isabel 03 1900 (has links)
La tesis de arquitectura es, en muchos sentidos, distinta a las tesis que puedan elaborarse en otras carreras. La principal diferencia es que esta tesis tiene dos grandes partes: la primera tiene es una investigación teórica en la que se recopilan datos e ideas (similar a las tesis teóricas de otras carreras) y la segunda es una etapa proyectual en la que tendrás que diseñar un proyecto arquitectónico en su totalidad. Este documento no se centra en los aspectos proyectuales, sino en los que tienen que ver directamente con la investigación del tema de tesis y la presentación de la información.
432

Facing online challenges using learning classifier systems

Sancho Asensio, Andreu 19 May 2014 (has links)
Els grans avenços en el camp de l’aprenentatge automàtic han resultat en el disseny de màquines competents que són capaces d’aprendre i d’extreure informació útil i original de l’experiència. Recentment, algunes d’aquestes tècniques d’aprenentatge s’han aplicat amb èxit per resoldre problemes del món real en àmbits tecnològics, mèdics, científics i industrials, els quals no es podien tractar amb tècniques convencionals d’anàlisi ja sigui per la seva complexitat o pel gran volum de dades a processar. Donat aquest èxit inicial, actualment els sistemes d’aprenentatge s’enfronten a problemes de complexitat més elevada, el que ha resultat en un augment de l’activitat investigadora entorn sistemes capaços d’afrontar nous problemes del món real eficientment i de manera escalable. Una de les famílies d’algorismes més prometedores en l’aprenentatge automàtic són els sistemes classificadors basats en algorismes genetics (LCSs), el funcionament dels quals s’inspira en la natura. Els LCSs intenten representar les polítiques d’actuació d’experts humans amb un conjunt de regles que s’empren per escollir les millors accions a realitzar en tot moment. Així doncs, aquests sistemes aprenen polítiques d’actuació de manera incremental a mida que van adquirint experiència a través de la informació nova que se’ls va presentant durant el temps. Els LCSs s’han aplicat, amb èxit, a camps tan diversos com la predicció de càncer de pròstata o el suport a la inversió en borsa, entre altres. A més en alguns casos s’ha demostrat que els LCSs realitzen tasques superant la precisió dels éssers humans. El propòsit d’aquesta tesi és explorar la naturalesa de l’aprenentatge online dels LCSs d’estil Michigan per a la mineria de grans quantitats de dades en forma de fluxos d’informació continus a alta velocitat i canviants en el temps. Molt sovint, l’extracció de coneixement a partir d’aquestes fonts de dades és clau per tal d’obtenir una millor comprensió dels processos que les dades estan descrivint. Així, aprendre d’aquestes dades planteja nous reptes a les tècniques tradicionals d’aprenentatge automàtic, les quals no estan dissenyades per tractar fluxos de dades continus i on els conceptes i els nivells de soroll poden variar amb el temps de forma arbitrària. La contribució de la present tesi pren l’eXtended Classifier System (XCS), el LCS d’estil Michigan més estudiat i un dels algoritmes d’aprenentatge automàtic més competents, com el punt de partida. D’aquesta manera els reptes abordats en aquesta tesi són dos: el primer desafiament és la construcció d’un sistema supervisat competent sobre el framework dels LCSs d’estil Michigan que aprèn dels fluxos de dades amb una capacitat de reacció ràpida als canvis de concepte i entrades amb soroll. Com moltes aplicacions científiques i industrials generen grans quantitats de dades sense etiquetar, el segon repte és aplicar les lliçons apreses per continuar amb el disseny de LCSs d’estil Michigan capaços de solucionar problemes online sense assumir una estructura a priori en els dades d’entrada. / Los grandes avances en el campo del aprendizaje automático han resultado en el diseño de máquinas capaces de aprender y de extraer información útil y original de la experiencia. Recientemente alguna de estas técnicas de aprendizaje se han aplicado con éxito para resolver problemas del mundo real en ámbitos tecnológicos, médicos, científicos e industriales, los cuales no se podían tratar con técnicas convencionales de análisis ya sea por su complejidad o por el gran volumen de datos a procesar. Dado este éxito inicial, los sistemas de aprendizaje automático se enfrentan actualmente a problemas de complejidad cada vez m ́as elevada, lo que ha resultado en un aumento de la actividad investigadora en sistemas capaces de afrontar nuevos problemas del mundo real de manera eficiente y escalable. Una de las familias más prometedoras dentro del aprendizaje automático son los sistemas clasificadores basados en algoritmos genéticos (LCSs), el funcionamiento de los cuales se inspira en la naturaleza. Los LCSs intentan representar las políticas de actuación de expertos humanos usando conjuntos de reglas que se emplean para escoger las mejores acciones a realizar en todo momento. Así pues estos sistemas aprenden políticas de actuación de manera incremental mientras van adquiriendo experiencia a través de la nueva información que se les va presentando. Los LCSs se han aplicado con éxito en campos tan diversos como en la predicción de cáncer de próstata o en sistemas de soporte de bolsa, entre otros. Además en algunos casos se ha demostrado que los LCSs realizan tareas superando la precisión de expertos humanos. El propósito de la presente tesis es explorar la naturaleza online del aprendizaje empleado por los LCSs de estilo Michigan para la minería de grandes cantidades de datos en forma de flujos continuos de información a alta velocidad y cambiantes en el tiempo. La extracción del conocimiento a partir de estas fuentes de datos es clave para obtener una mejor comprensión de los procesos que se describen. Así, aprender de estos datos plantea nuevos retos a las técnicas tradicionales, las cuales no están diseñadas para tratar flujos de datos continuos y donde los conceptos y los niveles de ruido pueden variar en el tiempo de forma arbitraria. La contribución del la presente tesis toma el eXtended Classifier System (XCS), el LCS de tipo Michigan más estudiado y uno de los sistemas de aprendizaje automático más competentes, como punto de partida. De esta forma los retos abordados en esta tesis son dos: el primer desafío es la construcción de un sistema supervisado competente sobre el framework de los LCSs de estilo Michigan que aprende de flujos de datos con una capacidad de reacción rápida a los cambios de concepto y al ruido. Como muchas aplicaciones científicas e industriales generan grandes volúmenes de datos sin etiquetar, el segundo reto es aplicar las lecciones aprendidas para continuar con el diseño de nuevos LCSs de tipo Michigan capaces de solucionar problemas online sin asumir una estructura a priori en los datos de entrada. / Last advances in machine learning have fostered the design of competent algorithms that are able to learn and extract novel and useful information from data. Recently, some of these techniques have been successfully applied to solve real-­‐world problems in distinct technological, scientific and industrial areas; problems that were not possible to handle by the traditional engineering methodology of analysis either for their inherent complexity or by the huge volumes of data involved. Due to the initial success of these pioneers, current machine learning systems are facing problems with higher difficulties that hamper the learning process of such algorithms, promoting the interest of practitioners for designing systems that are able to scalably and efficiently tackle real-­‐world problems. One of the most appealing machine learning paradigms are Learning Classifier Systems (LCSs), and more specifically Michigan-­‐style LCSs, an open framework that combines an apportionment of credit mechanism with a knowledge discovery technique inspired by biological processes to evolve their internal knowledge. In this regard, LCSs mimic human experts by making use of rule lists to choose the best action to a given problem situation, acquiring their knowledge through the experience. LCSs have been applied with relative success to a wide set of real-­‐ world problems such as cancer prediction or business support systems, among many others. Furthermore, on some of these areas LCSs have demonstrated learning capacities that exceed those of human experts for that particular task. The purpose of this thesis is to explore the online learning nature of Michigan-­‐style LCSs for mining large amounts of data in the form of continuous, high speed and time-­‐changing streams of information. Most often, extracting knowledge from these data is key, in order to gain a better understanding of the processes that the data are describing. Learning from these data poses new challenges to traditional machine learning techniques, which are not typically designed to deal with data in which concepts and noise levels may vary over time. The contribution of this thesis takes the extended classifier system (XCS), the most studied Michigan-­‐style LCS and one of the most competent machine learning algorithms, as the starting point. Thus, the challenges addressed in this thesis are twofold: the first challenge is building a competent supervised system based on the guidance of Michigan-­‐style LCSs that learns from data streams with a fast reaction capacity to changes in concept and noisy inputs. As many scientific and industrial applications generate vast amounts of unlabelled data, the second challenge is to apply the lessons learned in the previous issue to continue with the design of unsupervised Michigan-­‐style LCSs that handle online problems without assuming any a priori structure in input data.
433

Evolución de los criterios de intervención con hormigón armado en la restauración de edificios históricos en España y en México

Esponda Cascajares, Mariana 22 March 2004 (has links)
El tema de esta investigación surgió al observar la "irrupción" que, durante el siglo XX, presentó el hormigón armado en la restauración de edificios históricos. A partir de los años cincuenta se generalizó el uso de esta técnica para solucionar cualquier tipo de deterioro en las construcciones históricas, hecho que modificó radicalmente su concepción estructural y como consecuencia produjo una manera distinta de intervenirlos. A finales del siglo XX se comenzó a observar que las restauraciones con hormigón armado, que se pensaban como muy eficaces, en algunos casos, no estaban superando la "prueba del tiempo" manifestándose incompatibilidades con los elementos, tanto por las características internas de los mismos materiales como a errores por la puesta en obra, debido a problemas en la técnica de ejecución, en la calidad o en la cantidad del material. Esta tesis expone un recorrido histórico sobre la evolución que han tenido los criterios de intervención con hormigón armado como técnica de restauración; se desarrolla desde dos puntos de vista, la primera parte se basa en la formación de los planteamientos teóricos y la segunda parte en la confrontación con la práctica del hormigón armado, a través del análisis de un muestreo de edificios restaurados con este material en México y en España. Uno de los objetivos de este estudio es la obtención de mayor conocimiento sobre las condiciones reales de los monumentos restaurados con hormigón armado, cotejando la información básica sobre el estado inicial antes de introducir este material, las razones que motivaron su uso y difusión, analizando los criterios de intervención y evaluando, aproximadamente después de veinte a cuarenta años, cuáles han sido las consecuencias de estas actuaciones. La obtención de tales rectificaciones deberá servir como experiencia para revalorar las técnicas tradicionales, adquirir nuevos conocimientos sobre las restauraciones con hormigón armado y sentar las bases para nuevas líneas de investigación hacia una correcta utilización de ambos materiales. De la investigación realizada obtuvimos diversas conclusiones sobre tres aspectos, el primero, las razones por las cuales se utilizó el hormigón armado a partir de los años cincuenta en la restauración habitual fueron la confianza acrítica, la ausencia, casi total, de una teoría específica y la influencia de los métodos de cálculo por ordenador. Además en las situaciones de emergencia para contrarrestar los daños después de guerras y de sismos. El segundo punto se refiere a las razones por las que se comienza a rechazar este material en recientes fechas, debido a la constatación por la falta de durabilidad, como consecuencia de la incompatibilidad física, química y mecánica que presenta el hormigón armado con los materiales tradicionales, así como su difícil reversibilidad y autenticidad. Específicamente se comprobó que las incompatibilidades mecánicas en el caso de zonas no sísmicas como España, se presentan en un período a largo plazo. En cambio, en zonas sísmicas como México, la introducción de estos nuevos refuerzos ha modificado sustancialmente el comportamiento estructural original debido a que presentan formas de trabajar distintas y al rigidizarlas en exceso, estas estructuras de fábrica se vuelven más vulnerables porque no son capaces de absorber los movimientos sísmicos. Por último, las razones por las que a pesar de la constatación del balance negativo en la actualidad se sigue utilizando el hormigón armado, se debe a que no hay una conciencia precisa sobre los efectos negativos y/o se ignoran los inconvenientes, no hay alternativas fáciles, claras, rápidas, ni únicas, hay un desconocimiento sobre las técnicas constructivas antiguas y, sobre todo, por que no se asimilan, ni se difunden, ni se transmiten los nuevos conocimientos.
434

Ajuda al Diagnòstic de Càncer de Melanoma amb Raonament Analògic Multietiqueta

Nicolàs Sans, Rubén 21 March 2014 (has links)
La mortalitat provocada pel càncer de melanoma ha augmentat en els últims anys a causa, principalment, dels nous hàbits d'exposició al sol. Atenent al criteri mèdic, el diagnòstic precoç s'ha convertit en el millor mètode de prevenció. No és però una tasca trivial ja que els experts del domini han de fer front a un problema caracteritzat per tenir un gran volum de dades, de format heterogeni i amb coneixement parcial. A partir d'aquestes necessitats es proposa la creació d'una eina de suport a la presa de decisions que sigui capaç d'ajudar els experts en melanoma en el seu diagnòstic. El sistema ha de fer front a diversos reptes plantejats, que inclouen la caracterització del domini, la identificació de patrons a les dades segons el criteri dels experts, la classificació de nous pacients i la capacitat d'explicar els pronòstics obtinguts. Aquestes fites s'han materialitzat en la plataforma DERMA, la qual està basada en la col•laboració de diversos subsistemes de raonament analògic multietiqueta. L'experimentació realitzada amb el sistema proposat utilitzant dades d'imatges confocals i dermatoscòpiques ha permès comprovar la fiabilitat del sistema. Els resultats obtinguts han estat validats pels experts en el diagnòstic del melanoma considerant-los positius. / La mortalidad a causa del cáncer de melanoma ha aumentado en los últimos años debido, principalmente, a los nuevos hábitos de exposición al sol. Atendiendo al criterio médico, el diagnóstico precoz se ha convertido en el mejor método de prevención, pero no se trata de una tarea trivial puesto que los expertos del dominio deben hacer frente a un problema caracterizado por tener un gran volumen de datos, de formato heterogéneo y con conocimiento parcial. A partir de estas necesidades se propone la creación de una herramienta de ayuda a la toma de decisiones que sea capaz de ayudar a los expertos en melanoma en su diagnóstico. El sistema tiene que hacer frente a diversos retos planteados, que incluyen la caracterización del dominio, la identificación de patrones en los datos según el criterio médico, la clasificación de nuevos pacientes y la capacidad de explicar los pronósticos obtenidos. Estas metas se han materializado en la plataforma DERMA la cual está basada en la colaboración de varios subsistemas de razonamiento analógico multietiqueta. La experimentación realizada con el sistema propuesto utilizando datos de imágenes confocales y dermatoscópicas ha permitido verificar la fiabilidad del sistema. Los resultados obtenidos han sido validados por los expertos en el diagnóstico del melanoma considerándolos positivos. / Mortality related to melanoma cancer has increased in recent years, mainly due to new habits of sun exposure. Considering the medical criteria, early diagnosis has become the best method of prevention but this is not trivial because experts are facing a problem characterized by a large volume of data, heterogeneous, and with partial knowledge. Based on these requirements we propose the creation of a decision support system that is able to assist experts in melanoma diagnosis. The system has to cope with various challenges, that include the characterization of the domain, the identification of data patterns attending to medical criteria, the classification of new patients, and the ability to explain predictions. These goals have been materialized in DERMA platform that is based on the collaboration of several analogical reasoning multi-label subsystems. The experiments conducted with the proposed system using confocal and dermoscopic images data have been allowed to ascertain the reliability of the system. The results have been validated by experts in diagnosis of melanoma considering it as positive.
435

From cluster databases to cloud storage: Providing transactional support on the cloud

Navarro Martín, Joan 02 February 2015 (has links)
Durant les últimes tres dècades, les limitacions tecnològiques (com per exemple la capacitat dels dispositius d'emmagatzematge o l'ample de banda de les xarxes de comunicació) i les creixents demandes dels usuaris (estructures d'informació, volums de dades) han conduït l'evolució de les bases de dades distribuïdes. Des dels primers repositoris de dades per arxius plans que es van desenvolupar en la dècada dels vuitanta, s'han produït importants avenços en els algoritmes de control de concurrència, protocols de replicació i en la gestió de transaccions. No obstant això, els reptes moderns d'emmagatzematge de dades que plantegen el Big Data i el cloud computing—orientats a millorar la limitacions pel que fa a escalabilitat i elasticitat de les bases de dades estàtiques—estan empenyent als professionals a relaxar algunes propietats importants dels sistemes transaccionals clàssics, cosa que exclou a diverses aplicacions les quals no poden encaixar en aquesta estratègia degut a la seva alta dependència transaccional. El propòsit d'aquesta tesi és abordar dos reptes importants encara latents en el camp de les bases de dades distribuïdes: (1) les limitacions pel que fa a escalabilitat dels sistemes transaccionals i (2) el suport transaccional en repositoris d'emmagatzematge en el núvol. Analitzar les tècniques tradicionals de control de concurrència i de replicació, utilitzades per les bases de dades clàssiques per suportar transaccions, és fonamental per identificar les raons que fan que aquests sistemes degradin el seu rendiment quan el nombre de nodes i / o quantitat de dades creix. A més, aquest anàlisi està orientat a justificar el disseny dels repositoris en el núvol que deliberadament han deixat de banda el suport transaccional. Efectivament, apropar el paradigma de l'emmagatzematge en el núvol a les aplicacions que tenen una forta dependència en les transaccions és fonamental per a la seva adaptació als requeriments actuals pel que fa a volums de dades i models de negoci. Aquesta tesi comença amb la proposta d'un simulador de protocols per a bases de dades distribuïdes estàtiques, el qual serveix com a base per a la revisió i comparativa de rendiment dels protocols de control de concurrència i les tècniques de replicació existents. Pel que fa a la escalabilitat de les bases de dades i les transaccions, s'estudien els efectes que té executar diferents perfils de transacció sota diferents condicions. Aquesta anàlisi contínua amb una revisió dels repositoris d'emmagatzematge de dades en el núvol existents—que prometen encaixar en entorns dinàmics que requereixen alta escalabilitat i disponibilitat—, el qual permet avaluar els paràmetres i característiques que aquests sistemes han sacrificat per tal de complir les necessitats actuals pel que fa a emmagatzematge de dades a gran escala. Per explorar les possibilitats que ofereix el paradigma del cloud computing en un escenari real, es presenta el desenvolupament d'una arquitectura d'emmagatzematge de dades inspirada en el cloud computing la qual s’utilitza per emmagatzemar la informació generada en les Smart Grids. Concretament, es combinen les tècniques de replicació en bases de dades transaccionals i la propagació epidèmica amb els principis de disseny usats per construir els repositoris de dades en el núvol. Les lliçons recollides en l'estudi dels protocols de replicació i control de concurrència en el simulador de base de dades, juntament amb les experiències derivades del desenvolupament del repositori de dades per a les Smart Grids, desemboquen en el que hem batejat com Epidemia: una infraestructura d'emmagatzematge per Big Data concebuda per proporcionar suport transaccional en el núvol. A més d'heretar els beneficis dels repositoris en el núvol en quant a escalabilitat, Epidemia inclou una capa de gestió de transaccions que reenvia les transaccions dels clients a un conjunt jeràrquic de particions de dades, cosa que permet al sistema oferir diferents nivells de consistència i adaptar elàsticament la seva configuració a noves demandes de càrrega de treball. Finalment, els resultats experimentals posen de manifest la viabilitat de la nostra contribució i encoratgen als professionals a continuar treballant en aquesta àrea. / Durante las últimas tres décadas, las limitaciones tecnológicas (por ejemplo la capacidad de los dispositivos de almacenamiento o el ancho de banda de las redes de comunicación) y las crecientes demandas de los usuarios (estructuras de información, volúmenes de datos) han conducido la evolución de las bases de datos distribuidas. Desde los primeros repositorios de datos para archivos planos que se desarrollaron en la década de los ochenta, se han producido importantes avances en los algoritmos de control de concurrencia, protocolos de replicación y en la gestión de transacciones. Sin embargo, los retos modernos de almacenamiento de datos que plantean el Big Data y el cloud computing—orientados a mejorar la limitaciones en cuanto a escalabilidad y elasticidad de las bases de datos estáticas—están empujando a los profesionales a relajar algunas propiedades importantes de los sistemas transaccionales clásicos, lo que excluye a varias aplicaciones las cuales no pueden encajar en esta estrategia debido a su alta dependencia transaccional. El propósito de esta tesis es abordar dos retos importantes todavía latentes en el campo de las bases de datos distribuidas: (1) las limitaciones en cuanto a escalabilidad de los sistemas transaccionales y (2) el soporte transaccional en repositorios de almacenamiento en la nube. Analizar las técnicas tradicionales de control de concurrencia y de replicación, utilizadas por las bases de datos clásicas para soportar transacciones, es fundamental para identificar las razones que hacen que estos sistemas degraden su rendimiento cuando el número de nodos y/o cantidad de datos crece. Además, este análisis está orientado a justificar el diseño de los repositorios en la nube que deliberadamente han dejado de lado el soporte transaccional. Efectivamente, acercar el paradigma del almacenamiento en la nube a las aplicaciones que tienen una fuerte dependencia en las transacciones es crucial para su adaptación a los requerimientos actuales en cuanto a volúmenes de datos y modelos de negocio. Esta tesis empieza con la propuesta de un simulador de protocolos para bases de datos distribuidas estáticas, el cual sirve como base para la revisión y comparativa de rendimiento de los protocolos de control de concurrencia y las técnicas de replicación existentes. En cuanto a la escalabilidad de las bases de datos y las transacciones, se estudian los efectos que tiene ejecutar distintos perfiles de transacción bajo diferentes condiciones. Este análisis continua con una revisión de los repositorios de almacenamiento en la nube existentes—que prometen encajar en entornos dinámicos que requieren alta escalabilidad y disponibilidad—, el cual permite evaluar los parámetros y características que estos sistemas han sacrificado con el fin de cumplir las necesidades actuales en cuanto a almacenamiento de datos a gran escala. Para explorar las posibilidades que ofrece el paradigma del cloud computing en un escenario real, se presenta el desarrollo de una arquitectura de almacenamiento de datos inspirada en el cloud computing para almacenar la información generada en las Smart Grids. Concretamente, se combinan las técnicas de replicación en bases de datos transaccionales y la propagación epidémica con los principios de diseño usados para construir los repositorios de datos en la nube. Las lecciones recogidas en el estudio de los protocolos de replicación y control de concurrencia en el simulador de base de datos, junto con las experiencias derivadas del desarrollo del repositorio de datos para las Smart Grids, desembocan en lo que hemos acuñado como Epidemia: una infraestructura de almacenamiento para Big Data concebida para proporcionar soporte transaccional en la nube. Además de heredar los beneficios de los repositorios en la nube altamente en cuanto a escalabilidad, Epidemia incluye una capa de gestión de transacciones que reenvía las transacciones de los clientes a un conjunto jerárquico de particiones de datos, lo que permite al sistema ofrecer distintos niveles de consistencia y adaptar elásticamente su configuración a nuevas demandas cargas de trabajo. Por último, los resultados experimentales ponen de manifiesto la viabilidad de nuestra contribución y alientan a los profesionales a continuar trabajando en esta área. / Over the past three decades, technology constraints (e.g., capacity of storage devices, communication networks bandwidth) and an ever-increasing set of user demands (e.g., information structures, data volumes) have driven the evolution of distributed databases. Since flat-file data repositories developed in the early eighties, there have been important advances in concurrency control algorithms, replication protocols, and transactions management. However, modern concerns in data storage posed by Big Data and cloud computing—related to overcome the scalability and elasticity limitations of classic databases—are pushing practitioners to relax some important properties featured by transactions, which excludes several applications that are unable to fit in this strategy due to their intrinsic transactional nature. The purpose of this thesis is to address two important challenges still latent in distributed databases: (1) the scalability limitations of transactional databases and (2) providing transactional support on cloud-based storage repositories. Analyzing the traditional concurrency control and replication techniques, used by classic databases to support transactions, is critical to identify the reasons that make these systems degrade their throughput when the number of nodes and/or amount of data rockets. Besides, this analysis is devoted to justify the design rationale behind cloud repositories in which transactions have been generally neglected. Furthermore, enabling applications which are strongly dependent on transactions to take advantage of the cloud storage paradigm is crucial for their adaptation to current data demands and business models. This dissertation starts by proposing a custom protocol simulator for static distributed databases, which serves as a basis for revising and comparing the performance of existing concurrency control protocols and replication techniques. As this thesis is especially concerned with transactions, the effects on the database scalability of different transaction profiles under different conditions are studied. This analysis is followed by a review of existing cloud storage repositories—that claim to be highly dynamic, scalable, and available—, which leads to an evaluation of the parameters and features that these systems have sacrificed in order to meet current large-scale data storage demands. To further explore the possibilities of the cloud computing paradigm in a real-world scenario, a cloud-inspired approach to store data from Smart Grids is presented. More specifically, the proposed architecture combines classic database replication techniques and epidemic updates propagation with the design principles of cloud-based storage. The key insights collected when prototyping the replication and concurrency control protocols at the database simulator, together with the experiences derived from building a large-scale storage repository for Smart Grids, are wrapped up into what we have coined as Epidemia: a storage infrastructure conceived to provide transactional support on the cloud. In addition to inheriting the benefits of highly-scalable cloud repositories, Epidemia includes a transaction management layer that forwards client transactions to a hierarchical set of data partitions, which allows the system to offer different consistency levels and elastically adapt its configuration to incoming workloads. Finally, experimental results highlight the feasibility of our contribution and encourage practitioners to further research in this area.
436

Clínica psiquiátrica para el tratamiento integral de los trastornos de adicción y alimentarios

Cataldo Nazal, M. Fernanda January 2007 (has links)
Hoy se ha perdido el miedo al enfermo psíquico. La razón y la locura en la sociedad actual andan de la mano. Psiquico…la rótula que antes implicaba marginalidad social inmediata –encerrar al monstruo de la sinrazón en el manicomio- ha perdido su estigma. Las enfermedades mentales ya están incorporadas en las listas médicas (aunque no en las políticas como se deseara) y son tan respetables como cualquier otra. La gente no teme hablar del tema, no es un tabú si no mas bien continuo debate de contingencia. Se ha vuelto cuestiones tan cotidianas la drogadicción, la anorexia, la bulimia, el alcoholismo… que amenazan con transformarse en modas. Es verdad que la asistencia a la salud mental ha cambiado muchísimo en los últimos cien años, pero nosotros, como país, estamos recién aún en la línea partida.
437

Centro Nipon: Arquitectura como soporte de imagen de marca país

Font, Giselle January 2007 (has links)
El centro nipón debe conjugar los requerimientos individuales de cada una de las organizaciones japonesas y soporte de una imagen país con la capacidad de optimizar el uso de equipamiento común. De esta manera, se reconocen tres niveles de privacidad del equipamiento del Centro Nipón: Nivel 1: de carácter semi público. Espacio común a todas las organizaciones, que permite el desarrollo de eventos y actividades de difusión, que incluye la llegada de personas externas. Nivel 2: de carácter semi privado: Espacio común a todas las organizaciones necesario para el desarrollo de actividades propias de las oficinas administrativas, con acceso restringido a personas externas al Centro Nipón. Nivel 3: de carácter privado: Espacio propio de cada organización destinado a desarrollar las actividades administrativas, con acceso restringido de personas externas a la organización.
438

Sede Infocap Concepción, VIII Región

Flaño M., Matías January 2006 (has links)
Oportunidades. La igualdad es un asunto de oportunidades. Para progresar en la vida, mujeres y hombres necesitamos adquirir conocimientos, destrezas y habilidades. Es decir, contar con doce años de escolarización y, en lo posible, con alguna clasificación para el trabajo, oficio técnico o profesión. Es nuestro derecho, pues sólo la educación ofrece un camino seguro hacia el empleo, mejores ingresos y mayor bienestar. La sociedad tiene el deber de garantizar este derecho, asegurando a todos sus hijos una educación de calidad, que los prepare para seguir aprendiendo a lo largo de la vida. Desigualdades. Sociedades desiguales, como la nuestra, tienen dificultades para cumplir adecuadamente con su deber educacional. O bien excluyen a grupos de niños y jóvenes de la escuela, cosa que en Chile ya casi no sucede, o bien son incapaces de ofrecer a todos ellos una educación de similar calidad. Este último problema aqueja a nuestra sociedad. Hay diferentes canales educacionales y establecimientos escolares para niños, jóvenes y adultos que provienen de diferentes grupos sociales. Los hijos privilegiados tienen una formación privilegiada; los demás, educaciones de menor calidad. Perspectivas. Para avanzar necesitamos ahora que las oportunidades para acceder al conocimiento, cultivar nuestro talentos y adquirir destrezas necesarias para la vida se emparejen hacia arriba para todos. Esto supone gastar más en la educación de los que tienen menos; mejorar las capacidades de los establecimientos que atienden a los alumnos de los hogares y comunas de menores ingresos, y multiplicar las posibilidades para que estas familias puedan enviar a sus hijos más pequeños a jardines infantiles de calidad. Además, es imprescindible fortalecer la formación técnica; incrementar el número de becas para completar estudios secundarios y continuarlos en el nivel superior, y comprometer a municipios, empresas y comunidades locales en esta gran tarea. Sólo así llegaremos a ser una sociedad justa. Las estadísticas que a continuación se presentan, reflejan lo expresado anteriormente a nivel mundial y nacional.
439

Centro de incubación y difusión de la pequeña y mediana empresa: anillo interior metropolitano de Santiago

Guajardo, Alvaro January 2004 (has links)
Dar cabida a nuevas formas de relaciones en la producción, la información y el desarrollo tecnológico. Crear un espacio en donde la pequeña empresa naciente tenga la oportunidad de acceder a herramientas de trabajo -información, capacidad empresarial, capacidad técnica, recursos, espacios físicos, para posteriormente poder acceder a los mercados abiertos.
440

Centro de difusión del vino chileno : barrio Lastarria, Santiago

Aldunate de la Paz, Carolina January 2006 (has links)
No description available.

Page generated in 0.0345 seconds