• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 73
  • 31
  • 29
  • 18
  • 9
  • 6
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 486
  • 194
  • 190
  • 185
  • 184
  • 183
  • 183
  • 183
  • 183
  • 183
  • 98
  • 64
  • 50
  • 36
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Simulación de arquitecturas computacionales

Mayosky, Miguel Ángel 26 January 1990 (has links)
No description available.
222

Aumentando las Prestaciones en la Predicción de Flujo de Instrucciones

Moure López, Juan Carlos 02 June 2006 (has links)
Las dependencias en el flujo de control limitan el rendimiento de los procesadores superescalares. La predicción del flujo de control permite superar este límite, pero supone un compromiso entre requerimientos aparentemente incompatibles. Por un lado, la predicción debe ser precisa, para que un elevado número de casos se beneficien del predictor. Por otro lado, la predicción debe ser rápida. El problema es que la precisión se aumenta almacenando mayor cantidad de información y utilizando algoritmos más complejos, que alargan el tiempo para realizar las predicciones.En esta tesis se presentan diferentes estrategias y se realizan varias propuestas para aumentar el rendimiento global del predictor de flujo de control. Se trata de organizar y codificar la información de forma eficiente, y de dotar al predictor de flexibilidad para adaptarse a los diferentes casos de forma eficaz. Así, las predicciones más frecuentes y sencillas se realizan rápidamente y utilizando recursos mínimos, mientras que predicciones menos comunes o que requieren el uso de más información para alcanzar una alta precisión, pueden realizarse más lentamente. La flexibilidad del diseño combinada con el exceso de ancho de banda permite compensar estos casos complejos y lentos, con el resto de casos, frecuentes y rápidos. El resultado es un aumento del ancho de banda de las predicciones gracias tanto al aumento de la velocidad de predicción como al aumento de la anchura de cada predicción. Todo ello se consigue sin reducir la precisión del predictor, y además con un moderado consumo energético.En primer lugar, las estrategias de predicción de vía, de jerarquía de dos niveles, y de predicción de índice consiguen aumentar la velocidad de predicción sin disminuir la precisión en la predicción y con un aumento moderado de la memoria del predictor. En segundo lugar se propone un método eficiente de predicción de trazas, que reduce los problemas de otras propuestas anteriores en la literatura, y que consigue aumentar la anchura de las predicciones, sin disminuir su precisión y también con un aumento moderado de los requerimientos de memoria. Finalmente se propone una nueva organización de dos niveles que mejora la gestión de los saltos indirectos para, fijado el tamaño de memoria disponible, aumentar su precisiónAunque en la tesis no se hace ninguna propuesta dirigida explícitamente a mejorar los algoritmos de predicción para aumentar su precisión, una organización más eficiente del predictor tiene como resultado lateral disponer de más recursos para aumentar la precisión. Por un lado, se dispone de más capacidad para almacenar la historia pasada. Por otro lado, se proporciona mayor tolerancia al aumento de la latencia en las predicciones, lo que permite aplicar algoritmos más complejos para poder aumentar la precisión. / Control flow dependences limit the performance of superscalar processors. Predicting control flow allows surpassing this limit, but involves a compromise among seemingly incompatible goals. On one hand, predictions must be accurate, so that it benefits most of the cases. On the other hand, predictions should be fast. The problem is that accuracy is increased by storing more information and using more complex algorithms, which increases prediction latency.This thesis presents different strategies and performs several proposals to increase the global performance of a control flow predictor. Prediction data are efficiently arranged and codified to allow the predictor to adapt to the different prediction cases. Frequent and simple predictions are performed very fast and consume little resources, while less frequent predictions or those that use more information to achieve higher accuracies are performed more slowly. A flexible design combined with an excess of prediction bandwidth compensates complex and slow cases with the more frequent simple and fast cases. The overall result is higher prediction bandwidth, both due to an increase in prediction rate and also an increase in prediction width. This is achieved without reducing prediction accuracy and with moderate energy consumption.The strategies used to augment prediction speed are way prediction, index prediction, and a two-level hierarchy of predictors. Trace prediction is proposed to increase prediction width. An efficient mechanism enhances the previous proposals in the literature. In all cases, prediction accuracy is not reduced and memory requirements are slightly increased. Finally, a new two-level organization is used for predicting indirect jumps, which increases prediction accuracy for a fixed amount of memory.This thesis does not address new methods to increase prediction accuracy, but a more efficient predictor has a lateral effect of providing more resources to increase accuracy. On the one hand, there is more capability to store past branch history. On the other hand, prediction latency is more easily tolerated, which allows applying more complex algorithms to improve prediction accuracy.
223

Simulación del Servicio de Urgencias Hospitalarias: una aproximación computacional desarrollada mediante técnicas de Modelado Orientadas al Individuo (MoI)

Taboada González, Manuel 12 July 2013 (has links)
La saturació dels serveis d'urgències hospitalaris (SUH) és un problema que comparteixen els sistemes sanitaris de tot el món. El Departament d'Urgències és una de les àrees més complexes i dinàmiques d'un hospital. La planificació i gestió dels seus recursos és complexa, ja que reben una demanda de servei no lineal, que varia depenent de l'hora del dia, el dia de la setmana o el mes de l'any. No hi ha models estàndards que descriguin el comportament de sistemes complexos, però aquests tenen característiques en comú. La Simulació es converteix en una eina per al modelatge d'aquest tipus de sistemes, permetent donar resposta a preguntes de tipus "què passaria si ..." (per exemple, en cas d'una pandèmia concreta, per explorar com afecten combinacions alternatives de professionals del SUH sobre el nombre de pacients atesos), així com per trobar resposta a preguntes de l'estil "quina és la millor opció ...", pròpies d'objectius d'optimització (per exemple quina és la combinació de professionals que permet minimitzar el temps d'estada de els pacients en el SUH, subjecte a restriccions pressupostàries i de disponibilitat de personal). L'objectiu d'aquest treball de recerca ha estat dissenyar i desenvolupar un model i la seva simulació aplicant tècniques de Modelatge Orientat a Individus (MoI) que puguin ser utilitzats pels responsables dels serveis d'urgències per prendre les decisions operatives adequades en disposar, a través del simulador, de la informació necessària. En el model i simulació desenvolupats totes les regles afecten als agents que els formen, de manera que el comportament del sistema emergeix com a resultat de les accions i interaccions d'aquests agents. Aquest model descriu la dinàmica complexa que es troba en un SUH, en què els diferents individus i altres elements són representats en forma d'agents. S'han identificat 2 tipus d'agents: 1) agents actius, que representen les persones implicades en el servei (pacients, personal d'admissió, infermeres, metges, etc), 2) agents passius, que representen serveis i altres sistemes reactius, com els laboratoris, el sistema informàtic, etc. El comportament dels agents actius ha estat modelat mitjançant "màquines d'estat de Moore", considerant les variables que permeten definir els estats en què es troba l'individu durant la seva estada en el servei d'urgències. L'agent canvia d'estat en rebre un input d'un altre agent, en cas que modifiqui el valor d'una o més d'aquestes variables. Per modelar les interaccions entre agents s'ha inclòs un model de comunicació que inclou els Inputs que reben i els outputs que generen els agents, i l'entorn físic en el qual els agents es mouen i interactuen. Aquest entorn inclou les diferents àrees del SUH (admissió, sales de triatge, les diferents sales d'espera, sales d'atenció, etc). L'eina pot ser utilitzada en diferents serveis d'urgències després d'un procés de sintonització dividit en 2 etapes, que ha de ser realitzat prèviament al seu ús. Per realitzar aquest procés és indispensable l'ús de Computació d'Altes Prestacions i l'aplicació de tècniques de paral·lelització. / La saturación de los servicios de urgencias hospitalarias (SUH) es un problema que comparten los sistemas sanitarios de todo el mundo. El Departamento de Urgencias es una de las áreas más complejas y dinámicas de un hospital. La planificación y gestión de sus recursos es compleja, pues reciben una demanda de servicio no lineal, que varía dependiendo de la hora del día, el día de la semana o el mes del año. No existen modelos estándares que describan el comportamiento de sistemas complejos, pero estos comparten características en común. La Simulación se convierte en una herramienta para el modelado de este tipo de sistemas, permitiendo dar respuesta a preguntas de tipo “qué pasaría si...” (por ejemplo, en caso de una pandemia concreta, para explorar cómo afectan combinaciones alternativas de profesionales del SUH sobre el número de pacientes atendidos), así como para encontrar respuesta a preguntas del estilo “cuál es la mejor opción…”, propias de objetivos de optimización (por ejemplo cual es la combinación de profesionales que permite minimizar el tiempo de estancia de los pacientes en el SUH, sujeto a restricciones presupuestarias y de disponibilidad de personal). El objetivo de este trabajo de investigación ha sido diseñar y desarrollar un modelo y su simulación aplicando técnicas de Modelado Orientado a Individuos (MoI) que puedan ser utilizados por los responsables de los servicios de urgencias para tomar las decisiones operativas adecuadas al disponer, a través del simulador, de la información necesaria. En el modelo y simulación desarrollados todas las reglas afectan a los agentes que los forman, de manera que el comportamiento del sistema emerge como resultado de las acciones e interacciones de dichos agentes. Dicho modelo describe la dinámica compleja que se encuentra en un SUH, en el que los diferentes individuos y otros elementos son representados en forma de agentes. Se han identificado 2 tipos de agentes: 1) agentes activos, que representan a las personas implicadas en el servicio (pacientes, personal de admisión, enfermeras, médicos, etc); 2) agentes pasivos, que representan servicios y otros sistemas reactivos, como los laboratorios, el sistema informático, etc. El comportamiento de los agentes activos ha sido modelado mediante “máquinas de estado de Moore”, considerando las variables que permiten definir los estados en los que se encuentra el individuo durante su estancia en el servicio de urgencias. El agente cambia de estado al recibir un input de otro agente, en caso de que modifique el valor de una o más de dichas variables. Para modelizar las interacciones entre agentes se ha incluido un modelo de comunicación que incluye los Inputs que reciben y los outputs que generan los agentes, y el entorno físico en el que los agentes se mueven e interactúan. Dicho entorno incluye las diferentes áreas del SUH (admisión, salas de triaje, las diferentes salas de espera, salas de atención, etc). La herramienta puede ser utilizada en diferentes servicios de urgencias después de un proceso de sintonización dividido en 2 etapas, que debe ser realizado previamente a su uso. Para realizar dicho proceso resulta indispensable el uso de Computación de Altas Prestaciones y la aplicación de técnicas de paralelización. / Overcrowding of hospital emergency departments (ED) is a phenomena shared by health systems around the world. The ED may well be one of the most complex and fluid healthcare systems that exists. The resource planning in ED is complex because its activity is not linear, and it varies depending on time, day of week and season. There are no standard models to describe a complex system, but they share many common traits. Simulation becomes an important tool for modeling this kind of systems, enabling to answer questions like “what happens if?” (e.g., in case of a specific pandemic, to explore how the composition of ED staff members influences the number of patients attended in a period of time) and to find the answer to questions such as “which is the best for ...?” (for instance the number of staff that leads to minimize the “Length of Stay” of patients, constrained by the availability of budget and number of healthcare staff). The goal of the research has been to develop an Agent-Based model and a simulation that, used as decision support system (DSS), aids the managers of the ED to allow additional knowledge of patient admission scheduling, physician staff, resource optimization, and decreased patient waiting time, amongst other situations. In the designed ED Model all rules within the model concern agents, no higher level behavior is modeled. The System behavior emerges as a result of local level actions and interactions. Such model describes the complex dynamics found in an ED, representing each individual and entity as an agent. Two distinct kinds of agents have been identified, active and passive. Active agents represent the persons involved in the ED such as patients and ED Staff (admission staff, nurses, doctors, etc). Passive agents represent services and other reactive systems, such as the information technology (IT) infrastructure or services used for performing tests. State machines are used to represent the actions of each agent. This takes into consideration all the variables that are required to represent the many different states that such individual (a patient, a member of hospital staff, or any other role) may be in throughout the course of the time in a hospital emergency department. The change in these variables, invoked by an input from an external source, is modeled as a transition between states. The communication between individuals is modeled as the Inputs that agents receive and the Outputs they produce. In order to control the agent interaction, the physical environment in which these agents interact also has to be modeled, being sufficient do it as a series of interconnected areas, such as admissions, triage box, the different waiting rooms, or consultation suits. The model and simulation can be applied is alternatives ED through a two steps tuning process with the Real System, that have to be carry out previously. This process requires the use of High Performance Computing and Parallelization techniques.
224

Optimisation via Simulation for Healthcare Emergency Departments

Cabrera Flores, Eduardo Cesar 19 November 2013 (has links)
Actualment, molts dels sistemes de salut són entorns grans, complexos i molt dinàmics, en particular els serveis d'urgències hospitalaris (EDs per les sigles en anglès). Aquests obren i funcionen les 24 hores al dia durant tot l'any, amb recursos limitats. Els EDs solen estar a l'entrada principal de l'hospital i un component clau de tot el sistema de salut. La missió original dels EDs és atendre situacions d'emergència únicament. No obstant això, els usuaris d' EDs inclouen una àmplia gamma de malalties i lesions des de casos de veritable emergència, fins als no urgents. Com a resultat d'això, els EDs estan saturats. Per tant, és necessari l'ús ampli de simulacions de EDs a ordinador per avaluar les seves respostes a la demanda de serveis. L'elecció dels paràmetres de simulació òptims pot millorar el seu funcionament, però l'elecció d'una bona configuració segueix sent un gran desafiament. Aquesta millora es pot aconseguir mitjançant la modelització dels EDs basat en agents i la simulació. L'optimització a través de la simulació és un camp emergent que integra tècniques d'optimització en l'anàlisi de simulacions. En aquesta investigació es proposa una metodologia d'optimització de dues fases per a l'optimització d’EDs a través de la simulació. La primera fase és un enfocament de gra gruixut que consisteix en una etapa d'exploració global sobre tot l'espai de cerca. Aquesta fase identifica regions prometedores per a l'optimització basat en una estructura de veïnatge del problema. Aquesta fase fa servir ja sigui un enfocament pipeline d'un servei d'urgències o l'heurística de Monte Carlo més el mètode de K-means, o ambdós. Aquesta primera fase retorna una col•lecció de regions prometedores. La segona fase és un enfocament de gra fi, que consisteix en la recerca de la millor solució, ja sigui l'òptima o una sub-òptima mitjançant la realització d'una “recerca exhaustiva reduïda” en tals regions prometedores. En aquest treball s'optimitza la configuració del personal sanitari d'un ED existent. La configuració del seu personal inclou: metges, infermeres de triatge i d'urgències, personal d'admissió, i tècnics de raigs X, la quantitat i el tipus d'ells. La configuració del personal dels EDs és un problema combinatori, que pot consumir molt de temps a resoldre. Específicament tres índex diferents: temps d'estada del pacient al servei d'urgències, el nombre de pacients atesos per dia i un índex compost, el producte del cost del personal sanitari configuració pel temps d'estada del pacient. HPC s'utilitza per executar els experiments i s'han obtingut resultats encoratjadors. No obstant això, fins i tot amb una versió simplificada d'un ED utilitzada en aquest treball, l'espai de cerca és molt gran, per tant, quan augmenta la mida del problema, es requeriran més recursos de còmput per tal d'obtenir resultats en un temps raonable. / Actualmente, muchos de los sistemas de salud son entornos grandes, complejos y dinámicos, en particular los servicios de urgencias hospitalarios (EDs por sus siglas en inglés). Éstos abren y funcionan las 24 horas al día durante todo el año, con recursos limitados. Los EDs suelen ser la entrada principal al hospital y componente clave de todo el sistema sanitario. La misión original de los EDs es atender situaciones de emergencia. Sin embargo, los usuarios de EDs incluyen una amplia gama de enfermedades y lesiones desde casos urgentes, hasta no urgentes. Como resultado de esto, los EDs están saturados. Por lo tanto, es necesario el uso amplio de simulaciones computacionale de EDs para evaluar sus respuestas a la demanda de servicios. La elección de los parámetros de simulación óptimos puede mejorar su funcionamiento, pero la elección de una buena configuración es un gran desafío. Esta mejora se puede lograr mediante la modelización de los EDs basado en agentes y su simulación. La optimización mediante la simulación es un campo emergente que integra técnicas de optimización en el análisis de simulaciones. En esta investigación se propone una metodología de optimización de dos fases para la optimización de EDs a través de la simulación. La primera fase es un enfoque de grano grueso que consiste en una etapa de exploración global sobre todo el espacio de búsqueda. Esta fase identifica regiones prometedoras para la optimización basado en una estructura de vecindad del problema. Esta fase utiliza ya sea un enfoque pipeline de EDs o la heurística de Monte Carlo más el método de K-means, o ambos. Esta primera fase devuelve una colección de regiones prometedoras. La segunda fase es un enfoque de grano fino, que consiste en la búsqueda de la mejor solución, ya sea la óptima o una sub-óptima mediante una “búsqueda exhaustiva reducida” en tales regiones prometedoras. Este trabajo optimiza la configuración del personal sanitario de un ED existente. La configuración de su personal incluye: médicos, enfermeras de triaje y de urgencias, personal de admisión y técnicos de rayos X, cantidad y tipo de ellos. Dicha configuración es un problema combinatorio y multidimensional, que puede consumir mucho tiempo en resolverse. Específicamente tres índices diferentes se verificaron: minimizar tiempo de estancia del paciente; maximizar número de pacientes atendidos diariamente y minimizar el producto del costo de la configuración por el tiempo de estancia del paciente. HPC se utiliza para ejecutar los experimentos y se han obtenido resultados alentadores. Sin embargo, incluso con una versión simplificada de un ED utilizada en este trabajo, el espacio de búsqueda es muy grande, por lo tanto, cuando aumenta el tamaño del problema, se requerirán más recursos de cómputo para obtener resultados en un tiempo razonable. / Nowadays, many of the healthcare systems are large, complex environments and quite dynamic, specifically Emergency Departments, EDs. They are opened and working 24 hours per day throughout the year with limited resources. EDs are usually the main entrance to the hospital, and a key component of the whole healthcare system. The original mission of EDs is to primarily handle only emergency situations. However, ED visits include a wide range of illnesses and injuries, from truly emergencies to non-urgent cases. As a consequence, EDs are overcrowded. Thus, is mandatory to use extensively computer simulations of EDs to evaluate output responses. The choice of optimal simulation parameters can lead to improved functioning, but choosing a good configuration remains a challenging problem. This improvement can be achieved by modelling and simulating EDs using Agent-Based Modelling and simulation. Optimisation via simulation is an emerging field which integrates optimisation techniques into simulation analysis. In this research a two-phase optimisation methodology for optimisation via simulation for healthcare Emergency Departments is proposed. The first phase is a coarse grained approach consisted in a global exploration step over the entire search space. This phase identifies promising regions for optimisation based on a neighbourhood structure of the problem, using either a pipeline scheme approach of an Emergency Department or the Monte Carlo heuristic plus the K-means method, or both. This first phase returns a collection of promising regions. The second phase is a fine grained approach that consists in seeking the best solution, either the optimum or a sub-optimum by performing a “reduced exhaustive search” in such promising regions. This work optimises the sanitary staff configuration of an actual ED. The sanitary staff configuration comprises: doctors, triage and emergency nurses, admission personnel, and x-ray technicians, the amount, and sort of them. Staff configuration is a combinatorial and multidimensional problem, that can take a lot of time to be solved. In order to do optimisation, objective functions to minimise or maximise have to be set. Three different indexes were set: minimise patient length of stay (LoS); maximise number of attended patients per day (Throughput); and minimise a compound index, the product of the cost of a given sanitary staff configuration times patient length of stay (CLoS). HPC is used to run the experiments, and encouraging results were obtained. However, even with the simplified ED used in this work the search space is very large, thus, when the problem size increases, it is going to need more resources of processing in order to obtain results in a reasonable time.
225

Ultrastructural analysis of odontocete cochlea

Morell Ybarz, Maria 04 May 2012 (has links)
The morphological study of the Odontocete organ of Corti including possible pathological features resulting from sound over-exposure, represent a key conservation issue to assess the effects of acoustic pollution on marine ecosystems. Through the collaboration with stranding networks belonging to 26 countries, 150 ears from 13 species of Odontocetes were processed. In this dissertation, we present a standard protocol to 1) compare the ultrastructure of the cochlea in several Odontocete species and 2) investigate possible damage as a consequence of sound exposure, using scanning (SEM) and transmission (TEM) electron microscopy, and immunohistochemistry. In a preliminary study, computerized tomography scans were performed before decalcification with ears of 15 odontocete species, proposing a set of standard measurements which classified very well the species. In addition, the constant ratio between measurements of inner and middle ear structures contributed to confirm the active role of the odontocete middle ear in sound reception mechanism. We established a decalcification protocol using the fast commercial decalcifier RDO® and EDTA (Ethylendiaminetetraacetic acid). Although further experiments should be conducted to assess the suitability of using one or the other method (because the number of samples treated with EDTA was comparatively small), RDO® at specific dilutions decreased the decalcification time of cetacean ear bones with control of the decalcification endpoint, helping a faster access to inner structures. The complementary use of electron microscopy and immunofluorescence allowed the description in odontocetes of new morphological features of tectorial membrane, spiral limbus, spiral ligament, stria vascularis, hair cells and their innervation. Furthermore, this study revealed qualitative and quantitative morphological characteristics of the organ of Corti in high-frequency hearing species, including 1) an outer hair cell (OHC) small length, 2) a thick cuticular plate in OHC, and a thick reticular lamina, 3) robust cup formation of the Deiters cell body, 4) the high development of cytoskeleton in Deiters and pillar cells and 5) the basilar membrane high stiffness. Interestingly, all these features, including a common molecular design of prestin, are also shared by echolocating bats, suggesting a convergent evolution in echolocating species. The presence of scars among hair cell rows, the pattern of stereocilia imprints in the tectorial membrane and the condition of fibrocytes II and IV were criteria suitable to determine or discard possible acoustic trauma, despite the numerous artefacts that rapidly develop as a consequence of tissue autolysis. Consequently, matching the preliminary approximation of the cochlear frequency map with the damaged region would bring information on the sound source that would have triggered a possible lesion.
226

Voice Processing and synthesis by performance sampling and spectral models

Bonada, Jordi, 1973- 13 February 2009 (has links)
La veu cantada és probablement l'instrument musical més complex i més ric en matisos expressius. Al llarg de varies dècades s'ha dedicat molt d'esforç a investigar i estudiar les seves propietats acústiques i a entendre els mecanismes involucrats en la producció de veu cantada, posant especial èmfasis en les seves particularitats i comparant-les amb les de la parla. A més, des de l'aparició de les primeres tècniques de síntesi de so, s'ha intentat imitar i sintetitzar per mitjà de tècniques de processament del senyal. El principal objectiu d'aquesta recerca doctoral és construir un sintetitzador de veu cantada capaç de reproduir la veu d'un cantant determinat, que tingui la seva mateixa expressió i timbre, que soni natural, i que tingui com a entrades només la partitura i la lletra de una cançó. Aquest és un objectiu molt ambiciós, i en aquesta tesi discutim els principals aspectes de la nostra proposta i identifiquem les qüestions que encara queden obertes. / La voz cantada es probablemente el instrumento musical más complejo y el más rico en matices expresivos. A lo largo de varias décadas se ha dedicado mucho esfuerzo de investigación a estudiar sus propiedades acústicas y a entender los mecanismos involucrados en la producción de voz cantada, poniendo especial énfasis en sus particularidades y comparándolas con el habla. Desde la aparición de las primeras técnicas de síntesis de sonido, se ha intentado imitar dichos mecanismos y encontrar maneras de reproducirlos por medio de técnicas de procesado de señal. El principal objetivo de esta investigación doctoral es construir un sintetizador de voz cantada capaz de reproducir la voz de un cantante determinado, que tenga su misma expresión y timbre, que suene natural, y cuyas entradas sean solamente la partitura y la letra de una canción. Éste es un objetivo muy ambicioso, y en esta tesis discutimos los principales aspectos de nuestra propuesta e identificamos las cuestiones aún sin resolver. / Singing voice is one of the most challenging musical instruments to model and imitate. Along several decades much research has been carried out to understand the mechanisms involved in singing voice production. In addition, from the very beginning of the sound synthesis techniques, singing has been one of the main targets to imitate and synthesize, and a large number of synthesizers have been created with that aim. The final goal of this thesis is to build a singing voice synthesizer capable of reproducing the voice of a given singer, both in terms of expression and timbre, sounding natural and realistic, and whose inputs would be just the score and the lyrics of a song. This is a very difficult goal, and in this dissertation we discuss the key aspects of our proposed approach and identify the open issues that still need to be tackled.
227

Dynamic Tuning for Large-Scale Parallel Applications

Martínez Trujillo, Andrea 30 September 2013 (has links)
La era actual de computación a gran escala se caracteriza por el uso de aplicaciones paralelas ejecutadas en miles de cores. Sin embargo, el rendimiento obtenido al ejecutar estas aplicaciones no siempre es el esperado. La sintonización dinámica es una potente técnica que puede ser usada para reducir la diferencia entre el rendimiento real y el esperado en aplicaciones paralelas. Actualmente, la mayoría de las aproximaciones que ofrecen sintonización dinámica siguen una estructura centralizada, donde un único módulo de análisis, responsable de controlar toda la aplicación paralela, puede convertirse en un cuello de botella en entornos a gran escala. La principal contribución de esta tesis es la creación de un modelo novedoso que permite la sintonización dinámica descentralizada de aplicaciones paralelas a gran escala. Dicho modelo se apoya en dos conceptos principales: la descomposición de la aplicación y un mecanismo de abstracción. Mediante la descomposición, la aplicación paralela es dividida en subconjuntos disjuntos de tareas, los cuales son analizados y sintonizados separadamente. Mientras que el mecanismo de abstracción permite que estos subconjuntos sean vistos como una única aplicación virtual y, de esta manera, se puedan conseguir mejoras de rendimiento globales. Este modelo se diseña como una red jerárquica de sintonización formada por módulos de análisis distribuidos. La topología de la red de sintonización se puede configurar para acomodarse al tamaño de la aplicación paralela y la complejidad de la estrategia de sintonización empleada. De esta adaptabilidad surge la escalabilidad del modelo. Para aprovechar la adaptabilidad de la topología, en este trabajo se propone un método que calcula topologías de redes de sintonización compuestas por el mínimo número de módulos de análisis necesarios para proporcionar sintonización dinámica de forma efectiva. El modelo propuesto ha sido implementado como una herramienta para sintonización dinámica a gran escala llamada ELASTIC. Esta herramienta presenta una arquitectura basada en plugins y permite aplicar distintas técnicas de análisis y sintonización. Empleando ELASTIC, se ha llevado a cabo una evaluación experimental sobre una aplicación sintética y una aplicación real. Los resultados muestran que el modelo propuesto, implementado en ELASTIC, es capaz de escalar para cumplir los requerimientos de sintonizar dinámicamente miles de procesos y, además, mejorar el rendimiento de esas aplicaciones. / The current large-scale computing era is characterised by parallel applications running on many thousands of cores. However, the performance obtained when executing these applications is not always what it is expected. Dynamic tuning is a powerful technique which can be used to reduce the gap between real and expected performance of parallel applications. Currently, the majority of the approaches that offer dynamic tuning follow a centralised scheme, where a single analysis module, responsible for controlling the entire parallel application, can become a bottleneck in large-scale contexts. The main contribution of this thesis is a novel model that enables decentralised dynamic tuning of large-scale parallel applications. Application decomposition and an abstraction mechanism are the two key concepts which support this model. The decomposition allows a parallel application to be divided into disjoint subsets of tasks which are analysed and tuned separately. Meanwhile, the abstraction mechanism permits these subsets to be viewed as a single virtual application so that global performance improvements can be achieved. A hierarchical tuning network of distributed analysis modules fits the design of this model. The topology of this tuning network can be configured to accommodate the size of the parallel application and the complexity of the tuning strategy being employed. It is from this adaptability that the model's scalability arises. To fully exploit this adaptable topology, in this work a method is proposed which calculates tuning network topologies composed of the minimum number of analysis modules required to provide effective dynamic tuning. The proposed model has been implemented in the form of ELASTIC, an environment for large-scale dynamic tuning. ELASTIC presents a plugin architecture, which allows different performance analysis and tuning strategies to be applied. Using ELASTIC, experimental evaluation has been carried out on a synthetic and a real parallel application. The results show that the proposed model, embodied in ELASTIC, is able to not only scale to meet the demands of dynamic tuning over thousands of processes, but is also able to effectively improve the performance of these applications.
228

Noves aproximacions per a l'estudi del sistema HLA: De la tipificació dels loci HLA basada en la PCR a temps real al desenvolupament de tetràmers de classe II

Faner Canet, Maria Rosa 23 May 2006 (has links)
El Complex Principal de Histocompatibilitat (MHC) és la regió gènica que conté els loci més polimòrfics del genoma. Aquests loci estan implicats en els mecanismes de presentació antigènica als limfòcits T, defineixen la resposta immunitària en general, incloent-hi la histocompatibilitat entre donant i receptor en els trasplantaments d'òrgans. Tot i que existeixen diverses tècniques aplicades a la tipificació dels polimorfismes del MHC i a l'anàlisi de la funcionalitat d'aquestes molècules, les més utilitzades en els laboratoris d'histocompatibilitat presenten encara limitacions i són millorables. En aquest sentit aquesta tesi doctoral descriu la utilització de la PCR a temps real amb sondes d'hibridació com a metodologia per a millorar la tipificació dels loci HLA. En primer lloc s'ha desenvolupat una tècnica de tipificació basada en la PCR a temps real per la família al·lèlica HLA-B27. L'aproximació desenvolupada es basa en tres reaccions amb sondes d'hibridació FRET que permeten donar una resolució mitja-alta dels al·lels HLA-B27 en la població caucàsica, alhora que discriminen els al·lels no associats amb la Espondilitis Anquilopoiètica. Després d'haver comprovat la validesa de la metodologia de tipificació per PCR a temps real amb sondes FRET en una família HLA de polimorfisme reduït, s'ha desenvolupat una aproximació per a la tipificació de baixa resolució del locus HLA-B, el més polimòrfic de tots els loci HLA, basada en la mateixa metodologia. En tercer lloc s'ha comparat la utilització de les sondes de tipus FRET en front a les sondes de tipus Taqman per a la tipificació HLA, i per això s'ha desenvolupat un sistema per a la tipificació del locus de classe II HLA-DR amb aquesta segona metodologia de sondes.Les metodologies de tipificació basades en la PCR a temps real que s'han desenvolupat comparades amb les tècniques de tipificació basades en el DNA tradicionals, comporten diverses avantatges, les principals són en quant a temps total necessari per a realitzar la tècnica i eliminació de passos de processat post PCR. D'altre banda, la comparació de les tres aproximacions de tipificació per PCR a temps real desenvolupades ha demostrat que per a la resolució del polimorfisme HLA són més valides les sondes FRET.Per a millorar les tècniques d'anàlisi de la funcionalitat de les molècules HLA, en la present tesi doctoral s'han elaborat tetràmers de classe II dels loci no clàssics de DRB, en concret dels dos al·lels més freqüents de DRB3. L'aplicació d'aquesta metodologia ha permès millorar les eines disponibles per a l'estudi de la funcionalitat dels denominats loci secundaris de DRB, alhora que també ha permès valorar la magnitud de la resposta cel·lular T CD4+ que reconeix antígens en el context d'aquestes molècules, posant de manifest la rellevància d'aquest locus en la presentació antigènica. / The Major Histocompatibility Complex (MHC) is the genetic region that contains the loci more polymorphic of the genome. These loci are involved in the antigenic presentation to the T lymphocytes, defining in general the immune response and specifically including the histocompatibility between donor and acceptor in organ transplantation. There are different techniques that are used for typing the polymorphism of the MHC and also for the analysis of the functionality of these molecules. But the main techniques used for typing in Histocompatibility laboratories have still some limitations that can be solved. In reference to this point this thesis describes the usage of real time PCR with hybridization probes as an assay to be used for HLA typing. As a first approach to prove the validity of the methodology, an HLA-B27 typing assay by real time PCR with FRET probes has been optimized. The described HLA-B27 typing protocol uses three reactions with FRET probes that can achieve a medium-high resolution of the alleles in the Caucasoid population, at the same time alleles non associated with Spondylarthropathies are differentiated. After proving the validity of the real time PCR with FRET probes for a reduced HLA polymorphism, an approach based in the same methodology for typing of the HLA-B locus with a low-medium resolution has been developed. In third place, for HLA typing resolution the usage of the FRET probes has been compared to the usage of Taqman probes. With this aim a typing approach for the HLA-DRB locus with Taqman probes has been developed. The typing methodologies based on real time PCR that have been developed show several advantages when compared to the traditional DNA based typing techniques, the main are on reference to the time required for the developing of the assays and to the elimination of all post-PCR steps. At the same time the evaluation of the three described typing techniques has shown that FRET probes work better to solve the HLA polymorphism. In this thesis MHC class II tetramers have been developed to improve the tools for the functional study of the non classical HLA-DRB loci, concretely of the more frequent alleles of DRB3. This methodology allowed the evaluation of the T CD4+ cell response that recognizes antigens in the context of these HLA molecules, showing the relevancy of this locus in the antigenic presentation.
229

Coscheduling Techniques for Non-Dedicated Cluster Computing

Solsona Tehàs, Francesc 24 July 2002 (has links)
Los esfuerzos de esta tesis se centran en onstruir una máquina virtual sobre un sistema Cluster que proporcione la doble funcionalidad de ejecutar eficientemente tanto trabajos tradicionales (o locales) de estaciones de trabajoasí como aplicaciones distribuidas. Para solucionar el problema, deben tenerse en cuenta dos importantes consideraciones: * Como compartir y planificar los recursos de las diferentes estaciones de trabajo (especialmente la CPU) entre las aplicaciones locales y distribuidas. * Como gestionar y controlar la totalidad del sistema para conseguir ejecuciones eficientes de ambos tipos de aplicaciones.Coscheduling es el principio básico usado para compartiry planificar la CPU. Cosche-duling se basa en la reduccióndel tiempo de espera de comunicación de aplicaciones distribuidas,planificando simultáneamente todas (o un subconjunto de)las tareas que la componen. Por lo tanto, mediante el usode técnicas de coscheduling, únicamente se puede incrementarel rendimiento de aplicaciones distribuidas con comunicaciónremota entre las tareas que la componen. Las técnicas de Coscheduling se clasifican en dos grandesgrupos: control-explícito y control-implícito. Esta clasificaciónse basa en la forma de coplanificar las tareas distribuidas.En control-explícito, la coplanificación es realizada porprocesos y (o) procesadores especializados. En cambio, encontrol-implícito, las técnicas de coscheduling se realizantomando decisiones de planificación localmente, dependiendode los eventos que ocurren en cada estación de trabajo. En este proyecto se presentan dos mecanismos de coscheduling,los cuales siguen las dos diferentes filosofías explicadasanteriormente, control-implícito y control-explí-cito. Tambiénproporcionan características adicionales incluyendo un buenrendimiento en la ejecución de aplicaciones distribuidas,ejecución simultánea de varias aplicaciones distribuidas,bajo overhead y también bajo impacto en el rendimiento dela carga local.También se presenta un modelo de coscheduling, el cual proporcionauna base teórica para el desarrollo de nuevas técnicas decontrol-implícito. La técnica de control-implícito propuestase basa en este modelo. El buen comportamiento de las técnicas de coscheduling presentadasen este trabajo se analiza en primer lugar por medio desimulación. También se ha realizado un gran esfuerzo enla implementación de estas técnicas de coscheduling en unCluster real. El estudio de los resultados obtenidos proporcionauna orientación importante para la investigación futuraen el campo de coscheduling. En la experimentación en el Cluster real, se han utilizadovarios benchmarks distribuidos con diversos patrones decomunicación de paso de mensajes: regulares e irregulares,anillos lógicos, todos-a-todos, etc. También se han utilizadobenchmarks que medían diferentes primitivas de comunicación,tales como barreras, enlaces uni y bidireccionales, etc.El uso de esta amplia gama de aplicaciones distribuidasha servido para demostrar la aplicabilidad de las técnicasde coscheduling en computación distribuida basados en Clusters. / Efforts of this Thesis are centered on constructing a VirtualMachine over a Cluster system that provides the double functionalityof executing traditional workstation jobs as well as distributedapplications efficiently.To solve the problem, two major considerations must be addressed:* How share and schedule the workstation resources (especially the CPU) between the local and distributed applications. * How to manage and control the overall system for the efficient execution of both application kinds. Coscheduling is the base principle used for the sharing andscheduling of the CPU. Coscheduling is based on reducingthe communication waiting time of distributed applicationsby scheduling their forming tasks, or a subset of them atthe same time. Consequently, non-communicating distributedapplications (CPU bound ones) will not be favored by theapplication of coscheduling. Only the performance of distributedapplications with remote communication can be increasedwith coscheduling.Coscheduling techniques follow two major trends: explicitand implicit control. This classification is based on theway the distributed tasks are managed and controlled. Basically,in explicit-control, such work is carried out by specializedprocesses and (or) processors. In contrast, in implicit-control,coscheduling is performed by making local scheduling decisionsdepending on the events occurring in each workstation.Two coscheduling mechanisms which follow the two differentcontrol trends are presented in this project. They alsoprovide additional features including usability, good performancein the execution of distributed applications, simultaneousexecution of distributed applications, low overhead andalso low impact on local workload performance. The designof the coscheduling techniques was mainly influenced bythe optimization of these features.An implicit-control coscheduling model is also presented.Some of the features it provides include collecting on-timeperformance statistics and the usefulness as a basic schemefor developing new coscheduling policies. The presentedimplicit-control mechanism is based on this model.The good scheduling behavior of the coscheduling models presentedis shown firstly by simulation, and their performance comparedwith other coscheduling techniques in the literature. Agreat effort is also made to implement the principal studiedcoscheduling techniques in a real Cluster system. Thus,it is possible to collect performance measurements of thedifferent coscheduling techniques and compare them in thesame environment. The study of the results obtained willprovide an important orientation for future research incoscheduling because, to our knowledge, no similar work(in the literature) has been done before. Measurements in the real Cluster system were made by usingvarious distributed benchmarks with different message patterns:regular and irregular communication patterns, token rings,all-to-all and so on. Also, communication primitives suchas barriers and basic sending and receiving using one andtwo directional links were separately measured. By usingthis broad range of distributed applications, an accurateanalysis of the usefulness and applicability of the presentedcoscheduling techniques in Cluster computing is performed.
230

Metodología para la evaluación de prestaciones del sistema de Entrada/Salida en computadores de altas prestaciones

Méndez, Sandra Adriana 30 September 2013 (has links)
The increase in processing units, the advance in speed and compute power, and the increasing complexity of scientific applications that use high performance computing require more efficient Input/Output(I/O) Systems. The performance of many scientific applications is inherently limited by the input/output subsystem. Due to the historical “gap“ between the computing and I/O performance, in many cases, the I/O system becomes the bottleneck of parallel systems. Identification of I/O factors that influence on performance can help us to hide this ”gap”. This situation lead us to ask ourselves the next questions: Must adapt Scientific applications to I/O configurations?, How do I/O factors influence on performance? How do you configure the I/O system to adapt to the scientific application? Answering these questions is not trivial. To use the I/O system efficiently it is necessary to know its performance capacity to determine if it fulfills I/O requirements of application. We present a methodology to performance evaluate of the I/O system on computer clusters. We propose the I/O system evaluation by taking into account requirements of the application and the I/O configuration. To do this we have defined a methodology with three stages: characterization, analysis of I/O and evaluation. Furthermore, we define a methodology to obtain the I/O model of parallel application that has been utilized to compare different I/O subsystems. It allows us to determine how much of the system’s capacity is being used taking into account the I/O phases of application. The methodology can be used to select the configuration with less I/O time from different I/O configurations. The I/O model of application is defined by three characteristics: metadata, spatial global pattern and temporal global pattern. We have evaluated the I/O system utilization of different configurations by considering the I/O model of application. / El aumento del número de unidades de procesamiento en los clúster de computadores, los avances tanto en velocidad como en potencia de los procesadores y las crecientes demandas de las aplicaciones científicas que utilizan cómputo de altas prestaciones trae mayores exigencias a los sistemas de Entrada/Salida (E/S) paralelos. El rendimiento de muchas aplicaciones científicas está inherentemente limitado por el sistema de E/S. Debido al histórico “gap” entre las prestaciones del cómputo y la E/S, en muchos casos, el sistema de E/S se convierte en el cuello de botella de los sistemas paralelos. La identificación de los factores de E/S que influyen en el rendimiento puede ayudar a ocultar este “gap”. Esta situación lleva a hacer las siguientes preguntas: ¿Deben las aplicaciones científicas adaptarse a la configuración de E/S, ¿Cómo los factores E/S influyen en el rendimiento? ¿Cómo se configura el sistema de E/S para adaptarlo a la aplicación científica? La respuesta a estas preguntas no es trivial. Para utilizar el sistema de E/S de manera eficiente es necesario conocer su capacidad de rendimiento para determinar si cumple con requisitos de aplicación. En este trabajo se propone una metodología para evaluar las prestaciones de los sistemas de E/S en clusters de computadores. La evaluación considera la configuración del sistema de E/S y las características de E/S de la aplicación. Para ello se ha definido una metodología de tres etapas: caracterización, análisis de E/S y evaluación. En la fase de caracterización, se extrae las características de E/S de la aplicación y las características prestacionales del sistema de E/S. Se ha definido una metodología para obtener el modelo de E/S de la aplicación paralela que se ha utilizado para comparar diferentes sistemas de E/S. El modelo de E/S de aplicación está definido por tres características: metadatos, patrón global espacial y patrón global temporal. Esto permite determinar cuanto de la capacidad del sistema se utiliza teniendo en cuenta las fases de E/S de la aplicación. La metodología se puede utilizar para seleccionar la configuración con menor tiempo de E/S de diferentes configuraciones de E/S.

Page generated in 0.0495 seconds