• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 781
  • 423
  • 159
  • 2
  • Tagged with
  • 1364
  • 653
  • 632
  • 454
  • 389
  • 379
  • 367
  • 337
  • 281
  • 266
  • 196
  • 182
  • 181
  • 177
  • 165
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Comparative evaluation and combination of automatic rhythm description systems

Zapata González, José Ricardo 19 September 2013 (has links)
Material addicional: http://hdl.handle.net/10230/24647 / The automatic analysis of musical rhythm from audio, and more specifically tempo and beat tracking, is one of the fundamental open research problems in Music Information Retrieval (MIR) research. Automatic beat tracking is a valuable tool for the solution of other MIR problems, as it enables beat- synchronous analysis of different music tasks. Even though automatic rhythm description is a relatively mature research topic in MIR tempo estimation and beat tracking remain an unsolved problem. We describe a new method for the extraction of beat times with a confidence value from music audio, based on the measurement of mutual agreement between a committee of beat tracking systems. The method can also be used identify music samples that are challenging for beat tracking without the need for ground truth annotations. we also conduct an extensive comparative evaluation of 32 tempo estimation and 16 beat tracking systems. / El análisis automático musical del ritmo en audio, y más concretamente el tempo y la detección de beats (Beat tracking), es uno de los problemas fundamentales en recuperación de información de Musical (MIR). La detección automática de beat es una valiosa herramienta para la solución de otros problemas de MIR, ya que permite el análisis sincronizado de la música con los beats para otras tareas. Describimos un nuevo método para la extracción de beats en señales de audio que mide el grado de confianza de la estimación, basado en la medición del grado de similitud entre un comité de sistemas de detección de beats. Este método automático se puede utilizar también para identificar canciones que son difíciles para la detección de beats. También realizamos una extensa evaluación comparativa de los sistemas actuales de descripción automática ritmo. Para esto, Evaluamos 32 algoritmos de tempo y 16 sistemas de detección de beats.
42

Análisis del uso universitario de plataformas de gestión del aprendizaje. Estudio de caso en la Universitat de València.

Moreno Clari, Paloma 28 April 2009 (has links)
El presente trabajo pretende analizar la evolución de la utilización de un LMS en sus dos primeros años, su etapa de implantación, y sus herramientas más representativas; la influencia que la plataforma ha supuesto en la innovación educativa de la Universitat y en los índices de calidad. Con ello se establecerán futuros mecanismos de evaluación susceptibles de ser utilizados por los servicios de planificación de la Universitat, marcando los aspectos de innovación o del LMS sobre los que incidir para mejorar la calidad educativa. Igualmente, se propondrán modificaciones e incorporaciones que, aprovechando las características de código abierto, adaptabilidad y extensibilidad, deben hacerse sobre la plataforma tecnológica tras los resultados obtenidos. Finalmente, se presentan las metodologías y herramientas para la generalización y automatización del proceso de evaluación de los elementos de una plataforma.El análisis empírico, tras obtener el informe favorable de los órganos con responsabilidad en Protección de Datos, se centra en tres grupos de medidas de resultados para cada uno de los 18 centros que conforman la Universitat de València. Los tres grupos de medidas se refieren, por un lado al uso del Aula Virtual en genérico y de cada una de sus herramientas o módulos. Por otro lado se confrontan con el conjunto los planes de innovación educativa de los centros, y se particulariza en aquellas medidas con mayor proyección. En tercer lugar, se analiza el comportamiento en el conjunto de centros, de los índices de financiación ligada a objetivos para la Universitat de València. Una vez realizado el estudio de estos tres conjuntos de variables descriptivamente y también agrupados por campus, se elaboran medidas complejas de resumen, que contemplen la información útil no solapada de las diferentes variables de cada grupo, aquéllas con mejor comportamiento en términos psicométricos. Seguidamente, se explora el análisis de relación entre variables de los diferentes grupos, pretendiendo obtener información útil sobre cómo se relacionan los tres ejes motores del acercamiento a la convergencia hacia el EEES, con la mejora de los procesos de enseñanza-aprendizaje y conseguir así un modelo que permita generalizar el procedimiento seguido al evaluar la plataforma de la Universitat de València a universidades en procesos de implantación semejantes. Se presenta el diseño de la investigación, los análisis que la componen, y se definen todas las variables contempladas en los análisis que se presentan en los resultados; y se expone la metodología empleada para la informatización, y automatización del proceso.Los resultados recogen los descriptivos de utilización del LMS, objeto del estudio de caso, y la generación de indicadores complejos de resumen de las áreas de interés. Igualmente se recogen los resultados del estudio de asociación entre bloques y la búsqueda de ecuaciones predictivas de las variables de interés. Se compara de forma resumida los resultados de uso de Aula Virtual y los de la plataforma de la Universidad Galileo de Guatemala. La Universidad Galileo tiene unas dimensiones semejantes a la UV, y los resultados son comparables al utilizar ambas, como plataforma virtual, una personalización de la misma tecnología: .LRN.Además se ha automatizado el proceso de estudio para un programa de análisis estadístico particular, en este caso aquél para el que tiene licencia la Universitat de València, spss. De este modo, los análisis podrán realizarse de manera automática y se presentarán al usuario los resultados. Se expondrá igualmente la parte de tales análisis automatizados. Finalmente se exponen las conclusiones generales, aportaciones, y líneas futuras de trabajo, entre las que destaca completar el resto de la automatización y desarrollo informático planteándose las bases para ello. / The advent of the Internet has opened a scope for research in new methods and tools that may facilitate the teaching and learning processes. This has, in turn, led to the development of learning platforms to support teaching and learning activities. The market penetration of these has been such that nowadays most universities provide their academic community with some form of a learning management system (LMS).Although a lot of effort has been put into deploying these platforms, the usage statistics that they generally provide are not generally processed to optimize their use within a specific context or institution (or confronted with quality or innovation indexes to produce useful feedback information). This study proposes a methodology for data analysis. Also, it is applied to the particular case of the University of Valencia (Spain). Besides, it is described a computer implementation that facilitates the application of this methodology to any other existing LMS which provides usage statistics.
43

Neurodynamical theory of decision confidence

Insabato, Andrea 22 January 2014 (has links)
Decision confidence offers a window on introspection and onto the evaluation mechanisms associated with decision-making. Nonetheless we do not have yet a thorough understanding of its neurophysiological and computational substrate. There are mainly two experimental paradigms to measure decision confidence in animals: post-decision wagering and uncertain option. In this thesis we explore and try to shed light on the computational mechanisms underlying confidence based decision-making in both experimental paradigms. We propose that a double-layer attractor neural network can account for neural recordings and behavior of rats in a post-decision wagering experiment. In this model a decision-making layer takes the perceptual decision and a separate confidence layer monitors the activity of the decision-making layer and makes a judgment about the confidence in the decision. Moreover we test the prediction of the model by analyizing neuronal data from monkeys performing a decision-making task. We show the existence of neurons in ventral Premotor cortex that encode decision confidence. We also found that both a continuous and discrete encoding of decision confidence are present in the primate brain. In particular we show that different neurons encode confidence through three different mechanisms: 1. Switch time coding, 2. rate coding and 3. binary coding. Furthermore we propose a multiple-choice attractor network model in order to account for uncertain option tasks. In this model the confidence emerges from the stochastic dynamics of decision neurons, thus making a separate monitoring network (like in the model of the post-decision wagering task) unnecessary. The model explains the behavioral and neural data recorded in monkeys lateral intraparietal area as a result of the multistable dynamics of the attractor network, whereby it is possible to make several testable predictions. The rich neurophysiological representation and computational mechanisms of decision confidence evidence the basis of different functional aspects of confidence in the making of a decision. / El estudio de la confianza en la decisión ofrece una perspectiva ventajosa sobre los procesos de introspección y sobre los procesos de evaluación de la toma de decisiones. No obstante todav'ia no tenemos un conocimiento exhaustivo del sustrato neurofisiológico y computacional de la confianza en la decisión. Existen principalmente dos paradigmas experimentales para medir la confianza en la decisión en los sujetos no humanos: apuesta post-decisional (post-decision wagering) y opción insegura (uncertain option). En esta tesis tratamos de aclarar los mecanísmos computacionales que subyacen a los procesos de toma de decisiones y juicios de confianza en ambos paradigmas experimentales. El modelo que proponemos para explicar los experimentos de apuesta post-decisional es una red neuronal de atractores de dos capas. En este modelo la primera capa se encarga de la toma de decisiones, mientras la segunda capa vigila la actividad de la primera capa y toma un juicio sobre la confianza en la decisión. Sucesivamente testeamos la predicción de este modelo analizando la actividad de neuronas registrada en el cerebro de dos monos, mientras estos desempeñaban una tarea de toma de decisiones. Con este análisis mostramos la existencia de neuronas en la corteza premotora ventral que codifican la confianza en la decisión. Nuestros resultados muestran también que en el cerebro de los primates existen tanto neuronas que codifican confianza como neuronas que la codifican de forma continua. Más en específico mostramos que existen tres mecanismos de codificación: 1. codificación por tiempo de cambio, 2. codificación por tasa de disparo, 3. codificación binaria. En relación a las tareas de opción insegura proponemos un modelo de red de atractores para opciones multiplas. En este modelo la confianza emerge de la dinámica estocástica de las neuronas de decisión, volviéndose así innecesaria la supervisión del proceso de toma de decisiones por parte de otra red (como en el modelo de la tarea de apuesta post-decisional). El modelo explica los datos de comportamiento de los monos y los registros de la actividad de neuronas del área lateral intraparietal como efectos de la dinámica multiestable de la red de atractores. Además el modelo produce interesantes y novedosas predicciones que se podrán testear en experimentos futuros. La compleja representación neurofisiológica y los distintos mecanísmos computacionales que emergen de este trabajo sugieren distintos aspectos funcionales de la confianza en la toma de decisiones.
44

Fluctuations in perceptual decisions : cortical microcircuit dynamics mediating alternations in conscious visual perception

Theodoni, Panagiota 09 May 2014 (has links)
Fluctuations in perceptual decisions emerge when our brain confronts with ambiguous sensory stimuli. For instance, our perception alternates between two conflicting images when presented dichoptically to our eyes, allowing a dissociation of the sensory stimulation from the conscious visual perception, and therefore providing a gateway to consciousness. How does the brain work when it deals with such ambiguous sensory stimuli? We addressed this question theoretically by employing a biophysically realistic attractor network, by consistently reducing it to a four- variable rate- based model, and by extracting analytical expressions for second- order statistics. We considered human behavioral and macaque neurophysiological data collected when subjects were confronting with such ambiguities. Our results show the relevance of neuronal adaptation in perceptual decision making, as well as that it contributes to the speed- accuracy trade- off. Furthermore, our findings affirm that both noise and neural adaptation operate in balance during the fluctuating states of visual awareness and suggest that while adaptation in inhibition is not relevant for the perceptual alternations, it contributes to the brain dynamics at rest. Finally, we explain the observed neuronal noise- decorrelation during visual consciousness and provide insights on the long- standing question: where in the brain rivalry is resolved. / Les fluctuacions en les decisions perceptives sorgeixen quan el nostre cervell s'enfronta a estímuls sensorials ambigus. Per exemple, la nostra percepció alterna entre dues imatges contradictòries quan es presenten de forma dicòptica als nostres ulls, cosa que permet una dissociació de l'estimulació sensorial de la percepció visual conscient, i per tant proporciona una porta d'entrada a la consciència. Com funciona el cervell quan es tracta d'aquest tipus d'estímuls sensorials ambigus? Hem tractat aquesta qüestió de forma teòrica mitjançant l'ús d'una xarxa d'atractors biofísicament realista, reduint-la de forma consistent a un model de quatre variables basat en la freqüència, i extraient expressions analítiques pels estadístics de segon ordre. Hem emprat dades neurofisiològiques de comportament d'humans i macacos recollides quan els subjectes s'enfrontaven a aquest tipus d'ambigüitats. Els nostres resultats mostren la importància de l'adaptació neuronal en la presa de decisions perceptives i mostren la seva contribució a l'equilibri velocitat-precisió. D'altra banda, els nostres resultats confirmen que tant el soroll com l'adaptació neural operen en equilibri durant els estats fluctuants de consciència visual i suggereixen que, si bé l'adaptació en la inhibició no és rellevant per a les alternances de percepció, contribueix a la dinàmica del cervell en repòs. Finalment, expliquem la decorrelació del soroll neuronal observada durant la consciència visual i proporcionem noves idees en relació a l’antiga qüestió de en quin lloc del cervell es resol la rivalitat visual.
45

Design and implementation techniques for location-based learning games

Melero Gallardo, Javier 10 April 2014 (has links)
Over the past few years the use of computer-supported games for learning purposes has reported many educational benefits in terms of students’ motivation and engagement towards learning. However, the comprehensive integration of Game-Based Learning (GBL) environments in formal learning settings is still a challenge that shapes several interdisciplinary research problems in the domain of GBL. A main problem is that for games to be relevant in formal education they need to be aligned with the curriculum and adapted to teachers’ requirements depending on their particular educational situations. An approach to face this problem is to formulate GBL technologies that enable teachers to design meaningful games for their scenarios. This thesis contributes to this approach in GBL. In particular, the thesis focuses on location-based learning games. These games are relevant to create contextualized learning activities in which physical objects and spaces are virtually augmented with interactive digital objects. The thesis’ standpoint is that for teachers to be involved in the definition of location-based games, their constituting design elements need to be of feasible customization by teachers while, at the same time, enable rich learning activities. From the premise that the structural design of location-based learning games is often inspired by board games, the thesis proposes a puzzle board metaphor and a template based on the metaphor as techniques for the design of location-based learning games. The thesis also contributes with a model for the computational representation of the games and a set of implementation guidelines. The design and implementation techniques are applied and evaluated in a set of case studies at different scales involving a total of 36 teachers and 253 students. / A lo largo de los últimos años, el uso de juegos computacionales para el aprendizaje ha aportado diversos beneficios educativos relacionados, principalmente, con la motivación y el interés de los estudiantes hacia el aprendizaje. Sin embargo, la adopción de entornos de aprendizaje basados en juegos (también conocidos como Game-Based Learning ó GBL en inglés) en contextos educativos formales todavía es un reto que conlleva varios problemas de investigación interdisciplinares dentro del dominio del GBL. Uno de los problemas principales es que para que los juegos sean relevantes en la educación formal, tienen que estar alineados con el curriculum y adaptados a los requisitos de los profesores dependiendo de sus situaciones educativas particulares. Una solución para afrontar este problema consiste en el desarrollo de tecnologías basadas en el GBL que permitan a los profesores diseñar juegos significativos para sus escenarios. Esta tesis contribuye a este enfoque en el GBL. En particular, esta tesis se centra en los juegos de aprendizaje ubicuos. Estos juegos son relevantes porque permiten crear actividades de aprendizaje contextualizadas en las que objetos y espacios físicos son virtualmente aumentados con objetos digitales interactivos. El punto de partida de esta tesis considera que, para que los profesores se involucren en el diseño de juegos de aprendizaje ubicuos, los elementos de diseño que componen este tipo de juegos tienen que poder ser personalizados por los profesores mientras que, al mismo tiempo, deben permitir la creación de actividades de aprendizaje enriquecidas. Considerando la premisa de que el diseño estructural de juegos de aprendizaje ubicuos a menudo está inspirado en “juegos de tablero”, esta tesis propone una metáfora de “tablero de puzzles” junto con un conjunto de plantillas basadas en dicha metáfora como técnicas para el diseño de juegos de aprendizaje ubicuos. Esta tesis, además, contribuye con un modelo para la representación computacional de estos juegos y una serie de guías de implementación. Tanto las técnicas de diseño como las de implementación se han utilizado y evaluado en un conjunto de estudios de caso a diferentes escalas en los que han participado un total de 35 profesores y 253 estudiantes. / Al llarg dels últims anys, l’ús de jocs computacionals per a l’aprenentatge ha aportat diversos beneficis educatius relacionats, principalment, amb la motivació i l’interès dels estudiants cap a l’aprenentatge. No obstant això, la adopció d'entorns d'aprenentatge basats en jocs (també coneguts com Game-Based Learning o GBL en anglès) en contextos educatius formals encara és un repte que comporta diversos problemes de recerca interdisciplinaris dins del domini del GBL. Un dels problemes principals és que perquè els jocs siguin rellevants en l'educació formal, han d'estar alineats amb el currículum i adaptats als requisits dels professors depenent de les seves situacions educatives particulars. Una solució per afrontar aquest problema consisteix en el desenvolupament de tecnologies basades en el GBL que permetin als professors dissenyar jocs significatius per als seus escenaris. Aquesta tesi contribueix a aquest enfocament en el GBL. En particular, aquesta tesi se centra en els jocs d’aprenentatge ubics. Aquests jocs són rellevants perquè permeten crear activitats d’aprenentatges contextualitzades en les quals objectes i espais físics són virtualment augmentats amb objectes digitals interactius. El punt de partida d’aquesta tesi considera que, perquè els professors s’involucrin en el disseny de jocs d’aprenentatge ubics, els elements de disseny que componen aquest tipus de jocs han de poder ser personalitzats pels professors mentre que, al mateix temps, permetre la creació d’activitats d’aprenentatge enriquides. Considerant la premissa que el disseny estructural de jocs d’aprenentatge ubics sovint està inspirat en “jocs de tauler”, aquesta tesi proposa una metàfora de “tauler de puzles” juntament amb un conjunt de plantilles basades en aquesta metàfora com a tècniques per al disseny de jocs d’aprenentatge ubics. Aquesta tesi, a més, contribueix amb un model per a la representació computacional d’aquests jocs i una sèrie de guies d’implementació. Tant les tècniques de disseny com les d’implementació s’han utilitzat i avaluat en un conjunt d’estudis de cas a diverses escales en els quals han participat un total de 35 professors i 253 estudiants.
46

Avances para estudios del riesgo sísmico a escala regional y local: aplicación a América Central y a la Bahía de Cádiz (Sur de España)

Schmidt Diaz, Victor 15 October 2010 (has links)
La memoria de Tesis se ha estructurado en dos grandes partes, en la primera se obtienen las ecuaciones predictivas del movimiento del suelo para América Central y en la segunda se lleva a cabo un estudio de microzonificación sísmica de la Bahía de Cádiz (España).En la primera parte se ha realizado una revisión de los aspectos geológicos y sismológicos más importantes de cada zona identificando los principales tipos de suelo predominantes. Se ha realizado también una recopilación de datos acelerométricos de todos los países de América Central y se ha implementado un proceso de selección, homogeneización de formatos y clasificación de los datos teniendo en cuenta las fuentes de información, rangos de magnitudes, distancias consideradas y la forma en que se clasificaron los sismos según su origen. Se ha establecido además un procedimiento de clasificación de suelos para todos los sitios de registro, basado en las razones espectrales promedio obtenidas en cada estación, así como en la geología contenida en mapas y en descripciones litológicas.Se han obtenido ecuaciones de atenuación para sismos corticales usando datos de América Central y para sismos por subducción usando registros de Costa Rica. El tipo de ecuación utilizado es lineal, considerando la media geométrica de la aceleración pico (GM PGA) o la media geométrica de la pseudo aceleración espectral (GM PSA), tomada del espectro de respuesta al 5% de amortiguamiento en 22 frecuencias, como la variable dependiente y la magnitud momento, la distancia hipocentral y el tipo de suelo como las variables independientes. Los resultados se han comparado con modelos propuestos por otros autores y en general se observa que valores obtenidos en esta tesis son menores. Los espectros de respuesta fueron comparados también con los propuestos por el Código Sísmico de Costa Rica.Se han hecho también regresiones con datos combinados provenientes de sismos corticales y por subducción de América Central y México, a partir de una ecuación lineal más compleja pero solamente para GM PGA.Para realizar las inversiones, el método que ha mostrado mayor estabilidad en los resultados ha sido el de regresión de mínimos cuadrados de un paso.En la segunda parte se ha llevado a cabo un estudio de microzonificación sísmica para los seis municipios que constituyen la Bahía de Cádiz: Cádiz, San Fernando, Chiclana, Puerto Real, El Puerto de Santa María y Rota.Para ello ha sido necesario analizar las principales características sismológicas de la zona teniendo en cuenta los terremotos más importantes que han afectado a la Bahía, se presentan además las descripciones litológicas de los materiales predominantes. Para determinar los efectos de sitio en la Bahía se han utilizado dos técnicas empíricas (razón espectral H/V y arrays) y una de simulación numérica 1D lineal equivalente (programaShake).La técnica H/V ha permitido agrupar los resultados según rangos correspondientes a la frecuencia fundamental. La inversión de las curvas de dispersión obtenidas mediante la aplicación de los métodos FK y SPAC a registros de ruido sísmico en arrays ha permitido obtener un perfil de velocidades de onda cortante para cada municipio, seleccionado a partir de la estimación que presenta menor error.Para aplicar el programa Shake, se han seleccionado, de la base de datos Europea, cinco acelerogramas de entrada cuyas formas espectrales se asemejen a las definidas por la Norma de Construcción Sísmica de España (NCSE02) para terreno tipo I.En las modelizaciones 1D con el programa Shake se han observado grandes amplificaciones en la función de transferencia y en los espectros de respuesta sobre todo para el caso de San Fernando, debido probablemente a que los acelerogramas de entrada fueron normalizados a las aceleraciones de la zona según la NCSE02 y estas tienen valores bajos, por lo que los niveles de deformación generados en cada capa son bajos y consecuentemente, los amortiguamientos asociados son también bajos.Se ha realizado también la microzonación sísmica, en términos del incremento de la intensidad macrosísmica (DI). Se ha estimado el DI del suelo respecto a la roca para determinar los efectos de sitio y en la mayoría de los casos hay concordancia entre el DI y la geología superficial según el método de clasificación propuesto por Fleta et al. (1998), en el sentido de que a todos los suelos tipo C se les puede asociar un DI=1.0, a los suelos tipo B un DI=0.5 y a suelos tipo A y R les corresponde un DI=0.0.Número de figuras: 111; número de tablas: 29; número de ecuaciones: 26; número de referencias: 66; número de páginas: 307. / The manuscript was divided into two main parts: 1 - Ground motion predictive equations for Central America and 2 - Seismic microzonation for the Bay of Cadiz (Spain).In the first part, the most important seismological aspects of Central America were reviewed. The predominant soil types and their origin were also studied. A description of the data used in aspects such as information sources, ranges of magnitude, hypocentral and epicentral distance, and earthquake classification according to their origin is presented. The data format used to standardize all records from different countries is also described. A procedure of soil classification for all sites is proposed, based on the average spectral ratios obtained at each station, as well as in geology contained in maps and lithological descriptions.Attenuation equations are obtained for crustal earthquakes using data from Central America and for subduction earthquakes using records from Costa Rica.The functional form used is linear, taking the geometric mean of peak acceleration (GM PGA) or the geometric mean of the pseudo spectral acceleration (GM PSA) obtained from the response spectra for 5% of damping, as the dependent variable. The moment magnitude, hypocentral distance, and soil type were used as independent variables. In the case of GM PSA, a total of 22 frequencies were considered.The results are compared with models proposed by other authors. In general it is observed that values obtained in this thesis are lower. The response spectra were also compared with those proposed by the Seismic Code of Costa Rica.Finally, regressions were obtained using combined data from crustal and subduction earthquakes recorded in Central America and Mexico, using a more complex functional form (more parameters to be determined) but only for GM PGA.For all cases, the selected inversion method is the least-squares one step because it exhibited the highest stability of the results.In the second part has been carried out a seismic microzoning study for the six municipalities that make up the Bay of Cadiz: Cadiz, San Fernando, Chiclana, Puerto Real, El Puerto de Santa Maria and Rota The main seismic characteristics of the area as well as the most important earthquakes that have affected the Bay are mentioned. Lithological descriptions of the predominant materials are presented. The techniques used to determine the site effects in the Bay are also described: two empirical (H/V spectral ratio and arrays) and a 1D numerical simulation (Shake program). The results obtained by applying the technique H/V are described and grouped according to ranges that correspond to the fundamental frequency.The results obtained by inverting the dispersion curves generated by FK and SPAC methods (arrays), which correspond to the profiles of shear wave velocities versus depth are discussed.A profile for each municipality was obtained, selected from the lower error estimate and final profiles were defined also considering the information provided by SPT tests.To implement the program Shake, five input accelerograms recorded in Europe were selected based on the criterion that their spectral shapes resembled to those defined by the Norma de Construcción Sismorresistente Española (NCSE02) for soil type I.High amplifications were observed in the transfer function and response spectra especially for the case of San Fernando. The reason was probably that the input accelerograms were normalized to accelerations of the region according to the NCSE02 and these values are low. That implies the strain levels generated in each layer are low and consequently the associated damping are also low.It has also conducted a seismic microzonation in terms of macroseismic intensity increase (DI) to determine the site effects of soil respect to rock. In most cases there is an agreement between DI and the surface geology classification according to the method proposed by Fleta et al. (1998), in the sense that every soil type C can be associated to DI = 1.0, soil type B to DI = 0.5 and soil types A and R themselves have a DI = 0.0.Number of figures: 111; number of tables: 29; number of equations: 26; Number of References: 66; number of pages: 307.
47

Optimización de suspensiones hidroneumáticas con amortiguador integrado

Heras, Salvador de las 26 February 1997 (has links)
En esta Tesis Doctoral se desarrollan los principios básicos que rigen el comportamiento dinámico de un cilindro de suspensión hidroneumática, concibiendo métodos que lo optimizan y explotan al máximo sus propiedades innatas. La optimización de un sistema conlleva en primer lugar conocer las prestaciones originales que se pretende mejorar, para después hacerlo adaptable a las diversas circunstancias de trabajo mediante la actuación sobre los factores que definen su funcionamiento.El comportamiento elástico de la suspensión puede ser descrito mediante el uso de un índice politrópico instantáneo, tal como se demuestra en esta Tesis. Tras encontrar analíticamente la relación entre el índice politrópico y el calor irreversible generado durante el proceso de compresión del gas real de la cámara neumática, se demuestra cómo es posible variar la frecuencia propia del sistema de suspensión, presentándose un método sencillo que permite modificar en tiempo real la rigidez neumática, consistente en la construcción de una cámara neumática doble, o discontinua, y la implantación entre ambas de una tobera de conductan-cia variable, de forma que se pueda gobernarse desde el exterior la generación interna e irreversible de calor.Vista la importancia del índice politrópico instantáneo definido en esta Tesis, se realiza un estudio exhaustivo de su evolución en función de la pérdida irreversible de trabajo útil. Se demuestra que la relación de calores específicos, es su límite superior sólo en el caso hipotético de compresión cuasiestática y adiabática de un gas perfecto. Las expresiones encontradas en la Tesis por fin justifican que se hallen experimentalmente valores del índice superiores a , y que incluso estimar esta última mediante correlaciones para gas real resulte insuficiente. Si bien hasta ahora el índice politrópico del proceso se consideraba una entrada a cualquier modelo matemático que pretendiera estimar la evolución de las variables termo-dinámicas involucradas, debe dejar de serlo por ser su valor indicador de las propiedades mecánicas de la cámara neumática, y por tanto, de las características elásticas de la suspensión. El coeficiente de amortiguación de una suspensión hidroneumática no depende exclusivamente de la característica presión vs caudal de la válvula amortiguadora y por tanto de la velocidad del proceso, sino que también es función de la geometría interna del cilindro y del rozamiento entre los diferentes componentes en movimiento relativo. En esta Tesis se ha implementado un algoritmo que permite incluir el stick-slip en el programa de simulación y así obtener una respuesta más exacta del sistema.Se utiliza la técnica de representación BondGraph en cada una de las partes, para completar el estudio realizado y permitir una formulación gráfica de las ecuaciones del sistema. Se dis-pone, una vez concluida la Tesis, de una simulación por ordenador que responde de forma excelente en el rango completo de trabajo y permite, siempre con la precaución debida, ex-trapolar prestaciones a situaciones o configuraciones no ensayadas. / This Doctoral Thesis presents the main principles governing the dynamics of a hydropneumatic suspen-sion for road vehicles, introducing new methods to optimize and to maximize their innate properties, and making them adaptable to different operative circumstances.The elastic behaviour of the suspension can be described by using an instantaneous polytropic index, as is demonstrated in this thesis. After finding analytically the relationship between the polytropic index and the irreversible heat generated during the process of compression of the gas, it is shown how it is possible to vary the natural frequency of the suspension system, presenting a simple method that allows changes in pneumatic stiffness in real time. The method consists in the construction of a pneumatic dou-ble chamber, or discontinuous, and the implantation of a variable conductance nozzle between them. This procedure allows governing the internal generation of irreversible heat. In this Thesis is demonstrated that the ratio of specific heats is the polytropic upper limit only in an ideal, near-static and adiabatic, compression process for an ideal gas. It is not enough using real gas properties because the polytropic index depends on the internal heat generated and can be bigger than the specific heats ratio. So, the polytropic index is not used to estimate the evolution of the thermody-namic variables involved, pressure, temperature and density, but it is shown to be an indicator of the mechanical properties of the pneumatic chamber, and therefore, the elastic characteristics of the suspen-sion.In a hydropneumatic suspension the damping coefficient is not only dependent of the characteristic pres-sure vs. flow relationship, and hence the speed of the process, but also is a function of the internal ge-ometry of the cylinder and the friction between the various components moving on. In this thesis it is implemented an algorithm to include the stick-slip in the simulation program and thus get a more accu-rate response of the system.This Thesis uses the bondgraph technique to modelling in a graphical way the equations of the system. An accurate computer simulation program is used that has been proved to include the main design fac-tors in the full range of work.
48

Estudio, diseño e implementación del módulo de preprocesado de datos del sistema Read out Driver para el calorímetro tilecal del experimento Atlas/LHC del CERN.

Torres País, José 22 June 2005 (has links)
El objeto de esta Tesis es el diseño, programación e integración del Módulo de Preprocesado de Datos del Sistema Read Out Driver (ROD) dentro de los trabajos que se están realizando en el Laboratorio Europeo de Física de Partículas (CERN). Se trata de un paso definitivo para la puesta en marcha de este sistema que se instalará en el detector ATLAS dentro del acelerador de partículas (LHC) que se está terminando de construir en el CERN.Este Sistema ROD forma parte del sistema de adquisición de datos del subdetector TileCal incluido en ATLAS, en concreto del sistema de lectura y envío de datos a la frecuencia de cruce de haz que se produce en el acelerador (40 MHz). Incluido entre los niveles uno y dos de la arquitectura jerárquica de detección y estudio de eventos que se producen en las colisiones del LHC.El trabajo se puede dividir en dos partes, una primera en la que se investigan y exponen las necesidades en materia de adquisición de datos del experimento ATLAS/LHC y una segunda parte centrada en la realización del Sistema ROD, desde su primer prototipo, su diseño hardware, el sistema final, los módulos de preprocesado que se han desarrollado, el software desarrollado en los dispositivos lógicos programables y por último las pruebas, integración y resultados obtenidos en el CERN. / The object of this Thesis is the design, programming and integration of the Preprocessing Data Module of the Read Out Driver System (ROD) within the works that are being made in the European Laboratory of Physics of Particles (CERN). There treats itself about a definitive step for the beginning of this system, who will install in the ATLAS detector inside the accelerator of particles (LHC) that is being constructed in the CERN.
49

Tratamiento de emisiones a la atmósfera de acetato de etilo y tolueno mediante biofiltros de turba.

Álvarez Hornos, Fco. Javier 05 June 2009 (has links)
En las últimas décadas, la calidad del aire y el control de la contaminación atmosférica vienen siendo líneas principales de actuación en política medioambiental a fin de evitar daños sobre la salud humana y el medio ambiente. Los compuestos orgánicos volátiles, entre los que se encuentran el acetato de etilo y el tolueno, son uno de los principales contaminantes atmosféricos de origen industrial. Las nuevas reglamentaciones asociadas a la emisión de compuestos orgánicos volátiles procedentes del uso de disolventes en determinadas instalaciones industriales hacen necesaria la búsqueda de técnicas o procedimientos para reducir, minimizar o eliminar este tipo de emisiones. En este sentido, los sistemas biológicos de tratamiento como la biofiltración se presentan como una alternativa económica y respetuosa con el medio ambiente. En este trabajo de tesis doctoral se presenta un estudio del proceso de biofiltración en el que se han abordado dos líneas de trabajo principales:· Estudio experimental en bioreactores para la depuración de aire contaminado con acetato de etilo y/o tolueno, utilizando turba fibrosa como material de relleno, bajo condiciones de estado estacionario y bajo condiciones de alimentación intermitente.· Desarrollo de un modelo matemático para su uso como herramienta de predicción y de diseño.En los ensayos llevados a cabo bajo condiciones de estado estacionario se ha realizado un seguimiento de la operación de los biofiltros durante 2 años de experimentación. En primer lugar se ha evaluado la influencia que tiene el uso de inóculos previamente adaptados a los compuestos a degradar sobre el tiempo de puesta en marcha del biofiltro. A continuación se ha evaluado la influencia de la carga volumétrica de entrada de contaminante en la capacidad de eliminación trabajando con un tiempo de residencia constante de 90 s, para posteriormente analizar la influencia del tiempo de residencia en la eficacia del proceso, ampliando el estudio a tiempos de residencia comprendidos entre 22 y 60 s. En muchas ocasiones, las emisiones industriales suelen presentar un carácter intermitente y oscilante asociado al proceso productivo del que provienen. A fin de evaluar estas variaciones sobre la respuesta transitoria del sistema, los tres biofiltros se han sometido a condiciones de alimentación intermitente con interrupciones nocturnas y de fin de semana del aporte de contaminante. A su vez, la influencia que las perturbaciones en la alimentación tienen sobre el rendimiento del sistema se ha estudiado mediante la aplicación de variaciones instantáneas de la concentración de entrada del compuesto y del caudal de aire contaminado. Finalmente, se ha evaluado el tiempo necesario para recuperar la eficacia de eliminación en cada uno de los tres biofiltros tras una interrupción prolongada de 15 días en el aporte de contaminante, situación que representa una posible parada vacacional en los procesos industriales. De forma rutinaria se ha realizado un seguimiento periódico de la variación de la concentración de biomasa a lo largo del lecho, implementando para ello, una técnica de recuento por tinción mediante fluorocromos a este sistema. Finalmente, se presenta el desarrollo de un modelo matemático para la predicción del funcionamiento de los tres biofiltros en condiciones de estado estacionario. El modelo incluye como hipótesis principal la existencia de una densidad celular no uniforme a lo largo del lecho, asumiendo que se establece un perfil decreciente en la concentración de biomasa activa a lo largo del lecho. Además, se ha empleado un procedimiento basado en la Matriz de Información de Fisher para obtener los intervalos de confianza del 95% de los parámetros estimados. La verificación del modelo planteado se ha realizado utilizando los datos experimentales procedentes del tratamiento de la mezcla equimásica de ambos contaminantes. / The volatile organic compound (VOC), like ethyl acetate and toluene, are one of the main air pollutants from industrial sources. The biofiltration is an economic and environment-friendly technology to removal these compounds. In this doctoral thesis has been carried out an experimental study in three bioreactors for the treatment of air contaminated with ethyl acetate and/or toluene, using fibrous peat as packing material under steady state and intermittent loading conditions. Besides, it has been developed a mathematical model which can be used for prediction and design purposes. In the experiments under steady state conditions (2 years of experimentation), initially, the biofilter start-up time has been evaluated using an inoculum previously adapted to the compounds to degrade. Subsequently, the elimination capacity has been determined working with empty bed residence times between 22 and 90 s. In the experiments under intermittent loading conditions, the three biofilters have been operated with overnight and weekend shutdowns. Concurrently, instantaneous inlet concentration and flow rate changes have been carried out. Finally, it has been evaluated the time needed to recover the removal efficiency in each of the biofilters after of a 15 days starvation period. The living and the dead cells concentrations along the bed biofilters have been monitored by the fluorescence microscopy using LIVE/DEAD® BacLightTM. Finally, a mathematical model has been developed. The model includes as main hypothesis the existence of a non-uniform cell density throughout the bed. It has also used the Fisher Information Matrix for the confidence intervals of 95% of the estimated parameters. The model validation has been carried out using experimental data from the treatment of the 1:1 (w:w) mixture.
50

Tácticas mixtas para la negociación automática de múltiples servicios con información incompleta en entornos multiagente. Aplicación a problemas de gestión de tráfico.

Tomás López, Vicente Ramón 19 September 2006 (has links)
La creciente importancia del fenómeno de la interacción entre sistemas informáticos ha modificado la forma tradicional de analizarlos y programarlos, puesto que éstos han pasado de ser considerados como sistemas aislados a ser fundamentalmente concebidos como sistemas distribuidos. La necesidad de interaccionar entre los componentes del sistema es cada vez más importante para poder realizar o resolver tareas conjuntas que de forma individual serían muy costosas o incluso imposibles de desarrollar (por ejemplo, porque los recursos necesarios para resolver una tarea estén distribuidos entre distintos componentes del sistema). No obstante, los sistemas informáticos, que deben alcanzar sus propios objetivos operacionales, no siempre se encuentran dispuestos a compartir o ceder los recursos necesarios para desarrollar las acciones que otros sistemas informáticos solicitan, puesto que pueden surgir conflictos de interés.Uno de los mecanismos para la resolución de conflictos de interés es la negociación automática. Esta se centra en proveer un marco de negociación que permita la interacción de los participantes. Este marco de negociación, que debe ser conocido y aceptado por todos los participantes, define las normas que describen la negociación: cuál es el tiempo máximo que puede durar la negociación, cuál es el contenido de las ofertas y que ocurre si no se alcanza un acuerdo. La utilización de protocolos como mecanismo de negociación automáticos permite definir y especificar completamente todos los componentes necesarios. Sin embargo, esta definición presenta problemas a la hora de definir formalmente las características específicas del protocolo y del dominio donde se vaya a aplicar.El trabajo que se presenta en esta tesis ha consistido en el desarrollo de un protocolo de negociación que permita a los participantes alcanzar acuerdos óptimos para la prestación de servicios coordinados en una única negociación. El protocolo presentado aborda los siguientes aspectos: · El resultado de la negociación puede ser una combinación de elementos que aporten una solución a un problema dado.· La relación existente entre los elementos que forman parte de la negociación.· Cómo afecta a la negociación la implementación secuencial, es decir, el acuerdo sobre un elemento implica que éste pasa a desarrollarse, lo que afecta al escenario de negociación y consecuentemente a las estrategias de negociación sobre el resto de elementos.· La implementación de tácticas mixtas que eviten que el acuerdo sobre un elemento, que en un instante t podría ser considerado como óptimo, pueda no serlo cuando se alcance un acuerdo sobre otro elemento en un instante t' posterior.· La utilización de creencias, ya que el entorno donde se desarrolla el protocolo es un entorno con información incompleta, es decir, un participante no conoce los rangos de acuerdos del otro participante. Este problema, negociación sobre múltiples elementos relacionados, se encuentra presente en multitud de dominios de aplicación. Por ejemplo, en la provisión de servicios: provisión de ancho de banda, logística de recursos distribuida, o como en el caso en el que el protocolo se ha adaptado: la gestión del tráfico interurbano.El protocolo presentado se ha adaptado a un entorno real, en concreto, a la determinación automática de itinerarios alternativos como solución cuando se producen incidentes en la circulación en una red viaria. Por último, se ha diseñado e implementado un sistema multiagente para la gestión del tráfico interurbano que implementa el protocolo de negociación propuesto. / The interaction between system components has become an important requirement to develop or solve common tasks which individual components are unable to reach. However, computer systems, that have to reach their operational objectives, are not usually disposed to share or yield the resources that other system request. Thus conflict of interest appears.One of the mechanisms to solve conflict of interest is automatic negotiation. It is focused on providing a negotiation framework. This framework allows the interaction between participants (or players). Nevertheless, this framework presents problems when we have to define formally the specific characteristic of the protocol and the application domain.The work developed in this thesis is focused on the development of a new negotiation protocol. This protocol allows players to reach optimal agreements to share and use services co-ordinately. The protocol has the next characteristics: a) it is played in a incomplete information environment; b) there are several elements involved in the negotiation and they are related; c) the result negotiation could be a combination of elements providing a solution; d) the implementation of elements, once they are agreed, is sequential and e) the generation of offers and counter offers are developed using mixed tactics.The protocol developed has been adapted to be used in a real environment: the non urban road traffic domain. The protocol has been developed to automatically define alternative itineraries as solution to a road incident. A multiagent system has been designed and implemented to traffic management. This MAS prototype allows to monitors weather problems and to negotiate, using the proposed protocol, alternatives itineraries when weather problems (snow, ice, etc) appear in the road network.

Page generated in 0.0572 seconds