• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 13
  • 10
  • Tagged with
  • 40
  • 37
  • 37
  • 37
  • 28
  • 21
  • 14
  • 11
  • 10
  • 10
  • 9
  • 7
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Multicarrier communication systems with low sensibility to nonlinear amplification

Deumal Herraiz, Marc 11 July 2008 (has links)
Actualment estem entrant a una nova era de la informació amb gran demanda de sistemes de comunicació sense fils. Nous serveis com dades i video requereixen transmissions fiables d'alta velocitat, fins i tot en escenaris d'alta mobilitat. A més a més, la dificultat d'assignar el limitat espectre radioelèctric juntament amb la necessitat d'incrementar el temps de vida de les bateries dels terminals mòbils, requereix el diseny de transceptors que usin la potència i l'ampla de banda disponibles de manera eficient. Les comunicacions multiportadora basades en OFDM són capaces de satisfer la majoria d'aquests requeriments. Però, entre altres reptes, reduir la sensibilitat a la amplificació no-lineal és un factor clau durant el diseny. En aquesta tesi doctoral s'analitza la sensibilitat dels sistemes multiportadora basats en OFDM a l'amplificació no-lineal i es consideren formes eficients per superar aquest problema. La tesi s'enfoca principalment al problema de reduir les fluctuacions de l'envolupant del senyal transmès. En aquest sentit es presenta també un estudi de les mètriques de l'envolupant del senyal, PAPR i CM. A més a més, basant-nos en l'anàlisis presentat es proposen noves tècniques per sistemes OFDM i MC-SS. Per MC-SS, també es tracta el diseny d'una tècnica de postprocessament en forma de detector multiusuari per canals no-lineals. / Actualmente estamos entrando en una nueva era de la información donde se da una gran demanda de sistemas de comunicación inalámbricos. Nuevos servicios como datos y vídeo requieren transmisiones fiables de alta velocidad, incluso en escenarios de alta movilidad. Además, la dificultad de asignar el limitado espectro radioeléctrico junto con la necesidad de incrementar el tiempo de vida de las baterías de los terminales móviles, requiere el diseño de transceptores que usen eficientemente la potencia y el ancho de banda disponibles. Las comunicaciones multiportadora basadas en OFDM son capaces de satisfacer la mayoría de dichos requerimientos. Sin embargo, entre otros retos, reducir su sensibilidad a la amplificación no-lineal es un factor clave durante el diseño. En esta tesis se analiza la sensibilidad de los sistemas multiportadora basados en OFDM a la amplificación no-lineal y se consideran formas eficientes para superar dicho problema. La tesis se enfoca principalmente al problema de reducir las fluctuaciones de la envolvente. En este sentido también se presenta un estudio de las métricas de la señal, PAPR y CM. Además, basándonos en el análisis presentado se proponen nuevas técnicas para OFDM y MC-SS. Para MC-SS, también se trata el diseño de un detector multiusuario para canales no-lineales. / We are now facing a new information age with high demand of wireless communication systems. New services such as data and video require achieving reliable high-speed transmissions even in high mobility scenarios. Moreover, the difficulty to allocate so many wireless communication systems in the limited frequency band in addition to the demand for long battery life requires designing spectrum and power efficient transceivers. Multicarrier communications based on OFDM are known to fulfill most of the requirements of such systems. However, among other challenges, reducing the sensitivity to nonlinear amplification has become a design key. In this thesis the sensitivity of OFDM-based multicarrier systems to nonlinear amplification is analyzed and efficient ways to overcome this problem are considered. The focus is mainly on the problem of reducing the envelope fluctuations. Therefore, a study of the signal metrics, namely PAPR and CM, is also presented. From the presented analysis, several new techniques for OFDM and MC-SS are proposed. For MC-SS, the design of a post-processing technique in the form of a multiuser detector for nonlinearly distorted MC-SS symbols is also addressed.
12

Comunicacions avançades d'HF entre la Base Antàrtica Espanyola i l'Observatori de l'Ebre: caracterització de canal i transmissió de dades

Vilella Parra, Carles 25 February 2008 (has links)
En els darrers quinze anys la velocitat de bit dels sistemes de comunicació ionosfèrica s'ha incrementat significativament, passant dels 75 bps als 14400 bps en un ample de banda de 3 KHz. Les millores experimentades en el modelatge i simulació de canal, el desenvolupament dels sistemes ALE i l'aplicació de tècniques digitals (software radio, modulacions de banda ampla, etc.) són, entre altres, alguns dels motius que han permès aquest increment en les prestacions dels equips, fent-los aptes per comunicacions de llarga distància amb requeriments de velocitat de bit moderada.En particular, la propagació ionosfèrica és una tècnica especialment interessant per enllaços des de l'Antàrtida, on la comunicació amb satèl·lits geostacionaris no és sempre possible.El Departament de Comunicacions i Teoria del Senyal de l'Escola d'Enginyeria La Salle (Universitat Ramon Llull) està involucrat, juntament amb l'Observatori de L'Ebre, en un projecte de recerca que té per objectiu l'estudi de l'enllaç ionosfèric que s'estableix entre la Base Antàrtica Espanyola i Roquetes. L'enllaç, que té una longitud de més de 12700 quilòmetres, ha de servir per transmetre les dades procedents d'un sensor geomagnètic situat a la Base, cap a l'Observatori.Aquesta tesi estudia diversos aspectes d'aquest projecte, principalment pel que fa a la caracterització de canal i al disseny de la capa física adaptada per transmissió eficient de dades.En referència a la caracterització de canal es mostren els resultats d'una campanya de 60 dies de sondeig duta a terme durant l'estiu austral 2006/07 en la que s'han realitzat proves de banda estreta i banda ampla per tal d'obtenir, entre altres, la disponibilitat de l'enllaç, relació senyal a soroll i dispersió temporal i freqüencial.En l'àmbit de la transmissió de dades es proposa, justifica i verifica experimentalment una part d'una capa física basada en espectre eixamplat per seqüència directa especialment adaptada a enllaços a llocs remots: (i) Sense atribució de freqüències; (ii) Amb potència de transmissió relativament baixa; (iii) Infraestructura de radiació limitada. La proposta contempla el funcionament amb relacions SNR negatives, dispersió temporal i freqüencial moderada, robustesa a la interferència i baixa densitat espectral de potència. / En los últimos quince años la velocidad de bit de los sistemas de comunicación ionosférica se ha incrementado significativamente, pasando de los 75 bps a los 14400 bps en un ancho de banda de 3 kHz. Las mejoras experimentadas en el modelado y simulación del canal, el desarrollo de los sistemas ALE y la aplicación de técnicas digitales (software radio, modulaciones de banda ancha, etc.) son, entre otros, algunos de los motivos que han permitido este incremento en las prestaciones de los equipos, haciéndolos aptos para comunicaciones de larga distancia con requerimientos de velocidad de bit moderada.En particular, la propagación ionosférica es una técnica especialmente interesante para enlaces desde la Antártida, donde la comunicación con satélites geostacionarios no es siempre posible.El Departamento de Comunicaciones y Teoría de la Señal de la Escuela de Ingeniería La Salle (Universidad Ramon Llull) está involucrado, junto al Observatorio del Ebro, en un proyecto de investigación que tiene por objetivo el estudio del enlace ionosférico que se establece entre la Base Antártica Española y Roquetes. El enlace, que tiene una longitud de más de 12700 kilómetros, debe servir para transmitir los datos procedentes de un sensor geomagnético situado en la Base, hacia el Observatorio.Esta tesis estudia varios aspectos de este proyecto, principalmente por lo que respecta a la caracterización del canal y al diseño de la capa física adaptada para la transmisión eficiente de datos.En lo referente a la caracterización del canal se muestran los resultados de una campaña de 60 días de sondeo llevada a cabo durante el verano austral 2006/07 en la que se han realizado pruebas de banda estrecha y banda ancha para obtener, entre otros, la disponibilidad del enlace, relación señal a ruido y dispersión temporal y frecuencial.En el ámbito de la transmisión de datos se propone, justifica y verifica experimentalmente una parte de una capa física basada en espectro ensanchado por secuencia directa especialmente adaptada a enlaces a lugares remotos: (i) Sin atribución de frecuencias; (ii) Con potencia de transmisión relativamente baja; (iii) Infraestructura de radiación limitada. La propuesta contempla el funcionamiento con relaciones SNR negativas, dispersión temporal y frecuencial moderada, robustez a la interferencia y baja densidad espectral de potencia. / In the last fifteen years the data rate of the ionospheric communication systems has increased significantly from 75 bps to 14400 bps in a 3 KHz bandwidth. The improvements achieved in the field of channel modeling and simulation, ALE systems and the application of digital techniques (e.g. software radio, wideband modulations, etc.) have permitted the design of new equipment with better performance. As a result, the establishment of low power, very long radio links with moderate data rate has become feasible.In special, the ionospheric propagation technique is very appropriate for radio links from the Antarctica, where the communication to geostationary satellites is not always possible.The Communications and Signal Theory Department of La Salle School of Engineering (Universitat Ramon Llull) and the Observatori de l'Ebre are involved in a research project dealing with the study of an ionospheric radio link between the Spanish Antarctic Base and Roquetes. The link is 12700 Km. long and is going to be used to transmit the low data rate information from a geomagnetic sensor installed in the Spanish Antarctic Base.This thesis has been carried out in the framework of this project, and its goals are related to the channel characterization and the partial design of a physical layer adapted to an efficient transmission of information over that link.Regarding the channel characterization, the results of a 60-days sounding survey corresponding to the 2006/07 southern summer are shown. These results include, among others, link availability, signal to noise ratio and delay and Doppler spread.In the field of data transmission a new physical layer is proposed and experimentally verified, on the basis of the channel measurements and adapted to the requirements and the special conditions in the Antarctica. This physical layer is based on direct sequence spread spectrum and his main characteristics are: (i) Intended for an HF communication without a fixed frequency allocation; (ii) Low emitted power; (iii) Simple radiation infrastructure. The proposal takes into account the operation with negative signal to noise ratios, moderate delay and Doppler spreads, robustness against interference and low power spectral density.
13

Adaptive Communications for Next Generation Broadband Wireless Access Systems

Gutiérrez González, Ismael 19 June 2009 (has links)
Un dels aspectes claus en el disseny i gestió de les xarxes sense fils d'accés de banda ampla és l'ús eficient dels recursos radio. Des del punt de vista de l'operador, l'ample de banda és un bé escàs i preuat que s´ha d'explotar i gestionar de la forma més eficient possible tot garantint la qualitat del servei que es vol proporcionar. Per altra banda, des del punt de vista del usuari, la qualitat del servei ofert ha de ser comparable al de les xarxes fixes, requerint així un baix retard i una baixa pèrdua de paquets per cadascun dels fluxos de dades entre la xarxa i l'usuari. Durant els darrers anys s´han desenvolupat nombroses tècniques i algoritmes amb l'objectiu d'incrementar l'eficiència espectral. Entre aquestes tècniques destaca l'ús de múltiples antenes al transmissor i al receptor amb l'objectiu de transmetre diferents fluxos de dades simultaneament sense necessitat d'augmentar l'ample de banda. Per altra banda, la optimizació conjunta de la capa d'accés al medi i la capa física (fent ús de l'estat del canal per tal de gestionar de manera optima els recursos) també permet incrementar sensiblement l'eficiència espectral del sistema.L'objectiu d'aquesta tesi és l'estudi i desenvolupament de noves tècniques d'adaptació de l'enllaç i gestió dels recursos ràdio aplicades sobre sistemes d'accés ràdio de propera generació (Beyond 3G). Els estudis realitzats parteixen de la premissa que el transmisor coneix (parcialment) l'estat del canal i que la transmissió es realitza fent servir un esquema multiportadora amb múltiples antenes al transmisor i al receptor. En aquesta tesi es presenten dues línies d'investigació, la primera per casos d'una sola antenna a cada banda de l'enllaç, i la segona en cas de múltiples antenes. En el cas d'una sola antena al transmissor i al receptor, un nou esquema d'assignació de recursos ràdio i priorització dels paquets (scheduling) és proposat i analitzat integrant totes dues funcions sobre una mateixa entitat (cross-layer). L'esquema proposat té com a principal característica la seva baixa complexitat i que permet operar amb transmissions multimedia. Alhora, posteriors millores realitzades per l'autor sobre l'esquema proposat han permès també reduir els requeriments de senyalització i combinar de forma óptima usuaris d'alta i baixa mobilitat sobre el mateix accés ràdio, millorant encara més l'eficiència espectral del sistema. En cas d'enllaços amb múltiples antenes es proposa un nou esquema que combina la selecció del conjunt optim d'antenes transmissores amb la selecció de la codificació espai- (frequència-) temps. Finalment es donen una sèrie de recomanacions per tal de combinar totes dues línies d'investigació, així con un estat de l'art de les tècniques proposades per altres autors que combinen en part la gestió dels recursos ràdio i els esquemes de transmissió amb múltiples antenes. / Uno de los aspectos claves en el diseño y gestión de las redes inalámbricas de banda ancha es el uso eficiente de los recursos radio. Desde el punto de vista del operador, el ancho de banda es un bien escaso y valioso que se debe explotar y gestionar de la forma más eficiente posible sin afectar a la calidad del servicio ofrecido. Por otro lado, desde el punto de vista del usuario, la calidad del servicio ha de ser comparable al ofrecido por las redes fijas, requiriendo así un bajo retardo y una baja tasa de perdida de paquetes para cada uno de los flujos de datos entre la red y el usuario. Durante los últimos años el número de técnicas y algoritmos que tratan de incrementar la eficiencia espectral en dichas redes es bastante amplio. Entre estas técnicas destaca el uso de múltiples antenas en el transmisor y en el receptor con el objetivo de poder transmitir simultáneamente diferentes flujos de datos sin necesidad de incrementar el ancho de banda. Por otro lado, la optimización conjunta de la capa de acceso al medio y la capa física (utilizando información de estado del canal para gestionar de manera óptima los recursos) también permite incrementar sensiblemente la eficiencia espectral del sistema.El objetivo de esta tesis es el estudio y desarrollo de nuevas técnicas de adaptación del enlace y la gestión de los recursos radio, y su posterior aplicación sobre los sistemas de acceso radio de próxima generación (Beyond 3G). Los estudios realizados parten de la premisa de que el transmisor conoce (parcialmente) el estado del canal a la vez que se considera que la transmisión se realiza sobre un sistema de transmisión multiportadora con múltiple antenas en el transmisor y el receptor. La tesis se centra sobre dos líneas de investigación, la primera para casos de una única antena en cada lado del enlace, y la segunda en caso de múltiples antenas en cada lado. Para el caso de una única antena en el transmisor y en el receptor, se ha desarrollado un nuevo esquema de asignación de los recursos radio así como de priorización de los paquetes de datos (scheduling) integrando ambas funciones sobre una misma entidad (cross-layer). El esquema propuesto tiene como principal característica su bajo coste computacional a la vez que se puede aplicar en caso de transmisiones multimedia. Posteriores mejoras realizadas por el autor sobre el esquema propuesto han permitido también reducir los requisitos de señalización así como combinar de forma óptima usuarios de alta y baja movilidad. Por otro lado, en caso de enlaces con múltiples antenas en transmisión y recepción, se presenta un nuevo esquema de adaptación en el cual se combina la selección de la(s) antena(s) transmisora(s) con la selección del esquema de codificación espacio-(frecuencia-) tiempo. Para finalizar, se dan una serie de recomendaciones con el objetivo de combinar ambas líneas de investigación, así como un estado del arte de las técnicas propuestas por otros autores que combinan en parte la gestión de los recursos radio y los esquemas de transmisión con múltiples antenas. / In Broadband Wireless Access systems the efficient use of the resources is crucial from many points of views. From the operator point of view, the bandwidth is a scarce, valuable, and expensive resource which must be exploited in an efficient manner while the Quality of Service (QoS) provided to the users is guaranteed. On the other hand, a tight delay and link quality constraints are imposed on each data flow hence the user experiences the same quality as in fixed networks. During the last few years many techniques have been developed in order to increase the spectral efficiency and the throughput. Among them, the use of multiple antennas at the transmitter and the receiver (exploiting spatial multiplexing) with the joint optimization of the medium access control layer and the physical layer parameters.In this Ph.D. thesis, different adaptive techniques for B3G multicarrier wireless systems are developed and proposed focusing on the SS-MC-MA and the OFDM(A) (IEEE 802.16a/e/m standards) communication schemes. The research lines emphasize into the adaptation of the transmission having (Partial) knowledge of the Channel State Information for both; single antenna and multiple antenna links. For single antenna links, the implementation of a joint resource allocation and scheduling strategy by including adaptive modulation and coding is investigated. A low complexity resource allocation and scheduling algorithm is proposed with the objective to cope with real- and/or non-real- time requirements and constraints. A special attention is also devoted in reducing the required signalling. However, for multiple antenna links, the performance of a proposed adaptive transmit antenna selection scheme jointly with space-time block coding selection is investigated and compared with conventional structures. In this research line, mainly two optimizations criteria are proposed for spatial link adaptation, one based on the minimum error rate for fixed throughput, and the second focused on the maximisation of the rate for fixed error rate. Finally, some indications are given on how to include the spatial adaptation into the investigated and proposed resource allocation and scheduling process developed for single antenna transmission.
14

Síntesi basada en models ocults de Markov aplicada a l'espanyol i a l'anglès, les seves aplicacions i una proposta híbrida

Gonzalvo Fructuoso, Javier 16 July 2010 (has links)
Avui en dia, la Interacció Home Màquina (IHM) és una de les disciplines més estudiades amb l'objectiu de millorar les interaccions humanes amb sistemes reals actuals i futurs. Cada vegada més gent utilitza més dispositius electrònics a la vida quotidiana Aquesta incursió electrònica es deu principalment a dues raons. D'una banda, la facilitat d'accés a aquesta tecnologia però d'altra banda, unes interfícies més amigables que permeten un ús més fàcil i intuitiu. Simplement fa falta observar els ordinadors personals d'avui en dia, les computadores de butxaca i inclús els telèfons mòbils. Tots aquests nous dispositius permeten que usuaris poc experimentats puguin fer ús de les tecnologies més punteres. D'altra banda, la inclusió de les tecnologies de la parla estan arribant a ser més comunes gràcies a què els sistemes de reconeixement i de síntesi de veu han millorat considerablement el seu funcionament i fiabilitat.L'objectiu final de les tecnologies de la parla és crear sistemes tan naturals com els éssers humans per tal de fer que el seu ús es pugui extendre a qualsevol racó de la vida quotidiana Els conversors de Text-a-Parla (o sintetitzadors) són un dels mòduls que més esforç investigador han rebut amb l'objectiu de millorar la seva naturalitat i expressivitat. L'ús de sintetitzadors s'ha ampliat durant els últims temps degut a l'alta qualitat aconseguida en aplicacions de domini restringit i el bon comportament en aplicacions de propòsit general. De totes formes, encara queda un llarg camí per recòrrer pel que respecta a la qualitat en aplicacions de domini obert. A més a més, algunes de les tendències dels sistemes sintetitzadors comporten reduir el tamany de les bases de dades, sistemes flexibles per adaptar locutors i estils de locució i sistemes entrenables.Aquesta tesi doctoral presentarà un sintetizador de veu basat en l'entorn probabilístic dels Models Ocults de Makov (MOM) que tractarà amb els principals temes estudiats a l'actualitat, tal com l'adaptació de l'estil del locutor, sistemes conversors de veu entrenables i bases de dades de tamany reduit. Es descriurà el funcionament convencional dels algoritmes i es propondran millores en diferents àmbits com per exemple l'expressivitat. A la vegada, es presenta un sistema híbrid punter que combina models estadístics i de concatenació de veu. Els resultats obtinguts mostren com les propostes d'aquest treball donen un pas endavant en l'àmbit de la creació de veu sintètica utilitzant models estadístics. / Hoy en día, la Interacción Hombre-Máquina (IHM) es una de las disciplinas más estudiadas con el objetivo de mejorar las interacciones humanas con sistemas reales para el presente y para el futuro venidero. Más y más dispositivos electrónicos son usados por más gente en la vida diaria. Esta incursión electrónica se debe principalmente a dos razones. Por un lado, el indudable aumento en la accesibilidad económica a esta tecnología pero por otra parte, unos interfaces más amigables que permiten un uso más fácil e intuitivo. Simplemente hace falta observar hoy en día los ordenadores personales, las computadoras de bolsillo e incluso los teléfonos móviles. Todos estos nuevos dispositivos admiten que usuarios poco experimentados puedan hacer uso de las tecnologías más punteras. Por otra parte, la inclusión de las tecnologías del habla está llegando a ser más común gracias a que los sistemas de reconocimiento y de síntesis de voz han estado mejorando su funcionamiento y fiabilidad.El objetivo final de las tecnologías del habla es crear sistemas tan naturales como los seres humanos para que su uso se pueda extender a cualquier rincón de la vida diaria. Los conversores de Texto-a-Voz (o sintetizadores) son de los módulos que más esfuerzo investigador han recibido con el objetivo de mejorar su naturalidad y la expresividad. El uso de los sintetizadores se ha ampliado durante los últimos tiempos debido a la alta calidad alcanzada en usos de dominio restringido y el buen comportamiento en aplicaciones de propósito general. De todas formas, todavía queda un largo camino por recorrer por lo que respecta a la calidad en aplicaciones de dominio abierto. Además, algunas de las tendencias de los sistemas sintetizadores conllevan reducir el tamaño de las bases de datos, sistemas flexibles para adaptar locutores y estilos de locución y sistemas entrenables.Esta tesis doctoral presentará un sintetizador de voz basado en el entorno probabilístico de los Modelos Ocultos de Markov (MOM) que lidiará con los principales temas estudiados en la actualidad tales como adaptación del estilo de locutor, sistema conversores de voz entrenables y bases de datos de tamaño reducido. Se describirá el funcionamiento convencional de los algoritmos y se propondrán mejoras en varios ámbitos tales como la expresividad. A la vez se presenta un sistema híbrido puntero que combina modelos estadísticos y de concatenación de voz. Los resultados obtenidos muestran como las propuestas de este trabajo dan un paso adelante en el ámbito de la creación de voz sintética usando modelos estadísticos. / Nowadays, Human Computer Interaction (HCI) is one of the most studied disciplines in order to improve real human interactions with machines on the present time and for the incoming future. More and more electronic devices of the daily life are used by more people. This electronic incursion is mainly due to two reasons. On the one hand, the undoubted increasing of the economical accessibility to this technology but on the other hand, the more friendly interfaces allow an easier and more intuitive use. As a matter of fact, nowadays it is only necessary to observe the personal computer interfaces, pocket size computers and even mobile telephones. All these new interfaces let little experienced users make use of cutting edge technologies. Moreover, the inclusion of speech technologies in these systems is becoming more usual since speech recognition and synthesis systems have improved their performance and reliability.The purpose of speech technology is to provide systems with a natural human interface so the use can be extended to daily life. Text-to-Speech (TTS) systems are one of the main modules under intense research activity in order to improve their naturalness and expressiveness. The use of synthesizers has been extended during the last times due to the high-quality reached in real limited domain applications and the good performance in generic purposes applications. However, there is still a long way to go with respect to quality and open domain systems.This work will present a TTS system based on a statistical framework using Hidden Markov Models (HMMs) that will deal with the main topics under study in recent years such as voice style adaptation, trainable TTS systems and low print databases. Moreover, a cutting edge hybrid approach combining concatenative and statistical synthesis will also be presented. Ideas and results in this work show a step forward in the HMM-based TTS system field
15

Scintillator Pad Detector: Very Front End Electronics

Luengo Álvarez, Sonia 16 July 2008 (has links)
El Laboratori d'Altes Energies de La Salle és un membre d'un grup acreditat per la Generalitat. Aquest grup està format per part del Departament d'Estructura i Constituents de la Matèria de la Facultat de Física de la Universitat de Barcelona, part del departament d'Electrònica de la mateixa Facultat i pel grup de La Salle. Tots ells estan involucrats en el disseny d'un subdetector en l'experiment de LHCb del CERN: el SPD (Scintillator Pad Detector). El SPD és part del Calorímetre de LHCb. Aquest sistema proporciona possibles hadrons d'alta energia, electrons i fotons pel primer nivell de trigger. El SPD està format per una làmina centellejeadora de plàstic, dividida en 600 cel.les de diferent tamany per obtenir una millor granularitat aprop del feix. Les partícules carregades que travessin el centellejador generaran una ionització del mateix, a diferència dels fotons que no la ionitzaran. Aquesta ionització, generarà un pols de llum que serà recollit per una WLS que està enrotllada dins de les cel.les centellejadores. La llum serà transmesa al sistema de lectura mitjançant fibres clares. Per reducció de costos, aquestes 6000 cel.les estan dividides en grups, usant MAPMT (fotomultiplicadors multiànode) de 64 canals per rebre la informació en el sistema de lectura. El senyal de sortida dels fotomultilplicadors és irregular degut al baix nivell de fotoestadística, uns 20-30 fotoelectrons per MIP, i degut també a la resposta de la fibra WLS, que té un temps de baixada lent. Degut a tot això, el processat del senyal, es realitza primer durant la integració de la càrrega total i finalment per la correcció de la cua que conté el senyal provinent del PMT. Aquesta Tesi està enfocada en el sistema de lectura de l'electrònica del VFE del SPD. Aquest, està format per un ASIC (dissenyat pel grup de la UB) encarregat d'integrar el senyal, compensar el senyal restant i comparar el nivell d'energia obtingut amb un llindar programable (fa la distinció entre electrons i fotons), una FPGA que programa aquests llindars i compensacions de cada ASIC i fa el mapeig de cada canal rebut en el detector i finalment usa serialitzadors LVDS per enviar la informació de sortida al trigger de primer nivell. En el disseny d'aquest tipus d'electrònica s'haurà de tenir en compte, per un costat, restriccions de tipus mecànic: l'espai disponible per l'electrònica és limitat i escàs, i per un altre costat, el nivell de radiació que deurà suportar és considerable i s'haurà de comprobar que tots els components superin un cert test de radiació, i finalment, també s'haurà de tenir en compte la distància que separa els VFE dels racks on la informació és enviada i el tipus de senyal amb el que es treballa en aquest tipus d'experiments: mixta i de poc rang. / El Laboratorio de Altas Energías de la Salle es un miembro de un grupo acreditado por La Generalitat. Este grupo está formado por parte del departamento de Estructura i Constituents de la Matèria de la Facultad de Física de la Universidad de Barcelona, parte del departamento de Electrónica de la misma Facultad y el grupo de La Salle. Todos ellos están involucrados en el diseño de un subdetector en el experimento de LHCb del CERN: El SPD (Scintillator Pad Detector). El SPD es parte del Calorímetro de LHCb. Este sistema proporciona posibles hadrones de alta energía, electrones y fotones para el primer nivel de trigger.El SPD está diseñado para distinguir entre electrones y fotones para el trigger de primer nivel. Este detector está formado por una lámina centelleadora de plástico, dividida en 6000 celdas de diferente tamaño para obtener una mejor granularidad cerca del haz. Las partículas cargadas que atraviesen el centelleador generarán una ionización del mismo, a diferencia de los fotones que no la generarán. Esta ionización generará, a su vez, un pulso de luz que será recogido por una WLS que está enrollada dentro de las celdas centelleadoras. La luz será transmitida al sistema de lectura mediante fibras claras. Para reducción de costes, estas 6000 celdas están divididas en grupos, utilizando un MAPMT (fotomultiplicadores multiánodo) de 64 canales para recibir la información en el sistema de lectura. La señal de salida de los fotomultiplicadores es irregular debido al bajo nivel de fotoestadística, unos 20-30 fotoelectrones por MIP, y debido también a la respuesta de la fibra WLS, que tiene un tiempo de bajada lento. Debido a todo esto, el procesado de la señal, se realiza primero mediante la integración de la carga total y finalmente por la substracción de la señal restante fuera del período de integración. Esta Tesis está enfocada en el sistema de lectura de la electrónica del VFE del SPD. Éste, está formado por un ASIC (diseñado por el grupo de la UB) encargado de integrar la señal, compensar la señal restante y comparar el nivel de energía obtenido con un umbral programable (que distingue entre electrones y fotones), y una FPGA que programa estos umbrales y compensaciones de cada ASIC, y mapea cada uno de los canales recibidos en el detector y finalmente usa serializadores LVDS para enviar la información de salida al trigger de primer nivel. En el diseño de este tipo de electrónica se deberá tener en cuenta, por un lado, restricciones del tipo mecánico: el espacio disponible para la electrónica en sí, es limitado y escaso, por otro lado, el nivel de radiación que deberá soportar es considerable y se tendrá que comprobar que todos los componentes usado superen un cierto test de radiación, y finalmente, también se deberá tener en cuenta la distancia que separa los VFE de los racks dónde la información es enviada y el tipo de señal con el que se trabaja en este tipo de experimentos: mixta y de poco rango. / Laboratory in La Salle is a member of a Credited Research Group by La Generatitat. This group is formed by a part of the ECM department, a part of the Electronics department at UB (University of Barcelona) and La Salle's group. Together, they are involved in the design of a subdetector at LHCb Experiment at CERN: the SPD (Scintillator Pad Detector). The SPD is a part of LHCb Calorimeter. That system provides high energy hadrons, electron and photons candidates for the first level trigger. The SPD is designed to distinguish electrons and photons for this first level trigger. This detector is a plastic scintillator layer, divided in about 6000 cells of different size to obtain better granularity near the beam. Charged particles will produce, and photons will not, ionisation on the scintillator. This ionisation generates a light pulse that is collected by a Wavelength Shifting (WLS) fibre that is twisted inside the scintillator cell. The light is transmitted through a clear fibre to the readout system. For cost reduction, these 6000 cells are divided in groups using a MAPMT of 64 channels for receiving information in the readout system. The signal outing the SPD PMTs is rather unpredictable as a result of the low number of photostatistics, 20-30 photoelectrons per MIP, and the due to the response of the WLS fibre, which has low decay time. Then, the signal processing must be performed by first integrating the total charge and later subtracting to avoid pile-up. This PhD is focused on the VFE (Very Front End) of SPD Readout system. It is performed by a specific ASIC (designed by the UB group) which integrates the signal, makes the pile-up compensation, and compares the level obtained to a programmable threshold (distinguishing electrons and photons), an FPGA which programs the ASIC thresholds, pile-up subtraction and mapping the channels in the detector and finally LVDS serializers, in order to send information to the first level trigger system. Not only mechanical constraints had to be taken into account in the design of the card as a result of the little space for the readout electronics but also, on one hand, the radiation quote expected in the environment and on the other hand, the distance between the VFE electronics and the racks were information is sent and the signal range that this kind of experiments usually have.
16

Aspects of algorithms and dynamics of cellular paradigms

Pazienza, Giovanni Egidio 15 December 2008 (has links)
Els paradigmes cel·lulars, com les xarxes neuronals cel·lulars (CNN, en anglès) i els autòmats cel·lulars (CA, en anglès), són una eina excel·lent de càlcul, al ser equivalents a una màquina universal de Turing. La introducció de la màquina universal CNN (CNN-UM, en anglès) ha permès desenvolupar hardware, el nucli computacional del qual funciona segons la filosofia cel·lular; aquest hardware ha trobat aplicació en diversos camps al llarg de la darrera dècada. Malgrat això, encara hi ha moltes preguntes a obertes sobre com definir els algoritmes d'una CNN-UM i com estudiar la dinàmica dels autòmats cel·lulars. En aquesta tesis es tracten els dos problemes: primer, es demostra que es possible acotar l'espai dels algoritmes per a la CNN-UM i explorar-lo gràcies a les tècniques genètiques; i segon, s'expliquen els fonaments de l'estudi dels CA per mitjà de la dinàmica no lineal (segons la definició de Chua) i s'il·lustra com aquesta tècnica ha permès trobar resultats innovadors. / Los paradigmas celulares, como las redes neuronales celulares (CNN, eninglés) y los autómatas celulares (CA, en inglés), son una excelenteherramienta de cálculo, al ser equivalentes a una maquina universal deTuring. La introducción de la maquina universal CNN (CNN-UM, eninglés) ha permitido desarrollar hardware cuyo núcleo computacionalfunciona según la filosofía celular; dicho hardware ha encontradoaplicación en varios campos a lo largo de la ultima década. Sinembargo, hay aun muchas preguntas abiertas sobre como definir losalgoritmos de una CNN-UM y como estudiar la dinámica de los autómatascelular. En esta tesis se tratan ambos problemas: primero se demuestraque es posible acotar el espacio de los algoritmos para la CNN-UM yexplorarlo gracias a técnicas genéticas; segundo, se explican losfundamentos del estudio de los CA por medio de la dinámica no lineal(según la definición de Chua) y se ilustra como esta técnica hapermitido encontrar resultados novedosos. / Cellular paradigms, like Cellular Neural Networks (CNNs) and Cellular Automata (CA) are an excellent tool to perform computation, since they are equivalent to a Universal Turing machine. The introduction of the Cellular Neural Network - Universal Machine (CNN-UM) allowed us to develop hardware whose computational core works according to the principles of cellular paradigms; such a hardware has found application in a number of fields throughout the last decade. Nevertheless, there are still many open questions about how to define algorithms for a CNN-UM, and how to study the dynamics of Cellular Automata. In this dissertation both problems are tackled: first, we prove that it is possible to bound the space of all algorithms of CNN-UM and explore it through genetic techniques; second, we explain the fundamentals of the nonlinear perspective of CA (according to Chua's definition), and we illustrate how this technique has allowed us to find novel results.
17

Control de l'escintil·lador SPD del calorímetre d'LHCb

Roselló Canal, Maria del Mar 10 December 2009 (has links)
En aquesta tesi es descriu l'electrònica i la gestió de la placa de control de l'SPD. SPD són les sigles corresponents a Scintillator Pad Detector, part del calorímetre d'LHCb de l'accelerador LHC.L'LHC és un accelerador orientat a estudiar els constituents de la matèria on LHCb n'és un dels detectors. El calorímetre és aquella part del detector destinada a mesurar l'energia de les partícules que el travessen. En el nostre cas l'SPD discrimina entre partícules carregades i no carregades contribuint així en les decisions del calorímetre.En l'electrònica de l'SPD trobareu diferenciades dues parts: l'electrònica en contacte directe amb el subdetector (Very Front End, VFE) i l'electrònica de gestió de l'SPD (la Control Board, CB). L'objectiu d'aquesta tesi és la descripció d'aquesta darrera així com la integració de l'SPD en el sistema de control del calorímetre. El VFE realitza un primer processat de les dades del detector determinant un nivell digital el qual indica si s'ha rebut una partícula carregada o no. La CB és l'encarregada en canvi de la monitorització i el control del sistema SPD: és capaç d'enviar dades de configuració als VFE i a la vegada en monitoritza el correcte funcionament.Veureu que el document es troba organitzat en 5 parts. A la primera part trobareu descrites les característiques principals del calorímetre, les seves funcions i la seva estructura. La part segona, tercera i quarta són dedicades integrament a la CB: a la part 2 tenim descrit el hardware, a la part 3 el sistema de control i a la quarta part hi trobarem comentats els diferents testos i proves realitzades tan sobre el hardware com amb el sistema de control. Finalment a la cinquena part hi trobarem resumits els objectius aconseguits amb el nostre disseny i les aportacions d'aquest en la globalitat de l'experiment. / En esta tesis se describe la electrónica y la gestión de la placa de control del SPD. SPD son las siglas correspondientes a Scintillator Pad Detector, parte del calorímetro de LHCb del acelerador LHC.LHC es un acelerador orientado al estudio de los constituyentes de la materia donde LHCb es uno de los detectores. El calorímetro es aquella parte del detector destinada a medir la energía de las partículas que lo traviesan. En nuestro caso el SPD discrimina entre partículas cargadas y neutras contribuyendo así a las decisiones del calorímetro.En la electrónica del SPD encontraréis diferenciadas dos partes: la electrónica en contacto directo con el detector (Very Front End, VFE) y la electrónica de gestión del SPD (la Control Board, CB). El objetivo de esta tesis es precisamente la descripción de esta última parte así como la integración del SPD en el sistema de control del calorímetro.El VFE realiza un primer procesado de los datos del detector determinando un nivel digital el cual indica si la partícula detectada está cargada o no. La CB es en cambio la encargada de la monitorización y el control del sistema SPD: es capaz de enviar datos de configuración a los VFE y a la vez monitorizar su correcto funcionamiento.Veréis que el documento se encuentra organizado en 5 partes. En la primera parte encontraréis descritas las características principales del calorímetro, sus funciones y su estructura. La segunda parte, la tercera y la cuarta están plenamente dedicadas a la CB: en la parte 2 tenemos descrito el hardware, en la parte 3 el sistema de control y en la cuarta encontraremos los diferentes tests y pruebas realizadas sobre el hardware y el sistema de control. Finalmente en la quinta parte tenemos resumidos los objetivos conseguidos con nuestro diseño y las aportaciones de este en la globalidad del experimento. / In this thesis you will have described the electronics and management of the SPD. SPD stands for Scintillator Pad Detector which is part of the LHCb calorimeter of the LHC accelerator.LHC is an accelerator oriented to study the matter constitution and LHCb is one of the detectors designed for this challenge. The LHCb part oriented to measure the particles energy is the calorimeter. The SPD is designed to discriminate between charged and neutral particles contributing in the calorimeter decisions.In the SPD electronics description we can distinguish between to parts: the electronics in contact with the subdetector (Very Front End, VFE) and the electronics in charge of the SPD management (the Control Board, CB). The goal of this thesis is the description of the last and also the integration of the SPD with the calorimeter control system.The VFE captures the data from the detector and makes a first digital decision depending on if the particle detected is charged or not. The CB is in charge of the monitoring and control of the SPD system: is able to send configuration data to the VFE and also monitors parameters to assure a proper behaviour.You will see that the document is divided in 5 parts. In the first, you will find described the calorimeter, its functionalities and its structure. Part 2, part 3 and part 4 are fully dedicated to the CB: in part 2 we will find the CB hardware, in part 3 the control system and finally in part 4 the different tests performed with the hardware and the control system. The document ends with part 5 where the main objectives of this work are summarized and also the contribution of the SPD design in the LHCb project.
18

A new approach to Decimation in High Order Boltzmann Machines

Farguell Matesanz, Enric 20 January 2011 (has links)
La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM. / La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM. / The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.
19

Marc integrador de les capacitats de Soft-Computing i de Knowledge Discovery dels Mapes Autoorganitzatius en el Raonament Basat en Casos

Fornells Herrera, Albert 14 December 2007 (has links)
El Raonament Basat en Casos (CBR) és un paradigma d'aprenentatge basat en establir analogies amb problemes prèviament resolts per resoldre'n de nous. Per tant, l'organització, l'accés i la utilització del coneixement previ són aspectes claus per tenir èxit en aquest procés. No obstant, la majoria dels problemes reals presenten grans volums de dades complexes, incertes i amb coneixement aproximat i, conseqüentment, el rendiment del CBR pot veure's minvat degut a la complexitat de gestionar aquest tipus de coneixement. Això ha fet que en els últims anys hagi sorgit una nova línia de recerca anomenada Soft-Computing and Intelligent Information Retrieval enfocada en mitigar aquests efectes. D'aquí neix el context d'aquesta tesi.Dins de l'ampli ventall de tècniques Soft-Computing per tractar coneixement complex, els Mapes Autoorganitzatius (SOM) destaquen sobre la resta per la seva capacitat en agrupar les dades en patrons, els quals permeten detectar relacions ocultes entre les dades. Aquesta capacitat ha estat explotada en treballs previs d'altres investigadors, on s'ha organitzat la memòria de casos del CBR amb SOM per tal de millorar la recuperació dels casos.La finalitat de la present tesi és donar un pas més enllà en la simple combinació del CBR i de SOM, de tal manera que aquí s'introdueixen les capacitats de Soft-Computing i de Knowledge Discovery de SOM en totes les fases del CBR per nodrir-les del nou coneixement descobert. A més a més, les mètriques de complexitat apareixen en aquest context com un instrument precís per modelar el funcionament de SOM segons la tipologia de les dades. L'assoliment d'aquesta integració es pot dividir principalment en quatre fites: (1) la definició d'una metodologia per determinar la millor manera de recuperar els casos tenint en compte la complexitat de les dades i els requeriments de l'usuari; (2) la millora de la fiabilitat de la proposta de solucions gràcies a les relacions entre els clústers i els casos; (3) la potenciació de les capacitats explicatives mitjançant la generació d'explicacions simbòliques; (4) el manteniment incremental i semi-supervisat de la memòria de casos organitzada per SOM.Tots aquests punts s'integren sota la plataforma SOMCBR, la qual és extensament avaluada sobre datasets provinents de l'UCI Repository i de dominis mèdics i telemàtics.Addicionalment, la tesi aborda de manera secundària dues línies de recerca fruït dels requeriments dels projectes on ha estat ubicada. D'una banda, s'aborda la definició de funcions de similitud específiques per definir com comparar un cas resolt amb un de nou mitjançant una variant de la Computació Evolutiva anomenada Evolució de Gramàtiques (GE). D'altra banda, s'estudia com definir esquemes de cooperació entre sistemes heterogenis per millorar la fiabilitat de la seva resposta conjunta mitjançant GE. Ambdues línies són integrades en dues plataformes, BRAIN i MGE respectivament, i són també avaluades amb els datasets anteriors. / El Razonamiento Basado en Casos (CBR) es un paradigma de aprendizaje basado en establecer analogías con problemas previamente resueltos para resolver otros nuevos. Por tanto, la organización, el acceso y la utilización del conocimiento previo son aspectos clave para tener éxito. No obstante, la mayoría de los problemas presentan grandes volúmenes de datos complejos, inciertos y con conocimiento aproximado y, por tanto, el rendimiento del CBR puede verse afectado debido a la complejidad de gestionarlos. Esto ha hecho que en los últimos años haya surgido una nueva línea de investigación llamada Soft-Computing and Intelligent Information Retrieval focalizada en mitigar estos efectos. Es aquí donde nace el contexto de esta tesis.Dentro del amplio abanico de técnicas Soft-Computing para tratar conocimiento complejo, los Mapas Autoorganizativos (SOM) destacan por encima del resto por su capacidad de agrupar los datos en patrones, los cuales permiten detectar relaciones ocultas entre los datos. Esta capacidad ha sido aprovechada en trabajos previos de otros investigadores, donde se ha organizado la memoria de casos del CBR con SOM para mejorar la recuperación de los casos.La finalidad de la presente tesis es dar un paso más en la simple combinación del CBR y de SOM, de tal manera que aquí se introducen las capacidades de Soft-Computing y de Knowledge Discovery de SOM en todas las fases del CBR para alimentarlas del conocimiento nuevo descubierto. Además, las métricas de complejidad aparecen en este contexto como un instrumento preciso para modelar el funcionamiento de SOM en función de la tipología de los datos. La consecución de esta integración se puede dividir principalmente en cuatro hitos: (1) la definición de una metodología para determinar la mejor manera de recuperar los casos teniendo en cuenta la complejidad de los datos y los requerimientos del usuario; (2) la mejora de la fiabilidad en la propuesta de soluciones gracias a las relaciones entre los clusters y los casos; (3) la potenciación de las capacidades explicativas mediante la generación de explicaciones simbólicas; (4) el mantenimiento incremental y semi-supervisado de la memoria de casos organizada por SOM. Todos estos puntos se integran en la plataforma SOMCBR, la cual es ampliamente evaluada sobre datasets procedentes del UCI Repository y de dominios médicos y telemáticos.Adicionalmente, la tesis aborda secundariamente dos líneas de investigación fruto de los requeri-mientos de los proyectos donde ha estado ubicada la tesis. Por un lado, se aborda la definición de funciones de similitud específicas para definir como comparar un caso resuelto con otro nuevo mediante una variante de la Computación Evolutiva denominada Evolución de Gramáticas (GE). Por otro lado, se estudia como definir esquemas de cooperación entre sistemas heterogéneos para mejorar la fiabilidad de su respuesta conjunta mediante GE. Ambas líneas son integradas en dos plataformas, BRAIN y MGE, las cuales también son evaluadas sobre los datasets anteriores. / Case-Based Reasoning (CBR) is an approach of machine learning based on solving new problems by identifying analogies with other previous solved problems. Thus, organization, access and management of this knowledge are crucial issues for achieving successful results. Nevertheless, the major part of real problems presents a huge amount of complex data, which also presents uncertain and partial knowledge. Therefore, CBR performance is influenced by the complex management of this knowledge. For this reason, a new research topic has appeared in the last years for tackling this problem: Soft-Computing and Intelligent Information Retrieval. This is the point where this thesis was born.Inside the wide variety of Soft-Computing techniques for managing complex data, the Self-Organizing Maps (SOM) highlight from the rest due to their capability for grouping data according to certain patterns using the relations hidden in data. This capability has been used in a wide range of works, where the CBR case memory has been organized with SOM for improving the case retrieval.The goal of this thesis is to take a step up in the simple combination of CBR and SOM. This thesis presents how to introduce the Soft-Computing and Knowledge Discovery capabilities of SOM inside all the steps of CBR to promote them with the discovered knowledge. Furthermore, complexity measures appear in this context as a mechanism to model the performance of SOM according to data topology. The achievement of this goal can be split in the next four points: (1) the definition of a methodology for setting up the best way of retrieving cases taking into account the data complexity and user requirements; (2) the improvement of the classification reliability through the relations between cases and clusters; (3) the promotion of the explaining capabilities by means of the generation of symbolic explanations; (4) the incremental and semi-supervised case-based maintenance. All these points are integrated in the SOMCBR framework, which has been widely tested in datasets from UCI Repository and from medical and telematic domains. Additionally, this thesis secondly tackles two additional research lines due to the requirements of a project in which it has been developed. First, the definition of similarity functions ad hoc a domain is analyzed using a variant of the Evolutionary Computation called Grammar Evolution (GE). Second, the definition of cooperation schemes between heterogeneous systems is also analyzed for improving the reliability from the point of view of GE. Both lines are developed in two frameworks, BRAIN and MGE respectively, which are also evaluated over the last explained datasets.
20

Evaluación emocional de la experiencia de usuario y la imagen arquitectónica según el entorno de visualizado

Fonseca Escudero, David 16 September 2011 (has links)
Al llarg de la història, la visualització d’imatges s’ha estès a pràcticament qualsevol àmbit: pintura, fotografia, medicina o educació, són alguns exemples que il•lustren la importància de la imatge en les diferents societats. Estudis previs han demostrat que la visualització d’imatges té conseqüències en l’àmbit psicològic i emocional de l’usuari. Majoritàriament aquests estudis han enfocat els seus esforços a aprofundir com les imatges poden influir emocions i en la seva mesura. Amb el nostre treball pretenem avançar un pas més. La imatge per si mateixa té una mancança d’importància ja que és l’usuari qui la veu, interpreta i associa un significat. En el moment de la visualització, depenem de factors que influeixen en la generació de les emocions com ara el mitjà on es veu la imatge, la tipologia de la mateixa, l’usuari o l’ambient en el qual es realitza tot aquest procés, tots ells factors que haguessin d’haver-se tingut en compte a l’inici del procés: el moment del disseny de la imatge. De manera empírica hem obtingut dades que demostren com l’usuari, la imatge i el mitjà influeixen en el procés de generar una emoció. Les diferències obtingudes ens han de servir com a premisses en el disseny de continguts, de manera que siguem capaços de personalitzar cada element de l’estudi (usuari, imatge i mitjà) per maximitzar l’empatia de la informació visual, en concret per al nostre cas, el món de la imatge arquitectònica. / A lo largo de la historia, la visualización de imágenes se ha extendido a prácticamente cualquier ámbito: pintura, fotografía, medicina o educación, son algunos ejemplos que ilustran la importancia de la imagen en las distintas sociedades. Estudios previos han demostrado que la visualización de imágenes tiene consecuencias en el ámbito psicológico y emocional del usuario. Mayoritariamente estos estudios han enfocado sus esfuerzos en ahondar cómo las imágenes son capaces de influir emociones y en su medición. Con nuestro trabajo pretendemos avanzar un paso más. Una imagen por si sola carece de importancia ya que es el usuario quien la ve, interpreta y asocia a un significado. En el momento de la visualización, dependemos de factores que influyen en la creación de las emociones: el medio en el que se visualiza la imagen, la tipología de la misma, el usuario, el ambiente en el que se realiza dicho proceso, etc., y que debieran haberse tenido en cuenta en el inicio del proceso: el momento del diseño de la imagen. De manera empírica hemos obtenido datos que demuestran cómo el usuario, la imagen y el medio influyen en el proceso de generar una emoción. Las diferencias obtenidas nos deben servir como premisas en el diseño de contenidos de manera que seamos capaces de personalizar cada elemento del estudio (usuario, imagen y medio) para maximizar la empatía de la información visual, en concreto para nuestro caso, en el mundo de la imagen arquitectónica. / Throughout history, imagery visualization has extended practically to all fields: painting, photography, medicine or education, are some of the examples that illustrate the importance of imagery in different societies. Previous studies have demonstrated that imagery visualization has implications in the user’s psychological and emotional ambit. Mostly, these studies have focused their efforts in how and to what extent imagery is capable of influencing emotions. In our work, we pretend to go one step further. An image by itself lacks importance without the user who sees, interprets and associates a meaning. When viewing, we are dependent on factors that influence the emotional creation: the environment in which the image is visualized, the typology, the user, the surroundings where this process occurs, etc. and should have been taken into account at the beginning of the process: the moment when designing the image. In the empirical way, the data we have obtained, demonstrate how the user, imagery and environment influence the process of generating an emotion. The differences obtained must serve as premises in the designing of the contents so that we are capable of personalizing every element of the study (user, imagery and environment) in order to maximize the empathy of the visual information, in our case, architectural imagery.

Page generated in 0.0282 seconds