• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 367
  • 83
  • 46
  • 1
  • Tagged with
  • 497
  • 486
  • 125
  • 96
  • 77
  • 45
  • 44
  • 44
  • 42
  • 40
  • 40
  • 40
  • 40
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Visible, near infrared and thermal hand-based image biometric recognition

Font Aragonès, Xavier 30 May 2013 (has links)
Biometric Recognition refers to the automatic identification of a person based on his or her anatomical characteristic or modality (i.e., fingerprint, palmprint, face) or behavioural (i.e., signature) characteristic. It is a fundamental key issue in any process concerned with security, shared resources, network transactions among many others. Arises as a fundamental problem widely known as recognition, and becomes a must step before permission is granted. It is supposed that protects key resources by only allowing those resources to be used by users that have been granted authority to use or to have access to them. Biometric systems can operate in verification mode, where the question to be solved is Am I who I claim I am? or in identification mode where the question is Who am I? Scientific community has increased its efforts in order to improve performance of biometric systems. Depending on the application many solutions go in the way of working with several modalities or combining different classification methods. Since increasing modalities require some user inconvenience many of these approaches will never reach the market. For example working with iris, face and fingerprints requires some user effort in order to help acquisition. This thesis addresses hand-based biometric system in a thorough way. The main contributions are in the direction of a new multi-spectral hand-based image database and methods for performance improvement. The main contributions are: A) The first multi-spectral hand-based image database from both hand faces: palmar and dorsal. Biometric database are a precious commodity for research, mainly when it offers something new like visual (VIS), near infrared (NIR) and thermography (TIR) images at a time. This database with a length of 100 users and 10 samples per user constitute a good starting point to check algorithms and hand suitability for recognition. B) In order to correctly deal with raw hand data, some image preprocessing steps are necessary. Three different segmentation phases are deployed to deal with VIS, NIR and TIR images specifically. Some of the tough questions to address: overexposed images, ring fingers and the cuffs, cold finger and noise image. Once image segmented, two different approaches are prepared to deal with the segmented data. These two approaches called: Holistic and Geometric define the main focus to extract the feature vector. These feature vectors can be used alone or can be combined in some way. Many questions can be stated: e.g. which approach is better for recognition?, Can fingers alone obtain better performance than the whole hand? and Is thermography hand information suitable for recognition due to its thermoregulation properties? A complete set of data ready to analyse, coming from the holistic and geometric approach have been designed and saved to test. Some innovative geometric approach related to curvature will be demonstrated. C) Finally the Biometric Dispersion Matcher (BDM) is used in order to explore how it works under different fusion schemes, as well as with different classification methods. It is the intention of this research to contrast what happen when using other methods close to BDM like Linear Discriminant Analysis (LDA). At this point, some interesting questions will be solved, e.g. by taking advantage of the finger segmentation (as five different modalities) to figure out if they can outperform what the whole hand data can teach us. / El Reconeixement Biomètric fa referència a la identi cació automàtica de persones fent us d'alguna característica o modalitat anatòmica (empremta digital) o d'alguna característica de comportament (signatura). És un aspecte fonamental en qualsevol procés relacionat amb la seguretat, la compartició de recursos o les transaccions electròniques entre d'altres. És converteix en un pas imprescindible abans de concedir l'autorització. Aquesta autorització, s'entén que protegeix recursos clau, permeten així, que aquests siguin utilitzats pels usuaris que han estat autoritzats a utilitzar-los o a tenir-hi accés. Els sistemes biomètrics poden funcionar en veri cació, on es resol la pregunta: Soc jo qui dic que soc? O en identi cació on es resol la qüestió: Qui soc jo? La comunitat cientí ca ha incrementat els seus esforços per millorar el rendiment dels sistemes biomètrics. En funció de l'aplicació, diverses solucions s'adrecen a treballar amb múltiples modalitats o combinant diferents mètodes de classi cació. Donat que incrementar el número de modalitats, representa a la vegada problemes pels usuaris, moltes d'aquestes aproximacions no arriben mai al mercat. La tesis contribueix principalment en tres grans àrees, totes elles amb el denominador comú següent: Reconeixement biometric a través de les mans. i) La primera d'elles constitueix la base de qualsevol estudi, les dades. Per poder interpretar, i establir un sistema de reconeixement biomètric prou robust amb un clar enfocament a múltiples fonts d'informació, però amb el mínim esforç per part de l'usuari es construeix aquesta Base de Dades de mans multi espectral. Les bases de dades biomètriques constitueixen un recurs molt preuat per a la recerca; sobretot si ofereixen algun element nou com es el cas. Imatges de mans en diferents espectres electromagnètics: en visible (VIS), en infraroig (NIR) i en tèrmic (TIR). Amb un total de 100 usuaris, i 10 mostres per usuari, constitueix un bon punt de partida per estudiar i posar a prova sistemes multi biomètrics enfocats a les mans. ii) El segon bloc s'adreça a les dues aproximacions existents en la literatura per a tractar les dades en brut. Aquestes dues aproximacions, anomenades Holística (tracta la imatge com un tot) i Geomètrica (utilitza càlculs geomètrics) de neixen el focus alhora d'extreure el vector de característiques. Abans de tractar alguna d'aquestes dues aproximacions, però, és necessària l'aplicació de diferents tècniques de preprocessat digital de la imatge per obtenir les regions d'interès desitjades. Diferents problemes presents a les imatges s'han hagut de solucionar de forma original per a cadascuna de les tipologies de les imatges presents: VIS, NIR i TIR. VIS: imatges sobre exposades, anells, mànigues, braçalets. NIR: Ungles pintades, distorsió en forma de soroll en les imatges TIR: Dits freds La segona àrea presenta aspectes innovadors, ja que a part de segmentar la imatge de la ma, es segmenten tots i cadascun dels dits (feature-based approach). Així aconseguim contrastar la seva capacitat de reconeixement envers la ma de forma completa. Addicionalment es presenta un conjunt de procediments geomètrics amb la idea de comparar-los amb els provinents de l'extracció holística. La tercera i última àrea contrasta el procediment de classi cació anomenat Biometric Dispersion Matcher (BDM) amb diferents situacions. La primera relacionada amb l'efectivitat respecte d'altres mètode de reconeixement, com ara l'Anàlisi Lineal Discriminant (LDA) o bé mètodes com KNN o la regressió logística. Les altres situacions que s'analitzen tenen a veure amb múltiples fonts d'informació, quan s'apliquen tècniques de normalització i/o estratègies de combinació (fusió) per millorar els resultats. Els resultats obtinguts no deixen lloc per a la confusió, i són certament prometedors en el sentit que posen a la llum la importància de combinar informació complementària per obtenir rendiments superiors.
32

Cross-Layer Design for Quality of Service provisioning in AMC/ARQ-based wireless networks

Ramis Bibiloni, Jaume 10 July 2012 (has links)
In the last years, the explosive development of wireless services and applications has produced an unprecedented revolution in wireless communications systems. The impact of wireless fading channels on the quality of service (QoS) provisioning for such heterogeneous mobile users is one of the most challenging issues for nextgeneration wireless networks. In order to support the diverse QoS requirements of wireless applications, innovative techniques have been proposed at the physical (PHY) layer. Among them, the rate-adaptive modulation and coding (AMC) scheme has received significant research attention, resulting in its adoption in most state-of-the-art wireless communications standards. With the aim of enhancing the link reliability to guarantee the QoS constraints of new applications, most modern communication systems use error control strategies at the data link control (DLC) layer. Among them, we can distinguish two basic approaches: the forward error correction (FEC) scheme, in which an errorcorrection code is used, and the automatic repeat request (ARQ) scheme, in which a code with good error-detection capability is used. In the latter case, when a received codeword is detected in error, the packet is retransmitted until it is correctly received (infinitely persistent ARQ) or until a preset number of retransmissions have taken place (truncated ARQ). In order to achieve the advantages of both strategies, most state-of-the-art wireless communications standards use combinations of ARQ and FEC. Moreover, recent proposals make use of one or multiple intermediate relay stations to forward data from a source node to the corresponding destination node. As a result, a performance improvement is obtained due to spatial diversity, which is generated by transmitting signals from different locations (source and relay(s)), thus providing independently faded versions of the signal at the receiver. Cross-layer design in wireless networks, where one allows the stack protocol layers to interact and share information, has become increasingly popular over the past few years. In particular, many recent cross-layer proposals coincide in combining AMC at the PHY layer with an ARQ protocol at the DLC layer. These cross-layer designs improve the spectral efficiency by jointly exploiting the adaptability of AMC to the wireless channel conditions and the error-correcting capability of ARQ-based error control strategies. The main goal of this dissertation is to provide a unified view of the crosslayer design, analysis and optimization of AMC/ARQ-based wireless systems to allow the joint optimization of both the PHY and the DLC layers. The adopted approach for tackling this problem will rely on the use of discrete time Markov i chains (DTMCs) to jointly consider the packet arrival, the queueing process and the PHY layer. To that end, a novel first-order two-dimensional Markov model of the PHY layer is developed, which takes into account the wireless channel characteristics and de AMC scheme. The availability of accurate models for the PHY layer characterization is one of the key motivations of this work in order to guarantee a correct analysis of the QoS metrics at the DLC layer. Using this model, the interactions between the PHY and DLC layers are analyzed either when infinitely persistent or truncated ARQ-based error control protocols are implemented. Additionally, a cooperative scheme is also proposed, in which the relay node is in charge of retransmitting the erroneously received packets at the destination. This DTMC-based model allows the analytic derivation of various system performance metrics, namely, throughput, average packet delay and packet loss rate (both due to buffer overflow and due to exceeding the maximum number of allowed retransmissions). For the sake of comparison with non Markov-based analytical tools, the infinitely persistent ARQ protocol is also analyzed through the effective bandwidth/capacity theory. Both analytical frameworks are compared, showing the superiority of the Markov-based approach, which more faithfully reproduces the real system behaviour at the cost of higher complexity in the analysis. The proposed analytical framework allows the formulation of cross-layer multidimensional design strategies, aiming at the maximization of the average throughput of the system while satisfying prescribed QoS requirements in the form of average packet loss rate and average delay. Finally, an explicit analysis of the impact on the system performance of the delay in the channel state information (CSI) feedback is also presented. / No hi ha cap dubte que en els darrers anys els serveis i les aplicacions en entorns de comunicacions sense fils han experimentat un desenvolupament sense precedents. Les demandes creixents en termes de taxa de transmissió i de mobilitat per part dels usuaris s’han d’afegir a la heterogeneïtat dels requeriments de qualitat de servei (QoS, de l’anglès Quality of Service) de les aplicacions. A tot això s’hi ha de sumar l’efecte dels esvaïments selectius, tant en temps com en freqüència, intrínsecs als canals sense fils. Aleshores, el desenvolupament d’aquest tipus de sistemes representa un vertader repte a l’hora de dissenyar solucions capaces de suportar les exigències de QoS, com per exemple taxa màxima d’error de paquet o bé retard màxim, tant per a les aplicacions mòbils actuals com per a les futures. S’ha desenvolupat un gran nombre d’estratègies amb l’objectiu de fer front a l’impacte dels esvaïments sobre les prestacions d’aquests sistemes i aconseguir així millorar l’eficiència espectral i/o energètica de la capa física. Entre elles es poden destacar els esquemes de modulació i codificació adaptativa (AMC, de l’anglès Adaptive Modulation and Coding). La immensa majoria dels actuals estàndards de comunicacions sense fils han adoptat aquesta tècnica, que consisteix bàsicament en ajustar la modulació i la codificació a les condicions canviants del canal. Per altra banda, els requeriments de QoS de les noves aplicacions tan sols es poden satisfer amb l’ajut d’esquemes que permeten millorar la fiabilitat de l’enllaç. Així, l’ús d’estratègies de control d’errors a la capa d’enllaç de dades (DLC, de l’anglès Data Link Control) s’ha convertit en una part fonamental dels sistemes de comunicacions actuals. Les tècniques de control d’errors es poden classificar bàsicament en dues categories. La primera la formen els esquemes que permeten la detecció i possible correcció d’errors (FEC, de l’anglès Forward Error Correction), mentre que la segona categoria correspon als esquemes que possibiliten la detecció d’errors i la sol·licitud de retransmissió (ARQ, de l’anglès Automatic Repeat Request). En aquest cas, quan un paquet és rebut amb errors, es va demanant la seva retransmissió fins que es rep correctament (persistència infinita) o bé fins que se supera el màxim nombre permès de retransmissions (truncat). La majoria dels estàndards de comunicacions sense fils moderns utilitzen combinacions dels esquemes FEC i ARQ per tal de gaudir dels avantatges d’ambdues estratègies. S’ha d’afegir, a més, que existeixen multitud de propostes recents en què es disposa d’un o varis nodes intermediaris entre la font i el destí, anomenats repetidors (en anglès relays), que assisteixen la comunicació. S’aconsegueix així millorar l’efectivitat de la transmissió explotant la diversitat espacial resultant de la incorporació de camins addicionals de comunicació entre la font i el destí. D’acord amb la filosofia del disseny intercapes (en anglès cross-layer), en contraposició a l’optimització local a cada capa de la pila de protocols, es du a terme una optimització conjunta de determinats paràmetres corresponents a distintes capes, amb la finalitat de millorar les prestacions del sistema en la seva globalitat. En contret, en els darrers temps han aparegut un gran nombre de propostes de dissenys intercapes que combinen la utilització d’esquemes AMC a la capa física amb l’ús de protocols ARQ a la capa d’enllaç de dades. Aquests dissenys aconsegueixen millorar l’eficiència espectral traient profit de manera conjunta de l’adaptabilitat d’AMC a les condicions canviants del canal sense fils i de la capacitat detectora/correctora d’errors d’ARQ. En aquest treball de recerca es desenvolupa un marc teòric per al disseny, l’anàlisi i l’optimització intercapes de sistemes sense fils que combinen esquemes AMC amb protocols ARQ. Aquesta proposta es basa en la utilització de cadenes discretes de Markov (DTMC, de l’anglès Discrete Time Markov Chain) per descriure de manera conjunta el comportament estadístic del procés d’arribades de paquets, el sistema de cues i la capa física. Per això, en primer lloc es desenvolupa un model de Markov bidimensional de primer ordre de la capa física que té en compte les característiques del canal sense fils i l’esquema AMC. Aquest és un pilar fonamental pel desenvolupament del present treball de recerca, ja que disposar d’un model capaç de capturar amb precisió el comportament de la capa física és un requisit indispensable per a garantir una anàlisi correcta dels paràmetres de QoS a la capa d’enllaç de dades. En base a aquest model, s’investiguen les interaccions entre aquestes dues capes quan s’implementen protocols ARQ, ja sigui amb persistència infinita o truncats. A més, es proposa un esquema cooperatiu en què un node repetidor és l’encarregat de dur a terme les retransmissions dels paquets que la font no aconsegueix transmetre correctament al destí. A partir de la modelització basada en DTMCs es poden obtenir les expressions analítiques dels paràmetres que caracteritzen el comportament de les prestacions del sistema, com són la taxa efectiva de transmissió de paquets (en anglès throughput), el retard mitjà i la taxa mitjana de pèrdua de paquets, ja sigui per desbordament de les cues o bé per superar el nombre màxim permès de retransmissions. Amb el propòsit de comparar aquesta metodologia amb eines analítiques no basades en l’ús de cadenes de Markov, el cas d’ARQ amb persistència infinita s’analitza també aplicant la teoria d’amplada de banda i capacitat efectives. Ambdues anàlisis són detalladament contrastades, confirmant la superioritat del primer mètode quant a fidelitat en l’estimació del comportament del sistema real, a costa d’un increment en la complexitat de l’anàlisi. El model analític proposat és utilitzat per a desenvolupar distintes estratègies de disseny intercapes amb l’objectiu de proporcionar garanties de QoS en termes de retard màxim i taxa màxima de pèrdua de paquets. Per acabar, s’investiguen els efectes que té el retard en l’estimació de l’estat del canal sobre els paràmetres de QoS del sistema.
33

Un Modelo para Facilitar la Integración de Estándares de Gestión de TI en Entornos Maduros

Mesquida Calafat, Antoni Lluís 20 July 2012 (has links)
No description available.
34

Estimació dels paràmetres de models ARMA (P,Q) mitjançant algorismes de filtratge òptim

Muñoz Gràcia, Maria Pilar 01 January 1988 (has links)
El objetivo del trabajo era sintetizar un filtro no lineal optimo para la estimación de parámetros de modelos arma. El interés de un filtro de este estilo reside en elhecho que permite evaluar exactamente el numero mínimo deobservaciones necesarias para realizar una estimación conuna determinada precisión.A lo largo del trabajo se analizan ypresentan diversas opciones de síntesis de filtros para estos problemas y se hacen pruebas con cada uno de ellos.Nos parecen especialmente remarcables las expresiones recurrentes entre formas cuadráticas establecidas en el trabajo, que permiten plantear unfiltro especialmente sencillo.Los ejemplos tratados ponen de manifiesto que el numero deobservaciones necesarias depende esencialmente de laposición relativa de los polos y ceros del modelo, y queusualmente la precisión que se puede obtener es muy inferior a la que suponen métodos suboptimos de estimación.
35

Model Predictive Control of Complex Systems including Fault Tolerance Capabilities: Application to Sewer Networks

Ocampo-Martínez, Carlos 27 April 2007 (has links)
El control en temps real de xarxes de clavegueram (RTC) desenvolupa un paper fonamental dins de la gestió dels recursos hídrics relacionats amb el cicle urbà de l'aigua i, en general, amb el seu cicle natural. Un adequat disseny de control per a xarxes de clavegueram evita impactes mediambientals negatius originats per inundacions i/o alta pol·lució producte de condicions meteorològiques xtremes. No obstant, s'ha de tenir en compte que aquestes xarxes, a més de la seva grandària i quantitat de variables i instrumentació, són sistemes rics en dinàmiques complexes i altament no lineals. Aquest fet, unit a les condicions atmosfèriques extremes, fan necessari utilitzar una estratègia de control capaç¸ de suportar totes aquestes condicions. En aquest sentit, dins del camp del (RTC) de xarxes de clavegueram es destaquen les estratègies de control predictiu basat en model (MPC), les quals són alternatives adequades per al control de configuracions multivariable i de gran escala, aplicades com estratègies de control global del sistema. A m´es, permeten optimitzar la resposta del sistema tenint en compte diversos índexs de rendiment (control multiobjectiu). Aquesta tesi s'enfoca en el disseny de controladors MPC per a xarxes de clavegueram considerant diverses metodologies de modelat. Addicionalment, analitza les situacions en les quals es presenten fallades als actuadors de la xarxa, proposant estratègies per a mantenir la resposta del sistema amb la menor degradació possible dels objectius de control, malgrat la presència de la fallada. En la primera part s'introdueixen els conceptes principals dels temes a tractar en la tesi: xarxes de clavegueram, MPC i tolerància a fallades. Seguidament, es presenta la tècnica de modelat utilitzada per a definir el model d'una xarxa de clavegueram. Finalment, es presenta i descriu el cas d'aplicació en la tesi: la xarxa de clavegueram de Barcelona (Espanya). La segona part es centra en dissenyar controladors MPC per al cas d'estudi. S'han considerat dos tipus de model de xarxa: (i) un model lineal, el qual aproxima els comportaments no lineals de la xarxa, donant origen a estratègies MPC lineals amb les seves conegudes avantatges de l'optimització convexa i escalabilitat; i (ii) un model híbrid, el qual inclou les dinàmiques de commutació més representatives d'una xarxa de clavegueram com són els sobreeixidors. En aquest últim cas es proposa una nova etodologia de modelat híbrid per a xarxes de clavegueram i es dissenyen estratègies de control predictives basades en aquests models (HMPC), les quals calculen lleis de control globalment òptimes. Addicionalment, es proposa una estratègia de relaxació del problema d'optimització discreta per a evitar els grans temps de còmput requerits per a calcular la llei de control HMPC. Finalment, la tercera part de la tesi s'encarrega d'estudiar les capacitats de tolerància a fallades en actuadors de llaços de control MPC. En el cas de xarxes de clavegueram, la tesi considera fallades en les comportes de derivació i de retenció d'aigües residuals. A més, es proposa un modelat híbrid per a fallades que faci que el problema d'optimització associat no perdi la seva convexitat. Així, es proposen dos estratègies de HMPC tolerant a fallades (FTMPC): l'estratègia activa, la qual utilitza les avantatges d'una arquitectura de control tolerant a fallades (FTC), i l'estratègia passiva, la qual només depèn de la robustesa intrínseca de les tècniques de control MPC. Com a extensió a l'estudi de tolerància a fallades, es proposa una avaluació d'admissibilitat per a configuracions d'actuadors en fallada agafant com a referència la degradació dels objectius de control. El m-etode, basat en satisfacció de restriccions, permet avaluar l'admissibilitat d'una configuració d'actuadors en fallada i, en cas de no ser admesa, evitaria el procés de resoldre un problema d'optimització amb un alt cost computacional. Paraules clau: control predictiu basat en model, sistemes de clavegueram, sistemes híbrids, MLD, control tolerant a fallades, satisfacció de restriccions. / El control en tiempo real de redes de alcantarillado (RTC) desempeña un papel fundamental dentro de la gestión de los recursos hídricos relacionados con el ciclo urbano del agua y, en general, con su ciclo natural. Un adecuado diseño de control para de redes de alcantarillado evita impactos medioambientales negativos originados por inundaciones y/o alta polución producto de condiciones meteorológicas extremas. Sin embargo, se debe tener en cuenta que estas redes, además de su gran tamaño y cantidad de variables e instrumentación, son sistemas ricos en dinámicas complejas y altamente no lineales. Este hecho, unido a unas condiciones atmosféricas extremas, hace necesario utilizar una estrategia de control capaz de soportar todas estas condiciones. En este sentido, dentro del campo del RTC de redes de alcantarillado se destacan las estrategias de control predictivo basadas en modelo (MPC), las cuales son alternativas adecuadas para el control de configuraciones multivariable y de gran escala, aplicadas como estrategias de control global del sistema. Además, permiten optimizar el desempeño del sistema teniendo en cuenta diversos índices de rendimiento (control multiobjetivo). Esta tesis se enfoca en el diseño de controladores MPC para redes de alcantarillado considerando diversas metodologías de modelado. Adicionalmente, analiza las situaciones en las cuales se presentan fallos en los actuadores de la red, proponiendo estrategias para mantener el desempeño del sistema y evitando la degradación de los objetivos de control a pesar de la presencia del fallo. En la primera parte se introducen los conceptos principales de los temas a tratar en la tesis: redes de alcantarillado, MPC y tolerancia a fallos. Además, se presenta la técnica de modelado utilizada para definir el modelo de una red de alcantarillado. Finalmente, se presenta y describe el caso de aplicación considerado en la tesis: la red de alcantarillado de Barcelona (España). La segunda parte se centra en diseñar controladores MPC para el caso de estudio. Dos tipos de modelo de la red son considerados: (i) un modelo lineal, el cual aproxima los comportamientos no lineales de la red, dando origen a estrategias MPC lineales con sus conocidas ventajas de optimización convexa y escalabilidad; y (ii) un modelo híbrido, el cual incluye las dinámicas de conmutación más representativas de una red de alcantarillado como lo son los rebosaderos. En este último caso se propone una nueva metodología de modelado híbrido para redes de alcantarillado y se diseñan estrategias de control predictivas basadas en estos modelos (HMPC), las cuales calculan leyes de control globalmente óptimas. Adicionalmente se propone una estrategia de relajación del problema de optimización discreto para evitar los grandes tiempos de cálculo que pudieran ser requeridos al obtener la ley de control HMPC. Finalmente, la tercera parte de la tesis se ocupa de estudiar las capacidades de tolerancia a fallos en actuadores de lazos de control MPC. En el caso de redes de alcantarillado, la tesis considera fallos en las compuertas de derivación y de retención de aguas residuales. De igual manera, se propone un modelado híbrido para los fallos que haga que el problema de optimización asociado no pierda su convexidad. Así, se proponen dos estrategias de HMPC tolerante a fallos (FTMPC): la estrategia activa, la cual utiliza las ventajas de una arquitectura de control tolerante a fallos (FTC), y la estrategia pasiva, la cual sólo depende de la robustez intrínseca de las técnicas de control MPC. Como extensión al estudio de tolerancia a fallos, se propone una evaluación de admisibilidad para configuraciones de actuadores en fallo tomando como referencia la degradación de los objetivos de control. El método, basado en satisfacción de restricciones, permite evaluar la admisibilidad de una configuración de actuadores en fallo y, en caso de no ser admitida, evitaría el proceso de resolver un problema de optimización con un alto coste computacional. Palabras clave: control predictivo basado en modelo, sistemas de alcantarillado, sistemas híbridos, MLD, control tolerante a fallos, satisfacción de restricciones. / Real time control (RTC) of sewer networks plays a fundamental role in the management of hydrological systems, both in the urban water cycle, as well as in the natural water cycle. An adequate design of control systems for sewer networks can prevent the negative impact on the environment that Combined Sewer Overflow (CSO) as well as preventing flooding within city limits when extreme weather conditions occur. However, sewer networks are large scale systems with many variables, complex dynamics and strong nonlinear behaviour. Any control strategy applied should be capable of handling these challenging requirements. Within the field of RTC of sewer networks for global network control, the Model Predictive Control (MPC) strategy stands out due to its ability to handle large scale, nonlinear and multivariable systems. Furthermore, this strategy allows performance optimization, taking into account several control objectives simultaneously. This thesis is devoted to the design of MPC controllers for sewer networks, as well as the complementary modelling methodologies. Furthermore, scenarios where actuator faults occur are specially considered and strategies to maintain performance or at least minimizing its degradation in presence of faults are proposed. In the first part of this thesis, the basic concepts are introduced: sewer networks, MPC and fault tolerant control. In addition, the modelling methodologies used to describe such systems are presented. Finally the case study of this thesis is described: the sewer network of the city of Barcelona (Spain). The second part of this thesis is centered on the design of MPC controllers for the proposed case study. Two types of models are considered: (i) a linear model whose corresponding MPC strategy is known for its advantages such as convexity of the optimization problem and existing pro of sofstability, and (ii) a hybrid model which allows the inclusion of state dependent hybrid dynamics such as weirs. In the latter case, a new hybrid modelling methodology is introduced and hybrid model predictive control (HMPC) strategies based on these models are designed. Furthermore, strategies to relax the optimization problem are introduced to reduce calculation time required for the HMPC control law. Finally, the third part of this thesis is devoted to study the fault tolerance capabilities of MPC controllers. Actuator faults in retention and redirection gates are considered. Additionally, hybrid modelling techniques are presented for faults which, in the linear case, can not be treated without loosing convexity of the related optimization problem. Two fault tolerant HMPC strategies are compared: the active strategy, which uses the information from a diagnosis system to maintain control performance, and the passive strategy which only relies on the intrinsic robustness of the MPC control law. As an extension to the study of fault tolerance, the admissibility of faulty actuator configurations is analyzed with regard to the degradation of control objectives. The method, which is based on constraint satisfaction, allows the admissibility evaluation of actuator fault configurations, which avoids the process of solving the optimization problem with its related high computational cost. Keywords: MPC, sewer networks, hybrid systems, MLD, fault tolerant control, constraints satisfaction.
36

Speculative Vectorization for Superscalar Processors

Pajuelo González, Manuel A. (Manuel Alejandro) 24 November 2005 (has links)
Traditional vector architectures have been shown to be very effective in executing regular codes in which the compiler can detect data-level parallelism, i.e. repeating the same computation over different elements in the same code-level data structure.A skilled programmer can easily create efficient vector code from regular applications. Unfortunately, this vectorization can be difficult if applications are not regular or if the programmer does not have an exact knowledge of the underlying architecture. The compiler has a partial knowledge of the program (i.e. it has a limited knowledge of the values of the variables). Because of this, it generates code that is safe for any possible scenario according to its knowledge, and thus, it may lose significant opportunities to exploit SIMD parallelism. In addition to this, we have the problem of legacy codes that have been compiled for former versions of the ISA with no SIMD extensions, which are therefore not able to exploit new SIMD extensions incorporated into newer ISA versions.In this dissertation, we will describe a mechanism that is able to detect and exploit DLP at runtime by speculatively creating vector instructions for prefetching and precomputing data for future instances of their scalar counterparts. This process will be called Speculative Dynamic Vectorization.A more in-depth study of this technique reveals a very positive characteristic: the mechanism can easily be tailored to alleviate the main drawbacks of current superscalar processors, particularly branch mispredictions and the memory gap. In this dissertation, we will describe how to rearrange the basic Speculative Dynamic Vectorization mechanism to alleviate the branch misprediction penalty based on reusing control-flow independent instructions. The memory gap problem will be addressed with a set of mechanisms that exploit the stall cycles due to L2 misses in order to virtually enlarge the instruction window.Finally, more refinements of the basic Speculative Dynamic Vectorization mechanism will be presented to improve its performance at a reasonable cost. / Los procesadores vectoriales han demostrado ser muy eficientes ejecutando códigos regulares en los que el compilador ha detectado Paralelismo a Nivel de Datos. Este paralelismo consiste en repetir los mismos cálculos en diferentes elementos de la misma estructura de alto nivel.Un programador avanzado puede crear código vectorial eficiente para aplicaciones regulares. Por desgracia, esta vectorización puede llegar a ser compleja en aplicaciones regulares o si el programador no tiene suficiente conocimiento de la arquitectura sobre la que se va a ejecutar la aplicación.El compilador tiene un conocimiento parcial del programa. Debido a esto, genera código que se puede ejecutar sin problemas en cualquier escenario según su conocimiento y, por tanto, puede perder oportunidades de explotar el paralelismo SIMD (Single Instruction Multiple Data). Además, existe el problema de los códigos de legado que han sido compilados con versiones anteriores del juego de instrucciones que no disponían de instrucciones SIMD lo cual hace que no se pueda explotar las extensiones SIMD de las nuevas versiones de los juegos de instrucciones.En esta tesis se presentará un mecanismo capaz de detectar y explotar, en tiempo de ejecución, el paralelismo a nivel de datos mediante la creación especulativa de instrucciones vectoriales que prebusquen y precomputen valores para futuras instancias de instrucciones escalares. Este proceso se llamará Vectorización Dinámica Especulativa.Un estudio más profundo de esta técnica conducirá a una conclusión muy importante: este mecanismo puede ser fácilmente modificado para aliviar algunos de los problemas más importantes de los procesadores superescalares. Estos problemas son: los fallos de predicción de saltos y el gap entre procesador y memoria. En esta tesis describiremos como modificar el mecanismo básico de Vectorización Dinámica Especulativa para reducir la penalización de rendimiento producida por los fallos de predicción de saltos mediante el reuso de datos de instrucciones independientes de control. Además, se presentará un conjunto de técnicas que explotan los ciclos de bloqueo del procesador debidos a un fallo en la cache de segundo nivel mediante un agrandamiento virtual de la ventana de instrucciones. Esto reducirá la penalización del problema del gap entre procesador y memoria.Finalmente, se presentarán refinamientos del mecanismo básico de Vectorización Dinámica Especulativa enfocados a mejorar el rendimiento de éste a un bajo coste.
37

Runahead threads

Ramírez García, Tanausu 15 April 2010 (has links)
Los temas de investigación sobre multithreading han ganado mucho interés en la arquitectura de computadores con la aparición de procesadores multihilo y multinucleo. Los procesadores SMT (Simultaneous Multithreading) son uno de estos nuevos paradigmas, combinando la capacidad de emisión de múltiples instrucciones de los procesadores superscalares con la habilidad de explotar el paralelismo a nivel de hilos (TLP). Así, la principal característica de los procesadores SMT es ejecutar varios hilos al mismo tiempo para incrementar la utilización de las etapas del procesador mediante la compartición de recursos.Los recursos compartidos son el factor clave de los procesadores SMT, ya que esta característica conlleva tratar con importantes cuestiones pues los hilos también compiten por estos recursos en el núcleo del procesador. Si bien distintos grupos de aplicaciones se benefician de disponer de SMT, las diferentes propiedades de los hilos ejecutados pueden desbalancear la asignación de recursos entre los mismos, disminuyendo los beneficios de la ejecución multihilo. Por otro lado, el problema con la memoria está aún presente en los procesadores SMT. Estos procesadores alivian algunos de los problemas de latencia provocados por la lentitud de la memoria con respecto a la CPU. Sin embargo, hilos con grandes cargas de trabajo y con altas tasas de fallos en las caches son unas de las mayores dificultades de los procesadores SMT. Estos hilos intensivos en memoria tienden a crear importantes problemas por la contención de recursos. Por ejemplo, pueden llegar a bloquear recursos críticos debido a operaciones de larga latencia impidiendo no solo su ejecución, sino el progreso de la ejecución de los otros hilos y, por tanto, degradando el rendimiento general del sistema.El principal objetivo de esta tesis es aportar soluciones novedosas a estos problemas y que mejoren el rendimiento de los procesadores SMT. Para conseguirlo, proponemos los Runahead Threads (RaT) aplicando una ejecución especulativa basada en runahead. RaT es un mecanismo alternativo a las políticas previas de gestión de recursos las cuales usualmente restringían a los hilos intensivos en memoria para conseguir más productividad.La idea clave de RaT es transformar un hilo intensivo en memoria en un hilo ligero en el uso de recursos que progrese especulativamente. Así, cuando un hilo sufre de un acceso de larga latencia, RaT transforma dicho hilo en un hilo de runahead mientras dicho fallo está pendiente. Los principales beneficios de esta simple acción son varios. Mientras un hilo está en runahead, éste usa los diferentes recursos compartidos sin monopolizarlos o limitarlos con respecto a los otros hilos. Al mismo tiempo, esta ejecución especulativa realiza prebúsquedas a memoria que se solapan con el fallo principal, por tanto explotando el paralelismo a nivel de memoria y mejorando el rendimiento.RaT añade muy poco hardware extra y complejidad en los procesadores SMT con respecto a su implementación. A través de un mecanismo de checkpoint y lógica de control adicional, podemos dotar a los contextos hardware con la capacidad de ejecución en runahead. Por medio de RaT, contribuímos a aliviar simultaneamente dos problemas en el contexto de los procesadores SMT. Primero, RaT reduce el problema de los accesos de larga latencia en los SMT mediante el paralelismo a nivel de memoria (MLP). Un hilo prebusca datos en paralelo en vez de estar parado debido a un fallo de L2 mejorando su rendimiento individual. Segundo, RaT evita que los hilos bloqueen recursos bajo fallos de larga latencia. RaT asegura que el hilo intensivo en memoria recicle más rápido los recursos compartidos que usa debido a la naturaleza de la ejecución especulativa.La principal limitación de RaT es que los hilos especulativos pueden ejecutar instrucciones extras cuando no realizan prebúsqueda e innecesariamente consumir recursos de ejecución en el procesador SMT. Este inconveniente resulta en hilos de runahead ineficientes pues no contribuyen a la ganancia de rendimiento e incrementan el consumo de energía debido al número extra de instrucciones especulativas. Por consiguiente, en esta tesis también estudiamos diferentes soluciones dirigidas a solventar esta desventaja del mecanismo RaT. El resultado es un conjunto de soluciones complementarias para mejorar la eficiencia de RaT en términos de consumo de potencia y gasto energético.Por un lado, mejoramos la eficiencia de RaT aplicando ciertas técnicas basadas en el análisis semántico del código ejecutado por los hilos en runahead. Proponemos diferentes técnicas que analizan y controlan la utilidad de ciertos patrones de código durante la ejecución en runahead. Por medio de un análisis dinámico, los hilos en runahead supervisan la utilidad de ejecutar los bucles y subrutinas dependiendo de las oportunidades de prebúsqueda. Así, RaT decide cual de estas estructuras de programa ejecutar dependiendo de la información de utilidad obtenida, decidiendo entre parar o saltar el bucle o la subrutina para reducir el número de las instrucciones no útiles. Entre las técnicas propuestas, conseguimos reducir las instrucciones especulativas y la energía gastada mientras obtenemos rendimientos similares a la técnica RaT original.Por otro lado, también proponemos lo que denominamos hilos de runahead eficientes. Esta propuesta se basa en una técnica más fina que cubre todo el rango de ejecución en runahead, independientemente de las características del programa ejecutado. La idea principal es averiguar "cuando" y "durante cuanto" un hilo en runahead debe ser ejecutado prediciendo lo que denominamos distancia útil de runahead. Los resultados muestran que la mejor de estas propuestas basadas en la predicción de la distancia de runahead reducen significativamente el número de instrucciones extras así como también el consumo de potencia. Asimismo, conseguimos mantener los beneficios de rendimiento de los hilos en runahead, mejorando de esta forma la eficiencia energética de los procesadores SMT usando el mecanismo RaT.La evolución de RaT desarrollada durante toda esta investigación nos proporciona no sólo una propuesta orientada a un mayor rendimiento sino también una forma eficiente de usar los recursos compartidos en los procesadores SMT en presencia de operaciones de memoria de larga latencia.Dado que los diseños SMT en el futuro estarán orientados a optimizar una combinación de rendimiento individual en las aplicaciones, la productividad y el consumo de energía, los mecanismos basados en RaT aquí propuestos son interesantes opciones que proporcionan un mejor balance de rendimiento y energía que las propuestas previas en esta área. / Research on multithreading topics has gained a lot of interest in the computer architecture community due to new commercial multithreaded and multicore processors. Simultaneous Multithreading (SMT) is one of these relatively new paradigms, which combines the multiple instruction issue features of superscalar processors with the ability of multithreaded architectures to exploit thread level parallelism (TLP). The main feature of SMT processors is to execute multiple threads that increase the utilization of the pipeline by sharing many more resources than in other types of processors.Shared resources are the key of simultaneous multithreading, what makes the technique worthwhile.This feature also entails important challenges to deal with because threads also compete for resources in the processor core. On the one hand, although certain types and mixes of applications truly benefit from SMT, the different features of threads can unbalance the resource allocation among threads, diminishing the benefit of multithreaded execution. On the other hand, the memory wall problem is still present in these processors. SMT processors alleviate some of the latency problems arisen by main memory's slowness relative to the CPUs. Nevertheless, threads with high cache miss rates that use large working sets are one of the major pitfalls of SMT processors. These memory intensive threads tend to use processor and memory resources poorly creating the highest resource contention problems. Memory intensive threads can clog up shared resources due to long latency memory operations without making progress on a SMT processor, thereby hindering overall system performance.The main goal of this thesis is to alleviate these shortcomings on SMT scenarios. To accomplish this, the key contribution of this thesis is the application of the paradigm of Runahead execution in the design of multithreaded processors by Runahead Threads (RaT). RaT shows to be a promising alternative to prior SMT resource management mechanisms which usually restrict memory bound threads in order to get higher throughputs.The idea of RaT is to transform a memory intensive thread into a light-consumer resource thread by allowing that thread to progress speculatively. Therefore, as soon as a thread undergoes a long latency load, RaT transforms the thread to a runahead thread while it has that long latency miss outstanding. The main benefits of this simple action performed by RaT are twofold. While being a runahead thread, this thread uses the different shared resources without monopolizing or limiting the available resources for other threads. At the same time, this fast speculative thread issues prefetches that overlap other memory accesses with the main miss, thereby exploiting the memory level parallelism.Regarding implementation issues, RaT adds very little extra hardware cost and complexity to an existing SMT processor. Through a simple checkpoint mechanism and little additional control logic, we can equip the hardware contexts with the runahead thread capability. Therefore, by means of runahead threads, we contribute to alleviate simultaneously the two shortcomings in the context of SMT processor improving the performance. First, RaT alleviates the long latency load problem on SMT processors by exposing memory level parallelism (MLP). A thread prefetches data in parallel (if MLP is available) improving its individual performance rather than be stalled on an L2 miss. Second, RaT prevents threads from clogging resources on long latency loads. RaT ensures that the L2-missing thread recycles faster the shared resources it uses by the nature of runahead speculative execution. This avoids memory intensive threads clogging the important processor resources up.The main limitation of RaT though is that runahead threads can execute useless instructions and unnecessarily consume execution resources on the SMT processor when there is no prefetching to be exploited. This drawback results in inefficient runahead threads which do not contribute to the performance gain and increase dynamic energy consumption due to the number of extra speculatively executed instructions. Therefore, we also propose different solutions aimed at this major disadvantage of the Runahead Threads mechanism. The result of the research on this line is a set of complementary solutions to enhance RaT in terms of power consumption and energy efficiency.On the one hand, code semantic-aware Runahead threads improve the efficiency of RaT using coarse-grain code semantic analysis at runtime. We provide different techniques that analyze the usefulness of certain code patterns during runahead thread execution. The code patterns selected to perform that analysis are loops and subroutines. By means of the proposed coarse grain analysis, runahead threads oversee the usefulness of loops or subroutines depending on the prefetches opportunities during their executions. Thus, runahead threads decide which of these particular program structures execute depending on the obtained usefulness information, deciding either stall or skip the loop or subroutine executions to reduce the number of useless runahead instructions. Some of the proposed techniques reduce the speculative instruction and wasted energy while achieving similar performance to RaT.On the other hand, the efficient Runahead thread proposal is another contribution focused on improving RaT efficiency. This approach is based on a generic technique which covers all runahead thread executions, independently of the executed program characteristics as code semantic-aware runahead threads are. The key idea behind this new scheme is to find out --when' and --how long' a thread should be executed in runahead mode by predicting the useful runahead distance. The results show that the best of these approaches based on the runahead distance prediction significantly reduces the number of extra speculative instructions executed in runahead threads, as well as the power consumption. Likewise, it maintains the performance benefits of the runahead threads, thereby improving the energy-efficiency of SMT processors using the RaT mechanism.The evolution of Runahead Threads developed in this research provides not only a high performance but also an efficient way of using shared resources in SMT processors in the presence of long latency memory operations. As designers of future SMT systems will be increasingly required to optimize for a combination of single thread performance, total throughput, and energy consumption, RaT-based mechanisms are promising options that provide better performance and energy balance than previous proposals in the field.
38

Contribució als mètodes d'obtenció i representació de vistes d'objectes reals per aplicacions interactives.

Martín Rull, Enric X. (Enric Xavier) 05 September 2006 (has links)
En aquesta tesi s'han realitzat una sèrie d'experiments per tal de cercar, identificar, caracteritzar i comparar diversos mètodes d'obtenció de vistes d'objectes reals per aplicacions interactives de realitat augmentada, telepresència o altres que puguin idear-se en el futur. Durant el desenvolupament dels mètodes trobats, de naturalesa diversa, han sorgit dificultats que han fet aprofundir aquest treball en l'àmbit de la geometria de la síntesi de vistes, la reconstrucció de l'estructura tridimensional dels objectes, l'acceleració de certs algoritmes amb l'ajut del maquinari existent o la portabilitat de les dades a través de la xarxa.Concretament, s'han identificat tres mètodes que poden satisfer els requeriments plantejats. El primer, accés a vistes d'objectes comprimides en fitxers, es basa en l'organització de les dades presentada, la capacitat de compressió dels algoritmes i el suport del maquinari a la tasca de descompressió. El segon mètode, reconstrucció tridimensional i projecció emprant el coprocessador gràfic, aprofita les altes prestacions d'aquests últims, impulsats per les necessitats del mercat. El tercer, selecció d'un conjunt representatiu de vistes i interpolació entre elles, aprofita les propietats de la rectificació de tres vistes i l'exactitud de la interpolació de vistes si es disposa d'un mapa de disparitat prou dens. Aquesta necessitat ha connectat aquest mètode amb el segon, al que cal el model tridimensional reconstruït, ja que hi ha una equivalència entre les dues expressions de la informació. Per la comparació dels resultats dels mètodes estudiats, s'han seguit tres criteris: - El primer, òbviament, el de la qualitat de les vistes obtingudes de l'objecte. Ha calgut identificar les principals fonts d'error en els processos i cercar uns avaluadors d'aquest error. A més d'aquests numèrics se n'han cercat de subjectius ja que el destinatari de les vistes serà un ésser humà. - El temps d'obtenció d'una vista (important per la interactivitat), projectat a les plataformes tecnològiques existents o previsibles.- La mida de les dades necessàries per cadascun dels mètodes, que limitarà la portabilitat de la visualització dels objectes. Durant la realització d'aquesta tesi, s'han realitzat algunes contribucions, la majoria d'elles ja publicades, que es poden resumir en:- Disseny d'una metodologia per la representació d'objectes a partir de conjunts de vistes i mètodes de síntesi. En aquesta metodologia s'ha presentat un protocol per l'adquisició i ordenació de les dades, idees per la selecció del conjunt mínim de vistes, un criteri per gravar la mínima informació necessària, ajuts a l'obtenció de la informació tridimensional de l'escena necessària, i un algoritme ràpid i general de síntesi de vistes.- Supressió de les restriccions geomètriques del mètode de síntesi per rectificació de tres vistes, permetent generalitzar la ubicació de la càmera virtual i optimitzar la distància del pla de reprojecció per maximitzar l'àrea de la vista interpolada.- Especificació de l'algoritme de síntesi de vistes pel mètode de rectificació de tres vistes, de forma que es pugui implementar amb processadors tipus DSP o conjunts d'instruccions específiques dels processadors CISC, per assolir les necessitats de les aplicacions interactives.- Presentació d'un mètode de refinament de models tridimensionals obtinguts per space carving mitjançant estereovisió. El mètode combina dues tècniques conegudes de visió per ordinador obtenint un millor resultat en la reconstrucció tridimensional.- Acceleració del mètode de reconstrucció tridimensional per projecció de vòxels amb la utilització de mapes de distància, estructures en arbre i el coprocessador gràfic present en els computadors personals. Els resultats obtinguts en la tesi s'han adaptat per aplicar-se a un projecte de simulació de situacions de conducció en carreteres amb realitat augmentada, desenvolupat per la UPC i la Universitat de Toronto i un segon de representació remota de vistes d'objectes arqueològics, desenvolupat per la UPC, la UB i un conjunt d'universitats estrangeres. / This work shows a set of experiments to identify, characterize and compare several methods for obtaining real object views in interactive applications such as augmented reality, telepresence or other future developments. While developing those methods, the problems found have induced a deeper study of view synthesis geometry, object three-dimensional structure, hardware process acceleration and data portability through the internet. Three methods have been found that meet the ends of this work. First, file-stored object-view access rests in data organization, compression- algorithm capabilities and hardware support to decompression. The second method, 3D object reconstruction and graphic coprocessor based projection, takes advantage of market driven GPU evolution. Finally, the representative view-set selection and interpolation method, uses the three-view-rectification properties and the precision of view interpolation when a dense-enough disparity map is available. This last requirement binds the second and third methods in the need of a good 3D object reconstruction, 3D models and disparity maps being two expressions for the same data. To compare the method results three criteria have been used: - Object view image quality. It has been necessary to identify the main source of errors on the processes and to find some evaluators for those errors. As the results of the process are images to be shown to humans, with those numerical evaluators a subjective evaluator has been used too. - Process time, important for the interactivity aim, calculated with current technology but projected to next foreseeable platforms. - Amount of data that must be recorded in each method, which will be a key point for portability. While developing this work, some contributions have been achieved and they can be summarized as:- Design of a methodology to represent any object view from a reduced set of views and synthesis methods. The methodology includes a protocol to acquire and organize data, ideas for a minimum view set selection, a criterion to record the minimum amount of data, improvements in obtaining the three-dimensional structure of the scene and a fast and general synthesis algorithm.- Suppression of some geometric restrictions in the three-view-rectification method, allowing a more general positioning for the virtual camera and a maximization of the virtual image area through the distance to the reprojection plane.- A complete specification for the modified three-view rectification and view interpolation method allowing its implementation with DSP or MMX instructions to achieve the requirements of interactive applications. - Presentation of a method to refine three-dimensional models obtained by space carving through stereovision. This method combines two well-known computer vision techniques to achieve a better result in 3D reconstruction. - Acceleration of the space carving 3D reconstruction method with the use of an octree voxel organization, projection to special distance maps and taking advantage of the GPU performance to speed-up the projection. Some of the results of this work will be used in the construction of an augmented reality driving simulator (UPC- University of Toronto) and the implementation of a remote viewer of archaeological objects (UPC - UB - other universities).
39

Estudio teórico y evidencia empírica de la aplicación del marco teórico de "Cognición Distribuida" en la gestión de sistemas de formación e-Learning

Ferruzca Navarro, Marco Vinicio 28 March 2008 (has links)
Este trabajo de investigación se integra en el campo de estudio de la Interacción Humano Computadora (HCI) y del uso de las tecnologías de la información y la comunicación (TIC) en la educación.La investigación tiene como objetivo central explorar la aplicación del marco teórico de la "Cognición Distribuida" en la gestión de sistemas de formación en Internet, específicamente los que siguen una estrategia de e-learning.Una vez revisado el concepto de e-learning y explicada la necesidad de realizar investigaciones en este campo para mejorar el desarrollo del aprendizaje y la enseñanza, se procede a la revisión del estado teórico-tecnológico actual de la "Cognición Distribuida". Esta revisión facilita identificar los tópicos y aspectos de interés más estudiados en torno a esta teoría, las técnicas de investigación comúnmente relacionadas a su aplicación y los ámbitos en que ha sido aplicada, particularmente en el ámbito de la educación soportada por ordenador.La validez actual y a futuro de esta teoría se pone a reflexión mediante la realización de una encuesta aplicada a una muestra limitada de investigadores que la han empleado en distintos ámbitos.En paralelo a esta revisión, se procede a aplicar las ideas de la cognición distribuida en diversos sistemas de formación e-Learning con el objetivo de evaluar que tan bien esta teoría ayuda a identificar y explicar la naturaleza de los errores que surgen en el proceso de formación. Además, se esboza una idea inicial de cómo aplicar sus constructos de manera estructurada. Luego, se presenta el diseño de una infraestructura virtual (COLS) cuyo propósito es ayudar a mantener la base del aprendizaje, y por tanto la distribución de la cognición, en sistemas de actividad donde el conocimiento es su principal producto. El rendimiento parcial de algunos de sus componentes (un artefacto para realizar evaluaciones en tiempo real y un sistema hipermedia adaptativo) es presentado. Finalmente, sobre la base de los resultados obtenidos en todo el estudio, se valora la utilidad del marco teórico de "Cognición Distribuida" en la gestión de sistemas de formación, que siguen una estrategia de e-Learning.La presentación de la investigación se ha organizado en 4 capítulos:1. Objetivos y método de la investigación. Se definen los objetivos de la investigación, se delimita el ámbito para el cual tienen validez los resultados aportados y se expone el proceso de trabajo que se ha seguido.2. Estudio teórico.Se presentan los conocimientos que constituyen el marco de referencia y apoyo teórico de la investigación.3. Estudio empírico.Se presentan los diversos trabajos de campo que se han realizado y que constituyen el resultado final de esta investigación.4. Conclusiones.Se finaliza la presentación con una síntesis de las conclusiones a las que ha permitido llegar esta investigación exploratoria, así como las líneas de investigación futura derivadas de la misma. / This research is included in the studies of the field of Human Computer Interaction (HCI) and the use of information technology and communication technologies (ICT) in education. The research aims to explore the application of the "Distributed Cognition" to the management of learning systems, specifically those which follow an e-learning strategy.Once the aspects of e-learning for review is done and the necessity of conducting research in this field to improve the development of learning and teaching is explained then the state of the art in the "Distributed Cognition" is presented. This work allows identifying the interested topics about this theory, the research techniques commonly related to its application and the areas where it has been studied, particularly in those supported by computer.The current and future validity of this theory is put to discussion by conducting a survey to collect information from a sample of researchers from different areas.While the theoretical study is developed, the distributed cognition is applied in two e-learning programs with the purpose to assess how well this theory helps to identify and explain the nature of the errors that arise in the learning process. In addition, it outlines an initial idea of how to implement its concepts in a structured manner. Then, the design of a virtual infrastructure ("COLS") is presented whose purpose is to help maintain the basis of learning in activity systems where the knowledge is their main product. The first results of the impact of some of its components (a device to perform real-time evaluations and an adaptive hypermedia system) are presented.Finally, on the basis of the results obtained throughout the research, we evaluate the usefulness of the "Distributed Cognition" in the management of learning systems which follow a e- learning strategy.The presentation of the research is organized into 4 chapters:1. Aims and research methodology.It defines the goals and research methodology, it narrows the scope for which results are valid provided and sets out the work process has been followed.2. Theoretical Study.Knowledge which constitutes the framework and theoretical support for this research are presented.3. Empirical Study.It presents the empirical works that have been developed. These empirical works constitute the final outcome of this research.4. Conclusions.This chapter presents an overview of the conclusions which this exploratory research has reached as well as future research works.
40

Modelo para la gestión de dominios de contenido en sistemas hipermedia adaptativos aplicados a entornos de educación superior semipresencial

Grimón Mejías, Francisca de Jesús 04 July 2008 (has links)
El objetivo central de esta tesis fue diseñar, implantar y validar un modelo para la gestión de dominios de contenido en un Sistema Hipermedia Adaptativo aplicado a entornos de educación superior semipresencial. La estrategia de investigación que se utilitzó fue la del "Estudio de Caso", porque permite investigar un fenómeno contemporáneo dentro del contexto de la vida real (Yin 1994). Para la validación del modelo se realizaron los estudios empíricos en los cursos de: Metodología de la Investigación, del Doctorado en Ingeniería Multimedia de la Universidad Politécnica de Cataluña y en el curso de Sistemas de Información de la Licenciatura en Computación de la Universidad de Carabobo.El estudio realizado ha permitido conocer la percepción de los estudiantes acerca del modelo propuesto. Los resultados de esta investigación indican que el modelo ha tenido un buen efecto en el proceso de enseñanza aprendizaje. Basados en este hecho, los estudiantes han tenido una percepción positiva del sistema y los contenidos presentados se ajustan al perfil de cada usuario. Los resultados de los diferentes ensayos presentan un aporte a las investigaciones que se realizan referentes a la personalización de contenidos en los ambientes de formación en la modalidad Blended Learning. / The main purpose of this work was to design, implement and validate a model in order to manage content domains in an Adaptive Hypermedia System applied to higher education environments under blended learning modality. The research strategy used was "Case Study", because it is useful to study a contemporary phenomenon in real-life context. To validate the model, two empirical studies were conducted in the Research Methodology subject of the Multimedia Engineering Doctor's degree in the Polytechnic University of Catalonia and in the course on Information Systems of the Bachelor's Degree on Computing Sciences at the University of Carabobo.The study made it possible to learn how students perceived the proposed model. The results of this research show that the model has proven to be effective in the teaching-learning process. Based on this fact, the students have had a positive perception of the system. Furthermore, the contents presented fit the profile of each user. The results of the different trials contribute to the research works that are being carried out concerning the personalization of contents in the educational environments based on Blended Learning.

Page generated in 0.0674 seconds