Spelling suggestions: "subject:"informática"" "subject:"informatica""
151 |
Programming models and scheduling techniques for heterogeneous architecturesPlanas Carbonell, Judit 03 November 2015 (has links)
There is a clear trend nowadays to use heterogeneous high-performance computers, as they offer considerably greater computing power than homogeneous CPU systems. Extending traditional CPU systems with specialized units (accelerators such as GPGPUs) has become a revolution in the HPC world. Both the traditional performance-per-Watt and the performance-per-Euro ratios have been increased with the use of such systems.
Heterogeneous machines can adapt better to different application requirements, as each architecture type offers different characteristics. Thus, in order to maximize application performance in these platforms, applications should be divided into several portions according to their execution requirements. These portions should then be scheduled to the device that better fits their requirements.
Hence, heterogeneity introduces complexity in application development, up to the point of reaching the programming wall: on the one hand, source codes must be adapted to fit new architectures and, on the other, resource management becomes more complicated. For example, multiple memory spaces that require explicit data movements or additional synchronizations between different code portions that run on different units. For all these reasons, efficient programming and code maintenance in heterogeneous systems is extremely complex and expensive.
Although several approaches have been proposed for accelerator programming, like CUDA or OpenCL, these models do not solve the aforementioned programming challenges, as they expose low level hardware characteristics to the programmer. Therefore, programming models should be able to hide all these complex accelerator programming by providing a homogeneous development environment.
In this context, this thesis contributes in two key aspects: first, it proposes a general design to efficiently manage the execution of heterogeneous applications and second, it presents several scheduling mechanisms to spread application execution among all the units of the system to maximize performance and resource utilization.
The first contribution proposes an asynchronous design to manage execution, data movements and synchronizations on accelerators. This approach has been developed in two steps: first, a semi-asynchronous proposal and then, a fully-asynchronous proposal in order to fit contemporary hardware restrictions. The experimental results tested on different multi-accelerator systems showed that these approaches could reach the maximum expected performance. Even if compared to native, hand-tuned codes, they could get the same results and outperform native versions in selected cases.
The second contribution presents four different scheduling strategies. They focus and combine different aspects related to heterogeneous programming to minimize application's execution time. For example, minimizing the amount of data shared between memory spaces, or maximizing resource utilization by scheduling each portion of code on the unit that fits better. The experimental results were performed on different heterogeneous platforms, including CPUs, GPGPU and Intel Xeon Phi devices. As shown in these tests, it is particularly interesting to analyze how all these scheduling strategies can impact application performance.
Three general conclusions can be extracted: first, application performance is not guaranteed across new hardware generations. Then, source codes must be periodically updated as hardware evolves. Second, the most efficient way to run an application on a heterogeneous platform is to divide it into smaller portions and pick the unit that better fits to run each portion. Hence, system resources can cooperate together to execute the application. Finally, and probably the most important, the requirements derived from the first and second conclusions can be implemented inside runtime frameworks, so the complexity of programming heterogeneous architectures is completely hidden to the programmer. / Actualment, hi ha una clara tendència per l'ús de sistemes heterogenis d'alt rendiment, ja que ofereixen una major potència de càlcul que els sistemes homogenis amb CPUs tradicionals. L'addició d'unitats especialitzades (acceleradors com ara GPGPUs) als sistemes amb CPUs s'ha convertit en una revolució en el món de la computació d'alt rendiment. Els sistemes heterogenis poden adaptar-se millor a les diferents necessitats de les aplicacions, ja que cada tipus d'arquitectura ofereix diferents característiques. Per tant, per maximitzar el rendiment, les aplicacions s'han de dividir en diverses parts d'acord amb els seus requeriments computacionals. Llavors, aquestes parts s'han d'executar al dispositiu que s'adapti millor a les seves necessitats. Per tant, l'heterogeneïtat introdueix una complexitat addicional en el desenvolupament d'aplicacions: d'una banda, els codis font s'han d'adaptar a les noves arquitectures i, de l'altra, la gestió de recursos es fa més complicada. Per exemple, múltiples espais de memòria que requereixen moviments explícits de dades o sincronitzacions addicionals entre diferents parts de codi que s'executen en diferents unitats. Per això, la programació i el manteniment del codi en sistemes heterogenis són extremadament complexos i cars. Tot i que hi ha diverses propostes per a la programació d'acceleradors, com CUDA o OpenCL, aquests models no resolen els reptes de programació descrits anteriorment, ja que exposen les característiques de baix nivell del hardware al programador. Per tant, els models de programació han de poder ocultar les complexitats dels acceleradors de cara al programador, proporcionant un entorn de desenvolupament homogeni. En aquest context, la tesi contribueix en dos aspectes fonamentals: primer, proposa un disseny per a gestionar de manera eficient l'execució d'aplicacions heterogènies i, segon, presenta diversos mecanismes de planificació per dividir l'execució d'aplicacions entre totes les unitats del sistema, per tal de maximitzar el rendiment i la utilització de recursos. La primera contribució proposa un disseny d'execució asíncron per gestionar els moviments de dades i sincronitzacions en acceleradors. Aquest enfocament s'ha desenvolupat en dos passos: primer, una proposta semi-asíncrona i després, una proposta totalment asíncrona per tal d'adaptar-se a les restriccions del hardware contemporani. Els resultats en sistemes multi-accelerador mostren que aquests enfocaments poden assolir el màxim rendiment esperat. Fins i tot, en determinats casos, poden superar el rendiment de codis nadius altament optimitzats. La segona contribució presenta quatre mecanismes de planificació diferents, enfocats a la programació heterogènia, per minimitzar el temps d'execució de les aplicacions. Per exemple, minimitzar la quantitat de dades compartides entre espais de memòria, o maximitzar la utilització de recursos mitjançant l'execució de cada porció de codi a la unitat que s'adapta millor. Els experiments s'han realitzat en diferents plataformes heterogènies, incloent CPUs, GPGPUs i dispositius Intel Xeon Phi. És particularment interessant analitzar com totes aquestes estratègies de planificació poden afectar el rendiment de l'aplicació. Com a resultat, es poden extreure tres conclusions generals: en primer lloc, el rendiment de l'aplicació no està garantit en les noves generacions de hardware. Per tant, els codis s'han d'actualitzar periòdicament a mesura que el hardware evoluciona. En segon lloc, la forma més eficient d'executar una aplicació en una plataforma heterogènia és dividir-la en porcions més petites i escollir la unitat que millor s'adapta per executar cada porció. Finalment, i probablement la conclusió més important, és que les exigències derivades de les dues primeres conclusions poden ser implementades dins de llibreries de sistema, de manera que la complexitat de programació d'arquitectures heterogènies quedi completament oculta per al programador.
|
152 |
Mac-Phy Cross-Layer analysis and design of Mimo-Ofdm Wlans based on fast link adaptationMartorell Lliteras, Gabriel 10 July 2013 (has links)
The latestWLAN standard, known as IEEE 802.11n, has notably increased the network
capacity with respect to its predecessors thanks to the incorporation of the multipleinput
multiple-output (MIMO) technology. Nonetheless, the new amendment, as its
previous ones, does not specify how crucial configuration mechanisms, most notably
the adaptive modulation and coding (AMC) algorithm should be implemented. The
AMC process has proved essential to fully exploit the system resources in light of varying
channel conditions.
In this dissertation, a closed-loop AMC technique, referred to as fast link adaption
(FLA) algorithm, that effectively selects themodulation and coding scheme (MCS)
for multicarriermultiantennaWLAN networks is proposed. The FLA algorithm determines
the MCS that maximizes the throughput while satisfying a quality of service
(QoS) constraint, usually defined in the form of an objective packet error rate (PER).
To this end, FLA uses a packet/bit error rate prediction methodology based on the
exponential effective SNRmetric (EESM).
The FLA algorithm performance has been evaluated under IEEE 802.11n systems
that thanks to the incorporation of a feedbackmechanismare able to implement closed-
loop AMC mechanisms. Initially, this AMC technique relies only on physical layer
information but it is subsequently extended to also take into account themediumaccess
control (MAC) sublayer performance. At the physical layer, the FLA algorithm
has demonstrated its effectivity by performing very close to optimality in terms of
throughput, while satisfying a prescribed PER constraint. The FLA algorithm has also
been evaluated using imperfect channel information. It has been observed that the
proposed FLA technique is rather robust against imperfect channel information, and
only in highly-frequency selective channels, imperfect channel knowledge causes a
noticeable degradation in throughput.
At the MAC sublayer, the FLA algorithm has been complemented with a timeout
strategy that weighs down the influence of the available channel information as this
becomes outdated. This channel information outdate is caused by the MAC sublayer
whose user multiplexing policy potentially results in large delays between acquiring
the instant in which the channel state information is acquired and that in which the
channel is accessed. Results demonstrate the superiority of FLA when compared to
open-loop algorithms under saturated and non-saturated conditions and irrespective
of the packet length, number of users, protocol (CSMA/CA or CDMA/E2CA) and access
scheme (Basic Access or RTS/CTS).
Additionally, several analytical models have been developed to estimate the system
performance at the MAC sublayer. These models account for all operational details
of the IEEE 802.11n MAC sublayer, such as finite number of retries, anomalous slot or channel errors. In particular, a semi-analytical model that assesses the MAC
layer throughput under saturated conditions, considering the AMC performance is
first introduced. Then, an analytical model that allows the evaluation of the QoS performance
under non-saturated conditions is presented. This model focuses on single
MCS and it is able to accurately predict very important system performance metrics
such as blocking probability, delay, probability of discard or goodput thanks to the
consideration of the finite queues on each station. Finally, the previous non-saturated
analytical approach is used to define a semi-analytical model in order to estimate the
system performance when considering AMC algorithms (i.e. whenmultiple MCSs are
available). / La darrera versió de l’estàndard deWLAN, anomenada IEEE 802.11n, ha augmentat la
seva capacitat notablement en relació als sistemes anteriors gràcies a la incorporació
de la tecnologia de múltiples antenes en transmissió i recepció (MIMO). No obstant
això, la nova proposta, al igual que les anteriors, segueix sense especificar com s’han
d’implementar elsmecanismes de configuraciómés crucials, un dels quals és l’algoritme
de codificació imodulació adaptativa (AMC). Aquests algoritmes ja han demostrat
la seva importància a l’hora demaximitzar el rendiment del sistema tenint en compte
les condicions canviants del canal.
En aquesta tesis s’ha proposat un algoritme AMC de llaç tancat, anomenat adaptació
ràpida de l’enllaç (FLA), que selecciona eficientment l’esquema demodulació i codificació
adaptativa per xarxes WLAN basades en arquitectures multiportadora multiantena.
L’algoritme FLA determina el mode de transmissió capaç de maximitzar el
throughput per les condicions de canal actuals, mentre satisfà un requisit de qualitat
de servei en forma de taxa d’error per paquet (PER). FLA utilitza una metodologia
de predicció de PER basada en l’estimació de la relació senyal renou (SNR) efectiva
exponencial (EESM).
El rendiment de l’algoritme FLA ha estat avaluat en sistemes IEEE 802.11n, ja que
aquests, gràcies a la incorporació d’unmecanisme de realimentació demodes de transmissió,
poden adoptar solucions AMC de llaç tancat. En una primera part, l’estudi s’ha
centrat a la capa física i després s’ha estès a la subcapa MAC. A la capa física s’ha demostrat
l’efectivitat de l’algoritme FLA aconseguint un rendiment molt proper al que
ens proporcionaria un esquema AMC òptim en termes de throughput, alhora que es
satisfan els requisits de PER objectiu. L’algoritme FLA també ha estat avaluat utilitzant
informació imperfecte del canal. S’ha vist que l’algoritme FLA proposat és robust
en front dels efectes d’estimació imperfecte del canal, i només en canals altament selectius
en freqüència, la informació imperfecte del canal provoca una davallada en el
rendiment en termes de throughput.
A la subcapa MAC, l’algoritme FLA ha estat complementat amb una estratègia de
temps d’espera que disminueix la dependència amb la informació de canal disponible
a mesura que aquesta va quedant desfassada respecte de l’estat actual. Aquesta
informació de canal desfassada és conseqüència de la subcapa MAC que degut a la
multiplexació d’usuaris introdueix grans retards entre que es determina el mode de
transmissió més adequat i la seva utilització per a l’accés al canal. Els resultats obtinguts
han demostrat la superioritat de FLA respecte d’altres algoritmes de llaç obert
en condicions de saturació i de no saturació, i independentment de la longitud de paquet,
nombre d’usuaris, protocol (CSMA/CA i CSMA/E2CA) i esquema d’accés (Basic
Access i RTS/CTS).
Amés, s’han desenvolupat diversosmodels analítics per tal d’estimar el rendiment
del sistema a la subcapa MAC. Aquests models consideren tots els detalls de funcionament
de la subcapaMAC del 802.11n, comper exemple un nombre finit de retransmissions
de cada paquet, l’slot anòmal o els errors introduïts pel canal. Inicialment
s’ha proposat unmodel semi-analític que determina el throughtput en condicions de
saturació, considerant el rendiment dels algoritmes AMC. Després s’ha presentat un
model analític que estima el rendiment del sistema per condicions de no saturació,
mitjançat elmodelat de cues finites a cada estació. Aquestmodel consideramodes de
transmissió fixes i és capaç de determinar de manera molt precisa mètriques de rendimentmolt
importants comsón la probabilitat de bloqueig de cada estació, el retard
mitjà del paquets, la probabilitat de descart o la mesura del goodput. Finalment, el
model analític de no saturació s’ha utilitzat per definir un model semi-analític per tal
d’estimar el rendiment del sistema quan es considera l’ús d’algoritmes AMC.
|
153 |
Fair exchange in e-commerce and certified e-mail, new scenarios and protocolsDraper Gil, Gerard 22 July 2013 (has links)
We are witnessing a steady growth in the use of Internet in the electronic commerce
field. This rise is promoting the migration from traditional processes and applications
(paper based) to an electronic model. But the security of electronic transactions
continues to pose an impediment to its implementation. Traditionally, most
business transactions were conducted in person. Signing a contract required the
meeting of all interested parties, the postman delivered certified mail in hand, and
when paying for goods or services both customer and provider were present. When
all parties are physically present, a transaction does not require a complex protocol.
The participants acknowledge the presence of the other parties as assurance
that they will receive their parts, whether a signature on a contract, or a receipt,
etc. But with e-commerce growing in importance as sales and business channel, all
these transactions have moved to its digital counterpart. Therefore we have digital
signature of contracts, certified delivery of messages and electronic payment systems.
With electronic transactions, the physical presence is not required,moreover,
most of the times it is even impossible. The participants in a transaction can be
thousands of kilometers away from each other, and they may not even be human
participants, they can be machines. Thus, the security that the transaction will be
executed without incident is not assured per se, we need additional security measures.
To address this problem, fair exchange protocols were developed. In a fair
exchange every party involved has an item that wants to exchange, but none of the
participants is willing to give his item away unless he has an assurance he will receive
the corresponding item from the other participants. Fair exchange has many
applications, like digital signature of contracts, where the items to be exchanged are
signatures on contracts, certified delivery of messages, where we exchange a message
for evidence of receipt, or a payment process, where we exchange a payment
(e-cash, e-check, visa, etc.) for digital goods or a receipt.
The objective of this dissertation is the study of the fair exchange problem. In
particular, it presents two new scenarios for digital contracting, the Atomic Multi-
Two Party (AM2P) and the Agent Mediated Scenario (AMS), and proposes one optimistic
contract signing protocol for each one. Moreover, it studies the efficiency
of Multi-Party Contract Signing (MPCS) protocols from their architecture point of
view, presenting a new lower bound for each architecture, in terms of minimum
number of transactions needed. Regarding Certified Electronic Mail (CEM), this
dissertation presents two optimistic CEMprotocols designed to be deployed on thecurrent e-mail infrastructure, therefore they assume the participation of multiple
Mail Transfer Agents (MTAs). In one case, the protocol assumes untrusted MTAs
whereas in the other one it assumes each User Agent (UA) trusts his own MTA.
Regarding payment systems, this dissertation presents a secure and efficient electronic
bearer bank check scheme allowing the electronic checks to be transferred
fairly and anonymously. / L’ús d’Internet en l’àmbit del comerç electrònic està experimentant un creixement
estable. Aquest increment d’ús està promovent lamigració de processos tradicionals
i aplicacions (basades en paper) cap a un model electrònic. Però la seguretat de
les transaccions electròniques continua impedint la seva implantació. Tradicionalment,
la majoria de les transaccions s’han dut a terme en persona. La firma d’un
contracte requeria la presència de tots els firmants, el carter entrega les cartes certificades
enmà, i quan es paga per un bé o servei ambdós venedor i comprador hi són
presents. Quan totes les parts hi són presents, les transaccions no requereixen un
protocol complex. Els participants assumeixen la presència de les altres parts com
assegurança que rebran el que esperen d’elles, ja sigui la firma d’un contracte, un
rebut d’entrega o un pagament. Però amb el creixement del comerç electrònic com
a canal de venda i negoci, totes aquestes transaccions s’hanmogut al seu equivalent
en el món electrònic. Així doncs tenim firma electrònica de contractes, enviament
certificat de missatges, sistemes de pagament electrònic, etc. En les transaccions
electròniques la presència física no és necessària, de fet, la majoria de vegades és
fins it tot impossible. Els participants poden estar separats permilers de kilòmetres,
i no és necessari que siguin humans, podrien sermàquines. Llavors, la seguretat de
que la transacció s’executarà correctament no està assegurada per se, necessitem
proporcionar mesures de seguretat addicionals. Per solucionar aquest problema,
es van desenvolupar els protocols d’intercanvi equitatiu. En un intercanvi equitatiu
totes les parts involucrades tenen un objecte que volen intercanviar, però cap de les
parts implicades vol donar el seu objecte si no té la seguretat que rebrà els objectes
de les altres parts. L’intercanvi equitatiu té multitud d’aplicacions, com la firma
electrònica de contractes, on els elements a intercanviar son firmes de contractes,
enviament certificat demissatges, on s’intercanvien unmissatge per una evidència
de recepció, o un procés de pagament, on intercanviemun pagament (e-cash, visa,
e-xec, etc.) per bens digitals o per un rebut.
L’objectiu d’aquesta tesi és estudiar el problema de l’intercanvi equitatiu. En
particular, la tesi presenta dos nous escenaris per a la firma electrònica de contractes,
l’escenari multi-two party atòmic i l’escenari amb agents intermediaris,
i proposa un protocol optimista per a cada un d’ells. A més, presenta un estudi
de l’eficiència dels protocols de firma electrònica multi-part (Multi-Party Contract
Signing (MPCS) protocols) des del punt de vista de la seva arquitectura, presentant
una nova fita per a cada una, en termes de mínim nombre de transaccions necessàries. Pel que fa al correu electrònic certificat, aquesta tesi presenta dos protocols
optimistes dissenyats per a ser desplegats damunt l’infraestructura actual de
correu electrònic, per tant assumeix la participació demúltiples agents de transferència
de correu. Un dels protocols assumeix que cap dels agents de transferència
de correu participants és de confiança,mentre que l’altre assumeix que cada usuari
confia en el seu propi agent. Pel que fa a sistemes de pagament, la tesi presenta un
esquema de xec bancari al portador, eficient i segur, que garanteix que la transferència
dels xecs es fa demanera anònima i equitativa.
|
154 |
An approach to pervasive monitoring in dynamic learning contexts : data sensing, communication support and awareness provisionMedina Medina, Esunly 09 February 2016 (has links)
It is within the capabilities of current technology to support the emerging learning paradigms. These paradigms suggest that today’s learning activities and environments are pervas ive and require a higher level of dynamism than the traditional learning contexts. Therefore, we have to rethink our approach to learning and use technology not only as a digital information support, but also as an instrument to reinforce knowledge, foster collaboration, promote creativity and provide richer learning experiences.
Particularly, this thesis was motivated by the rapidly growing number of smartphone users and the fact that these devices are increasingly becoming more and more resource-rich, in terms of their communication and sensing technologies, display capabilities battery autonomy, etc. Hence, this dissertation benefits from the ubiquity and development of mobile technology, aiming to bridge the gap between the challenges posed by modern learning requirements and the capabilities of current technology.
The sensors embedded in smartphones can be used to capture diverse behavioural and social aspects of the users. For example, using microphone and Bluetooth is possible to identify conversation patterns, discover users in proximity and detect face-to-face meetings. This fact opens up exciting possibilities to monitor the behaviour of the user and to provide meaningful feedback. This feedback offers useful information that can help people be aware of and reflect on their behaviour and its effects, and take the necessary actions to improve them.
Consequently, we propose a pervasive monitoring system that take advantage of the capabilities of modern smartphones, us ing them to s upport the awarenes s provis ion about as pects of the activities that take place in today’s pervas ive learning environments. This pervasive monitoring system provides (i) an autonomous sensing platform to capture complex information about processes and interactions that take place across multiple learning environments, (ii) an on-demand and s elf-m anaged communication infras tructure, and (ii) a dis play facility to provide “awarenes s inform ation” to the s tudents and/or lecturers.
For the proposed system, we followed a research approach that have three main components. First, the description of a generalized framework for pervasive sensing that enables collaborative sensing interactions between smartphones and other types of devices. By allowing complex data capture interactions with diverse remote sensors, devices and data sources, this framework allows to improve the information quality while saving energy in the local device. Second, the evaluation, through a real-world deployment, of the suitability of ad hoc networks to support the diverse communication processes required for pervasive monitoring. This component also includes a method to improve the scalability and reduce the costs of these networks. Third, the design of two awareness mechanisms to allow flexible provision of information in dynamic and heterogeneous learning contexts. These mechanisms rely on the use of smartphones as adaptable devices that can be used directly as awareness displays or as communication bridges to enable interaction with other remote displays available in the environment.
Diverse aspects of the proposed system were evaluated through a number of simulations, real-world experiments, user studies and prototype evaluations. The experimental evaluation of the data capture and communication aspects of the system provided empirical evidence of the usefulness and suitability of the proposed approach to support the development of pervasive monitoring solutions. In addition, the proof-of-concept deployments of the proposed awareness mechanisms, performed in both laboratory and real-world learning environments, provided quantitative and qualitative indicators that such mechanisms improve the quality of the awareness information and the user experience / La tecnología moderna tiene capacidad de dar apoyo a los paradigmas de aprendizaje emergentes. Estos paradigmas sugieren que las actividades de aprendizaje actuales, caracterizadas por la ubicuidad de entornos, son más dinámicas y complejas que los contextos de aprendizaje tradicionales. Por tanto, tenemos que reformular nuestro acercamiento al aprendizaje, consiguiendo que la tecnología sirva no solo como mero soporte de información, sino como medio para reforzar el conocimiento, fomentar la colaboración, estimular la creatividad y proporcionar experiencias de aprendizaje enriquecedoras.
Esta tesis doctoral está motivada por el vertiginoso crecimiento de usuarios de smartphones y el hecho de que estos son cada vez más potentes en cuanto a tecnologías de comunicación, sensores, displays, autonomía energética, etc. Por tanto, esta tesis aprovecha la ubicuidad y el desarrollo de esta tecnología, con el objetivo de reducir la brecha entre los desafíos del aprendizaje moderno y las capacidades de la tecnología actual.
Los sensores integrados en los smartphones pueden ser utilizados para reconocer diversos aspectos del comportamiento individual y social de los usuarios. Por ejemplo, a través del micrófono y el Bluetooth, es posible determinar patrones de conversación, encontrar usuarios cercanos y detectar reuniones presenciales. Este hecho abre un interesante abanico de posibilidades, pudiendo monitorizar aspectos del comportamiento del usuario y proveer un feedback significativo. Dicho feedback, puede ayudar a los usuarios a reflexionar sobre su comportamiento y los efectos que provoca, con el fin de tomar medidas necesarias para mejorarlo.
Proponemos un sistema de monitorización generalizado que aproveche las capacidades de los smartphones para proporcionar información a los usuarios, ayudándolos a percibir y tomar conciencia sobre diversos aspectos de las actividades que se desarrollan en contextos de aprendizaje modernos. Este sistema ofrece: (i) una plataforma de detección autónoma, que captura información compleja sobre los procesos e interacciones de aprendizaje; (ii) una infraestructura de comunicación autogestionable y; (iii) un servicio de visualización que provee “información de percepción” a estudiantes y/o profesores.
Para la elaboración de este sistema nos hemos centrado en tres áreas de investigación. Primero, la descripción de una infraestructura de detección generalizada, que facilita interacciones entre smartphones y otros dispositivos. Al permitir interacciones complejas para la captura de datos entre diversos sensores, dispositivos y fuentes de datos remotos, esta infraestructura consigue mejorar la calidad de la información y ahorrar energía en el dispositivo local. Segundo, la evaluación, a través de pruebas reales, de la idoneidad de las redes ad hoc como apoyo de los diversos procesos de comunicación requeridos en la monitorización generalizada. Este área incluye un método que incrementa la escalabilidad y
reduce el coste de estas redes. Tercero, el diseño de dos mecanismos de percepción que permiten la provisión flexible de información en contextos de aprendizaje dinámicos y heterogéneos. Estos mecanismos descansan en la versatilidad de los smartphones, que pueden ser utilizados directamente como displays de percepción o como puentes de comunicación que habilitan la interacción con otros displays remotos del entorno.
Diferentes aspectos del sistema propuesto han sido evaluados a través de simulaciones, experimentos reales, estudios de usuarios y evaluaciones de prototipos. La evaluación experimental proporcionó evidencia empírica de la idoneidad del sistema para apoyar el desarrollo de soluciones de monitorización generalizadas. Además, las pruebas de concepto realizadas tanto en entornos de aprendizajes reales como en el laboratorio, aportaron indicadores cuantitativos y cualitativos de que estos mecanismos mejoran la calidad de la información de percepción y la experiencia del usuario.
|
155 |
Unsupervised entity linking using graph-based semantic similarityNaderi, Ali M. 10 February 2016 (has links)
Nowadays, the human textual data constitutes a great proportion of the shared information resources such as World Wide Web (WWW). Social networks, news and learning resources as well as Knowledge Bases (KBs) are just the small examples that widely contain the textual data which is used by both human and machine readers. The nature of human languages is highly ambiguous, means that a short portion of a textual context (such as words or phrases) can semantically be interpreted in different ways. A language processor should detect the best interpretation depending on the context in which each word or phrase appears. In case of human readers, the brain is quite proficient in interfering textual data. Human language developed in a way that reflects the innate ability provided by the brain’s neural networks.
However, there still exist the moments that the text disambiguation task would remain a hard challenge for the human readers. In case of machine readers, it has been a long-term challenge to develop the ability to do natural language processing and machine learning.
Different interpretation can change the broad range of topics and targets. The different in interpretation can cause serious impacts when it is used in critical domains that need high precision. Thus, the correctly inferring the ambiguous words would be highly crucial. To tackle it, two tasks have been developed: Word Sense Disambiguation (WSD) to infer the sense (i.e. meaning) of ambiguous words, when the word has multiple meanings, and Entity Linking (EL) (also called, Named Entity Disambiguation–NED, Named Entity Recognition and Disambiguation–NERD, or Named Entity Normalization–NEN) which is used to explore the correct reference of Named Entity (NE) mentions occurring in documents. The solution to these problems impacts other computer-related writing, such as discourse, improving relevance of search engines, anaphora resolution, coherence, and inference.
This document summarizes the works towards developing an unsupervised Entity Linking (EL) system using graph-based semantic similarity aiming to disambiguate Named Entity (NE) mentions occurring in a target document. The EL task is highly challenging since each entity can usually be referred to by several NE mentions (synonymy). In addition, a NE mention may be used to indicate distinct entities (polysemy). Thus, much effort is necessary to tackle these challenges. Our EL system disambiguates the NE mentions in several steps. For each step, we have proposed, implemented, and evaluated several approaches. We evaluated our EL system in TAC-KBP4 English EL evaluation framework in which the
system input consists of a set of queries, each containing a query name (target NE mention) along with start and end offsets of that mention in the target document. The output is either a NE entry id in a reference Knowledge Base (KB) or a Not-in-KB (NIL) id in the case that system could not find any appropriate entry for that query. At the end, we have analyzed our result in different aspects. To disambiguate query name we apply a graph-based semantic similarity approach to extract the network of the semantic knowledge existing in the content of target document. / Este documento es un resumen del trabajo realizado para la construccion de un sistema de Entity Linking (EL) destinado a desambiguar menciones de Entidades Nombradas (Named Entities, NE) que aparecen en un documento de referencia. La tarea de EL presenta una gran dificultad ya que cada entidad puede ser mencionada de varias maneras (sinonimia). Ademas cada mencion puede referirse a mas de una entidad (polisemia). Asi pues, se debe realizar un gran esfuerzo para hacer frente a estos retos. Nuestro sistema de EL lleva a cabo la desambiguacion de las menciones de NE en varias etapas. Para cada etapa hemos propuesto, implementado y evaluado varias aproximaciones. Hemos evaluado nuestro sistema de EL en el marco del TAC-KBP English EL evaluation framework. En este marco la evaluacion se realiza a partir de una entrada que consiste en un conjunto de consultas cada una de las cuales consta de un nombre (query name) que corresponde a una mencion objetivo cuya posicion en un documento de referencia se indica. La salida debe indicar a que entidad en una base de conocimiento (Knowledge Base, KB) corresponde la mencion. En caso de no existir un referente apropiado la respuesta sera Not-in-KB (NIL). La tesis concluye con un analisis pormenorizado de los resultados obtenidos en la evaluacion.
|
156 |
FAST : a fault detection and identification software toolDuatis Juárez, Jordi 05 February 2016 (has links)
The aim of this work is to improve the reliability and safety of complex critical control systems by contributing to the systematic application of fault diagnosis. In order to ease the utilization of fault detection and isolation (FDI) tools in the industry, a systematic approach is required to allow the process engineers to analyze a system from this perspective. In this way, it should be possible to analyze this system to find if it provides the required fault diagnosis and redundancy according to the process criticality. In addition, it should be possible to evaluate what-if scenarios by slightly modifying the process (f.i. adding sensors or changing their placement) and evaluating the impact in terms of the fault diagnosis and redundancy possibilities.
Hence, this work proposes an approach to analyze a process from the FDI perspective and for this purpose provides the tool FAST which covers from the analysis and design phase until the final FDI supervisor implementation in a real process. To synthesize the process information, a very simple format has been defined based on XML. This format provides the needed information to systematically perform the Structural Analysis of that process. Any process can be analyzed, the only restriction is that the models of the process components need to be available in the FAST tool. The processes are described in FAST in terms of process variables, components and relations and the tool performs the structural analysis of the process obtaining: (i) the structural matrix, (ii) the perfect matching, (iii) the analytical redundancy relations (if any) and (iv) the fault signature matrix.
To aid in the analysis process, FAST can operate stand alone in simulation mode allowing the process engineer to evaluate the faults, its detectability and implement changes in the process components and topology to improve the diagnosis and redundancy capabilities. On the other hand, FAST can operate on-line connected to the process plant through an OPC interface. The OPC interface enables the possibility to connect to almost any process which features a SCADA system for supervisory control. When running in on-line mode, the process is monitored by a software agent known as the Supervisor Agent.
FAST has also the capability of implementing distributed FDI using its multi-agent architecture. The tool is able to partition complex industrial processes into subsystems, identify which process variables need to be shared by each subsystem and instantiate a Supervision Agent for each of the partitioned subsystems. The Supervision Agents once instantiated will start diagnosing their local components and handle the requests to provide the variable values which FAST has identified as shared with other agents to support the distributed FDI process. / Per tal de facilitar la utilització d'eines per la detecció i identificació de fallades (FDI) en la indústria, es requereix un enfocament sistemàtic per permetre als enginyers de processos analitzar un sistema des d'aquesta perspectiva. D'aquesta forma, hauria de ser possible analitzar aquest sistema per determinar si proporciona el diagnosi de fallades i la redundància d'acord amb la seva criticitat. A més, hauria de ser possible avaluar escenaris de casos modificant lleugerament el procés (per exemple afegint sensors o canviant la seva localització) i avaluant l'impacte en quant a les possibilitats de diagnosi de fallades i redundància. Per tant, aquest projecte proposa un enfocament per analitzar un procés des de la perspectiva FDI i per tal d'implementar-ho proporciona l'eina FAST la qual cobreix des de la fase d'anàlisi i disseny fins a la implementació final d'un supervisor FDI en un procés real. Per sintetitzar la informació del procés s'ha definit un format simple basat en XML. Aquest format proporciona la informació necessària per realitzar de forma sistemàtica l'Anàlisi Estructural del procés. Qualsevol procés pot ser analitzat, només hi ha la restricció de que els models dels components han d'estar disponibles en l'eina FAST. Els processos es descriuen en termes de variables de procés, components i relacions i l'eina realitza l'anàlisi estructural obtenint: (i) la matriu estructural, (ii) el Perfect Matching, (iii) les relacions de redundància analítica, si n'hi ha, i (iv) la matriu signatura de fallades. Per ajudar durant el procés d'anàlisi, FAST pot operar aïlladament en mode de simulació permetent a l'enginyer de procés avaluar fallades, la seva detectabilitat i implementar canvis en els components del procés i la topologia per tal de millorar les capacitats de diagnosi i redundància. Per altra banda, FAST pot operar en línia connectat al procés de la planta per mitjà d'una interfície OPC. La interfície OPC permet la possibilitat de connectar gairebé a qualsevol procés que inclogui un sistema SCADA per la seva supervisió. Quan funciona en mode en línia, el procés està monitoritzat per un agent software anomenat l'Agent Supervisor. Addicionalment, FAST té la capacitat d'implementar FDI de forma distribuïda utilitzant la seva arquitectura multi-agent. L'eina permet dividir sistemes industrials complexes en subsistemes, identificar quines variables de procés han de ser compartides per cada subsistema i generar una instància d'Agent Supervisor per cadascun dels subsistemes identificats. Els Agents Supervisor un cop activats, començaran diagnosticant els components locals i despatxant les peticions de valors per les variables que FAST ha identificat com compartides amb altres agents, per tal d'implementar el procés FDI de forma distribuïda.
|
157 |
Specialization and reconfiguration of lightweight mobile processors for data-parallel applicationsDuric, Milovan 26 January 2016 (has links)
The worldwide utilization of mobile devices makes the segment of low power mobile processors leading in the entire computer industry. Customers demand low-cost, high-performance and energy-efficient mobile devices, which execute sophisticated mobile applications such as multimedia and 3D games. State-of-the-art mobile devices already utilize chip multiprocessors (CMP) with dedicated accelerators that exploit data-level parallelism (DLP) in these applications. Such heterogeneous system design enable the mobile processors to deliver the desired performance and efficiency. The heterogeneity however increases the processors complexity and manufacturing cost when adding extra special-purpose hardware for the accelerators. In this thesis, we propose new hardware techniques that leverage the available resources of a mobile CMP to achieve cost-effective acceleration of DLP workloads.
Our techniques are inspired by classic vector architectures and the latest reconfigurable architectures, which both achieve high power efficiency when running DLP workloads. The high requirement of additional resources for these two architectures limits their applicability beyond high-performance computers. To achieve their advantages in mobile devices, we propose techniques that: 1) specialize the lightweight mobile cores for classic vector execution of DLP workloads; 2) dynamically tune the number of cores for the specialized execution; and 3) reconfigure a bulk of the existing general purpose execution resources into a compute hardware accelerator. Specialization enables one or more cores to process configurable large vector operands with new special purpose vector instructions. Reconfiguration goes one step further and allow the compute hardware in mobile cores to dynamically implement the entire functionality of diverse compute algorithms.
The proposed specialization and reconfiguration techniques are applicable to a diverse range of general purpose processors available in mobile devices nowadays. However, we chose to implement and evaluate them on a lightweight processor based on the Explicit Data Graph Execution architecture, which we find promising for the research of low-power processors. The implemented techniques improve the mobile processor performance and the efficiency on its existing general purpose resources. The processor with enabled specialization/reconfiguration techniques efficiently exploits DLP without the extra cost of special-purpose accelerators. / La utilización de dispositivos móviles a nivel mundial hace que el segmento de procesadores móviles de bajo consumo lidere la industria de computación. Los clientes piden dispositivos móviles de bajo coste, alto rendimiento y bajo consumo, que ejecuten aplicaciones móviles sofisticadas, tales como multimedia y juegos 3D.Los dispositivos móviles más avanzados utilizan chips con multiprocesadores (CMP) con aceleradores dedicados que explotan el paralelismo a nivel de datos (DLP) en estas aplicaciones. Tal diseño de sistemas heterogéneos permite a los procesadores móviles ofrecer el rendimiento y la eficiencia deseada. La heterogeneidad sin embargo aumenta la complejidad y el coste de fabricación de los procesadores al agregar hardware de propósito específico adicional para implementar los aceleradores. En esta tesis se proponen nuevas técnicas de hardware que aprovechan los recursos disponibles en un CMP móvil para lograr una aceleración con bajo coste de las aplicaciones con DLP. Nuestras técnicas están inspiradas por los procesadores vectoriales clásicos y por las recientes arquitecturas reconfigurables, pues ambas logran alta eficiencia en potencia al ejecutar cargas de trabajo DLP. Pero la alta exigencia de recursos adicionales que estas dos arquitecturas necesitan, limita sus aplicabilidad más allá de las computadoras de alto rendimiento. Para lograr sus ventajas en dispositivos móviles, en esta tesis se proponen técnicas que: 1) especializan núcleos móviles ligeros para la ejecución vectorial clásica de cargas de trabajo DLP; 2) ajustan dinámicamente el número de núcleos de ejecución especializada; y 3) reconfiguran en bloque los recursos existentes de ejecución de propósito general en un acelerador hardware de computación. La especialización permite a uno o más núcleos procesar cantidades configurables de operandos vectoriales largos con nuevas instrucciones vectoriales. La reconfiguración da un paso más y permite que el hardware de cómputo en los núcleos móviles ejecute dinámicamente toda la funcionalidad de diversos algoritmos informáticos. Las técnicas de especialización y reconfiguración propuestas son aplicables a diversos procesadores de propósito general disponibles en los dispositivos móviles de hoy en día. Sin embargo, en esta tesis se ha optado por implementarlas y evaluarlas en un procesador ligero basado en la arquitectura "Explicit Data Graph Execution", que encontramos prometedora para la investigación de procesadores de baja potencia. Las técnicas aplicadas mejoraran el rendimiento del procesador móvil y la eficiencia energética de sus recursos para propósito general ya existentes. El procesador con técnicas de especialización/reconfiguración habilitadas explota eficientemente el DLP sin el coste adicional de los aceleradores de propósito especial.
|
158 |
A dynamic adaptive framework for improving case-based reasoning system performanceOrduña, Fernando 05 February 2016 (has links)
An optimal performance of a Case-Based Reasoning (CBR) system means, the CBR system must be efficient both in time and in size, and must be optimally competent. The efficiency in time is closely related to an efficient and optimal retrieval process over the Case Base of the CBR system. Efficiency in size means that the Case Library (CL) size should be minimal. Therefore, the efficiency in size is closely related to optimal case learning policies, optimal meta-case learning policies, optimal case forgetting policies, etc. On the other hand, the optimal competence of a CBR system means that the number of problems that the CBR system can satisfactorily solve must be maximum.
To improve or optimize all three dimensions in a CBR system at the same time is a difficult challenge because they are interrelated, and it becomes even more difficult when the CBR system is applied to a dynamic or continuous domain (data stream). In this thesis, a Dynamic Adaptive Case Library framework (DACL) is proposed to improve the CBR system performance coping especially with reducing the retrieval time, increasing the CBR system competence, and maintaining and adapting the CL to be efficient in size, especially in continuous domains. DACL learns cases and organizes them into dynamic cluster structures. The DACL is able to adapt itself to a dynamic environment, where new clusters, meta-cases or prototype of cases, and associated indexing structures (discriminant trees, k-d trees, etc.) can be formed, updated, or even removed. DACL offers a possible solution to the management of the large amount of data generated in an unsupervised continuous domain (data stream). In addition, we propose the use of a Multiple Case Library (MCL), which is a static version of a DACL, with the same structure but being defined statically to be used in supervised domains.
The thesis work proposes some techniques for improving the indexation and the retrieval task. The most important indexing method is the NIAR k-d tree algorithm, which improves the retrieval time and competence, compared against the baseline approach (a flat CL) and against the well-known techniques based on using standard k-d tree strategies. The proposed Partial Matching Exploration (PME) technique explores a hierarchical case library with a tree indexing-structure aiming at not losing the most similar cases to a query case. This technique allows not only exploring the best matching path, but also several alternative partial matching paths to be explored.
The results show an improvement in competence and time of retrieving of similar cases. Through the experimentation tests done, with a set of well-known benchmark supervised databases. The dynamic building of prototypes in DACL has been tested in an unsupervised domain (environmental domain) where the air pollution is evaluated. The core task of building prototypes in a DACL is the implementation of a stochastic method for the learning of new cases and management of prototypes. Finally, the whole dynamic framework, integrating all the main proposed approaches of the research work, has been tested in simulated unsupervised domains with several well-known databases in an incremental way, as data streams are processed in real life.
The conclusions outlined that from the experimental results, it can be stated that the dynamic adaptive framework proposed (DACL/MCL), jointly with the contributed indexing strategies and exploration techniques, and with the proposed stochastic case learning policies, and meta-case learning policies, improves the performance of standard CBR systems both in supervised domains (MCL) and in unsupervised continuous domains (DACL). / El rendimiento óptimo de un sistema de razonamiento basado en casos (CBR) significa que el sistema CBR debe ser eficiente tanto en tiempo como en tamaño, y debe ser competente de manera óptima. La eficiencia temporal está estrechamente relacionada con que el proceso de recuperación sobre la Base de Casos del sistema CBR sea eficiente y óptimo. La eficiencia en tamaño significa que el tamaño de la Base de Casos (CL) debe ser mínimo. Por lo tanto, la eficiencia en tamaño está estrechamente relacionada con las políticas óptimas de aprendizaje de casos y meta-casos, y las políticas óptimas de olvido de casos, etc. Por otro lado, la competencia óptima de un sistema CBR significa que el número de problemas que el sistema puede resolver de forma satisfactoria debe ser máximo. Mejorar u optimizar las tres dimensiones de un sistema CBR al mismo tiempo es un reto difícil, ya que están relacionadas entre sí, y se vuelve aún más difícil cuando se aplica el sistema de CBR a un dominio dinámico o continuo (flujo de datos). En esta tesis se propone el Dynamic Adaptive Case Library framework (DACL) para mejorar el rendimiento del sistema CBR especialmente con la reducción del tiempo de recuperación, aumentando la competencia del sistema CBR, manteniendo y adaptando la CL para ser eficiente en tamaño, especialmente en dominios continuos. DACL aprende casos y los organiza en estructuras dinámicas de clusters. DACL es capaz de adaptarse a entornos dinámicos, donde los nuevos clusters, meta-casos o prototipos de los casos, y las estructuras asociadas de indexación (árboles discriminantes, árboles k-d, etc.) se pueden formar, actualizarse, o incluso ser eliminados. DACL ofrece una posible solución para la gestión de la gran cantidad de datos generados en un dominio continuo no supervisado (flujo de datos). Además, se propone el uso de la Multiple Case Library (MCL), que es una versión estática de una DACL, con la misma estructura pero siendo definida estáticamente para ser utilizada en dominios supervisados. El trabajo de tesis propone algunas técnicas para mejorar los procesos de indexación y de recuperación. El método de indexación más importante es el algoritmo NIAR k-d tree, que mejora el tiempo de recuperación y la competencia, comparado con una CL plana y con las técnicas basadas en el uso de estrategias de árboles k-d estándar. Partial Matching Exploration (PME) technique, la técnica propuesta, explora una base de casos jerárquica con una indexación de estructura de árbol con el objetivo de no perder los casos más similares a un caso de consulta. Esta técnica no sólo permite explorar el mejor camino coincidente, sino también varios caminos parciales alternativos coincidentes. Los resultados, a través de la experimentación realizada con bases de datos supervisadas conocidas, muestran una mejora de la competencia y del tiempo de recuperación de casos similares. Además la construcción dinámica de prototipos en DACL ha sido probada en un dominio no supervisado (dominio ambiental), donde se evalúa la contaminación del aire. La tarea central de la construcción de prototipos en DACL es la implementación de un método estocástico para el aprendizaje de nuevos casos y la gestión de prototipos. Por último, todo el sistema, integrando todos los métodos propuestos en este trabajo de investigación, se ha evaluado en dominios no supervisados simulados con varias bases de datos de una manera gradual, como se procesan los flujos de datos en la vida real. Las conclusiones, a partir de los resultados experimentales, muestran que el sistema de adaptación dinámica propuesto (DACL / MCL), junto con las estrategias de indexación y de exploración, y con las políticas de aprendizaje de casos estocásticos y de meta-casos propuestas, mejora el rendimiento de los sistemas estándar de CBR tanto en dominios supervisados (MCL) como en dominios continuos no supervisados (DACL).
|
159 |
Memory architectures for exaflop computing systemsPavlović, Milan 05 February 2016 (has links)
Most computing systems are heavily dependent on their main memories, as their primary storage, or as an intermediate cache for slower storage systems (HDDs). The capacity of memory systems, as well as their performance, have a direct impact on overall computing capabilities of the system, and are also major contributors to its initial and operating costs.
Dynamic Random Access Memory (DRAM) technology has been dominating the main memory landscape since its beginnings in 1970s until today. However, due to DRAM's inherent limitations, its steady rate of development has saturated over the past decade, creating a disparity between CPU and main memory performance, known as the memory wall.
Modern parallel architectures, such as High-Performance Computing (HPC) clusters and manycore solutions, create even more stress on their memory systems. It is not trivial to estimate memory requirements that these systems will have in the future, and if DRAM technology would be able to meet them, or we would need to look for a novel memory solution.
This thesis attempts to give insight in the most important technological challenges that future memory systems need to address, in order to meet the ever growing requirements of users and their applications, in manycore and HPC context. We try to describe the limitations of DRAM, as the dominant technology in today's main memory systems, that may impede performance or increase cost of future systems. We discuss some of the emerging memory technologies, and by comparing them with DRAM, we try to estimate their potential usage in future memory systems. The thesis evaluates the requirements of manycore scientific applications, in terms of memory bandwidth and footprint, and estimates how these requirements may change in the future. With this evaulation in mind, we propose a hybrid memory solution that employs DRAM and PCM, as well as several page placement and page migration policies, to bridge the gap between fast and small DRAM and larger but slower non-volatile memory.
As the aforementioned evaluations required custom software solutions, we present tools we produced over the course of this PhD, which continue to be used in Heterogeneous Computer Architectures group in Barcelona Supercomputing Center. First, Limpio - a LIghtweight MPI instrumentatiOn framework, that provides an interface for low-overhead instrumentation and profiling of MPI applications with user-defined routines. Second, MemTraceMPI, a Valgrind tool, used to produce memory access traces of MPI applications, with several innovative concepts included (filter-cache, iteration tracing, compressed trace files). / La mayoría de los sistemas de computación dependen en gran medida de sus principales recuerdos, como su almacenamiento primario, o como un caché intermedio para sistemas de almacenamiento más lentos (discos duros). La capacidad de los sistemas de memoria, así como su rendimiento, tienen un impacto directo en las capacidades globales de computación del sistema, y también son los principales contribuyentes a sus costos iniciales y de operación. Tecnología Dynamic Random Access memoria (DRAM) ha estado dominando el principal paisaje de memoria desde sus inicios en 1970 hasta la actualidad. Sin embargo, debido a las limitaciones inherentes de DRAM, su tasa constante de desarrollo ha saturado durante la última década, creando una disparidad entre la CPU y el rendimiento de la memoria principal, conocido como el muro de la memoria. Arquitecturas modernas paralelas, como la computación (HPC) de alto rendimiento y soluciones manycore, crear aún más presión sobre sus sistemas de memoria. No es trivial para estimar los requisitos de memoria que estos sistemas tendrán en el futuro, y si la tecnología DRAM sería capaz de cumplir con ellas, o que tendría que buscar una solución de memoria novela. En esta tesis se intenta dar una idea de los más importantes retos tecnológicos que los sistemas de memoria futuras deben abordar, con el fin de satisfacer las necesidades cada vez mayores de los usuarios y sus aplicaciones, en Manycore y HPC contexto. Intentamos describir las limitaciones de memoria DRAM, como la tecnología dominante en los sistemas de memoria principal de hoy en día, que pueden impedir el rendimiento o el aumento de los costos de los sistemas futuros. Se discuten algunas de las tecnologías de memoria emergentes, y comparándolos con DRAM, tratamos de estimar su uso potencial en sistemas de memoria futuras. La tesis evalúa los requisitos de las aplicaciones científicas manycore, en términos de ancho de banda de memoria y huella, y estima cómo estos requisitos pueden cambiar en el futuro. Con esta evaulation en mente, proponemos una solución de memoria híbrida que emplea DRAM y PCM, así como varias políticas de colocación de la página y la página de la migración, para cerrar la brecha entre la DRAM rápido y pequeño y más grande pero la memoria más lenta no volátil. Como las evaluaciones mencionadas necesarias soluciones de software personalizadas, se presentan las herramientas que hemos producido en el transcurso de esta tesis doctoral, que se siguen utilizando en el grupo heterogéneo de computadoras Arquitecturas en Barcelona Supercomputing Center. En primer lugar, Limpio - un marco MPI Instrumentación ligero, que proporciona una interfaz para la instrumentación de baja sobrecarga y perfilado de aplicaciones MPI con rutinas definidas por el usuario. En segundo lugar, MemTraceMPI, una herramienta Valgrind, utilizado para producir los rastros de acceso a memoria de aplicaciones MPI, con varios conceptos innovadores incluido (filtro-cache, trazado iteración, archivos de seguimiento comprimido).
|
160 |
Identifying and combating cyber-threats in the field of online bankingAguilà Vilà, Jordi 18 February 2016 (has links)
This thesis has been carried out in the industrial environment external to the University, as an industrial PhD. The results of this PhD have been tested, validated, and implemented in the production environment of Caixabank and have been used as models for others who have followed the same ideas.
The most burning threats against banks throughout the Internet environment are based on software tools developed by criminal groups, applications running on web environment either on the computer of the victim (Malware) or on their mobile device itself through downloading rogue applications (fake app's with Malware APP).
Method of the thesis has been used is an approximation of qualitative exploratory research on the problem, the answer to this problem and the use of preventive methods to this problem like used authentication systems.
This method is based on samples, events, surveys, laboratory tests, experiments, proof of concept; ultimately actual data that has been able to deduce the thesis proposal, using both laboratory research and grounded theory methods of data pilot experiments conducted in real environments.
I've been researching the various aspects related to e-crime following a line of research focusing on intrinsically related topics:
- The methods, means and systems of attack: Malware, Malware families of banker Trojans, Malware cases of use, Zeus as case of use.
- The fixed platforms, mobile applications and as a means for malware attacks.
- forensic methods to analyze the malware and infrastructure attacks.
- Continuous improvement of methods of authentication of customers and users as a first line of defense anti- malware.
- Using biometrics as innovative factor authentication.The line investigating Malware and attack systems intrinsically is closed related to authentication methods and systems to infect customer (executables, APP's, etc.), because the main purpose of malware is precisely steal data entered in the "logon "authentication system, to operate and thus, fraudulently, steal money from online banking customers.
Experiments in the Malware allowed establishing a new method of decryption establishing guidelines to combat its effects describing his fraudulent scheme and operation infection.
I propose a general methodology to break the encryption communications malware (keystream), extracting the system used to encrypt such communications and a general approach of the Keystream technique.
We show that this methodology can be used to respond to the threat of Zeus and finally provide lessons learned highlighting some general principles of Malware (in general) and in particular proposing Zeus Cronus, an IDS that specifically seeks the Zeus malware, testing it experimentally in a network production and providing an effective skills to combat the Malware are discussed.
The thesis is a research interrelated progressive evolution between malware infection systems and authentication methods, reflected in the research work cumulatively, showing an evolution of research output and looking for a progressive improvement of methods authentication and recommendations for prevention and preventing infections, a review of the main app stores for mobile financial services and a proposal to these stores.
The most common methods eIDAMS (authentication methods and electronic identification) implemented in Europe and its robustness are analyzed. An analysis of adequacy is presented in terms of efficiency, usability, costs, types of operations and segments including possibilities of use as authentication method with biometrics as innovation. / Este trabajo de tesis se ha realizado en el entorno industrial externo a la Universidad como un PhD industrial Los resultados de este PhD han sido testeados, validados, e implementados en el entorno de producción de Caixabank y han sido utilizados como modelos por otras que han seguido las mismas ideas. Las amenazas más candentes contra los bancos en todo el entorno Internet, se basan en herramientas software desarrolladas por los grupos delincuentes, aplicaciones que se ejecutan tanto en entornos web ya sea en el propio ordenador de la víctima (Malware) o en sus dispositivos móviles mediante la descarga de falsas aplicaciones (APP falsa con Malware). Como método se ha utilizado una aproximación de investigación exploratoria cualitativa sobre el problema, la respuesta a este problema y el uso de métodos preventivos a este problema a través de la autenticación. Este método se ha basado en muestras, hechos, encuestas, pruebas de laboratorio, experimentos, pruebas de concepto; en definitiva datos reales de los que se ha podido deducir la tesis propuesta, utilizando tanto investigación de laboratorio como métodos de teoría fundamentada en datos de experimentos pilotos realizados en entornos reales. He estado investigando los diversos aspectos relacionados con e-crime siguiendo una línea de investigación focalizada en temas intrínsecamente relacionadas: - Los métodos, medios y sistemas de ataque: Malware, familias de Malware de troyanos bancarios, casos de usos de Malware, Zeus como caso de uso. - Las plataformas fijas, los móviles y sus aplicaciones como medio para realizar los ataques de Malware. - Métodos forenses para analizar el Malware y su infraestructura de ataque. - Mejora continuada de los métodos de autenticación de los clientes y usuarios como primera barrera de defensa anti- malware. - Uso de la biometría como factor de autenticación innovador. La línea investiga el Malware y sus sistemas de ataque intrínsecamente relacionada con los métodos de autenticación y los sistemas para infectar al cliente (ejecutables, APP's, etc.) porque el objetivo principal del malware es robar precisamente los datos que se introducen en el "logon" del sistema de autenticación para operar de forma fraudulenta y sustraer así el dinero de los clientes de banca electrónica. Los experimentos realizados en el Malware permitieron establecer un método novedoso de descifrado que estableció pautas para combatir sus efectos fraudulentos describiendo su esquema de infección y funcionamiento Propongo una metodología general para romper el cifrado de comunicaciones del malware (keystream) extrayendo el sistema utilizado para cifrar dichas comunicaciones y una generalización de la técnica de Keystream. Se demuestra que esta metodología puede usarse para responder a la amenaza de Zeus y finalmente proveemos lecciones aprendidas resaltando algunos principios generales del Malware (en general) y Zeus en particular proponiendo Cronus, un IDS que persigue específicamente el Malware Zeus, probándolo experimentalmente en una red de producción y se discuten sus habilidades y efectividad. En la tesis hay una evolución investigativa progresiva interrelacionada entre el Malware, sistemas de infección y los métodos de autenticación, que se refleja en los trabajos de investigación de manera acumulativa, mostrando una evolución del output de investigación y buscando una mejora progresiva de los métodos de autenticación y de la prevención y recomendaciones para evitar las infecciones, una revisión de las principales tiendas de Apps para servicios financieros para móviles y una propuesta para estas tiendas. Se analizan los métodos más comunes eIDAMS (Métodos de Autenticación e Identificación electrónica) implementados en Europa y su robustez y presentamos un análisis de adecuación en función de eficiencia, usabilidad, costes, tipos de operación y segmentos incluyendo un análisis de posibilidades con métodos biométricos como innovación.
|
Page generated in 0.2042 seconds