• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3014
  • 105
  • 2
  • Tagged with
  • 3122
  • 3122
  • 2809
  • 2809
  • 2809
  • 1921
  • 981
  • 550
  • 477
  • 466
  • 416
  • 400
  • 400
  • 368
  • 366
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

QPPOA : framework para qualifica??o do processo de produ??o de objetos de aprendizagem / QPPOA : a framework for qualification of the process of learning objects production

Guterres, Jo?o Pedro Dewes 08 March 2017 (has links)
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-06-29T13:41:09Z No. of bitstreams: 1 DIS_JOAO_PEDRO_DEWES_GUTERRES_COMPLETO.pdf: 2705657 bytes, checksum: 78e3e0209e2f1af3b1e4d3cdc87b84a3 (MD5) / Made available in DSpace on 2017-06-29T13:41:09Z (GMT). No. of bitstreams: 1 DIS_JOAO_PEDRO_DEWES_GUTERRES_COMPLETO.pdf: 2705657 bytes, checksum: 78e3e0209e2f1af3b1e4d3cdc87b84a3 (MD5) Previous issue date: 2017-03-08 / The production of learning objects allied the areas of technology and education, being a key factor to bring new possibilities of learning. Due to the increase in computational resources, the production of this type of educational material grew and began to incorporate practices of software production in general, highlighting some peculiarities due to the educational objectives proposed in the objects. Thereat, the introduction of Software Engineering practices is increasingly present in the production of learning objects, and, as in software production, the qualification of this production process has become a necessity. In software production, a consolidated solution for production qualification is in the evaluation frameworks, such as CMMI and MPS.BR. In order to think this type of solution for the production of learning objects, this research presents a framework to support the reflection on the practices performed by the centers of production of learning objects. This framework is a result of the triangulation of pertinent practices related to the theme obtained from a literature review (including a systematic review and systematic mapping) and from interviews with members of nine Brazilian learning object centers. As a result obtained after the analysis of adherence of the practices by the centers, stands out its capacity to promote the reflection of the production process, as well as well as to encourage them to carry out new practices. / A produ??o de objetos de aprendizagem aliou as ?reas da tecnologia e da educa??o, sendo um fator chave para trazer novas possibilidades de aprendizagem. Devido ao aumento dos recursos computacionais, a produ??o desse tipo de material educacional cresceu e passou a incorporar pr?ticas da produ??o de software em geral, destacando-se algumas peculiaridades por conta dos objetivos educacionais propostos nos objetos. Com isso, a introdu??o de pr?ticas de Engenharia de Software est? cada vez mais presente na produ??o dos objetos de aprendizagem, e, assim como na produ??o de software, a qualifica??o deste processo de produ??o se tornou uma necessidade. Na produ??o de software, uma solu??o consolidada para qualifica??o da produ??o est? nos frameworks de avalia??o, como o CMMI e MPS.BR. De modo a pensar esse tipo de solu??o para a produ??o de objetos de aprendizagem, esta pesquisa apresenta um framework para apoiar a reflex?o sobre as pr?ticas realizadas pelos centros de produ??o de objetos de aprendizagem. Esse framework ? resultado da triangula??o de pr?ticas pertinentes relacionadas ao tema obtidas a partir de uma revis?o de literatura (incluindo uma revis?o e um mapeamento sistem?tico), de observa??es do pesquisador e de entrevistas com integrantes de nove centros brasileiros de produ??o de objetos de aprendizagem. Como resultado obtido ap?s a an?lise de ader?ncia das pr?ticas pelos centros, destaca-se a capacidade de promover a reflex?o do processo de produ??o e das pr?ticas dos centros de produ??o de objetos de aprendizagem, bem como de incentiv?-los ? realiza??o de novas pr?ticas.
122

Identification of autism disorder through functional MRI and deep learning

Heinsfeld, Anibal S?lon 28 March 2016 (has links)
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-06-30T17:22:52Z No. of bitstreams: 1 DIS_ANIBAL_SOLON_HEINSFELD_COMPLETO.pdf: 12807619 bytes, checksum: d11b60094a8bde0d839a6f7a23bbb56c (MD5) / Made available in DSpace on 2017-06-30T17:22:52Z (GMT). No. of bitstreams: 1 DIS_ANIBAL_SOLON_HEINSFELD_COMPLETO.pdf: 12807619 bytes, checksum: d11b60094a8bde0d839a6f7a23bbb56c (MD5) Previous issue date: 2016-03-28 / O Espectro Autista (EA) compreende uma s?rie de desordens no desenvolvimento neurol?gico, caracterizado por defici?ncias sociais e dificuldades de comunica??o, comportamentos repetitivos e atrasos cognitivos. Atualmente, o diagn?stico do EA ? amplamente baseado em medi??es comportamentais, que pode ser demorado, e depende da coopera??o do paciente e da experi?ncia do examinador. Para mitigar esta limita??o, investigamos padr?es neurais que ajudem no diagn?stico de desordens do EA. Nesta disserta??o, usamos t?cnicas de deep learning, a fim de extrair caracter?sticas robustas de neuroimagens de pacientes com autismo. Neuroimagens cont?m cerca de 300.000 pontos espaciais, com aproximadamente 200 medi??es cada. As t?cnicas de deep learning s?o ?teis para extrair caracter?sticas relevantes que diferenciam autistas de n?o-autistas. Ao utilizar denoising autoencoders, uma t?cnica de deep learning espec?fica que visa reduzir a dimensionalidade dos dados, n?s superamos o estado da arte, atingindo 69% de acur?cia, comparado com o melhor resultado encontrado na literatura, com 60% de acur?cia. / Autism Spectrum Disorders (ASD) comprise a range of neurodevelopmental disorders, characterized by social deficits and communication difficulties, repetitive behaviors, and cognitive delays. The diagnosis of ASD is largely based on behavioral measurements, which can be timeconsuming and relies on the patient cooperation and examiner expertise. In order to address this limitation, we aim to investigate neural patterns to help in the diagnosis of ASD. In this dissertation, we use deep learning techniques to extract robust characteristics from neuroimages of autistic subject brain function. Since neuroimage contains about 300,000 spatial points, with approximately 200 temporal measurements each, deep learning techniques are useful in order to extract important features to discriminate ASD subjects from non-ASD. By using denoising autoencoders, a specific deep learning technique that aims to reduce data dimensionality, we surpass the state-of-the-art by achieving 69% of accuracy, compared to 60% using the same dataset.
123

Espa?os conceituais : uma proposta de uso de representa??es conceituais aplicada a sistemas multiagentes / Conceptual spaces : a proposal for use of conceptual representatios applied to multiagent systems

Brezolin, Jo?o M?rio Lopes 15 March 2017 (has links)
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-06-30T18:24:08Z No. of bitstreams: 1 TES_JOAO_MARIO_LOPES_BREZOLIN_COMPLETO.pdf: 6143939 bytes, checksum: 1a0972ea0dfb3d652f4b28273cc15d43 (MD5) / Made available in DSpace on 2017-06-30T18:24:08Z (GMT). No. of bitstreams: 1 TES_JOAO_MARIO_LOPES_BREZOLIN_COMPLETO.pdf: 6143939 bytes, checksum: 1a0972ea0dfb3d652f4b28273cc15d43 (MD5) Previous issue date: 2017-03-15 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / The BDI architecture is the preferred approach for the development of agents situated in complex dynamic environments. The BDI architecture, which is founded on the symbolic model, represents a consolidated model that counts upon substantial theoretical-practical contributions. However, according to G?rdenfors, despite its strengths, there are some aspects of the cognitive phenomena which give rise to the need of a conceptual model that has to establish itself between the perceptual and the symbolic levels. Taking into account the principle that recognition of objects can be set as a process of concept formation, this thesis comprises the design and implementation of a knowledge representation model for BDI agents based on the assumptions of the paradigm of conceptual spaces. In this sense, the actual approach seeks to establish the necessary mechanisms for the development of this model through the use of the Jason platform and the programming language CSML. From the issues which are inherent to the development of an application directed to the aid of visually impaired people, this thesis aims to evaluate the implications of the building processes of the conceptual inference model for BDI agents. / A arquitetura BDI ? a estrat?gia preferencial no que tange ao desenvolvimento de agentes situados em ambientes complexos e din?micos. Alicer?ada no modelo simb?lico, a arquitetura BDI representa um modelo consolidado que conta com um substancial aporte pr?tico-te?rico. Entretanto, conforme assinala G?rdenfors, apesar da robustez desse modelo, h? aspectos do fen?meno cognitivo que suscitam a necessidade de um modelo conceitual que estabelece-se entre os n?veis simb?lico e perceptual. Partindo do princ?pio de que o reconhecimento de objetos pode ser assinalado como um processo de forma??o de conceitos, esta tese abrange a concep??o e a implementa??o de um modelo de representa??o do conhecimento para agentes BDI com base nos pressupostos do paradigma dos espa?os conceituais. Nesse sentido, esta abordagem busca estabelecer atrav?s da plataforma Jason e da linguagem de programa??o CSML os mecanismos necess?rios para o desenvolvimento desse modelo. A partir da problem?tica inerente ao desenvolvimento de uma aplica??o voltada ao aux?lio de pessoas cegas, esta proposta busca avaliar as implica??es do processo de constru??o do modelo de infer?ncia conceitual para agentes BDI.
124

Gera??o procedural de ambientes virtuais sem?nticos / Procedural generation of semantic virtual environments

Marson, Fernando Pinho 29 August 2012 (has links)
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-06-30T18:42:52Z No. of bitstreams: 1 TES_FERNANDO_PINHO_MARSON_COMPLETO.pdf: 2230276 bytes, checksum: d3c096fc249a7901be303718ecb561ba (MD5) / Made available in DSpace on 2017-06-30T18:42:52Z (GMT). No. of bitstreams: 1 TES_FERNANDO_PINHO_MARSON_COMPLETO.pdf: 2230276 bytes, checksum: d3c096fc249a7901be303718ecb561ba (MD5) Previous issue date: 2012-08-29 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / Conselho Nacional de Pesquisa e Desenvolvimento Cient?fico e Tecnol?gico - CNPq / This work describes a computational model to generate semantic virtual environments procedurally, which can be used in games and behavioral simulations of crowds and groups of autonomous virtual agents. The process of creating environments, starts with a set of semantic information provided by the user. Such information are based on an abstract mental model, which describes relationships among the spaces that should be created. The proposed approach works in two different ways: building residential environments (i.e. houses and apartments) and also large environments. Large environments can be understood as complex virtual buildings, e.g., shopping malls, airports or train stations. For each type of environment is used a distinct method, more suitable to treat the specific environmental issues. After subdivide all spaces, the flow turns to become one again. As output we have geometry files and semantic description files that can be used in different applications as games and behavioral crowd simulations. / Este trabalho descreve um modelo computacional para a gera??o procedural de ambientes virtuais sem?nticos, os quais podem ser utilizados em jogos e na realiza??o de simula??es comportamentais com grupos e multid?es de agentes virtuais aut?nomos. O processo de cria??o dos ambientes se d? a partir de informa??es sem?nticas fornecidas pelo usu?rio que tem como base um modelo mental abstrato. Este modelo mental serve como ponto de partida para a especifica??o das rela??es existentes entre os diversos espa?os que devem ser criados no ambiente virtual. O modelo computacional proposto trabalha em duas linhas distintas: cria??o de ambientes residenciais (casas e apartamentos) e gera??o de ambientes amplos. Ambientes virtuais amplos podem ser entendidos como constru??es virtuais mais complexas, como shopping centers, aeroportos e galerias comerciais. Para cada um dos tipos de ambiente ? utilizado um m?todo distinto, melhor adequado para tratar os problemas existentes em cada situa??o. Ap?s a realiza??o das subdivis?es dos espa?os, a sequ?ncia de etapas volta a confluir, mantendo uma arquitetura ?nica para a gera??o do ambiente virtual. Como sa?da s?o obtidos arquivos de geometria e de descri??o sem?ntica que podem ser utilizadas em diferentes aplica??es nas ?reas de jogos, computa??o gr?fica e de simula??o.
125

Elimina??o segura de arquivos em mem?ria n?o-vol?til / Secure file deletion in non volatile memory

Weber, Julia Silva 21 March 2017 (has links)
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-06-30T18:43:22Z No. of bitstreams: 1 DIS_JULIA_SILVA_WEBER_COMPLETO.pdf: 1157200 bytes, checksum: 9480342a98027ac78d6f2fd1c5eb50d7 (MD5) / Made available in DSpace on 2017-06-30T18:43:22Z (GMT). No. of bitstreams: 1 DIS_JULIA_SILVA_WEBER_COMPLETO.pdf: 1157200 bytes, checksum: 9480342a98027ac78d6f2fd1c5eb50d7 (MD5) Previous issue date: 2017-03-21 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / The advent of the Internet of Things (IoT) and the popularization of mobile devices with non-volatile memory brings new challenges regarding the removal of files. Techniques traditionally employed in magnetic media are not effective when applied to non-volatile memories, such as flash memory. Because of the peculiar characteristics of this type of memory, notably the existence of a Flash Translation Layer (FTL), operating systems only manage logical blocks, and no longer have direct control of the physical blocks of a flash memory. Consequently, new methods of safe removal have been developed, which employ Zero Override, Block Erase, and Cryptographic Erase techniques. This work analyzes these methods, compares their operations and proposes a new method, with better performance than those described in the literature. The proposed method is a hybrid method, which combines overwriting and deletion operations to obtain a balanced use of these operations, avoid unnecessary deletion of unused blocks and reduce premature memory wear. To verify the efficiency of the proposed method and of the other methods, a simulator was developed to exercise the removal of files in several experiments. / O advento da Internet das Coisas (IoT) e a populariza??o de dispositivos m?veis com mem?ria n?o-vol?til traz novos desafios quanto a remo??o de arquivos. T?cnicas tradicionalmente empregadas em meios magn?ticos n?o s?o efetivas quando aplicadas para mem?rias n?o vol?teis, como a mem?ria flash. Devido ?s caracter?sticas peculiares deste tipo de mem?ria, notadamente a exist?ncia de uma Camada de Tradu??o da Flash (FTL), sistemas operacionais somente gerenciam blocos l?gicos, e n?o tem mais controle direto dos blocos f?sicos de uma mem?ria flash. Consequentemente, novos m?todos de remo??o segura foram desenvolvidos, que empregam opera??es de Sobrescrita com Zeros, de Apagamento de Blocos e t?cnicas de Apagamento Criptogr?fico. Este trabalho analisa estes m?todos, compara suas opera??es e prop?e um novo m?todo, com melhor desempenho que os descritos na literatura. O m?todo proposto ? um m?todo h?brido, que combina de forma equilibrada opera??es de sobrescrita e apagamento, para evitar o apagamento desnecess?rio de blocos ainda n?o utilizados e reduzir o desgaste prematuro da mem?ria. Para verificar a efici?ncia do m?todo proposto e dos demais m?todos, foi desenvolvido um simulador para exercitar a remo??o de arquivos em diversos experimentos.
126

Fog e edge computing : uma arquitetura h?brida em um ambiente de internet das coisas

Schenfeld, Matheus Crespi 23 March 2017 (has links)
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-11-14T10:44:09Z No. of bitstreams: 1 DIS_MATHEUS_CRESPI_SCHENFELD_COMPLETO.pdf: 6989470 bytes, checksum: 4a16f12e8953d43da2cb18cc63c6119a (MD5) / Approved for entry into archive by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-11-14T10:44:28Z (GMT) No. of bitstreams: 1 DIS_MATHEUS_CRESPI_SCHENFELD_COMPLETO.pdf: 6989470 bytes, checksum: 4a16f12e8953d43da2cb18cc63c6119a (MD5) / Made available in DSpace on 2017-11-14T10:44:39Z (GMT). No. of bitstreams: 1 DIS_MATHEUS_CRESPI_SCHENFELD_COMPLETO.pdf: 6989470 bytes, checksum: 4a16f12e8953d43da2cb18cc63c6119a (MD5) Previous issue date: 2017-03-23 / Internet of Things (IoT) is considered a computational evolution that advocates the existence of a large number of physical objects embedded with sensors and actuators, connected by wireless networks and communicating through the Internet. From the beginning of the concept to the present day, IoT is widely used in the various sectors of industry and also in academia. One of the needs encountered in these areas was to be connected to IoT devices or subsystems throughout the world. Thus, cloud computing gains space in these scenarios where there is a need to be connected and communicating with a middleware to perform the data processing of the devices. The concept of cloud computing refers to the use of memory, storage and processing of shared resources, interconnected by the Internet. However, IoT applications sensitive to communication latency, such as medical emergency applications, military applications, critical security applications, among others, are not feasible with the use of cloud computing, since for the execution of all calculations and actions messaging between devices and the cloud is required. Solving this limitation found in the use of cloud computing, the concept of fog computing arises and whose main idea is to create a federated processing layer, still in the local network of the computing devices of the ends of the network. In addition to fog computing, there is also edge computing operating directly on the devices layer, performing some kind of processing, even with little computational complexity, in order to further decrease the volume of communication, besides collaborating to provide autonomy in decision making yet in the Things layer. A major challenge for both fog and edge computing within the IoT scenario is the definition of a system architecture that can be used in different application domains, such as health, smart cities and others. This work presents a system architecture for IoT devices capable of enabling data processing in the devices themselves or the closest to them, creating the edge computing layer and fog computing layer that can be applied in different domains, improving Quality of Services (QoS) and autonomy in decision making, even if the devices are temporarily disconnected from the network (offline). The validation of this architecture was done within two application scenarios, one of public lighting in smart city environment and another simulating an intelligent agricultural greenhouse. The main objectives of the tests were to verify if the use of the concepts of edge and fog computing improve system efficiency compared to traditional IoT architectures. The tests revealed satisfactory results, improving connection times, processing and delivery of information to applications, reducing the volume of communication between devices and core middleware, and improving communications security. It also presents a review of related work in both academia and industry. / Internet das Coisas (IoT) ? considerada uma evolu??o computacional que preconiza a exist?ncia de uma grande quantidade de objetos f?sicos embarcados com sensores e atuadores, conectados por redes sem fio e que se comunicam atrav?s da Internet. Desde o surgimento do conceito at? os dias atuais, a IoT ? amplamente utilizada nos diversos setores da ind?stria e tamb?m no meio acad?mico. Uma das necessidades encontradas nessas ?reas foi a de estar conectado com dispositivos ou subsistemas de IoT espalhados por todo o mundo. Assim, cloud computing ganha espa?o nesses cen?rios, onde existe a necessidade de estar conectado e se comunicando com um middleware para realizar o processamento dos dados dos dispositivos. O conceito de cloud computing refere-se ao uso de mem?ria, armazenamento e processamento de recursos compartilhados, interligados pela Internet. No entanto, aplica??es IoT sens?veis ? lat?ncia de comunica??o, tais como, aplica??es m?dico-emergenciais, aplica??es militares, aplica??es de seguran?a cr?tica, entre outras, s?o invi?veis com o uso de cloud computing, visto que para a execu??o de todos os c?lculos e a??es ? necess?ria a troca de mensagens entre dispositivos e nuvem. Solucionando essa limita??o encontrada na utiliza??o de cloud computing, surge o conceito de fog computing, cuja ideia principal ? criar uma camada federada de processamento ainda na rede local dos dispositivos de computa??o das extremidades da rede. Al?m de fog computing tamb?m surge edge computing operando diretamente na camada dos dispositivos, realizando algum tipo de processamento, mesmo que de pouca complexidade computacional, a fim de diminuir ainda mais o volume de comunica??o, al?m de colaborar para prover autonomia na tomada de decis?es ainda na camada das coisas. Um grande desafio tanto para fog quanto para edge computing dentro do cen?rio de IoT ? a defini??o de uma arquitetura de sistema que possa ser usada em diferentes dom?nios de aplica??o, como sa?de, cidades inteligentes entre outros. Esse trabalho apresenta uma arquitetura de sistema para dispositivos IoT capaz de habilitar o processamento de dados nos pr?prios dispositivos ou o mais pr?ximo deles, criando a camada de edge e fog computing que podem ser aplicadas em diferentes dom?nios, melhorando a Qualidade dos Servi?os (QoS) e autonomia na tomada de decis?o, mesmo se os dispositivos estiverem temporariamente desconectados da rede (offline). A valida??o dessa arquitetura foi feita dentro de dois cen?rios de aplica??o, um de ilumina??o p?blica em ambiente de IoT e outro simulando uma estufa agr?cola inteligente. Os principais objetivos das execu??es dos testes foram verificar se a utiliza??o dos conceitos de edge e fog computing melhoram a efici?ncia do sistema em compara??o com arquiteturas tradicionais de IoT. Os testes revelaram resultados satisfat?rios, melhorando os tempos de conex?o, processamento e entrega das informa??es ?s aplica??es, redu??o do volume de comunica??o entre dispositivos e core middleware, al?m de melhorar a seguran?a nas comunica??es. Tamb?m ? apresentada uma revis?o de trabalhos relacionados tanto no meio acad?mico como no da ind?stria.
127

Self-adaptive QOS at communication and computation levels for many-core system-on-chip

Ruaro, Marcelo 16 March 2018 (has links)
Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-04-03T14:37:48Z No. of bitstreams: 1 MARCELO_RUARO_TES.pdf: 4683751 bytes, checksum: 6eb242e44efbbffa6fa556ea81cdeace (MD5) / Approved for entry into archive by Tatiana Lopes (tatiana.lopes@pucrs.br) on 2018-04-13T17:30:40Z (GMT) No. of bitstreams: 1 MARCELO_RUARO_TES.pdf: 4683751 bytes, checksum: 6eb242e44efbbffa6fa556ea81cdeace (MD5) / Made available in DSpace on 2018-04-13T17:37:13Z (GMT). No. of bitstreams: 1 MARCELO_RUARO_TES.pdf: 4683751 bytes, checksum: 6eb242e44efbbffa6fa556ea81cdeace (MD5) Previous issue date: 2018-03-16 / Sistemas multi-n?cleos intra-chip s?o o estado-da-arte em termos de poder computacional, alcan?ando de d?zias a milhares de elementos de processamentos (PE) em um ?nico circuito integrado. Sistemas multi-n?cleos de prop?sito geral assumem uma admiss?o din?mica de aplica??es, onde o conjunto de aplica??es n?o ? conhecido em tempo de projeto e as aplica??es podem iniciar sua execu??o a qualquer momento. Algumas aplica??es podem ter requisitos de tempo real, requisitando n?veis de qualidade de servi?o (QoS) do sistema. Devido ao alto grau de imprevisibilidade do uso dos recursos e o grande n?mero de componentes para se gerenciar, propriedades autoadaptativas tornam-se fundamentais para dar suporte a QoS em tempo de execu??o. A literatura fornece diversas propostas de QoS autoadaptativo, focado em recursos de comunica??o (ex., redes intra-chip), ou computa??o (ex., CPU). Contudo, para fornecer um suporte de QoS completo, ? fundamental uma autoconsci?ncia abrangente dos recursos do sistema, e assumir t?cnicas adaptativas que permitem agir em ambos os n?veis de comunica??o e computa??o para atender os requisitos das aplica??es. Para suprir essas demandas, essa Tese prop?e uma infraestrutura e t?cnicas de gerenciamento de QoS autoadaptativo, cobrindo ambos os n?veis de computa??o e comunica??o. No n?vel de computa??o, a infraestrutura para QoS consiste em um escalonador din?mico de tarefas de tempo real e um protocolo de migra??o de tarefas de baixo custo. Estas t?cnicas fornecem QoS de computa??o, devido ao gerenciamento da utiliza??o e aloca??o da CPU. A novidade do escalonador de tarefas ? o suporte a requisitos de tempo real din?micos, o que gera mais flexibilidade para as tarefas em explorar a CPU de acordo com uma carga de trabalho vari?vel. A novidade do protocolo de migra??o de tarefas ? o baixo custo no tempo de execu??o comparado a trabalhos do estado-da-arte. No n?vel de comunica??o, a t?cnica proposta ? um chaveamento por circuito (CS) baseado em redes definidas por software (SDN). O paradigma SDN para NoCs ? uma inova??o desta Tese, e ? alcan?ado atrav?s de uma arquitetura gen?rica de software e hardware. Para QoS de comunica??o, SDN ? usado para definir caminhos CS em tempo de execu??o. Essas infraestruturas de QoS s?o gerenciadas de uma forma integrada por um gerenciamento de QoS autoadaptativo, o qual segue o paradigma ODA (Observar, Decidir, Agir), implementando um la?o fechado de adapta??es em tempo de execu??o. O gerenciamento de QoS ? autoconsciente dos recursos do sistema e das aplica??es em execu??o, e pode decidir por adapta??es no n?vel de computa??o ou comunica??o, baseado em notifica??es das tarefas, monitoramento do ambiente, e monitoramento de atendimento de QoS. A autoadapta??o decide reativamente assim como proativamente. Uma t?cnica de aprendizagem do perfil das aplica??es ? proposta para tra?ar o comportamento das tarefas de tempo real, possibilitando a??es proativas. Resultados gerais mostram que o gerenciamento de QoS autoadaptativo proposto pode restaurar os n?veis de QoS para as aplica??es com um baixo custo no tempo de execu??o das aplica??es. Uma avalia??o abrangente, assumindo diversos benchmarks mostra que, mesmo sob diversas interfer?ncias de QoS nos n?veis de computa??o e comunica??o, o tempo de execu??o das aplica??es ? restaurado pr?ximo ao cen?rio ?timo, como 99,5% das viola??es de deadlines mitigadas. / Many-core systems-on-chip are the state-of-the-art in processing power, reaching from a dozen to thousands of processing elements (PE) in a single integrated circuit. General purpose many-cores assume a dynamic application admission, where the application set is unknown at design-time and applications may start their execution at any moment, inducing interference between them. Some applications may have real-time constraints to fulfill, requiring levels of quality of service (QoS) from the system. Due to the high degree of resource?s utilization unpredictability and the number of components to manage, self-adaptive properties become fundamental to support QoS at run-time. The literature provides several self-adaptive QoS proposals, targeting either communication (e.g., Network-on-Chip) or computation resources (e.g., CPU). However, to offer a complete QoS support, it is fundamental to provide a comprehensive self-awareness of the system?s resources, assuming adaptive techniques enabling to act simultaneously at the communication and computation levels to meet the applications' constraints. To cope with these requirements, this Thesis proposes a self-adaptive QoS infrastructure and management techniques, covering both the computation and communication levels. At the computation level, the QoS-driven infrastructure comprises a dynamic real-time task scheduler and a low overhead task migration protocol. These techniques ensure computation QoS by managing the CPU utilization and allocation. The novelty of the task scheduler is the support for dynamic real time constraints, which leverage more flexibility to tasks to explore the CPU according to a variable workload. The novelty of the task migration protocol is its low execution time overhead compared to the state-of-the-art. At the communication level, the proposed technique is a Circuit-Switching (CS) approach based on the Software Defined Networking (SDN) paradigm. The SDN paradigm for NoCs is an innovation of this Thesis and is achieved through a generic software and hardware architecture. For communication QoS, SDN is used to define CS paths at run-time. A self-adaptive QoS management following the ODA (Observe Decide Act) paradigm controls these QoS-driven infrastructures in an integrated way, implementing a closed loop for run time adaptations. The QoS management is self-aware of the system and running applications and can decide to take adaptations at computation or communication levels based on the task feedbacks, environment monitoring, and QoS fulfillment monitoring. The self-adaptation decides reactively as well as proactively. An online application profile learning technique is proposed to trace the behavior of the RT tasks and enabling the proactive actions. Results show that the proposed self-adaptive QoS management can restore the QoS level for the applications with a low overhead over the applications execution time. A broad evaluation, using known benchmarks, shows that even under severe QoS disturbances at computation and communication levels, the execution time of the application is restored near to the optimal scenario, mitigating 99.5% of deadline misses.
128

Otimizando a execu??o de aplica??es de banco de dados atrav?s de uma melhor aloca??o de recursos de disco em ambientes virtualizados

Fonseca, F?bio Miguel Blasak da 11 August 2017 (has links)
Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-04-10T19:11:33Z No. of bitstreams: 1 FABIO_MIGUEL_BLASAK_DA_FONSECA_DIS.pdf: 2321276 bytes, checksum: 333d6e8a8d369d82fe548927b2edaad3 (MD5) / Approved for entry into archive by Tatiana Lopes (tatiana.lopes@pucrs.br) on 2018-04-13T16:22:42Z (GMT) No. of bitstreams: 1 FABIO_MIGUEL_BLASAK_DA_FONSECA_DIS.pdf: 2321276 bytes, checksum: 333d6e8a8d369d82fe548927b2edaad3 (MD5) / Made available in DSpace on 2018-04-13T16:28:48Z (GMT). No. of bitstreams: 1 FABIO_MIGUEL_BLASAK_DA_FONSECA_DIS.pdf: 2321276 bytes, checksum: 333d6e8a8d369d82fe548927b2edaad3 (MD5) Previous issue date: 2017-08-11 / The growing need to extend IT (Information Technology) resources to meet business needs has raised concerns about how to increase capacity with lower cost and greater use of data center. Therefore, in order to avoid underutilization of infrastructure resources virtualization is a trend towards cost reduction and consolidation of the server infrastructure, thus taking advantage of existing assets. However, with virtualization growth, there is a problem related to resources concurrence in consolidated environments, where diskintensive applications such as databases can be impacted in this type of environment, if they do not have their resources managed properly, can generate performance degradation and increasing execution time respectively. In order to optimize performance and reduce I/O contention, Kassiano J.M. [19] presented a study on the acceleration of Hadoop applications through manual adjustment of disk resource allocation, showing that it is possible to get performance gains. Therefore, proposed work follows this line of study, however, with objective of optimizing the execution of database applications in virtualized environments with shared resources, applying a dynamic adjustment policy of disk resources allocation. It aims to distribute disk resources optimally through an algorithm, avoiding that one or more processes consume all disk resources, while others wait to be executed or are being executed without minimum of appropriate disk resources, thus, taking more time to complete their execution. In order to demonstrate this scenario, workloads of OLTP (Online Transaction Processing) and DW (Data Warehouse) databases have been evaluated using the Orion data load simulator [24] and real captured data from a loading test provided by a large IT company in partnership with PUCRS University (Pontifical Catholic University of Rio Grande do Sul), through the Oracle RAT (Real Application Testing) [25]. Laboratory tests have been performed using the following test scenarios: without adjustment of disk resources, with static adjustment of disk resources and through a dynamic adjustment policy of disk resources based on performance metrics. In this case, it can be observed that dynamic policy obtained the best result among the other test groups, generating a gain of 23% for OLTP database workloads, 21% for DW database workloads and 18% for environments with different types of workloads in concurrency like DW and OLTP. / A crescente necessidade de extens?o dos recursos de TI (Tecnologia da Informa??o) para atender as demandas do neg?cio, geraram uma preocupa??o de como aumentar a capacidade com menor custo e maior aproveitamento do data center. Portanto, a fim de evitar a subutiliza??o de recursos de infraestrutura a virtualiza??o ? uma tend?ncia para redu??o de custos e consolidar a infraestrutura de servidores, aproveitando assim os ativos existentes. Entretanto, com o crescimento da virtualiza??o, surge um problema relacionado a concorr?ncia por recursos em ambientes consolidados, onde aplica??es com uso intensivo de disco, como bancos de dados, podem ser impactados neste tipo de ambiente, caso n?o tenham os seus recursos gerenciados apropriadamente, podendo gerar degrada??o no desempenho e consequentemente aumentando o tempo de execu??o. A fim de otimizar performance e reduzir a conten??o de E/S (Entrada/Sa?da), Kassiano J. M. [19] apresentou um estudo sobre a acelera??o de aplica??es Hadoop atrav?s de ajuste manual na aloca??o de recursos de disco, mostrando que ? poss?vel obter ganhos de performance. Logo, o trabalho proposto, segue esta linha de estudo, entretanto, com o objetivo de otimizar a execu??o de aplica??es de banco de dados em ambientes virtualizados com recursos compartilhados, aplicando uma pol?tica de ajuste din?mico de aloca??o de recursos de disco, a qual visa acelerar ainda mais os ganhos de performance. Essa pol?tica tem por objetivo distribuir os recursos de disco de forma otimizada, conforme algoritmo aplicado, evitando que um ou mais processos consumam todos os recursos de disco, enquanto outros aguardam para serem executados ou executam com o m?nimo de recursos de disco apropriados, por isso, levando maior tempo para concluir o processamento. Para evidenciar esta situa??o, foram avaliados workloads de banco de dados do tipo OLTP (Online Transaction Processing) e DW (Data Warehouse), utilizando o simulador de cargas de dados Orion [24] e com dados reais capturados de um teste de carga cedidos por uma empresa de TI de grande porte, em parceria com a universidade PUCRS (Pontif?cia Universidade Cat?lica do Rio Grande do Sul), atrav?s do recurso Oracle RAT (Real Application Testing) [25]. Foram realizados testes em laborat?rio utilizando os seguintes cen?rios de teste: sem ajuste de recursos de disco, com ajuste est?tico de recursos de disco e atrav?s de uma pol?tica de ajuste din?mico de recursos de disco com base em m?tricas deperformance. A partir disso, pode-se observar que a pol?tica din?mica obteve o melhor resultado entre os demais grupos de teste, gerando um ganho de 23% para a execu??o de workloads de banco de dados OLTP, 21% para workloads de banco de dados DW e 18% durante a execu??o de ambientes com workloads de tipos diferentes em concorr?ncia, exemplo: DW e OLTP.
129

Resolu??o de correfer?ncia nominal usando sem?ntica em l?ngua portuguesa

Fonseca, Evandro Brasil 19 March 2018 (has links)
Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-06-19T11:37:24Z No. of bitstreams: 1 EVANDRO BRASIL FONSECA_TES.pdf: 1972824 bytes, checksum: 9fca0c499753cd9d2822c59040e826bf (MD5) / Approved for entry into archive by Sheila Dias (sheila.dias@pucrs.br) on 2018-06-26T14:40:39Z (GMT) No. of bitstreams: 1 EVANDRO BRASIL FONSECA_TES.pdf: 1972824 bytes, checksum: 9fca0c499753cd9d2822c59040e826bf (MD5) / Made available in DSpace on 2018-06-26T14:48:46Z (GMT). No. of bitstreams: 1 EVANDRO BRASIL FONSECA_TES.pdf: 1972824 bytes, checksum: 9fca0c499753cd9d2822c59040e826bf (MD5) Previous issue date: 2018-03-19 / Coreference Resolution task is challenging for Natural Language Processing, considering the required linguistic knowledge and the sophistication of language processing techniques involved. Even though it is a demanding task, a motivating factor in the study of this phenomenon is its usefulness. Basically, several Natural Language Processing tasks may benefit from their results, such as named entities recognition, relation extraction between named entities, summarization, sentiment analysis, among others. Coreference Resolution is a process that consists on identifying certain terms and expressions that refer to the same entity. For example, in the sentence ? France is refusing. The country is one of the first in the ranking... ? we can say that [the country] is a coreference of [France]. By grouping these referential terms, we form coreference groups, more commonly known as coreference chains. This thesis proposes a process for coreference resolution between noun phrases for Portuguese, focusing on the use of semantic knowledge. Our proposed approach is based on syntactic-semantic linguistic rules. That is, we combine different levels of linguistic processing, using semantic relations as support, in order to infer referential relations between mentions. Models based on linguistic rules have been efficiently applied in other languages, such as: English, Spanish and Galician. In few words, these models are more efficient than machine learning approaches when we deal with less resourceful languages, since the lack of sample-rich corpora may produce a poor training. The proposed approach is the first model for Portuguese coreference resolution which uses semantic knowledge. Thus, we consider it as the main contribution of this thesis. / A tarefa de Resolu??o de Correfer?ncia ? um grande desafio para a ?rea de Processamento da Linguagem Natural, tendo em vista o conhecimento lingu?stico exigido e a sofistica??o das t?cnicas de processamento da l?ngua empregados. Mesmo sendo uma tarefa desafiadora, um fator motivador do estudo deste fen?meno se d? pela sua utilidade. Basicamente, v?rias tarefas de Processamento da Linguagem Natural podem se beneficiar de seus resultados, como, por exemplo, o reconhecimento de entidades nomeadas, extra??o de rela??o entre entidades nomeadas, sumariza??o, an?lise de sentimentos, entre outras. A Resolu??o de Correfer?ncia ? um processo que consiste em identificar determinados termos e express?es que remetem a uma mesma entidade. Por exemplo, na senten?a ?A Fran?a est? resistindo. O pa?s ? um dos primeiros no ranking...? podemos dizer que [o pa?s] ? uma correfer?ncia de [A Fran?a]. Realizando o agrupamento desses termos referenciais, formamos grupos de men??es correferentes, mais conhecidos como cadeias de correfer?ncia. Esta tese prop?e um processo para a resolu??o de correfer?ncia entre sintagmas nominais para a l?ngua portuguesa, tendo como foco a utiliza??o do conhecimento sem?ntico. Nossa abordagem proposta ? baseada em regras lingu?sticas sint?tico-sem?nticas. Ou seja, combinamos diferentes n?veis de processamento lingu?stico utilizando rela??es sem?nticas como apoio, de forma a inferir rela??es referenciais entre men??es. Modelos baseados em regras lingu?sticas t?m sido aplicados eficientemente em outros idiomas como o ingl?s, o espanhol e o galego. Esses modelos mostram-se mais eficientes que os baseados em aprendizado de m?quina quando lidamos com idiomas menos providos de recursos, dado que a aus?ncia de corpora ricos em amostras pode prejudicar o treino desses modelos. O modelo proposto nesta tese ? o primeiro voltado para a resolu??o de correfer?ncia em portugu?s que faz uso de conhecimento sem?ntico. Dessa forma, tomamos este fator como a principal contribui??o deste trabalho.
130

GATOOL - Genome Assembly Tool: uma ferramenta web para montagem de genomas bacterianos

Oliveira, Matheus Brito de 12 June 2017 (has links)
Submitted by Ricardo Cedraz Duque Moliterno (ricardo.moliterno@uefs.br) on 2017-10-09T22:34:41Z No. of bitstreams: 1 MATHUES BRITO DE OLIVEIRA Disserta??ov.pdf: 5287293 bytes, checksum: 8d3e3b854b5799f16c0b61b6a5d33f1c (MD5) / Made available in DSpace on 2017-10-09T22:34:41Z (GMT). No. of bitstreams: 1 MATHUES BRITO DE OLIVEIRA Disserta??ov.pdf: 5287293 bytes, checksum: 8d3e3b854b5799f16c0b61b6a5d33f1c (MD5) Previous issue date: 2017-06-12 / The assembly of bacterial genomes consists of a process of reordering fragments so that the original genome can be represented. However, to maximize the results of genome assembly, some steps are required, for instance, read quality analysis and preprocessing, repetition identification and quality check. The process of assembly of genomes is a complex step that involves the type of sequencing that was used, there are several types of sequencers which imply different characteristics for each one for example: fragments size, throughput, among others. Analyzing these characteristics requires the use of several computational tools, to assist in all the processes mentioned above, and since the range of software available is quite broad and distinct, it is necessary for the user to learn to work with this computational diversity, dominating often knowledge that is not of the biological area, implying in less time for a deepening in biological questions. Based on this context, we developed a pipeline to perform an automated fragment analysis, read preprocessing, genome assembly and orientation of contigs, having as the assembly the main objective of the pipeline and that it will be managed by a Web application called GATOOL (Genome Assembly Tool). Aiming to evaluate the performance of the application, tests were carried out with two samples of prokaryotic organisms, which are: Bacillus amyloliquefaciens and Serratia marcescens. Also perform a test with seven SRA samples. Both organisms are sequenced on the Ion PGMTM platform. The tools used to perform the assembly were SPAdes and Velvet, both assemblers use de Bruijn graph algorithm as a paradigm for the assembly of the genome, after this stage the resulting set of contigs was ordered through the CONTIGuator, which is a reference ordering. We observed that the interface GATOOL allowed a quick and easy execution of several steps and processes in the field of genome assembly, including the assembly of two prokaryotic species in an automated way, thus facilitating the use and accomplishment of such processes by any user. / A montagem de genomas bacterianos ? um processo de reordena??o de fragmentos, de forma que se possa representar o genoma original. Entretanto, para que a montagem de um genoma seja realizada visando maximizar os resultados, ? preciso que algumas etapas sejam cumpridas, por exemplo: a an?lise dos fragmentos, o pr?-processamento destes fragmentos e novamente uma repeti??o do processo de an?lise, para verificar a efic?cia do pr?-processamento realizado. O processo de montagem de genomas ? uma etapa complexa, que envolve o tipo de sequenciamento que foi utilizado. Existem diversos tipos de sequenciadores, o que implica caracter?sticas distintas em cada um, como por exemplo: tamanho dos fragmentos, quantidade de fragmentos gerados por corrida, dentre outros. Analisando essas caracter?sticas, faz-se necess?ria a utiliza??o de diversas ferramentas computacionais para auxiliar a todos os processos citados anteriormente e, como a gama de softwares dispon?veis ? bem ampla e distinta, ? importante que o usu?rio domine essa diversidade computacional, contendo muitas vezes conhecimentos que n?o s?o da ?rea biol?gica, implicando menos tempo para um aprofundamento das quest?es biol?gicas. Com base neste contexto, prop?em-se um pipeline para a realiza??o da an?lise de fragmentos, pr?-processamento dos fragmentos, montagem de genomas e orienta??o de contigs, tendo como a montagem o objetivo principal do pipeline e este ser? gerenciado por uma aplica??o web chamada GATOOL (Genome Assembly Tool). Visando avaliar o desempenho da aplica??o, foram feitos testes com duas amostras de organismos procariontes, que s?o: Bacillus amyloliquefaciens e Serratia marcescens. Tamb?m foram realizados testes com sete amostras SRA. Ambos os organismos est?o sequenciados na plataforma Ion PGMTM. Os montadores usados foram o SPAdes e o Velvet, ambos montadores, utilizam o algor?tmo grafo de Bruijn como paradigma para a montagem do genoma; ap?s esta etapa, o conjunto de contigs resultante foi ordenado atrav?s do CONTIGuator, que ? uma ordena??o por refer?ncia. Observamos que a interface GATOOL permitiu uma execu??o r?pida e f?cil de diversas etapas e processos no campo da montagem de genomas, inclusive realizando a montagem de duas esp?cies procariontes de maneira automatizada, facilitando assim a utiliza??o e realiza??o de tais processos por qualquer usu?rio.

Page generated in 0.4154 seconds