• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 241
  • 2
  • Tagged with
  • 243
  • 243
  • 243
  • 243
  • 192
  • 191
  • 50
  • 46
  • 39
  • 34
  • 32
  • 32
  • 26
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Autoelastic: explorando a elasticidade de recursos de computação em nuvem para a execução de aplicações de alto desempenho iterativa

Rodrigues, Vinicius Facco 29 February 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-05-09T12:51:39Z No. of bitstreams: 1 Vinicius Facco Rodrigues_.pdf: 2415611 bytes, checksum: 1672419839adc1b3095f04e90badce93 (MD5) / Made available in DSpace on 2016-05-09T12:51:40Z (GMT). No. of bitstreams: 1 Vinicius Facco Rodrigues_.pdf: 2415611 bytes, checksum: 1672419839adc1b3095f04e90badce93 (MD5) Previous issue date: 2016-02-29 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / PROSUP - Programa de Suporte à Pós-Gradução de Instituições de Ensino Particulares / Elasticidade de recursos é uma das características chave da Computação em Nuvem. Através dessa funcionalidade, recursos computacionais podem ser adicionados ou removidos ao ambiente a qualquer momento, permitindo aplicações escalarem dinamicamente, evitando provisionamento excessivo ou restrito de recursos. Considerando a área de computação de alto desempenho, conhecida também como HPC (High Performance Computing), iniciativas baseadas em sacola-de-tarefas utilizam um balanceador de carga e instâncias de máquinas virtuais (VM) fracamente acopladas. Neste cenário, os processos desempenham papéis independentes, facilitando a adição e remoção de VM’s pois o balanceador de carga se encarrega de distribuir tarefas entre os processos das VM’s ativas. Entretanto, aplicações HPC iterativas se caracterizam por serem fortemente acopladas e terem dificuldade de obter vantagem da elasticidade pois, em tais aplicações, geralmente os processos são fixos durante todo o tempo de execução. Devido a isso, a simples adição de novos recursos não garante que os mesmos serão utilizados pelos processos da aplicação. Além disso, a remoção de processos pode comprometer a inteira execução da aplicação, pois cada processo desempenha um papel fundamental em seu ciclo de execução. Aplicações iterativas voltadas para HPC são comumente implementadas utilizando MPI (Message Passing Interface) e neste contexto, fazer o uso da elasticidade torna-se um desafio pois é necessária a reescrita do código fonte para o tratamento da reorganização de recursos. Tal estratégia muitas vezes requer um conhecimento prévio do comportamento da aplicação, sendo necessárias interrupções do fluxo de execução nos momentos de reorganização de recursos. Além disso, utilizando MPI 2.0, em que há a possibilidade da alteração da quantidade de processos em tempo de execução, existem problemas relacionados em como tirar proveito da elasticidade pois o desenvolvedor deve por si mesmo gerenciar a reorganização da topologia de comunicação. Ainda, consolidações repentinas de máquinas virtuais que executam processos da aplicação podem comprometer a sua execução. Focando nessas questões, propõe-se nessa dissertação um modelo de elasticidade baseado na camada PaaS (Platform as a Service) da nuvem, chamado AutoElastic. AutoElastic age como um middleware permitindo que aplicações HPC iterativas obtenham vantagem do provisionamento de recursos dinâmico de uma infraestrutura de nuvem sem a necessidade de modificações no código fonte. AutoElastic oferece a elasticidade de forma automática, não sendo necessária a configuração de regras por parte do usuário. O mecanismo de elasticidade conta com a utilização de threholds fixos além de oferecer uma nova abordagem em que eles se auto ajustam durante a execução da aplicação. Ainda, AutoElastic oferece também um novo conceit o nomeado como elasticidade assíncrona, o qual oferece um arcabouço para permitir que a execução de aplicações não seja bloqueada enquanto recursos são adicionados ou removidos do ambiente. A viabilidade de AutoElastic é demonstrada através de um protótipo que executa uma aplicação de integração numérica CPU-Bound sobre a plataforma de nuvem OpenNebula. Resultados com tal aplicação demonstraram ganhos de desempenho de 28,4% a 59% quando comparadas diferentes execuções elásticas e não elásticas. Além disso, testes com diferentes parametrizações de thresholds e diferentes cargas de trabalho demonstraram que no uso de thresholds fixos, o valor do threshold superior possui maior impacto que o inferior no desempenho e consumo de recursos por parte da aplicação. / Elasticity is one of the key features of cloud computing. Using this functionality, we can increase or decrease the amount of computational resources of the cloud at any time, enabling applications to dynamically scale computing and storage resources, avoiding overand under-provisioning. In high performance computing (HPC), initiatives like bag-oftasks or key-value applications use a load balancer and a loosely-coupled set of virtual machine (VM) instances. In this scenario, it is easier to add or remove virtual machines because the load balancer is in charge of distribute tasks between the active processes. However, iterative HPC applications are characterized by being tightly-coupled and have difficulty to take advantage of the elasticity because in such applications the amount of processes is fixed throughout the application runtime. In fact, the simple addition of new resources does not guarantee that the processes will use them. Moreover, removing a single process can compromise the entire execution of the application because each process plays a key role in its execution cycle. Iterative applications related to HPC are commonly implemented using MPI (Message Passing Interface). In the joint-field of MPI and tightly-coupled HPC applications, it is a challenge use the elasticity feature since we need re-write the source code to address resource reorganization. Such strategy requires prior knowledge of application behaviour, requiring stop-reconfigure-and-go approaches when reorganizing resources. Besides, using MPI 2.0, in which the number of process can be changed during the application execution, there are problems related to how profit this new feature in the HPC scope, since the developer needs to handle the communication topology by himself. Moreover, sudden consolidation of a VM, together with a process, can compromise the entire execution. To address these issues, we propose a PaaS-based elasticity model, named AutoElastic. It acts as a middleware that allows iterative HPC applications to take advantage of dynamic resource provisioning of cloud infrastructures without any major modification. AutoElastic offers elasticity automatically, where the user does not need to configure any resource management policy. This elastic mechanism includes using fixed thresholds as well as offering a new approach where it self adjusts the threshold values during the application execution. AutoElastic provides a new concept denoted here as asynchronous elasticity, i.e., it provides a framework to allow applications to either increase or decrease their computing resources without blocking the current execution. The feasibility of AutoElastic is demonstrated through a prototype that runs a CPU-bound numerical integration application on top of the OpenNebula middleware. Results with a parallel iterative application showed performance gains between 28.4% and 59% when comparing different executions enabling and disabling elasticity feature. In addition, tests with different parameters showed that when using threshold-rule based techniques with fixed thresholds, the upper threshold has a greater impact in performance and resource consumption than the lower threshold.
182

Um modelo semântico para integração automática de conteúdo com um agente conversacional

Santos, Fabio Rodrigues dos 26 February 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-05-09T13:07:53Z No. of bitstreams: 1 Fabio Rodrigues dos Santos_.pdf: 7109958 bytes, checksum: 136a6e535dbd26994aa6dbd702767b78 (MD5) / Made available in DSpace on 2016-05-09T13:07:53Z (GMT). No. of bitstreams: 1 Fabio Rodrigues dos Santos_.pdf: 7109958 bytes, checksum: 136a6e535dbd26994aa6dbd702767b78 (MD5) Previous issue date: 2016-02-26 / IFRR - Instituto Federal de Educação Ciências e Tecnologia de Roraima / Um agente conversacional é capaz de interagir com usuários em linguagem natural, imitando o diálogo realizado entre seres humanos. Entretanto, a necessidade de trabalho manual por parte dos autores de conteúdo para a construção da sua base de diálogos não o torna muito atrativo para ser integrado a websites. Seria possível facilitar a criação de novos diálogos e automatizar a atualização dos mesmos usando como base os recursos disponibilizados pela Web Semântica para integrar o agente conversacional a um Sistema de Gerenciamento de Conteúdo Web (SGCW) de forma que seu conteúdo seja aproveitado. O trabalho aqui proposto descreve o modelo para utilização de informações de SGCW’s em agentes conversacionais com auxilio da web semântica, denominado Eduardo. O principal diferencial está na automatização da atualização dos diálogos, pois os mesmos são extraídos do SGCW para uma base de dados de triplas, que são consultadas para geração dos diálogos, caso haja alguma atualização na base do SGCW, basta refazer os procedimentos que já foram automatizados, para que os diálogos sejam atualizados, evitando assim o trabalho manual de edição dos arquivos escritos em linguagem AIML (Artificial Intelligence Markup Language). Foi desenvolvido um protótipo deste modelo, que permite a integração dinâmica de conteúdo com um Agente Conversacional. O protótipo foi avaliado quanto à capacidade de gerar as informações necessárias para os diálogos, acessando as páginas Web e representando seu conteúdo nos formatos RDFa e AIML. Em um segundo momento, ensaios de interação foram realizados com usuários nos componentes do Agente Conversacional, para avaliar sua funcionalidade, aceitação e demais aspectos uso. / A conversational agent is able to interact with users in natural language, imitating the dialogue held between humans. However, the need for manual labor by the authors content for the construction of dialogues base makes the not too attractive to be integrated into websites. It would be possible to facility the creation of new dialogues and automate the update them using as a basis the resources provided by the Semantic Web to integrate conversational agent to a Web Content Management System (WCMS) so that you content is used. The work proposed here describes the model for use of WCMS’s information in conversational agents with semantic web aid, called Eduardo. The main difference is in automating the update of dialogues, as they are extracted from WCMS for a triple database, which are referred to generation of dialogues, if there is any update on the basis WCMS, just redo the procedures that have been automated so that the dialogues are update, thus avoiding manual labor editing of files written in AIML (Artificial Intelligence Markup Language). It developed a prototype of this model which allows dynamic content integration with a conversational agent. The prototype was evaluated for ability to generate the information necessary for the dialogue, accessing the Web pages and their content representing in RDFa and AIML formats. In a second step, interaction assays were performed with users in the components of conversational agent to assess its functionality, acceptance and other aspects of use.
183

Interação multimodal adaptativa embarcada em robótica assistiva para comunicação com pessoas com deficiência

John, Edward Simon 24 February 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-05-18T16:03:18Z No. of bitstreams: 1 Edward Simon John_.pdf: 2766704 bytes, checksum: 51ba143145d5779779cf7302cfbcf429 (MD5) / Made available in DSpace on 2016-05-18T16:03:18Z (GMT). No. of bitstreams: 1 Edward Simon John_.pdf: 2766704 bytes, checksum: 51ba143145d5779779cf7302cfbcf429 (MD5) Previous issue date: 2016-02-24 / Nenhuma / Pessoas que enfrentam dificuldades de comunicação em suas atividades diárias, por apresentarem necessidades especiais para ver ou ouvir, são uma significativa parcela da população brasileira. Técnicas de robótica assistiva vêm sendo desenvolvidas para apoiar este público em determinadas atividades, com bons resultados sendo observados. Entretanto os dispositivos de robótica assistiva disponíveis para comunicação são, em geral, direcionados ao atendimento de um público específico e não consideram o atendimento das necessidades de um público misto, composto por pessoas com diferentes necessidades. Embora existam modelos versáteis quanto a canais de entrada e saída, não se observa a implementação dos recursos para atendimento de um amplo conjunto de necessidades. Dado esse contexto, este trabalho propõe um modelo de sistema de Interação Multimodal Humano Computador, embarcado em um robô assistivo, capaz de adaptar o conjunto de meios de interação necessários para a comunicação de acordo com o tipo e o grau de necessidades do usuário, fornecendo informações relevantes por meio dos canais adequados de acordo com cada deficiência. O modelo também inclui um conjunto de recursos destinados a obter informações em fontes diversas e disponibilizar estes resultados aos usuários. A abordagem proposta enfatiza o gerenciamento de usuários e a adaptação do uso dos canais de interação às suas características. Foi desenvolvido um protótipo com um conjunto de serviços ambientados no contexto de um campus universitário, com capacidade de atender à dúvidas e necessidades sobre este ambiente. Os testes realizados com este protótipo envolveram um grupo de 14 (quatorze) usuários com deficiência e suscitaram atitudes positivas quanto a aspectos de usabilidade como facilidade de uso, utilidade, conforto e eficácia. / People facing communication difficulties in their daily activities, because they have special needs to see or hear, are a significant portion of the Brazilian population. Robotic assistive techniques have been developed to support this public in certain activities, with good results being observed. However, assistive robotic devices available for communication are generally oriented to give heed to a specific audience and do not meet the needs of a mixed audience, composed of people with different needs. While there are versatile models in terms of input and output channels, the implementation of the resources in order to attend a wide range of needs is not seen. Given this context, this work proposes a model of Multimodal Human-Computer Interaction System, embedded in an assistive robot, able to adapt the set of interaction means for communication according to the type and degree of user needs, providing relevant information through appropriate channels according to each disability. The model also includes a set of features to obtain information from various sources and provide these results to users. The proposed approach emphasizes user management and adaptation of the use of interaction channels to their characteristics. A prototype with a set of services in the context of a university campus and capable of meeting the questions and needs of this environment was developed. The experiments with this prototype involved a group of 14 (fourteen) handicapped users and elicited positive attitudes towards usability aspects as ease of use, utility, comfort and efficiency.
184

Ataîru: modelo ubíquo para o turismo com busca dinâmica de conteúdo baseado em dispositivos móveis

Souza, Thiago Silva de 21 March 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-06-13T13:27:34Z No. of bitstreams: 1 Thiago Silva de Souza_.pdf: 4022356 bytes, checksum: a1501abc241ec37282c058d610c0508e (MD5) / Made available in DSpace on 2016-06-13T13:27:34Z (GMT). No. of bitstreams: 1 Thiago Silva de Souza_.pdf: 4022356 bytes, checksum: a1501abc241ec37282c058d610c0508e (MD5) Previous issue date: 2016-03-21 / Nenhuma / O modo como as pessoas fazem turismo mudou consideravelmente nas últimas décadas. Essas mudanças de comportamento foram influenciadas, entre outros, por fatores tecnológicos, pois os turistas agora possuem diversas ferramentas de apoio desde o momento em que se pensa em fazer turismo, durante o turismo propriamente dito, e até mesmo após ele. Com isso, espera-se muito mais dessas ferramentas de apoio no quesito utilidade, confiabilidade e qualidade no serviço prestado. Muitos estudos têm sido conduzidos nesse sentido, diversos avanços já foram alcançados e atualmente já existem ferramentas que atendem várias demandas atuais dos turistas em seus itinerários. No entanto, a maioria delas não levam em consideração alguns aspectos importantes para que o turista seja realmente auxiliado, como por exemplo, encontrar informações turísticas sobre cidades consideradas de pequeno porte ou distantes de locais turísticos expressivos. O que muito se nota nessas ferramentas atuais, até mesmo nas de cunho comercial, é que somente são contempladas as cidades de grande porte, de alto fluxo de turistas. As demais cidades, que também possuem seus atrativos turísticos, são deixadas de lado. Outra característica comum nas ferramentas atuais é que os guias são gerados previamente e são entregues muitos dados estáticos aos turistas. No modelo de arquitetura desenvolvido neste trabalho, a coleta por informações turísticas acontece de maneira dinâmica, realizando buscas de conteúdo na web em diversas bases de conhecimento abertas e que estão em constante atualização. A partir daí essas informações são organizadas e armazenadas em ontologia, e por fim, entregues ao turista, baseadas em princípios de computação ubíqua. Essa capacidade de realizar buscas na web faz com que um número maior de cidades possa ser encontrado e se consiga chegar a um bom nível de satisfação do turista no uso da ferramenta, bem como eleva a percepção do grau de utilidade da arquitetura proposta. Portanto, o objetivo deste trabalho é desenvolver um modelo de arquitetura de sistema para o turismo ubíquo, baseado em dispositivos móveis, chamado de Ataîru, que na língua indígena Tupi-Guarani significa “companheiro de viagem”. O modelo considera dados sobre a localização e perfil do turista, bem como sobre dados climáticos, data e hora do local pesquisado, para prover respostas personalizadas aos turistas. Para avaliar o modelo proposto, foram utilizadas três técnicas pertinentes, a saber: avaliação por cenários, avaliação de desempenho e avaliação de usabilidade. Na avaliação de desempenho mostrou-se a viabilidade do modelo através de testes feitos no ambiente de nuvem computacional. Na avaliação de usabilidade foram convidados voluntários para usarem o aplicativo móvel cliente Ataîru, onde o objetivo foi avaliar a (1º) percepção de facilidade de uso e (2º) percepção de utilidade do aplicativo, e a (3º) percepção de utilidade das informações apresentadas, alcançando percentuais de concordância total de 72,5%, 82,5% e 67,5%, respectivamente e de concordância parcial de 27,5%, 15% e 30%, respectivamente. Isso mostra que o modelo supre a necessidade dos turistas de informações turísticas de cidades consideradas pequenas ou distantes de locais turísticos expressivos, tanto no aspecto quantitativo quanto qualitativo. / The way people do tourism has changed considerably in recent decades. These behavioral changes were influenced, among others, by technological factors, because tourists now have several tools to support from the moment in which it thinks about doing tourism, during the tour itself, and even after it. Thus, it is expected more of these support tools in the category utility, reliability and quality of service provided. Many studies have been conducted in this direction, several advances have been achieved and currently there are already several tools that meet current demands of tourists in their itineraries. However, most of them do not take into account some important aspects for the tourist really be helped, for example, find tourist information about cities considered small or far from significant tourist sites. What very noticeable in these current tools, even in commercial nature, is that only the large cities are contemplated, high flow of tourists. The other cities, which also have their tourist attractions, are set aside. Another common feature in today's tools is that the guides are pre-generated and delivered many static data to tourists. In architectural model developed in this work, the collection of tourist information happens dynamically, making content web searches in several open knowledge bases and are constantly updated. From there the information is organized and stored in ontology, and finally delivered to the tourist, based on principles of ubiquitous computing. This ability to search the web makes a larger number of cities can be found and can reach a good level of tourist satisfaction in using the tool as well as increases the perception of the degree of usefulness of the proposed architecture. Therefore, the objective of this work is to develop a system architecture model for the ubiquitous tourism, based mobile devices, called Ataîru, which in the indigenous language Tupi-Guarani means "traveling companion". The model takes into account data on the location and tourist profile, as well as weather data, date and time of the searched location, to provide personalized answers to tourists. To evaluate the proposed model, we used three techniques relevant, namely: evaluation of scenarios, performance evaluation and evaluation of usability. In performance evaluation proved the viability of the model by testing done in the cloud computing environment. In evaluating usability volunteered invited to use the mobile client application Ataîru, where the objective was to evaluate (1) perceived ease of use and (2) application utility perception, and (3) perceived usefulness of the information presented, increasing percentage of total concordance of 72.5%, 82.5% and 67.5%, respectively, and partial concordance 27.5%, 15% and 30%, respectively. This shows that the model supplies the need of tourist of tourist information about cities considered small or far from significant tourist sites, both in quantitative and qualitative aspect.
185

Um modelo computacional baseado em análise de decisão multicritério para priorização na alocação de recursos: uma aplicação ao caso das comunidades ribeirinhas da cidade de Coari-AM

Magalhães, Elionai de Souza 04 March 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-06-13T13:42:00Z No. of bitstreams: 1 Elionai de Souza Magalhães_.pdf: 2039789 bytes, checksum: 5d3f44b9164f4c68bcb09e63c3a2dda0 (MD5) / Made available in DSpace on 2016-06-13T13:42:00Z (GMT). No. of bitstreams: 1 Elionai de Souza Magalhães_.pdf: 2039789 bytes, checksum: 5d3f44b9164f4c68bcb09e63c3a2dda0 (MD5) Previous issue date: 2016-03-04 / IFAM - Instituto Federal de Educação, Ciência e Tecnologia do Amazonas / A responsabilidade de tomar decisões em si não é fácil, e quando está relacionada à gestão de recursos na área pública é uma tarefa ainda mais difícil, pois está ligada a um alto nível de complexidade. Neste trabalho, é apresentado um modelo computacional baseado em análise de decisão multicritério para a priorização da alocação de recursos financeiros para as comunidades ribeirinhas da região de Coari, Amazonas. Com o surgimento da Pesquisa Operacional, foi possível o desenvolvimento de métodos que auxiliam os tomadores de decisão no que se refere à avaliação e escolha em ambientes que envolvem multicritérios. É o caso da gestão pública, cuja decisão sobre a alocação de recursos passa pela análise de diversos critérios. As técnicas de decisão multicritério, aliadas às novas tecnologias de informação e comunicação, possibilitam novas formas de conhecimento e maior qualidade em diversos serviços. O emprego destas tecnologias no desenvolvimento de ferramentas de auxílio à decisão para a alocação de recursos é de grande utilidade, tendo em vista a automação no processo de análise e rapidez na obtenção dos resultados, possibilitando agilidade na tomada de decisão. Neste trabalho, é desenvolvido um modelo computacional baseado na técnica de Auxílio à Decisão Multicritério para ajudar na alocação de recursos públicos em comunidades ribeirinhas do Amazonas. O modelo emprega a técnica TOPSIS de análise multicritério com o intuito de obter um ranking das comunidades, para assim indicar aquela com maior grau de prioridade para receber a alocação de recursos públicos. Os experimentos foram realizados assumindo um conjunto de seis critérios empregados na ordenação de oito regiões de comunidades ribeirinhas. No estudo realizado, a lista de priorização indicou a região de comunidades do Baixo Solimões como a prioritária para a alocação de recursos públicos e a robustez da priorização obtida na aplicação efetuada foi avaliada através da realização de uma análise de sensibilidade. / The responsibility of making decisions itself is not easy, and when it is related to the management of resources in the public sector is an even more difficult task, because it is linked to a high level of complexity. In this paper, we present a computational model based on multi-criteria decision analysis to prioritize the allocation of financial resources to the coastal communities of Coari region of Amazonas. With the emergence of Operational Research, development methods was possible that assist decision makers with regard to the evaluation and choice in environments that involve advanced. This is the case of public administration, whose decision on the allocation of resources involves the analysis of various criteria. The techniques of multi-criteria decision, combined with the new technologies of information and communication, enable new forms of knowledge and higher quality in different services. The use of these technologies in the development of the decision support tools for the allocation of resources is useful in view of automation in the process of analysis and speed in obtaining results, enabling agility in decision making. In this work, we developed a computational model based on the technique of Aid to Decision Multicriteria to assist in the allocation of public resources in riverine communities of Amazonas. The model uses the TOPSIS technique of multi-criteria analysis in order to obtain a ranking of the communities, so as to indicate that more priority to receive the allocation of public resources. The experiments were performed assuming a set of six criteria used in the ordination of eight regions of riverside communities. In the study, the list of priority indicated the region of the Lower Solimões communities as a priority for the allocation of public resources and the robustness of the obtained priority in the application made was assessed by performing a sensitivity analysis.
186

PACCS uma ferramenta para detecção proativa e resolução colaborativa de conflitos de código fonte

Armino, Daniel Bruno 23 March 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-06-13T17:33:37Z No. of bitstreams: 1 Daniel Bruno Armino_.pdf: 1677240 bytes, checksum: 278b4e6ed4b8adf54258b557940f77df (MD5) / Made available in DSpace on 2016-06-13T17:33:37Z (GMT). No. of bitstreams: 1 Daniel Bruno Armino_.pdf: 1677240 bytes, checksum: 278b4e6ed4b8adf54258b557940f77df (MD5) Previous issue date: 2016-03-23 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Em desenvolvimento de software colaborativo, desenvolvedores compartilham código fonte e modificam partes deste código em paralelo, visando aumentar a produtividade. Para isso, times de desenvolvimento, tipicamente globalmente distribuídos, fazem uso de sistemas de controle de versão (SCV), os quais são responsáveis por versionar o código fonte e reconciliar as alterações conflitantes realizadas pelos desenvolvedores em paralelo. Em geral, cada desenvolvedor possui uma cópia local dos arquivos do código fonte do repositório, podendo realizar qualquer tipo modificação e tendo que posteriormente integrar a sua versão local do código fonte com as alteradas pelos outros membros do time de desenvolvimento. O problema é que usualmente os sistemas de controle de versão (por exemplo, GIT e SVN) não dão suporte a detecção antecipada dos conflitos, nem auxiliam os desenvolvedores na resolução dos mesmos. Na prática, um conflito trata-se de alterações divergentes realizadas em um mesmo trecho de código em paralelo por diferentes desenvolvedores. Consequentemente, detectar e resolver conflitos passam a ser duas atividades altamente propensa a erros e que exige bastante esforço do desenvolvedor. Para explorar esta problemática, este trabalho propõe o PACCS, uma ferramenta capaz de: (1) detectar proativamente conflitos; (2) analisar a propagação de conflitos; (3) identificar conflitos sintáticos e semânticos; (4) resolver automaticamente conflitos detectados; (5) apoiar os desenvolvedores na resolução colaborativa dos conflitos; e (6) checar as integrações realizadas e submetidas ao repositório de acordo um conjunto de regras. A ferramenta desenvolvida abordará os requisitos citados anteriormente e possui duas partes: o lado cliente (plugin para o eclipse) e o lado server (gerenciador de alterações entre workspaces). Após a construção da ferramenta será efetuado um comparativo entre desenvolvedores que utilizam a ferramenta versus os que não utilizaram, objetivando aferir as vantagens ou desvantagens da ferramenta. Os resultados demonstraram que (1) ao contrário do que a literatura prega, VCS centralizados tendem produzir um código fonte mais próximo do desejado e (2) a abordagem colaborativa pode ser mais eficiente e necessitar de menos esforço na resolução de conflitos. / In collaborative software development, developers share source code and modify parts of code in parallel, to increase productivity. For this, development teams typically distributed globally, make use of version control systems (VCS), which are responsible for versioning the source code and reconcile conflicting changes made by developers in parallel. Generally, each developer has a local copy of the source code files from the repository, and can perform any modification and having to later join their local version of the source code with the changed by the other members of the development team. The problem is that usually the version control systems (eg, GIT and SVN) do not support early detection of conflicts, or assist developers in solving them. In practice, a conflict it is divergent changes made in one piece of code in parallel by different developers. Consequently, detect and resolve conflicts become two highly prone to errors and activities that require a lot of effort from the developer. To explore this issue, this paper proposes the PACCS, a tool capable of: (1) detect proactively conflicts; (2) to analyze the spread of conflicts; (3) identify syntactic and semantic conflicts; (4) detected automatically resolve conflicts; (5) support developers in collaborative conflict resolution; and (6) check the integrations carried out and submitted to the agreement of a set of rules repository. The developed tool will address the above requirements and has two parts: the client side (plugin for Eclipse) and the server side (change manager between Workspaces). After the construction of the tool will be made a comparison between developers using the tool versus those who did not use, in order to assess the advantages or disadvantages of the tool. The results showed that (1) contrary to the literature preaches, centralized VCS tend to produce a code nearest source of the desired and (2) a collaborative approach can be more efficient and require less effort in resolving conflicts.
187

UbHeart : um modelo para monitoramento de sinais vitais do coração baseado em ciência da situação e computação ubíqua.

Rocha, Cristofe Coelho Lopes da 18 March 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-06-15T15:02:13Z No. of bitstreams: 1 Cristofe Coelho Lopes da Rocha_.pdf: 1206259 bytes, checksum: 92abbbebe733f12b9fba88483243b093 (MD5) / Made available in DSpace on 2016-06-15T15:02:13Z (GMT). No. of bitstreams: 1 Cristofe Coelho Lopes da Rocha_.pdf: 1206259 bytes, checksum: 92abbbebe733f12b9fba88483243b093 (MD5) Previous issue date: 2016-03-18 / IFRR - Instituto Federal de Educação Ciência e Tecnologia de Roraima / Pacientes com insuficiência cardíaca e sem acompanhamento médico diário podem ter os sinais fisiológicos do coração comprometidos, causando graves problemas à saúde. Esse cenário recorrente diminui a qualidade de vida do paciente resultando em readmissões hospitalares, onerando assim o sistema de saúde. Considera-se que o emprego de cuidados ubíquos, usando sensores e wearables, pode melhorar esse processo, reduzindo sensivelmente o número de readmissões em sistemas de saúde. Nesse âmbito, esse trabalho propõe o modelo UbHeart, que emprega ciência da situação para identificar possíveis problemas cardíacos. Como contribuição científica o modelo provê o monitoramento da evolução da degradação dos sinais vitais do coração do paciente, por meio da detecção de possíveis situações de complicação cardíaca. A avaliação foi realizada por meio de um cenário prático com uso de um aplicativo móvel e um conjunto de 100 dados fisiológicos agrupados em cinco intervalos para a análise de dois pacientes de 72 e 23 anos. Os resultados foram positivos quanto à aplicação do modelo UbHeart, que possibilitou a compreensão da situação de forma distinta. Foram encontrados valores de 80% de grau envolvimento dos dois pacientes em relação ao risco quando considerado a média dos sinais fisiológicos no intervalo, e de 50% e 20% para os pacientes idoso e jovem, respectivamente, quando considerado a tendência lógica dos sinais fisiológicos no intervalo. / Patient with heart failure and without daily monitoring may have heart vital signals comitted becaming inevitable their hospitalization. This recurrent scene decreases the patient's life quality, resulting in hospital readmissions generating costs to health of system. The use of ubiquitous care, using sensors and wearables, can automate this process reducing the number of hospital admissions. In this context, we are proposing a model named Ubheart, which employs situation awareness to identify possible heart problems. As a scientific contribution the proposed model monitors the possible degradation of patient's heart vital signs, using the detection of situations of cardiac complications. The evaluation was performed by means of a practical scenario with use of a mobile application and a set of physiological data 100 grouped into five intervals for analysis two patients 72 and 23 years. The results were positive and the application of UbHeart model that allowed us to understand the situation differently. They found values of 80% degree of engagement of the two patients compared to the risk when considering the average of the physiological signals in range and 50% and 20% for elderly and young patients, respectively, when considered logical tendency of physiological signals in interval.
188

Um modelo para gerenciamento de históricos de contextos fisiológicos

Oliveira, George Almeida de 21 March 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-07-14T12:32:09Z No. of bitstreams: 1 George Almeida De Oliveira_.pdf: 1203626 bytes, checksum: 54258ab2dd96b3f2309b53d61fd0ce0f (MD5) / Made available in DSpace on 2016-07-14T12:32:09Z (GMT). No. of bitstreams: 1 George Almeida De Oliveira_.pdf: 1203626 bytes, checksum: 54258ab2dd96b3f2309b53d61fd0ce0f (MD5) Previous issue date: 2016-03-21 / Nenhuma / Com a popularização no mercado de consumo de wearables, ou dispositivos vestíveis, a computação móvel e ubíqua vem se tornando presente em diversas áreas como educação, comércio e entretenimento. Na área da saúde estes dispositivos têm um importante papel, pois contam com sensores para captura de sinais fisiológicos, como por exemplo, medir a temperatura corporal e batimentos cardíacos do usuário. Em muitos casos não há qualquer padronização ou comunicação entre os diferentes sistemas de cuidados ubíquos que administram os dados fisiológicos do usuário. Esse trabalho apresenta uma proposta para gerenciamento de históricos de contextos fisiológicos através de um modelo denominado GECONFI. O modelo suporta a coleta de dados através de aplicações que utilizam dispositivos e sensores de monitoramento, também define uma ontologia para o domínio de contextos fisiológicos. Esse trabalho apresenta o uso de três aplicações integradas ao GECONFI que permitiram avaliar e testar os serviços disponibilizados pelo modelo. A primeira aplicação chamada SiCuide foi aplicada com treze pacientes e um enfermeiro, que apresentaram pareceres positivos em relação a sua utilidade para o monitoramento fisiológico dos usuários. Os outros dois sistemas denominados FitBurn e Heart-Control foram aplicados em um cenário baseado em sensibilidade a contexto permitindo o acesso compartilhado de uma mesma trilha. Os resultados obtidos mostraram a viabilidade para que outros sistemas realizem a administração de históricos contextuais de maneira genérica através do modelo proposto. / With the popularization in wearables market, or wearable devices, the mobile and ubiquitous computing is becoming present in areas such as education, commerce and entertainment. In healthcare these devices have an important role, as have sensors for capturing physiological signals, such as measuring the body temperature and heart rate of the user. In many cases there´s no standardization or communication between different Ubiquitous care systems that manage the physiological user data. This work presents a proposal for historical contexts of physiological management through a model called GECONFI. The model supports data collection through applications that use devices and monitoring sensors, defines an ontology for the domain of physiological contexts. This work presents the use of three integrated applications to GECONFI, that allowed evaluate and test the services provided by the model. The first application called SiCuide was applied with thirteen patients and a nurse, who showed positive opinions regarding its usefulness for physiological monitoring of users. The other two systems called FitBurn and Heart-Control were applied in a scenario based on sensitivity to context allowing shared access to the same track. The results showed the feasibility for other systems to perform the administration of contextual historical generically through the proposed model.
189

Elcity: um modelo elástico e multinível de economia de energia para cidades inteligentes

Rostirolla, Gustavo 26 August 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-09-15T12:12:44Z No. of bitstreams: 1 Gustavo Rostirolla_.pdf: 3721111 bytes, checksum: be1b1dcf6f37040c23244daba0e7aa82 (MD5) / Made available in DSpace on 2016-09-15T12:12:44Z (GMT). No. of bitstreams: 1 Gustavo Rostirolla_.pdf: 3721111 bytes, checksum: be1b1dcf6f37040c23244daba0e7aa82 (MD5) Previous issue date: 2016-08-26 / Nenhuma / Como resultado da migração rural e suburbana para as cidades, a vida urbana tornouse um desafio significativo para os cidadãos e para a gestão da cidade, impondo uma enorme preocupação na utilização sustentável de recursos como energia, água, transportes e habitação. Cidades inteligentes são a maior aposta para enfrentar estes desafios de forma eficiente através de um acompanhamento em tempo real que visa auxiliar no planejamento inteligente e desenvolvimento urbano sustentável. Entretanto, para que este acompanhamento ocorra de forma eficiente e possibilite a utilização sustentável dos recursos é necessária uma integração entre cidadãos, dispositivos da cidade, administração pública e a plataforma de computação em nuvem, onde os dados serão armazenados e processados. Para tal, propõe-se o modelo ElCity, um modelo que combina dados de cidadãos e dispositivos da cidade para permitir uma gestão elástica multinível do consumo de energia de uma cidade. Como decisão de projeto, essa gestão deve ocorrer de forma automática, sem afetar a qualidade dos serviços já oferecidos. A principal contribuição do modelo ElCity diz respeito à extensão do conceito de elasticidade em nuvem para os demais níveis (smartphones dos cidadãos, dispositivos da cidade e data center), alterando o estado dos componentes em cada nível entre ligado e desligado de acordo com a demanda. Desta forma, este trabalho apresenta o modelo ElCity, detalhando seus módulos distribuídos ao longo das três fontes de dados, além dos experimentos que utilizam dispositivos da cidade e dados de cidadãos de Roma para explorar a economia de energia. Os resultados são promissores, onde o módulo monitor de energia permite estimar o consumo de energia das aplicações elásticas baseado em traços de CPU e memória com uma precisão média e mediana de 97,15% e 97,72%. Além disso, os resultados apontam a possibilidade de redução de mais de 90% no consumo de energia relativo a iluminação pública na cidade de Roma, obtido através da análise de dados de localização de seus cidadãos. / As a result of rural and suburban migration to the cities, urban life has become a significant challenge for citizens and, particularly, for city administrators who must manage the sustainable use of resources such as energy, water and transportation. Smart cities are the biggest vision to efficiently address these challenges through a real-time monitoring, providing an intelligent planning and a sustainable urban development. However, to accomplish them we need a tightly integration among citizens, city devices, city administrators and the data center platform where all data is stored, combined and processed. In this context, we propose ElCity, a model that combines citizens and city devices data to enable an elastic multi-level management of energy consumption for a particular city. As design decision, this management must occur automatically without affecting the quality of already offered services. The main contribution of ElCity model concerns the exploration of the cloud elasticity concept in multiple target levels (smartphones from citizens, city devices involved in the public lightning and data center nodes), turning on or off the resources on each level in accordance with their demands. In this way, this work presents the ElCity architecture, detailing its modules distributed along the three data sources, in addition to an experiment that uses city devices and citizens data from Rome to explore energy saving. The results are promising, with an Energy Monitor module that allows the estimation of the energy consumption of elastic applications based on CPU and memory traces with an average and median precision of 97.15% and 97.72%. Moreover, the results point to a reduction of more than 90% in the energy spent in public lightning in the city of Rome which was obtained thanks to an analysis of geolocation data from their citizens.
190

Nanofósseis calcários do Campaniano e Maastrichtiano no Atlântico Sul: bioestratigrafia, paleoceanografia e paleobiogeografia

Guerra, Rodrigo do Monte 19 January 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-09-21T15:45:10Z No. of bitstreams: 1 Rodrigo do Monte Guerra_.pdf: 12842392 bytes, checksum: b6db9de51a65dd59c144edac22f16cab (MD5) / Made available in DSpace on 2016-09-21T15:45:10Z (GMT). No. of bitstreams: 1 Rodrigo do Monte Guerra_.pdf: 12842392 bytes, checksum: b6db9de51a65dd59c144edac22f16cab (MD5) Previous issue date: 2016-01-19 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Milton Valente / O final do período Cretáceo é caracterizado por uma gradual transição climática de escala global, fator que modificou a composição das assembleias de nanofósseis calcários e por conta disso vem causando problemas nas interpretações bioestratigráficas entre diferentes faixas latitudinais. Apesar de possuir alguns estudos realizados principalmente entre as décadas de 1980 e 1990, existe uma carência na avaliação do Atlântico Sul como um todo. Desta forma, este estudo objetiva descrever as assembleias de nanofósseis calcários comuns em cada faixa latitudinal e testar o sincronismo dos principais bioeventos. Foram analisadas 649 amostras provenientes de doze seções testemunhadas pelos projetos Deep Sea Drilling Project (DSDP) e Ocean Drilling Program (ODP) nas proximidades da margem brasileira e africana, além de um afloramento na Península Antártica. O estudo taxonômico possibilitou a identificação de 197 espécies de nanofósseis calcários do Campaniano e Maastrichtiano. Através do uso conjunto da bioestratigrafia e magnetoestratigrafia, foram reconhecidos diacronismos em eventos de primeira e última ocorrência de espécies do Campaniano superior e Maastrichtiano superior. Este diacronismo está relacionado a migrações de espécies entre baixas e médias latitudes, decorrentes de mudanças na circulação oceânica e temperatura das águas superficiais. Com base na variação latitudinal das assembleias de nanofósseis calcários, um detalhado estudo bioestratigráfico possibilitou a divisão de três zoneamentos para o Atlântico Sul (baixas, médias e altas latitudes). Além disso, foram definidos os padrões de distribuição de diversas espécies, mostrando uma clara divisão paleobiogeográfica entre espécies que ocorrem somente em latitudes altas e outras limitadas a latitudes médias a baixas. Este padrão possivelmente foi controlado por variações na temperatura das massas de água superficiais. Outras espécies possuem sua distribuição variada em todas as faixas latitudinais, tendo sua distribuição relacionada provavelmente à disponibilidade de nutrientes. / The Late Cretaceous period is characterized by global climatic transition that influenced calcareous nannofossil assemblages posing a challenge for biostratigraphic interpretation between different latitudinal degrees. There are a few studies on South Atlantic calcareous nannofossils from 1980 and 1990 decades, but none of them evaluate the South Atlantic as a whole. Therefore, this study aims to describe the calcareous nannofossils assemblages in each latitudinal zone and test the bioevents synchroneity. It were selected 649 samples from twelve cored sections coming from DSDP (Deep Sea Drilling Project) e ODP (Ocean Drilling Program) close to the Brazilian and African margins, in addition to an outcrop in the Antarctic Peninsula. The taxonomic study allowed the identification of 197 calcareous nannofossils species from the Campanian and Maastrichtian. Using the correlation between the biostratigraphical data and magnetostratigraphy, it was possible to identify diachronism in some bioevents of first and last occurrences during the late Campanian and late Maastrichtian. This diachronism is related to species migration between low and mid-latitudes, due to changes in the ocean circulation and surface water temperature. Based on the latitudinal variation in the calcareous nannofossils assemblages, a detailed biostratigraphic study enabled the South Atlantic division in three zonations (low, medium and high-latitudes). We also defined the distribution pattern of some species, indicating a clear paleobiogeographical division between high latitude species and some species limited to low and mid-latitudes. This pattern was possibly controlled by surface water temperature variation. Other species have a wide distribution across the latitudes probably related to nutrient availability.

Page generated in 0.0687 seconds