• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 181
  • 22
  • 7
  • 6
  • 6
  • 6
  • 4
  • 4
  • 2
  • 1
  • Tagged with
  • 210
  • 192
  • 182
  • 131
  • 53
  • 37
  • 26
  • 25
  • 25
  • 24
  • 22
  • 21
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Desenvolvimento de uma rede de sensores sem fio para processamento de sinais acústicos marinhos. / Development of a wireless sensor network for marine acoustic signals processing.

Durante, Gabriel 21 September 2018 (has links)
O crescente interesse pela caracterização de parâmetros acústicos marinhos esbarra nos poucos dispositivos eletrônicos que permitem capturar, armazenar, processar e difundir dados. Os equipamentos atuais que possibilitam obter dados referentes à vida marinha e permitem estudar as influências humanas sobre ela possuem alto custo e funcionam de forma isolada, ou seja, normalmente não há comunicação com outros dispositivos, o que dificulta a monitorização de eventos em tempo real. Sendo assim, neste trabalho são revisadas as características necessárias para estabelecer uma rede de sensores sem fio (RSSF) de alta confiabilidade, utilizando-se o conceito de Internet das Coisas (IoT). São comparados os protocolos MQTT-SN e CoAP com ferramentas de simulação e implementada uma rede de sensoriamento acústico aquático constituída de três nós sensores autônomos e um gateway usando o protocolo 6LowPAN. Também é implementada a tradução para o protocolo IPV4 no gateway, de modo que o funcionamento da rede de sensores pode ser monitorada num servidor remoto na Internet em tempo real. O desempenho da rede é avaliado com relação à autonomia energética, capacidade de memória, alcance e confiabilidade na entrega dos dados. As unidades autônomas desenvolvidas podem operar ininterruptamente, com uso de baterias, por aproximadamente 125 horas com memória de gravação de 48GB e alcance de 100m aproximadamente. Por fim, é implementado o pré-processamento dos dados sonoros visando a detecção de eventos acústicos aquáticos. / The increasing interest in the characterization of marine acoustic parameters needs electronic devices that allow capture, store, process, and diffuse data. Current equipment that provides data about the marine life and allow the study of human influences on it have high cost and work isolated, that is, without communication with other devices, which makes it difficult to monitor events in real time. Therefore, this work revises the necessary features to establish a high reliability wireless sensor network (WSN) by applying the concept of Internet of Things (IoT). The protocols MQTT-SN and CoAP are compared with simulation tools and a network is implemented to sense acoustic signals, composed by three autonomous sensor nodes and a gateway using the protocol 6LowPAN. The translation for the IPV4 protocol in the gateway is also implemented, so the operation of the sensor network can be monitored by a remote server on the Internet in real time. The performance of the network is evaluated in relation to power autonomy, memory capacity, reach and reliability. The autonomous sensor nodes can operate uninterrupted, with use of batteries, for approximately 125 hours with 48GB storage for recording and approximately 100m range. Finally, data pre-processing is implemented in order to detect aquatic acoustic events.
42

Minha jornada na oxiot: como desenvolvemos uma startup de hardware em saúde no Brasil do hackathon ao primeiro cliente / My journey at oxiot: how we developed a hardware startup in healthcare in Brazil from the hackathon to the first client

Costa Filho, Edson Renel da 01 November 2017 (has links)
Este trabalho baseia-se na minha experiência como um dos fundadores da Oxiot, startup que monitora consumo de oxigênio medicinal por paciente via Internet das Coisas. O problema de pesquisa é \"Como desenvolvemos uma startup de hardware em saúde no Brasil do hackathon ao primeiro cliente\", que se desdobra em três perguntas sobre a literatura de startups de hardware, a trajetória da Oxiot e suas contribuições. Este estudo é de natureza longitudinal e compreende de setembro de 2015 a agosto de 2017. O método utilizado foi o de Pesquisa-Ação, estruturado em 4 Ciclos, compostos por \"Planejar\", \"Agir & Observar\" e \"Refletir\". Os procedimentos de pesquisase baseiam em ProcessStudies. Os dados soft e hard coletadossão dispostos em Narrativa Estratégia e Visual Mapping, e analisados quantitativa e qualitativamente. Buscou-se neutralizar a tendência de parcialidade do pesquisador pela ponderação comterceiros. Foi realizada pesquisa bibliográfica na Web of Science, Google Acadêmico e Google. Foram triadas 247 obras, das quais, 8 selecionadas, às quais duas adicionadas por indicação ao autor. Das 10 totais analisadas, 3 classificam-se como Modelos de desenvolvimento de startup; 4, como Modelos de desenvolvimento de Modelos de Negócio; e 3, como Modelos de Referências para startups de hardware. Concluiu-se não haver um Modelo específico parastartup dehardware, apesar de haver conceitos aplicáveisna literatura geral. A formatação do produto e do Modelo de negócios foi estimulada por 36 eventos, majoritariamente relacionados aos subcomponentes Sistema de Gestão e de Inovação Aberta. O comparativo entre a experiência da Oxiote 5 literaturas resultou em 66 pontos; sendo 30 confirmações e 36 contribuições; sumarizados no Manifesto Oxiot, que declara as lições aprendidas em Sistema de Gestão e em cinco Estratégias Funcionais. Adicionalmente, foram elencadas 7 contribuições à prática, como ferramentas de gestão etécnicas de investimento, incluindo Modalidades de Investimento Corporação-Startups; edesenvolvidos dois cases, um sobre a atuação da GE Ventures, e outro, como caso de ensino, sobre valuatione investimento emstartupsearlystage. Conclui-se que este trabalho cumpriu seu propósitoe trouxe resultados além do escopo inicial, contribuindo à prática, teoria e ensino de empreendedorismo. Sugere-se que as \"estratégias funcionais\" possam ser o elemento conciliador faltante entre Modelos de desenvolvimento de startups, práticas em hardware e estratégia; e estas podem embasar umaliteratura específica para hardware. Hipótese que fica como sugestão de pesquisa futura. / This work is based in my experience as one of the founders of Oxiot, startup that monitors medical oxygen consumption per patient trough Internet of Things. The research problem is \"how we developed a hardware startup in Brazil since the Hackathon to the first client\", which unfolds in three questions about the hardware startups literature, Oxiot journey and its contributions. This is a longitudinal study conduct from September 2015 to August 2017. The method employed is Action Research, structured in four cycles, composed by \"Plan\", \"Act & Observe\" and \"Reflect\". The research procedures are based on Process Studies. The hard and soft data collected is displayed using Strategy Narrative and Visual Mapping, and then analyzed quantitatively and qualitatively. It was sought to neutralize the tendency of the researcher\'s partiality by weighting with third parties. A bibliographic search was conducted in the Web of Science, Google Scholar and Google. 247 works were screened, of which 8 were selected, to which two were added by indication to the author. Of the total 10 analyzed, 3 were classified as Startup Development Models; 4, such as Business Model Development Models; and 3, as Reference Models for Hardware Startups. It was concluded that there is no specific model for hardware startup, although there are applicable concepts from the general literature. The product and the business model formation were stimulated by 36 events, mostly related to the Management System and Open Innovation Subcomponents of the Business Model. The comparison between the Oxiot experience and 5 literatures resulted in 66 notes; being 30 confirmations and 36 contributions; which were summarized in the Oxiot Manifesto, which states the lessons learned in Management System and in five Functional Strategies. In addition, 7 contributions to the practice were listed, such as management tools and investment techniques, including Corporation-Startups Investment Models; and two cases were developed, one about GE Ventures actuation, and another, as a study case, about valuation and investment in early stage startups based on real events. It is concluded that this work fulfilled its purpose and brought results beyond the initial scope, contributing to the practice, theory and teaching of entrepreneurship. It is suggested that \"functional strategies\" could be the conciliatory element missing between startup development models, hardware practices and strategic management; and they could be the base for a specific hardware startup literature. Hypotheses that stands as a suggestion of future research.
43

MGI:: Módulo de gerenciamento inteligente para otimização Do conforto térmico do usuário em smart home / MGI :: Intelligent management module for optimization From the thermal comfort of the user in smart home

ALFAIA, Rodrigo Dias 31 August 2018 (has links)
Submitted by Luciclea Silva (luci@ufpa.br) on 2018-11-19T16:26:38Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Mgimodulogerenciamento.pdf: 2417492 bytes, checksum: fd7cec93e2eb4eeb265ee100bc50e17f (MD5) / Approved for entry into archive by Luciclea Silva (luci@ufpa.br) on 2018-11-19T16:27:01Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Mgimodulogerenciamento.pdf: 2417492 bytes, checksum: fd7cec93e2eb4eeb265ee100bc50e17f (MD5) / Made available in DSpace on 2018-11-19T16:27:01Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Mgimodulogerenciamento.pdf: 2417492 bytes, checksum: fd7cec93e2eb4eeb265ee100bc50e17f (MD5) Previous issue date: 2018-08-31 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O estímulo a integração da eficiência energética em equipamentos elétricos vem aumentando durantes os últimos anos. Uma parcela desse crescimento é resultado dos incentivos e das implementações de normas que ajudam na fiscalização e na regulamentação de especificações mínimas para eficiência no consumo de energia elétrica pelos equipamentos. Além disso, com o desenvolvimento da tecnologia, novas formas de gerenciamento inteligente são propostas para ajudar a otimizar o consumo energético. Este estudo apresenta a especificação e o desenvolvimento do módulo inteligente, a ser integrado na arquitetura Smart Consumption Management Architecture (SmartCoM), que envolve a coleta e análise de dados meteorológicos (temperatura e umidade) via interface de comunicação característico da arquitetura, a partir de soluções de Internet das Coisas (IoT), para o gerenciamento inteligente de um condicionador de ar com o objetivo de otimizar o consumo de energia, sem perder o conforto térmico dos usuários residentes. A metodologia proposta mostrou-se eficiente na redução do consumo de energia comparado ao modelo convencional. Foram realizados experimentos com o intuito de estimar o consumo de energia do condicionador de ar para o ano de 2017. Os experimentos consistiram em comparar os resultados do módulo de gerenciamento inteligente (MGI) com o modelo convencional, e assim, mostrar a eficiência do módulo proposto que conseguiu, de forma geral, uma redução média anual de 24,5% para o período noturno e 21,1 % para o diurno ficando dentro dos padrões de conforto térmico estabelecidas pelas normas nacionais e internacionais. / The incentive to integrate energy efficiency in electrical equipment has increased during last years. A portion of this growth is a result of incentives and the implementation of standards that help in inspection and regulation of minimum specifications for efficiency in electric energy consumption by equipments. In addition, with development of technology, new means of intelligent management are proposed to help optimize energy consumption. This study presents the specification and development of an intelligent module, to be integrated in Smart Consumption Management Architecture (SmartCoM), which involves collection and analysis of meteorological data (temperature and humidity) via the communication interface characteristic of the architecture, from Internet of Things (IoT), for the intelligent management of an air conditioner in order to optimize energy consumption, without losing thermal comfort of resident users. The proposed methodology proved to be efficient in reducing energy consumption compared to the conventional model. Experiments were carried out to estimate the energy consumption of an air conditioner during 2017. The experiments consisted in comparing results of the intelligent management module (MGI) with the conventional model, to show the efficiency of the proposed module, which achieved a general reduction of 24.5% for the night period and 21.1% for the daytime, within the standards of thermal comfort established by national and international
44

PSElastic : um modelo de elasticidade multinível para Brokers Publish/Subscribe

Wendt, Ivam Guilherme 23 February 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-05-24T16:53:14Z No. of bitstreams: 1 Ivam Guilherme Wendt_.pdf: 2573131 bytes, checksum: 364b08dccce8d5d89f93cdf8605772d8 (MD5) / Made available in DSpace on 2017-05-24T16:53:14Z (GMT). No. of bitstreams: 1 Ivam Guilherme Wendt_.pdf: 2573131 bytes, checksum: 364b08dccce8d5d89f93cdf8605772d8 (MD5) Previous issue date: 2017-02-23 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A Internet das Coisas (IoT - Internet of Things) é considerada a próxima grande evolução na era da computação após a Internet. Na Internet das Coisas muitos objetos que nos rodeiam serão conectados em redes e se comunicarão entre sí sem auxílio ou intervenção humana. Implementações de grande escala têm potencial para criar um enorme tráfego agregado. Muitas vezes Brokers ou Intermediários, são utilizados para possibilitar esta comunicação machine-to-machine (M2M), utilizando o modelo de comunicação Publish/- Subscribe que possui diversas bibliotecas particulares para uso na Internet das Coisas. Alguns trabalhos desenvolvidos pela comunidade visam tratar o desempenho no ambiente de Brokers Publish/Subscribe, no entanto impõem modificações e restrições quanto aos Brokers e arquitetura utilizada. Neste cenário, visando atender a necessidade de escalabilidade citada, é proposto um modelo de elasticidade chamado PSElastic. PSElastic fornece um modelo de elasticidade multinível para Brokers Publish/Subscribe, fazendo uso da elasticidade provida pela Computação em Nuvem, sem afetar o desempenho do sistema e sem a necessidade de investimentos ou ajustes por parte dos clientes e aplicações que fazem uso deste modelo. O modelo oferece a elasticidade de forma automática, reativa e multinível, onde multinível refere-se aos níveis de Broker e de Orquestrador do modelo. Buscando avaliar o modelo PSElastic foram definidos três cenários diferentes para a execução dos testes: Cenário 1, sem elasticidade; Cenário 2, elasticidade na camada de Brokers e Cenário 3, elasticidade multinível. Diferentes limites de réplicas de máquinas virtuais foram utilizados, assim como combinações de thresholds para avaliar o Tempo de Execução, quantidade de Mensagens por Segundo tratadas e a Eficiência na utilização dos recursos computacionais. PSElastic apresentou excelentes resultados ao reduzir em até 81,2% o tempo necessário para o tratamento de uma carga de dados e aumentar o throughput do ambiente com Broker Mosquitto de 54,95 mensagens por segundo (Mps) para 235,29 Mps e de 38,02 Mps para 202,02 Mps no ambiente com Broker RabbitMQ. / The Internet of Things (IoT) is considered the next big evolution in the computing era after the Internet. In Internet of Things many objects around us will be connected in networks and will communicate among themselves without assistance or human intervention. Large scale implementations has potential to create a huge aggregate traffic. Often brokers or intermediaries, are used to enable this machine-to-machine (M2M) communication using the Publish/Subscribe communication model that has several private libraries for use in Internet of Things. Some works developed by the community aim to treat performance in Publish/Subscribe brokers environment, however impose modifications and restrictions regarding brokers and architecture used. In this scenario, aiming to fulfill the need for cited scalability, we propose a elasticity model called PSElastic. The model provides an model with multilevel elasticity for Publish/Subscribe Brokers, making use of the elasticity promoted by cloud computing, not affecting system performance and without the need for investments or adjustments by customers and applications that make use of this model. PSElastic offers elasticity in the following manners: automatic, reactive and uses the multilevel elasticity, where multilevel refers to Broker level and Orchestrator model. In order to evaluate the model PSElastic, three different scenarios for execution of tests were defined: Scenario 1, without elasticity; Scenario 2, elasticity in the layer of Broker and Scenario 3, multilevel elasticity. Different limits of replica of virtual machines were used, as well as thresholds to evaluate Execution Time, number of Messages per Second handled and Efficiency in the use of computational resources. PSElastic showed excellent results by reducing the time needed to handle a data load by up to 81.2% and increase the throughput of the environment with Mosquitto Broker from 54.95 messages per second (Mps) to 235.29 Mps and from 38.02 Mps to 202.02 Mps in the environment with RabbitMQ Broker.
45

Objetos conectados: um olhar sobre a usabilidade e design das interfaces tangíveis

Portella, Grazielle Bruscato 01 September 2016 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2016-11-24T13:11:59Z No. of bitstreams: 1 Grazielle Bruscato Portella.pdf: 33160644 bytes, checksum: 4b1812b0d96f747cba5575c64bcd1b1e (MD5) / Made available in DSpace on 2016-11-24T13:11:59Z (GMT). No. of bitstreams: 1 Grazielle Bruscato Portella.pdf: 33160644 bytes, checksum: 4b1812b0d96f747cba5575c64bcd1b1e (MD5) Previous issue date: 2016-09-01 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This research proposes a study of Tangible User Interfaces as a digital means of communication, from its conception to the moment of interaction. It poses a historical overview on the evolution of digital interfaces, from the first Graphical User Interfaces to birth of the Internet of Things, emerging phenomenon in the digital media that tangibilizes the information to connected devices. The study also investigates methods for analysis and design of Graphical Interfaces from the point of view of interaction and aesthetics. Attributes from these methods are used to propose a methodology when designing Tangible Interfaces, where its principles are combined in addition to usability and handling aspects, concepts used in Product Design methods. In order to deepen this investigation, three experimental projects from the academic field were selected to analyse the design of assorted Tangible Interfaces and apply the proposed protocol: inFORM (http://tangible.media.mit.edu/project/inform/), a multi-touch interface that addresses remote and tactile communication processes; Daily Stack (https://vimeo.com/10458491/), which works as a means by which the user arranges abstract tasks through physical blocks connected to a software; and ZeroN (http://tangible.media.mit.edu/project/zeron-levitated-interaction-element/), which explores the user-machine interaction through levitation, questioning the object as an speculative medium of interaction. As conclusions, Tangible Interfaces until need to solve some challenges such as resolution, scale and cost before we expect a complete adoption by the public. On the other hand, they can allow a richer physical interaction than Graphical User Interfaces, helping users on its manipulation without the need to have a screen present during all interactions / Esta investigação propõe um estudo sobre a Interface Tangível enquanto meio digital de comunicação, tanto em sua concepção quanto no momento da interação. Procura-se realizar um panorama histórico da evolução das interfaces digitais, desde seu surgimento em computadores por meio das interfaces gráficas até a Internet das Coisas, fenômeno emergente nas mídias digitais que tangibiliza a interação do computador para objetos conectados. Levantam-se alguns métodos para análise e concepção de interfaces gráficas do ponto de vista de design e estética da interação. Transpõem-se alguns atributos destes métodos para a concepção de interfaces tangíveis, contemplando, além da usabilidade, a assimilação de aspectos táteis e manipulação, conceitos advindos do design de produtos. De modo a aprofundar esta pesquisa, foram selecionadas três produções experimentais no meio acadêmico para uma análise aprofundada de suas interfaces tangíveis aplicando o protocolo discutido: inFORM (http://tangible.media.mit.edu/project/inform/), uma interface multi-toque que aborda processos de comunicação através da conexão do humano com o objeto à distância; Daily Stack (https://vimeo.com/10458491/), que funciona como um meio pelo qual o usuário organiza tarefas abstratas em forma de blocos físicos conectados a um software; e ZeroN (http://tangible.media.mit.edu/project/zeron-levitated-interaction-element/), que explora a interação do usuário-máquina através de uma interface levitante, questionando o objeto como especulação poética e metafísica da interação. Como conclusões, as interfaces tangíveis ainda precisam resolver alguns desafios como resolução, escala e custo antes de esperarmos uma adoção completa pelo público. Porém, eles podem permitir um tipo de interação física mais rica que as Interfaces Gráficas, enquanto ajudar usuários no seu uso sem a necessidade de ter uma tela presente nas suas interações
46

Um middleware para internet das coisas com suporte ao processamento distribuído do contexto

Souza, Rodrigo Santos de January 2017 (has links)
Um dos principais desafios de pesquisa na UbiComp consiste em fornecer mecanismos para a ciência de contexto que promovam o desenvolvimento de aplicações que reajam de acordo com a dinâmica do ambiente de interesse do usuário. Para manter o conhecimento a respeito desse ambiente, a área da UbiComp pressupõe a utilização de informações produzidas e disponibilizadas em diferentes localizações, o tempo todo. Nesse sentido, os recentes avanços na área da Internet das Coisas (IoT) têm proporcionado uma crescente disponibilidade de sensores conectados em rede, os quais são potenciais produtores de informações contextuais do ambiente para aplicações ubíquas. Com essa motivação, nessa tese é apresentado o COIOT, um middleware para Internet das Coisas concebido com o objetivo de gerenciar a coleta e o processamento das informações contextuais do ambiente físico, bem como a atuação remota sobre o mesmo. O COIOT foi idealizado considerando os trabalhos previamente desenvolvidos pelo grupo de pesquisa GPPD (Grupo de Processamento Paralelo e Distribuído) da UFRGS, particularmente o middleware EXEHDA (Execution Environment for Highly Distributed Applications). Na concepção do COIOT foi adotada uma abordagem distribuída de processamento de contexto que contempla tanto as premissas da IoT quanto as demandas das aplicações da UbiComp. A arquitetura proposta também contempla o gerenciamento de eventos distribuídos através de regras e triggers para tratar as mudanças de estados dos contextos de interesse. Além disso, a arquitetura proposta gerencia outros aspectos importantes nos cenários da IoT, como o tratamento da interoperabilidade, da heterogeneidade, apoio ao controle da escalabilidade e descoberta de recursos. As principais contribuições desta tese são: (i) a concepção de uma arquitetura para IoT capaz de realizar de forma distribuída tanto a coleta e processamento das informações contextuais, como a atuação remota no meio a fim de atender as aplicações da UbiComp e, (ii) a proposição de um modelo de processamento de eventos distribuídos adequado aos cenários da IoT. Para avaliar a arquitetura do COIOT foram realizados dois estudos de caso na área da agricultura. O primeiro estudo de caso foi desenvolvido em ambiente de produção a partir de demandas de pesquisadores da área da agricultura, particularmente da análise de sementes. Já o segundo estudo de caso teve como cenário de testes ambientes da viticultura de precisão. / One of the main research challenges in UbiComp is to provide mechanisms for context-aware to promote the development of applications that react according to the dynamics of user interest environment. To keep the knowledge of this environment, the area of UbiComp presupposes the use of information produced and made available in different locations, all the time. In this sense, the recent advances in the field of Internet of Things (IoT) have provided an increasing availability of sensors and actuators networked. These sensors are potential producers of contextual information. With this motivation, this thesis is presented the CoIoT, a middleware for Internet of Things (IoT) designed in order to manage the collect and processing of contextual information of the physical environment as well as remote actuation on it. The CoIoT was designed considering the work previously developed by the research group GPPD (Parallel Processing Group and distributed) of UFRGS, particularly middleware EXEHDA (Execution Environment for Highly Distributed Applications). In designing the CoIoT it was adopted a distributed approach of context processing that includes both the principles of IoT as the demands of the applications of UbiComp. The proposed architecture also includes rules based and triggers mechanisms to deal with events that characterize the changes of states of the contexts of interest. In addition, the proposed architecture manages other important aspects of IoT scenarios such as the treatment of interoperability, heterogeneity, support the control of scalability and resource discovery. Until now, the central contributions of this thesis include: (i) the design of an architecture for IoT able to perform distributed way both the collect and processing of contextual information, such as remote actuation in the environment in order to meet UbiComp applications and, (ii) the proposition of a distributed event processing model appropriate to the IoT scenarios. In order to evaluate the CoIoT architecture, two case studies were carried out in the area of agriculture. The first case study was developed in a production environment based on the demands of agricultural researchers, particularly seed analysis. On the other hand, the second case study was based on precision testing of viticulture environments.
47

Uma arquitetura para provimento de ciência de situação direcionada às aplicações ubíquas na infraestrutura da internet das coisas / An architecture for situation awareness targeted to ubiquitous applications in the infrastructure of the internet of things

Lopes, Joao Ladislau Barbara January 2016 (has links)
A Computação Ubíqua (UbiComp) foi introduzida na década de 90 como a área de pesquisa que estuda a integração da tecnologia às tarefas cotidianas, com a intenção de proporcionar aos usuários a manutenção do foco em suas atividades, reduzindo a necessidade de seu envolvimento com a gerência da infraestrutura computacional. Considerando esta perspectiva de integração das tecnologias, exigindo o mínimo de participação do usuário, um dos desafios centrais de pesquisa para contemplar essa proposta da UbiComp é a Ciência de Situação. A construção do suporte à Ciência de Situação para as aplicações ubíquas envolve a representação do contexto, a coleta, o armazenamento e o processamento dos dados contextuais, bem como a identificação e disseminação das situações, de forma autônoma. Dentre as maneiras que tem sido consideradas para materializar a UbiComp, vem se destacando a Internet das Coisas (Internet of Things - IoT). Esta abordagem utiliza a Internet como principal meio para interoperação entre dispositivos computacionais. Nesse sentido, a IoT tem como premissa unir o mundo físico ao digital, preconizando a ideia do “tudo conectado”, criando assim uma rede de objetos incorporados ao ambiente de forma ubíqua. Deste modo, esta tese tem como objetivo conceber uma arquitetura para provimento de Ciência de Situação às aplicações ubíquas, na perspectiva da infraestrutura da Internet das Coisas. A arquitetura, denominada SAUI (Situation-aware Architecture for Ubiquitous applications in the Internet of things), é concebida considerando os trabalhos previamente desenvolvidos pelo grupo de pesquisa GPPD/UFRGS, particularmente o middleware EXEHDA (Execution Environment for Highly Distributed Applications) Entende-se como contribuições centrais desta tese: (i) a definição de uma abordagem híbrida para representação e processamento do contexto, visando à identificação de situações de interesse das aplicações; e (ii) a concepção de uma arquitetura distribuída, baseada em eventos e regras, visando o suporte à Ciência de Situação das aplicações ubíquas, considerando a infraestrutura provida pela IoT. As funcionalidades da Arquitetura SAUI são avaliadas através de cenários de uso nas áreas de agropecuária e saúde, sendo caracterizados os protótipos desenvolvidos, as tecnologias empregadas e os testes realizados. Os resultados obtidos corroboram com a abordagem da Arquitetura SAUI de considerar um suporte concomitante para operação distribuída, tratamento autônomo dos dados contextuais baseado em eventos e regras, e processamento híbrido do contexto, visando à identificação de situações de interesse das aplicações. / The Ubiquitous Computing (UbiComp) was introduced in the 90s as the area of research that studies the integration of technology in the everyday tasks, with the objective to keep the focus of the users in their activities, reducing the need of their involvement in the management of the computational infrastructure. Considering this perspective of technologies integration, requiring minimal user participation, one of the central research challenges is the situation awareness. The construction of the support to situation awareness for ubiquitous applications involves the representation of context; the acquisition, storage and processing of contextual data; and the identification and dissemination of situations, in autonomous way. Among the ways that have been considered to materialize UbiComp, has been highlighting the IoT (Internet of Things). This approach uses the Internet as the main means for interoperation between computing devices. In this sense, the IoT has the premise of join the physical and digital worlds, contemplating the idea of “everything connected”, thus creating a network of objects embedded in the environment ubiquitously. Thus, this thesis aims to design an architecture for providing situation awareness to ubiquitous applications, considering the IoT infrastructure. The architecture, called SAUI (Situation-aware Architecture for Ubiquitous applications in the Internet of things), is designed considering the work previously developed by the research group GPPD/UFRGS, particularly EXEHDA middleware (Execution Environment for Highly Distributed Applications) It is considered as central contributions of this thesis: (i) the definition of a hybrid approach for modeling and processing of context, aiming at identification of situations of interest of the applications; and (ii) the design of a distributed architecture, driven by events and rules, aiming at supporting the situation awareness of ubiquitous applications, considering an IoT infrastructure. The funcionalities of SAUI architecture are evaluated through usage scenarios in the areas of agriculture and healthcare. It was characterized the developed prototypes, the technologies used, and the tests performed. The results corroborate with the approach of SAUI architecture, which considers a concomitant support for distributed operation, autonomous handling of context based on events and rules, and hybrid processing of context, aiming at identification of situations.
48

Inteligência artificial no aparelho de TV : desafio de reinvenção diante de um consumidor multitelas /

Cazale, Rosiene Cristine Tondelli. January 2019 (has links)
Orientador: Francisco Machado Filho / Banca: Angela Maria Grossi / Banca: Fernando Carlos Moura / Resumo: O presente estudo visa analisar a Inteligência Artificial no aparelho de televisão como oportunidade de negócios, para as emissoras de TV, fundamentado no modelo de negócio da televisão que é baseado em audiência e investimento publicitário e que necessita oferecer cada vez mais conteúdos interessantes, relevantes e que proporcionem uma experiência significativa para o espectador. Portanto, a questão que norteia esta pesquisa é: como alinhar os interesses das organizações televisivas aos desejos dos consumidores, que empiricamente estão se dividindo em nichos de audiência e diminuindo o consumo da programação aberta das emissoras de televisão? Nesse contexto, a televisão busca adaptar seu conteúdo aos novos hábitos constituídos na era da globalização digital, podendo ter na Inteligência Artificia - IA e na Internet das Coisas - IoT - fortes ferramentas para a captação e mapeamento do comportamento desse público e, assim, elaborarem estratégias que utilizem essas mesmas ferramentas e ofereçam conteúdo ou serviços quase em escala pessoal para o espectador. A partir de dados captados, a Inteligência Artificial aprenderá constantemente quais os padrões de comportamento do consumidor e que tipos de conteúdo ou serviços se enquadram em sua rotina. Para a elaboração deste trabalho, foi analisado o modelo de negócio da TV aberta brasileira, os desafios por ela enfrentados diante de um consumidor multitelas, as gerações comportamentais dos consumidores, a IA e os seus sistemas de func... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The present study aims to analyze Artificial Intelligence in the television set as a business opportunity for TV broadcasters, whose business model isbased on audience indicators and advertising investment and which must offer increasingly interesting and relevant content that provides the viewers with a meaningful experience. Therefore, the question that guides this research is: how can one align the interests of TV companies with the desires of the consumers, which are empirically dividing themselves into audience niches and decreasing the viewing of the open schedule of TV broadcasters? In such a context, the TV companies try to adapt their content to the new habits formed in the digital globalization era, and may have the Artificial Intelligence and the Internet of Things as strong tools to collect and map the behavior of this public and, thus, elaborate strategies that use those tools and offer the viewer content or services in an almost personal scale. With the collected data the Artificial Intelligence will constantly learn which are the consumer's behavior patterns and what kind of content or services fit better in her routine. In order to elaborate this work, we analyzed the Brazilian open TV business model, the challenges faced by it with a multiscreen consumer, the AI and its functioning systems and the reinvention of the Brazilian open TV through the use of AI and IoT in the TV device. / Mestre
49

Métodos de análise de decisão multicritério para a seleção de recursos em ambientes loT / Multicriteria decision analysis techniques for resources selection in IoT environments

Nunes, Luiz Henrique 12 December 2018 (has links)
A Internet das coisas é constituída de objetos que possuem pequenos sensores e atuadores capazes de interagir com o ambiente. Tais objetos ou coisas estão interconectados entre si e com acesso à Internet por meio de redes com e sem fio. A combinação entre os dispositivos embarcados com sensores e o acesso à Internet possibilita a comunicação dos recursos do mundo físico com o espaço cibernético, desempenhando um papel fundamental na resolução de muitos desafios encontrados na sociedade atual. Porém, a maioria das aplicações existentes são dedicadas a resolver problemas específicos utilizando tais recursos apenas em redes internas, limitando a real capacidade da Internet das Coisas. Diversos trabalhos na literatura propõem a reutilização de tais recursos em forma de serviço por meio de modelos como Dados como Serviço e Sensoriamento como Serviço. Neste contexto, em que potencialmente milhares de recursos podem transferir dados semelhantes de aplicações diferentes, a utilização de técnicas que possam selecionar recursos de forma sensível a contexto torna-se imprescindível. Nesta tese são propostos um conjunto de métodos para melhorar a relação custo-benefício na seleção de recursos em ambientes IoT, auxiliando na tomada de decisão durante a seleção dos recursos que serão ofertados como serviço. Os resultados obtidos por meio de estudos de caso, permitiram a comparação da qualidade da solução e do custo computacional das técnicas aplicadas na seleção de recursos em ambientes IoT, bem como o desenvolvimento de duas novas técnicas para a seleção de recursos, denominadas Elimination Sort e Fast Elimination Sort. / The Internet of Things is composed of objects which have small sensors and actuators capable of interacting with the environment. Such objects or things are interconnected with each other and has access to the Internet through wired and wireless networks. The combination of embedded devices with sensors and access to the Internet become it possible to communicate the resources of the physical world with the cyberspace, playing a key role in solving many challenges found in todays society. However, most existing applications solves a specific problem using its resources just for own purpose, limiting the actual ability of the Internet of Things. Several works propose the reuse of such resources through service models such as Data as Service and Sensing as a Service. In this context, where thousands of resources can transfer similar data from different applications, the use of techniques that can select these features in a context-sensitive way becomes essential. In this thesis, a set of methods to improve the cost-benefit of the process of selection of resources in IoT environments is proposed to support the decision making during resource selection that will be offered as a service. The results obtained through a case study allowed the comparison of the solution quality and the computational cost of the techniques applied for resource selection in IoT environments, as well as the development of two new techniques for the selection of resources called Elimination Sort and Fast Elimination Sort.
50

Estudo de arquiteturas de segurança para Internet das Coisas utilizando o protocolo DTLS

Jesus, Daniele Freitas de January 2015 (has links)
Orientador: Prof. Dr. João Henrique Kleinschmidt / Dissertação (mestrado) - Universidade Federal do ABC. Programa de Pós-Graduação em Engenharia da Informação, 2015. / O termo Internet das Coisas se refere à interconexão de redes formadas por objetos inteligentes e as tecnologias disponíveis na Internet tradicional, assim como o conjunto das tecnologias que compõem esses objetos e de suas aplicações e serviços. A Internet das Coisas possui grandes limitações em recursos computacionais (como memória, processamento e taxa de transmissão da rede) e ainda são grandes os desafios para possibilitar segurança nas informações transmitidas. Toda implementação de segurança deve levar essas limitações em consideração, o que motivou essa pesquisa. Portanto este trabalho analisa diferentes arquiteturas de segurança para a Internet das Coisas, utilizando o protocolo DTLS e os protocolos que já estão sendo utilizados na Internet das Coisas. Nessa pesquisa foram estudados os principais conceitos de Internet das Coisas, suas camadas e protocolos, segurança, criptografia, gerenciamento de chaves, dando destaque ao protocolo DTLS. Foi utilizado o ambiente de simulação Contiki, para a realização de testes e verificação do consumo de recursos do sistema, como energia e tempo de uso do processador, obedecendo à pilha de protocolos das camadas disponíveis estudadas. Os resultados apresentaram a redução de consumo de energia e tempo em relação ao formato do DTLS, modelo de handshake e arquitetura de segurança.

Page generated in 0.0613 seconds