• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 17
  • 15
  • 15
  • 15
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 1
  • Tagged with
  • 315
  • 315
  • 76
  • 57
  • 56
  • 55
  • 53
  • 45
  • 35
  • 35
  • 30
  • 30
  • 29
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

TAXOPETIC : proposta de uma taxonomia para a classificação dos artefatos gerados pela metodologia PETIC

Fontes, Adriana de Melo 30 August 2016 (has links)
Advances in Information and Communication Technologies (ICT) can provide competitive advantages for organizations. The search for innovations by organizations demand better solutions for the constant technology and market advancements and the guarantee of quality and satisfaction to its customers. In this sense, organizations need that the Strategic Planning (PE) and ICT be integrated, coherent and with synergy to ensure the survival of organizations. The PETIC Methodology is a form of PE that safely help managers identify the maturity and consequent improvement of ICT processes required in company management. The growing number of case studies of PETIC in organizations has shown a difficulty to locate and classify PETIC Artifacts produced during these case studies. In this context, the use of classificatory structures (taxonomies) has been successfully applied to the classification and retrieval of information. This work proposes a taxonomy to support methodology PETIC called TAXOPETIC. Among the various technical approaches to build a taxonomy, we opted for the use of approaches Aganette et al. (2010) and Bayona-Oré et al. (2014). After the construction of TAXOPETIC, we performed a comparative study between these used approaches. In this paper, we present the reasons of choosing Bayonne-Oré et al approach. (2014). To test the TAXOPETIC structure, a software product called TAXOPETICWeb was built. Among the results, it was evident that the non-use of TAXOPETICWeb tool disables the centralized and classified access to Artifacts PETIC legacy. The TAXOPETICWeb enables the storage of all rated PETIC artifacts and, through the defined metadata tags, allows the most efficient location and categorizes the artifacts stored in PETIC TAXOPETICWeb. / Os avanços das Tecnologias da Informação e Comunicação (TIC) podem proporcionar diferenciais competitivos para as organizações. A busca de inovações pelas organizações exige melhores soluções para o avanço constante da tecnologia e do mercado e a garantia de qualidade e satisfação aos seus clientes. Nesse sentido, as organizações necessitam que o Planejamento Estratégico (PE) e as TIC estejam integrados, coerentes e com sinergia para garantir a sobrevivência das organizações. A Metodologia PETIC é uma forma de PE que, de forma segura, ajuda gestores na identificação da maturidade e consequente melhoria dos processos de TIC, necessários na gestão da empresa. O crescente número de estudos de caso da PETIC em organizações tem evidenciado uma dificuldade de localizar e classificar os Artefatos PETIC, produzidos durante esses estudos de caso. Nesse contexto, a utilização de estruturas classificatórias (taxonomias) tem sido aplicada com sucesso para a classificação e a recuperação de informações. Este trabalho propõe uma taxonomia para dar suporte à Metodologia PETIC, denominada TAXOPETIC. Dentre as diversas abordagens técnicas para a construção de uma taxonomia, optou-se pelo uso das abordagens de Aganette et al. (2010) e Bayona-Oré et al. (2014). Após a construção da TAXOPETIC, foi realizado um estudo comparativo entre essas abordagens utilizadas. Neste trabalho, são apresentados os motivos pela escolha da abordagem de Bayona-Oré et al. (2014). Para testar a estrutura da TAXOPETIC, foi construído um produto de software chamado TAXOPETICWeb. Entre os resultados, ficou evidenciado que a não utilização da ferramenta TAXOPETICWeb impossibilita o acesso centralizado e classificado do Artefatos PETIC legados. A TAXOPETICWeb possibilita o armazenamento classificado de todos os Artefatos PETIC e, por meio dos metadados e tags definidos, permite a localização mais eficiente e categoriza dos Artefatos PETIC armazenados na TAXOPETICWeb.
292

Um framework de testes unitários para procedimentos de carga em ambientes de business intelligence

Santos, Igor Peterson Oliveira 30 August 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Business Intelligence (BI) relies on Data Warehouse (DW), a historical data repository designed to support the decision making process. Despite the potential benefits of a DW, data quality issues prevent users from realizing the benefits of a BI environment and Data Analytics. Problems related to data quality can arise in any stage of the ETL (Extract, Transform and Load) process, especially in the loading phase. This thesis presents an approach to automate the selection and execution of previously identified test cases for loading procedures in BI environments and Data Analytics based on DW. To verify and validate the approach, a unit test framework was developed. The overall goal is achieve data quality improvement. The specific aim is reduce test effort and, consequently, promote test activities in DW process. The experimental evaluation was performed by two controlled experiments in the industry. The first one was carried out to investigate the adequacy of the proposed method for DW procedures development. The Second one was carried out to investigate the adequacy of the proposed method against a generic framework for DW procedures development. Both results showed that our approach clearly reduces test effort and coding errors during the testing phase in decision support environments. / A qualidade de um produto de software está diretamente relacionada com os testes empregados durante o seu desenvolvimento. Embora os processos de testes para softwares aplicativos e sistemas transacionais já apresentem um alto grau de maturidade, estes devem ser investigados para os processos de testes em um ambiente de Business Intelligence (BI) e Data Analytics. As diferenças deste ambiente em relação aos demais tipos de sistemas fazem com que os processos e ferramentas de testes existentes precisem ser ajustados a uma nova realidade. Neste contexto, grande parte das aplicações de Business Intelligence (BI) efetivas depende de um Data Warehouse (DW), um repositório histórico de dados projetado para dar suporte a processos de tomada de decisão. São as cargas de dados para o DW que merecem atenção especial relativa aos testes, por englobar procedimentos críticos em relação à qualidade. Este trabalho propõe uma abordagem de testes, baseada em um framework de testes unitários, para procedimentos de carga em um ambiente de BI e Data Analytics. O framework proposto, com base em metadados sobre as rotinas de carga, realiza a execução automática de casos de testes, por meio da geração de estados iniciais e a análise dos estados finais, bem como seleciona os casos de testes a serem aplicados. O objetivo é melhorar a qualidade dos procedimentos de carga de dados e reduzir o tempo empregado no processo de testes. A avaliação experimental foi realizada através de dois experimentos controlados executados na indústria. O primeiro avaliou a utilização de casos de testes para as rotinas de carga, comparando a efetividade do framework com uma abordagem manual. O segundo experimento efetuou uma comparação com um framework genérico e similar do mercado. Os resultados indicaram que o framework pode contribuir para o aumento da produtividade e redução dos erros de codificação durante a fase de testes em ambientes de suporte à decisão.
293

Linguagem e compilador para o paradigma orientado a notificações (PON): avanços e comparações

Ferreira, Cleverson Avelino 28 August 2015 (has links)
Atuais paradigmas correntes de programação de software, mais precisamente o Paradigma Imperativo (PI) e o Paradigma Declarativo (PD), apresentam deficiências que afetam o desempenho das aplicações e a obtenção de “desacoplamento” (ou acoplamento mínimo) entre elementos de software. Com o objetivo de amenizar essas deficiências, foi desenvolvido o Paradigma Orientado a Notificações (PON). O PON se inspira nos conceitos do PI (e.g. objetos) e do PD (e.g. base de fatos e regras), mas altera a essência da execução ou inferência lógica-causal. Basicamente, o PON usa objetos para tratar de fatos e regras na forma de composições de outros objetos menores que, entretanto, apresentam características comportamentais de certa autonomia, independência, reatividade e colaboração por meio de notificações pontuais para fins de inferência. Isto dito, salienta-se que a materialização dos conceitos do PON se deu por meio de um arquétipo ou Framework elaborado em linguagem de programação C++. Tal materialização do PON vem sendo utilizada como uma alternativa para o desenvolvimento de aplicações sob o domínio desse paradigma e possibilitou, de fato, a criação de aplicações para ambientes computacionais usuais baseados na chamada arquitetura Von Neumann. Apesar destas contribuições para com a sua materialização, o desenvolvimento de aplicações no PON ainda não apresentava resultados satisfatórios em termos de desempenho tal qual deveria a luz do seu cálculo assintótico, nem a facilidade de programação que seria uma das suas características principais. Nesse âmbito, o presente trabalho propõe como evolução para o estado da técnica do PON a criação de uma linguagem e compilador para o paradigma. Sendo assim, este trabalho apresenta a definição da linguagem criada com a utilização de exemplos práticos guiados pelo desenvolvimento de aplicações. Subsequentemente são apresentados detalhes do compilador bem como sua estrutura. Para demonstrar a evolução do estado da técnica do paradigma, no tocante a desempenho (e.g. tempo de processamento) e facilidade de programação foram realizados estudos comparativos com a utilização da linguagem e compilador. Os estudos comparativos foram guiados com a elaboração de dois softwares denominados aplicação Mira ao Alvo e aplicação de Vendas. Essas aplicações foram desenvolvidas com base na linguagem PON e foram realizados experimentos simulando sequências de execução com o intuito de avaliar o tempo de processamento para o resultado gerado pelo compilador PON. Ainda, tais experimentos possibilitaram a avaliação de maneira subjetiva da linguagem de programação PON no tocante a facilidade de programação. Deste modo, foi possível observar com tais estudos comparativos que os resultados apresentados pelo compilador PON foram satisfatórios quando comparados aos resultados obtidos pelo Framework e por aplicações equivalentes desenvolvidas baseadas no Paradigma Orientado a Objetos (POO). / The current software development paradigms, specifically the Imperative Paradigm (IP) and the Declarative Paradigm (DP), have weaknesses that affect the applications performance and decoupling (or minimal coupling) between the software modules. In order to provide a solution regarding these weaknesses, the Notification Oriented Paradigm (NOP) was developed. NOP is inspired by the concepts of the IP (e.g. objects) and DP (e.g. base of facts and Rules). Basically, NOP uses objects to deal with facts and Rules as compositions of other, smaller, objects. These objects have the following behavioral characteristics: autonomy, independence, responsiveness and collaboration through notifications. Thus, it’s highlighted that the realization of these concepts was firstly instantiated through a Framework developed in C++. Such NOP materialization has been used as an alternative for Application development in the domain of this paradigm and made possible, in fact, the creation of applications for typical computing environments based on Von Neumann architecture. The development of the C++ materialization of NOP has not presented satisfactory results in terms of performance as it should when taking into account its asymptotic calculation and programming facility. In this context, this work presents an evolution of NOP by creating a specific programming language, and its respective compiler, for this paradigm. Therefore, this work presents the language definition and the details of the development of its compiler. To evaluate the evolution regarding to performance (e.g. processing time) and programming facility, some comparative studies using the NOP language and compiler are presented. These comparative studies were performed by developing two software applications called Target and Sales Application. These applications have been developed based on NOP language, and the experiments were performed simulating sequences of execution in order to evaluate the processing time for the generated results by NOP compiler. Still, these experiments allowed the evaluation of NOP programming language, in a subjective way, regarding to ease programming. Thus, with such comparative studies, it was possible to observe that the results presented by the compiler NOP were satisfactory when compared to the results achieved via Framework and for equivalent applications developed based on the Oriented Object Paradigm (OOP).
294

Controlador de demanda e emulador do consumidor residencial para manutenção do conforto do usuário em Smart Grids

Maciel, Savio Alencar 20 October 2014 (has links)
Neste trabalho é apresentada uma abordagem de controle de demanda para consumidores residenciais de baixa tensão, visando melhoria da eficiência energética em Smart Grids. Inicialmente, um emulador de cargas elétricas residenciais é modelado com base na literatura. O emulador é composto pelo modelo de um reservatório de aquecimento de água (boiler), o modelo de um aparelho de ar condicionado e também modelos de consumo de iluminação, televisores e uma geladeira. Utilizando o software Matlab foi realizada a implementação e simulação do emulador. Os principais algoritmos de controle de demanda são investigados, a fim de verificar o seu desempenho quando aplicados ao conjunto de cargas residenciais. Esses algoritmos normalmente realizam o controle de demanda a partir de um sistema de prioridades. Ainda, a partir dessa analise demostra-se que estes algoritmos consideram níveis de conforto do usuário, porém não permitem o acionamento de duas ou mais cargas em um mesmo período caso a demanda da residência ultrapasse um limite predeterminado. Portanto, propõem-se um algoritmo de controle de demanda adaptativo que utiliza o método de busca Rosenbrock, com o objetivo de sobrepujar tais limitações. O procedimento proposto realiza a operação das cargas residenciais de forma gradual considerando níveis de prioridade e parâmetros de conforto dos usuários. Demonstra-se através de simulações e experimentos que através do método proposto é possível realizar a ativação de diversas cargas concorrentemente, desde que respeitados os níveis de conforto e de demanda. Para obtenção dos resultados experimentais o controlador de demanda foi implementado em um sistema embarcado e testado com o emulador de cargas elétricas residenciais implementado em uma arquitetura HIL (Hardware-in-the-loop). Analisando os resultados, observou-se que o consumo de energia foi o mesmo para todos os cenários simulados sendo que a demanda se manteve abaixo dos limites parametrizados. Porém com o limitador de demanda ativo, se obteve uma redução de até 52% no tempo de aquecimento da água utilizando o controlador de demanda adaptativo, dessa forma o desconforto dos usuários pode ser minimizado. / This work presents an approach to control demand for residential low voltage consumers, aiming to improve energy efficiency in Smart Grids. Initially, an emulator of residential electric loads is modeled based on the literature. The emulator consists of a reservoir for water heating model, the model of an air conditioner and also models of consumption for lighting, televisions and a refrigerator. The implementation and simulation were performed using software Matlab. The demand control algorithms are investigated in order to verify its performance when applied to the set of residential loads. These algorithms typically perform control demand from a system of priorities. Still, from this analysis it demonstrates that these algorithms consider levels of user comfort, but do not allow the drive of two or more loads in the same period of residence if the demand exceeds the limit. Therefore, we propose a control algorithm that uses Rosenbrock search of demand adaptive method, aiming to overcome these limitations. The proposed procedure performs the operation of residential loads gradually considering priority levels and parameters of comfort of users. It is shown through simulations and experiments using the proposed method can perform the activation of several concurrently loads, provided they comply with the limits of comfort and demand. To obtain the experimental results demand the controller was implemented in an embedded system and tested with the emulator residential electrical loads implemented in a HIL (Hardware-in-theloop) architecture. Analyzing the results, it was observed that the power consumption is the same for all scenarios simulated and demand remained below parametric limits. But with the demand limiter active, we obtained a reduction of up to 52% in heat water using the demand controller adaptive, so the discomfort of the users can be minimized.
295

Questões de gênero em jogos digitais: uma coleção de recursos educacionais abertos de apoio à mobilização / Gender issues in digital games: mobilizing engagement through an open educational resources collection

Rodrigues, Letícia 10 February 2017 (has links)
CAPES / Vários grupos, tais como as mulheres, gays, lésbicas, bissexuais, transexuais e transgêneros, têm reivindicações de participação em jogos digitais o que tem gerado um cenário de transformações nessa comunidade. Parte desse movimento é decorrente da maneira como determinadas pessoas vem sendo marginalizadas e invisibilizadas nesse meio devido à questões de sexo/gênero, raça/etnia entre outras clivagens. Estas pessoas ou grupos têm reivindicado de modo crescente, a partir de diversas estratégias, seu reconhecimento pela indústria e pelas comunidades simpatizantes, e/ou inclusive pelas próprias comunidades nas quais jogam. Este trabalho discorre sobre as questões de gênero no âmbito dos jogos digitais na perspectiva dos estudos de gênero e do feminismo. Procuro refletir sobre a atividade de jogar por meio do conceito de tecnologias de gênero através das quais relações de gênero específicas são muitas vezes reiteradas ou até mesmo forjadas, considerando a maneira como estes jogos são muitas vezes desenvolvidos (divisão de trabalho), divulgados (padrões heteronormativos, eurocêntricos, etc) ou vivenciados (machismo, misoginia, racismo, e outros preconceitos). Através desta pesquisa apresento o protótipo em Zotero de uma coleção aberta que visa facilitar o acesso e circulação de recursos que podem auxiliar na discussão das questões de gênero e suas interseccionalidades. Por meio deste protótipo, é delineada a estrutura de uma futura coleção, em plataforma ainda a determinar. Almejo futuramente um espaço pedagógico que promova o questionamento das normatizações de gênero e da naturalização de práticas excludentes, seja no ensino dos jogos digitais (cursos de graduação, especialização, etc), como algo a ser considerado nos espaços de desenvolvimento de jogos na indústria, nas práticas cotidianas de jogadoras/es, e/ou nas temáticas de pesquisadoras/es da área. Enfatizamos o caráter aberto da coleção no sentido de proporcionar futuras contribuições ao seu acervo, permitindo que ela seja atualizada frente as transformações recorrentes no cenário dos jogos digitais em relação às dimensões sociais, culturais e históricas. Uma tal coleção seria o primeiro passo no reconhecimento de participantes cuja invisibilização é clara na área de jogos digitais. / Several groups, such as women, gays, lesbians, bissexuals, transexuals and transgender, have claims of participation in digital games which has generated a scenario of transformations in this community. Part of this movement is due to the way in which certain people have been marginalized and invisible in this environment due to issues of sex/gender, race/ethnicity and other cleavages. These individuals or groups have increasingly claimed, from various strategies, their recognition by industry and sympathetic communities, and/or even by the communities in which they play. This research discusses gender issues within the context of digital games from the perspective of gender studies and feminism. I seek to reflect on the activity of playing through the concept of technologies of gender through which specific gender relations are often reiterated or even forged, considering how these games are often developed (division of labor), disclosed (patterns Heteronormative, Eurocentric, etc.) or experienced (chauvinism, misogyny, racism, and other prejudices). Through this research I present the prototype of an open collection in Zotero that aims to facilitate the access and circulation of resources that can help in the discussion of gender issues and their intersectionalities. By means of this prototype, the structure of a future collection, in platform yet to be determined, is outlined. I aim that in the future it can be a pedagogical space that promotes the questioning of gender norms and the naturalization of exclusionary practices, whether in the teaching of digital games (undergraduate courses, specialization, etc.), as something to be considered in games development spaces in industry, in the daily practices of players, and/or in the themes of researchers in the area. We emphasize the open character of the collection in the sense of providing future contributions to it, allowing it to be updated in the face of the recurring transformations in the digital games scene in relation to social, cultural and historical dimensions. Such a collection would be the first step in recognizing participants whose invisibility is clear in the area of digital games.
296

Linguagem e compilador para o paradigma orientado a notificações (PON): avanços e comparações

Ferreira, Cleverson Avelino 28 August 2015 (has links)
Atuais paradigmas correntes de programação de software, mais precisamente o Paradigma Imperativo (PI) e o Paradigma Declarativo (PD), apresentam deficiências que afetam o desempenho das aplicações e a obtenção de “desacoplamento” (ou acoplamento mínimo) entre elementos de software. Com o objetivo de amenizar essas deficiências, foi desenvolvido o Paradigma Orientado a Notificações (PON). O PON se inspira nos conceitos do PI (e.g. objetos) e do PD (e.g. base de fatos e regras), mas altera a essência da execução ou inferência lógica-causal. Basicamente, o PON usa objetos para tratar de fatos e regras na forma de composições de outros objetos menores que, entretanto, apresentam características comportamentais de certa autonomia, independência, reatividade e colaboração por meio de notificações pontuais para fins de inferência. Isto dito, salienta-se que a materialização dos conceitos do PON se deu por meio de um arquétipo ou Framework elaborado em linguagem de programação C++. Tal materialização do PON vem sendo utilizada como uma alternativa para o desenvolvimento de aplicações sob o domínio desse paradigma e possibilitou, de fato, a criação de aplicações para ambientes computacionais usuais baseados na chamada arquitetura Von Neumann. Apesar destas contribuições para com a sua materialização, o desenvolvimento de aplicações no PON ainda não apresentava resultados satisfatórios em termos de desempenho tal qual deveria a luz do seu cálculo assintótico, nem a facilidade de programação que seria uma das suas características principais. Nesse âmbito, o presente trabalho propõe como evolução para o estado da técnica do PON a criação de uma linguagem e compilador para o paradigma. Sendo assim, este trabalho apresenta a definição da linguagem criada com a utilização de exemplos práticos guiados pelo desenvolvimento de aplicações. Subsequentemente são apresentados detalhes do compilador bem como sua estrutura. Para demonstrar a evolução do estado da técnica do paradigma, no tocante a desempenho (e.g. tempo de processamento) e facilidade de programação foram realizados estudos comparativos com a utilização da linguagem e compilador. Os estudos comparativos foram guiados com a elaboração de dois softwares denominados aplicação Mira ao Alvo e aplicação de Vendas. Essas aplicações foram desenvolvidas com base na linguagem PON e foram realizados experimentos simulando sequências de execução com o intuito de avaliar o tempo de processamento para o resultado gerado pelo compilador PON. Ainda, tais experimentos possibilitaram a avaliação de maneira subjetiva da linguagem de programação PON no tocante a facilidade de programação. Deste modo, foi possível observar com tais estudos comparativos que os resultados apresentados pelo compilador PON foram satisfatórios quando comparados aos resultados obtidos pelo Framework e por aplicações equivalentes desenvolvidas baseadas no Paradigma Orientado a Objetos (POO). / The current software development paradigms, specifically the Imperative Paradigm (IP) and the Declarative Paradigm (DP), have weaknesses that affect the applications performance and decoupling (or minimal coupling) between the software modules. In order to provide a solution regarding these weaknesses, the Notification Oriented Paradigm (NOP) was developed. NOP is inspired by the concepts of the IP (e.g. objects) and DP (e.g. base of facts and Rules). Basically, NOP uses objects to deal with facts and Rules as compositions of other, smaller, objects. These objects have the following behavioral characteristics: autonomy, independence, responsiveness and collaboration through notifications. Thus, it’s highlighted that the realization of these concepts was firstly instantiated through a Framework developed in C++. Such NOP materialization has been used as an alternative for Application development in the domain of this paradigm and made possible, in fact, the creation of applications for typical computing environments based on Von Neumann architecture. The development of the C++ materialization of NOP has not presented satisfactory results in terms of performance as it should when taking into account its asymptotic calculation and programming facility. In this context, this work presents an evolution of NOP by creating a specific programming language, and its respective compiler, for this paradigm. Therefore, this work presents the language definition and the details of the development of its compiler. To evaluate the evolution regarding to performance (e.g. processing time) and programming facility, some comparative studies using the NOP language and compiler are presented. These comparative studies were performed by developing two software applications called Target and Sales Application. These applications have been developed based on NOP language, and the experiments were performed simulating sequences of execution in order to evaluate the processing time for the generated results by NOP compiler. Still, these experiments allowed the evaluation of NOP programming language, in a subjective way, regarding to ease programming. Thus, with such comparative studies, it was possible to observe that the results presented by the compiler NOP were satisfactory when compared to the results achieved via Framework and for equivalent applications developed based on the Oriented Object Paradigm (OOP).
297

Controlador de demanda e emulador do consumidor residencial para manutenção do conforto do usuário em Smart Grids

Maciel, Savio Alencar 20 October 2014 (has links)
Neste trabalho é apresentada uma abordagem de controle de demanda para consumidores residenciais de baixa tensão, visando melhoria da eficiência energética em Smart Grids. Inicialmente, um emulador de cargas elétricas residenciais é modelado com base na literatura. O emulador é composto pelo modelo de um reservatório de aquecimento de água (boiler), o modelo de um aparelho de ar condicionado e também modelos de consumo de iluminação, televisores e uma geladeira. Utilizando o software Matlab foi realizada a implementação e simulação do emulador. Os principais algoritmos de controle de demanda são investigados, a fim de verificar o seu desempenho quando aplicados ao conjunto de cargas residenciais. Esses algoritmos normalmente realizam o controle de demanda a partir de um sistema de prioridades. Ainda, a partir dessa analise demostra-se que estes algoritmos consideram níveis de conforto do usuário, porém não permitem o acionamento de duas ou mais cargas em um mesmo período caso a demanda da residência ultrapasse um limite predeterminado. Portanto, propõem-se um algoritmo de controle de demanda adaptativo que utiliza o método de busca Rosenbrock, com o objetivo de sobrepujar tais limitações. O procedimento proposto realiza a operação das cargas residenciais de forma gradual considerando níveis de prioridade e parâmetros de conforto dos usuários. Demonstra-se através de simulações e experimentos que através do método proposto é possível realizar a ativação de diversas cargas concorrentemente, desde que respeitados os níveis de conforto e de demanda. Para obtenção dos resultados experimentais o controlador de demanda foi implementado em um sistema embarcado e testado com o emulador de cargas elétricas residenciais implementado em uma arquitetura HIL (Hardware-in-the-loop). Analisando os resultados, observou-se que o consumo de energia foi o mesmo para todos os cenários simulados sendo que a demanda se manteve abaixo dos limites parametrizados. Porém com o limitador de demanda ativo, se obteve uma redução de até 52% no tempo de aquecimento da água utilizando o controlador de demanda adaptativo, dessa forma o desconforto dos usuários pode ser minimizado. / This work presents an approach to control demand for residential low voltage consumers, aiming to improve energy efficiency in Smart Grids. Initially, an emulator of residential electric loads is modeled based on the literature. The emulator consists of a reservoir for water heating model, the model of an air conditioner and also models of consumption for lighting, televisions and a refrigerator. The implementation and simulation were performed using software Matlab. The demand control algorithms are investigated in order to verify its performance when applied to the set of residential loads. These algorithms typically perform control demand from a system of priorities. Still, from this analysis it demonstrates that these algorithms consider levels of user comfort, but do not allow the drive of two or more loads in the same period of residence if the demand exceeds the limit. Therefore, we propose a control algorithm that uses Rosenbrock search of demand adaptive method, aiming to overcome these limitations. The proposed procedure performs the operation of residential loads gradually considering priority levels and parameters of comfort of users. It is shown through simulations and experiments using the proposed method can perform the activation of several concurrently loads, provided they comply with the limits of comfort and demand. To obtain the experimental results demand the controller was implemented in an embedded system and tested with the emulator residential electrical loads implemented in a HIL (Hardware-in-theloop) architecture. Analyzing the results, it was observed that the power consumption is the same for all scenarios simulated and demand remained below parametric limits. But with the demand limiter active, we obtained a reduction of up to 52% in heat water using the demand controller adaptive, so the discomfort of the users can be minimized.
298

Dmitry: uma arquitetura para gestão ágil de projetos no moodle

Santos, Christiano Lima 16 May 2014 (has links)
In recent decades, geographic barriers no longer exist, communication has become faster and affordable and technological tools expanded the power of human information processing, leading to profound economic, social and cultural transformations. Thus, Information and Communication Technologies received critical role in a society that communicates, negotiates and learns "in network", however educational approaches adopted in schools and universities are still lagged. New constructivist teaching techniques such as Project-Based Learning and computational tools like Virtual Learning Environments are researched and experimented, suggesting educational project management through cyberspace as a possible educational approach that promotes the construction of knowledge by the learners themselves collaboratively and overcoming geographical constraints. This dissertation analyzes the Virtual Learning Environment Moodle to support the technique of Project-Based Learning and presents a software architecture for the educational project management like an environment that enables learning of more autonomous and collaborative way. / Nas últimas décadas, barreiras geográficas deixaram de existir, a comunicação tornou-se mais veloz e acessível e ferramentas tecnológicas ampliaram o poder de processamento humano das informações, levando a profundas transformações econômicas, sociais e culturais. Assim, Tecnologias da Informação e Comunicação receberam papel fundamental em uma sociedade que se comunica, negocia e aprende "em rede", entretanto abordagens educacionais adotadas nas instituições de ensino ainda se encontram defasadas. Novas técnicas de ensino construtivistas como a Aprendizagem Baseada em Projetos e ferramentas computacionais como os Ambientes Virtuais de Aprendizagem são pesquisadas e experimentadas, apontando a gestão de projetos educativos por meio do ciberespaço como uma possível abordagem educacional capaz de promover a construção do conhecimento pelos próprios aprendizes de forma colaborativa e superando restrições geográficas. Esta dissertação analisa o Ambiente Virtual de Aprendizagem Moodle como suporte à técnica de Aprendizagem Baseada em Projetos e apresenta uma arquitetura de software para a gestão de projetos educativos como um ambiente que permita a aprendizagem de forma mais autônoma e colaborativa.
299

TAXOPETIC : proposta de uma taxonomia para a classificação dos artefatos gerados pela metodologia PETIC

Fontes, Adriana de Melo 30 August 2016 (has links)
Advances in Information and Communication Technologies (ICT) can provide competitive advantages for organizations. The search for innovations by organizations demand better solutions for the constant technology and market advancements and the guarantee of quality and satisfaction to its customers. In this sense, organizations need that the Strategic Planning (PE) and ICT be integrated, coherent and with synergy to ensure the survival of organizations. The PETIC Methodology is a form of PE that safely help managers identify the maturity and consequent improvement of ICT processes required in company management. The growing number of case studies of PETIC in organizations has shown a difficulty to locate and classify PETIC Artifacts produced during these case studies. In this context, the use of classificatory structures (taxonomies) has been successfully applied to the classification and retrieval of information. This work proposes a taxonomy to support methodology PETIC called TAXOPETIC. Among the various technical approaches to build a taxonomy, we opted for the use of approaches Aganette et al. (2010) and Bayona-Oré et al. (2014). After the construction of TAXOPETIC, we performed a comparative study between these used approaches. In this paper, we present the reasons of choosing Bayonne-Oré et al approach. (2014). To test the TAXOPETIC structure, a software product called TAXOPETICWeb was built. Among the results, it was evident that the non-use of TAXOPETICWeb tool disables the centralized and classified access to Artifacts PETIC legacy. The TAXOPETICWeb enables the storage of all rated PETIC artifacts and, through the defined metadata tags, allows the most efficient location and categorizes the artifacts stored in PETIC TAXOPETICWeb. / Os avanços das Tecnologias da Informação e Comunicação (TIC) podem proporcionar diferenciais competitivos para as organizações. A busca de inovações pelas organizações exige melhores soluções para o avanço constante da tecnologia e do mercado e a garantia de qualidade e satisfação aos seus clientes. Nesse sentido, as organizações necessitam que o Planejamento Estratégico (PE) e as TIC estejam integrados, coerentes e com sinergia para garantir a sobrevivência das organizações. A Metodologia PETIC é uma forma de PE que, de forma segura, ajuda gestores na identificação da maturidade e consequente melhoria dos processos de TIC, necessários na gestão da empresa. O crescente número de estudos de caso da PETIC em organizações tem evidenciado uma dificuldade de localizar e classificar os Artefatos PETIC, produzidos durante esses estudos de caso. Nesse contexto, a utilização de estruturas classificatórias (taxonomias) tem sido aplicada com sucesso para a classificação e a recuperação de informações. Este trabalho propõe uma taxonomia para dar suporte à Metodologia PETIC, denominada TAXOPETIC. Dentre as diversas abordagens técnicas para a construção de uma taxonomia, optou-se pelo uso das abordagens de Aganette et al. (2010) e Bayona-Oré et al. (2014). Após a construção da TAXOPETIC, foi realizado um estudo comparativo entre essas abordagens utilizadas. Neste trabalho, são apresentados os motivos pela escolha da abordagem de Bayona-Oré et al. (2014). Para testar a estrutura da TAXOPETIC, foi construído um produto de software chamado TAXOPETICWeb. Entre os resultados, ficou evidenciado que a não utilização da ferramenta TAXOPETICWeb impossibilita o acesso centralizado e classificado do Artefatos PETIC legados. A TAXOPETICWeb possibilita o armazenamento classificado de todos os Artefatos PETIC e, por meio dos metadados e tags definidos, permite a localização mais eficiente e categoriza dos Artefatos PETIC armazenados na TAXOPETICWeb.
300

Um framework de testes unitários para procedimentos de carga em ambientes de business intelligence

Santos, Igor Peterson Oliveira 30 August 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Business Intelligence (BI) relies on Data Warehouse (DW), a historical data repository designed to support the decision making process. Despite the potential benefits of a DW, data quality issues prevent users from realizing the benefits of a BI environment and Data Analytics. Problems related to data quality can arise in any stage of the ETL (Extract, Transform and Load) process, especially in the loading phase. This thesis presents an approach to automate the selection and execution of previously identified test cases for loading procedures in BI environments and Data Analytics based on DW. To verify and validate the approach, a unit test framework was developed. The overall goal is achieve data quality improvement. The specific aim is reduce test effort and, consequently, promote test activities in DW process. The experimental evaluation was performed by two controlled experiments in the industry. The first one was carried out to investigate the adequacy of the proposed method for DW procedures development. The Second one was carried out to investigate the adequacy of the proposed method against a generic framework for DW procedures development. Both results showed that our approach clearly reduces test effort and coding errors during the testing phase in decision support environments. / A qualidade de um produto de software está diretamente relacionada com os testes empregados durante o seu desenvolvimento. Embora os processos de testes para softwares aplicativos e sistemas transacionais já apresentem um alto grau de maturidade, estes devem ser investigados para os processos de testes em um ambiente de Business Intelligence (BI) e Data Analytics. As diferenças deste ambiente em relação aos demais tipos de sistemas fazem com que os processos e ferramentas de testes existentes precisem ser ajustados a uma nova realidade. Neste contexto, grande parte das aplicações de Business Intelligence (BI) efetivas depende de um Data Warehouse (DW), um repositório histórico de dados projetado para dar suporte a processos de tomada de decisão. São as cargas de dados para o DW que merecem atenção especial relativa aos testes, por englobar procedimentos críticos em relação à qualidade. Este trabalho propõe uma abordagem de testes, baseada em um framework de testes unitários, para procedimentos de carga em um ambiente de BI e Data Analytics. O framework proposto, com base em metadados sobre as rotinas de carga, realiza a execução automática de casos de testes, por meio da geração de estados iniciais e a análise dos estados finais, bem como seleciona os casos de testes a serem aplicados. O objetivo é melhorar a qualidade dos procedimentos de carga de dados e reduzir o tempo empregado no processo de testes. A avaliação experimental foi realizada através de dois experimentos controlados executados na indústria. O primeiro avaliou a utilização de casos de testes para as rotinas de carga, comparando a efetividade do framework com uma abordagem manual. O segundo experimento efetuou uma comparação com um framework genérico e similar do mercado. Os resultados indicaram que o framework pode contribuir para o aumento da produtividade e redução dos erros de codificação durante a fase de testes em ambientes de suporte à decisão.

Page generated in 0.5269 seconds