• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3338
  • 2181
  • 478
  • 181
  • 181
  • 181
  • 181
  • 178
  • 178
  • 177
  • 177
  • 7
  • 4
  • 3
  • 3
  • Tagged with
  • 6030
  • 3318
  • 3268
  • 3251
  • 3183
  • 3139
  • 3132
  • 3131
  • 3125
  • 3112
  • 3109
  • 798
  • 490
  • 460
  • 418
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Representações de professores sobre o uso da informática na Educação Infantil : estudo de caso em uma escola pública de Santa Maria (DF)

Rodrigues, Diva Lúcia 29 May 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Educação, Programa de Pós-Graduação em Educação, 2015. / Submitted by Camila Lobo (milalobos2@gmail.com) on 2016-01-14T19:43:16Z No. of bitstreams: 1 2015_DivaLúciaRodrigues.pdf: 1271472 bytes, checksum: 6da8b8e6ea57ad8830878b1cc0f4bba7 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-01-14T19:53:10Z (GMT) No. of bitstreams: 1 2015_DivaLúciaRodrigues.pdf: 1271472 bytes, checksum: 6da8b8e6ea57ad8830878b1cc0f4bba7 (MD5) / Made available in DSpace on 2016-01-14T19:53:10Z (GMT). No. of bitstreams: 1 2015_DivaLúciaRodrigues.pdf: 1271472 bytes, checksum: 6da8b8e6ea57ad8830878b1cc0f4bba7 (MD5) / Esta dissertação estuda as representações de professores sobre o uso da informática na Educação Infantil, por meio de um estudo de caso em uma escola pública de Santa Maria, no Distrito Federal. A investigação fundamenta-se nas concepções de Moscovici (1978); Jodelet (2001) e Alves-Mazzotti (1994) para o entendimento do conceito de representações sociais associadas à educação. Na análise das representações evidenciadas pelas professoras, o referencial teórico utilizado está baseado no trabalho de autores como: Afonso (1993); Amante (2003); Carneiro (2002); Levy (1999); Santos e Braga (2012); Silva (2010); Venkatesh (2003), entre outros. Com o propósito de compreender, por meio da explicitação de representações de professoras da Educação Infantil, suas concepções e atitudes em relação ao uso da informática nas práticas educativas, foram utilizadas a pesquisa bibliográfica e o estudo de caso, que corroboraram no delineamento das imagens e atitudes frente ao trabalho com a informática na escola. Para o mapeamento das representações das docentes, foram utilizados, no estudo de caso, os seguintes procedimentos: entrevistas, questionários e roda de conversa. Ve-se que a informática está presente em toda a nossa vida. O número de pessoas conectadas aumenta diariamente e, cada vez mais cedo, as crianças são inseridas nessa efervescência digital e tecnológica. Vivemos a era da linguagem digital, na qual aparelhos tecnológicos, sempre mais modernos e com mais funções agregadas, trazem à palma da mão ações que demandariam uma gama de procedimentos e tempo. As escolas não tem ficado para trás. Políticas de inserção de recursos tecnológicos da Educação Infantil ao Ensino Médio são fomentadas em todas as instâncias. A inserção destes recursos informatizados transmite mudanças que são sentidas em todas as áreas, impõe ritmos e dimensões diferentes e inovadoras relacionadas à tarefa de ensinar e aprender. A utilização dos recursos informatizados é vista por pesquisadores como uma promissora área a ser explorada, de modo a favorecer a efetividade do trabalho do professor e ligada ao sucesso da escola. Entretanto, em pleno século XXI docentes sentem-se inseguros, receosos, e envergonhados quando o tema é o uso de recursos informatizados nas atividades pedagógicas com crianças pequenas. O resultado da pesquisa aponta que algumas professoras são resistentes quanto a aceitação e o uso de recursos informatizados na escola, por dificuldades didáticas relacionadas ao desconhecimento da aplicabilidade prática da informática; da falta de experiência no domínio da linguagem digital; e por interpretarem que há uma desconexão com a rotina pedagógica da educação infantil. O maior problema apontado no estudo é a falta de formação continuada, focada no aperfeiçoamento para inserção do recurso como auxílio pedagógico de forma inovadora e articulada ao fazer da educação infantil, isto corrobora na criação de representações distorcidas quanto à aplicação destes na escola. Na associação de imagens positivas quanto ao uso de recursos informatizados vê-se que o modelo de aceitação e uso de tecnologia UTAUT, fornece indicativos de que a expectativa de desempenho é uma constante na fala das professoras, elas veem a informática como um auxílio para as suas tarefas, mas somente se adequadas à rotina, compatíveis com as habilidades e experiências a serem incentivadas na educação infantil. É importante ressaltar que as professoras pesquisadas estão em busca de formas, individuais ou em grupo, de apropriar-se das funcionalidades pedagógicas dos recursos informatizados para incluí-los na rotina das crianças da educação infantil. / This dissertation studies the representations of teachers on the use of information technology in early childhood education, by means of a case study in a public school of Santa Maria, in the Federal District. The investigation is based on conceptions of Moscovici (1978); Jodelet (2001) and Adam-Mazzotti (1994) to the understanding of the concept of social representations associated with education. In the analysis of representations highlighted by teachers, the theoretical framework used is based on the work of authors such as: Afonso (1993); Lover (2003); Lamb (2002); Levy (1999); Santos and Braga (2012); Silva (2010); Venkatesh (2003), among others. With the purpose to understand, through explicit representations of teachers of early childhood education, their concepts and attitudes regarding the use of information technology in educational practices, were used the bibliographical research and case study, which corroborate the delineation of the images and attitudes front to work with computers at school. The number of people connected increases daily and increasingly early, children are inserted in this digital and technological effervescence. We live in the era of digital language, in which technological devices, more modern and more aggregate functions, bring the Palm of the hand actions that would demand a range of procedures and time. The schools don't have fallen behind. Insertion policies of technological resources of early childhood education to high school are encouraged in all instances. The insertion of these computerized channel resources changes that are felt in all areas, impose rhythms and different and innovative dimensions related to the task of teaching and learning. The use of computerized resources is seen by researchers as a promising area to be explored, in order to promote the effectiveness of the work of professor and linked to the success of the school. However, in the 21st century teachers feel insecure, afraid, and embarrassed when the topic is the use of computer resources in educational activities with young children. The search result shows that some teachers are resistant as the acceptance and use of computerized resources at school, educational difficulties related to lack of knowledge about the practical applicability of information technology; the lack of experience in the field of digital language; and interpret that there is a disconnect with the pedagogical routine of early childhood education. The biggest problem pointed to the study is the lack of continuing training, focused on perfecting for insertion of the resource as a pedagogical aid in an innovative way and articulate in making of early childhood education, this supports the creation of distorted representations about the application of these in school. In the positive images about the use of computerized resources to see if that model of acceptance and use of UTAUT technology, provides indications that the expectation of performance is a constant in the speech of the teachers, they see computers as an aid to your tasks, but only if suitable for routine, consistent with the skills and experience to be encouraged in early childhood education. It is important to note that the teachers surveyed are in search of ways, individual or in a group, to take ownership of the pedagogical features of computerized resources to include them in the routine of the children of early childhood education.
362

Self-adaptive QOS at communication and computation levels for many-core system-on-chip

Ruaro, Marcelo January 2018 (has links)
Made available in DSpace on 2018-06-21T12:04:57Z (GMT). No. of bitstreams: 1 000488937-Texto+Completo-0.pdf: 4683751 bytes, checksum: 6eb242e44efbbffa6fa556ea81cdeace (MD5) Previous issue date: 2018 / Many-core systems-on-chip are the state-of-the-art in processing power, reaching from a dozen to thousands of processing elements (PE) in a single integrated circuit. General purpose many-cores assume a dynamic application admission, where the application set is unknown at design-time and applications may start their execution at any moment, inducing interference between them. Some applications may have real-time constraints to fulfill, requiring levels of quality of service (QoS) from the system. Due to the high degree of resource’s utilization unpredictability and the number of components to manage, self-adaptive properties become fundamental to support QoS at run-time. The literature provides several self-adaptive QoS proposals, targeting either communication (e.g., Network-on-Chip) or computation resources (e.g., CPU). However, to offer a complete QoS support, it is fundamental to provide a comprehensive self-awareness of the system’s resources, assuming adaptive techniques enabling to act simultaneously at the communication and computation levels to meet the applications' constraints. To cope with these requirements, this Thesis proposes a self-adaptive QoS infrastructure and management techniques, covering both the computation and communication levels. At the computation level, the QoS-driven infrastructure comprises a dynamic real-time task scheduler and a low overhead task migration protocol. These techniques ensure computation QoS by managing the CPU utilization and allocation.The novelty of the task scheduler is the support for dynamic real-time constraints, which leverage more flexibility to tasks to explore the CPU according to a variable workload. The novelty of the task migration protocol is its low execution time overhead compared to the state-of-the-art. At the communication level, the proposed technique is a Circuit-Switching (CS) approach based on the Software Defined Networking (SDN) paradigm. The SDN paradigm for NoCs is an innovation of this Thesis and is achieved through a generic software and hardware architecture. For communication QoS, SDN is used to define CS paths at run-time. A self-adaptive QoS management following the ODA (Observe Decide Act) paradigm controls these QoS-driven infrastructures in an integrated way, implementing a closed loop for run-time adaptations. The QoS management is self-aware of the system and running applications and can decide to take adaptations at computation or communication levels based on the task feedbacks, environment monitoring, and QoS fulfillment monitoring. The self-adaptation decides reactively as well as proactively. An online application profile learning technique is proposed to trace the behavior of the RT tasks and enabling the proactive actions. Results show that the proposed self-adaptive QoS management can restore the QoS level for the applications with a low overhead over the applications execution time. A broad evaluation, using known benchmarks, shows that even under severe QoS disturbances at computation and communication levels, the execution time of the application is restored near to the optimal scenario, mitigating 99.5% of deadline misses. / Sistemas multi-núcleos intra-chip são o estado-da-arte em termos de poder computacional, alcançando de dúzias a milhares de elementos de processamentos (PE) em um único circuito integrado. Sistemas multi-núcleos de propósito geral assumem uma admissão dinâmica de aplicações, onde o conjunto de aplicações não é conhecido em tempo de projeto e as aplicações podem iniciar sua execução a qualquer momento. Algumas aplicações podem ter requisitos de tempo real, requisitando níveis de qualidade de serviço (QoS) do sistema. Devido ao alto grau de imprevisibilidade do uso dos recursos e o grande número de componentes para se gerenciar, propriedades autoadaptativas tornam-se fundamentais para dar suporte a QoS em tempo de execução. A literatura fornece diversas propostas de QoS autoadaptativo, focado em recursos de comunicação (ex., redes intra-chip), ou computação (ex., CPU). Contudo, para fornecer um suporte de QoS completo, é fundamental uma autoconsciência abrangente dos recursos do sistema, e assumir técnicas adaptativas que permitem agir em ambos os níveis de comunicação e computação para atender os requisitos das aplicações. Para suprir essas demandas, essa Tese propõe uma infraestrutura e técnicas de gerenciamento de QoS autoadaptativo, cobrindo ambos os níveis de computação e comunicação. No nível de computação, a infraestrutura para QoS consiste em um escalonador dinâmico de tarefas de tempo real e um protocolo de migração de tarefas de baixo custo.Estas técnicas fornecem QoS de computação, devido ao gerenciamento da utilização e alocação da CPU. A novidade do escalonador de tarefas é o suporte a requisitos de tempo real dinâmicos, o que gera mais flexibilidade para as tarefas em explorar a CPU de acordo com uma carga de trabalho variável. A novidade do protocolo de migração de tarefas é o baixo custo no tempo de execução comparado a trabalhos do estado-da-arte. No nível de comunicação, a técnica proposta é um chaveamento por circuito (CS) baseado em redes definidas por software (SDN). O paradigma SDN para NoCs é uma inovação desta Tese, e é alcançado através de uma arquitetura genérica de software e hardware. Para QoS de comunicação, SDN é usado para definir caminhos CS em tempo de execução. Essas infraestruturas de QoS são gerenciadas de uma forma integrada por um gerenciamento de QoS autoadaptativo, o qual segue o paradigma ODA (Observar, Decidir, Agir), implementando um laço fechado de adaptações em tempo de execução. O gerenciamento de QoS é autoconsciente dos recursos do sistema e das aplicações em execução, e pode decidir por adaptações no nível de computação ou comunicação, baseado em notificações das tarefas, monitoramento do ambiente, e monitoramento de atendimento de QoS.A autoadaptação decide reativamente assim como proativamente. Uma técnica de aprendizagem do perfil das aplicações é proposta para traçar o comportamento das tarefas de tempo real, possibilitando ações proativas. Resultados gerais mostram que o gerenciamento de QoS autoadaptativo proposto pode restaurar os níveis de QoS para as aplicações com um baixo custo no tempo de execução das aplicações. Uma avaliação abrangente, assumindo diversos benchmarks mostra que, mesmo sob diversas interferências de QoS nos níveis de computação e comunicação, o tempo de execução das aplicações é restaurado próximo ao cenário ótimo, como 99,5% das violações de deadlines mitigadas.
363

Protocolo eletrônico multiprofissional de cirurgia cardiovascular com ênfase em doenças valvares

Castilho, Carlos Eduardo de Alcantara 11 May 2011 (has links)
Resumo: A informatização de dados clínicos viabiliza o gerenciamento das informações e possibilita análises comparativas para a realização de trabalhos científicos. Atualmente, existem protocolos eletrônicos desenvolvidos e incorporados ao SINPE© (Sistema Integrado de Protocolos Eletrônicos) nas áreas de cirurgia do aparelho digestório, ortopedia, urologia, cirurgia plástica, cirurgia vascular, oftalmologia, enfermagem, fisioterapia, além de outros em desenvolvimento. Na área de cirurgia cardiovascular, ainda não havia sido criado nenhum protocolo eletrônico. Objetivos: a) criar uma base de dados clínicos referente às valvopatias cardíacas a partir da coleta padronizada de informações nas fontes bibliográficas de referência; b) informatizar esta base de dados clínicos sob a forma de um software, utilizando o programa: Sistema Integrado de Protocolos Eletrônicos - SINPE©; c) interpretar e comparar as informações obtidas entre coleta de dados prospectiva e retrospectiva no protocolo eletrônico de doenças valvares cardíacas; ) incorporar este protocolo eletrônico ao SINPE©. Material e Método: O “Protocolo Eletrônico Multiprofissional de Cirurgia Cardiovascular com Ênfase em Doenças Valvares” é um estudo descritivo, realizado no Serviço de Cirurgia Torácica e Cardiovascular, do Hospital de Clínicas da Universidade Federal do Paraná, sendo constituído pelas seguintes fases: criação da base teórica de dados clínicos de cirurgia ardiovascular com ênfase em doenças valvares; informatização dessa base teórica de dados, utilizando o SINPE©; interpretação dos dados da coleta prospectiva de pacientes; comparação dos resultados entre dois bancos de dados: um prospectivo e outro retrospectivo. A análise dos bancos de dados foi realizada com a aplicação da interface de visualização de informações denominada SINPE Analise©. Resultados: O protocolo eletrônico desenvolvido permitiu armazenar dados referentes à: anamnese, exame físico, exames complementares, diagnóstico, tratamento e evolução de pacientes portadores de doenças cardiovasculares, com ênfase nas doenças valvares cardíacas. Foram criados neste estudo um protocolo mestre composto por 18.448 itens e um protocolo específico de doenças valvares composto por 16.569 itens. As coletas de dados relativos à internação de pacientes submetidos à cirurgia cardíaca valvar formaram dois bancos de dados que puderam ser resgatados, comparados e analisados estatisticamente, comprovando a funcionalidade do método empregado. Conclusões: a) foi criada com sucesso uma base eletrônica de dados clínicos referente às valvopatias cardíacas a partir da coleta padronizada de nformações; b) esta base de dados clínicos foi informatizada sob a forma de um software, utilizando o programa SINPE©; c) foi possível interpretar e comparar as informações obtidas com as coletas de dados prospectiva e retrospectiva no protocolo eletrônico de doenças valvares cardíacas, utilizando os módulos do SINPE© e SINPE Analise©; d) o “Protocolo Eletrônico Multiprofissional de Cirurgia Cardiovascular com Ênfase em Doenças Valvares” foi incorporado ao SINPE©.
364

Um modelo para estimativa de esforço em projetos de reengenharia de software

Dôres, Silvia Cristina Nunes das January 2015 (has links)
Made available in DSpace on 2015-05-22T12:36:38Z (GMT). No. of bitstreams: 1 000468499-Texto+Completo-0.pdf: 8036785 bytes, checksum: 3b209a73ae20fd5a151dce28ae0c0960 (MD5) Previous issue date: 2015 / Effort estimation is in the core of a software development project since it is useful for cost estimation, resource allocation planning, and follow-up of software investment and budget. Given the importance of the area, there are several studies that are mainly concerned on proposing new models and on the use of new techniques to improve the accuracy of estimates or to evaluate the best model to be applied in a given context. In the specific context of software reengineering projects, there is a lack of related work. Indeed, on the contrary of what occurs for the development of new projects, there is very few knowledge on how the effort estimation is done in that type of projects. In this context, this work aims to propose a model to estimate effort in software reengineering, which includes the steps to carry-out for planning, implementation, monitoring and learning of this estimation. This model was proposed based on the related literature, challenges, good practices and lessons learned identified in two empirical studies in the industry. Such studies involved an exploratory field study and a case study in organizations that carry out software reengineering projects. / A estimativa de esforço é um dos cernes de um projeto de desenvolvimento de software uma vez que é usada para muitas finalidades, tais como, estimativa de custo, cronograma, alocação de recursos, orçamento e investimentos em software. Dada a relevância da área, existem diversas pesquisas que se preocupam principalmente em propor novos modelos e utilizar novas técnicas para melhorar a precisão das estimativas ou avaliar o melhor modelo a ser aplicado em um dado contexto. No contexto específico de projetos de reengenharia de software, há carência de trabalhos relacionados e, ao contrário do que ocorre para o desenvolvimento de um projeto novo, pouco se sabe sobre como ocorre a estimativa de esforço em projetos deste tipo na prática. Neste contexto, este trabalho teve como objetivo propor um modelo para estimativa de esforço em reengenharia de software, que incluí as etapas a serem realizadas para planejamento, aplicação, monitoramento e aprendizagem desta estimativa. Tal modelo foi proposto com base na literatura relacionada, em desafios, boas práticas e lições aprendidas identificados na indústria a partir da realização de dois estudos empíricos. Tais estudos envolveram um estudo de campo exploratório e estudo de caso, em organizações que realizam reengenharia de software.
365

Exploration of runtime distributed mapping techniques for emerging large scale MPSoCs

Mandelli, Marcelo Grandi January 2015 (has links)
Made available in DSpace on 2015-09-19T02:04:34Z (GMT). No. of bitstreams: 1 000475052-Texto+Completo-0.pdf: 8325686 bytes, checksum: 5d74943dc9ee311c90eb182fb022e539 (MD5) Previous issue date: 2015 / MPSoCs with hundreds of cores are already available in the market. According to the ITRS roadmap, such systems will integrate thousands of cores by the end of the decade. The definition of where each task will execute in the system is a major issue in the MPSoC design. In the literature, this issue is defined as task mapping. The growth in the number of cores increases the complexity of the task mapping. The main concerns in task mapping in large systems include: (i) scalability; (ii) dynamic workload; and (iii) reliability. It is necessary to distribute the mapping decision across the system to ensure scalability. The workload of emerging large MPSoCs may be dynamic, i. e., new applications may start at any moment, leading to different mapping scenarios. Therefore, it is necessary to execute the mapping process at runtime to support a dynamic workload. Reliability is tightly connected to the system workload distribution. Load imbalance may generate hotspots zones and consequently thermal implications, which may result in unreliable system operation. In large scale MPSoCs, reliability issues get worse since the growing number of cores on the same die increases power densities and, consequently, the system temperature. The literature presents different task mapping techniques to improve system reliability. However, such approaches use a centralized mapping approach, which are not scalable. To address these three challenges, the main goal of this Thesis is to propose and evaluate distributed mapping heuristics, executed at runtime, ensuring scalability and a fair workload distribution. Distributing the workload and the traffic inside the NoC increases the system reliability in long-term, due to the minimization of hotspot regions. To enable the design space exploration of large MPSoCs the first contribution of the Thesis lies in a multi-level modeling framework, which supports different models and debugging capabilities that enrich and facilitate the design of MPSoCs. The simulation of lower level models (e. g. RTL) generates performance parameters used to calibrate abstract models (e. g. untimed models). The abstract models pave the way to explore mapping heuristics in large systems. Most mapping techniques focus on optimizing communication volume in the NoC, which may compromise reliability due to overload processors. On the other hand, a heuristic optimizing only the workload distribution may overload NoC links, compromising its reliability. The second significant contribution of the Thesis is the proposition of dynamic and distributed mapping heuristics, making a tradeoff between communication volume (NoC links) and workload distribution (CPU usage). Results related to execution time, communication volume, energy consumption, power traces and temperature distribution in large MPSoCs (144 processors) confirm the tradeoff hypothesis. Trading off workload and communication volume improves system reliably through the reduction of hotspots regions, without compromising system performance. / MPSoCs com centenas de processadores já estão disponíveis no mercado. De acordo com o ITRS, tais sistemas integrarão milhares de processadores até o final da década. A definição de onde cada tarefa será executada no sistema é um desafio importante na concepção de MPSoCs. Na literatura, tal desafio é definido como mapeamento de tarefas. O aumento do número de processadores aumenta a complexidade do mapeamento de tarefas. As principais preocupações em mapeamento de tarefas em grandes sistemas incluem: (i) escalabilidade; (ii) carga dinâmica de trabalho; e (iii) confiabilidade. É necessário distribuir a decisão do mapeamento pelo sistema para garantir escalabilidade. A carga de trabalho em MPSoCs pode ser dinâmica, ou seja, novas aplicações podem iniciar a execução a qualquer momento, levando a diferentes cenários de mapeamento. Portanto, é necessário executar o processo de mapeamento em tempo de execução para suportar uma carga de trabalho dinâmica. Confiabilidade é diretamente relacionada à distribuição da carga de trabalho no sistema. Desequilíbrio de carga pode gerar zonas de hotspots e implicações termais, que podem resultar em uma operação do sistema não confiável. Em MPSoCs de grande dimensão problemas de confiabilidade se agravam, uma vez que o crescente número de processadores no mesmo chip aumenta o consumo de energia e, consequentemente, a temperatura do sistema. A literatura apresenta diferentes técnicas de mapeamento de tarefas para melhorar a confiabilidade do sistema. No entanto, tais técnicas utilizam uma abordagem de mapeamento centralizado, a qual não é escalável. Em função destes três desafios, o principal objetivo desta Tese é propor e avaliar heurísticas de mapeamento distribuído, executadas em tempo de execução, garantindo escalabilidade e uma distribuição de carga de trabalho uniforme. Distribuir a carga de trabalho e o tráfego da NoC aumenta a confiabilidade do sistema no longo prazo, devido à minimização das regiões de hotspot. Para permitir a exploração do espaço de projeto em MPSoCs, a primeira contribuição desta Tese consiste em um ambiente de modelagem multi-nível, que suporta diferentes modelos e capacidades de depuração que enriquecem e facilitam o projeto de MPSoCs. A simulação de modelos de mais baixo nível (por exemplo, RTL) gera parâmetros de desempenho utilizados para calibrar modelos mais abstratos. Os modelos abstratos facilitam a exploração de heurísticas de mapeamento em grandes sistemas. A maioria das técnicas de mapeamento se concentram na otimização do volume comunicação na NoC, o que pode comprometer a confiabilidade, devido à sobrecarga de processadores. Por outro lado, uma heurística que visa a otimização apenas da distribuição de carga de trabalho pode sobrecarregar canais da NoC, comprometendo a sua confiabilidade. A segunda contribuição significativa desta Tese é a proposição de heurísticas de mapeamento dinâmico e distribuídos, fazendo um compromisso entre o volume de comunicação (canais da NoC) e distribuição de carga de trabalho (uso da CPU). Os resultados relacionados a tempo de execução, volume de comunicação, consumo de energia, distribuição de potência e temperatura em grandes MPSoCs (256 processadores) confirmam a hipótese deste compromisso. Fazer um compromisso entre carga de trabalho e volume de comunicação melhora a confiabilidade do sistema através da redução de regiões hotspots, sem comprometer o desempenho do sistema.
366

Desambiguação de anotações morfossintáticas feitas por MTMDD

Thiele, Pablo Frederico Oliveira January 2015 (has links)
Made available in DSpace on 2015-10-06T02:08:12Z (GMT). No. of bitstreams: 1 000475518-Texto+Completo-0.pdf: 1065929 bytes, checksum: cf8f71f90f9d278fccf4595fde672a11 (MD5) Previous issue date: 2015 / The Natural Language Processing technologies (PLN) are being used for analysis of huge amounts of data. With the advent of new media and mass adoption of social networking, the flow of information generated every second is the largest in history. The majority of that is multimedia files. Meanwhile, a large portion of the information produced, especially in social network, is textual. Thus, PLN solutions need to be more robust than they ever were, finding processing solutions that might accompany this constant information production or at least provide better results compared to procedures previously used. The labelers or taggers are a major component of PLN. Its function, explored in this work is the ability to observe and catalog the words in a text according to their morphosyntactic functions. The name commonly given to this process is the POST (Part-Of-Speech Tagging). Within the context Part-Of-Speech (POS) is the function to process and identify a group of words by grouping them into pre-defined types. This grouping can occur due to syntactic, morphological or morphosyntactic. Although the processing speed is a worthy feature, when we deal with labelers, the accuracy obtained for its process should be the premise. The concept of obtaining semantic labels from texts evaluations seems simple at first sight, although presents several challenges. One of the major challenges encountered in PLN is the problem of ambiguity. This situation, which occurs in several stages of natural language processing, is complex due to requires comprehensive knowledge from the processing application using that as tools to collaborate in order to implement the most correct choices. It is a classic problem, inherent to natural and existing language since the beginning of the researches of this area. Several possibilities to minimize its consequences have been proposed since then. This paper lists some of the proposals found on the literature by adding the possibility to use MTMDD structures during the process, looking for a substantial performance gain. / Atualmente as tecnologias de Processamento de Linguagem Natural (PLN) estão sendo utilizadas em análises de enormes quantidades de dados. Com o advento das novas mídias e a adoção em massa das redes sociais, o fluxo de informações geradas a cada segundo é o maior da história. Embora isso se concentre, em maior parte, por informações e arquivos de multimídia, uma grande parcela da informação produzida, principalmente nas redes sociais, é textual. Desta forma, as soluções de PLN necessitam ser mais robustas do que jamais foram, encontrando soluções de processamento que possam acompanhar esta geração constante de informações ou pelo menos apresentar resultados melhores se comparados aos procedimentos utilizados anteriormente. Os etiquetadores ou taggers são um dos principais componentes da PLN. Sua função, explorada neste trabalho é a capacidade de observar e catalogar as palavras em um texto de acordo com suas funções morfossintáticas. O nome comumente dado a este processo é o de POST (Part-Of-Speech Tagging).Dentro do contexto Part-Of-Speech (POS) encontra-se a função de processar e identificar um grupo de palavras agrupando-as em tipos pré-definidos. Este agrupamento pode ocorrer em razão sintática, morfológica ou morfossintática. Embora a velocidade de processamento seja uma caraterística digna de nota, quando tratamos de etiquetadores, a acuidade obtida por seu processo deve ser a premissa. O conceito da obtenção de etiquetas semânticas a partir de avaliações dos textos embora pareça simples em um primeiro momento, apresenta vários desafios. Um dos maiores desafios encontrado em PLN é o problema da ambiguidade. Esta situação que ocorre nas mais diversas etapas do processamento de linguagem natural é complexa, devido à necessidade de que a aplicação processadora tenha conhecimentos abrangentes que possam ser utilizados como ferramentas que colaborem no intuito de realizar as escolhas mais corretas. Devido ao fato de se tratar de um problema antigo, inerente à linguagem natural e existente desde o começo das pesquisas da área, diversas possibilidades de minimizar suas consequências foram propostas. O presente trabalho enumera algumas das propostas encontradas, adicionando a possibilidade de uso de estruturas do tipo MTMDD no processo, buscando um ganho substancial de desempenho.
367

A software process model for follow the sun development

Kroll, Josiane January 2014 (has links)
Made available in DSpace on 2015-08-28T02:03:30Z (GMT). No. of bitstreams: 1 000474239-Texto+Completo-0.pdf: 3330077 bytes, checksum: 2bfb2e04b2e5f313e7953095ed5de917 (MD5) Previous issue date: 2014 / Many companies have conducted Global Software Development projects to benefit from cheaper, faster and better software systems, products and services development. Companies also want to take advantage of time, expertise and talent pools, wherever they may be located in the world. Companies restructure their IT area by extending operations to offshore software development centers. Thus, Follow the Sun development is seen as a potential software development strategy for these companies. Follow the Sun can help with reducing the software development life cycle duration or time-to-market. However, while Follow the Sun concept looks promising in theory, it appears to be difficult to put into practice. Many software companies have tried to implement FTS, but have abandoned it after a while because of this difficulty to put it into practice. The lack of software practices and processes to close the gap between theory and practice is observed as the main barrier to the FTS evolution in Software Engineering and in the software industry. Thus, the goal of this thesis is to develop a software process model for Follow the Sun adoption in Global Software Development projects. The work was divided into three research phases: Exploratory, Development, and Evaluation and Evolution. In the Exploratory phase, best practices from the literature and lessons learned from a case study were identified for FTS development. From these results, a preliminary FTS software process model was built in the Development phase. A design validation method and an expert panel were conducted to evaluate the preliminary model in the Evaluation and Evolution phase. As a result of this process, the FTS-SPM: Follow the Sun Software Process Model has been proposed. The FTS-SPM comprises of six sub-processes and twenty-one best practices. It adoption contributes in increasing the probability of companies successfully implementing Follow the Sun and coping with the different challenges of Global Software Development. / Muitas organizações conduzem projetos de Desenvolvimento Global de Software para se beneficiar de sistemas, produtos e serviços de desenvolvimento mais baratos, rápidos e melhores. Organizações também buscam obter vantagens de tempo, experiência de trabalho e disponibilidade de pessoas qualificadas, onde elas estiverem localizadas ao redor do mundo. Organizações estão reestruturando as suas áreas de TI, estendendo operações para centros de desenvolvimento de software offshore. Assim, o desenvolvimento Follow the Sun é visto como uma potencial estratégia para essas organizações. O Follow the Sun visa reduzir a duração do ciclo de desenvolvimento do software ou time-to-market. Entretanto, enquanto o conceito Follow the Sun parece ser promissor na teoria, ele é difícil de ser colocado em prática. Muitas organizações de software tentaram implementar o FTS, mas abandonaram depois pela dificuldade de colocá-lo em prática. A falta de práticas e processos de software para preencher a lacuna entre a teoria e a prática é observada como uma das principais barreiras para a evolução do desenvolvimento Follow the Sun na Engenharia de Software e na indústria. Dessa forma, o principal objetivo dessa tese é desenvolver um modelo de processo de software para a adoção do desenvolvimento Follow the Sun em projetos de Desenvolvimento Global de Software. O trabalho foi dividido em três fases de pesquisa: Exploratória, Desenvolvimento e Avaliação e Evolução. Na fase Exploratória, boas práticas da literatura e lições aprendidas com a condução de um estudo de caso foram identificadas para o desenvolvimento Follow the Sun. Baseado nesses resultados, um modelo de processo de software preliminar foi construído na fase Desenvolvimento. O método validação de design e um painel com especialistas foi conduzido para avaliar o modelo preliminar na fase de Avaliação e Evolução. Como resultado, foi proposto o modelo FTS-SPM: Follow the Sun Software Process Model. O FTS-SPM compreende seis sub-processos e vinte e uma boas práticas de software. A sua adoção contribui para aumentar a probabilidade de sucesso das organizações com a implementação do desenvolvimento Follow the Sun e também para enfrentar os diferentes desafios do desenvolvimento global de software.
368

Layered approach for runtime fault recovery in NOC-Based MPSOCS

Wächter, Eduardo Weber January 2015 (has links)
Made available in DSpace on 2015-09-01T02:05:15Z (GMT). No. of bitstreams: 1 000474345-Texto+Completo-0.pdf: 3978955 bytes, checksum: aa0f35953c5bc355cef3bfc0576e2a44 (MD5) Previous issue date: 2015 / Mechanisms for fault-tolerance in MPSoCs are mandatory to cope with defects during fabrication or faults during product lifetime. For instance, permanent faults on the interconnect network can stall or crash applications, even though the MPSoCs’ network has alternative faultfree paths to a given destination. Runtime Fault Tolerance provide self-organization mechanisms to continue delivering their processing services despite defective cores due to the presence of permanent and/or transient faults throughout their lifetime. This Thesis presents a runtime layered approach to a fault-tolerant MPSoC, where each layer is responsible for solving one part of the problem. The approach is built on top of a novel small specialized network used to search fault-free paths. The first layer, named physical layer, is responsible for the fault detection and fault isolation of defective routers. The second layer, named the network layer, is responsible for replacing the original faulty path by an alternative fault-free path. A fault-tolerant routing method executes a path search mechanism and reconfigures the network to use the faulty-free path. The third layer, named transport layer, implements a fault-tolerant communication protocol that triggers the path search in the network layer when a packet does not reach its destination. The last layer, application layer, is responsible for moving tasks from the defective processing element (PE) to a healthy PE, saving the task’s internal state, and restoring it in case of fault while executing a task. Results at the network layer, show a fast path finding method. The entire process of finding alternative paths takes typically less than 2000 clock cycles or 20 microseconds. In the transport layer, different approaches were evaluated being capable of detecting a lost message and start the retransmission. The results show that the overhead to retransmit the message is 2. 46X compared to the time to transmit a message without fault, being all other messages transmitted with no overhead. For the DTW, MPEG, and synthetic applications the average-case application execution overhead was 0. 17%, 0. 09%, and 0. 42%, respectively. This represents less than 5% of the application execution overhead worst case. At the application layer, the entire fault recovery protocol executes fast, with a low execution time overhead with no faults (5. 67%) and with faults (17. 33% - 28. 34%). / Mecanismos de tolerância a falhas em MPSoCs são obrigatórios para enfrentar defeitos ocorridos durante a fabricação ou falhas durante a vida útil do circuito integrado. Por exemplo, falhas permanentes na rede de interconexão do MPSoC podem interromper aplicações mesmo que a rede tenha caminhos sem falha para um determinado destino. A tolerância a falhas em tempo de execução fornece mecanismos de auto-organização para continuar a oferecer serviços de processamento apesar de núcleos defeituosos devido à presença de falhas permanentes e/ou transitórias durante toda a vida dos chips. Esta Tese apresenta uma abordagem em camadas para um MPSoC tolerante a falhas, onde cada camada é responsável por resolver uma parte do problema. O método é construído sobre uma nova proposta de rede especializada utilizada para procurar caminhos livre de falha. A primeira camada, denominada camada física, é responsável pela detecção de falhas e isolamento das partes defeituosas da rede. A segunda camada, denominada camada de rede, é responsável por substituir um caminho defeituoso por um caminho alternativo livre de falhas. Um método de roteamento tolerante a falhas executa o mecanismo de busca de caminhos e reconfigura a rede para usar este caminho livre de falhas. A terceira camada, denominada camada de transporte, implementa um protocolo de comunicação tolerante a falhas que detecta quando pacotes não são entregues ao destino, acionando o método proposto na camada de rede.A última camada, camada de aplicação, é responsável por mover as tarefas do elemento de processamento (PE) defeituoso para um PE saudável, salvar o estado interno da tarefa, e restaurá-la em caso de falha durante a execução. Os resultados na camada de rede mostram um método rápido para encontrar caminhos livres de falhas. O processo de procura de caminhos alternativos leva tipicamente menos de 2000 ciclos de relógio (ou 20 microssegundos). Na camada de transporte, diferentes abordagens foram avaliadas para detectar uma mensagem não entregue e acionar a retransmissão. Os resultados mostram que a sobrecarga para retransmitir a mensagem é 2,46 vezes maior quando comparado com o tempo para transmitir uma mensagem sem falha, sendo que todas outras mensagens subsequentes são transmitidas sem sobrecarga. Para as aplicações DTW, MPEG e sintética, o caso médio de sobrecarga no tempo de execução da aplicação é de 0,17%, 0,09% e 0,42%, respectivamente. Isto representa menos do que 5% do tempo de execução de uma dada aplicação no pior caso. Na camada de aplicação, todo o protocolo de recuperação de falhas executa rapidamente, com uma baixa sobrecarga no tempo de execução sem falhas (5,67%) e com falhas (17,33% - 28,34%).
369

Em direção a um modelo de acompanhamento de produtividade de atores na execução de atividades de workflows

Schwartzhaupt, Carlos Henrique January 2001 (has links)
Made available in DSpace on 2016-02-12T01:04:53Z (GMT). No. of bitstreams: 1 000477226-Texto+Completo-0.pdf: 10047218 bytes, checksum: d80e43b57d4dd75a40e7d48c32e4e2c4 (MD5) Previous issue date: 2001 / Inside organizational environments, it is necessary to have software tools to support the administrative work. It is important to follow the work being done by the actors (humans or information systems) because they have specific characteristics and work jointly as teams. The evaluation of actors’ productivity is fundamental. In computing, the computational technology that supports the management of this flow of work is called Workflow automation. This work introduces a model for accompanying the productivity of actors, taking into consideration several intrinsic aspects of the current Gregorian calendar, actors’ hours and their appointments. This approach intends to cover these aspects that the Workflow standards do not cover, even the description standard and the execution one. We consider such aspects essential for the productivity evaluation of actors. Contributions of this research are a model for representing calendar and the actors’ hours, a model for scheduling appointments and the integration of these models within the Workflow description and execution standards. / No atual cenário organizacional, é necessário dispor de ferramentas computacionais para a sobrevivência das organizações. Cada organização precisa acompanhar a produtividade de seus atores, pessoas ou sistemas. Tais atores têm características individuais e trabalham em equipe, justificando a necessidade de métodos e técnicas para acompanhamento do fluxo do trabalho. Em computação, o suporte computacional para acompanhar e controlar esse fluxo de trabalho é chamado de Automação de Workflow. Este trabalho apresenta um modelo de acompanhamento da produtividade de atores que leva em consideração várias propriedades intrínsecas do calendário em vigor (gregoriano), e dos horários de trabalho dos atores e de suas agendas de compromissos. Esta abordagem vem preencher as lacunas deixadas pelos modelos de descrição e de execução de Workflow, ao não considerarem seus respectivos horários de trabalho e agendas de compromissos, no momento de avaliar a produtividade dos atores. As contribuições desta pesquisa são: um modelo para representação de calendários e de horários de atores, um modelo de agendamento de compromissos e a integração desses modelos com os modelos de referência para descrição e execução de Workflows.
370

HC-MPSOC: plataforma do tipo cluster para sistemas embarcados

Magalhães, Felipe Göhring de January 2013 (has links)
Made available in DSpace on 2013-10-11T13:35:23Z (GMT). No. of bitstreams: 1 000449349-Texto+Completo-0.pdf: 2535064 bytes, checksum: 9bc52234ef8a5c4987806932ce5619c9 (MD5) Previous issue date: 2013 / Multiprocessor System-on-Chip (MPSoC) can be found in virtually all market branches and the design of such systems typically has several restrictions such as chip area used, which hampers. State-of-art MPSoCs uses networks-on-chip as the primary means of communication, and the trend is that systems based on networks intrachip continue to be used for a long time, thanks to greater flexibility in their design and also a high capacity communication. However, such systems also have certain restrictions on its use, such as the location of the tasks that compose it. Mapping and partitioning techiniques seek to solve these problem, or at least decrease it to a non critical point, but are not always successful in this job. In this context, cluster-based architectures emerges as a viable alternative to MPSoCs. Such systems typically have a hybrid architecture in its constitution, using more than one communication medium, thus being able to group elements by questions of "affinity" and still using high-speed communication medias, such as networks-on-chip. Thus, this work introduces the HC-MPSoC, an architecture for cluster-based intrachip systems, which uses buses and networks-on-chip in a joint way, forming groups of elements independently distributed throughout the system. The HellfireOS is also presented, a real time operating system adapted to run on the platform, counting with a full set of drivers throughout a high-level API. All HC-MPSoC modules as well as the HellfireOS modules, and the results obtained using the platform are presented along the text. / Sistemas intrachip multiprocessados (MPSoCs) podem ser encontrados em praticamente todos os ramos do mercado e o projeto desses sistemas normalmente apresenta diversas restrições, como por exemplo área do chip utilizada, o que o dificulta. MPSoCs do estado da arte utilizam redes intrachip como meio de comunicação principal, e a tendência é que sistemas baseados em redes intrachip continuem a ser utilizados por um longo tempo, graças a uma maior flexibilidade em seu projeto e também uma alta capacidade de comunicação. Porém, tais sistemas ainda apresentam certas restrições em seu uso, como por exemplo a localização das tarefas que o compõem. Técnicas de mapeamento e particionamento de tarefas de uma aplicação buscam solucionar tais problemas, ou ao menos diminui-los a um ponto não crítico, mas nem sempre são bem sucedidos. Neste contexto, arquiteturas do tipo cluster surgem como uma alternativa viável para MPSoCs, normalmente apresentando uma arquitetura híbrida em sua constituição, utilizando mais de um meio de comunicação, podendo assim agrupar elementos por questões de "afinidade" e ainda assim utilizando meios de comunicação com grande paralelismo, como redes intrachip. Desta maneira, este trabalho introduz o HC-MPSoC, uma arquitetura clusterizada para sistemas intrachip, que utiliza redes intrachip e barramentos de uma maneira conjunta, formando grupos de elementos distribuídos de forma independente por todo sistema. É apresentando ainda, o HellfireOS, sistema operacional de tempo real adaptado para executar sobre a arquitetura, com drivers disponibilizados para uso. Todos os módulos do HC-MPSoC, assim como do HellfireOS, e os resultados obtidos utilizando a arquitetura, são apresentados no decorrer do texto.

Page generated in 0.0322 seconds