• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 366
  • 8
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 380
  • 190
  • 101
  • 65
  • 64
  • 59
  • 54
  • 48
  • 46
  • 45
  • 45
  • 40
  • 38
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

"EMEET/SERVE: geração sob-demanda de hiperdocumentos multimídia a partir de informação capturada em reuniões distribuídas" / eMeet/SERVE: automated generation of multimedia hyperdocuments by means of captured information from distributed meetings

Pedro Monteiro da Silva Eleutério 05 June 2002 (has links)
A literatura apresenta muitos sistemas que foram desenvolvidos a fim de automatizar o processo de geração de hiperdocumentos multimídia a partir de experiências ao vivo; ambientes educacionais e de reunião são os domínios de aplicação mais comuns. Conforme reportados, os sistemas não contemplam características importantes relativas à evolução de hiperdocumentos Web, tais como a possibilidade de atualizações constantes de conteúdo e de layout, e a independência de plataforma. Este trabalho visa a implementação do sistema eMeet/SERVE, que realiza a geração automática de hiperdocumentos multimídia a partir de informações capturadas em ambientes de reuniões distribuídas na Web. O eMeet/SERVE foi implementado com a utilização da arquitetura LAIAc – proposta neste trabalho – habilitada a suportar a evolução dos hiperdocumentos gerados. As interfaces dos hiperdocumentos gerados pelo eMeet/SERVE foram desenvolvidas a partir de padrões e regras propostas na literatura. Além disso, um mecanismo de sincronização foi implementado nos hiperdocumentos a fim de permitir uma reprodução adequada dos elementos multimídia. A arquitetura LAIAc pode ser utilizada por outros sistemas associados à geração automática de hiperdocumentos. Com a realização deste trabalho, o eMeet/SERVE está preparado para integração com outros serviços implementados no contexto do projeto maior em que se insere, o Projeto InCA-SERVE, visando a evolução contínua dos hiperdocumentos gerados automaticamente. / The literature discusses many software systems developed to automate the process of generating multimedia hyperdocuments from live experiences; educational and meeting environments are the most common application domains. As reported, those systems do not present features considered important towards the evolution of hyperdocuments associated to live experiences, such as support to constant updates of contents or changes in layout as well as independence of platform. The work reported in this document aims at developing the eMeet/SERVE application, a system that allows the automatic generation of multimedia hyperdocuments by means of captured information from distributed meetings environments on the Web. The eMeet/SERVE system is implemented on top of the LAIAc architecture – also proposed in this work – an architecture enabled to support the evolution of the hyperdocuments. The presentation interfaces of the hyperdocuments have been developed according to state of the art heuristics and guidelines. Moreover, a synchronization mechanism has been embedded in the hyperdocuments to allow the appropriate playback of multimedia objects. The LAIAc architecture itself can be used by other applications associated to the automatic generation of hyperdocuments. The eMeet/SERVE is part of the InCA-SERVE Project and, as implemented, it is ready to be integrated with other services implemented in the context of that project; the overall goal is the support to the evolution of the hyperdocuments generated automatically.
222

"EMEET/SERVE: geração sob-demanda de hiperdocumentos multimídia a partir de informação capturada em reuniões distribuídas" / eMeet/SERVE: automated generation of multimedia hyperdocuments by means of captured information from distributed meetings

Eleutério, Pedro Monteiro da Silva 05 June 2002 (has links)
A literatura apresenta muitos sistemas que foram desenvolvidos a fim de automatizar o processo de geração de hiperdocumentos multimídia a partir de experiências ao vivo; ambientes educacionais e de reunião são os domínios de aplicação mais comuns. Conforme reportados, os sistemas não contemplam características importantes relativas à evolução de hiperdocumentos Web, tais como a possibilidade de atualizações constantes de conteúdo e de layout, e a independência de plataforma. Este trabalho visa a implementação do sistema eMeet/SERVE, que realiza a geração automática de hiperdocumentos multimídia a partir de informações capturadas em ambientes de reuniões distribuídas na Web. O eMeet/SERVE foi implementado com a utilização da arquitetura LAIAc – proposta neste trabalho – habilitada a suportar a evolução dos hiperdocumentos gerados. As interfaces dos hiperdocumentos gerados pelo eMeet/SERVE foram desenvolvidas a partir de padrões e regras propostas na literatura. Além disso, um mecanismo de sincronização foi implementado nos hiperdocumentos a fim de permitir uma reprodução adequada dos elementos multimídia. A arquitetura LAIAc pode ser utilizada por outros sistemas associados à geração automática de hiperdocumentos. Com a realização deste trabalho, o eMeet/SERVE está preparado para integração com outros serviços implementados no contexto do projeto maior em que se insere, o Projeto InCA-SERVE, visando a evolução contínua dos hiperdocumentos gerados automaticamente. / The literature discusses many software systems developed to automate the process of generating multimedia hyperdocuments from live experiences; educational and meeting environments are the most common application domains. As reported, those systems do not present features considered important towards the evolution of hyperdocuments associated to live experiences, such as support to constant updates of contents or changes in layout as well as independence of platform. The work reported in this document aims at developing the eMeet/SERVE application, a system that allows the automatic generation of multimedia hyperdocuments by means of captured information from distributed meetings environments on the Web. The eMeet/SERVE system is implemented on top of the LAIAc architecture – also proposed in this work – an architecture enabled to support the evolution of the hyperdocuments. The presentation interfaces of the hyperdocuments have been developed according to state of the art heuristics and guidelines. Moreover, a synchronization mechanism has been embedded in the hyperdocuments to allow the appropriate playback of multimedia objects. The LAIAc architecture itself can be used by other applications associated to the automatic generation of hyperdocuments. The eMeet/SERVE is part of the InCA-SERVE Project and, as implemented, it is ready to be integrated with other services implemented in the context of that project; the overall goal is the support to the evolution of the hyperdocuments generated automatically.
223

Caracterização analítica de carga de trabalho baseada em cenários de aplicações multimídia. / Analytical characterization of workload based on scenarios of multimedia applications.

Patiño Alvarez, Gustavo Adolfo 07 December 2012 (has links)
As metodologias clássicas de análise de desempenho de sistemas sobre silício (System on chip, SoC) geralmente são descritas em função do tempo de execução do pior-caso1 das tarefas a serem executadas. No entanto, nas aplicações do mundo real, o tempo de execução destas tarefas pode variar devido à presença dos diferentes eventos de entrada que ativam o sistema, colocando uma exigência diferente de execução sobre os recursos do sistema. Geralmente, um modelo da carga de trabalho é uma parte integrante de um modelo de desempenho utilizado para avaliar o desempenho de um sistema. O quão bom for um modelo de carga de trabalho determina em grande medida a qualidade das soluções do projeto e a precisão das estimativas de desempenho baseadas nele. Nesta tese, é abordado o problema de modelar a carga de trabalho para o projeto de sistemas de tempo-real cuja funcionalidade envolve processamento de fluxos de multimídia, isto é, fluxos de dados representando áudio, imagens ou vídeo. O problema de modelar a carga de trabalho é abordado sob a premissa de que uma caracterização acurada do comportamento temporal do software embarcado permite ao projetista identificar diversas exigências variáveis de execução, apresentadas para os diversos recursos de arquitetura do sistema, tanto na operação individual do conjunto de tarefas de software, assim como na execução global da aplicação, em fase de projeto. A caracterização do comportamento de cada tarefa foi definida a partir de uma análise temporal dos códigos de software associados às diferentes tarefas de uma aplicação, a fim de identificar os múltiplos modos de operação que o código pode apresentar dentro de um processador. Esta caracterização é feita através da realização de uma análise estática das rotas do código executável, de forma que para cada rota de execução encontrada, estimam-se os tempos extremos de execução (WCET e BCET)2, baseando-se na modelagem da microarquitetura de um processador on-chip. Desta forma, cada rota do código executável junto aos seus respectivos tempos de execução, constitui um modo de operação do código analisado. A fim de agrupar os diversos modos de operação que apresentam um grau de semelhança entre si de acordo a uma perspectiva da medida de processamento utilizado do processador modelado, foi utilizado o conceito de cenário, o qual diferencia o comportamento de cada tarefa em relação às entradas que a aplicação sob análise pode receber. Partindo desta caracterização temporal de cada tarefa de software, as exigências da execução global da aplicação são representadas através de um modelo analítico de eventos. O modelo considera as diferentes tarefas como atores temporais de um grafo de fluxo síncrono de dados, de modo que os diferentes cenários de operação da aplicação são definidos em função dos tempos variáveis de execução identificados previamente na caracterização de cada tarefa. Uma descrição matemática deste modelo, baseada na Álgebra de Max-Plus, permite caracterizar analiticamente os diferentes fluxos de eventos entre a entrada e a saída da aplicação, assim como os fluxos de eventos entre as diferentes tarefas, considerando as mudanças nas exigências de processamento associadas aos diversos cenários previamente identificados. Esta caracterização analítica dos diversos fluxos de eventos de entrada e saída é a base para um modelo de curvas de carga de trabalho baseada em cenários de aplicação, e um modelo de curvas de serviços baseada também em cenários, que dão lugar a caracterizar o dinamismo comportamental da aplicação analisada, determinado pela diversidade de eventos de entrada que podem ativar diferentes comportamentos do sistema em fase de execução. / Classical methods for performance analysis of Multiprocessor System-on-chip (MPSoCs) are usually described in terms of Worst-Case Execution Times (WCET) of the executed tasks. Nevertheless, in real-world applications the running time of tasks varies due to different input events that trigger the system, imposing a different workload on the system resources. Usually, a workload model is a part of a performance model used to evaluate the performance of a system. How good is a workload model largely determines the quality of design solutions and the accuracy of performance estimations based on it. This thesis addresses the problem of modeling the workload for the design of real-time systems which functionality involves multimedia streams processing, i.e, data streams representing audio, images or video. The workload modeling problem is addressed from the assumption that an accurate characterization of timing behavior of real-time embedded software enables the designer to identify several variable execution requirements that the individual operation of the software tasks and the overall execution of the application will present to the several system resources of an architecture, in design phase. The software task characterization was defined from a timing analysis of the source code in order to identify the multiple operating modes the code can exhibit within a processor. This characterization is done by performing a static path analysis on the code, so that for each given path the worst-case and bestcase execution times (WCET and BCET) were estimated, based on a microarchitectural modeling of an on-chip processor. Thus, every execution path of the code, with its estimated execution times, defines an operation mode of the analyzed code. In order to cluster the several operation modes that exhibit certain degree of similarity according to the required amount of processing in the modeled processor, the concept of scenario was used, which differentiates every task behavior with respect to the several inputs the application under analysis may receive. From this timing characterization of every application task, the global execution requirements of the application are represented by an analytical event model. It describes the tasks as timed actors of a synchronous dataflow graph, so that the multiple application scenarios are defined in terms of the variable execution times previously identified in the task characterization. A mathematical description of this model based on the Max-Plus Algebra allows one to characterize the different event sequences incoming to, and exiting from, the application as well as the event sequences between the different tasks, having in count changes in the processing requirements associated with the various scenarios previously identified. This analytical characterization between the input event sequences and the output event sequences states the basis for a model of scenario-based workload curves and a model of scenario-based service curves that allow characterizing the behavioral dynamism of the application determined by the several input events that activate several system behaviors, in the execution phase.
224

Detecção de cenas em segmentos semanticamente complexos / Detection of scenes in semantically complex segments

Lopes, Bruno Lorenço 28 April 2014 (has links)
Diversas áreas da Computação (Personalização e Adaptação de Conteúdo, Recuperação de Informação, entre outras) se beneficiam da segmentação de vídeo em unidades menores de informação. A literatura apresenta diversos métodos e técnicas cujo objetivo é identificar essas unidades. Uma limitação é que tais técnicas não tratam o problema da detecção de cenas em segmentos semanticamente complexos, definidos como trechos de vídeo que apresentam mais de um assunto ou tema, e cuja semântica latente dificilmente pode ser determinada utilizando-se somente uma única mídia. Esses segmentos são muito relevantes, pois estão presentes em diversos domínios de vídeo, tais como filmes, noticiários e mesmo comerciais. A presente Dissertação de Mestrado propõe uma técnica de segmentação de vídeo capaz de identificar cenas em segmentos semanticamente complexos. Para isso utiliza a semântica latente alcançada com o uso de Bag of Visual Words para agrupar os segmentos de um vídeo. O agrupamento é baseado em multimodalidade, analisando-se características visuais e sonoras de cada vídeo e combinando-se os resultados por meio da estratégia fusão tardia. O presente trabalho demonstra a viabilidade técnica em reconhecer cenas em segmentos semanticamente complexos / Many Computational Science areas (Content Personalization and Adaptation, Information Retrieval, among other) benefit from video segmentation in smaller information units. The literature reports lots of techniques and methods, whose goal is to identify these units. One of these techniques limitations is that they dont handle scene detection in semantically complex segments, which are defined as video snippets that present more than one subject or theme, whose latent semantics can hardly be determined using only one media. Those segments are very relevant, since they are present in multiple video domains as movies, news and even television commercials. This Masters dissertation proposes a video scene segmentation technique able to detect scenes in semantically complex segments. In order to achieve this goal it uses latent semantics extracted by the Bag of VisualWords to group a video segments. This grouping process is based on multimodality, through the visual and aural features analysis, and their results combination using late fusion strategy. This works demonstrates technical feasibility in recognizing scenes in semantically complex segments
225

Compressão de vídeo com estimação global de movimento baseado no padrão H.264.

Paulo Henrique Fonseca Torres Soares 27 October 2014 (has links)
A compressão de vídeos é amplamente utilizada em Blu-rays, por fontes de streaming de vídeos na internet e também por vários serviços de transmissão de HDTV. É um processo onde se reduz a quantidade de dados necessários para representar um stream de vídeo, com a restrição de possuir uma qualidade mínima aceitável. Obviamente, esta qualidade mínima dependerá da aplicação, que pode ser um vídeo conferência ou uma transmissão de HDTV, por exemplo. A maioria dos padrões de compressão de vídeo como o H.264/AVC possui um codificador de alta complexidade e um decodificador de baixa complexidade, mas em aplicações de Veículos Aéreos Não Tripulados (VANT) geralmente o hardware embarcado apresenta capacidade de processamento inferior. Em geral, quando estes VANTs são capazes de comprimir vídeos, a mídia resultante apresenta qualidade reduzida. Com base nos conceitos propostos por Bhaskaranand e Gibson, esta dissertação apresenta um algoritmo de estimação de movimento que pode ser implementado diretamente em qualquer codificador H.264 para produzir vídeos decodificáveis por qualquer decodificador deste padrão. Como resultado, obtém-se uma redução significativa na complexidade da codificação do padrão e um pequeno aumento na taxa de bits.
226

Uma arquitetura de personalização de conteúdo baseada em anotações do usuário / An architecture for content personalization based on peer-level annotations

Manzato, Marcelo Garcia 14 February 2011 (has links)
A extração de metadados semânticos de vídeos digitais para uso em serviços de personalização é importante, já que o conteúdo é adaptado segundo as preferências de cada usuário. Entretanto, apesar de serem encontradas várias propostas na literatura, as técnicas de indexação automática são capazes de gerar informações semânticas apenas quando o domínio do conteúdo é restrito. Alternativamente, existem técnicas para a criação manual dessas informações por profissionais, contudo, são dispendiosas e suscetíveis a erros. Uma possível solução seria explorar anotações colaborativas dos usuários, mas tal estratégia provoca a perda de individualidade dos dados, impedindo a extração de preferências do indivíduo a partir da interação. Este trabalho tem como objetivo propor uma arquitetura de personalização que permite a indexação multimídia de modo irrestrito e barato, utilizando anotações colaborativas, mas mantendo-se a individualidade dos dados para complementar o perfil de interesses do usuário com conceitos relevantes. A multimodalidade de metadados e de preferências também é explorada na presente tese, fornecendo maior robustez na extração dessas informações, e obtendo-se uma maior carga semântica que traz benefícios às aplicações. Como prova de conceito, este trabalho apresenta dois serviços de personalização que exploram a arquitetura proposta, avaliando os resultados por meio de comparações com abordagens previamente propostas na literatura / The extraction of semantic information from digital video is important to be used on personalization services because the content is adapted according to each users preferences. However, although it is possible to find several approaches in the literature, automatic indexing techniques are able to generate semantic metadata only when the contents domain is restricted. Alternatively, this information can be created manually by professionals, but this activity is time-consuming and error-prone. A possible solution would be to explore collaborative users annotations, but such approach has the disadvantage of lacking the individuality of annotations, hampering the extraction of users preferences from the interaction. This work has the objective of proposing a generic personalization architecture that allows multimedia indexing procedures to be accomplished in a cheap and unrestricted way. Such architecture uses collaborative annotations, but keeps the individuality of the data in order to augment the users profile with relevant concepts. The multimodality of metadata and users preferences is also explored in this work, which provides robustness during the extraction of semantic information, bringing benefits to applications. This work also presents two personalization services that explore the proposed architecture, along with evaluations that compare the obtained results with previously proposed approaches
227

Caracterização analítica de carga de trabalho baseada em cenários de aplicações multimídia. / Analytical characterization of workload based on scenarios of multimedia applications.

Gustavo Adolfo Patiño Alvarez 07 December 2012 (has links)
As metodologias clássicas de análise de desempenho de sistemas sobre silício (System on chip, SoC) geralmente são descritas em função do tempo de execução do pior-caso1 das tarefas a serem executadas. No entanto, nas aplicações do mundo real, o tempo de execução destas tarefas pode variar devido à presença dos diferentes eventos de entrada que ativam o sistema, colocando uma exigência diferente de execução sobre os recursos do sistema. Geralmente, um modelo da carga de trabalho é uma parte integrante de um modelo de desempenho utilizado para avaliar o desempenho de um sistema. O quão bom for um modelo de carga de trabalho determina em grande medida a qualidade das soluções do projeto e a precisão das estimativas de desempenho baseadas nele. Nesta tese, é abordado o problema de modelar a carga de trabalho para o projeto de sistemas de tempo-real cuja funcionalidade envolve processamento de fluxos de multimídia, isto é, fluxos de dados representando áudio, imagens ou vídeo. O problema de modelar a carga de trabalho é abordado sob a premissa de que uma caracterização acurada do comportamento temporal do software embarcado permite ao projetista identificar diversas exigências variáveis de execução, apresentadas para os diversos recursos de arquitetura do sistema, tanto na operação individual do conjunto de tarefas de software, assim como na execução global da aplicação, em fase de projeto. A caracterização do comportamento de cada tarefa foi definida a partir de uma análise temporal dos códigos de software associados às diferentes tarefas de uma aplicação, a fim de identificar os múltiplos modos de operação que o código pode apresentar dentro de um processador. Esta caracterização é feita através da realização de uma análise estática das rotas do código executável, de forma que para cada rota de execução encontrada, estimam-se os tempos extremos de execução (WCET e BCET)2, baseando-se na modelagem da microarquitetura de um processador on-chip. Desta forma, cada rota do código executável junto aos seus respectivos tempos de execução, constitui um modo de operação do código analisado. A fim de agrupar os diversos modos de operação que apresentam um grau de semelhança entre si de acordo a uma perspectiva da medida de processamento utilizado do processador modelado, foi utilizado o conceito de cenário, o qual diferencia o comportamento de cada tarefa em relação às entradas que a aplicação sob análise pode receber. Partindo desta caracterização temporal de cada tarefa de software, as exigências da execução global da aplicação são representadas através de um modelo analítico de eventos. O modelo considera as diferentes tarefas como atores temporais de um grafo de fluxo síncrono de dados, de modo que os diferentes cenários de operação da aplicação são definidos em função dos tempos variáveis de execução identificados previamente na caracterização de cada tarefa. Uma descrição matemática deste modelo, baseada na Álgebra de Max-Plus, permite caracterizar analiticamente os diferentes fluxos de eventos entre a entrada e a saída da aplicação, assim como os fluxos de eventos entre as diferentes tarefas, considerando as mudanças nas exigências de processamento associadas aos diversos cenários previamente identificados. Esta caracterização analítica dos diversos fluxos de eventos de entrada e saída é a base para um modelo de curvas de carga de trabalho baseada em cenários de aplicação, e um modelo de curvas de serviços baseada também em cenários, que dão lugar a caracterizar o dinamismo comportamental da aplicação analisada, determinado pela diversidade de eventos de entrada que podem ativar diferentes comportamentos do sistema em fase de execução. / Classical methods for performance analysis of Multiprocessor System-on-chip (MPSoCs) are usually described in terms of Worst-Case Execution Times (WCET) of the executed tasks. Nevertheless, in real-world applications the running time of tasks varies due to different input events that trigger the system, imposing a different workload on the system resources. Usually, a workload model is a part of a performance model used to evaluate the performance of a system. How good is a workload model largely determines the quality of design solutions and the accuracy of performance estimations based on it. This thesis addresses the problem of modeling the workload for the design of real-time systems which functionality involves multimedia streams processing, i.e, data streams representing audio, images or video. The workload modeling problem is addressed from the assumption that an accurate characterization of timing behavior of real-time embedded software enables the designer to identify several variable execution requirements that the individual operation of the software tasks and the overall execution of the application will present to the several system resources of an architecture, in design phase. The software task characterization was defined from a timing analysis of the source code in order to identify the multiple operating modes the code can exhibit within a processor. This characterization is done by performing a static path analysis on the code, so that for each given path the worst-case and bestcase execution times (WCET and BCET) were estimated, based on a microarchitectural modeling of an on-chip processor. Thus, every execution path of the code, with its estimated execution times, defines an operation mode of the analyzed code. In order to cluster the several operation modes that exhibit certain degree of similarity according to the required amount of processing in the modeled processor, the concept of scenario was used, which differentiates every task behavior with respect to the several inputs the application under analysis may receive. From this timing characterization of every application task, the global execution requirements of the application are represented by an analytical event model. It describes the tasks as timed actors of a synchronous dataflow graph, so that the multiple application scenarios are defined in terms of the variable execution times previously identified in the task characterization. A mathematical description of this model based on the Max-Plus Algebra allows one to characterize the different event sequences incoming to, and exiting from, the application as well as the event sequences between the different tasks, having in count changes in the processing requirements associated with the various scenarios previously identified. This analytical characterization between the input event sequences and the output event sequences states the basis for a model of scenario-based workload curves and a model of scenario-based service curves that allow characterizing the behavioral dynamism of the application determined by the several input events that activate several system behaviors, in the execution phase.
228

A potencialidade pedagógica no uso de materiais multimídias: uma experiência no Colégio Notre Dame / The pedagogical potential in the use of multimedia materials: an experience at Colégio Notre Dame

Santos, Érica Renda dos 05 April 2017 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2017-04-19T12:02:28Z No. of bitstreams: 1 Érica Renda dos Santos.pdf: 2311455 bytes, checksum: fbcc1487dfad57bfe1d29b981e083750 (MD5) / Made available in DSpace on 2017-04-19T12:02:28Z (GMT). No. of bitstreams: 1 Érica Renda dos Santos.pdf: 2311455 bytes, checksum: fbcc1487dfad57bfe1d29b981e083750 (MD5) Previous issue date: 2017-04-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / 21st century society is characterized by an unbridled expansion of easily accessible information, demanding from citizens a permanent attitude of learning and knowledge acquisition. In this context, information and digital technologies (ICT) have been causing profound transformation in Education: in the teaching goals and in the educational institutions themselves, in the educational policies, in teachers’ continuing professional development, in the active methodologies developed in the classroom, in the materials offered to learners, in the curricula definition, as well as in the mobilization of both the family and the community regarding the education of their members. Nevertheless, even though schools allow for the use of digital resources, it is not unusual that teachers and the institution itself face difficulties in using them to enhance teaching processes. Similarly, students face difficulties in directing all the skills they have in technology to the learning activities. This study aims to investigate how the multimedia resources made available through the didactic materials adopted by Colégio Notre Dame, source of investigation of this research, are being used by teachers and what their perceptions about the pedagogic potentialities are in this use. In order to meet this purpose, this study was developed by the principles of qualitative research, via case study, since the interest is to investigate a pragmatic problem that is part of the daily routine of an educational institution. Two instruments for data collection have been adopted: one questionnaire that indicates teachers who are users of technological resources and tools in the classroom, and one semi-structured interview with these subjects, departing from their testimonials to extract specific data that could answer the questions under investigation. The theoretical references adopted are based on the studies by Richard Mayer, who proposes a particular theory about learning through multimedia resources as well as by other specialists who dedicate themselves to answer questions related to the topic / No século XXI, a sociedade é caracterizada pela expansão desenfreada de informações de fácil acesso, exigindo de todos que dela participam uma atitude constante de aquisição de conhecimentos e aprendizagem. Neste contexto, as Tecnologias Digitais da Informação e Comunicação (TDIC) vem ocasionando profundas transformações na Educação: nos objetivos de ensino e nas próprias instituições escolares, nas políticas educacionais, na formação continuada dos docentes, nas metodologias ativas desenvolvidas em sala de aula, nos materiais apresentados aos alunos, na definição do currículo, bem como na mobilização da família e da comunidade no que se refere à educação de seus pares. Porém, por mais que a escola viabilize recursos digitais, muitas vezes os professores e a própria instituição apresentam dificuldades em usá-los na potencialização das situações de ensino, bem como os alunos apresentam dificuldades em direcionar todo o conhecimento que possuem em tecnologia para as situações de aprendizagem. O objetivo deste trabalho é investigar com que intuito os recursos multimídias disponibilizados pelo material didático adotado pelo Colégio Notre Dame, fonte de investigação dessa pesquisa, estão sendo utilizados pelos professores e quais são suas percepções sobre as potencialidades pedagógicas dessa prática. Para tanto, o estudo é desenvolvido pelos princípios da pesquisa qualitativa, via estudo de caso, uma vez que o interesse se pauta em investigar um problema prático, que faz parte do cotidiano de uma instituição de ensino. Para tal, foram adotados dois instrumentos para a coleta de dados: um questionário que indicaria professores usuários de recursos e ferramentas tecnológicas em sala de aula e uma entrevista semiestruturada com esses sujeitos, buscando, a partir de suas narrativas, extrair unidades de significados que pudessem responder as questões de investigação. O referencial teórico adotado está ancorado nos estudos de Richard Mayer, que propõe uma teoria específica sobre a aprendizagem por meio de recursos multimídias, bem como em outros especialistas que se dedicam a responder questões relacionadas ao tema
229

Hiperimagem: a imagem em hipermídia aplicada no conhecimento científico - Imagem e Conhencimento Científico

Messa, Éric Eroi 30 March 2007 (has links)
Made available in DSpace on 2016-04-26T18:16:03Z (GMT). No. of bitstreams: 1 Eric Eroi Messa.pdf: 1977917 bytes, checksum: 35b2c6b597405388e92fb29ca3849ff5 (MD5) Previous issue date: 2007-03-30 / Esta pesquisa tem como objetivo identificar, em obras de hipermídia, pequenas unidades denominadas hiperimagens, compostas de recursos verbais e não-verbais, capazes de participar ativamente do processo de produção de conhecimento. Grande parte das áreas do conhecimento é influenciada pela priorização da matriz verbal aplicada em meio impresso. Nestes casos, é comum ver a imagem apenas como ilustração do texto, sendo um elemento redundante no processo de produção de conhecimento. No caso de uma relação entre imagem e texto, a imagem não-ilustrativa é aquela em que o nível de redundância é pequeno, ou seja, fornece informações adicionais àquelas presentes no texto. No caso de obras em hipermídia, a própria linguagem oferece o hibridismo das matrizes verbal, sonora e visual. Esta pesquisa trabalhou com a hipótese de que esse hibridismo da linguagem hipermidiática e as possibilidades oferecidas por outros recursos, como a programação, podem propiciar a criação de hiperimagens. Estas atuam aproveitando os recursos de cada matriz para gerar uma expressividade sensível que promova o estímulo durante o processo de percepção e a concepção de questionamentos que colaborem para uma construção ativa do conhecimento. As potencialidades da hiperimagem aplicada em hipermídia oferecem, portanto, subsídios que permitem a reflexão sobre os modelos alternativos de produção de conhecimento. A reticularidade, a não-linearidade e a montagem são algumas das características que sustentam esses modelos alternativos. A integração de uma hiperimagem no interior de uma rede de hiperimagens expande as formas habituais de compreensão para muito além de uma participação ilustrativa da imagem. A metodologia buscou uma sistematização bibliográfica relacionando as áreas da comunicação e hipermídia, e, assim, foram analisadas obras hipermidiáticas que se apresentaram como resultados de pesquisas científicas. Para tanto, utilizamos uma base teórica que privilegiou três opções. Primeira, a valorização do aspecto sensível/estético com base na obra do filósofo Hans-Georg Gadamer. Segunda, a opção conceitual pela abordagem peirciana da primeiridade presente na teoria geral dos signos. Terceira, a noção de plurisensorialidade de Marshall McLuhan como conceito que dialoga com a presença da hiperimagem em ambientes hipermidiáticos
230

Controle de qualidade para 3D-vídeo streaming em redes em malha sem fio

QUADROS, Carlos Jean Ferreira de 20 February 2013 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2013-05-03T22:22:10Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_ControleQualidade3D.pdf: 12169204 bytes, checksum: 112ef674e3f6db4c47ff70ef031599e1 (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2013-05-06T16:00:40Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_ControleQualidade3D.pdf: 12169204 bytes, checksum: 112ef674e3f6db4c47ff70ef031599e1 (MD5) / Made available in DSpace on 2013-05-06T16:00:40Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_ControleQualidade3D.pdf: 12169204 bytes, checksum: 112ef674e3f6db4c47ff70ef031599e1 (MD5) Previous issue date: 2013 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Redes em Malha sem Fio ( do inglês Wireless Mesh Networks - WMNs) são previstas serem uma das mais importantes tecnologias sem fio no que se refere ao fornecimento do acesso de última milha em redes multimídia futuras. Elas vão permitir que milhares de usuários fixos e móveis acessem, produzam e compartilhem conteúdo multimídia de forma onipresente. Neste contexto, vídeo 3D está previsto atrair mais e mais o mercado multimídia com a perspectiva de reforçar as aplicações (vídeos de vigilância, controle demissões críticas, entretenimento, etc). No entanto, o desafio de lidar com a largura de banda optante, escassez de recursos e taxas de erros variantes com o tempo destas redes, ilustra a necessidade da transmissão de vídeos 3D mais resistentes a erros. Dessa forma, alternativas como abordagens de Correção Antecipada de Erros (FEC) se tornam necessárias para fornecer a distribuição de aplicações de vídeo para usuários sem fio com garantia de melhor qualidade de serviço (QoS) e Qualidade de Experiência (QoE). Esta dissertação apresenta um mecanismo baseado em FEC com Proteção Desigual de Erros (UEP) para melhorar a transmissão de vídeo 3D em WMNs, aumentando a satisfação do usuário e permitindo uma melhoria do uso dos recursos sem fio. Os benefícios e impactos do mecanismo proposto serão demonstrados usando simulação e a avaliação será realizada através de métricas de QoE objetivas e subjetivas. / Wireless Mesh Networks (WMNs) are envisaged to be one of the most important wireless technologies to provide last mile access in future wireless multimedia networks. In this context, 3D-video is envisioned to attract more and more the multimedia market with the perspective for enhanced applications (video surveillance, mission critical control, entertainment, etc.). However, the challenge of dealing with the uctuating bandwidth, scarce resources and time-varying error rate of these networks, illustrates the need for error-resilient 3D-video transmission. In this context, Forward Error Correction (FEC) approaches are required to provide the distribution of video applications for wireless users with Quality of Service (QoS) and Quality of Experience (QoE) assurance. This study proposal puts forward a FEC-based mechanism with Unequal Error Protection (UEP) to enhance 3D-video transmission in WMNs, while increasing user satisfaction and improving the usage of wireless resources. The benefits and impact of the proposed mechanism will be demonstrated by using simulation, the assessment will be conducted with objective and subjective QoE metrics.

Page generated in 0.2227 seconds