• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2440
  • 95
  • 89
  • 78
  • 78
  • 77
  • 57
  • 32
  • 21
  • 16
  • 15
  • 15
  • 9
  • 3
  • 3
  • Tagged with
  • 2612
  • 1390
  • 672
  • 644
  • 476
  • 433
  • 402
  • 313
  • 305
  • 300
  • 257
  • 238
  • 236
  • 231
  • 229
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Sobre tecnologias, educaÃÃo, formaÃÃo e etnografia: a experiÃncia do LaboratÃrio de Pesquisa Multimeios da Faculdade de EducaÃÃo (UFC) / Des technologies, education, formation et ethnographie: Laboratoire de Recherche MultimÃdia ExpÃrience Ãducation College (UFC)

Antonia Lis de Maria Martins Torres 28 July 2014 (has links)
nÃo hà / Trata de uma pesquisa de cunho etnogrÃfico realizado no LaboratÃrio de Pesquisa Multimeios da Faculdade de EducaÃÃo (UFC), tendo os seguintes objetivos: analisar a construÃÃo do LaboratÃrio de Pesquisa Multimeios, sua concepÃÃo e uso das tecnologias digitais, na perspectiva dos professores/pesquisadores; evidenciar como o LaboratÃrio de Pesquisa Multimeios, com matriz nas CiÃncias Exatas, foi se legitimando dentro da FACED/UFC; averiguar o lugar deste LaboratÃrio na formaÃÃo de seus professores/pesquisadores; identificar as especificidades do Multimeios nos campos teÃrico-metodolÃgico, tÃcnico-operativo e polÃtico em seus espaÃos de atuaÃÃo. O recorte de investigaÃÃo deste estudo voltou-se ao segmento professores/pesquisadores vinculados ao LaboratÃrio desde 1997 a 2012. No trabalho de campo, utilizou-se de instrumentos, como diÃrio de observaÃÃo, pesquisa documental e entrevistas semiestruturadas. Os dados apontam que este LaboratÃrio possui uma concepÃÃo pautada na compreensÃo do homem que se relaciona com as tecnologias em um contexto sÃciocultural, reconhecendo a tecnologia como produto do homem, que, embora a crie, a elabore, mas que tambÃm à modificado pela tecnologia. Observou-se ainda uma tentativa em âolharâ criticamente sobre essas tecnologias a partir de seus usos, alÃm de uma preocupaÃÃo em debruÃar-se sobre os autores que estudam as questÃes de cunho tecnolÃgico. AlÃm dessa visÃo global, percebe-se que o Multimeios tem uma perspectiva bastante direcionada para o uso das tecnologias digitais na educaÃÃo, agregando-a como um recurso didÃtico que pode auxiliar nÃo sà as atividades voltadas para a docÃncia, como tambÃm para aÃÃes que envolvem a elaboraÃÃo de projetos. Verificou-se, entretanto, que essa concepÃÃo de tecnologia nÃo se restringe apenas ao aspecto da docÃncia, mas se estende a todas as atividades do LaboratÃrio, o que poderÃamos chamar de âfilosofia da tecnologiaâ presente no LaboratÃrio. Constatou-se que o fato de este LaboratÃrio constituir-se como âlugar que trabalha com tecnologiasâ na FACED faz que a comunidade acadÃmica gere expectativas de que os pesquisadores vinculados ao LaboratÃrio realizem tambÃm o trabalho de um tÃcnico de informÃtica. PorÃm, busca desmistificar que o foco nÃo à a tecnologia, mas sim apropriar-se de suas potencialidades objetivando o aprendizado. Os depoimentos reforÃaram ainda a concepÃÃo do LaboratÃrio como lugar que discute, reflete, experimenta, atribui sentido à utilizaÃÃo das tecnologias digitais na EducaÃÃo, ressaltando que essa compreensÃo foi construÃda em diÃlogo com teÃricos do campo da EducaÃÃo. Desse modo, evidencia-se que este LaboratÃrio vai deixando essa dimensÃo mais tÃcnica para pensar no uso das tecnologias na EducaÃÃo, tornando-se um lugar que aos poucos vai se apropriando e sendo tambÃm apropriado pela educaÃÃo, sendo que seu grande contributo à o aspecto formativo. Com o desenvolvimento de suas atividades, o Multimeios foi mostrando seu âsentidoâ para tecnologia no campo da EducaÃÃo, para discentes e pesquisadores que sÃo por là formados. No que diz respeito Ãs reflexÃes sobre os usos, isso à traduzido em um saber-fazer. Ressalta-se que o Multimeios possui uma cultura digital que lhe à prÃpria, e isso acontece no interior das prÃticas desenvolvidas coletivamente. As observaÃÃes indicam o Multimeios como âcasa de pertenÃa dos sujeitosâ, como tambÃm se constitui em um espaÃo de trocas, convivialidade, mas tambÃm um lugar marcado por disputa e relaÃÃes de poder. Verificou ainda que parte dessa formulaÃÃo encontra-se alicerÃada na âfiguraâ de seu Coordenador, que faz funcionar, à seu modo, esse LaboratÃrio. Sem dÃvida, esse lugar à fruto do seu legado como produtor de saberes envolvendo as Ãreas de EducaÃÃo matemÃtica, InformÃtica Educativa, InclusÃo Digital e EducaÃÃo a DistÃncia. à tambÃm possÃvel inferir que uma das especificidades deste LaboratÃrio diz respeito à preocupaÃÃo com a dimensÃo teÃrica, mesmo porque os resultados de suas produÃÃes à que garantem sua legitimidade e importÃncia no cenÃrio acadÃmico. ApÃs esta pesquisa, foi possÃvel decifrar a realidade do LaboratÃrio Multimeios, olhando-o de fora de um espaÃo quadrado, fechado entre quatro paredes, composto por um amontoado de equipamentos eletrÃnicos, que, muitas vezes, âaprisionamâ os sujeitos numa visÃo de dentro para dentro. Desse modo, considera-se que este trabalho permitiu explorar a trajetÃria deste LaboratÃrio com base numa ruptura com uma perspectiva cartesiana, rotineira, reiterativa e unicamente burocrÃtica, colocando-o frente a frente com a histÃria e os processos sociais contemporÃneos.
222

Modelo de um neurônio diferenciador-integrador para representação temporal em arquiteturas conexionistas

Moser, Lúcio Dorneles January 2004 (has links)
O presente trabalho analisa diferentes modelos de representação temporal usados em arquiteturas conexionistas e propõe o uso de um novo modelo neural, chamado Neurônio Diferenciador-Integrador (NDI) para aplicação com processamento de sinais temporais. O NDI pode ser interpretado como filtro digital. Seu funcionamento exige poucos recursos computacionais e pode ser de grande valia em problemas onde a solução ideal depende de uma representação temporal instantânea, facilidade de implementação, modularidade e eliminação de ruído. Após a definição do modelo, o mesmo é sujeito a alguns experimentos teóricos utilizado em conjunto com arquiteturas conexionistas clássicas para resolver problemas que envolvem o tempo, como previsão de séries temporais, controle dinâmico e segmentação de seqüências espaço-temporais. Como conclusão, o modelo neural apresenta grande potencialidade principalmente na robótica, onde é necessário tratar os sinais sensoriais ruidosos do robô de forma rápida e econômica.
223

Co-simulação distribuída de sistemas heterogêneos

Mello, Braulio Adriano de January 2005 (has links)
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
224

Análise da distribuição de um simulador multinível

Figueiro, Joice Pavek January 1994 (has links)
A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.
225

Avaliação do uso de modelos digitais de elevação em prognósticos de modelos de dispersão de gases na troposfera / Evaluation of Digital Elevation Models over Tropospheric Gases Dispersion Models Predictions

Meira, Lindolfo January 2007 (has links)
Pelo fato de que poucos trabalhos atualmente têm relatado acerca do impacto da resolução dos modelos digitais de elevação (MDEs) sobre as concentrações previstas por modelos de simulação da qualidade do ar, este estudo tenta estabelecer urna comparação básica entre dois distintos cenários de simulação, afim de embasar futuras investigações sobre o assunto. O foco está na formação e dispersão de ozônio sobre o estado do Rio Grande do Sul. No primeiro cenário de simulação, nenhum dado de elevação é considerado. No segundo, um MDE com resolução de 1 km, derivado de dados da MissãoTopográfiica do Ônibus Espacial (SRTM), é utilizado. Os modelos de qualidade do ar empregados são aqueles englobados pela dita interface Models-3, amplamente utilizados e respaldados pela Agência de Fmteção Ambiental Estadunidense (US-EPA). Dois domínios de simulação são implementados neste estudo: um domínio externo com 90x 90 células de 9 km cada, e um interno com 67x49 células de 3 km cada. Dados meteorológicos com, aproximadamente, 110 km de resolução, do Centm Nacional Estadunidense de Fr-evisão Ambiental (NCEP) também são usados nas simulações, bem corno dois outros conjuntos de dados do Institv,to BmsÜeiro de Geogmjia e Estatíst'ica (IBGE) e do Depar-tamento de Trânsito do Estado do Rio Grande do Sul (DETRAN-RS). Estes dois últimos usados na estimativa das emissões devidas à frota veicular da Região Metmpolitana de Porto Alegre(RMPA), tornada corno única contribuinte às emissões sobre a área estudada. Os resultados apresentaram marcadas diferenças entre um cenário e outro. Concentrações constantemente mais elevadas de ozônio foram observadas na presença do MDE enquanto, na ausência deste, as concentrações finais de ozônio baixaram os níveis à metade. Também os padrões de dispersão tiveram características bastante distintas, espalhando-se amplamente sobre a parte sul do domínio externo de simulação na ausência do MDE e, do contrário, espalhando-se de forma mais limitada sobre a parte sudoeste, com um jato observado em direção noroeste. Elevados níveis de concentração de ozônio foram observados bastante longe das fontes emissoras, atingindo cerca de 500 km em ambos os cenários. / As few works nowadays have reported on the impact of digital elevation nodels (DEMs) resolution over concentration predictions by air quality simulation models, this study attempts to establish a basic comparison betweeIl two different simulation scenarios, in order to support further investigation on this issue. The focus is on the ozone formation and dispersioll over the Rio Grande do Sul state. In the first simulation scenario, no elevation data is regarded. In the second one, DEM data with 1 km resolution, derived from the Shuttle Radar Topogmphic Mission (SRTM) is used. The air quality models employed are those which constitute the so-called Models-3 interface, widely used and supported by the United States Environmental Protection Agency (US-EPA). Two simulation domains are implemented in this study: the outermost domain with 90x90 cells with 9 km each, and the innermost one with 67x49 cells with 3 km each. Meteorology data with, approximately, 110 km resolution I'rom the National Genter for Environmental Prediction (NCEP) is also used in the simulations, as well as two other sets of data from the Brazilian Institute of Geography and Statistics (IBGE) and from the Rio Grande do Sul State Traffic Department (DETRAN-RS). These last two sets used to estimate emissions from the Metropolitan Arm of Porto Alegre (RMPA) vehicular fieet, taken as the only contributor to the emissions over the studied area. The results have presented marked differences from one scenario to the other. Sustained higher concentratiolls of ozone have been observed in the presence of the DEM data whilst, in the lack of it, final concentrations of ozone have dropped their levels to half. Also, dispersion patterns had quite distinguishable features, spreading widely over the south part of the outermost simulation domain in the lack of DEM data and, otherwise, spreading in a more narrow fashion over the south-west part, with a jet observed north-westwards. High levels of ozone concentration were abserved far away from the emission sources, reaching as far as 500 km in both scenarios.
226

Uma Arquitetura de Hardware para estimação de movimento aplicada à compressão de vídeo digital

Zandonai, Diogo January 2003 (has links)
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.
227

Geração de modelos de co-simulação distribuída para a arquitetura DCB

Sperb, Josué Klafke January 2003 (has links)
O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.
228

Metodologia de design aplicada à concepção de histórias em quadrinhos digitais

Motta, Rodrigo Leôncio 24 February 2012 (has links)
Submitted by Amanda Silva (amanda.osilva2@ufpe.br) on 2015-03-10T12:25:43Z No. of bitstreams: 2 RODRIGO LEÔNCIO.pdf: 10918501 bytes, checksum: 7561d45a5af6b365a340b97d4e2652a9 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-10T12:25:43Z (GMT). No. of bitstreams: 2 RODRIGO LEÔNCIO.pdf: 10918501 bytes, checksum: 7561d45a5af6b365a340b97d4e2652a9 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2012-02-24 / Da década de 1990 até o momento a tecnologia digital vem mudando de forma radical quase todos os setores da sociedade. Vivemos num período de adaptação ao uso desta tecnologia. Não distantes dessa revolução, a linguagem conhecida popularmente como histórias em quadrinhos também migra para este novo ambiente. Existem várias manifestações de histórias em quadrinhos digitais, inclusive produzidas por grandes editoras tradicionais, no entanto a maioria destes artefatos ainda estão presos a características dadas pela imprensa, principalmente o formato tradicional de página. Estudiosos no assunto acreditam que as histórias em quadrinhos no ambiente digital devem apresentar soluções distintas de sua forma na imprensa, criando experiências interativas, imersivas, novas formas de leitura, mas sem perder as características de sua linguagem. Neste trabalho partimos do pressuposto que as histórias em quadrinhos digitais são produtos de base tecnológica, que necessitam de metodologias, técnicas e novos profissionais envolvidos nos processos de concepção e desenvolvimento. Sendo assim, este estudo fez uma releitura do artefato história em quadrinhos no ambiente digital sob a perspectiva do design, dando o mesmo enfoque que é dado a um produto de design, sendo desenvolvido dentro de um processo definido, analisado e avaliado ao longo de sua concepção. Ao final do trabalho apresenta-se uma aplicação das metodologias de design para concepção de quadrinhos no ambiente digital, utilizando um modelo em escala reduzida para comprovar a viabilidade do processo.
229

Formação continuada de professores e tecnologia: concepções docentes, possibilidades e desafios do uso das tecnologias digitais na educação básica

SILVA, Maristela Maria Andrade 25 February 2014 (has links)
Submitted by Luiz Felipe Barbosa (luiz.fbabreu2@ufpe.br) on 2015-04-13T14:39:19Z No. of bitstreams: 2 DISSERTAÇÃO Maristela Maria Andrade da Silva.pdf: 2084472 bytes, checksum: 251686598ced2c07786f3d16630b13a0 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-13T14:39:19Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Maristela Maria Andrade da Silva.pdf: 2084472 bytes, checksum: 251686598ced2c07786f3d16630b13a0 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-02-25 / Esta pesquisa teve como objetivo geral compreender as concepções dos docentes em relação às possibilidades e desafios do uso das tecnologias digitais, a partir do processo de formação continuada na Rede Municipal de Ensino do Recife. Para discutir sobre a formação continuada de professores e tecnologia: concepções docentes, possibilidades e desafios do uso das tecnologias digitais na educação básica, nos baseamos teoricamente na tendência conceitual que permeia a formação continuada (ARAÚJO; SILVA, 2009), as tecnologias digitais da Informação e comunicação (BEHRENS, 2010) e aprendizagem com uso das TDIC (VALENTE, 2005). Optamos por uma abordagem qualitativa e utilizamos a metodologia de análise de conteúdo. Determinamos como nosso campo empírico o Centro de Formação de Educadores Paulo e, os sujeitos da nossa pesquisa foram os professores, que atuam no 3º e 4º ciclos da Educação Fundamental e os mediadores, que são os especialistas em Tecnologias na Educação. Para a construção dos dados utilizamos a pesquisa documental, o questionário e entrevista semiestruturada. Elencamos as seguintes categorias temáticas a priori: tendência conceitual da formação continuada, possibilidades de uso, possibilidades de aprendizagem e desafios. A partir da nossa análise identificamos unidades de registro que apontam para uma tendência conceitual de formação continuada para o viés liberalconservador, mas também foi possível encontrar concepções docentes voltadas para a tendência crítico-reflexiva. Consideramos que a tendência conceitual que permeia a formação continuada no âmbito do Programa Professor@.com é parcialmente crítico-reflexiva. Percebemos que os docentes concebem possibilidades de aprendizagem com uso das TDIC numa perspectiva progressista, porém os desafios referentes à formação continuada, infraestrutura e o tempo pedagógico dificultam o uso das TDIC como instrumento mediador no processo de ensino-aprendizagem numa perspectiva progressista. Podemos supor que as formações no âmbito do Programa Professor@com já apresentam aos professores diversos olhares sobre às possibilidades de aprendizagem com uso das TDIC, numa perspectiva construcionista, porém é difícil para os professores integrarem as tecnologias na sua prática docente sem mudança da cultura escolar. A mudança das concepções dos docentes não é suficiente para promover a aprendizagem dos estudantes com uso das tecnologias se a cultura escolar continuar conservadora.
230

Proposta de uma metodologia para detecção de impressões digitais falsas usando combinação e seleção dinâmica de classificadores

NASCIMENTO, André Hermenegildo do 06 March 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2015-10-21T17:48:28Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) PROPOSTA DE UMA METODOLOGIA PARA DETECÇÃO DE IMPRESSÕES DIGITAIS FALSAS USANDO COMBINAÇÃO E SELEÇÃO DINÂMICA DE CLASSIFICADORES.pdf: 8256593 bytes, checksum: a6a2b322802d4ec68100c08531d486e4 (MD5) / Made available in DSpace on 2015-10-21T17:48:28Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) PROPOSTA DE UMA METODOLOGIA PARA DETECÇÃO DE IMPRESSÕES DIGITAIS FALSAS USANDO COMBINAÇÃO E SELEÇÃO DINÂMICA DE CLASSIFICADORES.pdf: 8256593 bytes, checksum: a6a2b322802d4ec68100c08531d486e4 (MD5) Previous issue date: 2015-03-06 / As impressões digitais têm sido amplamente utilizadas como forma de autenticação de um indivíduo. Os padrões gerados pelas saliências das pontas dos dedos são usados para diferenciar uma pessoa da outra. Esses padrões vêm ao longo de anos apresentando-se como meio confiável de identificação pessoal, mesmo no caso de gêmeos idênticos as impressões digitais apresentamse diferentes. Entretanto estudos comprovam que é possível construir impressões digitais sintéticas com cópia das saliências utilizadas para identificar um usuário, permitindo o uso de forma fraudulenta de sistemas e serviços. Diante do perigo de fraude, várias técnicas vêm sendo desenvolvidas visando identificar se uma impressão digital corresponde ou não a uma impressão verdadeira (“impressão digital viva”). As técnicas de detecção de impressões digitais são divididas nas baseadas em hardware e nas baseadas em software que apresentam maior flexibilidade e menor custo de atualização dos dispositivos comercializados. O presente trabalho tem por objetivo apresentar uma técnica, baseada em software, que garanta mais segurança aos sistemas que se utilizam desta biometria, conseguindo identificar se uma impressão digital é falsa ou não. Para isto, é proposta uma arquitetura de geração, combinação e seleção dinâmica de classificadores para detecção de impressão digital falsa. A metodologia proposta é composta de 4 (quatro) módulos: módulo de Agrupamentos de Dados, módulo de Geração de Classificadores, módulo de Seleção Dinâmica de Classificadores, e o módulo de Combinação de Classificadores. Esses módulos estão organizados em 2 (duas) fases: treinamento e teste. Na fase de treinamento, as imagens das digitais são divididas em grupos, cada grupo contém os elementos que apresentam similaridade entre si. Esses grupos são utilizados para a criação dos classificadores especialistas. Na fase de teste é realizada a seleção dinâmica e a combinação dos classificadores obtidos, de modo a classificar um determinado padrão de entrada. A arquitetura proposta foi validada em 11 (onze) bases de dados pertencentes à competição LivDet (Liveness Detection Competition). Cada base foi analisada em 1.452 cenários diferentes, de modo a avaliar os parâmetros da arquitetura, sendo realizados um total de 15.972 experimentos. Os experimentos mostraram que os resultados obtidos com o uso da arquitetura proposta são bastante promissores, conseguindo superar o desempenho dos classificadores bases para todas as 11 bases de dados analisadas. Para uma das bases foi possível alcançar uma detecção com performance 68,10% superior ao se utilizar o classificador sem a etapa de combinação. Em média, os resultados obtidos apresentaram uma performance superior de 39,98% em relação a abordagem tradicional (sem a etapa de combinação). / Fingerprints have been widely used as a way of identifying an individual. The patterns generated by protrusions in the fingertips are used to differentiate one person from another. Those patterns have been a trustable way of personal identification. Even in the case of identical twins, fingerprints are different. However studies prove that it is possible to build synthetic digital fingerprints copying the protrusions used to identify one individual, allowing the fraudulent use of systems and services. In face of the danger of fraud, several techniques are being developed aiming to identify if a fingerprint corresponds or not to a true fingerprint (“live fingerprint”). Techniques for fingerprint detection are split between those based on hardware and those based on software which have more flexibility and lower cost for upgrading the devices being used. This work aims to present a technique, based on software, which ensures more security for the systems using this biometry, allowing to identify if a fingerprint is false or not. In order to do, it is proposed an architecture of generation, combination and dynamic selection of classifiers for false fingerprint detection. The proposed methodology is composed by 4 (four) modules: Module of Data Grouping, Module of Classifiers Generation, Module of Dynamic Selection of Classifiers and the Module of Classifiers Combination. Those modules are organized in two stages: training and testing. During the training stage, images of the digitals are split into groups, each group contains the elements that have similarities among themselves. Those groups are used for the creation of specialist classifiers. During the testing phase the dynamic selection and combination of the classifiers obtained is performed, in order to classify a particular input standard. The proposed architecture was validated in 11 databases belonging to the LivDet competition (Liveness Detection Competition). Each database was analyzed in 1,452 different scenarios, in order to evaluate the architecture parameters, in a total on 15,972 experiments performed. Experiments showed that results obtained using the proposed architecture are very promising, managing to overcome the performance of the database classifiers for all of the 11 analyzed databases. For one of the sets it was possible to reach a performance of detection 68.10% over others without using the combination stage. In average, results have a performance that is 39.98% superior compared to the traditional approach (without the combination step).

Page generated in 0.0391 seconds