• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 6
  • Tagged with
  • 27
  • 13
  • 13
  • 13
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Um estudo sobre a digitação a partir da peça Caleta el Membrillo para violão de Guillermo Rifo

Paschero, Nahuel Romero January 2016 (has links)
O presente trabalho trata da digitação ao violão como um processo com diferentes instâncias, as quais contribuem para a tomada de decisões interpretativas e sua fundamentação. A digitação grafada existe desde os primórdios da história do violão, mas, comparada com a técnica instrumental, sua abordagem analítica resulta escassa. A partir da revisão de literatura sobre o tema, construí um referencial teórico e prático que serviu para digitar a obra “Caleta el Membrillo” do compositor chileno Guillermo Rifo (2012) de forma sistemática, a qual se apresentava sem digitações grafadas. Após analisar diversos trechos musicais e propor diferentes soluções digitais para cada um, dentro dos marcos preestabelecidos, grafei a partitura final com as minhas escolhas. / This work deals with guitar fingerings as a process with different phases which help prepare for and establish interpretative decisions. Printed fingerings exist since the beginning of the history of the guitar. However, when compared to instrumental technique, this analytical approach remains scarce. After presenting a review of current literature on the subject, I built a theoretical and practical framework that served to provide fingering choices for the work “Caleta el Membrillo” by Guillermo Rifo (2012) in a systematic way. This piece had no printed fingerings. After analyzing several musical passages and offering different fingering solutions for them, within preestablished limits, I propose and present a final version with my fingering choices.
12

O processo de digitação para violão da Ciaccona BWV 1004 de Johann Sebastin Bach

Alípio, Alisson Cardoso Monteiro January 2010 (has links)
Este trabalho trata do processo de digitação para violão da Ciaccona BWV 1004 (original para violino) de Johann Sebastian Bach (1685-1750). O objetivo foi desenvolver uma digitação de mão esquerda capaz de refletir as intenções musicais do presente autor. Para tal, foi estabelecido um modelo de análise, onde a textura musical é dividida e classificada, com base em referenciais teóricos, como: melódica, harmônica, motívica e polifônica. Ao analisar as digitações usadas em transcrições, e compará-las às desta pesquisa, concluímos que se pode ter autonomia para contestar uma digitação grafada, pois ela reflete nada mais que as decisões do seu autor, sejam musicais ou técnicas. A partir disto, podemos deduzir que elas se alteram conforme as nossas próprias decisões. / This work deals with the process of elaborating guitar fingerings for J. S. Bach’s Ciaccona BWV 1004 (original for violin). The aim was to develop a left hand fingering able to reflect the musical intentions of the present author. To this end, a model of analysis was established, in which the musical texture is divided and classified, based on theoretical references, into the following categories: melodic, harmonic, motivic and polyphonic. By analyzing the fingering used on transcriptions, and comparing it with the results of this research, we conclude that we can question a suggested fingering, because it reflects nothing more than the decisions of its author, whether musical or technical. From this we can deduce that they change according to our own decisions.
13

Leitura à primeira vista no violão : um estudo com alunos de graduação

Pastorini, Eduardo Vagner Soares January 2011 (has links)
A capacidade de executar uma obra à primeira vista no violão é considerada por muitos uma tarefa de difícil execução. Um dos principais motivos para isto é o fato de uma mesma nota poder ser tocada em diferentes lugares da escala do violão, gerando diversas possibilidades de digitação para uma mesma passagem. A presente pesquisa investigou os procedimentos utilizados por 11 estudantes de graduação em violão durante a execução de uma tarefa de leitura à primeira vista. Os sujeitos da pesquisa foram filmados e entrevistados e os dados relativos ao histórico de cada sujeito foram acessados pela aplicação de questionário. Foram considerados como variáveis influentes na execução dessa tarefa fatores como as diferentes possibilidades de digitação para uma mesma passagem, o conhecimento das possibilidades expressivas do instrumento, e a habilidade motora. A digitação e a tonalidade apresentaram-se como as principais dificuldades. As questões expressivas foram deixadas em segundo plano, considerando a quantidade de decisões a serem tomadas no tempo de um minuto dado a leitura silenciosa. Assim, nem sempre a execução mais correta em termos de acertos de notas e tempo foi a de resultado mais expressivo. Evidenciou-se na pesquisa que nem sempre o tempo de estudo reflete no melhor resultado quando se trata da tarefa de leitura à primeira vista. Os sujeitos de melhores desempenhos na tarefa de leitura à primeira vista responderam em questionário que praticam música de câmara e/ou canto coral, mostrando que essas práticas podem influenciar positivamente o desenvolvimento da habilidade de leitura à primeira vista. Com relação ao teste de habilidade motora, os sujeitos com os melhores desempenhos na execução do teste de leitura à primeira vista (considerando fluência de tempo, evitando correções de notas e ritmos) ultrapassaram os sujeitos de menor desempenho em marcas metronômicas. / Sight-reading a piece on the guitar is often considered a difficult task. One reason for this may be the fact that the same note on the guitar may be played in different ways, thus generating various fingering possibilities for the same passage. The present study investigated the procedures adopted by 11 undergraduate guitar students in a sight-reading exercise. The subjects were filmed and interviewed and their background was taken from a written questionnaire. Distinct fingering possibilities for the same passage, knowledge of expressive possibilites of the guitar and mechanical dexterity were considered as influential variables in this study. Fingering and tonality proved to be the main difficulties. Expressive aspects were not considered the most important, considering the number of decisions to be made in the one minute allotted for silent reading before the sight-reading began. Thus, the best performances in terms of correct notes and tempo were not necessarily the most expressive. The best outcomes came from students who engage in choral or chamber music activities, therefore, these may have a positive influence on sight-reading. The mechanical ability exercise applied showed that the subjects that did better on the sight-reading passsage (considering tempo, correct notes and rhythm) surpassed those that had lower metronomical markings.
14

Composição de biometria para sistemas multimodais de verificação de identidade pessoal

Darmiton da Cunha Cavalcanti, George January 2005 (has links)
Made available in DSpace on 2014-06-12T15:54:36Z (GMT). No. of bitstreams: 2 arquivo7173_1.pdf: 2200485 bytes, checksum: d918d7c9e29d6fef51e4898be0e5a5a4 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Essa tese apresenta contribuições para o problema de verificação de identidade pessoal através de uma arquitetura que combina as biometrias da face, da assinatura e da dinâmica da digitação. As duas primeiras biometrias foram escolhidas por estarem integradas à vida de grande parte da sociedade e os dispositivos utilizados para capturar os padrões são comuns e de baixo custo. A terceira biometria, dinâmica da digitação, além de ser barata, é uma tecnologia transparente ao usuário. A motivação principal dessa tese é analisar estratégias de combinação de padrões para melhorar o desempenho de sistemas de identificação pessoal. Para tanto, foram identificados e investigados os seguintes pontos: (i) Verificação de assinaturas de tamanhos diferentes usando sete grupos de características: pseudo-dinâmicas, estruturais e invariantes (momentos de Hu, Maitra, Flusser, Simon e Central); (ii) Classi- ficação de faces usando Eigenbands Fusion; (iii) Verificação de autenticidade através da análise da dinâmica da digitação utilizando os tempos de pressionamento e de latência; (iv) Modelagem de uma arquitetura para combinar as três biometrias, além da realização de experimentos, visando à avaliação do desempenho; (v) Investigação do limiar de separação entre regiões que definem usuários autênticos e impostores, por classe, através da distribuição t-Student. Os resultados alcançados com o sistema combinado foram comparados com cada uma das modalidades biométricas separadamente, e mostraram que o sistema integrado conseguiu melhores taxas de acerto
15

Mapeando traços da personalidade através do ritmo de digitação

Goulart, Felipe Valadão 15 August 2016 (has links)
Personality can be defined as a set of psychological features that may determine the way to think, act and feel, as a factor that may directly influence an individual's interests. Since the creation of the first software's description, computer systems are created with a goal of generate results based on the user's input data, not taking into account who is the user or which are their interests. Developing a non-intrusive approach to collecting keystroke dynamics data from the users, and the use of an auto evaluation questionnaire of personality, this paper was written focused in identify approaches that can prove the correlation between these information, while building a knowledge base to develop a framework based on neural networks to extract personality traits from keystroke dynamics data. / A personalidade pode ser definida como um conjunto de características psicológicas capazes de determinar o padrão de pensar, agir e sentir, sendo este um fator capaz de influenciar diretamente os interesses de um indivíduo. Desde a concepção da primeira descrição de software, sistemas computacionais são criados com o objetivo de gerar resultados baseados nos dados de entrada dos usuários, sem se preocupar com quem ele é ou quais são seus interesses. Através do desenvolvimento de um método não intrusivo para coleta de dados do ritmo de digitação dos usuários, e a aplicação de um questionário de autoavaliação de personalidade, este trabalho tem como objetivo identificar abordagens capazes de comprovar a existência da correlação entre tais informações, visando a construção de um conhecimento base para a criação de um framework baseado em redes neurais para a extração de traços da personalidade a partir dos dados do ritmo de digitação.
16

Pré-processamento dos intervalos de tempos observados na dinâmica de digitação (KeyStroke) de senhas curtas

Bezerra Júnior, Murilo Alves 27 September 2013 (has links)
In 2006, a method was proposed concerning the use of time interval equalization to improve performances of some biometric methods based on typing dynamics (or keystroke). In the paper where that method was first proposed, relatively small databases were used for showing, in terms of error rates, the effect of time equalization applied as a preprocessing step before the use of classical methods. In 2009, a much larger large database for keystroke research was made publicly available, through the Internet. This database is based on a single hypothetical password, typed by 51 volunteers through 8 sessions (50 samples per session). In this dissertation, the preprocessing method is adapted to this large public database of short typing patterns. Thus, by using the same biometric detectors already used by the owners of the database, we obtain new experimental results which clearly show an outstanding performance gain when the equalization interval (preprocessing) is applied. It is also studied the performance gain as a function of the password length (in number of symbols), and the stability of typing pattern against changes in the order of typed symbol pairs. Finally, the last study was carried to a new database we acquired with both direct and inverted sequence of symbols, allows for the analysis of keyboard layout changes on biometric performances. / Em 2006, um método foi proposto sobre o uso da equalização de intervalos de tempos, como forma de melhorar o desempenho de alguns métodos biométricos baseados em dinâmica de digitação (keystroke). Naquele artigo, pequenas bases de dados, com textos estáticos e livres, foram usadas para mostrar, em termos de taxas de erros, os ganhos quando a equalização era aplicada antes do uso de métodos clássicos. Em 2009, lançou-se uma base pública grande, correspondente a uma única senha hipotética curta, digitada por 51 voluntários, usada pelos autores do trabalho e, posteriormente, disponibilizada, publicamente, para novos experimentos. Nesta dissertação utilizou-se essa grande base pública, para a qual adapta-se a equalização de intervalos. Utilizando os mesmos métodos usados pelos proprietários da base experimental, obtém-se resultados que mostram, claramente, um notável ganho de desempenho para todos os métodos testados quando a equalização de intervalos é usada no pré-processamento dos dados. É observado também o desempenho no tocante ao tamanho da senha, e analisa-se a estabilização do padrão de digitação. Por fim, foi realizada a montagem de uma nova base, a partir da qual foi possível verificar e analisar o efeito produzido no ritmo de digitação do usuário devido à troca de caracteres da senha, bem como a influência do seu modo de digitação.
17

A noisy-channel based model to recognize words in eye typing systems / Um modelo baseado em canal de ruído para reconhecer palavras digitadas com os olhos

Hanada, Raíza Tamae Sarkis 04 April 2018 (has links)
An important issue with eye-based typing iis the correct identification of both whrn the userselects a key and which key is selected. Traditional solutions are based on predefined gaze fixation time, known as dwell-time methods. In an attempt to improve accuracy long dwell times are adopted, which un turn lead to fatigue and longer response limes. These problems motivate the proposal of methods free of dwell-time, or with very short ones, which rely on more robust recognition techniques to reduce the uncertainty about user\'s actions. These techniques are specially important when the users have disabilities which affect their eye movements or use inexpensive eye trackers. An approach to deal with the recognition problem is to treat it as a spelling correction task. An usual strategy for spelling correction is to model the problem as the transmission of a word through a noisy-channel, such that it is necessary to determine which known word of a lexicon is the received string. A feasible application of this method requires the reduction of the set of candidate words by choosing only the ones that can be transformed into the imput by applying up to k character edit operations. This idea works well on traditional typing because the number of errors per word is very small. However, this is not the case for eye-based typing systems, which are much noiser. In such a scenario, spelling correction strategies do not scale well as they grow exponentially with k and the lexicon size. Moreover, the error distribution in eye typing is different, with much more insertion errors due to specific sources, of noise such as the eye tracker device, particular user behaviors, and intrinsic chracteeristics of eye movements. Also, the lack of a large corpus of errors makes it hard to adopt probabilistic approaches based on information extracted from real world data. To address all these problems, we propose an effective recognition approach by combining estimates extracted from general error corpora with domain-specific knowledge about eye-based input. The technique is ablçe to calculate edit disyances effectively by using a Mor-Fraenkel index, searchable using a minimun prfect hashing. The method allows the early processing of most promising candidates, such that fast pruned searches present negligible loss in word ranking quality. We also propose a linear heuristic for estimating edit-based distances which take advantage of information already provided by the index. Finally, we extend our recognition model to include the variability of the eye movements as source of errors, provide a comprehensive study about the importance of the noise model when combined with a language model and determine how it affects the user behaviour while she is typing. As result, we obtain a method very effective on the task of recognizing words and fast enough to be use in real eye typing systems. In a transcription experiment with 8 users, they archived 17.46 words per minute using proposed model, a gain of 11.3% over a state-of-the-art eye-typing system. The method was particularly userful in more noisier situations, such as the first use sessions. Despite significant gains in typing speed and word recognition ability, we were not able to find statistically significant differences on the participants\' perception about their expeience with both methods. This indicates that an improved suggestion ranking may not be clearly perceptible by the users even when it enhances their performance. / Um problema importante em sistemas de digitação com os olhos é a correta identificação tanto de quando uma letra é selecionada como de qual letra foi selecionada pelo usuário. As soluções tradicionais para este problema são baseadas na verificação de quanto tempo o olho permanece retido em um alvo. Se ele fica por um certo limite de tempo, a seleção é reconhecida. Métodos em que usam esta ideia são conhecidos como baseados em tempo de retenção (dwell time). É comum que tais métodos, com intuito de melhorar a precisão, adotem tempos de retenção alto. Isso, por outro lado, leva à fadiga e tempos de resposta altos. Estes problemas motivaram a proposta de métodos não baseados em tempos de retenção reduzidos, que dependem de técnicas mais robustas de reconhecimento para inferir as ações dos usuários. Tais estratégias são particularmente mais importantes quando o usuário tem desabilidades que afetam o movimento dos olhos ou usam dispositivos de rastreamento ocular (eye-trackers) muito baratos e, portanto, imprecisos. Uma forma de lidar com o problema de reconhecimento das ações dos usuários é tratá-lo como correção ortográfica. Métodos comuns para correção ortográfica consistem em modelá-lo como a transmissão de uma palavra através de um canal de ruído, tal que é necessário determinar que palavra de um dicionário corresponde à string recebida. Para que a aplicação deste método seja viável, o conjunto de palavras candidatas é reduzido somente àquelas que podem ser transformadas na string de entrada pela aplicação de até k operações de edição de carácter. Esta ideia funciona bem em digitação tradicional porque o número de erros por palavra é pequeno. Contudo, este não é o caso de digitação com os olhos, onde há muito mais ruído. Em tal cenário, técnicas de correção de erros ortográficos não escalam pois seu custo cresce exponencialmente com k e o tamanho do dicionário. Além disso, a distribuição de erros neste cenário é diferente, com muito mais inserções incorretas devido a fontes específicas de ruído como o dispositivo de rastreamento ocular, certos comportamentos dos usuários e características intrínsecas dos movimentos dos olhos. O uso de técnicas probabilísticas baseadas na análise de logs de digitação também não é uma alternativa uma vez que não há corpora de dados grande o suficiente para tanto. Para lidar com todos estes problemas, propomos um método efetivo de reconhecimento que combina estimativas de corpus de erros gerais com conhecimento específico sobre fontes de erro encontradas em sistemas de digitação com os olhos. Nossa técnica é capaz de calcular distâncias de edição eficazmente usando um índice de Mor-Fraenkel em que buscas são feitas com auxílio de um hashing perfeito mínimo. O método possibilita o processamento ordenado de candidatos promissores, de forma que as operações de busca podem ser podadas sem que apresentem perda significativa na qualidade do ranking. Nós também propomos uma heurística linear para estimar distância de edição que tira proveito das informações já mantidas no índice, estendemos nosso modelo de reconhecimento para incluir erros vinculados à variabilidade decorrente dos movimentos oculares e fornecemos um estudo detalhado sobre a importância relativa dos modelos de ruído e de linguagem. Por fim, determinamos os efeitos do modelo no comportamento do usuário enquanto ele digita. Como resultado, obtivemos um método de reconhecimento muito eficaz e rápido o suficiente para ser usado em um sistema real. Em uma tarefa de transcrição com 8 usuários, eles alcançaram velocidade de 17.46 palavras por minuto usando o nosso modelo, o que corresponde a um ganho de 11,3% sobre um método do estado da arte. Nosso método se mostrou mais particularmente útil em situação onde há mais ruído, tal como a primeira sessão de uso. Apesar dos ganhos claros de velocidade de digitação, não encontramos diferenças estatisticamente significativas na percepção dos usuários sobre sua experiência com os dois métodos. Isto indica que uma melhoria no ranking de sugestões pode não ser claramente perceptível pelos usuários mesmo quanto ela afeta positivamente os seus desempenhos.
18

Biometrics in a data stream context / Biometria em um contexto de fluxo de dados

Pisani, Paulo Henrique 10 March 2017 (has links)
The growing presence of the Internet in day-to-day tasks, along with the evolution of computational systems, contributed to increase data exposure. This scenario highlights the need for safer user authentication systems. An alternative to deal with this is by the use of biometric systems. However, biometric features may change over time, an issue that can affect the recognition performance due to an outdated biometric reference. This effect can be called as template ageing in the area of biometrics and as concept drift in machine learning. It raises the need to automatically adapt the biometric reference over time, a task performed by adaptive biometric systems. This thesis studied adaptive biometric systems considering biometrics in a data stream context. In this context, the test is performed on a biometric data stream, in which the query samples are presented one after another to the biometric system. An adaptive biometric system then has to classify each query and adapt the biometric reference. The decision to perform the adaptation is taken by the biometric system. Among the biometric modalities, this thesis focused on behavioural biometrics, particularly on keystroke dynamics and on accelerometer biometrics. Behavioural modalities tend to be subject to faster changes over time than physical modalities. Nevertheless, there were few studies dealing with adaptive biometric systems for behavioural modalities, highlighting a gap to be explored. Throughout the thesis, several aspects to enhance the design of adaptive biometric systems for behavioural modalities in a data stream context were discussed: proposal of adaptation strategies for the immune-based classification algorithm Self-Detector, combination of genuine and impostor models in the Enhanced Template Update framework and application of score normalization to adaptive biometric systems. Based on the investigation of these aspects, it was observed that the best choice for each studied aspect of the adaptive biometric systems can be different depending on the dataset and, furthermore, depending on the users in the dataset. The different user characteristics, including the way that the biometric features change over time, suggests that adaptation strategies should be chosen per user. This motivated the proposal of a modular adaptive biometric system, named ModBioS, which can choose each of these aspects per user. ModBioS is capable of generalizing several baselines and proposals into a single modular framework, along with the possibility of assigning different adaptation strategies per user. Experimental results showed that the modular adaptive biometric system can outperform several baseline systems, while opening a number of new opportunities for future work. / A crescente presença da Internet nas tarefas do dia a dia, juntamente com a evolução dos sistemas computacionais, contribuiu para aumentar a exposição dos dados. Esse cenário evidencia a necessidade de sistemas de autenticação de usuários mais seguros. Uma alternativa para lidar com isso é pelo uso de sistemas biométricos. Contudo, características biométricas podem mudar com o tempo, o que pode afetar o desempenho de reconhecimento devido a uma referência biométrica desatualizada. Esse efeito pode ser chamado de template ageing na área de sistemas biométricos adaptativos ou de mudança de conceito em aprendizado de máquina. Isso levanta a necessidade de adaptar automaticamente a referência biométrica com o tempo, uma tarefa executada por sistemas biométricos adaptativos. Esta tese estudou sistemas biométricos adaptativos considerando biometria em um contexto de fluxo de dados. Neste contexto, o teste é executado em um fluxo de dados biométrico, em que as amostras de consulta são apresentadas uma após a outra para o sistema biométrico. Um sistema biométrico adaptativo deve então classificar cada consulta e adaptar a referência biométrica. A decisão de executar a adaptação é tomada pelo sistema biométrico. Dentre as modalidades biométricas, esta tese foca em biometria comportamental, em particular em dinâmica da digitação e em biometria por acelerômetro. Modalidades comportamentais tendem a ser sujeitas a mudanças mais rápidas do que modalidades físicas. Entretanto, havia poucos estudos lidando com sistemas biométricos adaptativos para modalidades comportamentais, destacando uma lacuna para ser explorada. Ao longo da tese, diversos aspectos para aprimorar o projeto de sistemas biométricos adaptativos para modalidades comportamentais em um contexto de fluxo de dados foram discutidos: proposta de estratégias de adaptação para o algoritmo de classificação imunológico Self-Detector, combinação de modelos genuíno e impostor no framework do Enhanced Template Update e aplicação de normalização de scores em sistemas biométricos adaptativos. Com base na investigação desses aspectos, foi observado que a melhor escolha para cada aspecto estudado dos sistemas biométricos adaptativos pode ser diferente dependendo do conjunto de dados e, além disso, dependendo dos usuários no conjunto de dados. As diferentes características dos usuários, incluindo a forma como as características biométricas mudam com o tempo, sugerem que as estratégias de adaptação deveriam ser escolhidas por usuário. Isso motivou a proposta de um sistema biométrico adaptativo modular, chamado ModBioS, que pode escolher cada um desses aspectos por usuário. O ModBioS é capaz de generalizar diversos sistemas baseline e propostas apresentadas nesta tese em um framework modular, juntamente com a possibilidade de atribuir estratégias de adaptação diferentes por usuário. Resultados experimentais mostraram que o sistema biométrico adaptativo modular pode superar diversos sistemas baseline, enquanto que abre um grande número de oportunidades para trabalhos futuros.
19

A noisy-channel based model to recognize words in eye typing systems / Um modelo baseado em canal de ruído para reconhecer palavras digitadas com os olhos

Raíza Tamae Sarkis Hanada 04 April 2018 (has links)
An important issue with eye-based typing iis the correct identification of both whrn the userselects a key and which key is selected. Traditional solutions are based on predefined gaze fixation time, known as dwell-time methods. In an attempt to improve accuracy long dwell times are adopted, which un turn lead to fatigue and longer response limes. These problems motivate the proposal of methods free of dwell-time, or with very short ones, which rely on more robust recognition techniques to reduce the uncertainty about user\'s actions. These techniques are specially important when the users have disabilities which affect their eye movements or use inexpensive eye trackers. An approach to deal with the recognition problem is to treat it as a spelling correction task. An usual strategy for spelling correction is to model the problem as the transmission of a word through a noisy-channel, such that it is necessary to determine which known word of a lexicon is the received string. A feasible application of this method requires the reduction of the set of candidate words by choosing only the ones that can be transformed into the imput by applying up to k character edit operations. This idea works well on traditional typing because the number of errors per word is very small. However, this is not the case for eye-based typing systems, which are much noiser. In such a scenario, spelling correction strategies do not scale well as they grow exponentially with k and the lexicon size. Moreover, the error distribution in eye typing is different, with much more insertion errors due to specific sources, of noise such as the eye tracker device, particular user behaviors, and intrinsic chracteeristics of eye movements. Also, the lack of a large corpus of errors makes it hard to adopt probabilistic approaches based on information extracted from real world data. To address all these problems, we propose an effective recognition approach by combining estimates extracted from general error corpora with domain-specific knowledge about eye-based input. The technique is ablçe to calculate edit disyances effectively by using a Mor-Fraenkel index, searchable using a minimun prfect hashing. The method allows the early processing of most promising candidates, such that fast pruned searches present negligible loss in word ranking quality. We also propose a linear heuristic for estimating edit-based distances which take advantage of information already provided by the index. Finally, we extend our recognition model to include the variability of the eye movements as source of errors, provide a comprehensive study about the importance of the noise model when combined with a language model and determine how it affects the user behaviour while she is typing. As result, we obtain a method very effective on the task of recognizing words and fast enough to be use in real eye typing systems. In a transcription experiment with 8 users, they archived 17.46 words per minute using proposed model, a gain of 11.3% over a state-of-the-art eye-typing system. The method was particularly userful in more noisier situations, such as the first use sessions. Despite significant gains in typing speed and word recognition ability, we were not able to find statistically significant differences on the participants\' perception about their expeience with both methods. This indicates that an improved suggestion ranking may not be clearly perceptible by the users even when it enhances their performance. / Um problema importante em sistemas de digitação com os olhos é a correta identificação tanto de quando uma letra é selecionada como de qual letra foi selecionada pelo usuário. As soluções tradicionais para este problema são baseadas na verificação de quanto tempo o olho permanece retido em um alvo. Se ele fica por um certo limite de tempo, a seleção é reconhecida. Métodos em que usam esta ideia são conhecidos como baseados em tempo de retenção (dwell time). É comum que tais métodos, com intuito de melhorar a precisão, adotem tempos de retenção alto. Isso, por outro lado, leva à fadiga e tempos de resposta altos. Estes problemas motivaram a proposta de métodos não baseados em tempos de retenção reduzidos, que dependem de técnicas mais robustas de reconhecimento para inferir as ações dos usuários. Tais estratégias são particularmente mais importantes quando o usuário tem desabilidades que afetam o movimento dos olhos ou usam dispositivos de rastreamento ocular (eye-trackers) muito baratos e, portanto, imprecisos. Uma forma de lidar com o problema de reconhecimento das ações dos usuários é tratá-lo como correção ortográfica. Métodos comuns para correção ortográfica consistem em modelá-lo como a transmissão de uma palavra através de um canal de ruído, tal que é necessário determinar que palavra de um dicionário corresponde à string recebida. Para que a aplicação deste método seja viável, o conjunto de palavras candidatas é reduzido somente àquelas que podem ser transformadas na string de entrada pela aplicação de até k operações de edição de carácter. Esta ideia funciona bem em digitação tradicional porque o número de erros por palavra é pequeno. Contudo, este não é o caso de digitação com os olhos, onde há muito mais ruído. Em tal cenário, técnicas de correção de erros ortográficos não escalam pois seu custo cresce exponencialmente com k e o tamanho do dicionário. Além disso, a distribuição de erros neste cenário é diferente, com muito mais inserções incorretas devido a fontes específicas de ruído como o dispositivo de rastreamento ocular, certos comportamentos dos usuários e características intrínsecas dos movimentos dos olhos. O uso de técnicas probabilísticas baseadas na análise de logs de digitação também não é uma alternativa uma vez que não há corpora de dados grande o suficiente para tanto. Para lidar com todos estes problemas, propomos um método efetivo de reconhecimento que combina estimativas de corpus de erros gerais com conhecimento específico sobre fontes de erro encontradas em sistemas de digitação com os olhos. Nossa técnica é capaz de calcular distâncias de edição eficazmente usando um índice de Mor-Fraenkel em que buscas são feitas com auxílio de um hashing perfeito mínimo. O método possibilita o processamento ordenado de candidatos promissores, de forma que as operações de busca podem ser podadas sem que apresentem perda significativa na qualidade do ranking. Nós também propomos uma heurística linear para estimar distância de edição que tira proveito das informações já mantidas no índice, estendemos nosso modelo de reconhecimento para incluir erros vinculados à variabilidade decorrente dos movimentos oculares e fornecemos um estudo detalhado sobre a importância relativa dos modelos de ruído e de linguagem. Por fim, determinamos os efeitos do modelo no comportamento do usuário enquanto ele digita. Como resultado, obtivemos um método de reconhecimento muito eficaz e rápido o suficiente para ser usado em um sistema real. Em uma tarefa de transcrição com 8 usuários, eles alcançaram velocidade de 17.46 palavras por minuto usando o nosso modelo, o que corresponde a um ganho de 11,3% sobre um método do estado da arte. Nosso método se mostrou mais particularmente útil em situação onde há mais ruído, tal como a primeira sessão de uso. Apesar dos ganhos claros de velocidade de digitação, não encontramos diferenças estatisticamente significativas na percepção dos usuários sobre sua experiência com os dois métodos. Isto indica que uma melhoria no ranking de sugestões pode não ser claramente perceptível pelos usuários mesmo quanto ela afeta positivamente os seus desempenhos.
20

Biometrics in a data stream context / Biometria em um contexto de fluxo de dados

Paulo Henrique Pisani 10 March 2017 (has links)
The growing presence of the Internet in day-to-day tasks, along with the evolution of computational systems, contributed to increase data exposure. This scenario highlights the need for safer user authentication systems. An alternative to deal with this is by the use of biometric systems. However, biometric features may change over time, an issue that can affect the recognition performance due to an outdated biometric reference. This effect can be called as template ageing in the area of biometrics and as concept drift in machine learning. It raises the need to automatically adapt the biometric reference over time, a task performed by adaptive biometric systems. This thesis studied adaptive biometric systems considering biometrics in a data stream context. In this context, the test is performed on a biometric data stream, in which the query samples are presented one after another to the biometric system. An adaptive biometric system then has to classify each query and adapt the biometric reference. The decision to perform the adaptation is taken by the biometric system. Among the biometric modalities, this thesis focused on behavioural biometrics, particularly on keystroke dynamics and on accelerometer biometrics. Behavioural modalities tend to be subject to faster changes over time than physical modalities. Nevertheless, there were few studies dealing with adaptive biometric systems for behavioural modalities, highlighting a gap to be explored. Throughout the thesis, several aspects to enhance the design of adaptive biometric systems for behavioural modalities in a data stream context were discussed: proposal of adaptation strategies for the immune-based classification algorithm Self-Detector, combination of genuine and impostor models in the Enhanced Template Update framework and application of score normalization to adaptive biometric systems. Based on the investigation of these aspects, it was observed that the best choice for each studied aspect of the adaptive biometric systems can be different depending on the dataset and, furthermore, depending on the users in the dataset. The different user characteristics, including the way that the biometric features change over time, suggests that adaptation strategies should be chosen per user. This motivated the proposal of a modular adaptive biometric system, named ModBioS, which can choose each of these aspects per user. ModBioS is capable of generalizing several baselines and proposals into a single modular framework, along with the possibility of assigning different adaptation strategies per user. Experimental results showed that the modular adaptive biometric system can outperform several baseline systems, while opening a number of new opportunities for future work. / A crescente presença da Internet nas tarefas do dia a dia, juntamente com a evolução dos sistemas computacionais, contribuiu para aumentar a exposição dos dados. Esse cenário evidencia a necessidade de sistemas de autenticação de usuários mais seguros. Uma alternativa para lidar com isso é pelo uso de sistemas biométricos. Contudo, características biométricas podem mudar com o tempo, o que pode afetar o desempenho de reconhecimento devido a uma referência biométrica desatualizada. Esse efeito pode ser chamado de template ageing na área de sistemas biométricos adaptativos ou de mudança de conceito em aprendizado de máquina. Isso levanta a necessidade de adaptar automaticamente a referência biométrica com o tempo, uma tarefa executada por sistemas biométricos adaptativos. Esta tese estudou sistemas biométricos adaptativos considerando biometria em um contexto de fluxo de dados. Neste contexto, o teste é executado em um fluxo de dados biométrico, em que as amostras de consulta são apresentadas uma após a outra para o sistema biométrico. Um sistema biométrico adaptativo deve então classificar cada consulta e adaptar a referência biométrica. A decisão de executar a adaptação é tomada pelo sistema biométrico. Dentre as modalidades biométricas, esta tese foca em biometria comportamental, em particular em dinâmica da digitação e em biometria por acelerômetro. Modalidades comportamentais tendem a ser sujeitas a mudanças mais rápidas do que modalidades físicas. Entretanto, havia poucos estudos lidando com sistemas biométricos adaptativos para modalidades comportamentais, destacando uma lacuna para ser explorada. Ao longo da tese, diversos aspectos para aprimorar o projeto de sistemas biométricos adaptativos para modalidades comportamentais em um contexto de fluxo de dados foram discutidos: proposta de estratégias de adaptação para o algoritmo de classificação imunológico Self-Detector, combinação de modelos genuíno e impostor no framework do Enhanced Template Update e aplicação de normalização de scores em sistemas biométricos adaptativos. Com base na investigação desses aspectos, foi observado que a melhor escolha para cada aspecto estudado dos sistemas biométricos adaptativos pode ser diferente dependendo do conjunto de dados e, além disso, dependendo dos usuários no conjunto de dados. As diferentes características dos usuários, incluindo a forma como as características biométricas mudam com o tempo, sugerem que as estratégias de adaptação deveriam ser escolhidas por usuário. Isso motivou a proposta de um sistema biométrico adaptativo modular, chamado ModBioS, que pode escolher cada um desses aspectos por usuário. O ModBioS é capaz de generalizar diversos sistemas baseline e propostas apresentadas nesta tese em um framework modular, juntamente com a possibilidade de atribuir estratégias de adaptação diferentes por usuário. Resultados experimentais mostraram que o sistema biométrico adaptativo modular pode superar diversos sistemas baseline, enquanto que abre um grande número de oportunidades para trabalhos futuros.

Page generated in 0.0389 seconds