• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 9
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 33
  • 18
  • 13
  • 10
  • 9
  • 8
  • 7
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

O uso de atributos estilométricos na identificação da autoria de textos / Paulo júnior Varela ; orientador, Edson José Rodrigues Justino ; co-orientador, Luiz E. Soares de Oliveira

Varela, Paulo Júnior January 2010 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2010 / Bibliografia: f.[99], 84 / A utilização do meio computacional para a resolução de casos de identificação de autoria tem crescido progressivamente em áreas como a computação, a linguística e o direito. Nos últimos anos pesquisadores tem se empenhado em estabelecer uma metodologia ca / The computational solution uses to solve problems related to the authorship identification and verification has grown progressively in areas such as computing, linguistics and law. In recent years researchers have been attempting to establish a methodolog
12

Coeficiente de cultura e demanda hídrica da cana-de-acúcar na microrregião de Teresina, Piauí / Crop coefficient and water demand of sugarcane at the Teresina Region, Piauí State, Brasil

Nolêto, Dônavan Holanda January 2015 (has links)
NOLÊTO, Dônavan Holanda. Coeficiente de cultura e demanda hídrica da cana-de-acúcar na microrregião de Teresina, Piauí. 2015. 90 f. dissertação (Mestrado em Engenharia Agrícola)-Universidade Federal do Ceará, Fortaleza, 2015. / Submitted by Vitor Campos (vitband@gmail.com) on 2016-10-13T23:09:37Z No. of bitstreams: 1 2015_dis_dhnoleto.pdf: 9717452 bytes, checksum: 1612217d3e813a52f8eaf65b3a06d5ed (MD5) / Approved for entry into archive by Jairo Viana (jairo@ufc.br) on 2016-10-13T23:16:17Z (GMT) No. of bitstreams: 1 2015_dis_dhnoleto.pdf: 9717452 bytes, checksum: 1612217d3e813a52f8eaf65b3a06d5ed (MD5) / Made available in DSpace on 2016-10-13T23:16:17Z (GMT). No. of bitstreams: 1 2015_dis_dhnoleto.pdf: 9717452 bytes, checksum: 1612217d3e813a52f8eaf65b3a06d5ed (MD5) Previous issue date: 2015 / Sugarcane crop has great socio-economic importance worldwide. Brazil has the largest acreage and production volume in the world, with promising Northeast region because it has areas for expansion of the crop and stilling have a great energy potential. However, the cropping under natural water conditions limit production, making essential the use of supplemental irrigation during periods of drought. For thus its necessary studies to determine the water demand at various stages of crop development. The objective of this study was to determine the crop coefficient and water demand of sugarcane, through the energy balance method, based on the Bowen ratio, at the Teresina region, Piauí State, Brazil. The experiment was conducted at COMVAP - Sugar and Alcohol Ltda. The cultivar used was RB867515, irrigated by center pivot. The biometric analyzes were length and stem diameter, number of green leaves, leaf area and matter fresh and dry of stem, leaves and sheaths. To estimate crop evapotranspiration (ETc) was used an equipped tower with microelectronic sensors installed near the center of the growing area (10 ha plot). The reference evapotranspiration (ETo) was estimated by the Penman-Monteith method / FAO-56, based on data from a weather station located near the experiment. Soil moisture was monitored by an automated system (Time Domain Reflectometry) TDR at depths from 0 to 0.30 0.30 to 0.60 m, at four points surrounding the tower. The number of green leaves per plant ranged from six to nine, reducing to seven leaves in the end of the cycle. The stems reached approximately 3.3 m long and 2.02 kg of weight, presenting linear gains in length and mass, while its diameter remained stable (25-27 mm). The plant leaf area showed quadratic behavior, with maximum peak of 4,197 cm2 to 254 days after cutting. The balance of average daily solar radiation was 13.7, 13.2 and 16.1 MJ m-2, corresponding to 79%, 80% and 85% of the total radiation, while the coefficient clarity showed values of 0.46, 0.48 and 0.52 and the albedo of 0.15, 0.16 and 0.14, in phenological development phases II, III and IV, respectively. The physical consistency of the ETC analysis data showed that 33% of 406 days monitored were agreement. The ETc daily average was 5.3 mm, with a demand of 2,650 mm for the 498 days of the cycle. The crop coefficient (Kc) average per phase was 0.9 (fast growth), 1.32 (maximum development) and 1.07 (maturation). / A cana-de-açúcar possui grande importância socioeconômica em âmbito mundial. O Brasil detém a maior área cultivada e volume de produção no mundo, sendo a região Nordeste promissora para o setor por possuir áreas para expansão da cultura e ainda ter um ótimo potencial energético. Porém, as condições hídricas naturais limitam a produção, tornando essencial o uso de irrigação complementar nos períodos de déficit hídrico. Para a adequada suplementação hídrica da cultura necessita-se determinar a demanda hídrica nos diferentes estádios de desenvolvimento da cultura. Assim, o objetivo deste estudo foi determinar o coeficiente de cultura e a demanda hídrica da cana-de-açúcar, por meio do método de balanço de energia, com base na razão de Bowen, na microrregião de Teresina, Piauí. O experimento foi conduzido na Usina COMVAP – Açúcar e Álcool Ltda., município de União, microrregião de Teresina, Piauí. A cultivar utilizada foi a RB867515, irrigada por pivô central. As análises biométricas realizadas foram: comprimento e diâmetro do colmo, número de folhas verdes, comprimento e largura da folha +3, área foliar e matéria fresca e seca do colmo, bainhas e folhas. Para a estimativa de evapotranspiração da cultura (ETc) usou-se uma torre equipada com sensores automáticos, instalada próxima ao centro da área de cultivo (talhão de 10 ha). A evapotranspiração de referência (ETo) foi estimada pelo método Penman-Monteith/FAO-56, a partir de dados de uma estação agrometeorológica localizada próximo ao experimento. A umidade do solo foi monitorada por um sistema automatizado com base em Reflectometria no Domínio do Tempo (TDR), nas profundidades de 0 a 0,30 m e 0,30 a 0,60 m, em quatro pontos no entorno da torre. O número de folhas verdes por planta variou de seis a nove, reduzindo a sete folhas ao final do ciclo. O colmo alcançou aproximadamente 3,3 m de comprimento e 2,02 kg de massa fresca, apresentando ganhos lineares de comprimento e massa, enquanto o seu diâmetro permaneceu praticamente estável (25 a 27 mm). A área foliar da planta demonstrou comportamento quadrático, com pico máximo de 4.197 cm2, aos 254 dias após o corte. O saldo de radiação solar médio diário foi de 13,7 MJ m-2, 13,2 MJ m-2 e 16,1 MJ m-2, correspondendo a 79%, 80% e 85% da radiação global, enquanto o coeficiente de claridade apresentou valores de 0,46, 0,48 e 0,52 e o albedo de 0,15, 0,16 e 0,14, nas fases II, III e IV de desenvolvimento fenológico da cultura, respectivamente. A análise de consistência física dos dados de ETc mostrou que 33% dos 406 dias monitorados foram consistentes. A ETc média diária foi de 5,3 mm, totalizando uma demanda de 2.650 mm para os 498 dias do ciclo. O coeficiente de cultura (Kc) médio por fase foi de 0,9 (crescimento rápido), 1,32 (máximo desenvolvimento) e 1,07 (maturação).
13

Biotecnologia aplicada à segurança pública: estudo e adequação do método da ninidrina para revelação de impressões digitais em superfícies porosas

Alves, Manoel Geralcino 18 April 2013 (has links)
Made available in DSpace on 2016-08-17T18:39:51Z (GMT). No. of bitstreams: 1 6355.pdf: 5566479 bytes, checksum: 47cf8f5e1885ed35f394023378a1285d (MD5) Previous issue date: 2013-04-18 / Several works have been done worldwide and are dedicated to the advancement of software that enables the comparison and reading of fingerprints. Literature shows several works related to the development of scientific techniques that allow the improvement in the collection and disclosure of fingerprints left at crime scenes. Some of those techniques are based on the use of high-tech materials and devices, such as gold nanoparticles and thin films made of copper and gold. However, the cost of these techniques is very high for everyday use, especially when considering the financial budgets for police apparatus in developing countries. Attempting to improve economically such viable and efficient techniques in order to permit the disclosure of latent fingerprints left at crime scenes, this work aims the studying and development of the ninhydrin colorimetric method, by performing numerous tests on fingerprints deposited on porous surfaces, such as paper and walls. Once confirmed the viability of ninhydrin employment, both in laboratory and on-site, and also having adjusted the optimum temperature for rapid revelation; this study provides the use of image-processing software, enabling the expert to compare, in real time, even at the site of criminal traces, the fingerprint image found with the official registry database, thus, obtaining the identity of the offender within a short period of time. / Diversos trabalhos de pesquisa em todo o mundo se dedicam ao desenvolvimento de softwares que viabilizem a comparação e leitura de impressões digitais e alguns estudam o desenvolvimento de técnicas científicas que permitam a melhoria na coleta e revelação de impressões digitais deixadas em locais de crimes. Parte das técnicas vistas em estudos atuais é baseada no uso de alta tecnologia, como é o caso das nano partículas de ouro ou mesmo de filmes finos de cobre e ouro, todavia apresentam custo exorbitante para o uso diário, sobretudo se considerados os orçamentos financeiros dos aparatos policiais de países em desenvolvimento. Buscando técnica economicamente viável e eficiente, para permitir a revelação de impressões digitais latentes deixadas em locais de crime, o presente trabalho visa ao estudo e pesquisa do método colorimétrico da ninidrina, através da realização de testes sobre impressões digitais depositadas em superfícies porosas, como papel, madeira e paredes. Constatada a viabilidade do uso da ninidrina, tanto em laboratório como in loco, bem como definida a melhor temperatura para a revelação rápida, avança este estudo na utilização de software de tratamento de imagem que permite ao perito, em tempo real, ainda no sítio de vestígios criminais, comparar a imagem da impressão digital revelada com banco de dados oficiais de registro, obtendo assim, em instantes, a identidade do autor do crime.
14

Uma nova versão de um sistema de detecção e reconhecimento de face utilizando a Transformada Cosseno Discreta

Marinho, Adriano da Silva 30 July 2012 (has links)
Made available in DSpace on 2015-05-14T12:36:38Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2501696 bytes, checksum: a1f65e686060aa68aa5e43dee1e6c0b5 (MD5) Previous issue date: 2012-07-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Reliable identification systems have become key components in many applications that provide services to authenticated users. Since traditional authentication methods (such as using passwords or smartcards) can be manipulated in order to bypass the systems, biometric authentication methods have been receiving more attention in recent years. One of the biometric traits is the face. The problem of recognizing faces in video and photo still is an object of research, since there are many factors that influence the detection and recognition, such as lighting, position of the face, the background image, different facial expressions, etc. One can perform face recognition using Discrete Cosine Transform (DCT). In order to adjust a face recognition system to uncontrolled environments, two improvements for it were developed in this work: a image normalization module with respect to rotation and scale, and a change in the feature extraction module through the insertion of a non-ideal low-pass filter. The system and its modifications were tested on the following face databases: UFPB, ORL, Yale, and VSoft GTAV, developed specially for the job. Tests showed the efficiency of the image normalization module, but the system still is not adequate for every environment. / Sistemas de identificação confiáveis tornaram-se componentes chaves de várias aplicações que disponibilizam serviços para usuários autenticados. Uma vez que métodos de autenticação tradicionais (como os que utilizam senhas ou smartcards) podem ser manipulados com o objetivo de burlar os sistemas, métodos de autenticação biométrica vêm recebendo mais atenção nos últimos anos. Um dos traços biométricos é a face. O problema do reconhecimento de faces em vídeo e foto é objeto de pesquisa, uma vez que existem muitos fatores que influenciam na detecção e no reconhecimento, tais como: iluminação, posição da face, imagem ao fundo, diferentes expressões faciais, etc. É possível realizar reconhecimento facial utilizando a Transformada Cosseno Discreta (DCT). Com o intuito de adequar um Sistema de Detecção e Reconhecimento de Faces a ambientes não controlados, neste trabalho foram desenvolvidas duas melhorias para ele: um módulo normalizador de imagens em relação à rotação e à escala e uma modificação na etapa de seleção de atributos, por meio da inserção de um filtro passa-baixas não ideal. O sistema e suas modificações foram testados nos bancos de faces UFPB, ORL, Yale, GTAV e Vsoft, desenvolvido especialmente para o trabalho. Os testes mostraram a eficácia do módulo de normalização da imagem, mas ainda assim o sistema não é adequado para qualquer ambiente.
15

Máquinas de aprendizado extremo aplicadas à identificação de pessoas através de eletrocardiograma (ECG) / Extreme learning machine applied to the identification of people through electrocardiogram (ECG)

Favoretto, Saulo 04 November 2016 (has links)
Capes / Esta pesquisa estuda a utilização da rede neural Máquina de Aprendizado Extremo (ELM) para identificação de pessoas (biometria) através do eletrocardiograma (ECG). Os dados biométricos oferecem um nível elevado de segurança para a identificação de pessoas, e o ECG é uma técnica emergente e em crescente desenvolvimento. A ELM foi pouco empregada em sistemas de reconhecimento de padrões que utilizam o sinal de ECG. Desta forma, foram estudadas as técnicas de processamento de sinal: a Transformada Wavelet e a Análise dos Componentes Principais (PCA), com o objetivo de tratar e reduzir a dimensionalidade dos dados de entrada, bem como, fazer um estudo comparativo entre a ELM e a Percepetron Múltiplas Camadas (Multilayer Perceptron – MLP). Os testes foram realizados com 90 pessoas, o sinal de ECG utilizado é referente à derivação I contendo 500 amostras/s e 12-bits de resolução dentro de uma faixa nominal de ±10mV de variação, o número de registros variou de 2 a 20 para cada pessoa. O tamanho de cada ciclo completo de ECG para o processo de formação do espaço amostral foi definido de duas formas: 167 amostras contendo as ondas P+QRS e 280 amostras contendo as ondas P+QRS+T, dos quais foram utilizados os 10 ciclos que possuíam o mais elevado nível de similaridade. Com a Transformada Wavelet, o sinal de ECG foi decomposto em 3 níveis, onde para as ondas P+QRS as reduções foram de 86, 45 e 25 amostras, e para as ondas P+QRS+T foram de 142, 73 e 39 amostras. Já para o PCA o sinal foi reduzido de 10 ciclos cardíacos para apenas 1. Estes foram apresentadas a rede formando os conjuntos de treinamento e teste. Foram utilizadas as Redes Neurais Artificiais ELM e MLP para classificação do ECG. Os resultados obtidos comprovaram que a ELM pode ser utilizada para identificação de pessoas. / This research studies the use of neural network Extreme Learning Machine (ELM) to identify individuals (biometrics) by electrocardiogram (ECG). Biometric data offer a high level of security for identifying people, and ECG is an emerging technique and increasing development. ELM was little used in pattern recognition systems that use the ECG signal. In this way, the signal processing techniques were studied: Wavelet Transform and Principal Component Analysis (PCA), with the objective of treating and reducing the dimensionality of the input data, as was as, to make a comparative study between the ELM and Multilayer Perceptron (MLP). The tests were performed with 90 people, the ECG signal used is related to the lead I containing 500 samples/s and 12- bit resolution within a nominal range of ±10 mV of variation, the number of records ranged from 2 to 20 for each people. The size of each ECG cycle to complete the process of forming the sample space defined in two ways: 167 samples containing the P+QRS waves and 280 samples containing the P+QRS+T waves, of which 10 cycles were used to had the highest level of similarity. With the Wavelet Transform, the ECG signal was decomposed into 3 levels, where for the P+QRS waves the reductions were 86, 45 and 25 samples, and for the P+QRS+T waves were 142, 73 and 39 samples. For PCA, the signal for reduced from 10 cardiac cycles to only 1. These were presented to network forming the joint training and testing. The Artificial Neural Networks ELM and MLP were used for ECG classification. The results obtained proved that the ELM may be used to identify individuals.
16

Máquinas de aprendizado extremo aplicadas à identificação de pessoas através de eletrocardiograma (ECG) / Extreme learning machine applied to the identification of people through electrocardiogram (ECG)

Favoretto, Saulo 04 November 2016 (has links)
Capes / Esta pesquisa estuda a utilização da rede neural Máquina de Aprendizado Extremo (ELM) para identificação de pessoas (biometria) através do eletrocardiograma (ECG). Os dados biométricos oferecem um nível elevado de segurança para a identificação de pessoas, e o ECG é uma técnica emergente e em crescente desenvolvimento. A ELM foi pouco empregada em sistemas de reconhecimento de padrões que utilizam o sinal de ECG. Desta forma, foram estudadas as técnicas de processamento de sinal: a Transformada Wavelet e a Análise dos Componentes Principais (PCA), com o objetivo de tratar e reduzir a dimensionalidade dos dados de entrada, bem como, fazer um estudo comparativo entre a ELM e a Percepetron Múltiplas Camadas (Multilayer Perceptron – MLP). Os testes foram realizados com 90 pessoas, o sinal de ECG utilizado é referente à derivação I contendo 500 amostras/s e 12-bits de resolução dentro de uma faixa nominal de ±10mV de variação, o número de registros variou de 2 a 20 para cada pessoa. O tamanho de cada ciclo completo de ECG para o processo de formação do espaço amostral foi definido de duas formas: 167 amostras contendo as ondas P+QRS e 280 amostras contendo as ondas P+QRS+T, dos quais foram utilizados os 10 ciclos que possuíam o mais elevado nível de similaridade. Com a Transformada Wavelet, o sinal de ECG foi decomposto em 3 níveis, onde para as ondas P+QRS as reduções foram de 86, 45 e 25 amostras, e para as ondas P+QRS+T foram de 142, 73 e 39 amostras. Já para o PCA o sinal foi reduzido de 10 ciclos cardíacos para apenas 1. Estes foram apresentadas a rede formando os conjuntos de treinamento e teste. Foram utilizadas as Redes Neurais Artificiais ELM e MLP para classificação do ECG. Os resultados obtidos comprovaram que a ELM pode ser utilizada para identificação de pessoas. / This research studies the use of neural network Extreme Learning Machine (ELM) to identify individuals (biometrics) by electrocardiogram (ECG). Biometric data offer a high level of security for identifying people, and ECG is an emerging technique and increasing development. ELM was little used in pattern recognition systems that use the ECG signal. In this way, the signal processing techniques were studied: Wavelet Transform and Principal Component Analysis (PCA), with the objective of treating and reducing the dimensionality of the input data, as was as, to make a comparative study between the ELM and Multilayer Perceptron (MLP). The tests were performed with 90 people, the ECG signal used is related to the lead I containing 500 samples/s and 12- bit resolution within a nominal range of ±10 mV of variation, the number of records ranged from 2 to 20 for each people. The size of each ECG cycle to complete the process of forming the sample space defined in two ways: 167 samples containing the P+QRS waves and 280 samples containing the P+QRS+T waves, of which 10 cycles were used to had the highest level of similarity. With the Wavelet Transform, the ECG signal was decomposed into 3 levels, where for the P+QRS waves the reductions were 86, 45 and 25 samples, and for the P+QRS+T waves were 142, 73 and 39 samples. For PCA, the signal for reduced from 10 cardiac cycles to only 1. These were presented to network forming the joint training and testing. The Artificial Neural Networks ELM and MLP were used for ECG classification. The results obtained proved that the ELM may be used to identify individuals.
17

Implementación de cajero corresponsal con soporte a identificación biométrica en puntos de venta

Llanos Véliz, Cristian Manuel January 2018 (has links)
Publicación a texto completo no autorizada por el autor / La demanda de clientes del Banco de Bolivia en los últimos años se ha incrementado de forma considerable, por lo que se implementó una solución con tecnología innovadora mediante el uso de puntos de venta (POS) con soporte a identificación biométrica que permita satisfacer esa gran demanda. La solución necesitó ser de fácil mantenimiento por el operador del negocio, ya que serán usados en los comercios normales externos al banco, además de trabajar en los horarios del comercio (dejando de lado la fecha y horas de oficina del banco). El trabajo se materializó usando el Hipercenter, que es el middleware creado por Hiper para manejar las transacciones financieras y administrativas, además de interactuar con diversos dispositivos externos tales como el host del Banco y los terminales POS. Durante el desarrollo del proyecto se presentaron algunos retos, como establecer comunicación con el host del Banco en la transacción de apertura, que es la transacción que permite iniciar sesión con el cajero corresponsal, utilizando un driver de conexión desarrollado a medida por primera vez para ese tipo de host. Otros ajustes requeridos fueron los correspondientes a la respuesta del servicio web para manejar la huella con arreglos de bytes. Los resultados esperados de la solución en producción fueron exitosos, pues la cantidad de transacciones por POS se fue incrementada de forma paulatina del mes de septiembre al mes de diciembre en las transacciones financieras, además de la gran demanda que está teniendo en los comercios en el mercado de Bolivia. / Trabajo de suficiencia profesional
18

A fast and robust negative mining approach for user enrollment in face recognition systems = Uma abordagem eficiente e robusta de mineração de negativos para cadastramento de novos usuários em sistemas de reconhecimento facial / Uma abordagem eficiente e robusta de mineração de negativos para cadastramento de novos usuários em sistemas de reconhecimento facial

Martins, Samuel Botter, 1990- 27 August 2018 (has links)
Orientadores: Alexandre Xavier Falcão, Giovani Chiachia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-27T14:41:07Z (GMT). No. of bitstreams: 1 Martins_SamuelBotter_M.pdf: 4782261 bytes, checksum: 63cd58756e3fe70ffe625d42974b1a78 (MD5) Previous issue date: 2015 / Resumo: Sistemas automáticos de reconhecimento de faces tem atraído a atenção da indústria e da academia, devido à gama de possíveis aplicações, tais como vigilância, controle de acesso, etc. O recente progresso em tais sistemas motiva o uso de técnicas de aprendizado em profundidade e classificadores específicos para cada usuário em cenários de operação não-controlado, que apresentam variações consideráveis em pose, iluminação, etc. Sistemas automáticos de reconhecimento de faces possibilitam construir bases de imagens anotadas por meio do processo de cadastramento de novos usuários. Porém, à medida que as bases de dados crescem, torna-se crucial reduzir o número de amostras negativas usadas para treinar classificadores específicos para cada usuário, devido às limitações de processamento e tempo de resposta. Tal processo de aprendizado discriminativo durante o cadastramento de novos indivíduos tem implicações no projeto de sistemas de reconhecimento de faces. Apesar deste processo poder aumentar o desempenho do reconhecimento, ele também pode afetar a velocidade do cadastramento, prejudicando, assim, a experiência do usuário. Neste cenário, é importante selecionar as amostras mais informativas buscando maximizar o desempenho do classificador. Este trabalho resolve tal problema propondo um método de aprendizado discriminativo durante o cadastramento de usuários com o objetivo de não afetar a velocidade e a confiabilidade do processo. Nossa solução combina representações de alta dimensão com um algoritmo que rapidamente minera imagens faciais negativas de um conjunto de minerção grande para assim construir um classificador específico para cada usuário, baseado em máquinas de vetores de suporte. O algoritmo mostrou ser robusto em construir pequenos e eficazes conjuntos de treinamento com as amostras negativas mais informativas para cada indivíduo. Avaliamos nosso método em duas bases contendo imagens de faces obtidas no cenário de operação não-controlado, chamadas PubFig83 e Mobio, e mostramos que nossa abordagem é capaz de alcançar um desempenho superior em tempos interativos, quando comparada com outras cinco abordagens consideradas. Os resultados indicam que o nosso método tem potencial para ser explorado pela indústria com mínimo impacto na experiência do usuário. Além disso, o algoritmo é independente de aplicação, podendo ser uma contribuição relevante para sistemas biométricos que visam manter a robustez à medida que o número de usuários aumenta / Abstract: Automatic face recognition has attracted considerable attention from the industry and academy due to its wide range of applications, such as video surveillance, access control, online transactions, suspect identification, etc. The recent progress in face recognition systems motivates the use of deep learning techniques and user-specific face representation and classification models for unconstrained scenarios, which present considerable variations in pose, face appearance, illumination, etc. Automatic face recognition systems make possible to build annotated face datasets through user enrollment. However, as the face datasets grow, it becomes crucial to reduce the number of negative samples used to train user-specific classifiers, due to processing constraints and responsiveness. Such a discriminative learning process during the enrollment of new individuals has implications in the design of face recognition systems. Even though it might increase recognition performance, it may affect the speed of the enrollment, which in turn may affect the user experience. In this scenario, it is important to select the most informative samples in order to maximize the performance of the classifier. This work addresses this problem by proposing a discriminative learning method during user enrollment with the challenges of not negatively affecting the speed and reliability of the process, and so the user experience. Our solution combines high-dimensional representations from deep learning with an algorithm for rapidly mining negative face images from a large mining set to build an effective classification model based on linear support vector machines for each specific user. The negative mining algorithm has shown to be robust in building small and effective training sets with the most informative negative samples for each given individual. We evaluate our approach on two unconstrained datasets, namely PubFig83 and Mobio, and show that it is able to attain superior performance, within interactive response times, as compared to five other baseline approaches that use the same classification scheme. The results indicate that our approach has potential to be exploited by the industry with minimum impact to the user experience. Moreover, the algorithm is application-independent. Hence, it may be a relevant contribution for biometric systems that aim to maintain robustness as the number of users increases / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
19

Reconocimiento facial basado en imágenes con color: Revisión sistemática de la literatura

Lima Camizan, Jhon Wayler January 2023 (has links)
En este trabajo se desarrolla una revisión sistemática de la literatura (RSL) de los estudios originales sobre el reconocimiento facial basado en imágenes a color, de tal manera mostrar la importancia en la seguridad que se obtiene aplicando esta tecnología, así mismo conocer los resultados y avances reportados en el reconocimiento facial en estos años. Para este trabajo de investigación se utilizó la metodología de Barbara Kitchenham et al [1], la cual comprende el siguiente esquema de trabajo: A. Preguntas de investigación, B. Proceso de búsqueda C. Criterios de inclusión y exclusión, D. Evaluación de la calidad. Este tipo de artículo consiste en una síntesis de los mejores estudios científicos sobre el tema especificado en torno a las preguntas de investigación que se plantearon. Además, se pudo contrastar la ventaja en muchos aspectos del reconocimiento facial basado en imágenes a color. Se reflejan los resultados obtenidos en la revisión tanto en tablas y gráficos informativos para una mayor comprensión, llegándose a concluir que para RQ1: En su desarrollo se utilizan mayormente algoritmos de inteligencia artificial, RQ2: Se demostró que el año 2019 fue de mayor evolución respecto al crecimiento en número de publicaciones y RQ3: El país que más investigaciones produjo fue Colombia. Cualquier lector (a) puede sentirse seguro (a) de estar frente a un artículo realizado bajo una metodología bien planteada, con la certeza de que la información redactada fue obtenida de bases de datos con alto reconocimiento y seriedad en sus publicaciones.
20

La inteligencia artificial para el reconocimiento facial en la videovigilancia: una revisión sistemática de la literatura

Huertas More, Victor Manuel January 2023 (has links)
El presente trabajo tiene como objetivo principal elaborar una revisión sistemática de la literatura acerca de la inteligencia artificial para el reconocimiento facial en el ámbito de la videovigilancia. Para el desarrollo de esta presente investigación, se empieza con una breve introducción explicando la importancia del reconocimiento facial en la videovigilancia para combatir la inseguridad ciudadana, seguido de ello, se tuvo en cuenta la metodología propuesta por B. Kitchenham [1], planteando las preguntas de investigación. Para continuar con el desarrollo, se realizó el proceso de búsqueda en tres bases de datos, siendo estas ProQuest, ScienceDirect y Google Académico. Seguido de ello, se aplicó los criterios de inclusión y exclusión a los documentos, para después aplicar una evaluación de calidad más rigurosa, lo que nos ayuda a obtener mejores resultados para la buena elaboración del presente documento. En los resultados de la indagación se expresan las herramientas que se utilizan en la inteligencia artificial y las técnicas que utilizan los diferentes autores para el reconocimiento facial en la videovigilancia. Esta revisión finaliza con las conclusiones, que dan respuesta a las preguntas planteadas.

Page generated in 0.0969 seconds