• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 533
  • 48
  • 40
  • 40
  • 40
  • 25
  • 25
  • 25
  • 25
  • 25
  • 15
  • 6
  • Tagged with
  • 587
  • 587
  • 298
  • 282
  • 209
  • 180
  • 129
  • 120
  • 114
  • 100
  • 87
  • 84
  • 80
  • 80
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Método para segmentação de pele humana em imagens faciais baseado em informações de cor e textura / A method for human skin segmentation in facial images based on color and texture features

Casati, João Paulo Brognoni 10 December 2013 (has links)
A segmentação de pele em imagens é um importante processo para uma vasta gama de aplicações, como detecção e rastreamento de faces, reconhecimento de gestos, computação forense, entre outros. Um dos maiores problemas encontrados neste tipo de aplicação é a presença de objetos que possuem cor de pele nas imagens, mas não fazem parte de segmentos reais de pele, sendo muitas vezes erroneamente classificados como pele. A fim de reduzir a frequência destes falsos positivos, é apresentado neste trabalho um método de segmentação de pele humana em imagens faciais que possui duas diferentes etapas que reduzem a quantidade de falsos positivos do processo sem que se percam quantidades significantes de verdadeiros positivos. Estas duas etapas são chamadas de FPAR (False Positive Area Reduction) e aplicação de textura. A primeira visa remover segmentos não contínuos classificados como pele e a segunda aborda a aplicação de textura nas imagens, removendo áreas em que a textura não se assemelha à textura de pele humana. Para isto, foi desenvolvido o banco de imagens SFA (Skin of FERET and AR), constituído de imagens originais dos bancos de faces FERET e AR, seus respectivos ground truths de segmentação de pele e amostras de pele e não pele extraídas das imagens originais. O método apresentado neste trabalho apresenta resultados promissores atingindo até 46,9% de redução de falsos positivos sem que a acurácia aferida tenha redução significante (apenas 1,8%). Este trabalho tem como contribuições o método desenvolvido e o banco de imagens SFA que fica disponível online para download pela comunidade científica. / Skin segmentation is an important process for many kinds of application like face detection, face tracking, gesture recognition, forensic computing and others. One of the main problems found in this kind of application is the presence of objects which have skin color but are not part of actual skin segments, being wrongly classified as skin. Aiming to reduce the frequency of these false positives, this work presents a method of human skin segmentation in facial images which has two different steps that reduces the false positives without losing significant areas of true positives. These two steps are called FPAR (False Positive Area Reduction) and texture application. The first one removes segments classified as skin which are not continuous and the second one is an analysis of the image texture, removing areas which the texture is not alike human skin texture. To achieve this, the SFA (Skin of FERET and AR) image database was developed, constituted of original images retrieved from AR and FERET face databases, their respective ground truths of skin segmentation and skin and non-skin samples retrieved from the original images. The method presented in this work shows promising results, reaching up to 46.9% of false positive reduction without significant reduction of the accuracy (1.8%). This work has as contributions the developed method and the SFA database, which is available for download for scientific community.
152

Um sistema eficiente de detecção da ocorrência de eventos em sinais multimídia. / An efficient system for detecting events in multimidia signals.

Oliveira, Celso de 01 July 2008 (has links)
Nos últimos anos tem ocorrido uma necessidade crescente de métodos que possam lidar com conteúdo multimídia em larga escala, e com busca de tais informações de maneira eficiente e efetiva. Os objetos de interesse são representados por vetores descritivos (e. g. cor, textura, geometria, timbre) extraídos do conteúdo, associados a pontos de um espaço multidimensional. Um processo de busca visa, então, encontrar dados similares a uma dada amostra, tipicamente medindo distância entre pontos. Trata-se de um problema comum a uma ampla variedade de aplicações incluindo som, imagens, vídeo, bibliotecas digitais, imagens médicas, segurança, entre outras. Os maiores desafios dizem respeito às dificuldades inerentes aos espaços de alta dimensão, conhecidas por curse of dimensionality, que restringem significativamente a aplicação dos métodos comuns de busca. A literatura recente contém uma variedade de métodos de redução de dimensão que são altamente dependentes do tipo de dado considerado. Constata-se também certa carência de métodos gerais de análise que possam prever com precisão o desempenho dos algoritmos propostos. O presente trabalho contém uma análise geral dos princípios aplicáveis aos sistemas de busca em espaços de alta dimensão. Tal análise permite estabelecer de maneira precisa o compromisso existente entre robustez, refletida principalmente na imunidade a ruído, a taxa de erros de reconhecimento e a dimensão do espaço de observação. Além disto, mostra-se que é possível conceber um método geral de mapeamento, para fins de reconhecimento, que independe de especificidades do conteúdo. Para melhorar a eficiência de busca, um novo método de busca em espaços de alta dimensão é introduzido e analisado. Por fim, descreve-se sumariamente uma realização prática, desenvolvida segundo os princípios discutidos e que atende eficientemente aplicações comerciais de monitoramento de exibição de conteúdo em rádio e TV. / In the last few years there has been an increasing need for methods to deal with large scale multimedia content, and to search such information efficiently and effectively. The objects of interest are represented by feature vectors (e. g. color, texture, geometry, timbre) extracted from the content, associated to points in a multidimensional space. A search process aims, therefore, to find similar data to a given sample, typically measuring distance between points. It is a common problem to a wide range of applications that include sound, image, video, digital library, medical imagery, security, amongst others. The major challenges refer to the difficulties, inherent to the high dimension spaces, known as curse of dimensionality that limit significantly the application of the most common search methods. The recent literature contains a number of dimension reduction methods that are highly dependent on the type of data considered. Besides, there has been a certain lack of general analysis methods that can predict accurately the performance of the proposed algorithms. The present work contains a general analysis of the principles applicable to high dimension space search systems. Such analysis allows establishing in a precise manner the existing tradeoff amongst the system robustness, reflected mainly in the noise immunity, the error rate and the dimension of the observation space. Furthermore, it is shown that it is possible to conceive a mapping method, for recognition purpose, that can be independent of the content specificities. To improve the search efficiency, a new high dimension space search method is introduced and analyzed. Finally, a practical realization is briefly described, which has been developed in accordance with the principles discussed, and that addresses efficiently commercial applications relative to radio and TV content broadcasting monitoring.
153

Um modelo para reconhecimento de padrões em imagens de satélites climáticos com base em linguagens formais. / A model for pattern recognition in climate satelites images based on formal languages.

Dalla Valle, Luís Emílio Cavechiolli 23 July 2012 (has links)
Uma sequência de imagens de satélite climático é processada aplicando-se um conjunto de operações de filtros, no intuito de extrair padrões de comportamento das nuvens. Caracteres são criados a partir deste tratamento e suas transições são investigadas, explorando a possibilidade de justificar suas ocorrências através de linguagens formais e linguagens bidimensionais, definindo suas gramáticas. Com esta contagem de transições, uma análise de sua forma fractal é iniciada e um paralelo com outras contagens estabelecida, como uma forma de estruturar um modelo computacionalmente menos complexo de prever o tempo, ou o comportamento de qualquer entidade dinâmica que possa ser discretizada. Com estas investigações e experiências, foi possível diminuir a quantidade de símbolos utilizados para justificar as formas das nuvens, bem como criar classes de equivalências para representar conjuntos de símbolos que compartilham as mesmas propriedades, diminuindo ainda mais a complexidade da gramática que se espera encontrar. / A sequence of weather satellite images are processed by applying a set of filtering operations in order to extract the behavior patterns of clouds. Characters are created from this treatment and their transitions are investigated by exploring the possibility of justifying their occurrence across formal languages and two-dimensional languages, defining their grammar. With these count transitions an analysis of their fractals starts and counts a parallel with others established as a way to structure a model less computationally complex to predict the weather, or the behavior of any dynamic entity that could be discretized. With these investigations and experiments, it was possible to reduce the number of symbols used to explain the shapes of clouds and create equivalent classes to represent the symbol sets that share the same properties, further reducing the complexity of the grammar expected to be found.
154

Classificação de textos com redes complexas / Using complex networks to classify texts

Amancio, Diego Raphael 29 October 2013 (has links)
A classificação automática de textos em categorias pré-estabelecidas tem despertado grande interesse nos últimos anos devido à necessidade de organização do número crescente de documentos. A abordagem dominante para classificação é baseada na análise de conteúdo dos textos. Nesta tese, investigamos a aplicabilidade de atributos de estilo em tarefas tradicionais de classificação, usando a modelagem de textos como redes complexas, em que os vértices representam palavras e arestas representam relações de adjacência. Estudamos como métricas topológicas podem ser úteis no processamento de línguas naturais, sendo a tarefa de classificação apoiada por métodos de aprendizado de máquina, supervisionado e não supervisionado. Um estudo detalhado das métricas topológicas revelou que várias delas são informativas, por permitirem distinguir textos escritos em língua natural de textos com palavras distribuídas aleatoriamente. Mostramos também que a maioria das medidas de rede depende de fatores sintáticos, enquanto medidas de intermitência são mais sensíveis à semântica. Com relação à aplicabilidade da modelagem de textos como redes complexas, mostramos que existe uma dependência significativa entre estilo de autores e topologia da rede. Para a tarefa de reconhecimento de autoria de 40 romances escritos por 8 autores, uma taxa de acerto de 65% foi obtida com métricas de rede e intermitência de palavras. Ainda na análise de estilo, descobrimos que livros pertencentes ao mesmo estilo literário tendem a possuir estruturas topológicas similares. A modelagem de textos como redes também foi útil para discriminar sentidos de palavras ambíguas, a partir apenas de informação topológica dos vértices, evidenciando uma relação não trivial entre sintaxe e semântica. Para algumas palavras, a discriminação com redes complexas foi ainda melhor que a estratégia baseada em padrões de recorrência contextual de palavras polissêmicas. Os estudos desenvolvidos nesta tese confirmam que aspectos de estilo e semânticos influenciam na organização estrutural de conceitos em textos modelados como rede. Assim, a modelagem de textos como redes de adjacência de palavras pode ser útil não apenas para entender mecanismos fundamentais da linguagem, mas também para aperfeiçoar aplicações reais quando combinada com métodos tradicionais de processamento de texto. / The automatic classification of texts in pre-established categories is drawing increasing interest owing to the need to organize the ever growing number of electronic documents. The prevailing approach for classification is based on analysis of textual contents. In this thesis, we investigate the applicability of attributes based on textual style using the complex network (CN) representation, where nodes represent words and edges are adjacency relations. We studied the suitability of CN measurements for natural language processing tasks, with classification being assisted by supervised and unsupervised machine learning methods. A detailed study of topological measurements in texts revealed that several measurements are informative in the sense that they are able to distinguish meaningful from shuffled texts. Moreover, most measurements depend on syntactic factors, while intermittency measurements are more sensitive to semantic factors. As for the use of the CN model in practical scenarios, there is significant correlation between authors style and network topology. We achieved an accuracy rate of 65% in discriminating eight authors of novels with the use of network and intermittency measurements. During the stylistic analysis, we also found that books belonging to the same literary movement could be identified from their similar topological features. The network model also proved useful for disambiguating word senses. Upon employing only topological information to characterize nodes representing polysemous words, we found a strong relationship between syntax and semantics. For several words, the CN approach performed surprisingly better than the method based on recurrence patterns of neighboring words. The studies carried out in this thesis confirm that stylistic and semantic aspects play a crucial role in the structural organization of word adjacency networks. The word adjacency model investigated here might be useful not only to provide insight into the underlying mechanisms of the language, but also to enhance the performance of real applications implementing both CN and traditional approaches.
155

Combinação de Classificadores para Reconhecimento de Padrões / Not available

Prampero, Paulo Sérgio 16 March 1998 (has links)
O cérebro humano é formado por um conjunto de neurônios de diferentes tipos, cada um com sua especialidade. A combinação destes diferentes tipos de neurônios é um dos aspectos responsáveis pelo desempenho apresentado pelo cérebro na realização de várias tarefas. Redes Neurais Artificiais são técnicas computacionais que apresentam um modelo matemático inspirado no sistema nervoso e que adquirem conhecimento através da experiência. Uma alternativa para melhorar o desempenho das Redes Neurais Artificiais é a utilização de técnicas de Combinação de Classificadores. Estas técnicas de combinação exploram as diferenças e as semelhanças das redes para a obtenção de resultados melhores. Dentre as principais aplicações de Redes Neurais Artificiais está o Reconhecimento de Padrões. Neste trabalho, foram utilizadas técnicas de Combinação de Classificadores para a combinação de Redes Neurais Artificiais em problemas de Reconhecimento de Padrões. / The human brain is formed by neurons of different types, each one with its own speciality. The combination of theses different types of neurons is one of the main features responsible for the brain performance in severa! tasks. Artificial Neural Networks are computation technics whose mathematical model is based on the nervous system and learns new knowledge by experience. An alternative to improve the performance of Artificial Neural Networks is the employment of Classifiers Combination techniques. These techniques of combination explore the difference and the similarity of the networks to achieve better performance. The main application of Artificial Neural Networks is Pattern Recognition. In this work, Classifiers Combination techniques were utilized to combine Artificial Neural Networks to solve Pattern Recognition problems.
156

Avaliação de um método baseado em máquinas de suporte vetorial de múltiplos núcleos e retificação de imagens para classificação de objetos em imagens onidirecionais. / Assessment of a method based on multiple kernel support vector machines and images unwrapping for the classification of objects in omnidirectional images.

Amaral, Fábio Rodrigo 18 October 2010 (has links)
Apesar da popularidade das câmeras onidirecionais aplicadas à robótica móvel e da importância do reconhecimento de objetos no universo mais amplo da robótica e da visão computacional, é difícil encontrar trabalhos que relacionem ambos na literatura especializada. Este trabalho visa avaliar um método para classificação de objetos em imagens onidirecionais, analisando sua eficácia e eficiência para ser aplicado em tarefas de auto-localização e mapeamento de ambientes feitas por robôs moveis. Tal método é construído a partir de um classificador de objetos, implementado através de máquinas de suporte vetorial, estendidas para a utilização de Aprendizagem de Múltiplos Núcleos. Também na construção deste método, uma etapa de retificação é aplicada às imagens onidirecionais, de modo a aproximá-las das imagens convencionais, às quais o classificador utilizado já demonstrou bons resultados. A abordagem de Múltiplos Núcleos se faz necessária para possibilitar a aplicação de três tipos distintos de detectores de características em imagens, ponderando, para cada classe, a importância de cada uma das características em sua descrição. Resultados experimentais atestam a viabilidade de tal proposta. / Despite the popularity of omnidirectional cameras used in mobile robotics, and the importance of object recognition in the broader universe of robotics and computer vision, it is difficult to find works that relate both in the literature. This work aims at performing the evaluation of a method for object classification in omnidirectional images, evaluating its effectiveness and efficience considering its application to tasks of self-localization and environment mapping made by mobile robots. The method is based on a multiple kernel learning extended support vector machine object classifier. Furthermore, an unwrapping step is applied to omnidirectional images, to make them similar to perspective images, to which the classifier used has already shown good results. The Multiple Kernels approach is necessary to allow the use of three distinct types of feature detectors in omnidirectional images by considering, for each class, the importance of each feature in the description. Experimental results demonstrate the feasibility of such a proposal.
157

Predição in silico de RNAs não codificantes na bactéria mycoplasma hyopneumoniae/ / In silico prediction of non-coding RNAS for the bacterium mycoplasma hyopneumoniae

Godinho, Caio Padoan de Sá 18 March 2014 (has links)
Made available in DSpace on 2015-03-04T18:57:58Z (GMT). No. of bitstreams: 1 dissertacao_caio_godinho_2014.pdf: 2200918 bytes, checksum: aa8817dd5a147c8a2d55413e1a796132 (MD5) Previous issue date: 2014-03-18 / Mycoplasma hyopneumoniae 7448 e uma bactéria patogênica e parasita obrigatória do trato respiratório de suínos. A compreensão de seus mecanismos de regulação gênica é ainda incompleta e incapaz de explicar a dinâmica observada na expressão de seus genes. Diversos elementos podem exercer funções regulatórias da expressão gênica em bactérias, dentre eles os ncRNAs. Este trabalho reporta a identificação e classificaçãao de 48 regiões no genoma de M. hyopneumoniae 7448 suscetíveis a abrigarem novos genes de ncRNA. Para isso foram utilizadas técnicas de modelagem estocástica e diversas outras ferramentas computacionais. Duas importantes ferramentas foram desenvolvidas no decorrer desta dissertação, sendo uma para a inferência de conservação evolutiva em regiões intergênicas e a outra { denominada FraPS { uma melhoria na delimitação genômica dos candidatos a ncRNA. Os resultados corroboram com a hipótese da existência de ncRNAs como elementos reguladores da expressão gênica na bactéria estudada, exercendo papeis fundamentais na sobrevivência e patogenicidade da mesma. Genes de adesinas, lipoproteínas, e do complexo de transporte ABC foram encontrados entre os possíveis genes-alvo a regulação via ncRNA, resultado que auxilia o planejamento de experimentos moleculares para o estudo da regulação por ncRNAs em micoplasmas.
158

Abordagens em aprendizagem estatística para computar componentes tensoriais em subespaços multilineares com aplicações em reconhecimento de expressões e gênero em imagens de face / Statistical learning approaches for computing tensor components in multilinear subspace with applications in gender and expression recognition based on face images

Filisbino, Tiene Andre 26 March 2015 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2015-09-25T15:37:17Z No. of bitstreams: 1 Tiene-Dissettacao.pdf: 10301534 bytes, checksum: 1bbdd0329f315edc2564176156c20ee3 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2015-09-25T15:37:32Z (GMT) No. of bitstreams: 1 Tiene-Dissettacao.pdf: 10301534 bytes, checksum: 1bbdd0329f315edc2564176156c20ee3 (MD5) / Made available in DSpace on 2015-09-25T15:37:48Z (GMT). No. of bitstreams: 1 Tiene-Dissettacao.pdf: 10301534 bytes, checksum: 1bbdd0329f315edc2564176156c20ee3 (MD5) Previous issue date: 2015-03-26 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / The main contributions of this dissertations are divided in two parts. The main goal of the first one is to investigate the efficiency of ranking techniques for tensor components in gender and facial expression (happiness versus neutral) experiments for classification and reconstruction problems in multilinear subspace learning. We will verify the consequences of ranking techniques in subspace learning through Fisher criterion, by estimating the covariance structure of the database and by using weights generated through separating hyperplanes, such as support vector machine (SVM) and linear discriminant analysis (LDA). The latter is named tensor discriminant principal component analysis (TDPCA). This analysis will be performed in the context of multilinear principal components analysis (MPCA) and concurrent subspace analysis (CSA), which are known techniques for multilinear subspace learning. The former follows the principal components analysis methodology, that centers the samples before the subspace learning computation while the latter performs the learning procedure using raw data. In the second part, we will analyze the influence of weights computed using SVM, LDA and Fisher criterion as a prior information to generate new tensor components in the context of MPCA. This new supervised subspace learning technique, named weighted MPCA (WMPCA), is combined with the ranking methods to re-orient weighted tensor components generating the WTDPCA subspaces. We apply the WMPCA and WTDPCA frameworks, for face image analysis. The results show the efficiency of WMPCA and WTDPCA subspaces to distinguish sample groups in classification tasks as well as some drawbacks between global and local patterns for reconstruction. We also address theoretical issues related to the connection between MPCA and CSA, as well as foundations in multilinear subspace learning problems; that is, the corresponding covariance structure and discriminant analysis. / As principais contribuições desta dissertação estão divididas em duas partes. O principal objetivo da primeira parte é investigar a eficiência das técnicas de ordenação para componentes tensoriais em experimentos de genero e expressão facial (felicidade contra neutra) para problemas de classificação e reconstrução em espaços multilineares. Nós verificaremos as consequências das técnicas de ordenação tensoriais via estrutura espectral dos dados, bem como usando pesos gerados através de hiperplanos de sepação, tais como SVM (support vector machine) e LDA (linear discriminant analysis), além de, do critério de Fisher. Esta análise foi realizada no contexto do MPCA (multilinear principal components analysis) e CSA (concurrent subspace analysis), as quais, são técnicas conhecidas na área de aprendizagem de subespaços multilineares. A primeira segue a metodologia do (PCA) (principal components analysis),que centraliza as amostras antes de computar o subespaço enquanto que a última realiza o procedimento de aprendizagem usando os dados brutos. Na segunda parte, nós analisamos a influência dos pesos computados usando SVM, LDA e critério de Fisher como uma informação a priori para gerar novas componentes tensoriais no contexto do MPCA. Esta nova técnica de aprendizagem supervisionada, que chamamos de WMPCA (weighted MPCA), é combinada com o método de ordenação para re-ordenar componentes tensoriais ponderadas computadas pelo WMPCA. Nós aplicamos a técnica combinada, denominada WTDPCA (weighted tensor discriminant principal components analysis), bem como o WMPCA, para análise de imagens de faces. Os resultados mostram a eficiência dos subespaços gerados para distinguir grupos de amostras em tarefas de classificação bem como questões inerentes a padrões globais e locais na reconstrução. Nós também abordamos aspectos teóricos relacionadas a conexão entre MPCA e CSA, bem como fundamentos relacionados a estrutura espectral e análise discriminante em problemas de aprendizagem multilineares.
159

OMT-G temporal: uma técnica de extensão do modelo OMT-G para representar os aspectos temporais de dados geográficos.

Giovani Volnei Meinerz 11 August 2005 (has links)
A utilização de modelos conceituais para o processo de desenvolvimento de aplicações em geral é de fundamental importância. Aplicações geográficas precisam gerenciar objetos espaciais, juntamente com não-espaciais, bem como objetos temporais. Este fator vem exigindo considerável esforço no desenvolvimento de aplicações geográficas. A complexidade na manipulação dessas informações temporais vem demandando esforços ainda maiores na modelagem conceitual, para que estas realmente permitam a representação dos fenômenos naturais e suas variações no tempo. Modelos de dados geográficos, incluindo o modelo de dados para aplicações geográficas OMT-G, propõem algumas primitivas para a criação de esquemas estáticos, dinâmicos e de apresentação utilizados para modelagem de aplicações geográficas. Apesar da sua expressividade, este modelo ainda não tem recursos para representação de aspectos temporais de dados geográficos. Este trabalho propõe e exemplifica um conjunto de primitivas temporais, projetadas para complementar e estender o OMT-G. O trabalho também inclui o desenvolvimento de uma ferramenta de modelagem, chamada Geo-Temporal, que oferece suporte ao desenvolvimento de aplicações espaço-temporais usando a extensão temporal criada para o OMT-G.
160

Aplicações do algoritmo CTW na predição e na codificação de imagens com o padrão JPEG-LS.

Diogo Chadud Milagres 27 October 2005 (has links)
Nesta Tese é estudado o compressor padrão de imagens sem perda, JPEG-LS. É observado que a estrutura do JPEG-LS utiliza um modelo probabilístico baseado em uma memória de comprimento fixo. Obviamente este não é o melhor modelo para todas as imagens. Seguindo os conceitos da teoria da codificação universal de fonte, o modelo probabilístico do JPEG-LS é modificado, levando a serem criados outros algoritmos para compressão de imagens sem perda. O conhecido algoritmo context-tree weighting (CTW), que é uma solução elegante para o problema da codificação universal de fonte para a classe de fontes com memória finita, é utilizado para auxiliar na formação da estrutura dos novos protótipos, para que se tenha um modelo probabilístico baseado em uma memória finita, porém variável em comprimento. Esses novos protótipos são denominados JPEG-LS/CTW. O desempenho desses novos compressores é medido segundo dois grupos de imagens. O primeiro é composto por imagens simuladas considerando um modelo probabilístico baseado em ausência de memória. O segundo grupo é constituído de imagens denominadas naturais, aéreas e médicas. Os resultados obtidos com o primeiro grupo mostram que o JPEG-LS/CTW consegue uma melhora de 7,5% em média, dependendo dos parâmetros do modelo. Além disso, a melhora atingida pelo JPEG-LS cuja estrutura utiliza um modelo probabilístico sem memória, que é uma escolha apropriada para imagens simuladas sem memória, não atingiu taxas de bits significantes em relação ao JPEG-LS/CTW. Os resultados obtidos com o segundo grupo mostram que o JPEG-LS/CTW alcança praticamente o mesmo desempenho que o JPEG-LS padrão (de fato, a diferença de desempenho entre os compressores é de menos de 0,5% em média) e consegue desempenhos melhores em relação a versões do JPEG-LS que utilizam modelos probabilísticos diferentes do convencional.

Page generated in 0.0706 seconds