• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 176
  • 9
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 2
  • Tagged with
  • 192
  • 75
  • 44
  • 44
  • 42
  • 41
  • 37
  • 35
  • 35
  • 19
  • 18
  • 18
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

InRob - uma abordagem para testes de interoperabilidade e de robustez de subsistemas de tempo-real intensivos em software.

Maria de Fátima Mattiello-Francisco 15 December 2009 (has links)
Os estudos realizados no presente trabalho de tese abrangem o processo de integração de subsistemas de tempo real intensivos em software e o formalismo de geração de casos de teste. A integração de subsistemas é uma fase altamente onerosa em tempo e recursos de teste de projetos de sistemas críticos tais como plataformas de satélites. São investigados testes baseados em modelos de estado que representam a interação dos subsistemas comunicantes. O problema pesquisado é o formalismo adequado para representar requisitos de tempo no modelo comportamental da interação de modo que casos de teste possam ser derivados por métodos automáticos. Com foco na modelagem dos serviços providos pelos subsistemas em integração, propõe-se um arcabouço para teste de interoperabilidade e de robustez composto por cinco elementos estruturantes: (1) perfil do serviço, (2) modelo nominal do serviço, (3) perigos de tempo, (4) modelo aumentado do serviço, e (5) propósito de teste. O arcabouço, denominado InRob, orienta a construção de modelos formais de interoperabilidade os quais representam o comportamento de um serviço em um dado estágio de integração. Os modelos são estendidos com propriedades de tempo de modo que possam ser derivados casos de teste de robustez, relativos a desvios de tempo na troca de mensagens entre os subsistemas. A validação da abordagem InRob é feita no domínio de subsistemas espaciais, na integração dos subsistemas que compõem um instrumento imageador (telescópio) de raios X a bordo de uma missão de satélite de astronomia. Nesse estudo de caso, o InRob é instanciado em um processo de teste composto por três etapas, duas delas apoiadas por ferramentas existentes para geração e execução de casos de teste.
102

Análise da influência do uso de domínios de parâmetros sobre a eficiência da verificação funcional baseada em estimulação aleatória. / Analysis of the influence of using parameter domains on ramdom-stimulation-based functional verification efficiency.

Carlos Ivan Castro Marquez 10 February 2009 (has links)
Uma das maiores restrições que existe atualmente no fluxo de projeto de CIs é a necessidade de um ciclo menor de desenvolvimento. Devido às grandes dimensões dos sistemas atuais, é muito provável encontrar no projeto de blocos IP, erros ou bugs originados na passagem de uma dada especificação inicial para seus correspondentes modelos de descrição de hardware. Isto faz com que seja necessário verificar tais modelos para garantir aplicações cem por cento funcionais. Uma das técnicas de verificação que tem adquirido bastante popularidade recentemente é a verificação funcional, uma vez que é uma alternativa que ajuda a manter baixos custos de validação dos modelos HDL ao longo do projeto completo do circuito. Na verificação funcional, que está baseada em ambientes de simulação, a funcionalidade completa (ou relevante) do modelo é explorada, aplicando-se casos de teste, um após o outro. Isto permite examinar o modelo em todas as seqüências e combinações de entradas desejadas. Na verificação funcional, existe a possibilidade de simular o modelo estimulando-o com casos de teste aleatórios, o qual ajuda a cobrir um amplo número de estados. Para facilitar a aplicação de estímulos em simulação de circuitos, é comum que espaços definidos por parâmetros de entrada sejam limitados em sua abrangência e agrupados de tal forma que subespaços sejam formados. No desenvolvimento de testbenches, os geradores de estímulos aleatórios podem ser criados de forma a conter subespaços que se sobrepõem (resultando em estímulos redundantes) ou subespaços que contenham condições que não sejam de interesse (resultando em estímulos inválidos). É possível eliminar ou diminuir, os casos de teste redundantes e inválidos através da aplicação de metodologias de modificação do espaço de estímulos de entrada, e assim, diminuir o tempo requerido para completar a simulação de modelos HDL. No presente trabalho, é realizada uma análise da aplicação da técnica de organização do espaço de entrada através de domínios de parâmetros do IP, e uma metodologia é desenvolvida para tal, incluindo-se, aí, uma ferramenta de codificação automática de geradores de estímulos aleatórios em linguagem SyatemC: o GET_PRG. Resultados com a aplicação da metodologia é comparada a casos de aplicação de estímulos aleatórios gerados a partir de um espaço de estímulos de entrada sem modificações.Como esperado, o número de casos de teste redundantes e inválidos aplicados aos testbenches foi sempre maior para o caso de estimulação aleatória a partir do espaço de estímulos de entrada completo com um tempo de execução mais longo. / One of the strongest restrictions that exist throughout ICs design flow is the need for shorter development cycles. This, along with the constant demand for more functionalities, has been the main cause for the appearance of the so-called System-on-Chip (SOC) architectures, consisting of systems that contain dozens of reusable hardware blocks (Intellectual Properties, or IPs). The increasing complexity makes it necessary to thoroughly verify such models in order to guarantee 100% functional applications. Among the current verification techniques, functional verification has received important attention, since it represents an alternative that keeps HDL validation costs low throughout the circuits design cycle. Functional verification is based in testbenches, and it works by exploring the whole (or relevant) models functionality, applying test cases in a sequential fashion. This allows the testing of the model in all desired input sequences and combinations. There are different techniques concerning testbench design, being the random stimulation an important approach, by which a huge number of test cases can be automatically created. In order to ease the stimuli application in circuit simulation, it is common to limit the range of the space defined by input parameters and to group such restricted parameters in sub-spaces. In testbench development, it may occur the creation of random stimuli generators containing overlapping sub-spaces (resulting in redundant stimuli) or sub-spaces containing conditions of no interest (resulting in invalid stimuli). It is possible to eliminate, or at least reduce redundant and invalid test cases by modifying the input stimuli space, thus, diminishing the time required to complete the HDL models simulation. In this work, the application of a technique aimed to organize the input stimuli space, by means of IP parameter domains, is analyzed. A verification methodology based on that is developed, including a tool for automatic coding of random stimuli generators using SystemC: GET_PRG. Results on applying such a methodology are compared to cases where test vectors from the complete verification space are generated. As expected, the number of redundant test cases applied to the testbenches was always greater for the case of random stimulation on the whole (unreduced, unorganized) input stimuli space, with a larger testbench execution time.
103

Método de modelagem e verificação formal aplicado a sistemas de tráfego aéreo. / Modeling and formal verification method applied to air traffic systems.

Costa, Rafael Leme 03 August 2018 (has links)
O desenvolvimento de sistemas críticos é atualmente um dos problemas mais desafiadores enfrentados pela Engenharia. Há frequentemente uma pressão para se reduzir o tempo total de desenvolvimento, o que dificulta a entrega de sistemas com um mínimo aceitável de defeitos. Nos últimos anos, houve um aumento no tráfego aéreo, o que demanda uma modernização dos sistemas de tráfego aéreo atuais, muito dependentes na figura do controlador. Sistemas de tráfego aéreo são sistemas considerados críticos em segurança e de tempo real. O objetivo do presente trabalho é estabelecer um método de modelagem e verificação formal para sistemas críticos, com aplicação no domínio de tráfego aéreo. Com a adoção de técnicas de modelagem e verificação formal, pretende-se garantir a corretude dos sistemas frente aos requisitos inicialmente especificados e a detecção de erros em fases mais iniciais do projeto, o que resultaria em menores custos envolvidos na sua correção. São fornecidas diretivas para a aplicação do método através de um estudo de caso, baseado em três módulos de um sistema ATC em baixo nível de abstração, para a validação do funcionamento de módulos de software. Para verificação formal, é utilizada a ferramenta NuSMV e as propriedades a serem verificadas são descritas na lógica computacional de árvore (CTL) para garantir que o sistema satisfaça requisitos dos tipos vivacidade e segurança. / Developing safety critical systems is one of the most challenging problems in Engineering nowadays. There is usually a pressure to reduce the total time of the development, what makes it difficult to deliver systems with an acceptable low level of defects. In the recent years, there has been an increase in air trffic, what demands a modernization in the current air traffic systems, which are very dependent on the human controller. Air traffic systems are considered safety critical and real time systems. The objective of the present work is to establish a modeling and formal verification method for critical systems, applicable to the air traffic domain. By adopting modeling and formal verification techniques, it is expected to ensure the systems\' correctness compared with the initially specified requirements and the error detection in the initial phases of the project. Guidelines are provided for applying the method by means of a case study, based in three modules of and ATC system in a low abstraction level, for the validation of the operation of software modules. For the formal verification, it is used the NuSMV tool and the properties to be checked are described in the computational tree logic (CTL) to ensure that the system satisfies requirements of liveness and safety types.
104

A comparative analysis of gaussian mixture models and i-vector for speaker verification under mismatched conditions

Avila, Anderson Raymundo January 2014 (has links)
Orientador: Prof. Dr. Francisco J. Fraga / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia da Informação, 2014. / Most speaker verifcation systems are based on Gaussian mixture models and more recently on the so-called i-vector. These two methods are affected in mismatched testtrain conditions, which might be caused by vocal-efort variability, different speakingstyles or channel efects. In this work, we compared the impact of speech rate variation and room reverberation on both methods. We found that performance degradation due to variation on speech rate can be mitigated by adding fast speech samples into the training set, which decreased equal error rates for Gaussian mixture models and i-vector, respectively. Regarding reverberation, we investigated the achievements of both methods when three diferent reverberation compensation techniques are applied in order to overcome performance degradation. The results showed that having reverberant background models separated by diferent levels of reverberation can bene t both methods, with the i-vector providing the best performance in that scenario. Finally, the performance of two auditory-inspired features, mel-frequency cepstral coe ficients and the so-called modulation spectrum features, are compared in presence of room reverberation. For the speaker verifcation system considered in this work, modulation spectrum features are equally afected by reverberation time and have their performance degraded as the level of reverberation increases.
105

Modelamento da eficiência energética para o gerenciamento sustentável no setor industrial pela medição e verificação. / Energy efficiency modeling for the sustainable management through the measurement and verification.

Fábio Correa Leite 09 April 2010 (has links)
O objetivo do trabalho é analisar os protocolos mais conhecidos de medição e verificação de programas de eficiência energética sob da ótica a aplicação do recurso privado em projetos de eficiência energética. A simples comparação de faturas de energia e a utilização não rigorosa de indicadores para determinação da energia economizada praticamente deixa de ser uma opção com a disponibilização de padrões compreensivos de M&V. Para tal são analisados estudos de caso de projetos de eficiência energética nos segmentos comercial e industrial e estes indicam um distanciamento entre as ferramentas modernas de M&V e a realidade, de modo que há dúvidas sobre garantia da sustentabilidade das ações ao longo do tempo. Dessa análise dos protocolos e estudos de caso foram identificadas demandas que são partes de uma metodologia proposta em 9 etapas focadas na sustentabilidade da energia economizada. A aplicação dessa metodologia é complementar à aplicação dos protocolos, tal que o engenheiro de eficiência energética possa pensar em todo processo de gestão e não apenas na implementação das MCEs. Esse trabalho conclui que a simples aderência aos protocolos de M&V é insuficiente para garantir a sustentabilidade das ações de conservação de energia a longo prazo. / The purpose of this work is to analyze the most well known Measurement and Verification protocols to energy efficiency programs under private capital owner perspective. The simple comparison between energy bills and the non-rigorous use of energy efficiency indicators in the energy savings calculation are not an option anymore with the introduction of comprehensive M&V protocols. With this aim, energy efficiency case studies are analyzed in the commercial and industrial sectors and indicated theres a gap between the modern M&V tools and the reality. Doubts around the sustainability of energy savings in the long term raised. Based on literature review, analysis of protocols and case studies, improvement opportunities were identified and are part of a 9 steps methodology focused on the sustainability of energy savings proposed in this work. This methodology works in cooperation with current M&V protocols. The EE engineer shall then be able to think in the overall management process and not only in the Energy Conservation Measure. This work concluded that the M&V tools adherence solely is insufficient to guarantee the sustainability of energy savings in the long term.
106

Um método para verificação formal e dinâmica de sistemas de software concorrentes / A method for formal and dynamic verification of concurrent software systems

Santos, Bruno Roberto 20 May 2016 (has links)
This work presents a method to perform formal and dynamic verification of concurrent software. The objective is to provide a method capable of identifying problems in programs whose execution is based on multiple threads, and analyze behavioral properties. The method is able to detect problems in concurrent software, as well as check conformity of the concurrent software with desirable behavior, based on information collected dynamically, i.e. at runtime. The information collected consists of the software execution flow as well as data about the way communicate the software components during this run. The data collected reflect the software's execution, which ensures greater confidence to the information collected. This information is analyzed to identify deadlocks and race conditions in a process called Dynamic Analysis. In addition, this information is also used to automatically generate a model that describes the behavior of a software, which is used for verification of behavioral properties. This process is called Formal Verification. The automatic model generation eliminates the need for manual construction of the model, which requires much effort and knowledge of formal methods, this can increase costs and development time software. However, the dynamic analysis is known to only perform coverage of the current behavior of competing software systems. Current behavior is one that occurs only during an execution of concurrent software systems, without considering all other possible behaviors from the non-determinism. Due to the non-determinism, concurrent software can produce different results for the same input to each execution of software. Therefore reproduce the behavior that leads to competitive software failure is a complex task. This paper proposes a method to perform formal verification and dynamic concurrent software capable of capturing the non-deterministic behavior of these systems and provide reduced development costs by eliminating the need for manual construction of concurrent software system models. The method is validated by a case study consists of three test software systems. / Fundação de Amparo a Pesquisa do Estado de Alagoas / Neste trabalho é apresentado um método para verificação formal e dinâmica de software concorrentes. O objetivo é oferecer um método capaz de identificar problemas inerentes a programas cuja execução baseia-se em múltiplas threads, além de analisar propriedades comportamentais descritas com base nos preceitos da lógica temporal. Propõe-se um método capaz de detectar problemas e verificar formalmente a adequação da execução de sistemas de software concorrentes com relação ao comportamento desejável a tais sistemas, baseando-se em informações coletadas dinamicamente, ou seja, em tempo de execução. As informações coletadas correspondem às sequências de execução de sistemas de software, bem como dados sobre a maneira como se comunicam seus componentes durante sua execução. Os dados colhidos refletem a execução do sistema de software propriamente dito, o que garante maior confiança às informações coletadas. Tais informações são analisadas de modo a identificar impasses e condições de corrida em um processo denominado Análise Dinâmica. Ademais, estas informações também são utilizadas para geração automática de um modelo que descreve o comportamento do sistema de software, o qual é utilizado para verificação de propriedades comportamentais. A este processo de verificação dá-se o nome de Verificação Formal. A geração automática do modelo elimina a necessidade de construção manual do mesmo, que requer muito esforço e conhecimento acerca de métodos formais, isso pode aumentar custos e tempo de desenvolvimento do sistema de software. Entretanto, a análise dinâmica é conhecida por apenas realizar cobertura sobre o comportamento atual de sistemas de software concorrentes, sem considerar a análise de todas as outras possíveis sequências de execuções devido ao não determinismo. Em razão do comportamento não determinístico, sistemas de software concorrentes são capazes de produzir resultados diferentes para a mesma entrada a cada nova execução. Deste modo, reproduzir o comportamento que leva sistemas de software concorrente à falha é uma tarefa complexa. O presente trabalho propõe um método para realizar verificação formal e dinâmica de sistemas de software concorrente capaz de capturar o comportamento não determinístico desses sistemas, além de proporcionar a redução de custos de desenvolvimento através da eliminação da necessidade de construção manual de modelos de sistemas de software concorrente. O método é validado através de um estudo de caso composto por testes em três sistemas de software.
107

Uma ferramenta para análise automática de modelos de características de linhas de produtos de software sensível ao contexto / A tool for context aware software product lines feature diagram automatic analysis

Costa, Paulo Alexandre da Silva January 2012 (has links)
COSTA, Paulo Alexandre da Silva. Uma ferramenta para análise automática de modelos de características de linhas de produtos de software sensível ao contexto. 2012. 120 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2012. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-12T15:00:02Z No. of bitstreams: 1 2012_dis_pascosta.pdf: 4531402 bytes, checksum: d2d946bd5cd88cf8370f2db5df31f7d1 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-20T13:48:46Z (GMT) No. of bitstreams: 1 2012_dis_pascosta.pdf: 4531402 bytes, checksum: d2d946bd5cd88cf8370f2db5df31f7d1 (MD5) / Made available in DSpace on 2016-07-20T13:48:46Z (GMT). No. of bitstreams: 1 2012_dis_pascosta.pdf: 4531402 bytes, checksum: d2d946bd5cd88cf8370f2db5df31f7d1 (MD5) Previous issue date: 2012 / Software product lines are a way to maximize software reuse once it provides mass software customization. Software product lines (SPLs) have been also used to support contextaware application’s development where adaptability at runtime is an important issue. In this case, SPLs are known as Context-aware software product lines. Context-aware software product line (CASPL) success depends on the modelling of their features and relevant context. However, a manual process to build and configure these models can add several errors such as replicated features, loops, and dead and false optional features. Because of this, there is a need of techniques to verify the model consistency. In the context-aware application domain, the consistency verification plays an important role, since application in this domain use context to both provide services and self-adaptation, when it is needed. In this sense, context-triggered adaptations may lead the application to undesired state. Moreover, in some cases, the statement that a contex-triggered adaptation is undesired only can be made at runtime, because the error is conditioned to the current product configuration. Additionally, applications in this domain are submitted to large volumes of contextual changes, which imply that manual verification is virtually not viable. So, it is interesting to do consistency verification in a automated way such that a computational entity may execute these operations. As there is few automated support for these proccesses, the objective of this work is to propose the complete automation of these proccesses with a software tool, called FixTure, that does consistency verification of feature diagrams during their development and product configuration. FixTure tool also supports contextual changes simulation during the lifecycle of a CASPL application in order to identify inconsistencies that can happen at runtime. / As Linhas de produtos de software são uma forma de maximizar o reuso de software, dado que proveem a customização de software em massa. Recentemente, Linhas de produtos de software (LPSs) têm sido usadas para oferecer suporte ao desenvolvimento de aplicações sensíveis ao contexto nas quais adaptabilidade em tempo de execução é um requisito importante. Neste caso, as LPSs são denominadas Linhas de produtos de software sensíveis ao contexto (LPSSCs). O sucesso de uma LPSSC depende, portanto, da modelagem de suas características e do contexto que lhe é relevante. Neste trabalho, essa modelagem é feita usando o diagrama de características e o diagrama de contexto. Entretanto, um processo manual para construção e configuração desses modelos pode facilitar a inclusão de diversos erros, tais como duplicação de características, ciclos, características mortas e falsos opcionais sendo, portanto, necessário o uso de técnicas de verificação de consistência. A verificação de consistência neste domínio de aplicações assume um papel importante, pois as aplicações usam contexto tanto para prover serviços como para auto-adaptação caso seja necessário. Neste sentido, as adaptações disparadas por mudanças de contexto podem levar a aplicação a um estado indesejado. Além disso, a descoberta de que algumas adaptações podem levar a estados indesejados só pode ser atestada durante a execução pois o erro é condicionado à configuração atual do produto. Ao considerar que tais aplicações estão sujeitas a um grande volume de mudanças contextuais, a verificação manual torna-se impraticável. Logo, é interessante que seja possível realizar a verificação da consistência de forma automatizada de maneira que uma entidade computacional possa realizar essas operações. Dado o pouco suporte automatizado oferecido a esses processos, o objetivo deste trabalho é propor a automatização completa desses processos com uma ferramenta, chamada FixTure (FixTure), para realizar a verificação da construção dos modelos de características para LPSSC e da configuração de produtos a partir desses modelos. A ferramenta FixTure também provê uma simulação de situações de contexto no ciclo de vida de uma aplicação de uma LPSSC, com o objetivo de identificar inconsistências que ocorreriam em tempo de execução.
108

Análise das habilidades testadas e validade diagnóstica de instrumentos para avaliação de linguagem na doença de Alzheimer, no Brasil / Analysis of the skills evaluated and the diagnostic validity of language assessment instruments for Alzheimer s disease patients, in Brazil

Francisco, Helen Capeleto 06 December 2014 (has links)
Made available in DSpace on 2016-06-02T20:30:59Z (GMT). No. of bitstreams: 1 6753.pdf: 1027111 bytes, checksum: f917ad88a391719d4b58579b729b9075 (MD5) Previous issue date: 2014-12-06 / Early detection of Alzheimer's disease (AD) can assist in the identification of causes of AD and of interventions that can slow the progression of this disease. The aim of this study was to compare language assessment tools used in Brazil to diagnose AD, to determine: (a) which linguistic skills are assessed, (b) which of these instruments present the greatest diagnostic validity and (b) to identify gaps in the language skills that are evaluated and the availability of research information about the precision and validity of each instrument. To obtain this information, the Bireme database was searched using the keywords language AND Alzheimer AND (test OR assessment OR instrument). Studies were selected using the following criteria: (a) data about the diagnostic validity of language tests for the assessment of AD, (b) conducted in Brazil, (c) published in English or Portuguese, (d) with access to the full text. Seven articles met all these criteria. A second search strategy involved obtaining articles with the information we were seeking, which were cited in the seven articles already selected. An additional six articles were encountered. The instruments analyzed included: Verbal Fluency Test, Teste de Rastreio de Doença de Alzheimer com Provérbios, Token Test, Boston Naming Test, Naming Test of Brief Cognitive Battery The Dog Story, Le Boeuf (1976), Protocole Montréal d'Évaluation de la Communication, Boston Diagnostic Aphasia Examination, Arizona Battery for Communication Disorders of Dementia and ASHA FACS. These instruments were compared with respect to the populations evaluated (elderly with no cognitive impairments, with mild cognitive impairments, and with AD), the number of people tested, their educational levels, and indexes for sensitivity (correct classification of AD patients) and specificity (correct classification of people without cognitive impairments), which reflect the precision and validity of each instrument, with respect to the diagnostic process. Among the language tests that were evaluated, the Semantic Verbal Fluency Test appears to be the test with the best levels of diagnostic validity for detecting cognitive changes during the early stages of AD, in comparison with elderly people with no cognitive impairments (sensitivity of 90.5% and specificity of 80.6% among illiterate elderly; sensitivity of 82.6% and specificity of 100% for the diagnosis of elderly people with more than eight years of education). However, there are many gaps in the information available about the precision and validity of this and all the other instruments, restricting their usefulness in diagnosing AD, at this time. / A detecção precoce da doença de Alzheimer (DA) pode auxiliar na identificação das causas desta doença, bem como, para descobrir intervenções que podem retardar sua progressão. Este estudo teve como objetivo analisar instrumentos de avaliação da linguagem para o diagnóstico da DA, em uso no Brasil, a fim de: (a) mapear as habilidades linguísticas abordadas, (b) identificar os instrumentos com maior validade diagnóstica e (c) identificar lacunas nas informações disponíveis sobre as habilidades avaliadas e a precisão e validade destes instrumentos. Foi consultada a base de dados de periódicos Bireme, utilizando as palavras chave language AND Alzheimer AND (test OR assessment OR instrument). Selecionaram-se estudos de acordo com os seguintes critérios: (a) apresentaram informações sobre a precisão ou validade diagnóstica de instrumentos de avaliação da linguagem para a doença de Alzheimer, (b) conduzidos no Brasil, (c) publicados em inglês ou o português, (d) acesso ao texto completo. Sete artigos atenderam todos estes critérios. Uma segunda estratégia de busca consistiu na localização de estudos que continham as informações procuradas, que foram citados nos sete artigos já selecionados. Encontraram-se mais seis artigos relevantes. Os instrumentos analisados foram: Teste de Fluência Verbal, Teste de Rastreio de Doença de Alzheimer com Provérbios, Token Test, Teste de Nomeação de Boston, Teste de Nomeação do Brief Cognitive Battery, The Dog Story, de Le Boeuf (1976), Bateria Montreal de Avaliação da Comunicação (MAC), Teste de Boston para o Diagnóstico da Afasia, Bateria Arizona para Desordens de Comunicação e Demência e ASHA FACS. Foram comparadas informações sobre cada instrumento em relação às populações avaliadas (idosos sem demência, com comprometimento cognitivo leve e com DA leve), o número de pessoas testadas, a escolaridade dos participantes e dois índices de validade de critério, sensibilidade (detecção correta de casos de DA) e especificidade (detecção correta de idosos sem alterações cognitivas), os quais ofereçam algumas informações sobre a precisão e validade do instrumento, no processo de diagnóstico. Entre os testes de linguagem examinados, o Teste de Fluência Verbal semântica parece ser o teste com melhores índices de validade diagnóstica para detectar alterações cognitivas nos estágios iniciais da DA em relação a idosos sem alterações cognitivas (sensibilidade de 90,5% e especificidade de 80,6% entre idosos analfabetos; sensibilidade de 82,6% e especificidade de 100% no diagnóstico de idosos com mais de 8 anos de escolaridade). No entanto, ainda existem muitas lacunas em nossos conhecimentos sobre a precisão a validade deste e dos demais instrumentos, o que restringe sua utilidade no diagnóstico de DA, neste momento.
109

MARDI : Marca d'água Digital Robusta via Decomposição de Imagens : uma proposta para aumentar a robustez de técnicas de marca d'água digital /

Lopes, Ivan Oliveira January 2018 (has links)
Orientador: Alexandre César Rodrigues da Silva / Resumo: Com a crescente evolução dos equipamentos eletrônicos, muitos dados digitais têm sido produzidos, copiados e distribuídos com facilidade, gerando uma grande preocupação com a sua segurança. Dentre as várias técnicas usadas para proteger os dados digitais, tem-se as técnicas de inserção e extração de marca d'água em imagens digitais. Uma marca d'água pode ser qualquer informação como, por exemplo, um código, um logotipo, ou uma sequência aleatória de letras e números, que vise garantir a autenticidade e a proteção dos direitos autoriais dos dados. Neste trabalho, estudou-se sobre as técnicas existentes de inserção e extração de marca d'água digital, abordando desde seu conceito até o desenvolvimento de algoritmos de inserção e extração de marca d'água em imagens digitais. Desenvolveu-se um método para aumentar a robustez de técnicas de marca d' água digital pela decomposição da imagem em duas partes: estrutural (áreas homogêneas) e de detalhes (áreas com ruídos, texturas e bordas). Contudo, a marca d'água é inserida na parte de detalhes por se tratar de áreas menos afetadas por operações de processamento digital de imagens. Os resultados mostraram que o método proposto aumentou a robustez das técnicas da marca d'água testadas. Baseado nos resultados obtidos, desenvolveu-se uma nova técnica de marca d'água digital, utilizando a transformada discreta de wavelets, a decomposição de imagens e a transformada discreta do cosseno. / Abstract: With the increasing evolution of technological equipment, many digital data have been easily produced, copied and distributed by generating a great concern for their security. Among the various techniques used to protect the digital data, there are techniques for inserting and extracting a watermark into digital images. A watermark can be any information, such as a code, a logo, or a random sequence of letters and numbers, aiming to ensure the authenticity and copyright protection. In this work are studied, existing insertion and extraction techniques in digital watermarking, by covering from its concept to the development of watermark insertion and extraction algorithms, in digital images. A method was developed to increase the robustness of digital watermarking techniques by decomposing the image into two parts: structural (homogeneous areas) and details (areas with noises, textures and edges). However, the watermark is inserted in the detail area due to be less affected areas by digital image processing. The results showed that the proposed method increased the robustness of the tested watermarking techniques. Based on the results obtained, we developed a new digital watermark technique using discrete wavelet transform, image decomposition and discrete cosine transform. / Doutor
110

Um método de teste funcional para verificação de componentes. / A functional test method for checking components.

FARIAS, Carina Machado de. 18 September 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-09-18T16:21:29Z No. of bitstreams: 1 CARINA MACHADO DE FARIAS - DISSERTAÇÃO PPGCC 2003..pdf: 658152 bytes, checksum: 8231194d3724e72085250f16ee95a419 (MD5) / Made available in DSpace on 2018-09-18T16:21:29Z (GMT). No. of bitstreams: 1 CARINA MACHADO DE FARIAS - DISSERTAÇÃO PPGCC 2003..pdf: 658152 bytes, checksum: 8231194d3724e72085250f16ee95a419 (MD5) Previous issue date: 2003-02-27 / O interesse no desenvolvimento de software baseado em componentes tem crescido substancialmente devido à promessa de redução de custos e tempo de desenvolvimento através do reuso. A maioria das metodologias existentes tem se concentrado nas fases de análise e projeto. Entretanto, o reuso efetivo de componentes está diretamente relacionado à confiabilidade dos mesmos. O principal objetivo deste trabalho é propor um método de teste funcional aplicável a componentes de software. Já que o processo de desenvolvimento utilizado influencia significativamente a testabilidade dos sistemas, o método de teste proposto é apresentado dentro de um processo de desenvolvimento de componentes bem definido Componentes UML. Artefatos de teste são gerados a partir de especificações em UML (Unified Modelling Language), especialmente a partir dos diagramas de seqüência. Um estudo de caso foi desenvolvido para ilustrar a aplicabilidade do método / Interest in component-based software development has increased significantly due its promise to reduce development costs and time through reuse. The majority of existing methodologies has focus in the analysis and design disciplines. Never the less, effective reuse of components is closely related to their reliability. The main goal of this work is to propose a method of functional testing to verify software components. Since testability of systems is greatly influenced by the development process chosen, the proposed method is integrated with a well-defined component development process. Test artifacts are generated from UML (Unified Modelling Language) specifications, specially sequence diagrams. A case study has been developed to illustrate the applicability of the method.

Page generated in 0.0652 seconds