441 |
The effects of mental workload on medicines safety in a community pharmacy settingFamily, Hannah January 2013 (has links)
Background: Concern has been raised that the workload of community pharmacists (CPs) is linked to the occurrence of dispensing errors (DEs). One aspect of workload that has not yet been measured in this setting, but has been linked to errors in other industries, is mental workload (MWL). Aims: (1) Measure the relationship between MWL and DEs during a routine pharmacy task, the final accuracy check, which research suggests is critical to DE prevention. (2) Quantify the role that expertise plays in this relationship. (3) Explore CPs and pharmacy students’ experiences of MWL and DEs. Methods: A mixed methods approach was taken and three studies were conducted. In study one, CPs (n=104) and students (n=93) checked dispensed items for DEs. Participants took part in one of four conditions (distraction, no distraction, dual-task or single-task) and their DE detection and MWL was measured. Study two was a diary study of CPs’ (n=40) MWL during a day in their “real-life” practice. Study three presented an interpretative phenomenological analysis of CPs’ (n=14) and students’ (n=15) experiences of MWL and DEs. Main findings: Study one found that high MWL was related to reduced DE detection, but only for students, confirming the important role of expertise. Distractions did not affect DE detection but was linked to increased MWL. Study 2 highlighted specific times of the day when CPs’ MWL was exceptionally high. Study 3 found several factors which increased MWL, including the lack of control CP’s had over their workload, difficulties communicating with prescribers and targets. Conclusions: MWL has been found to be a useful tool for measuring the impact of workload on pharmacy safety. The findings are linked to current work design and human factors theory and suggestions are made for how CPs’ work could be redesigned to reduce their MWL and improve safety.
|
442 |
Padronização da gestão do processo de auditoria interna em um hospital privado na cidade de Santa MariaRosa, Marisa Rodrigues da 13 January 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-05-24T13:39:46Z
No. of bitstreams: 1
Marisa Rodrigues da Rosa_.pdf: 1337320 bytes, checksum: ff3b2d247569a59c27dc56e40a786e68 (MD5) / Made available in DSpace on 2017-05-24T13:39:46Z (GMT). No. of bitstreams: 1
Marisa Rodrigues da Rosa_.pdf: 1337320 bytes, checksum: ff3b2d247569a59c27dc56e40a786e68 (MD5)
Previous issue date: 2017-01-13 / Nenhuma / Objetivo: Propor uma padronização da gestão do processo de auditoria interna para a melhoria da qualidade dos serviços de um hospital privado na cidade de Santa Maria, no interior do Rio Grande do Sul. Método: Pesquisa transversal, cujos dados foram coletados de maneira prospectiva, por meio da análise de 200 prontuários, após a alta dos pacientes internados em uma das unidades de atendimento clínico-cirúrgicas, no período de agosto a outubro de 2016, a fim de identificar as glosas ocorridas no período. Resultados: Verificou-se que a categoria com maior quantidade de glosas é a de técnico em enfermagem, sendo o turno da tarde o de maior ocorrência delas. Os erros de prescrição médica foram prevalentes, totalizando 56,3% do total; entre eles, os medicamentos suspensos representaram 80,6%. Os erros de enfermagem mais frequentes são os de prescrição de cuidados realizados e não checados, representando 62,5% do total. As glosas mais encontradas das contas auditadas foram em relação aos custos dos procedimentos remunerados. Para minimizar as glosas, foram sugeridos: encontros semanais entre enfermeiros auditores e a equipe assistencial, criação de um checklist para o carro de emergência e dispensação de medicações por dose unitária. Conclusão: Fica clara a necessidade de implantar um processo de auditoria, atrelando qualidade assistencial e cobranças hospitalares ao cotidiano dos enfermeiros. / Objective: Propose a standardization of the internal audit process's management, to the improvement of services quality of a private hospital in the city of Santa Maria, a country side city of Rio Grande do Sul. Method: Transversal research, prospectively collected, through the analysis of 200 medical records, after the discharge of patients hospitalized in one of the clinic-surgical units from August to October 2016, in order to identify the glosses Occurred in the period. Results: It was verified that the category with more hospital gloss quantity is the nursing technician, being the afternoon the shift with more occurrences of it. The medical prescription errors were the prevalent, totalizing 56.3% of total; between them, the suspended medicines represented 80.6%. The most frequent nursing errors are the ones of prescriptions of realized care and not verified, representing 62.5% of total. The hospital gloss more found in the audited accounts were in relation to the costs of remunerated procedures. To minimize the hospital gloss, it was suggested: weekly meeting between the nurses’ auditors with the assistential team, creation of a checklist to the emergency car and the dispensation of medications per unit dose. Conclusion: It's clear the necessity of the implantation of an audit process, unifying assistential quality and hospital charges to the day by day of nurses.
|
443 |
Análise das estratégias e erros dos alunos do 9º ano em questões de álgebra baseadas no Saresp de 2008 a 2011Gonçalves, Alessandro 21 March 2014 (has links)
Made available in DSpace on 2016-04-27T16:57:30Z (GMT). No. of bitstreams: 1
Alessandro Goncalves.pdf: 1870737 bytes, checksum: 0d6e5613eb5a260fd1e4d24c84324476 (MD5)
Previous issue date: 2014-03-21 / Secretaria da Educação do Estado de São Paulo / The aim of this qualitative research is to analyze students strategies, focusing on the errors
and difficulties presented to solve a data collection instrument consisted of 13 Algebra
questions chosen in the reports of the School Evaluation System of the State of São Paulo
( SARESP ) through the years 2008 to 2011. The research is theoretically based on
Movshovitz-Hadar, Zaslavsky, and Inbar (1987) students mathematical errors categories,
which are: misused data, misinterpreted language, logically invalid inference, distorted
theorem or definition, unverified solution and technical errors. With the application of the
data collection and analysis instrument we sought to answer the following research question:
Which are the strategies used and the difficulties and errors made by 9th grade students during
the process of solving Algebra questions presented in the reports of the School Evaluation
System of the State of São Paulo ( SARESP ) during the years 2008, 2009, 2010 and 2011?
The research was conducted in a public school in São Paulo and counted with 15 participants.
After collecting data, I analyzed the strategies used by the students to solve Algebra
questions. During the course of action I tried to identify different strategies comparing them to
a pre performed analysis. As the protocols were analyzed, I was looking to identify the
possible difficulties and errors made by the students. Those students tried to solve Algebra
questions using a variety of strategies, often different from the ones contained in the pre
performed analysis. The research allowed the identification of difficulties, specially the ones
related to the proper use of language and identification of mathematical symbolism. Some
mathematical symbols were not correctly used by some students, highlighting the need to
develop this ability. There are also difficulties in specific subjects, such as applying the
Pythagorean Theorem, mathematical language transformation and similarity in triangles.
Regarding the analyzed errors, there are two main categories which appeared: misused data
and technical errors. The diversity of strategies used and the creativity with which some
students solved the questions always show how important it is for teachers to propose
questions in which the students may use a wider variety of strategies to solve an Algebra
question / Esta pesquisa qualitativa teve como objetivo analisar as estratégias dos alunos com foco nos
erros cometidos e dificuldades apresentadas ao resolverem um instrumento de coleta de dados
composto por 13 questões de Álgebra escolhidas nos relatórios pedagógicos do Sistema de
Avaliação da Aprendizagem Escolar do Estado de São Paulo (Saresp) dos anos de 2008 a
2011. Empregou-se como referencial teórico as categorias de erros propostas por Movshovitz-
Hadar, Zaslavsky e Inbar (1987) que são: dados mal utilizados, interpretação incorreta de
linguagem, inferências logicamente inválidas, teoremas ou definições distorcidas, falta de
verificação da solução e erros técnicos. Com a aplicação do instrumento de coleta de dados e
a análise feita buscou-se responder à seguinte questão de pesquisa: Quais são as estratégias
utilizadas, as dificuldades e os erros cometidos pelos alunos do 9º ano do Ensino Fundamental
II ao resolverem questões de Álgebra que estão presentes nos relatórios pedagógicos do
Saresp dos anos de 2008, 2009, 2010 e 2011? A investigação foi realizada em uma escola
pública da rede pública paulista e contou com a participação de 15 alunos. Após a etapa de
coleta de dados, foram feitas as análises das estratégias utilizadas pelos alunos para
resolverem as questões. Nesse percurso, procurou-se identificar diferentes estratégias
utilizadas comparando-as com uma análise a priori realizada. À medida que os protocolos
foram analisados, tinha-se o olhar voltado para identificar as possíveis dificuldades
encontradas e erros cometidos pelos alunos. Os alunos procuraram sempre resolver os
problemas utilizando estratégias variadas, muitas vezes diferentes das previstas na análise a
priori. A análise realizada possibilitou a identificação de dificuldades, das quais destacam-se
as relacionadas à utilização correta da linguagem e simbolismos matemáticos. Alguns
símbolos matemáticos não foram corretamente utilizados por alguns alunos, o que aponta para
a necessidade de um trabalho que desenvolva essa capacidade neles. Há também dificuldades
em assuntos pontuais, como aplicação do Teorema de Pitágoras, transformação de linguagens
e semelhança de triângulos. No que diz respeito aos erros revelados, destacamos que as duas
principais categorias foram a de dados mal utilizados e erros técnicos. A diversidade de
estratégias utilizadas e a criatividade com que alguns alunos resolveram as questões mostram
sempre que for possível é importante o professor propor problemas nos quais os alunos
possam usar diferentes estratégias de resolução
|
444 |
The effects of the compiler optimizations in embedded processors reliabilityLins, Filipe Maciel January 2017 (has links)
O recente avanço tecnológico dos processadores embarcados aumentou a complexidade dos compiladores e o uso de recursos heterogêneos, como Arranjo de Portas Programáveis em Campo (Field Programmable Gate Array - FPGA) e Unidade de Processamento Gráfico (Graphics Processing Unit - GPU), integrado aos processadores. Além disso, aumentou-se o uso de componentes de prateleira (Commercial off-the-shelf - COTS) em aplicações críticas, ao invés de chips tolerantes a radiação, pois os COTS podem ser mais baratos, flexíveis, terem uma rápida colocação no mercado e um menor consumo de energia. No entanto, mesmo com essas vantagens, os COTS são suscetíveis a falha sendo necessário garantir uma alta confiabilidade nos sistemas utilizados. Assim como, no caso de aplicações em tempo real, também se precisa respeitar os requisitos determinísticos. Como caso de estudo, este trabalho utiliza a Zynq que é um dispositivo COTS do tipo Sistema em Chip Totalmente Programável (All Programmable System on Chip - APSoC) no qual possui um processador ARM Cortex-A9 embarcado. Nesta pesquisa, investigou-se o impacto das falhas que afetam o arquivo de registradores na confiabilidade dos processadores embarcados. Para tanto, experimentos de injeção de falhas e de radiação de íons pesados foram realizados. Além do mais, avaliou-se como os diferentes níveis de otimização do compilador modificam o uso e a probabilidade de falha do arquivo de registradores do processador. Selecionou-se seis benchmarks representativos, cada um compilado com três níveis diferentes de otimização. Realizamos campanhas exaustivas de injeção de falhas para medir o Fator de Vulnerabilidade Arquitetural (Architectural Vulnerability Factor - AVF) de cada código e configuração, identificando os registradores que são mais propensos a gerar uma corrupção de dados silenciosos (Silent Data Corruption - SDC) ou uma interrupção funcional de evento único (Single Event Functional Interruption - SEFI). Também foram correlacionadas as variações de confiabilidade observadas com a utilização do arquivo de registradores. Finalmente, irradiamos com íons pesados dois dos benchmarks selecionados compilados com dois níveis de otimização. Os resultados mostram que mesmo com o melhor desempenho, o menor uso do arquivo de registradores ou o menor AVF não é garantido que as aplicações irão alcançar a maior Carga de Trabalho Média Entre Falhas (Mean Workload Between Failure - MWBF). Por exemplo, os resultados mostram que o melhor desempenho da aplicação Multiplicação de Matrizes (Matrix Multiplication - MxM) é alcançado no nível de otimização mais alta. No entanto, nos resultados dos experimentos de injeção de falhas, a maior confiabilidade é alcançada no menor nível de otimização que possuem os menores AVFs e o menor uso do arquivo de registradores. Os resultados também mostram que o impacto das otimizações está fortemente relacionado com o algoritmo executado e como o compilador faz esta otimização. / The recent advances in the embedded processors increase the compilers complexity, and the usage of heterogeneous resources such as Field Programmable Gate Array (FPGA) and Graphics Processing Unit (GPU) integrated with the processors. Additionally, the increase in the usage of Commercial off-the-shelf (COTS) instead of radiation hardened chips in safety critical applications occurs because the COTS can be more flexible, inexpensive, have a fast time-to market and a lower power consumption. However, even with these advantages, it is still necessary to guarantee a high reliability in a system that uses a COTS for safety critical applications because they are susceptible to failures. Additionally, in the case of real time applications, the time requirements also need to be respected. As a case of study, this work uses the Zynq which is a COTS device classified as an All Programmable System-on-Chip (APSOC) and has an ARM Cortex-A9 as the embedded processor. In this research, the impact of faults that affect the register file in the embedded processors reliability was investigated. For that, fault-injection and heavy-ion radiation experiments were performed. Moreover, an evaluation of how the different levels of compiler optimization modify the usage and the failure probability of a processor register file. A set of six representative benchmarks, each one compiled with three different levels of compiler optimization. Exhaustive fault injection campaigns were performed to measure the registers Architectural Vulnerability Factor (AVF) of each code and configuration, identifying the registers that are more likely to generate Silent Data Corruption (SDC) or Single Event Functional Interruption (SEFI). Moreover, the observed reliability variations with register file utilization were correlated. Finally, two of the selected benchmarks, each one compiled with two different levels of optimization were irradiated in the heavy ions experiments. The results show that the best performance, the minor register file usage, or the lowest AVF does not always bring the highest Mean Workload Between Failures (MWBF). As an example, in the Matrix Multiplication (MxM) application, the best performance is achieved in the highest compiler optimization. However, in the fault injection, the higher reliability is obtained in the lower compiler optimization which has, the lower AVFs and the lower register file usage. Results also show that the impact of optimizations is strongly related to the executed algorithm and how the compiler optimizes them.
|
445 |
Convolutional neural network reliability on an APSoC platform a traffic-sign recognition case study / Confiabilidade de uma rede neural convolucional em uma plataforma APSoC: um estudo para reconhecimento de placas de trânsitoLopes, Israel da Costa January 2017 (has links)
O aprendizado profundo tem inúmeras aplicações na visão computacional, reconhecimento de fala, processamento de linguagem natural e outras aplicações de interesse comercial. A visão computacional, por sua vez, possui muitas aplicações em áreas distintas, indo desde o entretenimento à aplicações relevantes e críticas. O reconhecimento e manipulação de faces (Snapchat), e a descrição de objetos em fotos (OneDrive) são exemplos de aplicações no entretenimento. Ao passo que, a inspeção industrial, o diagnóstico médico, o reconhecimento de objetos em imagens capturadas por satélites (usadas em missões de resgate e defesa), os carros autônomos e o Sistema Avançado de Auxílio ao Motorista (SAAM) são exemplos de aplicações relevantes e críticas. Algumas das empresas de circuitos integrados mais importantes do mundo, como Xilinx, Intel e Nvidia estão apostando em plataformas dedicadas para acelerar o treinamento e a implementação de algoritmos de aprendizado profundo e outras alternativas de visão computacional para carros autônomos e SAAM devido às suas altas necessidades computacionais. Assim, implementar sistemas de aprendizado profundo que alcançam alto desempenho com o custo de baixa utilização de área e dissipação de potência é um grande desafio. Além do mais, os circuitos eletrônicos para a indústria automotiva devem ser confiáveis mesmo sob efeitos da radiação, defeitos de fabricação e efeitos do envelhecimento. Assim, um gerador automático de VHSIC (Very High Speed Integrated Circuit) Hardware Description Language (VHDL) para Redes Neurais Convolucionais (RNC) foi desenvolvido para reduzir o tempo associado a implementação de algoritmos de aprendizado profundo em hardware. Como estudo de caso, uma RNC foi treinada pela ferramenta Convolutional Architecture for Fast Feature Embedding (Caffe), de modo a classificar 6 classes de placas de trânsito, alcançando uma precisão de cerca de 89,8% no conjunto de dados German Traffic-Sign Recognition Benchmark (GTSRB), que contém imagens de placas de trânsito em cenários complexos. Essa RNC foi implementada num All-Programmable System-on- Chip (APSoC) Zynq-7000, resultando em 313 Frames Por Segundo (FPS) em imagens normalizadas para 32x32, com o APSoC dissipando uma potência de somente 2.057 W, enquanto uma Graphics Processing Unit (GPU) embarcada, em seu modo de operação mínimo, dissipa 10 W. A confiabilidade da RNC proposta foi investigada por injeções de falhas acumuladas e aleatórias por emulação nos bits de configuração da Lógica Programável (LP) do APSoC, alcançando uma confiabilidade de 80,5% sob Single-Bit-Upset (SBU) onde foram considerados ambos os Dados Corrompidos Silenciosos (DCSs) críticos e os casos em que o sistema não respondeu no tempo esperado (time-outs). Em relação às falhas múltiplas, a confiabilidade da RNC decresce exponencialmente com o número de falhas acumuladas. Em vista disso, a confiabilidade da RNC proposta deve ser aumentada através do uso de técnicas de proteção durante o fluxo de projeto. / Deep learning has a plethora of applications in computer vision, speech recognition, natural language processing and other applications of commercial interest. Computer vision, in turn, has many applications in distinct areas, ranging from entertainment applications to relevant and critical applications. Face recognition and manipulation (Snapchat), and object description in pictures (OneDrive) are examples of entertainment applications. Industrial inspection, medical diagnostics, object recognition in images captured by satellites (used in rescue and defense missions), autonomous cars and Advanced Driver-Assistance System (ADAS) are examples of relevant and critical applications. Some of the most important integrated circuit companies around the world, such as Xilinx, Intel and Nvidia are waging in dedicated platforms for accelerating the training and deployment of deep learning and other computer vision algorithms for autonomous cars and ADAS due to their high computational requirement. Thus, implementing a deep learning system that achieves high performance with low area utilization and power consumption costs is a big challenge. Besides, electronic equipment for automotive industry must be reliable even under radiation effects, manufacturing defects and aging effects, inasmuch as if a system failure occurs, a car accident can happen. Thus, a Convolutional Neural Network (CNN) VHSIC (Very High Speed Integrated Circuit) Hardware Description Language (VHDL) automatic generator was developed to reduce the design time associated to the implementation of deep learning algorithms in hardware. As a case study, a CNN was trained by the Convolutional Architecture for Fast Feature Embedding (Caffe) framework, in order to classify 6 traffic-sign classes, achieving an average accuracy of about 89.8% on the German Traffic-Sign Recognition Benchmark (GTSRB) dataset, which contains trafficsigns images in complex scenarios. This CNN was implemented on a Zynq-7000 All- Programmable System-on-Chip (APSoC), achieving about 313 Frames Per Second (FPS) on 32x32-normalized images, with the APSoC consuming only 2.057W, while an embedded Graphics Processing Unit (GPU), in its minimum operation mode, consumes 10W. The proposed CNN reliability was investigated by random piled-up fault injection by emulation in the Programming Logic (PL) configuration bits of the APSoC, achieving 80.5% of reliability under Single-Bit-Upset (SBU) where both critical Silent Data Corruptions (SDCs) and time-outs were considered. Regarding the multiple faults, the proposed CNN reliability exponentially decreases with the number of piled-up faults. Hence, the proposed CNN reliability must be increased by using hardening techniques during the design flow.
|
446 |
Applying dual core lockstep in embedded processors to mitigate radiation induced soft errors / Aplicando dual core lockstep em processadores embarcados para mitigar falhas transientes induzidas por radiaçãoOliveira, Ádria Barros de January 2017 (has links)
Os processadores embarcados operando em sistemas de segurança ou de missão crítica não podem falhar. Qualquer falha neste tipo de aplicação pode levar a consequências inaceitáveis, como risco de vida ou danos à propriedade ou ao meio ambiente. Os sistemas embarcados que operam em aplicações aeroespaciais são sucetíveis à falhas transientes induzidas por radiação. Entretanto, os efeitos de radiação também podem ser observados ao nível do solo. Falhas transientes afetam os processadores modificando os valores armazenados em elementos de memória, tais como registradores e memória de dados. Essas falhas podem levar o processador a executar incorretamente a aplicação, provocando erros na saída ou travamentos no sistema. Os avanços recentes em processadores embarcados concistem na integração de processadores hard-core e FPGAs. Tais dispositivos, comumente chamados de Sistemas-em-Chip Totalmente Programáveis (APSoCs), também são sucetíveis aos efeitos de radiação. Com objetivo de minimizar esse problema de tolerância a falhas, este trabalho apresenta um Dual-Core LockStep (DCLS) como uma técnica de tolerância para mitigar falhas induzidas por radiação que afetam processadores embarcados em APSoCs. Lockstep é um método baseado em redundância usado para detectar e corrigir falhas transientes. O DCLS proposto é implementado em um processador ARM Cortex-A9 hard-core embarcado no APSoC Zynq-7000. A eficiência da abordagem implementada foi validada tanto em aplicações executando em bare-metal como no sistema operacional FreeRTOS. Experimentos com íons pesados e emulação de falhas por injeção foram executados para analisar a sucetibilidade do sistema a inversão de bits. Os resultados obtidos mostram que a abordagem é capaz de diminuir a seção de choque do sistema com uma alta taxa de proteção. O sistema DCLS mitigou com sucesso até 78% das falhas injetadas. Otimizações de software também foram avaliadas para uma melhor compreenção dos trade-offs entre desempenho e confiabilidade. Através da análise de diferentes partições de software, observou-se que o tempo de execução de um bloco da aplicação deve ser muito maior que o tempo de verificação para que se obtenha menor impacto em desempenho. A avaliação de otimizações de compilador demonstrou que utilizar o nível O3 aumenta a vulnerabilidade da aplicação à falhas transientes. Como o O3 requer o uso de mais registradores que os otros níveis de otimização, o sistema se torna mais sucetível à falhas. Por outro lado, os resultados dos experimentos de radiação apontam que a aplicação compilada com nível O3 obtém maior Carga de Trabalho Média Entre Falhas (MWBF). Como a aplicação executa mais rápido, mais dados são computados corretamente antes da ocorrência de um erro. / The embedded processors operating in safety- or mission-critical systems are not allowed to fail. Any failure in such applications could lead to unacceptable consequences as life risk or significant damage to property or environment. Concerning faults originated by the radiation-induced soft errors, the embedded systems operating in aerospace applications are particularly susceptible. However, the radiation effects can also be observed at ground level. Soft errors affect processors by modifying values stored in memory elements, such as registers and data memory. These faults may lead the processor to execute an application incorrectly, generating output errors or leading hangs and crashes in the system. The recent advances in embedded systems concern the integration of hard-core processors and FPGAs. Such devices, called All Programmable System-on-Chip (APSoC), are also susceptible to radiation effects. Aiming to address this fault tolerance problem this work presents a Dual-Core LockStep (DCLS) as a fault tolerance technique to mitigate radiation-induced faults affecting processors embedded into APSoCs. Lockstep is a method based on redundancy used to detect and correct soft errors. The proposed DCLS is implemented in a hard-core ARM Cortex-A9 embedded into a Zynq-7000 APSoC. The approach efficiency was validated not only on applications running in baremetal but also on top of FreeRTOS systems. Heavy ions experiments and fault injection emulation were performed to analyze the system susceptibility to bit-flips. The obtained results show that the approach is able to decrease the system cross section with a high rate of protection. The DCLS system successfully mitigated up to 78% of the injected faults. Software optimizations were also evaluated to understand the trade-offs between performance and reliability better. By the analysis of different software partitions, it was observed that the execution time of an application block must to be much longer than the verification time to achieve fewer performance penalties. The compiler optimizations assessment demonstrate that using O3 level increases the application vulnerability to soft errors. Because O3 handles more registers than other optimizations, the system is more susceptible to faults. On the other hand, results from radiation experiments show that O3 level provides a higher Mean Workload Between Failures (MWBF). As the application runs faster, more data are correctly computed before an error occurrence.
|
447 |
Testarbetets svåra val / The hard choice of testingJakupovic, Dennis, Makdessi, Jade, Vennberg, Robert January 2010 (has links)
När det talas om test pratas det på ett sätt som om det vore ett nytt fenomen, men i själva verket kan rötterna spåras tillbaks till 1978. Det är först på senare år som test har börjat etablera sig mer och mer och nyttan med test bland systemutvecklingsorganisationer respektive testorganisationer. Människan omges ständigt av information vare sig det är av elektronisk, fysiskt eller annan form. Det är därför inte så konstigt att tidsåldern människan befinner sig i kallas för ”informationsåldern”. Successivt har människan mer och mer etablerat ett beroende av verktygen för att ge stöd för informationen människan omges av i sin vardag. En del människor använder enkla mjukvarusystem medan en del använder mer komplexa mjukvarusystem och ibland till och med kritiska system som måste fungera felfritt. Om mjukvarusystemet har ett fel som hindrar mjukvarans funktionalitet kommer det att medföra konsekvenser beroende på vad konsekvensen medför och innebär för användaren. Det kan vara allt ifrån en personlig ekonomisk förlust till en livshotande konsekvens. Orsaken till konsekvensen kan exempelvis leda till felanvändning av mjukvaran, men oftast så ligger felet inte hos användaren utan att mjukvaran har en defekt och anledningen till det är förmodligen att mjukvaran inte testats tillräckligt. Det är därför av yttersta vikt att mjukvaran testas eftersom den annars skulle förlora sitt syfte i och med att den inte längre fyller en funktion. Test sträcker sig dock längre än att bara testa för att säkerställa att mjukvaran är felfri. Genom test kan mjukvarans kvalitet säkras, det kan generera lägre kostnader i längden genom att fel hittas innan den leverats till slutanvändaren, test medför även en kontroll av uppfyllnadsgraden av kravspecifikationerna som formulerats av kund. I dagens läge genomförs därför test alltmer agilt i systemutvecklingen och är därmed en procedur i systemutvecklingen till skillnad från den traditionella vattenfallsmodellen där test genomförs i slutfaserna av systemutvecklingen. Test utförs antingen av en systemutvecklingsorganisation eller en separat test organisation. I denna studie har därför ett antal delfrågor formulerats för att sedan på en mera detaljerad nivå belysa för- respektive nackdelar med hur test bedrivs i de respektive organisationerna och ett antal har identifierats. Bland många som identifierats så utmärks en särskild fördel och nackdel när en separat testorganisation samt när en systemutvecklingsorganisation bedriver test. Nämligen att test tar tid ifall en separat testorganisation bedriver test, men fördelen med det är att det medför att en mjukvara testats grundligt medan i en systemutvecklings-organisation så bedrivs test mer utifrån premisserna huruvida det ryms inom ramen för budgeten även om enhetstester och systemtester alltid utförs. Nackdelen med test inom systemutvecklingsorganisationen är att test tar mycket tid.
|
448 |
On Efficiency and Accuracy of Data Flow Tracking SystemsJee, Kangkook January 2015 (has links)
Data Flow Tracking (DFT) is a technique broadly used in a variety of security applications such as attack detection, privacy leak detection, and policy enforcement. Although effective, DFT inherits the high overhead common to in-line monitors which subsequently hinders their adoption in production systems. Typically, the runtime overhead of DFT systems range from 3× to 100× when applied to pure binaries, and 1.5× to 3× when inserted during compilation. Many performance optimization approaches have been introduced to mitigate this problem by relaxing propagation policies under certain conditions but these typically introduce the issue of inaccurate taint tracking that leads to over-tainting or under-tainting.
Despite acknowledgement of these performance / accuracy trade-offs, the DFT literature consistently fails to provide insights about their implications. A core reason, we believe, is the lack of established methodologies to understand accuracy.
In this dissertation, we attempt to address both efficiency and accuracy issues. To this end, we begin with libdft, a DFT framework for COTS binaries running atop commodity OSes and we then introduce two major optimization approaches based on statically and dynamically analyzing program binaries.
The first optimization approach extracts DFT tracking logics and abstracts them using TFA. We then apply classic compiler optimizations to eliminate redundant tracking logic and minimize interference with the target program. As a result, the optimization can achieve 2× speed-up over base-line performance measured for libdft. The second optimization approach decouples the tracking logic from execution to run them in parallel leveraging modern multi-core innovations. We apply his approach again applied to libdft where it can run four times as fast, while concurrently consuming fewer CPU cycles.
We then present a generic methodology and tool for measuring the accuracy of arbitrary DFT systems in the context of real applications. With a prototype implementation for the Android framework – TaintMark, we have discovered that TaintDroid’s various performance optimizations lead to serious accuracy issues, and that certain optimizations should be removed to vastly improve accuracy at little performance cost. The TaintMark approach is inspired by blackbox differential testing principles to test for inaccuracies in DFTs, but it also addresses numerous practical challenges that arise when applying those principles to real, complex applications. We introduce the TaintMark methodology by using it to understand taint tracking accuracy trade-offs in TaintDroid, a well-known DFT system for Android.
While the aforementioned works focus on the efficiency and accuracy issues of DFT systems that dynamically track data flow, we also explore another design choice that statically tracks information flow by analyzing and instrumenting the application source code. We apply this approach to the different problem of integer error detection in order to reduce the number of false alarmings.
|
449 |
Controversy over correctness : the view from 1980Clark, Lorraine M January 2010 (has links)
Photocopy of typescript. / Digitized by Kansas Correctional Industries
|
450 |
Perfil de distribuição de erros refracionais no sul do centro-oeste do estado de São Paulo e seu impacto na acuidade visual : estudo de base populacional. -Ferraz, Fábio Henrique da Silva. January 2013 (has links)
Orientador: Silvana Artioli Schellini / Banca: Milton Ruiz Alves / Banca: Carlos Eduardo Leite Arieta / Banca: Maria Rosa Bet de Moraes Silva / Banca: Flávio Eduardo Hirai / Resumo: Determinar o perfil de distribuição dos erros refracionais em uma amostra populacional do centro-oeste do Estado de São Paulo, suas possíveis associações com características individuais e a influência sobre a acuidade visual. foi desenvolvido estudo de secção transversal com amostragem residencial probabilística e sistemática em nove municípios no sul do centro-oeste paulista, como parte do Projeto de Prevenção à Cegueira na Comunidade. Os indivíduos acima de um ano de idade foram submetidos a entrevista e exame oftalmológico completo. A acuidade visual em sistema Snellen e posterior conversão para logMAR foi obtida antes e após exame de refração e categorizada em quatro segmentos. Os erros refracionais foram classificados em miopia (EE ≤ - 0,50D), hipermetropia (EE ≥ 0,50D), astigmatismo (DC ≤ -0,50D) e anisometropia (diferença de EE ≥ 1,00D entre os olhos). Foi realizada a análise descritiva dos dados de prevalência na amostra, análise univariada e multivariada com modelos de regressão logística múltipla para determinar possíveis associações de prevalências. 3012 residências foram entrevistadas e 7654 indivíduos foram incluídos no estudo, sendo 62,7% mulheres, 92,1% considerados com pele branca e média para a idade de 36,89 anos (extremos de 1 a 96 anos). A miopia foi mais prevalente na terceira e quarta décadas de vida, atingindo 43,31% sem diferenças significativas entre sexos, enquanto a hipermetropia foi mais prevalente entre mulheres acima de 60 anos de idade, com uma frequência de 65,6% nesta faixa etária. O astigmatismo apresentou uma frequência progressivamente maior com a idade e semelhante entre os sexos. O eixo do astigmatismo também apresentou variação conforme a idade, com o eixo horizontal mais frequente em jovens e o vertical nos idosos. A prevalência da anisometropia apresentou variação com a idade sendo mais frequente nos extremos de idade, ... / Abstract: Establish the refractive errors distribution in a population sample of the Central São Paulo State, correlations with personal features and its influence in visual acuity. A cross sectional survey was developed with randomized and systematic residential sampling in nine cities of middle region of São Paulo St/Brazil as part of Blindness Prevention Project at Community. Inhabitants above one year old were submitted to an interview and full ophthalmic exam. Visual acuity in logMAR system was determined before and after refraction exam and classified in four categories. Refractive errors were classified in myopia (SE ≤ -0,50D), hyperopia (SE ≥ 0,50D), astigmatism (CD ≤ -0,50D) and anisometrophy (SE difference between eyes ≥ 1,00D). Prevalence data sample were submitted to descriptive analysis, univariate and multivariate logistic regression models to find eventual prevalence associations. 7654 participants were included in this survey, in which 62,7% were women, 92,1% with white skin and middle age of 36,89 years old (1 to 96 years). Myopia was more prevalent at 3rd and 4th decades, achieving 43,31% without significant differences between genders, while hyperopia was more prevalent in women above 60 years old, with 65,5%. Astigmatism prevalence increased by age with no differences between genders. Astigmatism axis changed by age too, when horizontal axis were more frequently observed in youngers and vertical in olders. Anisometrophy prevalence changed by age, more frequent at extremes, achieving 32,66% after 70 years old. No significant differences were found in ethnic categories. Visual acuity increasing prevalence by visual impairment corrected with spectacles (UREN) was 6,53% in the total sample, mainly after 60 years old and high refrective errors. Prevalence associations were found between age and all ametrophic categories, sex and hyperopia and between UREN with myopia, hyperopia and ... / Doutor
|
Page generated in 0.0469 seconds