Spelling suggestions: "subject:"[een] DEFINITION"" "subject:"[enn] DEFINITION""
291 |
APLIKACE LEGISLATIVNÍHO VYMEZENÍ SPRÁVY DOKUMENTŮ V PRAXI VEŘEJNOPRÁVNÍCH PŮVODCŮ JIHOČESKÉHO KRAJE / Legislative specification applied on Record Management in practice of public agencies in South Bohemian districtMATUŠKA, Karel January 2010 (has links)
The preamble of the thesis introduces the basic legislative definition of record management in a period from 1st January 2005 to 30th June 2009, i.e. the limited period of entry into force Act No. 499/2004 Coll., on Archives and Record Management and the changes in some Acts before the entry into force and its update by Act No. 190/2009 Coll. In the next part of the thesis is described performance of particular steps followed continually in record management which means the way of the official record from its delivery or establishment until the permanent storage in archival records or its physical liquidation and focusing on the agent of State Regional Archives Třeboň, which is in South Bohemian district. The third part of thesis provides a few examples in records of agencies which help to show how through the practice are influenced the solutions in some parts of record management. The final part evaluates the suitability of legal regulation in record management in fixed term and other development in legislative definition of records management in the Czech Republic.
|
292 |
Desenvolvimento da arquitetura dos codificadores de entropia adaptativos CAVLC e CABAC do padrão H.264/AVC / Integrated architecture development of CAVLC and CABAC context-adaptive entropy encoders for H.264/AVCThiele, Cristiano January 2012 (has links)
Um codificador de entropia é responsável pela representação simbólica de dados de forma a representá-los com um menor número de bits. O H.264/AVC possui três codificadores de entropia: o Exponencial Golomb, o CAVLC que é o codificador de menor complexidade porém com um throughput maior de dados e o CABAC, com maior complexidade e com uma maior capacidade de compressão. A complexidade do codificador de entropia e a dependência dos dados sequenciais no bitstream original são os principais desafios para atender os requisitos de desempenho para compressão em tempo real. Por isso o desenvolvimento destas arquiteturas em hardware dedicado se faz necessário. Neste contexto, esta dissertação descreve os algoritmos que fazem parte da entropia do padrão H.264/AVC e as arquiteturas para estes codificadores entrópicos (Exponential Golomb, CAVLC e CABAC), além de uma arquitetura de hardware dedicada que integra todos estes a um montador final que atende às especificações da norma H.264/AVC. As arquiteturas foram escritas em VHDL e sintetizadas para dispositivos integrados FPGA. Em um dispositivo Virtex-5, este codificador de entropia completo suporta codificação de vídeos no nível 4.2 do padrão H.264/AVC (Full HD a 60 quadros por segundo). Esta arquitetura é a que apresenta o melhor desempenho de processamento dentre os melhores trabalhos relacionados, além de ser um codificador com todas as alternativas de codificação de entropia requeridas pela norma implementadas em um mesmo módulo. / An entropy encoder is responsible for the symbolic representation of a data stream so that the final representation contains less bits than the original. The H.264/AVC has three entropy coding schemes: the Exponential Golomb, the CAVLC encoder, that is less complex but with a higher data throughput, and the CABAC that is more complex while allowing for higher compression capability. The complexity of the entropy encoding and data dependencies on the original bitstream are the main challenges to meet the performance requirements for real-time compression. The development of these architectures in dedicated hardware is therefore necessary for high performance encoders. In this context, this work describes the algorithms that are part of the entropy encoders of the H.264/AVC standard, and the corresponding entropy coding architectures (Exponential Golomb, CAVLC and CABAC), plus a dedicated hardware architecture that integrates all of these encoders to a final bitstream assembler that is compliant to the aforementioned standard. The architectures were written in VHDL and synthesized into FPGA devices. In a Virtex-5 device, this full entropy encoder supports video encoding at level 4.2 of the H.264/AVC standard (Full HD at 60 frames per second). The developed architecture performs best among the most recent related architectures published, and has the unique feature of an encoder that implements in the same module all the alternative entropy encoders present in this standard for video compression.
|
293 |
Descredenciamento estético e habilitação narrativa : a construção de um novo modelo para a filosofia da arte em Nöel CarrollGomes, Guilherme Mautone January 2016 (has links)
O objetivo principal desta dissertação consiste na apresentação da contribuição filosófica de Noël Carroll, pensador contemporâneo norte-americano, ao debate sobre o conceito de arte. Seu trabalho principal dentro do tema é duplo. De um lado, Carroll elabora um empreendimento crítico às teorias estéticas da arte que são para ele uma tradição filosófica capaz de fornecer as condições de possibilidade para o surgimento de uma definição estética da arte. E, de outro lado, Carroll elabora um empreendimento propositivo a partir do qual sua posição no debate definicional sobre o termo ‘arte’ pode ser evidenciada. Em sua etapa crítica, o pensamento de Carroll: (1) desenvolve uma genealogia das teorias estéticas, apresentando assim o arcabouço histórico para elas; (2) indica o que é comum a elas, a saber, a definição estética da arte; (3) procede a uma análise lógica dessa definição, apresentando as suas implicações e justificando o seu descredenciamento. Já em sua etapa propositiva, o pensamento de Carroll: (1) realiza um balanço das contribuições filosóficas ao debate definicional, apresentando pensadores importantes como Weitz, Dickie e Danto; (2) desenvolve um método de identificação de arte que dispensa a via definicional, chamado de narrativas identificadoras; (3) apresenta uma série de respostas às objeções desenvolvidas por outros autores ao seu método. / The main purpose of this work consists in an exposition of Noël Carroll’s philosophical contribution. Carroll is a contemporary North American philosopher whose work focuses on the debate concerning the concept of art. Our view is that his work consists in a twofold undertaking. On one side, Carroll elaborates a critical enterprise to the aesthetic theories of art that, for him, can foster the conditions and the possibilities to the outbreak of an aesthetic definition of art. On the other side, Carroll elaborates a purposeful enterprise through which his position on the definitional debate of the term ‘art’ can be easily understood. On his critical stage, Carroll: (1) makes a genealogy of aesthetic theories, giving them a historical outline; (2) indicates their common core, namely, the aesthetic definition; (3) proceeds analyzing this definition, showing its implications and justifying its disenfranchisement. In addition, on his purposeful stage, Carroll: (1) analyses relevant philosophical contributions to the definitional debate, presenting authors like Weitz, Dickie and Danto; (2) develops a method for art identification that exonerates the traditional definitional approach, called identifying narratives; (3) presents a series of replies to objections to his method made by others philosophers.
|
294 |
Proposta teórico-metodológica para a geração de paráfrases explanatórias em dicionários voltados para crinaças : uma abordagem cognitivaBrangel, Larissa Moreira January 2016 (has links)
A inclusão dos dicionários escolares de língua portuguesa no Programa Nacional do Livro didático, no início dos anos 2000, alavancou consideravelmente o interesse por este tipo de obra no Brasil, tanto por parte de estudiosos da linguagem, como por parte de editoras e órgãos governamentais. No entanto, ainda que o aumento na demanda tenha impulsionado a produção dicionarística do mercado editorial brasileiro, pouco se tem refletido sobre como compilar dicionários voltados ao público escolar à luz de parâmetros teóricos e metodológicos. Como resultado, verifica-se a proliferação de obras elaboradas sob critérios demasiadamente impressionistas e que pouco atendem aos anseios de seus potenciais consulentes. Com o objetivo de preencher uma das tantas lacunas da pesquisa lexicográfica brasileira, a presente tese doutoral elabora uma metodologia que, fundamentada nos princípios da semântica cognitiva, almeja auxiliar a geração de paráfrases explanatórias voltadas a alunos do segundo ciclo do ensino fundamental. Para tanto, foi necessário reavaliar a atual proposta do PNLD Dicionários, com especial atenção ao primeiro e ao segundo ciclo do ensino fundamental, e reformular a classificação das obras lexicográficas escolares deste período. A partir desta reformulação, propôs-se a elaboração de um dicionário intermediário, voltado para o segundo ciclo do ensino fundamental, e especificaram-se as características essenciais da obra (enquadramento taxonômico, perfil do usuário e função). Fixadas estas informações, passou-se ao desenvolvimento da metodologia propriamente dita, cuja aplicação se restringiu ao grupo dos substantivos. A elaboração da metodologia pressupôs (a) o enquadramento das paráfrases em uma taxonomia de paráfrases explanatórias, (b) a formulação de padrões sintáticos tendo em vista as especificidades do tipo de substantivo a ser definido, e (c) a aplicação de princípios da semântica cognitiva na seleção das informações vinculadas pela paráfrase. Os resultados obtidos permitiram a elaboração de paráfrases ad hoc orientadas teórica e metodologicamente ao público ao qual se destinam. Ao final da tese, avaliou-se o nível de inteligibilidade das paráfrases por intermédio de uma ferramenta de processamento da linguagem natural. Os resultados da análise sugerem que, de maneira geral, as paráfrases elaboradas estão em consonância com a capacidade de interpretação de alunos do segundo ciclo do ensino fundamental, cumprindo, assim, os objetivos da tese e propiciando um avanço à lexicografia pedagógica brasileira. / The inclusion of school dictionaries in Programa Nacional do Livro Didático [Brazilian textbook national programme], in the early 2000s, has dramatically increased the interest of language experts as well as publishing companies and government entities in this kind of reference work. However, although the increase in demand has expanded dictionary production among Brazilian publishing houses, there has been very little thought on how to compile school dictionaries taking into account theoretical and methodological parameters. As a result, there is a proliferation of school dictionaries produced based on impressionistic criteria and which do not really help their potential users. To fulfill one of the many gaps of the Brazilian lexicographical research, this PhD dissertation proposes a methodology which, based on cognitive semantics principles, will contribute to the writing of lexicographical definitions for children aged 9 and 10. Therefore, the current lexicographical proposal by the Brazilian textbook national programme had to be re-evaluated and reformulated, with special attention to the first five years of primary school. After that, it was suggested an intermediate dictionary, which would be suitable for the 4th and 5th years of primary school, and the main features of this specific dictionary (taxonomic classification, user profile and function) were established. Bearing in mind all those items, the methodology itself could be developed, with its application restricted to the noun class, only. The methodology combined (a) the classification of the definitions into a taxonomy of lexicographical definitions, (b) the formulation of distinct syntactic patterns according to the different kinds of nouns, and (c) the use of cognitive semantic principles to select the information offered by the definition. The results allowed the creation of ad hoc definitions sustained by a theoretical and methodological framework which takes into account the target audience of the definition. At the end of the dissertation, the readability level of the definitions was evaluated using a natural language processing tool. The analysis results suggest that, in general, the definitions created using the methodology are in consonance with the interpretative capacity of students in the 4th and 5th years of primary school, hence reaching the dissertation goals and providing the Brazilian pedagogical lexicography with major improvements.
|
295 |
Desenvolvimento algorítmico e arquitetural para a estimação de movimento na compressão de vídeo de alta definição / Algorithmic and architectural development for motion estimation on high definition video compressionPorto, Marcelo Schiavon January 2012 (has links)
A compressão de vídeo é um tema extremamente relevante no cenário atual, principalmente devido ao crescimento significativo da utilização de vídeos digitais. Sem a compressão, é praticamente impossível enviar ou armazenar vídeos digitais devido à sua grande quantidade de informações, inviabilizando aplicações como televisão digital de alta definição, vídeo conferência, vídeo chamada para celulares etc. O problema vem se tornando maior com o crescimento de aplicações de vídeos de alta definição, onde a quantidade de informação é consideravelmente maior. Diversos padrões de compressão de vídeo foram desenvolvidos nos últimos anos, todos eles podem gerar grandes taxas de compressão. Os padrões de compressão de vídeo atuais obtêm a maior parte dos seus ganhos de compressão explorando a redundância temporal, através da estimação de movimento. No entanto, os algoritmos de estimação de movimento utilizados atualmente não consideram as variações nas características dos vídeos de alta definição. Neste trabalho uma avaliação da estimação de movimento em vídeos de alta definição é apresentada, demonstrando que algoritmos rápidos conhecidos, e largamente utilizados pela comunidade científica, não apresentam os mesmos resultados de qualidade com o aumento da resolução dos vídeos. Isto demonstra a importância do desenvolvimento de novos algoritmos focados em vídeos de altíssima definição, superiores à HD 1080p. Esta tese apresenta o desenvolvimento de novos algoritmos rápidos de estimação de movimento, focados na codificação de vídeos de alta definição. Os algoritmos desenvolvidos nesta tese apresentam características que os tornam menos suscetíveis à escolha de mínimos locais, resultando em ganhos significativos de qualidade em relação aos algoritmos rápidos convencionais, quando aplicados a vídeos de alta definição. Além disso, este trabalho também visa o desenvolvimento de arquiteturas de hardware dedicadas para estes novos algoritmos, igualmente dedicadas a vídeos de alta definição. O desenvolvimento arquitetural é extremamente relevante, principalmente para aplicações de tempo real a 30 quadros por segundo, e também para a utilização em dispositivos móveis, onde requisitos de desempenho e potência são críticos. Todos os algoritmos desenvolvidos foram avaliados para um conjunto de 10 sequências de teste HD 1080p, e seus resultados de qualidade e custo computacional foram avaliados e comparados com algoritmos conhecidos da literatura. As arquiteturas de hardware dedicadas, desenvolvidas para os novos algoritmos, foram descritas em VHDL e sintetizadas para FPGAs e ASIC, em standard cells nas tecnologias 0,18μm e 90nm. Os algoritmos desenvolvidos apresentam ganhos de qualidade para vídeos de alta definição em relação a algoritmos rápidos convencionais, e as arquiteturas desenvolvidas possuem altas taxas de processamento com baixo consumo de recursos de hardware e de potência. / Video compression is an extremely relevant theme in today’s scenario, mainly due to the significant growth in digital video applications. Without compression, it is almost impossible to send or store digital videos, due to the large amount of data that they require, making applications such as high definition digital television, video conferences, mobiles video calls, and others unviable. This demand is increasing since there is a strong growth in high definition video applications, where the amount of information is considerably larger. Many video coding standards were developed in the last few years, all of them can achieve excellent compression rates. A significant part of the compression gains in the current video coding standards are obtained through the exploration of the temporal redundancies by means of the motion estimation process. However, the current motion estimation algorithms do not consider the inherent variations that appear in high and ultra-high definition videos. In this work an evaluation of the motion estimation in high definition videos is presented. This evaluation shows that some well know fast algorithms, that are widely used by the scientific community, do not keep the same quality results when applied to high resolution videos. It demonstrates the relevance of new fast algorithms that are focused on high definition videos. This thesis presents the development of new fast motion estimation algorithms focused in high definition video encoding. The algorithms developed in this thesis show some characteristics that make them more resilient to avoid local minima, when applied to high definition videos. Moreover, this work also aims at the development of dedicated hardware architectures for these new algorithms, focused on high definition videos. The architectural development is extremely relevant, mainly for real time applications at 30 frames per second, and also for mobile applications, where performance and power are critical issues. All developed algorithms were assessed using 10 HD 1080p test video sequences, and the results for quality and computational cost were evaluated and compared against known algorithms from the literature. The dedicated hardware architectures, developed for the new algorithms, were described in VHDL and synthesized for FPGA and ASIC. The ASIC implementation used 0.18μm and 90nm CMOS standard cells technology. The developed algorithms present quality gains in comparison to regular fast algorithms for high definition videos, and the developed architectures presents high processing rate with low hardware resources cost and power consumption.
|
296 |
Criação e visualização de domínios dinâmicos em ambientes de gerenciamento de redes / Definition and visualization of dynamic domains in network management environmentsCeccon, Márcio Bartz January 2003 (has links)
No contexto do gerenciamento de redes de computadores, domínios são recursos utilizados para agrupar objetos gerenciáveis. Os mapas de rede utilizados pelos sistemas de gerenciamento são exemplos bastante comuns do uso de domínios. Domínios são importantes porque as ações de gerenciamento podem ser aplicadas a todos os objetos gerenciáveis membros de um domínio ao mesmo tempo, não sendo necessário, então, repetir a mesma ação em cada objeto gerenciável, um a um. Domínios que necessitam ser rapidamente criados, utilizados e descartados são referenciados nesta dissertação de mestrado como domínios dinâmicos. Atualmente, na maioria dos sistemas de gerenciamento de redes não existem facilidades disponíveis para suportar o conceito desse tipo de domínios. Em relação aos aspectos de visualização, a apresentação visual de domínios deve ser realizada de forma adequada, visto que, atualmente, as GUIs estão presentes na maioria dos sistemas de gerenciamento. Entretanto, os processos de visualização de domínios utilizados pelos sistemas de gerenciamento atuais apresentam limitações em relação à configuração de características visuais dos domínios apresentados. Essas características são estáticas, não permitindo ao usuário, dessa forma, escolher como deseja visualizar um determinado domínio. Nesta dissertação de mestrado são apresentados a definição e o desenvolvimento de duas novas linguagens que têm por objetivo aperfeiçoar a criação e a visualização de domínios dinâmicos. A primeira linguagem é baseada em um modelo de informação do ambiente gerenciado e é utilizada para criar, de forma automatizada, novos domínios dinâmicos. Tal modelo de informação é formado por classes, atributos e relacionamentos entre as classes. A segunda linguagem, por sua vez, é usada para configurar características visuais dos domínios dinâmicos criados por meio da primeira linguagem. Esta dissertação apresenta, também, um protótipo desenvolvido para suportar as linguagens de criação e visualização de domínios dinâmicos criadas. A partir desse protótipo, é possível criar domínios dinâmicos relacionados a informações da rede de computadores utilizada, bem como personalizar a visualização dos domínios dinâmicos criados. Além disso, o protótipo possibilita, também, a obtenção de algumas informações dos membros dos domínios dinâmicos criados. O protótipo é baseado na Web e foi desenvolvido utilizando-se as tecnologias PRECCX, PHP, MySQL e SNMP. Como será visto ao final, as linguagens definidas e o protótipo desenvolvido mostram que o suporte a domínios dinâmicos objetivado pode ser efetivo e melhorar, sensivelmente, os processos de gerenciamento de redes. A integração da implementação desenvolvida junto ao ambiente QAME, por exemplo, permite atualmente que os administradores possam selecionar, através das linguagens, os equipamentos de uma rede com QoS que precisam ser configurados através do processo de aplicação de políticas original do QAME. / In the computer networks management context, domains are facilities used to group managed objects. The network maps presented in the management systems are the most common examples of the use of domains. Domains are important because the management actions can be applied to all managed objects that are members of a domain at the same time, not being necessary, then, to repeat the same action in each managed object one by one. Domains that need to be quickly created, used and discarded are referenced in this work as dynamic domains. Currently, in the majority of the available network management systems there are no proper facilities to support this type of domains. Concerning the visualization aspects, the domains visual presentation must be carried through of adjusted form, since, currently, the GUIs are present in the majority of the management systems. However, the domains visualization processes used by the current management systems present limitations related to the visual features configuration of the presented domains. These features are static, not allowing the user, this way, to choose how he or she desires to visualize one determined domain. This work presents the definition and the development of two new languages whose goals is to enhance the creation and the visualization of dynamic domains. The first language is based on a managed environment information model and is used to create, forming an automated fashion, new dynamic domains. Such information model is formed by classes, attributes and relationships between the classes. The second language, on its turn, is used to configure visual features of the dynamic domains created by the first language. This work also presents a prototype developed to support the defined dynamic domains creation and visualization languages. With this prototype it is possible to create dynamic domains based on the information of the computer network used, as well as customizing the visualization of the dynamic domains created. Moreover, the prototype makes possible the attainment of some members information of the dynamic domains created. The prototype is based on the Web and was developed using technologies as PRECCX, PHP, MySQL and SNMP. As will be seen in the end, the defined languages and the developed prototype shows that the desired dynamic domains support can be effective and improve, significantly, the network management processes. The integration of the implementation developed together to the QAME environment, for example, allows currently that the administrators can select, through the languages, the QoS network devices that need to be configured through the original policies application process of the QAME.
|
297 |
Dialética e definição: problemas de método na ética aristotélica / Dialectics and definition: methodological problems in Aristotles ethicsEduardo Wolf Pereira 08 May 2017 (has links)
A presente pesquisa visa caracterizar o método empregado por Aristóteles na Ethica Nicomachea a partir de uma análise que contrasta duas interpretações: de um lado, a tese já tradicional que busca ver na filosofia prática do Estagirita um método estritamente dialético; de outro, a tese alternativa, explorada apenas recentemente, que aponta o uso, na EN, de um procedimento filosófico próximo das prescrições sugeridas nos Segundos Analíticos para a busca definicional nas ciências. O núcleo da primeira tese deverá ser analisado sob duas perspectivas: (i) examinando um conjunto de textos que revelam o teor dialético da filosofia aristotélica; e (ii) avaliando o processo de expansão da noção de dialética e suas implicações para os estudos aristotélicos. Alternativamente, (i) será examinado como um modelo de tipo definicional pode reaproximar a ética do registro científico dos Segundos Analíticos sem necessariamente se valer de argumentos dialéticos. Por fim (ii), proponho uma versão deflacionária do que deve contar como método dialético em Aristóteles / The purpose of this research is to characterize the method employed by Aristotle in his Nicomachean Ethics by analyzing two different interpretations: on the one hand, the traditional thesis which considers the methodology of Aristotles practical philosophy as strictly dialectic; on the other hand, the alternative thesis, only recently explored, which indicates the use, in the NE, of a philosophical procedure similar to the prescriptions suggested by Aristotle in the Posterior Analytics for the search for definitions in the context of his scientific works. The core of the first thesis will be analyzed from two perspectives: (i) by examining a set of Aristotles texts which should reveal the dialectical character that marks Aristotelian philosophy; (ii) by evaluating the process of expansion the notion of dialectics experienced during the last century and its consequences to the study of Aristotle. The alternative view (i) will be examined in terms of a model for the search for definitions and how it can bring together the Ethics and the Posterior Analytics, on the one hand, and to avoid dialectical reasoning, on the other. Finally, I propose a deflationary version of the dialectical method.
|
298 |
Definições de caso e classificação da gravidade do dengue e suas implicações no aprimoramento da vigilância e de intervenções em Saúde Pública / Case Definitions and Classification of the Severity of dengue and its Implications in Improving Surveillance and Public Health InterventionsFredi Alexander Diaz Quijano 28 September 2011 (has links)
Objetivos: Formular uma definição de caso suspeito e de caso provável de dengue e uma classificação da sua gravidade com a finalidade de aprimorar seus indicadores de validade, conferir maior consistência aos dados da vigilância e subsidiar condutas clínicas. Metodologia: Trata-se de estudo observacional, analítico, com coleta prospectiva de dados, desenvolvido na área metropolitana de Bucaramanga (Colômbia), abrangendo pacientes recrutados entre 2003 e 2008, com síndrome febril aguda de origem desconhecida (SFA-OD), definida como febre de início recente (menos de uma semana) de origem não determinada clínicamente. As variáveis de interesse foram as demográficas, relativas a aspectos clínicos (sintomas, sinais e evolução) e laboratoriais (valores de leucócitos, plaquetas e o hematócrito). A existência de associação entre o dengue (variável dependente) e as variáveis independentes foi estimada por meio das odds ratio não ajustadas e ajustadas mediante análise de regressão logística não condicional. Por meio da análise de cluster, no subgrupo de pacientes com dengue buscamos identificar o agrupamento de pacientes com parâmetros similares de gravidade. Resultados: Foram incluídos e seguidos 1.698 pacientes com SFA-OD, entre os quais foram identificados 545 pacientes com dengue com idades entre os quatro e 85 anos. Inicialmente, a partir da análise de cluster nos casos de dengue, obtiveram-se três grupos que foram classificados em três níveis de gravidade: leve, moderada e grave, os quais estiveram relacionados com a incidência de hospitalização (0,8 por cento , 11,7 por cento e 30,5 por cento , respectivamente) e com outras variáveis como a duração da doença e alterações em alguns biomarcadores. Posteriormente, ao comparar os casos de dengue com os SFA-OD de outras etiologias, obteve-se um modelo multivariado incluindo os níveis de leucócitos e plaquetas e os seguintes sintomas: exantema, tosse e rinorréia, e sinais de prurido, hiperemia conjuntival e dor à palpação abdominal. Este modelo foi traduzido em uma escala de diagnóstico que mostrou uma área abaixo da curva ROC de 83,3 por cento para a previsão de dengue (IC95 por cento : 81 por cento - 85,5 por cento ). Essa escala foi utilizada para propor definições de caso suspeito e provável de dengue. Conclusão: As definições de caso e classificação de gravidade, propostas neste estudo, estão baseadas em uma análise de dados clínicos de pacientes de área endêmica. Portanto, esperamos que ajudem a um melhor acompanhamento das tendências do dengue, assim como, à identificação de grupos e fatores de risco para subsidiar intervenções de saúde pública. Por outro lado, sua aplicação poderia melhorar o prognóstico das suas formas graves, ao contribuir à oportuna identificação das complicações / Objectives: To develop a case definition of suspect and probable cases of dengue and a classification of its severity in order to improve their validity indicators, giving greater consistency to surveillance information and support clinical decisions. Methodology: This is a observational study with prospective data collection, developed in the metropolitan area of Bucaramanga (Colombia). This study included patients with acute febrile syndrome of unknown origin (AFS-UO), defined as fever of recent onset (less than a week) and clinically undetermined origin. Patients were enrolled between 2003 and 2008. The variables of interest were the demographic, clinical aspects (signs, symptoms and treatment) and laboratory values (leukocytes, platelets and hematocrit). The existence of an association between dengue (dependent variable) and independent variables was estimated by the odds ratio and adjusted by analysis of logistic regression. Through cluster analysis, the subgroup of dengue patients was evaluated in order to identify the groups with similar expression and magnitude of severity. Results: 1.698 patients with AFS-UO were included, of which, 545 were co nfirmed as dengue cases whose age ranged between 4 and 85 years old. Initially, from the cluster analysis in cases of dengue, we obtained three groups that were adapted for three levels of severity: mild, moderate and severe, which were related to the incidence of hospitalization (0,8 per cent , 11,7 per cent and 30,5 per cent , respectively) and other variables such as duration of disease and changes in some biomarkers. Later, when comparing the dengue cases with other etiologies, we obtained a multivariate model including the levels of leukocytes and platelets, symptoms of rash, itching, rhinorrhea and cough, and signs of conjunctival injection and pain on abdominal palpation. This model was translated to a diagnostic score that revealed an area under the ROC curve of 83.3 per cent for the prediction of dengue infection (95 per cent CI: 81 per cent - 85.5 per cent ). This scale was used to propose definitions of probable and suspected cases of dengue. Conclusion: The case definitions and classification of severity proposed in this study are based on an analysis of clinical data of patients from endemic areas. We hope that these surveillance tools contribute to better monitoring of trends of dengue, as well as the identification of risk groups to support public health interventions. Moreover, its application could improve the prognosis of severe forms through contributing to the early identification of complications
|
299 |
Comparação analítica dos esquemas de autenticação em sistemas P2P de live streaming / Comparative analisys of authentication schemes in P2P live streamingCoelho, Rafael Vieira January 2011 (has links)
As aplicações de live streaming em redes P2P têm grande potencial de crescimento, em popularidade e qualidade, mas são potencialmente vulneráveis ao ataque de poluição de conteúdo. Tal ataque corresponde a qualquer adulteração de áudio e/ou vídeo na mídia transmitida buscando ludibriar espectadores. A autenticação de blocos do fluxo de dados contínuo (stream) permite a detecção de conteúdo poluído e a possível identificação de pares maliciosos na rede P2P. A literatura contém diversas propostas de autenticação baseadas em assinatura digital leve e em amortização de assinatura digital. O presente trabalho, como nenhum anterior, compara tanto os esquemas de assinatura leve quanto os de amortização sob diferentes perspectivas de qualidade de transmissão (vídeos convencionais e de alta definição) em redes P2P de live streaming através da formularização analítica dos mesmos. Para isto, é feita uma comparação quantitativa de sobrecargas e nível de segurança, observando fenômenos e identificando desafios de pesquisa que precisarão ser vencidos. Particularmente, para avaliar a viabilidade dos esquemas, foi definido um coeficiente que leva em consideração o tempo total de transmissão e o custo computacional proporcionado pelo esquema estudado. Como uma das conclusões inéditas dessa análise, o esquema PARM2 obteve o melhor desempenho dentre os esquemas leves de assinatura. Já em relação aos esquemas de amortização, o Linear Digests se sobressaiu entre os demais. Por fim, foi analisada uma solução baseada na amortização de um esquema de assinatura leve, algo também inédito. A partir dessa análise em particular, foi possível observar que a autenticação é viável apenas com baixos e médios níveis de segurança em transmissões convencionais. Além disso, a partir dos resultados foi possível observar que o esquema de amortização Linear Digests deve ser utilizado isoladamente apenas em transmissões convencionais. Por fim, o esquema PARM2, se utilizado individualmente, não apresenta valores de coeficiente aceitáveis para os cenários estudados. / P2P live streaming applications have great potential for improvements in terms of popularity as well as quality. However, they are subject to pollution attacks, in which a malicious user tampers with audio/video of streams in order to trick other users. The authentication of blocks in a stream allows the detection of pollution in received content and can lead to the identification of malicious users. The literature includes several proposals of light digital signature schemes and amortization schemes. Our work, unlike previous ones, compares both amortization schemes and light signature schemes under di erent perspectives of transmission quality (convencional and high definition videos) in P2P live streaming by formulating equations for them. For such, it quantitatively compares overheads and security levels during P2P streaming sessions, identifying research challenges to be faced. In particular, to assess the viability of such schemes, we defined a coe cient that takes into account the total transmission time and computational cost provided by such scheme. As one of the novel findings of our analysis, the scheme PARM2 showed the best performance among light signature schemes. With respect to amortization, Linear Digests was the most e cient. Finally, we analyzed a solution based on the amortization of a light signature. From this particular analysis, we observed that the authentication is only feasible in conventional transmissions with low and medium security leves. In addition, the amortization scheme Linear Digests must be used in isolation only in conventional transmissions. Finally, the scheme PARM2, if used alone, has no acceptable coe cient values for the studied scenarios.
|
300 |
O tratamento lexicográfico de vocábulos de cores na perspectiva da semântica cognitivaBrangel, Larissa Moreira January 2011 (has links)
As definições de cores encontradas nos dicionários semasiológicos do português estão passíveis a uma série de críticas. A análise dos verbetes de cores dos dicionários AuE (2004), HouE (2001), MiE (2001) e AnMS (1813) revelou que nenhuma destas obras apresentam verbetes de cores satisfatórios no que diz respeito à elucidação do significado de uma cor. Além disso, foi constatado que poucas foram as modificações sofridas nas definições de cores das obras do século XXI quando comparadas à obra do século XIX. O fato de os verbetes de cores dos dias atuais apresentarem falhas semelhantes às dos verbetes de cores de obras editadas há quase 200 anos parece indicar uma lacuna nos estudos lexicográficos que trate das cores nos dicionários. O presente trabalho se dispõe a discutir e tentar preencher esta lacuna. Para tanto, se procurou estabelecer uma relação entre os problemas encontrados nos verbetes de cores e a teoria lexicográfica, a fim de explicar o problema e, se possível, solucioná-lo. A partir dessa primeira análise, foi constatado que os verbetes de cores precisavam ser reestruturados. Para tanto, foi necessário estabelecer parâmetros que elencassem os segmentos informativos realmente necessários em um verbete de cor, para depois, se pensar em reelaborar estes segmentos. Os segmentos informativos reestruturados foram as paráfrases explanatórias e os exemplos, e esta reestruturação se deu com base nos postulados da Semântica Cognitiva. A visão prototípica de categorização, bem como a noção de corporeidade e de experiencialismo trazidas pela Semântica Cognitiva foram bastante proveitosas na discussão a respeito do fenômeno cromático no âmbito da Lexicografia. Através da relação entre teorias lexicográficas e a Semântica Cognitiva, chegou-se à conclusão de que as paráfrases de cores simples devem ser do tipo paráfrase explanatória analítica por metalinguagem do signo extensional e contarem com exemplares universais de cor no seu viés extensional para elucidar a cor. Em relação aos exemplos, eles devem estar alicerçados em padrões sintáticos curtos e frases de construções simples, além de contarem com exemplares prototípicos culturalmente situados das categorias de cor. Em complementação a isto, as cores simples devem contar com o mecanismo de substituição ostensiva, localizado nos textos externos do dicionário, que traga uma gravura da cor definida. A gravura oferecida pelo dicionário deve corresponder à elucidação de uma categoria inteira de cor, em conformidade com os postulados da Semântica Cognitiva sobre categorias prototípicas. Em relação às cores complexas, a Teoria da Mesclagem Conceitual aponta que este tipo de cor não necessita de uma definição, uma vez que seu significado é construído através da decodificação do próprio vocábulo. A proposta oferecida para as cores complexas é que o dicionário faça uma remissão para a cor simples da qual a cor complexa deriva e localize, dentro da categoria de cor simples, a zona correspondente à cor complexa. O desenvolvimento do presente estudo levou à conclusão de que o planejamento e reestruturação dos três segmentos informativos aqui elencados (paráfrase explanatória, exemplos e elementos iconográficos) permite a elaboração de definições mais satisfatórias para vocábulos de cores em dicionários semasiológicos. / Color definitions in Portuguese semasiological dictionaries are subject to much criticism. The analysis of color entries in AuE (2004), HouE (2001), MiE (2001), and AnMS (1813) revealed that none of these dictionaries have satisfactory entries when it comes to elucidating the meaning of colors. Moreover, it was observed that color definitions are quite similar when 21th century dictionaries and a 19th century dictionary are contrasted. Finding the same problems in color definitions of current and old dictionaries may indicate a gap in lexicographic studies concerning colors. This thesis aims to discuss and fill this gap. To do so, we tried to relate problems found in color entries to lexicographical theories, in order to explain these problems and, if possible, to solve them. This first analysis led us to conclude that color entries should be restructured. So it was necessary to set parameters, which could establish necessary informative segments to a color entry, and then restructure them. The restructured informative segments were explanatory paraphrases and examples. The restructuring was based on tenets of Cognitive Semantics. The Prototypical Theory and beliefs in Embodiment and Experientialism were very useful to the discussion about the chromatic phenomenon in lexicographical fields. From relating lexicographical theories to Cognitive Semantics, we concluded that simple color paraphrases should be explanatory, analytical paraphrases based on the metalanguage of the extensional sign, and they should rely on universal models of colors in their extensional part. Examples must be founded on short syntactic patterns and sentences with simple construction, relying on culturally situated, prototypical models of color categories. Besides this, simple colors must rely on ostensive replacement, situated in additional sections of the dictionary, which offer a picture of the related color. The picture has to represent/illustrate the entire category of that color, in accordance with the tenets of Cognitive Semantics about prototypical categories. Regarding complex colors, Conceptual Blending Theory shows that this kind of color does not require a definition, once its meaning is constructed by the decoding of the word itself. Our proposal concerning the lexicographical treatment of complex colors is to indicate them within the picture of simple colors. This study led us to conclude that, if one plans and restructures the three informative segments showed here (explanatory paraphrases, examples, and pictures), it is possible to provide more complete definitions of color words in semasiological dictionaries.
|
Page generated in 0.0284 seconds