• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 146
  • 10
  • 9
  • Tagged with
  • 165
  • 165
  • 54
  • 48
  • 43
  • 28
  • 27
  • 22
  • 21
  • 20
  • 18
  • 18
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Núcleos de interface de memória DDR SDRAM para sistemas-em-chip

Bonatto, Alexsandro Cristóvão January 2009 (has links)
Dispositivos integrados de sistemas-em-chip (SoC), especialmente aqueles dedicados às aplicações multimídia, processam grandes quantidades de dados armazenados em memórias. O desempenho das portas de memória afeta diretamente no desempenho do sistema. A melhor utilização do espaço de armazenamento de dados e a redução do custo e do consumo de potência dos sistemas eletrônicos encorajam o desenvolvimento de arquiteturas eficientes para controladores de memória. Essa melhoria deve ser alcançada tanto para interfaces com memórias internas quanto externas ao chip. Em sistemas de processamento de vídeo, por exemplo, memórias de grande capacidade são necessárias para armazenar vários quadros de imagem enquanto que os algoritmos de compressão fazem a busca por redundâncias. No caso de sistemas implementados em tecnologia FPGA é possível utilizar os blocos de memória disponíveis internamente ao FPGA, os quais são limitados a poucos mega-bytes de dados. Para aumentar a capacidade de armazenamento de dados é necessário usar elementos de memória externa e um núcleo de propriedade intelectual (IP) de controlador de memória é necessário. Contudo, seu desenvolvimento é uma tarefa muito complexa e nem sempre é possível utilizar uma solução "sob demanda". O uso de FPGAs para prototipar sistemas permite ao desenvolvedor integrar módulos rapidamente. Nesse caso, a verificação do projeto é uma questão importante a ser considerada no desenvolvimento de um sistema complexo. Controladores de memória de alta velocidade são extremamente sensíveis aos atrasos de propagação da lógica e do roteamento. A síntese a partir de uma descrição em linguagem de hardware (HDL) necessita da verificação de sua compatibilidade com as especificações de temporização pré-determinadas. Como solução para esse problema, é apresentado nesse trabalho um IP do controlador de memória DDR SDRAM com função de BIST (Built-In Self-Test) integrada, onde o teste de memória é utilizado para verificar o funcionamento correto do controlador. / Many integrated Systems-on-Chip (SoC) devices, specially those dedicated to multimedia applications, process large amounts of data stored on memories. The performance of the memories ports directly affects the performance of the system. Optimization of the usage of data storage and reduction of cost and power consumption of the electronic systems encourage the development of efficient architectures for memory controllers. This improvement must be reached either for embedded or external memories. In systems for video processing, for example, large memory arrays are needed to store several video frames while compression algorithms search for redundancies. In the case of FPGA system implementation, it is possible to use memory blocks available inside FPGA, but for only a few megabytes of data. To increase data storage capacity it is necessary to use external memory devices and a memory controller intellectual property (IP) core is required. Nevertheless, its development is a very complex task and it is not always possible to have a custom solution. Using FPGA for system prototyping allows the developer to perform rapid integration of modules to exercise a hardware version. In this case, test is an important issue to be considered in a complex system design. High speed memory controllers are very sensitive to gate and routing delays and the synthesis from a hardware description language (HDL) needs to be verified to comply with predefined timing specifications. To overcome these problems, a DDR SDRAM controller IP was developed which integrate the BIST (Built-In Self-Test) function, where the memory test is used to check the correct functioning of the DDR controller.
142

Arquiteturas para um dispositivo de demarcação ethernet

Horna, Chris Dennis Tomas January 2009 (has links)
Na atualidade, as redes públicas de comunicação de dados representam uma nova oportunidade para a aplicação das tecnologias IEEE 802 (baseadas na tecnologia Ethernet). Tanto nas redes de acesso, como nas redes metropolitanas e de núcleo, existe uma crescente demanda pela instalação de equipamentos com grande número de interfaces Ethernet. Em alguns casos, opta-se por equipamentos capazes de emular os serviços das tecnologias legadas ATM/SDH sobre Ethernet e viceversa. Nesse sentido, novos protocolos e novas formas de transmissão de dados utilizando a tecnologia Ethernet estão surgindo para consolidar a convergência das redes de comutação de circuitos (infraestrutúra legada) e as redes de comutação de pacotes; com a ideia de constituir uma rede mais homogênea, flexível e de baixo custo. Um claro exemplo é a adessão dos protocolos de Operação, Administração e Manuntenção (OAM) nas redes Ethernet, os quais permitem um nível de controle semelhante ao de tecnologias como ATM e SDH. OAM possibilita a monitoração de falhas na rede, a configuração e o acompanhamento dos eventos de segurança, assim como também a contabilização de tráfego por assinante; permitindo desta forma o atendimento de diferentes SLAs (Service-Level Agreements) de clientes. Para que isto seja uma realidade, é muito importante reforçar o controle da borda que delimita a rede do cliente final da rede pública. Com esse fim, estão surgindo normas como a IEEE P802.1aj, que define um dispositivo de demarcação de rede que serve como entidade controladora de serviços entre o provedor e o cliente final; sendo sua principal característica o suporte OAM no enlace com o provedor de serviços. Este dispositivo - conhecido comercialmente como Ethernet Demarcation Device (EDD)- é o foco do presente trabalho. Este trabalho tem como objetivo principal desenvolver arquiteturas System-on-a-Programable Chip (SoPC) para um EDD de duas portas, partindo do desenvolvimento de módulos de propriedade intelectual (IP). Foram projetadas duas arquiteturas de EDD, as quais permitem o encaminhamento de pacotes entre duas portas Ethernet e incorporam um processador MicroBlaze para implementação Software do protocolo OAM, segundo a norma IEEE 802.3ah. Como resultado, foram elaborados 7 módulos IP: Módulo Fast Ethernet MAC (FEMAC), Módulo Gigabit Ethernet MAC (GEMAC), Módulo Packet FIFO, Módulo OAM Ethernet, Módulo MII Managment (MIIM), Módulo PHY Ethernet PCS/PMA 1000Base-X (PHY1000X) e Módulo Bit-Error Rate Tester (BERT). Todos os módulos foram descritos em VHDL e logo sintetizados para um dispositivo FPGA da família Virtex-II Pro da Xilinx, quanto para standard-cells utilizando a tecnologia CMOS AMS 0.35μm únicamente nos Módulos FEMAC e GEMAC. Os resultados de síntese mostram que o Módulo MIIM e o Módulo PHY1000X possuim um melhor aproveitamento de recursos de área que seus equivalentes disponíveis no OpenCores e no CoreGen da Xilinx, respectivamente. As arquiteturas SoPC foram prototipadas sobre a placa de desenvolvimento AVNET Virtex-II Pro, a qual permite comunicação com dispositivos de rede através de interfaces elétricas e ópticas. Finalmente, é proposta uma metodologia de validação física das arquiteturas alvo para estas atenderem o regime de vazão máxima (1Gbit/s ou 100Mbit/s), assim como também testes de conformidade como os definidos pela norma IEEE 802.3. / Nowadays, public networks represent a new opportunity for the application of IEEE 802 technologies, which have their basis on Ethernet Technology. In both Access and Metropolitan and Core networks there is a growing demand for the installation of equipments with a large number of Ethernet interfaces. In some cases, equipments capable of emulating the services of the ATM/SDH legacy technologies over Ethernet (and vice versa) are chosen. In this manner, new protocols and data transmission forms using Ethernet technology are emerging in order to consolidate the convergence of circuit switching networks (traditional infrastructure) and packet switching networks; with the common objetive of constituting a more uniform, flexible, low-cost network. A good example is the incorporation of Operation, Administration and Maintenance (OAM) protocols in Ethernet networks, which allow a control level similar to that one of technologies such as ATM and SDH. OAM allows the monitoring of network fails, the configuration and tracking the security events, as well as the counting of traffic per client in a way that permits to attend several SLAs (Service-Level Agreements). In order to bring this to reality, it is critical to reinforce the control of the edge which limits the client network from the public networks. With this aim, standards such as IEEE P802.1aj are emerging; this standard defines a network demarcation device, which is used as a service controlling entity between the provider and the end customer, having as main feature the OAM support in the link with the service provider. This work is focused on this device, commercially known as Ethernet Demarcation Device (EDD). The principal objective of this work is to develop SoPC (System-on-a-Programable chip) architectures for an EDD, starting from the development of Intellectual Property Cores (IP). Two EDD architectures were designed, which allow the packet forwarding between two Ethernet interfaces and incorporate a Soft processor Microblaze for the SW implementation of the OAM protocol according to the standard IEEE802.3ah. As a result, eight IP cores were elaborated: Soft IP Core Fast Ethernet MAC (FEMAC), Soft IP Core Gigabit Ethernet MAC (GEMAC), Soft IP Core Packet FIFO, Soft IP Core OAM Ethernet, Soft IP Core MII Managment (MIIM), Soft IP Core PHY Ethernet PCS/PMA 1000Base-X (PHY1000X) and the Soft IP Core Bit-Error Rate Tester (BERT). All IP modules were described in VHDL and then synthesized for the FPGA Xilinx Virtex-II Pro device, as well as for standard-cells using the CMOS AMS 0.35um technology for the modules FEMAC and GEMAC. The synthesis results show that the module MIIM and module PHY1000X have a better use of the area resources than the ones available in OpenCores and CoreGen of Xilinx respectively. The SoPC architectures were prototyped on AVNET Virtex-II Pro Development kit Board, which allows communication with network devices through electrical and optical interfaces. Finally, we propose a validation methodology of both architecture so these are able to attend a maximum throughput regimen (1Gbit/s ou 100Mbit/s), as well as appropriate levels of approval with what standard IEEE 802.3 defines.
143

Minerador WEB: um estudo sobre mecanismos de descoberta de informações na WEB. / Minerador WEB: a study on mechanisms of discovery of information in the WEB.

Toscano, Wagner 10 July 2003 (has links)
A Web (WWW - World Wide Web) possui uma grande quantidade e variedade de informações. Isso representa um grande atrativo para que as pessoas busquem alguma informação desejada na Web. Por outo lado, dessa grande quantidade de informações resulta o problema fundamental de como descobrir, de uma maneira eficaz, se a informação desejada está presente na Web e como chegar até ela. A existência de um conjunto de informações que não se permitem acessar com facilidade ou que o acesso é desprovido de ferramentas eficazes de busca da informção, inviabiliza sua utilização. Soma-se às dificuldades no processo de pesquisa, a falta de estrutura das informações da Web que dificulta a aplicação de processos na busca da informação. Neste trabalho é apresentado um estudo de técnicas alternativas de busca da informação, pela aplicação de diversos conceitos relacionados à recuperação da informação e à representação do conhecimento. Mais especificamente, os objetivos são analisar a eficiência resultante da utilização de técnicas complementares de busca da informação, em particular mecanismos de extração de informações a partir de trechos explícitos nos documentos HTML e o uso do método de Naive Bayes na classificação de sites, e analisar a eficácia de um processo de armazenamento de informações extraídas da Web numa base de conhecimento (descrita em lógica de primeira ordem) que, aliada a um conhecimento de fundo, permita respomder a consultas mais complexas que as possíveis por meio do uso de expressões baseadas em palavras-chave e conectivos lógicos. / The World Wide Web (Web) has a huge amount and a large diversity of informations. There is a big appeal to people navigate on the Web to search for a desired information. On the other hand, due to this huge amount of data, we are faced with the fundamental problems of how to discover and how to reach the desired information in a efficient way. If there is no efficient mechanisms to find informations, the use of the Web as a useful source of information becomes very restrictive. Another important problem to overcome is the lack of a regular structure of the information in the Web, making difficult the use of usual information search methods. In this work it is presented a study of alternative techniques for information search. Several concepts of information retrieval and knowledge representation are applied. A primary goal is to analyse the efficiency of information retrieval methods using analysis of extensional information and probabilistic methods like Naive Bayes to classify sites among a pre-defined classes of sites.Another goal is to design a logic based knowledhe base, in order to enable a user to apply more complex queries than queries based simply on expressions using keywouds and logical connectives
144

Sincronismo para sistemas de transmiss?o digital multiportadora baseado em redes neurais artificiais

Ribeiro, Cl?vis Rodrigo 31 August 2007 (has links)
Made available in DSpace on 2015-04-14T13:56:40Z (GMT). No. of bitstreams: 1 396310.pdf: 1729266 bytes, checksum: 48934bc9869e2126987507a0889f7bce (MD5) Previous issue date: 2007-08-31 / Um dos problemas de dif?cil solu??o em transmiss?o digital e talvez o principal deles ? o sincronismo entre transmissor e receptor. Sem um sistema de sincronismo n?o ? poss?vel sequer iniciar o processo de demodula??o no receptor. Abordaremos neste trabalho a utiliza??o de Redes Neurais Artificiais do tipo RBF (Fun??es de Base Radial), para a solu??o de um aspecto deste problema o sincronismo de frame em sistemas multiportadora, propondo, assim, um novo m?todo de sincronismo que compararemos com o cl?ssico m?todo de sincronismo de frame por correla??o. Os resultados demonstraram uma melhora consider?vel na FSER (Frame Synchronization Error Rate) do m?todo proposto em rela??o ao m?todo de sincronismo por correla??o, para qualquer dura??o de intervalo de guarda (IG).
145

Estudo de desempenho de sistemas de visualização de imagens mamográficas correlacionados com qualidade de imagem / Study of the performance of visualization mammographic systems images correlated with image quality

Danielle Soares Gomes 03 June 2014 (has links)
Para as análises de imagens mamográficas, médicos radiologistas fazem uso de monitores médicos especializados, capazes de proporcionar laudos seguros, uma vez que devem oferecem resolução adequada, níveis corretos de luminância e contraste dentro do padrão DICOM - Digital Imaging and Communications in Medicine (Comunicação de Imagens Digitais na Medicina). Este trabalho teve como objetivo avaliar a qualidade dos monitores específicos para mamografia digital, através de testes propostos pelo Report N 3 da American Association of Physicists in Medicine AAPM usando medidores calibrados de luminância (fotômetro) e padrões TG18 em testes quantitativos e qualitativos. Avaliou-se as condições de luz ambiente e outros indicadores básicos de desempenho, como, distorção geométrica, ruído, resolução, reflexão, uniformidade da luminância, o cumprimento resposta contraste de luminância para padrão DICOM e padrão anatômico das mamas. Em resposta, o teste que mais apresentou não conformidade foi à variação excessiva com o padrão de resposta contraste DICOM Grayscale Standard Display Function (GSDF), apresentando não conformidade em (100%) dos monitores analisados. Nos demais testes, todos os monitores de 5MP e o de 3MP apresentaram conformidade nos parâmetros avaliados. Em uma ação corretiva para as não conformidades, indica-se a realização de calibrações e procedimentos de verificação de controle de qualidade feitas por profissionais capacitados ou orientados. / For the analysis of mammographic images, radiologists make use of specific medical monitors, able to provide insurance reports, as they offer appropriate resolution, correct levels of luminance and contrast within the standard DICOM - Digital Imaging and Communications in Medicine (Communication Images digital in Medicine). This study aims to evaluate the quality of specific monitors for digital mammography, by testing the calibrated luminance meters (photometer) and TG18 standards in quantitative and qualitative methods proposed by Report No. 3 of American Association of Physicists in Medicine AAPM. It was evaluated the ambient light conditions and other basic performance indicators, such as, the as geometric distortion, noise, resolution, reflection, luminance uniformity, contrast luminance response compliance to DICOM standard and anatomical pattern of the breasts. The results showed that non-compliance test fails when visualizing low-contrast objects (100% of monitors analyzed) in the response pattern contrast DICOM Grayscale Standard Display Function (GSDF). For the other tests, all monitors of 5 and 3MPixel presented in agreement to the evaluated parameters. For a further corrective action for instance, non-compliance, it may be indicate to perform calibrations and verification of quality control developed by trained or oriented professionals.
146

Protocolo experimental de testes de desempenho e dosimetria para tomossíntese digital de mama / Experimental protocol of performance tests and dosimetry for digital breast tomosynthesis

Bruno Beraldo Oliveira 06 October 2014 (has links)
Nenhuma / O sistema de tomossíntese digital de mama (Digital Breast Tomosynthesis, DBT) é uma modalidade de imagem emergente que fornece informações estruturais quase tridimensionais (3D) da mama. Este sistema possui um grande potencial para substituir ou complementar a mamografia padrão no diagnóstico do câncer de mama. A melhoria na diferenciação de tecidos normais e massas suspeitas é uma das principais vantagens do sistema DBT, que proporciona uma redução das sobreposições dos tecidos, principal problema da mamografia. No Brasil, os testes de desempenho e a dosimetria para mamógrafos convencionais são estabelecidos pela Portaria n 453/98 do Ministério da Saúde e pela Agência Nacional de Vigilância Sanitária. Porém, não há nenhum protocolo nacional que estabeleça os testes para o controle de qualidade de equipamentos digitais. A proposta deste trabalho foi investigar os resultados dos testes de desempenho e da dosimetria de um mamógrafo que utiliza o sistema DBT a fim de elaborar um documento que contenha testes de qualidade e o procedimento adequado de dosimetria para avaliar fisicamente estes equipamentos. Para determinar o adequado desempenho do mamógrafo, foi avaliada a estrutura do equipamento através dos testes de força e alinhamento da bandeja de compressão. Para avaliar o detector, foram realizados testes de linearidade e uniformidade da sua resposta. A fim de verificar a imagem produzida, o mamógrafo foi submetido aos testes de ruído, resolução espacial e qualidade da imagem utilizando objetos simuladores. Por fim, foi realizada a dosimetria do equipamento visando à otimização do procedimento. A otimização significa manter o nível de radiação tão baixo quanto razoavelmente exequível, considerando a qualidade da imagem, para proporcionar um diagnóstico preciso. A fim de garantir a confiabilidade dos resultados de dosimetria, os equipamentos utilizados foram submetidos a testes de fuga, repetibilidade, reprodutibilidade e dependência angular. Os resultados dos testes de desempenho realizados no equipamento com sistema DBT estavam em conformidade com a maioria dos valores de referência estabelecidos. Considerando as incertezas nas medições, todos os valores calculados na dosimetria estavam de acordo com os níveis de referência adotados internacionalmente. Este trabalho contribuiu para estabelecer o procedimento adequado dos testes de controle de qualidade e dosimetria em mamógrafos que utilizam o sistema DBT. A metodologia e os resultados obtidos são importantes, pois fazem parte de um documento pioneiro para avaliação destes equipamentos. / The Digital Breast Tomosynthesis (DBT) system is an emerging image modality that provides almost three-dimensional (3D) structural informations of the breast. This system has a great potential to replace or complement the standard mammography in the diagnosis of the breast cancer. The improvement in differentiation of normal tissues and suspicious masses is one of the main advantages of the DBT system, which provides a tissue overlap reduction, the main problem of mammography. In Brazil, the performance tests and dosimetry for analogic mammography units are established by the Ministry of Health Ordinance n 453/98 and the National Health Surveillance Agency. However, there is no national protocol establishing tests for the quality control of digital equipments. The purpose of this study was to investigate performance and dosimetry results of a mammography unit that uses the DBT system to elaborate a document that contains quality tests and the proper dosimetry procedure to evaluate these equipments physically. For the determination of the adequate performance of the mammographic unit, the structure of this equipment was evaluated through tests of strength and alignment of the compression paddle. For the detector assessment, tests of linearity and uniformity of its response were performed. In order to verify the image produced, the mammographic unit was submitted to noise, spatial resolution and image quality tests using phantoms. Finally, the dosimetry of this equipment was performed in order to optimize the procedure. The optimization means to maintain the level of radiation as low as reasonably achievable, considering the image quality to provide an accurate diagnosis. The equipments used were submitted to leakage current, repeatability, reproducibility and angular dependence tests to ensure the reliability of dosimetry results. Results of performance tests performed in the equipment with DBT system were in accordance with the most of reference values established. Considering the uncertainties in the measurements, all calculated values in dosimetry were in agreement with the reference levels adopted internationally. This work contributed to establish the proper procedure of quality control tests and dosimetry in mammographic units that use DBT systems. The methodology and results obtained are important because they are part of a pioneer document to evaluate these equipments.
147

Sistema gerenciador de documentação de projeto / A design trace management system

Soares, Sandro Neves January 1996 (has links)
A complexidade do projeto de sistemas eletrônicos, devido ao número de ferramentas envolvidas, ao grande volume de dados gerado e a natureza complicada destes dados, foi a causa principal do aparecimento, no final da década de 80, dos frameworks. Frameworks são plataformas que suportam o desenvolvimento de ambientes de projeto e que tem, como objetivo principal, liberar os projetistas das tarefas acessórias dentro do processo de projeto (como, por exemplo, a gerencia dos dados criados), possibilitando-lhes direcionar os esforços, exclusivamente, para a obtenção de melhores resultados, em menor tempo e a baixo custo. Para a realização deste objetivo, diversas técnicas são utilizadas na construção dos frameworks. Uma delas é conhecida como documentação dos passos de projeto. A documentação dos passos de projeto é um recurso utilizado para manter a história do projeto (usualmente, ferramentas executadas e dados gerados). Ela tem sido amplamente utilizada em trabalhos relacionados a frameworks. Porém, nenhum destes trabalhos aproveita toda a potencialidade do recurso. Alguns utilizam-no apenas nos serviços relacionados a gerencia de dados. Outros, utilizam-no apenas nos serviços relacionados a gerencia de projeto. A proposta deste trabalho, então, é a criação de um sistema que explore toda a potencialidade da documentação dos passos de projeto, disponibilizando, a partir daí, informações e serviços a outros sub-sistemas do framework, de forma a complementar a funcionalidade destes, tornando-os mais abrangentes e poderosos. / The VLSI design complexity, due to the number of involved tools, the enormous generated data volume and the complex nature of the data, was the main cause of the appearance of the frameworks in the end of the 80's. Frameworks are platforms that support the development of design environments and, as their main purpose, liberate the VLSI designers from the supplementary tasks in the design process, as the data management. It makes possible to direct efforts exclusively to obtaining better results, in shorter time and with lower costs. To this purpose, many techniques have been used in the implementation of frameworks. One of these techniques is known as design steps documentation. The design steps documentation is a resource used to keep the design history (usually, executed tools and generated data). It has been widely used in various frameworks. But none of them take full advantage of this resource. Some of them use the design steps documentation only in the data management services. Others, use it only in the design management services. So, the proposal of this work is to create a system that takes full advantage of the design steps documentation, providing information and services to other sub-systems of the framework to complement their functionality, making them more powerful.
148

Gerente de configurações para o ambiente STAR / Configuration manager to STAR framework

Ribeiro, Helena Grazziotin January 1993 (has links)
Este trabalho apresenta os mecanismos de gerencia de configurações para o ambiente STAR. STAR é uma plataforma para o desenvolvimento de ambientes para projetos de circuitos e sistemas eletrônicos que está sendo desenvolvido na Universidade Federal do Rio Grande do Sul em cooperação com o Centro Científico da IBM no Rio de Janeiro. Seus objetos de projeto caracterizam-se como sistemas complexos e são representados através de um modelo de dados hierárquico, que tem por base a composição de objetos. Para expressar a evolução dos objetos de projeto no tempo utiliza-se versões, que mantêm as descrições dos objetos num determinado instante de tempo. O mecanismo de gerência de versões é fortemente relacionado à representação dos dados, suportando as diferentes dimensões que essa representação permite: visões, alternativas e revisões. A utilização de versões associada à composição de objetos faz com que se possa ter diversas possibilidades de descrição para um mesmo sistema complexo, em função da combinação das versões. Para que se possa submeter um objeto de projeto a uma ferramenta, como um simulador, épreciso selecionar versões de modo a obter uma descrição única, que é a sua configuração. A existência de um gerente de configurações dá agilidade a essa tarefa, pois ele oferece recursos para facilitar e tornar mais rápida a construção de configurações, através de manipulação e consultas a informações obtidas junto ao ambiente sobre os objetos de projeto. As configurações no STAR são determinadas a partir do atributo de referência dos componentes ou através da definição de um objeto - configuração. O gerente de configurações proposto para o ambiente neste trabalho suporta o estabelecimento de configurações estáticas, dinâmicas e abertas. Elas podem ser estabelecidas manualmente, através de escolhas do usuário, automaticamente, através da escolha entre um dos critérios pré-estabelecidos, ou de modo semi-automático, através da definição de uma expressão de configuração. Os critérios pré-estabelecidos têm por base a versão corrente e a versão mais recente. A utilização de expressões de configuração permite que se selecione versões com mais objetividade, uma vez que sua construção é feita a partir de características dos objetos, dadas por seus atributos, que permitem restringir as versões selecionadas àquelas cujas características são desejadas. A linguagem que permite a definição de expressões de configuração é um dos recursos estabelecidos que facilitam a tarefa do usuário. Outro recurso provido é a possibilidade de armazenar configurações. Isso torna possível sua reutilização em outros momentos e também por outros objetos, e preserva a flexibilidade de mantê-las como dinâmicas, ou abertas, apesar de já ter-se escolhido versões para complementá-las. Para tanto, tem-se como parte do modelo de dados os objetos-configuração, sobre os quais foram estabelecidas operações de criação, alteração, cópia, remoção, consulta e escolha de objetos. O funcionamento destas operações é a base do processo de configuração. / This work presents the mechanisms for configuration management in the STAR framework. STAR is an electronic design automation framework, under development at the University of Rio Grande do Sul in cooperation with the IBM Rio Scientific Center at Rio de Janeiro, Brazil. The design objects supported are complex systems and they are represented through a hierarchical data model. Versions are used to express the evolution process of design objects. The version management mechanism developed is strongly related with the data representation, and it supports the different dimensions of versions: views, alternatives and revisions. The use of versions associated with composite objects allows the existence of many possibilities of description for the same complex system, as a consequence of different versions combination. When submitting a design object to a design tool, like a simulator, it is necessary to select versions for components in order to obtain a single object description, called the object configuration. A configuration manager offers resources, as manipulation and query on design objects in the framework, to make version selection in configuration construction easy and fast. STAR configurations are established through component reference attributes or through a configuration object definition. The configuration management mechanism developed for the STAR framework in this work supports static, dynamic and open configurations. They are established in a manual, automatic or semi-automatic way. In the manual way, the user is responsible for choosing the selected versions. In the automatic way, it is possible to choose between the current version and the most recent version, which are pre-defined criteria. The user can define and use configuration expressions in a semi-automatic way. These expressions make the version selection objective, due to use of objects attributes, representing objects characteristics in the expression. The use of configuration expressions allows the selection of versions with specific characteristics. A language is available for the definition of configuration expressions. The possibility to store configurations is provided. Configurations may be reused in another time and by other objects. The possibility to store configurations allows them remain either dynamic or open, even if the choose of versions to complement them had been done. To make this possible, configuration objects are integrated in the data model. Operations on configuration objects are: create, update, copy, delete, query and select. These operations are the basis of the configuration process.
149

Desenvolvimento arquitetural para a predição intraquadro do padrão HEVC de codificação de vídeos

Corrêa, Marcel Moscarelli 13 February 2017 (has links)
Submitted by Aline Batista (alinehb.ufpel@gmail.com) on 2017-03-24T19:14:01Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Desenvolvimento arquitetural para a predição intraquadro do padrão HEVC de codificação de vídeos.pdf: 11703839 bytes, checksum: b4fcaf7b13849f6ab8c064bbe056ca11 (MD5) / Approved for entry into archive by Aline Batista (alinehb.ufpel@gmail.com) on 2017-04-05T19:13:18Z (GMT) No. of bitstreams: 2 Desenvolvimento arquitetural para a predição intraquadro do padrão HEVC de codificação de vídeos.pdf: 11703839 bytes, checksum: b4fcaf7b13849f6ab8c064bbe056ca11 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-04-05T19:13:26Z (GMT). No. of bitstreams: 2 Desenvolvimento arquitetural para a predição intraquadro do padrão HEVC de codificação de vídeos.pdf: 11703839 bytes, checksum: b4fcaf7b13849f6ab8c064bbe056ca11 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-02-13 / Sem bolsa / A codificação de vídeo é uma área essencial atualmente devido ao crescente aumento do número de aplicações e dispositivos eletrônicos capazes de manipular vídeos digitais de alta resolução. Com o aumento da diversidade de aplicações e com o surgimento de resoluções muito grandes como UHD 4K (3840x2160 pixels) e UHD 8K (7680x4320 pixels), foi concebido o padrão HEVC, o mais recente padrão de codificação de vídeo elaborado pelos grupos ITU-T VCEG e ISO/IEC MPEG. O HEVC é capaz de atingir as mais elevadas taxas de compressão e qualidade visual dentre todos os padrões já desenvolvidos por estes grupos. Nos padrões de codificação de vídeo, a predição intraquadro é o módulo responsável por reduzir a redundância espacial entre amostras vizinhas dentro de um mesmo quadro. O padrão HEVC define diversas novas técnicas para a predição intraquadro, tornando-a muito mais eficiente e complexa. Esta dissertação apresenta o desenvolvimento arquitetural de soluções para o módulo de predição intraquadro do padrão HEVC com diferentes objetivos de taxa de processamento, qualidade de compressão, custo em área e dissipação de potência. Todas arquiteturas desenvolvidas foram descritas em VHDL e sintetizadas para tecnologia NanGate 45 nm 0,95 v. Os resultados mostram que as arquiteturas atingem seus diferentes objetivos individuais de utilização de recursos de hardware, dissipação de potência, eficiência energética, taxa de processamento e eficiência de compressão. A principal solução proposta utiliza 4952K gates e, quando operando em uma frequência de 529 MHz, é capaz de processar vídeos UHD 8K em uma taxa de 120 quadros por segundo, com uma dissipação de 363 mW de potência e com uma eficiência energética de 32,02 pJ/amostra. Quando comparadas aos trabalhos relacionados, as soluções propostas apresentam resultados satisfatórios e competitivos. / Video coding is an essential area due to the increasing number of applications and devices that are able to handle high definition digital videos. The HEVC is the most recent and most efficient video coding standard created by the ITU-T VCEG and ISO/IEC MPEG groups, and its development was motivated by the increasing diversity of services and the emergence of beyond-HD formats such as UHD 4K (3840x2160 pixels) and UHD 8K (7680x4320 pixels). The intrapicture prediction is responsible to reduce spatial redundancy between samples inside the same frame. The HEVC standard defines several new techniques, which increase the intra prediction efficiency, but also increase its complexity. This work presents the development of hardware architectures for the HEVC intra prediction, considering different targets of compression efficiency, throughput, area cost, power dissipation and energetic efficiency. All designs were described in VHDL and synthesized using the NanGate 45 nm 0.95 v cell library. The main solution uses 4952K gates and, when running at a frequency of 529 MHz, it is able to process UHD 8K videos at 120 frames per second with a power dissipation of 363 mW and an energetic efficiency of 32.02 pJ/sample. When compared to related works, the developed architectures presented very competitive results.
150

Minerador WEB: um estudo sobre mecanismos de descoberta de informações na WEB. / Minerador WEB: a study on mechanisms of discovery of information in the WEB.

Wagner Toscano 10 July 2003 (has links)
A Web (WWW - World Wide Web) possui uma grande quantidade e variedade de informações. Isso representa um grande atrativo para que as pessoas busquem alguma informação desejada na Web. Por outo lado, dessa grande quantidade de informações resulta o problema fundamental de como descobrir, de uma maneira eficaz, se a informação desejada está presente na Web e como chegar até ela. A existência de um conjunto de informações que não se permitem acessar com facilidade ou que o acesso é desprovido de ferramentas eficazes de busca da informção, inviabiliza sua utilização. Soma-se às dificuldades no processo de pesquisa, a falta de estrutura das informações da Web que dificulta a aplicação de processos na busca da informação. Neste trabalho é apresentado um estudo de técnicas alternativas de busca da informação, pela aplicação de diversos conceitos relacionados à recuperação da informação e à representação do conhecimento. Mais especificamente, os objetivos são analisar a eficiência resultante da utilização de técnicas complementares de busca da informação, em particular mecanismos de extração de informações a partir de trechos explícitos nos documentos HTML e o uso do método de Naive Bayes na classificação de sites, e analisar a eficácia de um processo de armazenamento de informações extraídas da Web numa base de conhecimento (descrita em lógica de primeira ordem) que, aliada a um conhecimento de fundo, permita respomder a consultas mais complexas que as possíveis por meio do uso de expressões baseadas em palavras-chave e conectivos lógicos. / The World Wide Web (Web) has a huge amount and a large diversity of informations. There is a big appeal to people navigate on the Web to search for a desired information. On the other hand, due to this huge amount of data, we are faced with the fundamental problems of how to discover and how to reach the desired information in a efficient way. If there is no efficient mechanisms to find informations, the use of the Web as a useful source of information becomes very restrictive. Another important problem to overcome is the lack of a regular structure of the information in the Web, making difficult the use of usual information search methods. In this work it is presented a study of alternative techniques for information search. Several concepts of information retrieval and knowledge representation are applied. A primary goal is to analyse the efficiency of information retrieval methods using analysis of extensional information and probabilistic methods like Naive Bayes to classify sites among a pre-defined classes of sites.Another goal is to design a logic based knowledhe base, in order to enable a user to apply more complex queries than queries based simply on expressions using keywouds and logical connectives

Page generated in 0.0897 seconds