291 |
Arquitetura para extração de características invariantes em imagens binárias utilizando dispositivos de lógica programável complexa / Architectures for the extraction of invariant characteristics from binary images using logic programmable devicesGuilherme Henrique Renó Jorge 17 August 2006 (has links)
Os projetistas de sistemas digitais enfrentam sempre o desafio de encontrar o balanço correto entre velocidade e generalidade de processamento de seu hardware. Originalmente dispositivos de lógica programável de alta densidade como FPGAs (Field Programable Gate Arrays) e CPLDs (Complex Logic Programmable Devices) vinham sendo utilizados como dispositivos de lógica acoplada(glue logic), reduzindo significantemente o número de componentes em um sistema. Seu uso como forma de substituir arquiteturas já existentes de microcontroladores e microprocessadores já é uma realidade. A representação e reconhecimento de objetos em imagens de duas dimensões é um tópico importante. Uma forma comum de se fazer a representação de um objeto ou uma imagem é a utilização de momentos da função de intensidade de um grupo de pixels. Devido ao alto custo computacional para o cálculo desses momentos tem sido importante a busca por arquiteturas que de alguma forma agilizem o cálculo dos mesmos. Um problema enfrentado por arquiteturas desenvolvidas atualmente para trabalhar em forma de periférico com um computador pessoal (PC) ou uma estação de trabalho é a velocidade do barramento de transferência de dados. Interfaces de uso mais simples, como USB (Universal Serial Bus) ou Ethernet, têm sua taxa de transferência na casa dos megabytes por segundo. Uma solução para esse problema é o uso do barramento PCI, as transferências feitas nesse barramento podem chegar à casa dos gigabytes por segundo. Esse trabalho vem apresentar uma arquitetura, em forma de soft core totalmente compatível com o padrão Wishbone, para a extração de características invariantes em imagens binárias utilizando-se de dispositivos de lógica programável complexa. Desse modo torna-se possível o uso do barramento PCI para a transmissão de dados para um microcomputador ou uma estação de trabalho. / A challenge for digital systems designers is to meet the balance between speed and flexibility was always. FPGAs and CPLDs where used as glue logic, reducing the number of components in a system. The use of programmable logic (CPLDs and FPGAs) as an alternative to microcontrollers and microprocessors is a real issue. Moments of the intensity function of a group of pixels have been used for the representation and recognition of objects in two dimensional images. Due to the high cost of computing the moments, the search for faster computing architectures is very important. A problem faced by nowadays developed architectures is the speed of computer communication buses. Simpler interfaces, as USB (Universal Serial Bus) and Ethernet, have their transfer rate in megabytes per second. A solution for this problem is the use the PCI bus, where the transfer rate can achieve gigabytes per second. This work presents a soft core architecture, fully compatible with the Wishbone standard, for the extraction of invariant characteristics from binary images using logic programmable devices.
|
292 |
Nanopartículas magnéticas de cobalto metálico e ferrita de cobalto recobertas com ouro como materiais biocompatíveis visando aplicações em biomedicina / Magnetic nanoparticles of gold-coated cobalt and cobalt ferrite as biocompatible materials for biomedical applicationsJoão Batista Souza Junior 24 May 2012 (has links)
Atualmente, as nanopartículas superparamagnéticas despertam enorme interesse científico devido sua grande variedade de aplicações em biomedicina, tanto na área de diagnóstico quanto no tratamento de enfermidades. Embora muitos materiais vem sendo estudados, os óxidos de ferro (magnetita e maghemita) apresentam maiores avanços nos estudos para aplicações em medicina. A preferência por óxidos de ferro se deve a baixa toxicidade destas partículas quando comparado as nanopartículas metálicas ou ligas. Entretanto, as nanopartículas destes óxidos possuem baixas magnetizações de saturação que diminuem ainda mais com as sucessivas etapas de recobrimento necessárias para conferir funcionalidade a estas partículas. Desse modo, há uma necessidade atual para o desenvolvimento de nanopartículas superparamagnéticas com elevada magnetização, baixa toxicidade e maior facilidade de funcionalização da sua superfície com biopolímeros e agentes funcionalizantes. Neste trabalho, nanopartículas superparamagnéticas de cobalto metálico e ferrita de cobalto foram sintetizadas e suas propriedades magnéticas foram comparadas com a magnetita. Nanopartículas de cobalto foram escolhidas, pois seu elevado comportamento ferromagnético é menor apenas que o ferro metálico, além do baixo custo de seus reagentes. As nanopartículas magnéticas foram sintetizadas pelos métodos de microemulsão e decomposição térmica (baseado no método poliol) e suas composições química, estrutural, tamanho e distribuição de tamanho foram devidamente determinadas. Além disso, as nanopartículas de cobalto metálico e ferrita de cobalto foram recobertas com ouro utilizando o método de crescimento mediado por semente. Os sistemas microemulsionados utilizados neste trabalho não foram eficientes nem na síntese de nanopartículas estáveis de cobalto metálico nem no seu esperado controle morfológico. Já o método de decomposição térmica resultou em um rigoroso controle de composição química, estrutural e morfológico para as diferentes nanopartículas sintetizadas. O recobrimento com ouro foi efetivo na proteção do núcleo magnético e adicionalmente conferiu estabilidade, baixa toxicidade e bifuncionalidade às nanopartículas magnéticas através do seu fenômeno de ressonância plasmônica de superfície o qual foi preservado na nanoestrutura core@shell. O comportamento superparamagnético das nanopartículas de cobalto metálico recobertas com ouro e sua elevada magnetização de saturação foram expressivamente intensificadas quando comparadas as nanopartículas de magnetita sem recobrimento. Portanto, as nanopartículas sintetizadas neste trabalho apresentam propriedades de superfície e magnéticas otimizadas demonstrando um bom potencial para aplicações em biomedicina como sensores bifuncionais óptico-magnético. / Superparamagnetic nanoparticles have been extensively studied because its wide range of biomedical applications in both diagnostic and therapy areas. Although different materials are currently investigated, superparamagnetic iron oxides nanoparticles (SPION), magnetite and maghemite, are the most extensively studied for applications in medicine. The lower toxicity profile of the SPION becomes the most attractive than metal or alloys nanoparticles. Nevertheless, iron oxides nanoparticles have low saturation magnetization, which further decreases due to successive coats to provide their functionality, leading the actual demand to develop superparamagnetic nanoparticles with high magnetization, low toxicity and easy surface functionalization with biocompatible agents. In this work, superparamagnetic nanoparticles of metallic cobalt and cobalt ferrite were synthesized and their magnetic properties were compared with the magnetite SPION. Cobalt nanoparticles were chosen because present high ferromagnetic behavior among chemical elements, second only to iron, besides their low cost. The magnetic nanoparticles were synthesized by both microemulsion and thermal decomposition (based on the polyol process) methods and their chemical composition, structure, size and size distribution were properly characterized. In addition, the ferrite and metallic cobalt nanoparticles were coated with gold by using the seed-mediated growth method. The used microemulsion systems were not efficient enough to synthesize stable metallic nanoparticles and to promote the expected morphological control even to ferrites. Instead, the thermal decomposition processes resulted in rigorous control of chemical compositional, structure and morphology in all different prepared samples. Au-coating process was effective to protect the magnetic nuclei also giving additional stability, low toxicity and a bifunctionality to the magnetic nanoparticle since their surface plasmon resonance phenomenon was preserved in the core@shell nanostructure. The superparamagnetic behavior of the Au-coated cobalt nanoparticle was preserved and their saturation magnetization was significantly increased compared with the naked magnetite SPION. In conclusion, the synthesized nanoparticles present enhanced magnetic and surface properties showing good potential to be used in biomedical application as bifunctional optical-magnetic sensor.
|
293 |
Operacionalização e resultados da aplicação do core set resumido de 0 a 18 anos da Classificação Internacional de Funcionalidade, Incapacidade e Saúde para crianças e jovens com paralisia cerebral / Operation and results of common brief ICF core set for children and youth with cerebral palsy aged 0 to 18 yearsRafaela Pichini de Oliveira 11 April 2017 (has links)
Objetivo: aplicação do core set resumido genérico da CIFCJ para crianças e jovens de 0 a 18 anos com paralisia cerebral em um grupo de pacientes, através de um instrumento baseado no próprio core set, que operacionalize a coleta de dados funcionais. Métodos: Para algumas categorias, foi possível traçar uma relação entre o que se desejava avaliar e instrumentos escolhidos através de revisão da literatura. Nestes casos, as alternativas de resposta desses instrumentos foram agrupadas de forma que satisfizessem os critérios dos qualificadores da CIFCJ. Nos casos em que isso não fosse possível criou-se uma tabela de correspondência para cada item. Todos os pacientes foram classificados de acordo com o sistema de classificação da função motora grossa (GMFCS). Foram avaliados 33 pacientes dos ambulatórios e do Centro de Reabilitação de neurologia infantil do Hospital das Clínicas de Ribeirão Preto, divididos em 3 grupos, de acordo com sua faixa etária, e desenvolvidas tabelas para descrever os qualificadores de cada componente. Os dados do questionário do core set resumido de 0 a 18 anos da CIFCJ-PC foram inseridos em bancos de dados, digitados em planilha do Excel, e a análise descritiva simples deu-se através do programa estatístico SPSS. Resultados: Para cinco categorias foi possível utilizar escalas sem necessidade de perguntas auxiliares. A avaliação realizada apenas por perguntas objetivas, ocorreu em um item de funções do corpo, em três domínios de atividades e participação, e em todos os oito descritores do componente Fatores ambientais. A idade dos participantes variou entre 4 meses e 18 anos, com maior frequência (33%) de pacientes GMFCS III. A frequência de alguma forma de problema nas funções intelectuais foi de 75%, variando entre 63-81% nos três grupos etários. A Sensação de dor (b280) obteve a menor prevalência de deficiências de algum grau, existindo em maior número no grupo de 0 a 6 anos. Encontramos 91% das crianças e jovens avaliados apresentando limitação em algum grau para deslocar-se por diferentes locais (d460). Os principais facilitadores foram Família imediata (e310) (91%), Produtos e tecnologias para uso pessoal na vida diária (e115) (85%) e Serviços, políticas e sistemas de saúde (e580) (82%). A maior barreira entre os fatores ambientais foram Produtos e tecnologias usados em projeto, arquitetura e construção de edifícios (e150). Conclusão: O core set resumido da CIFCJ para crianças e jovens com paralisia cerebral de 0 a 18 anos permite gerar um perfil funcional dos pacientes com esta condição de saúde e identifica as áreas a serem mais bem trabalhadas para cada indivíduo. Aponta ainda as influências, deficiências e barreiras comuns a maioria desses indivíduos, podendo ajudar a diagnosticar problemas na área de saúde, economia e serviço social. / Objective: To apply the common brief ICF-CY core set for children and youth with cerebral palsy in a group of patients, through instruments based on the core set itself, that operationalize the data collection in functioning. Methods: For some categories, it was possible to correlate the domains and an instrument selected through literature review. In these cases, the response alternatives were grouped to satisfy the criteria of the ICF-CY qualifiers. When this was not possible, we created a correlation for each item. All patients were classified according to GMFCS. Thirty-three patients from the outpatient clinics and the Children\'s Neurology Rehabilitation Center (CER) of the Hospital das Clínicas de Ribeirão Preto (HCRP) were divided into three groups, according to their age group. Tables were developed to describe the qualifiers of each component. Data from the ICF-CY common brief core set for children and youth with CP were entered into databases, typed in an Excel spreadsheet, and the simple descriptive analysis was done through the SPSS statistical program. Results: For five categories, it was possible to use scales without the need for auxiliary questions. The evaluation performed with only objective questions, occurred in an item of the component functions of the body, in three domains of activities and participation, and in all eight descriptors of the Environmental factors component. The participants aged from 4 months to 18 years, with a greater frequency (33%) of GMFCS III patients. The prevalence of some sort of problem in intellectual functions was 75%, varying between 63-81% in the three age groups. Sensation of pain (b280) obtained the lowest prevalence of deficiencies, existing in a greater number in the group of 0 to 6 years. We found 91% of the children and young people evaluated, showing some degree of limitation for Moving around different locations (d460). The main facilitators were Immediate family (e310) (91%), Products and technology for personal use in daily living (e115) (85%) and Health services, systems and policies (e580) (82%). The biggest barrier in environmental factors was Design, construction and building products and technology of buildings for public use (e150). Conclusion: common brief ICF-CY core set for children and youth with cerebral palsy is very useful to generate a functional profile for patients with CP, and to identify the areas to be better worked for each individual. This core set also points out influences, deficiencies and barriers that are common for most of these children, and should help on identifying problems in health, economy and social services.
|
294 |
Core biopsy guiada por ultra-som de lesões suspeitas (BI-RADS® 4 E 5) de mama: quantos fragmentos são necessários?Laporte, Bruno Eduardo Pereira 17 June 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-06-29T11:04:55Z
No. of bitstreams: 1
brunoeduardopereira.pdf: 1461941 bytes, checksum: 91aae0fd48e25bdc7d9b2092a649b994 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-08-07T21:49:24Z (GMT) No. of bitstreams: 1
brunoeduardopereira.pdf: 1461941 bytes, checksum: 91aae0fd48e25bdc7d9b2092a649b994 (MD5) / Made available in DSpace on 2017-08-07T21:49:24Z (GMT). No. of bitstreams: 1
brunoeduardopereira.pdf: 1461941 bytes, checksum: 91aae0fd48e25bdc7d9b2092a649b994 (MD5)
Previous issue date: 2015-06-17 / A alta acurácia da core biopsy (CB) em diagnosticar câncer em lesões mamárias já é amplamente comprovada. Porém, o número necessário de fragmentos que deve ser obtido para alcançar este objetivo, em lesões BIRADS® 4 e 5, ainda não está estabelecido. Objetivo: Avaliar quantos fragmentos são necessários, em CB guiada por ultrassom (US) de lesões suspeitas de câncer BI-RADS® 4 (B4) e 5(B5), para o diagnóstico de malignidade. Método: Foram selecionadas 59 pacientes consecutivas, com 66 lesões mamárias maiores ou iguais a 1 cm, classificadas em B4 ou B5, e, posteriormente, encaminhadas ao Serviço de Mastologia do Hospital Universitário da Universidade Federal de Juiz de Fora para realização de CB guiada por US. As biópsias foram realizadas por 01 operador, utilizando aparelho de ultrassom com sonda linear de 10 MHz e 01 modelo de pistola de biópsia automática, com agulhas de 14 gauge (GA) e excursão de 12 ou 22 mm. Um total de 5 disparos foram realizados em cada lesão. A cada disparo, o fragmento retirado foi colocado em um frasco exclusivo, recebendo a identificação de acordo com a ordem dos disparos e analisado histopatologicamente. Todos os fragmentos provenientes dos disparos foram incluídos no estudo, mesmo aqueles que obtiveram pouco tecido ou aqueles que não atingiram a lesão. Os resultados anatomopatológicos (AP) das CB foram classificados em benignos ou malignos. Os classificados como malignos correspondiam àqueles com diagnóstico de carcinoma in situ ou invasivo. Os demais foram classificadas como benignos. Os AP das CB foram comparados com os resultados da parafina proveniente de exérese cirúrgica ou com a estabilidade no follow up das lesões. Resultados: A média de idade das pacientes é de 52,6 (± 13,9) anos. CB com diagnóstico de malignidade foi encontrado em 59,4% e de benignidade em 40,6% das biópsias realizadas. Em relação à classificação das lesões, de acordo com o BI-RADS®, 43 (67,2%) lesões foram classificadas como B4 e 21 (32,8%) como B5. O tempo médio de follow up para as 8 pacientes que não realizaram exérese cirúrgica foi de 19,13 meses. Houve 100% de concordância entre o resultado AP do 1º fragmento com o AP da biópsia cirúrgica ou com o follow up das lesões benignas que foram acompanhadas. Conclusão: A retirada de 1 fragmento foi suficiente para o correto diagnóstico de malignidade e benignidade em CB guiadas por US de lesões classificadas como B4 ou B5 com tamanho igual ou superior a 1 cm. / Core biopsy (CB) is widely attested to provide high accuracy for the detection of breast cancer in breast lesions. However, the number of specimens that are required to achieve this in Breast Imaging-Reporting and Data System (BIRADS®) 4 and 5 lesions is yet to be determined. Objective: To evaluate the number of specimens required to diagnose malignancy when using ultrasound (US)-guided CB for BI-RADS® 4 (B4) and 5 (B5) suspected breast cancer lesions. Methods: We selected 59 consecutive patients who were referred to the Mastology Service of the University Hospital of the Federal University of Juiz de Fora for US-guided CB. These patients had 66 breast lesions that measured 1 cm or larger and were classified as B4 or B5. A single operator performed the biopsies, using an ultrasound device with a 10-MHz linear probe, 1 automatic biopsy gun model, 14-gauge needles and 12- or 22-mm excursion. A total of 5 cores were taken from each lesion. The fragment obtained from each biopsy was placed in a separate vial, identified according to the order in which it was taken, and submitted to histopathologic analysis. All the fragments obtained from the biopsies were included in this study, even those that provided small amounts of tissue or resulted from biopsies that had missed the lesion. The CB specimen’s anatomopathological findings were classified as benign or malignant. The CB specimens classified as malignant had a corresponding diagnosis of in situ or invasive carcinoma. The remaining CB specimens were classified as benign. The CB specimens’ anatomopathological findings were compared to those obtained from surgically resected and paraffinised specimens or the lesion’s stability during follow-up consultations. Results: The average patient age was 52.6 (± 13.9) years. Malignancy was diagnosed in 59.4% of the CB specimens, and 40.6% were classified as benign. Regarding the BI-RADS® classifications of the lesions, 43 (67.2%) lesions were classified as B4 and 21 (32.8%) were classified as B5. The average duration of follow-up for the 8 patients who did not undergo surgical resection was 19.13 months. There was 100% agreement between the anatomopathological findings from the first fragment and the anatomopathological findings from the surgical biopsy or the follow-up of the benign lesions. Conclusion: A biopsy of 1 fragment was sufficient for the correct diagnosis of malignant and or benign status in USguided CBs of lesions that were classified as B4 or B5 and measured 1 cm or larger.
|
295 |
Caracterização genética do vírus da hepatite B em AlagoasMaria Eloy Zaidan, Alba 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T18:29:17Z (GMT). No. of bitstreams: 2
arquivo3568_1.pdf: 1259756 bytes, checksum: 154e32efaf8689e0a040b7294e125441 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / Fundação de Amparo a Pesquisa do Estado de Alagoas / O vírus da hepatite B (HBV) está classificado em oito genótipos, A H, com prevalências
distintas em diferentes áreas geográficas. As divergências intergenotípicas foram definidas
arbitrariamente como uma variação nucleotídica superior a 8% na seqüência completa do genoma
viral. Naturalmente são encontradas variantes das regiões pré-S/S, pré-core/C e P. A mutação na
região pré-core, G1896A geralmente é descrita em indivíduos portadores de infecções pelo HBV
com ausência de HBeAg (antígeno e do vírus da hepatite B) e replicação viral ativa, apesar da
presença de anti HBe. Enquanto, que a detecção das mutações na região basal do promotor core
(BCP), A1762T e G1764A, independem do perfil HBeAg/anti-HBe. O objetivo deste estudo foi
investigar os genótipos e a presença de mutações pré-core G1896A e BCP A1762T e G1764A no
HBV, analisando carga viral, perfil HBeAg/anti-HBe e nível sérico de alanina aminotransferase
(ALT) em pacientes portadores de infecções pelo HBV. Foi realizado um estudo transversal
descritivo envolvendo pacientes encaminhados pelos Centros de Referências em Hepatites Virais
do Estado de Alagoas, Brasil, durante o período de setembro de 2006 a abril de 2008. Foram
selecionados 119 pacientes com HBsAg e anti-HBc positivos, entre os quais, 2,5% (3) tinham o
diagnóstico de hepatite aguda, 69,7% (83) de portador assintomático e 27,8% (33) de hepatite
crônica. As amostras de sangue foram submetidas aos procedimentos de extração e amplificação
do genoma viral visando o seqüenciamento parcial do gene S e da região pré-core. O DNA HBV
foi detectado em 70,6% (84/119) dos pacientes, e os genótipos foram identificados em 95,2%
(80/84). O genótipo A em 92,5% (74/80), seguido do genótipo C em 5,0% (4/80) e 1,25% (1/80)
para ambos os genótipos D e F. No genótipo A, a presença de timina/citosina na posição 1858 foi
identificada em 50% (13/26) das seqüências analisadas, a mutação G1896A em 3,8% (1/26) e as
mutações BCP A1762T e G1764A em 52,4% (11/21). A pesquisa demonstrou que o genótipo A
foi predominante em Alagoas, Brasil e a maioria das infecções apresentou carga viral reduzida,
concentração sérica normal da ALT e soroconversão do HBeAg para anti-HBe, caracterizando a
fase residual da infecção crônica pelo HBV. O estudo também revelou a circulação de mutantes
pré-core e BCP do genótipo A. As mutações BCP foram detectadas equitativamente nos
portadores assintomáticos e com hepatite crônica, independentemente da carga viral e nível sérico
de ALT
|
296 |
Stanovení steviových glykosidů metodou HPLC / Determination of steviol glycosides by HPLCHollá, Marcela January 2017 (has links)
Charles University Faculty of Pharmacy in Hradec Králové Department of Biophysics and Physical Chemistry Candidate: Marcela Hollá Supervisor: Ing. Martin Drastík, Ph.D. Title of Diploma Thesis: Determination of steviol glycosides by HPLC A new HPLC method was developed and validated for simultaneous detemination of major steviol glycosides stevioside and rebaudioside A in food supplements. Separation took place in hydrophilic interaction chromatography mode on column with core-shell particles. The method was aplicated on analysis of steviol glycosides in products Valosun, SlaDIA, Solia and extract from dried stevia leaves. Isocratic separation was performed using Kinetex 2,6u HILIC 100A, (100 x 2,1 mm; 2,6 µm), Phenomenex analytical column with mobile phase consisted of acetonitrile/0,05 M ammonium formate adjusted with formic acid to pH=3 in ratio 90:10, with flow rate 0,7 ml/min, column temperature set at 30 řC, pressure 19,8 MPa, UV detection at 203 nm and injection volume 1 µl. We compared the results of the analyzes with content of stevioside glycosides declared by the manufacturer. The new developed method allows rapid analysis of food supplements and plant extract containig steviol glycosides. Key words: steviol glycosides, stevioside, rebaudioside A, Stevia rebaudiana Bertoni, high...
|
297 |
Projeto de um estimador de potência para o processador Nios II da Altera / A power estimation design for the Altera Nios II processorJose Arnaldo Mascagni de Holanda 17 April 2007 (has links)
Atualmente, otimizar uma arquitetura ou um sistema de software não significa, necessariamente, aumentar o seu desempenho computacional. Devido a popularização de sistemas embutidos energizados por bateria, um item de grande importância a ser otimizado é o consumo de energia. De forma a obedecer às restrições de consumo, pesquisadores têm concentrado seus esforços na criação de ferramentas que possibilitam a modelagem, a otimização e a estimação do consumo de energia. Nos últimos anos, FPGAs têm apresentado um grande desenvolvimento nos quesitos densidade, velocidade e capacidade de armazenamento. Essas características tornaram possível a construção de sistemas complexos formados por um ou mais processadores soft-core. Esse tipo de processador permite uma personalização detalhada de suas características arquiteturais, possibilitando uma melhor adequação às restrições de tempo e espaço em um projeto. O objetivo deste trabalho é construir um estimador de potência para softwares que têm como alvo o processador soft-core Nios II da Altera, permitindo saber com antecedência quanta energia será consumida devido à execução de programas e aplicações de robótica móvel. O modelo implementado neste trabalho foi testado com vários benchmarks padronizados e os resultados obtidos provaram ser bastante adequados para estimar a energia consumida por um programa, obtendo erros de estimação máximos de 4,78% / Nowadays, optimization of hardware and software systems does not necessarily mean increasing their computational performance. Due to the popularization of battery-operated embedded systems, energy comsumption has become a very critical issue. Several tools have been created to model, optimize, and estimate energy consumption, allowing power constraints to be achieved. Lately, FPGAs have presented great advancements on density, speed and storage capacity. Such characteristics made possible the implementation of complex systems comprising one or more soft-core processors. This kind of processors allows detailed customization of its architectural features, enabling timinig, and area constraints of a design to be reached. The aim of this work is to build a power estimator to predict the energy comsumption of a software running on the Altera Nios II soft-core processor. The implemented estimation model presented on this dissertation has been tested with several standard benchmarks and the results obtained have proven to be suitable for estimating the energy consumption of a software with a maximum error of 4.78%
|
298 |
Minimizing the unpredictability that real-time tasks suffer due to inter-core cache interference.Satka, Zenepe, Hodžić, Hena January 2020 (has links)
Since different companies are introducing new capabilities and features on their products, the demand for computing power and performance in real-time systems is increasing. To achieve higher performance, processor's manufactures have introduced multi-core platforms. These platforms provide the possibility of executing different tasks in parallel on multiple cores. Since tasks share the same cache level, they face some interference that affects their timing predictability. This thesis is divided into two parts. The first part presents a survey on the existing solutions that others have introduced to solve the problem of cache interference that tasks face on multi-core platforms. The second part's focus is on one of the hardware-based techniques introduced by Intel Cooperation to achieve timing predictability of real-time tasks. This technique is called Cache Allocation Technology (CAT) and the main idea of it is to divide last level cache on some partitions called classes of services that will be reserved to specific cores. Since tasks of one core can only access the assigned partition of it, cache interference will be decreased and a better real-time tasks' performance will be achieved. In the end to evaluate CAT efficiency an experiment is conducted with different test cases and the obtained results show a significant difference on real-time tasks' performance when CAT is applied.
|
299 |
Modèle de calcul et d'exécution pour des applications flots de données dynamiques avec contraintes temps réel / A model of programming languages for dynamic real-time streaming applicationsDo, Xuan Khanh 17 October 2016 (has links)
Il y a un intérêt croissant pour le développement d'applications sur les plates-formes multiprocesseurs homo- et hétérogènes en raison de l'extension de leur champ d'application et de l'apparition des puces many-core, telles que Kalray MPPA-256 (256 cœurs) ou TEGRA X1 de NVIDIA (256 GPU et 8 cœurs 64 bits CPU). Étant donné l'ampleur de ces nouveaux systèmes massivement parallèles, la mise en œuvre des applications sur ces plates-formes est difficile à cause de leur complexité, qui tend à augmenter, et de leurs exigences strictes à la fois qualitatives (robustesse, fiabilité) et quantitatives (débit, consommation d’énergie). Dans ce contexte, les Modèles de Calcul (MdC) flot de données ont été développés pour faciliter la conception de ces applications. Ces MdC sont par définition composées de filtres qui échangent des flux de données via des liens de communication. Ces modèles fournissent une représentation intuitive des applications flot de données, tout en exposant le parallélisme de tâches de l’application. En outre, ils fournissent des capacités d'analyse statique pour la vivacité et l’exécution en mémoire bornée. Cependant, de nouvelles applications de signalisation et de traitement des médias complexes présentent souvent plusieurs défis majeurs qui ne correspondent pas aux restrictions des modèles flot de données statiques classiques: 1) Comment fournir des services garantis contre des interférences inévitables qui peuvent affecter des performances temps réel ?, et 2) Comment ces langages flot de données qui sont souvent trop statiques pourraient répondre aux besoins des applications embarquées émergentes, qui nécessitent une exécution plus dynamique et plus dépendante du contexte ? Pour faire face au premier défi, nous proposons un ordonnancement hybride, nommé Self-Timed Periodic (STP), qui relie des MdC flot de données classiques et des modèles de tâches temps réel. Cet ordonnancement peut aussi être considéré comme un modèle d'exécution combinant l'ordonnancement classique dirigé seulement par les contraintes de dépendance d'exécution appelé Self-Timed Scheduling (STS), évalué comme le plus approprié pour des applications modélisées sous forme de graphes flot de données, avec l'ordonnancement périodique: STS améliore les indicateurs de performance des programmes, tandis que le modèle périodique capture les aspects de synchronisation. Nous avons évalué la performance de notre ordonnancement sur un ensemble de 10 applications et nous avons constaté que dans la plupart des cas, notre approche donne une amélioration significative de la latence par rapport à un ordonnancement purement périodique ou Strictly Periodic Scheduling (SPS), et rivalise bien avec STS. Les expériences montrent également que, pour presque tous les cas de test, STP donne un débit optimal. Sur la base de ces résultats, nous avons évalué la latence entre le temps d'initiation de tous les deux acteurs dépendants, et nous avons introduit une approche basée sur la latence pour le traitement des flux à tolérance de pannes modélisée comme un graphe Cyclo-Static Dataflow (CSDF), dans le but d'aborder des problèmes de défaillance de nœud ou de réseau… / There is an increasing interest in developing applications on homo- and heterogeneous multiprocessor platforms due to their broad availability and the appearance of many-core chips, such as the MPPA-256 chip from Kalray (256 cores) or TEGRA X1 from NVIDIA (256 GPU and 8 64-bit CPU cores). Given the scale of these new massively parallel systems, programming languages based on the dataflow model of computation have strong assets in the race for productivity and scalability, meeting the requirements in terms of parallelism, functional determinism, temporal and spatial data reuse in these systems. However, new complex signal and media processing applications often display several major challenges that do not fit the classical static restrictions: 1) How to provide guaranteed services against unavoidable interferences which can affect real-time performance?, and 2) How these streaming languages which are often too static could meet the needs of emerging embedded applications, such as context- and data-dependent dynamic adaptation? To tackle the first challenge, we propose and evaluate an analytical scheduling framework that bridges classical dataflow MoCs and real-time task models. In this framework, we introduce a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed scheduling (STS), considered as the most appropriate for streaming applications modeled as data-flow graphs, with periodic scheduling: STS improves the performance metrics of the programs, while the periodic model captures the timing aspects. We evaluate the performance of our scheduling policy for a set of 10 real-life streaming applications and find that in most of the cases, our approach gives a significant improvement in latency compared to the Strictly Periodic Schedule (SPS), and competes well with STS. The experiments also show that, for more than 90% of the benchmarks, STP scheduling results in optimal throughput. Based on these results, we evaluate the latency between initiation times of any two dependent actors, and we introduce a latency-based approach for fault-tolerant stream processing modeled as a Cyclo-Static Dataflow (CSDF) graph, addressing the problem of node or network failures. For the second challenge, we introduce a new dynamic Model of Computation (MoC), called Transaction Parameterized Dataflow (TPDF), extending CSDF with parametric rates and a new type of control actor, channel and port to express dynamic changes of the graph topology and time-triggered semantics. TPDF is designed to be statically analyzable regarding the essential deadlock and boundedness properties, while avoiding the aforementioned restrictions of decidable dataflow models. Moreover, we demonstrate that TPDF can be used to accurately model task timing requirements in a great variety of situations and introduce a static scheduling heuristic to map TPDF to massively parallel embedded platforms. We validate the model and associated methods using a set of realistic applications and random graphs, demonstrating significant buffer size and performance improvements (e.g., throughput) compared to state of the art models including Cyclo-Static Dataflow (CSDF) and Scenario-Aware Dataflow (SADF).
|
300 |
Konstrukční návrh vstřelovacího stroje s pevnou vstřelovací hlavou o objemu 30dm3 / Design of core shooting machine with a fixed head with a capacity 30dm3Mátl, Pavel January 2013 (has links)
This diploma thesis deals with core shooter with stationary shooting head with a volume of 30dm3. Introductory part is about development of the foundry industry, divison and development of the machines for the core shooting and about technologies of the core production. It also marginally deals with core shooters. It describes the operation principle of a single position CB core shooter for vertically and horizontally divided cores. The thesis includes three-dimensional constructional design with a description of all parts and stress analysis of chosen components performed by using finite element method.
|
Page generated in 0.0452 seconds