• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 9
  • Tagged with
  • 64
  • 64
  • 26
  • 15
  • 14
  • 12
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Avaliação de confiabilidade em sistemas baseados em microprocessadores por injecção de falhas via infra-estruturas de depuração

Fidalgo, André Vaz da Silva January 2007 (has links)
Tese de doutoramento. Engenharia Electrotécnica e de Computadores. Faculdade de Engenharia. Universidade do Porto, Instituto Politécnico do Porto.Instituto Superior de Engenharia. 2007
2

Auto-calibração de câmeras de vídeo-vigilância por meio de informações da cena

Souza, Tiago Trocoli Leite de 17 December 2015 (has links)
Submitted by Marcos Samuel (msamjunior@gmail.com) on 2017-02-09T11:14:05Z No. of bitstreams: 1 SOUZA,_T._T._L._Auto-calibração_de_câmeras_de_vídeo-vigilância_por_meio_de_informações_da_cena.pdf: 10046318 bytes, checksum: 33f3dbaacf9de09202957f03329673ab (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-02-09T14:35:56Z (GMT) No. of bitstreams: 1 SOUZA,_T._T._L._Auto-calibração_de_câmeras_de_vídeo-vigilância_por_meio_de_informações_da_cena.pdf: 10046318 bytes, checksum: 33f3dbaacf9de09202957f03329673ab (MD5) / Made available in DSpace on 2017-02-09T14:35:56Z (GMT). No. of bitstreams: 1 SOUZA,_T._T._L._Auto-calibração_de_câmeras_de_vídeo-vigilância_por_meio_de_informações_da_cena.pdf: 10046318 bytes, checksum: 33f3dbaacf9de09202957f03329673ab (MD5) / A presença de câmeras de vigilância se tornou comum em ambientes públicos e privados. Utilizadas para monitorar cenas, esses equipamentos permitem a automatização da tarefa de vigilância, quando integrados a sistemas inteligentes capazes de aplicar técnicas de reconhecimento de padrões. A calibração de câmera é um recurso que possibilita explorar a geometria 3D da cena observada, possibilitando ao sistema inteligente determinar a posição e tamanho de objetos presentes na cena. Usualmente, ambientes monitorados possuem redes de câmeras de vigilância, as quais são compostas, em sua maioria, por câmeras heterogêneas e estáticas. A forma comum de calibrar câmeras requer intensa intervenção humana, e demanda grande quantidade de tempo quando aplicada a uma rede de câmeras. Neste trabalho é proposto um framework de calibração de câmera automática, não requerendo intervenção humana durante o processo de calibração. O framework proposto utilizará dicas da cena e um conhecimento prévio da distribuição da altura das pessoas para determinar os parâmetros necessários para a calibração da câmera, estimando sua posição, orientação e informações internas da câmera. A avaliação deste framework indica um resultado promissor. As análises mostram que, ao estimar os comprimentos na cena, o framework atinge um erro absoluto médio menor que 5 cm ao definir as alturas das pessoas, e um erro médio menor que 30 cm ao definir distâncias sobre o plano do chão. Quando comparado a trabalhos relacionados encontrados na literatura, o nosso framework apresenta uma eficiência maior ao utilizar até 80% menos dados na convergência dos parâmetros, e uma precisão 40% maior, na estimativa dos parâmetros da câmera.
3

Uma abordagem metodológica para prospecção ativa de vulnerabilidades / A methodological approach for active vulnerability assessment

Gondim, João José Costa 05 July 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2017. / Submitted by Gabriela Lima (gabrieladaduch@gmail.com) on 2017-12-06T10:29:38Z No. of bitstreams: 1 2017_JoãoJoséCostaGondim.pdf: 2824946 bytes, checksum: 537d9a255ea5d7d6ca940368ccaa24b6 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-02-01T17:10:32Z (GMT) No. of bitstreams: 1 2017_JoãoJoséCostaGondim.pdf: 2824946 bytes, checksum: 537d9a255ea5d7d6ca940368ccaa24b6 (MD5) / Made available in DSpace on 2018-02-01T17:10:32Z (GMT). No. of bitstreams: 1 2017_JoãoJoséCostaGondim.pdf: 2824946 bytes, checksum: 537d9a255ea5d7d6ca940368ccaa24b6 (MD5) Previous issue date: 2018-02-01 / Metodologias de Testes de Penetração (Penetration Tests - pentest) são a base para a prospecção ativa de vulnerabilidades (PAV) em sistemas computacionais. Entretanto, há várias lacunas conceituais nas metodologias mais amplamente utilizadas. As lacunas podem ser por falta de rigor metodológico ou por serem projetadas como parte de processos mais geria em segurança da informação, como avaliação de risco ou auditoria de segurança; ou por limitações de escopo ou na definição de seus processos; ou por não definir e modelar a execução dos testes, ou ainda por fazê-lo com limitações. Com tais motivações, DOTA, uma metodologia de pentest, tendo por objetivo definir procedimentos padronizados para prospecção de vulnerabilidades baseada na estratégia e no fluxo das decisões durante a execução de pentests. A metodologia agrega ações de planejamento com a execução de testes em diferentes cenários pela composição de seis fases sequenciais. Os testes (ataques) são modelados segundo um ciclo de decisão geral, de forma que DOTA ganha em generalidade e aplicabilidade. A metodologia foi aplicada com finalidades de intrusão e indisponibilidade, envolvendo cenários reais. O s resultados obtidos foram mais completos, precisos e repetíveis. / Penetration Tests (pentest) methodologies are the basis for actively prospecting vulnerabilities (PAV) in computer systems. However, there are several conceptual gaps in current pentest most widely used methodologies. They either lack methodological rigor or are designed as part of other information security processes, like risk assessment ou security audit. They are also either limited in their scope or in their process definition. They either do not define test execution at all, or do it with impacting shortcomings. With those motivations, DOTA, a decision oriented tool agnostic pentest methodology is developed and presented. It aims to define standardized procedures for vulnerability assessment based on the strategy and the decision flow during execution of pentests. The methodology interconnects planning procedures with the execution of computational scenarios through the composition of six closely adjacent phases. Tests (attacks) are modelled using a general decision cycle, so that DOTA gains in generality and aplicability. The methodology was applied for intrusion and unavailability, with full runs on controlled real world scenarios. Results obtained were more complete, precise and repeatable.
4

Desenvolvimento de um sistema computacional para análise de experimentos em blocos incompletos / not available

Sarríes, Gabriel Adrián 11 May 1989 (has links)
Neste trabalho é apresentado o desenvolvimento de um sistema computacional para análise estatística de experimentos com delineamentos em Blocos Incompletos Balanceados ou Desbalanceados. O SABI -"Sistema para Análise em Blocos Incompletos"fornece diversas informações estatísticas, Quadro de análise de Variância completo, Testes de Hipóteses, Intervalos de Confiança e Teste de Comparações Múltiplas de Tukey. No módulo"Blocos Incompletos Desbalanceados", incluem-se procedimentos para estudo da estrutura de conexão do delineamento utilizando-se o processo"R", econômico em memória e tempo de computador. Para resolução do sistema de equações normais, cálculo de somas de quadrados ajustados e ponto de matrizes utiliza-se o algoritmo SWEEP. Pelo fato do sistema estar documentado e ser desenvolvido utilizando-se técnicas de programação estruturada, com diversos procedimentos de uso geral, o presente trabalho pode servir como estrutura de base para outros sistemas com maiores recursos, para análise de experimentos com delineamento em Bloco (por exemplo Blocos Multivariados, Análise de Covariância e Regressão Polinomial) ou, inclusive, para outros delineamentos experimentais. Fica comprovada a necessidade de documentação adequada no desenvolvimento de sistemas, aspecto que não tem recebido muita atenção em"softwares"brasileiros. Essa documentação contribui efetivamente no desenvolvimento, manutenção e testes do sistema desenvolvido, bem como facilita a comunicação entre os integrantes da equipe, aspecto importante em projetos de natureza interdisciplinar / In this work is showed the development of a computation system to statistical analysis of experiments in Incomplete Balanced or Unbalanced Blocks designs. The SABI -"System for Analysis in Incomplete Blocks"gives different statistical informations, complete Analysis of Variance Table, hypothesis tests, confidence intervals and the Tukey method for multiple comparisions. In the"Unbalanced Incomplete Blocks"module was included procedures for study of the connection structure design, by using the"R"Process, economic in memory and time of computer. For the resolution of the normal equation system, sums of squares and the matrices rank, was used the SWEEP algorithm. Because the system is documented and developed making use of techniques of strutured programation, with various procedures of general use, the present work can serve as a base to others system with bigger recourses, to analysis of experiments in incomplete block designs (for example, multivariate blocks, covariance and Polynomial regression analysis or even for others experimental designs). It was confirmed the necessity of good documentation in system development, aspect that don't have been recieved atentation in Brazilian softwares. This documentation contributes effectively in the development, maintenance and tests of the developed system, as well facilitate the comunication between the integrants of a staff, important aspect in projects of interdisciplinar nature
5

Detecção e rastreamento da mão utilizando dados de profundidade

Santos, Thalisson Nobre 16 December 2015 (has links)
Submitted by Marcos Samuel (msamjunior@gmail.com) on 2017-02-06T14:27:48Z No. of bitstreams: 1 Dissertação_Thalisson Nobre Santos.pdf: 11550499 bytes, checksum: 61a92c44ea5ebd2cbb3f843e1d6d4092 (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-02-06T15:01:35Z (GMT) No. of bitstreams: 1 Dissertação_Thalisson Nobre Santos.pdf: 11550499 bytes, checksum: 61a92c44ea5ebd2cbb3f843e1d6d4092 (MD5) / Made available in DSpace on 2017-02-06T15:01:35Z (GMT). No. of bitstreams: 1 Dissertação_Thalisson Nobre Santos.pdf: 11550499 bytes, checksum: 61a92c44ea5ebd2cbb3f843e1d6d4092 (MD5) / As interfaces naturais têm demonstrado uma grande importância na interação entre o homem e a máquina, viabilizando desde jogos eletrônicos até a reabilitação de pacientes submetidos a fisioterapia. O rastreamento da mão por câmeras permite implementar tais interfaces, explorando os gestos humanos para controlar algum sistema computadorizado sem a necessidade de contato físico. O método proposto neste trabalho visa detectar e rastrear as mãos utilizando dados de profundidade. Uma vez que tais dados não produzem quantidade suficiente de pontos de interesse (pontos chaves) para a detecção da mão, foi proposto um algoritmo denominado Volume da Normal para exceder a descrição das características presentes nestas imagens, sendo baseado no cálculo do volume do vetor normal de cada pixel atribuindo valores arbitrários para o tamanho deste vetor. O rastreamento da mão é baseado na análise de descritores locais da imagem de profundidade (processada pela Transformada da Distância Euclidiana) e de um conjunto de imagens da mão após aplicação do Volume da Normal, utilizando para isto o algoritmo Oriented FAST and Rotated BRIEF. Um procedimento para a criação de um modelo cinemático da mão foi proposto como estágio inicial para um possível rastreamento contínuo dos dedos numa pesquisa posterior. Ao final, a detecção da mão foi executada a uma velocidade de 7,9 quadros por segundo, alcançando uma taxa de detecção média para detecção de poses do conjunto de treinamento igual a 36,4% e 38,15% para poses variadas. Para detecção de gestos realizados a partir do conjunto de treinamento foi alcançada uma taxa média de 21,94%. Para cenários onde há presença de objetos semelhantes à mão, o detector apresentou uma taxa de precisão igual a 14,72% com um desvio padrão de 3,82%.
6

Roteamento Multirrestrivo em Redes Óptica Translúcidas

Durães, Gilvan Martins 21 January 2014 (has links)
Submitted by Kleber Silva (kleberbs@ufba.br) on 2017-05-31T19:32:11Z No. of bitstreams: 1 Tese - Gilvan Durães.pdf: 4300512 bytes, checksum: 50f96ae437dbb54d3c59fa128e727c3b (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-06T14:43:26Z (GMT) No. of bitstreams: 1 Tese - Gilvan Durães.pdf: 4300512 bytes, checksum: 50f96ae437dbb54d3c59fa128e727c3b (MD5) / Made available in DSpace on 2017-06-06T14:43:26Z (GMT). No. of bitstreams: 1 Tese - Gilvan Durães.pdf: 4300512 bytes, checksum: 50f96ae437dbb54d3c59fa128e727c3b (MD5) / Nas redes ópticas translúcidas é possível regenerar o sinal óptico ao longo de uma rota visando restaurar a sua qualidade inicial. Atualmente, considerando-se as limitações de alcance da tecnologia de transmissão por fibra óptica, apenas esse tipo de rede óptica pode compor os backbones de longa distância da Internet. Nos últimos anos, o problema de roteamento e a alocação de comprimento de onda em redes ópticas, conhecido como Routing and Wavelength Assignment tem sido estudado levando em consideração as degradações da camada física óptica, especialmente em redes ópticas translúcidas. No entanto, a literatura é escassa no que diz respeito a algoritmos de roteamento com múltiplas restrições. O objetivo deste trabalho é propor uma nova estratégia de roteamento multirrestritivo para as redes ópticas translúcidas. A evolução da proposta é formada por estratégias pioneiras de roteamento em redes ópticas translúcidas. Este trabalho estende o problema da escolha da menor rota para o caso das redes ópticas translúcidas. Considerando este problema, são propostas novas estratégia de roteamento óptico. Uma dessas estratégias é chamada Best Translucent Shortest Lightpath (BSTL), a qual considera uma restrição por enlace óptico. Além de resolver uma deficiência típica dos atuais algoritmos de roteamento de menor caminho propostos para as redes ópticas translúcidas, a estratégia BSTL caracteriza-se por ser adaptativa e ciente das limitações da camada física óptica. O algoritmo BSTL é comparado com outros algoritmos propostos na literatura, em termos de utilização da rede, probabilidade de bloqueio e justiça no atendimento das requisições. Em todos os cenários avaliados, o algoritmo BSTL apresentou um melhor desempenho. Esta tese apresenta uma nova abordagem de roteamento multirrestritivo para as redes ópticas translúcidas, ciente tanto das restrições relacionadas ao enlace óptico, como das restrições relacionadas ao comprimento de onda e ao nó óptico ao mesmo tempo. Considerando esta abordagem são propostos dois novos algoritmos de roteamento multirrestritivo, chamados Offline Multi-Restricted Routing (Off-MRR) e Multi-Restricted Routing (MRR). Os algoritmos propostos são comparados entre si, em termos de probabilidade de bloqueio, utilização da rede e tempo de execução. O Off-MRR apresentou um melhor desempenho em termos de tempo de execução, enquanto que o MRR alcançou um melhor desempenho em termos de probabilidade de bloqueio, em todos cenários avaliados
7

Métodos de contornos ativos Crisp adaptativo 2D e 3D aplicados na segmentação dos pulmões em imagens de tomografia computadorizada do tórax / Methods active contours Crisp adaptive 2D and 3D segmentation applied in the lungs in CT images of the thorax

Rebouças Filho, Pedro Pedrosa 03 March 2013 (has links)
REBOUÇAS FILHO, P. P. Métodos de contornos ativos Crisp adaptativo 2D e 3D aplicados na segmentação dos pulmões em imagens de tomografia computadorizada do tórax. 2013. 157 f. Tese (Doutorado em Engenharia de Teleinformática) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2013-06-17T14:32:11Z No. of bitstreams: 1 2013_tese_pprebouçasfilho.pdf: 6036840 bytes, checksum: 85def16e610e2114ec240e3abdded7e8 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2013-06-17T16:39:57Z (GMT) No. of bitstreams: 1 2013_tese_pprebouçasfilho.pdf: 6036840 bytes, checksum: 85def16e610e2114ec240e3abdded7e8 (MD5) / Made available in DSpace on 2013-06-17T16:39:57Z (GMT). No. of bitstreams: 1 2013_tese_pprebouçasfilho.pdf: 6036840 bytes, checksum: 85def16e610e2114ec240e3abdded7e8 (MD5) Previous issue date: 2013-03-03 / Computer systems have been playing a very important role in many areas of medicine, particularly, on medical diagnosis through image processing. Therefore, studies on the field of Computer Vision are made to develop techniques and systems to perform automatic detection of several diseases. Among the existing tests that enable the diagnosis and the application of computational system together, there is the Computed Tomography (CT), which allows the visualization of internal organs, such as the lung and its structures. Image analysis techniques applied to CT scans are able to extract important information to segment and recognize details on regions of interest on these images. This work focuses its e↵orts on the stage of lungs segmentation through CT images, using techniques based on Active Contour Method (ACM), also known as snake. This method consists in tracing an initial curve, around or inside the object of interest, wich deform itself according to forces that act over the same, shifting to the object edge. This process is performed by successive iterations of minimization of a given energy, associated to the curve. In this context, this work proposes a new aproach for lung segmentation of chest CT images, which is called Adaptative Crisp Active Contour Method. This ACM is an improvement the previous developed Crisp ACM. The purpose of this new ACM is to increase accuracy, decrease analysis time and reduce segmentation subjectivity in the manual analysis of specialized doctors. This method is proposed to isolated images segmentation or the complete exam, being first in 2D, then expanding to 3D. The 2D Adaptative Crisp ACM is compared to ACMs THRMulti, THRMod, GVF, VFC, Crisp and also with the system SISDEP, being this evaluation performed by using a set of 36 manually segmented images by one pulmonologist. The 3D Adaptative Crisp ACM is applied on lung segmentation in CT exams and compared with the 3D Region Growing method, which segmentation results were evaluated by two pulmonologists. The obtained results shows that the proposed methods are superior to the other methods on lung segmentation in chest CT images, both as in one image by 2D Adaptative Crisp ACM as in full exam by the 3D Adaptative Crisp ACM. Thus, it is possible to conclude that these method can integrate systems to aid medical diagnosis in the field of pulmonology. / Sistemas computacionais vêm desempenhando papel importante em várias áreas da medicina, notadamente no auxílio ao diagnóstico médico por imagem. Neste sentido, estudos na área de Visão Computacional são realizados para desenvolver técnicas e sistemas capazes de detectar automaticamente diversas doenças. Dentre os exames existentes que permitem o auxílio ao diagnóstico e a aplicação de sistemas computacionais em conjunto, destaca-se a Tomografia Computadorizada (TC) que possibilita a visualização de órgãos internos, como por exemplo, o pulmão e suas estruturas. Sistemas de Vis~ao Computacional utilizam estas imagens obtidas por exames de TC para extrair informação por meio de técnicas com a finalidade de segmentar, reconhecer e identificar detalhes da região de interesse nestas imagens. Este trabalho centraliza seus esforços na etapa de segmentação dos pulmões a partir de imagens de TC, empregando-se, para tanto, técnicas baseadas em Método de Contorno Ativo (MCA), também conhecido como emph{snake}. Este método consiste em traçar uma curva inicial, em torno ou dentro de um objeto de interesse, deformando-a conforme algumas forças que atuam sobre a mesma, deslocando-a até as bordas do objeto. Este processo é realizado por iterações sucessivas de minimização de uma dada função energia, associada à curva. Neste contexto, esta tese propõe um novo método para a segmentação dos pulmões em imagens de TC do tórax denominado Método de Contorno Ativo Crisp Adaptativo. Este MCA é o aperfeiçoamento do MCA Crisp desenvolvido em um estudo anterior, que visa aumentar a precisão, diminuir o tempo de análise e reduzir a subjetividade na segmentação e análise dos pulmões dessas imagens pelos médicos especialistas. Este método é proposto para a segmentação de uma imagem isolada ou do exame completo, sendo primeiramente em 2D e expandido para 3D. O MCA Crisp Adaptativo 2D é comparado com os MCAs THRMulti, THRMod, GVF, VFC, Crisp e também com o sistema SISDEP, sendo esta avaliação realizada utilizando como referência 36 imagens segmentadas manualmente por um pneumologista. Já o MCA Crisp Adaptativo 3D é aplicado na segmentação dos pulmões em exames de TC e comparado com o método Crescimento de Regiões 3D, cujos resultados das segmentações são avaliados por 2 médicos pneumologistas. Os resultados obtidos demonstram que os métodos propostos são superiores aos demais na segmentação dos pulmões em imagens de TC do tórax, tanto em uma imagem pelo MCA Crisp Adaptativo 2D, como em exames completos pelo MCA Crisp Adaptativo 3D. Deste modo, pode-se concluir que estes métodos podem integrar sistemas de auxílio ao diagnóstico médico na área de Pneumologia.
8

Desenvolvimento de um sistema computacional para análise de experimentos em blocos incompletos / not available

Gabriel Adrián Sarríes 11 May 1989 (has links)
Neste trabalho é apresentado o desenvolvimento de um sistema computacional para análise estatística de experimentos com delineamentos em Blocos Incompletos Balanceados ou Desbalanceados. O SABI -"Sistema para Análise em Blocos Incompletos"fornece diversas informações estatísticas, Quadro de análise de Variância completo, Testes de Hipóteses, Intervalos de Confiança e Teste de Comparações Múltiplas de Tukey. No módulo"Blocos Incompletos Desbalanceados", incluem-se procedimentos para estudo da estrutura de conexão do delineamento utilizando-se o processo"R", econômico em memória e tempo de computador. Para resolução do sistema de equações normais, cálculo de somas de quadrados ajustados e ponto de matrizes utiliza-se o algoritmo SWEEP. Pelo fato do sistema estar documentado e ser desenvolvido utilizando-se técnicas de programação estruturada, com diversos procedimentos de uso geral, o presente trabalho pode servir como estrutura de base para outros sistemas com maiores recursos, para análise de experimentos com delineamento em Bloco (por exemplo Blocos Multivariados, Análise de Covariância e Regressão Polinomial) ou, inclusive, para outros delineamentos experimentais. Fica comprovada a necessidade de documentação adequada no desenvolvimento de sistemas, aspecto que não tem recebido muita atenção em"softwares"brasileiros. Essa documentação contribui efetivamente no desenvolvimento, manutenção e testes do sistema desenvolvido, bem como facilita a comunicação entre os integrantes da equipe, aspecto importante em projetos de natureza interdisciplinar / In this work is showed the development of a computation system to statistical analysis of experiments in Incomplete Balanced or Unbalanced Blocks designs. The SABI -"System for Analysis in Incomplete Blocks"gives different statistical informations, complete Analysis of Variance Table, hypothesis tests, confidence intervals and the Tukey method for multiple comparisions. In the"Unbalanced Incomplete Blocks"module was included procedures for study of the connection structure design, by using the"R"Process, economic in memory and time of computer. For the resolution of the normal equation system, sums of squares and the matrices rank, was used the SWEEP algorithm. Because the system is documented and developed making use of techniques of strutured programation, with various procedures of general use, the present work can serve as a base to others system with bigger recourses, to analysis of experiments in incomplete block designs (for example, multivariate blocks, covariance and Polynomial regression analysis or even for others experimental designs). It was confirmed the necessity of good documentation in system development, aspect that don't have been recieved atentation in Brazilian softwares. This documentation contributes effectively in the development, maintenance and tests of the developed system, as well facilitate the comunication between the integrants of a staff, important aspect in projects of interdisciplinar nature
9

Avaliação de métricas para determinar o grau de heterogeneidade de sistemas computacionais / Evalution of metrics to determine the degree of heterogeneity of computing systems

Ide, Fábio Hitoshi 29 April 2008 (has links)
Este trabalho avalia de maneira detalhada diferentes parâmetros para a definição de níveis de homogeneidade e heterogeneidade em sistemas computacionais distribuídos. O objetivo é analisar a eficiência da métrica GH - Grau de Heterogeneidade - em relação a diferentes perspectivas. Métricas encontradas na literatura e benchmarks de código aberto (reconhecidos pela comunidade científica) são utilizados para quantificar a heterogeneidade do sistema computacional. A métrica GH também é empregada no AMIGO, um ambiente de escalonamento real, para analisar a sua utilização em algoritmos de escalonamento de processos. Os principais resultados obtidos neste trabalho são: a comprovação da estabilidade da métrica GH para determinar o grau de heterogeneidade de plataformas computacionais distribuídas, o uso da métrica GH com sucesso em um ambiente de escalonamento real e o desenvolvimento de um algoritmo de escalonamento adaptativo. Sub-produtos deste trabalho são: um levantamento dos principais benchmarks com código aberto e livre disponíveis na literatura, os quais podem ser utilizados em trabalhos futuros no grupo de pesquisa e a continuidade do desenvolvimento do ambiente de escalonamento AMIGO / This work evaluates several parameters in a detailed way for the definition of homogeneity and heterogeneity levels in distributed computing systems. The objective is to analise the GH metric efficiency (heterogeneity degree) according to different perspectives. Metrics found in the literature and open source benchmarks (recognized by the scientific community) are both used to quantify the heterogeneity of the computational system. The GH metric is also employed in the AMIGO, a real scheduling environment, in order to evaluate its use in process scheduling algorithms. The main results obtained in this work are: the verification of the GH metric stability for determining the heterogeneity degree of distributed computing platforms; the use of the GH metric with success in a real scheduling environment and the development of an adaptive scheduling algorithm. By-products of this work are: the highlighting of the main benchmarks with open source available in the literature, which can be used in future works by the research group and the continuity of the development of the AMIGO
10

Avaliação de métricas para determinar o grau de heterogeneidade de sistemas computacionais / Evalution of metrics to determine the degree of heterogeneity of computing systems

Fábio Hitoshi Ide 29 April 2008 (has links)
Este trabalho avalia de maneira detalhada diferentes parâmetros para a definição de níveis de homogeneidade e heterogeneidade em sistemas computacionais distribuídos. O objetivo é analisar a eficiência da métrica GH - Grau de Heterogeneidade - em relação a diferentes perspectivas. Métricas encontradas na literatura e benchmarks de código aberto (reconhecidos pela comunidade científica) são utilizados para quantificar a heterogeneidade do sistema computacional. A métrica GH também é empregada no AMIGO, um ambiente de escalonamento real, para analisar a sua utilização em algoritmos de escalonamento de processos. Os principais resultados obtidos neste trabalho são: a comprovação da estabilidade da métrica GH para determinar o grau de heterogeneidade de plataformas computacionais distribuídas, o uso da métrica GH com sucesso em um ambiente de escalonamento real e o desenvolvimento de um algoritmo de escalonamento adaptativo. Sub-produtos deste trabalho são: um levantamento dos principais benchmarks com código aberto e livre disponíveis na literatura, os quais podem ser utilizados em trabalhos futuros no grupo de pesquisa e a continuidade do desenvolvimento do ambiente de escalonamento AMIGO / This work evaluates several parameters in a detailed way for the definition of homogeneity and heterogeneity levels in distributed computing systems. The objective is to analise the GH metric efficiency (heterogeneity degree) according to different perspectives. Metrics found in the literature and open source benchmarks (recognized by the scientific community) are both used to quantify the heterogeneity of the computational system. The GH metric is also employed in the AMIGO, a real scheduling environment, in order to evaluate its use in process scheduling algorithms. The main results obtained in this work are: the verification of the GH metric stability for determining the heterogeneity degree of distributed computing platforms; the use of the GH metric with success in a real scheduling environment and the development of an adaptive scheduling algorithm. By-products of this work are: the highlighting of the main benchmarks with open source available in the literature, which can be used in future works by the research group and the continuity of the development of the AMIGO

Page generated in 0.1063 seconds