• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 135
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 138
  • 138
  • 138
  • 51
  • 51
  • 45
  • 41
  • 40
  • 37
  • 34
  • 31
  • 30
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Prototipagem e implementação de especificações LOTOS utilizando um ambiente para desenvolvimento de sistemas de tempo real

Medeiros, Eilson Barbosa 24 April 1991 (has links)
Orientador: Mauricio Ferreira Magalhães / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-20T00:50:45Z (GMT). No. of bitstreams: 1 Medeiros_EilsonBarbosa_M.pdf: 10045344 bytes, checksum: bff05c03e0712fc38078e8ba446bcc3a (MD5) Previous issue date: 1991 / Resumo: O processo de projeto e realização de sistemas é uma tarefa não trivial principalmente quando consideramos o desenvolvimento de sistemas complexos. Uma proposta que tem sido recentemente discutida é a definição de uma metodologia baseada em técnicas de descrição formais, para suportar as diversas etapas do processo de projeto e realização de sistemas. Segundo esta metodologia, inicialmente serão trabalhadas as características arquiteturais do sistema. Numa segunda fase, a partir da arquitetura definida na fase arquiteturaI, serão detalhados os aspectos voltados à realização do sistema. De acordo com esta metodologia uma vez tendo sido obtida uma arquitetura suficientemente expressiva do sistema, a especificação que descreve esta arquitetura deverá ser traduzi da para uma especificação em um ambiente de implementação para que os aspectos relativos à realização possam então ser explorados. Neste trabalho consideramos as questões envolvidas no procedimento de tradução. Uma metodologia de mapeamento é discutida e implementada. Utilizamos, de forma particular, LOTOS como linguagem de especificação na fase arquitetura I e o ambiente de implementação de sistemas de tempo real - STER - como ambiente de desenvolvimento da fase de realização. Um exemplo é elaborado para avaliar a viabilidade da metodologia proposta / Abstract: Not informed. / Mestrado / Mestre em Engenharia Elétrica
82

Pré-processamento dos intervalos de tempos observados na dinâmica de digitação (KeyStroke) de senhas curtas

Bezerra Júnior, Murilo Alves 27 September 2013 (has links)
In 2006, a method was proposed concerning the use of time interval equalization to improve performances of some biometric methods based on typing dynamics (or keystroke). In the paper where that method was first proposed, relatively small databases were used for showing, in terms of error rates, the effect of time equalization applied as a preprocessing step before the use of classical methods. In 2009, a much larger large database for keystroke research was made publicly available, through the Internet. This database is based on a single hypothetical password, typed by 51 volunteers through 8 sessions (50 samples per session). In this dissertation, the preprocessing method is adapted to this large public database of short typing patterns. Thus, by using the same biometric detectors already used by the owners of the database, we obtain new experimental results which clearly show an outstanding performance gain when the equalization interval (preprocessing) is applied. It is also studied the performance gain as a function of the password length (in number of symbols), and the stability of typing pattern against changes in the order of typed symbol pairs. Finally, the last study was carried to a new database we acquired with both direct and inverted sequence of symbols, allows for the analysis of keyboard layout changes on biometric performances. / Em 2006, um método foi proposto sobre o uso da equalização de intervalos de tempos, como forma de melhorar o desempenho de alguns métodos biométricos baseados em dinâmica de digitação (keystroke). Naquele artigo, pequenas bases de dados, com textos estáticos e livres, foram usadas para mostrar, em termos de taxas de erros, os ganhos quando a equalização era aplicada antes do uso de métodos clássicos. Em 2009, lançou-se uma base pública grande, correspondente a uma única senha hipotética curta, digitada por 51 voluntários, usada pelos autores do trabalho e, posteriormente, disponibilizada, publicamente, para novos experimentos. Nesta dissertação utilizou-se essa grande base pública, para a qual adapta-se a equalização de intervalos. Utilizando os mesmos métodos usados pelos proprietários da base experimental, obtém-se resultados que mostram, claramente, um notável ganho de desempenho para todos os métodos testados quando a equalização de intervalos é usada no pré-processamento dos dados. É observado também o desempenho no tocante ao tamanho da senha, e analisa-se a estabilização do padrão de digitação. Por fim, foi realizada a montagem de uma nova base, a partir da qual foi possível verificar e analisar o efeito produzido no ritmo de digitação do usuário devido à troca de caracteres da senha, bem como a influência do seu modo de digitação.
83

Dockthor : implementação, aprimoramento e validação de um programa de atracamento receptor-ligante / Dockthor:Implementation, upgrade and validation of a receptor-ligand Docking software

Almeida, Diogo Marinho 24 March 2011 (has links)
Made available in DSpace on 2015-03-04T18:50:32Z (GMT). No. of bitstreams: 1 Diogo_Marinho.pdf: 3506314 bytes, checksum: 33551832c16356372e97856d79324b25 (MD5) Previous issue date: 2011-03-24 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / Os métodos computacionais de docking receptor-ligante são importantes ferramentas utilizadas em estudos na quimica medicinal, auxiliando o processo de descoberta de novos fármacos para alvos moleculares envolvidos em doenças sem tratamento, ou que necessitam de novos tratamentos quimioterápicos. Estes métodos são parte importante dentro da abordagem conhecida como desenho racional de fármacos baseado em estruturas. Esta dissertação apresenta o desenvolvimento da nova versão do programa Dockthor, para docking molecular de ligante flexível, tendo como inovações: (i) uma nova e completa implementação computacional com o aperfeiçoamento do algoritmo genético não-geracional de múltiplas soluções; (ii) a implementação do campo de força molecular MMFF94; (iii) a criação de ferramentas auxiliares para parametrização automática de ligantes, cofatores e receptores protéicos; (iv) introdução da opção de triagem virtual. A nova versão do programa foi validada utilizando dois conjuntos teste. O primeiro envolvendo cinco ligantes altamente flexíveis do receptor HIV-I protease. O segundo, envolvendo 35 complexos receptor-ligante com uma grande diversidade strutural e química nos ligantes, associados a receptores representativos de 18 famílias de proteínas. A validação do programa foi feita através de experimentos de redocking sem utilizar nenhuma etapa de pré-otimizacão do ligante dentro do sítio receptor. Os resultados obtidos são considerados muito bons nos seguintes aspectos: (i) foi obtida uma taxa de sucesso de cerca de 80% (90%) no redocking de ligantes da HIV-1 protease considerando as solucoes de menor energia (menorRMSD); (ii) foi obtida uma taxa de sucesso de cerca de 94% (99%) no redocking do conjunto mais amplo de ligantes considerando as solucoes de menor energia (menor RMSD); (iii) com exceção de dois casos, todas as soluções de menor energia encontradas apresentavam um RMSD < 2.5 _A com relação a estrutura experimental. Os excelentes resultados obtidos nos experimentos de redocking mostram que o programa está apto para estudos de interações receptor-ligante envolvendo moléculas de interesse na química medicinal. As facilidades introduzidas no programa Dockthor permitirão a sua disponibilização e uso pela comunidade acadêmica e grupos de pesquisa atuantes na área de desenho racional de fármacos.
84

Predição de estruturas de proteínas utilizando restrições de ângulo diedrais / Protein structure prediction using dihedral angles constraints

Santos, Karina Baptista dos 18 July 2014 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2015-04-10T18:35:20Z No. of bitstreams: 1 Karina_Dissertacao_versao_final.pdf: 14328590 bytes, checksum: b09ee552401b05045498580540b46215 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2015-04-10T18:35:35Z (GMT) No. of bitstreams: 1 Karina_Dissertacao_versao_final.pdf: 14328590 bytes, checksum: b09ee552401b05045498580540b46215 (MD5) / Made available in DSpace on 2015-04-10T18:35:48Z (GMT). No. of bitstreams: 1 Karina_Dissertacao_versao_final.pdf: 14328590 bytes, checksum: b09ee552401b05045498580540b46215 (MD5) Previous issue date: 2014-07-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) / Protein structure prediction is one of the most important problems in computational molecular biology and aims to determine the three dimensional structure of proteins solely from the amino acid sequence. It is considered that the amino acid sequence contains all the necessary information for the chain to adopt its native conformation under physiological conditions. The prediction of protein structure constitutes an extremely difficult optimization problem because, depending on the approximations made, it deals with hundreds or thousands of degrees of freedom and a complex search space associated with the multimodal energy hyper surface. Even for smaller proteins, the problem is computationally costly due the complexity of the optimization process. The goal of this work was the development of genetic operators for the GAPF program (Genetic Algorithm for Protein Folding – developed by GMSSB/LNCC). The operators work through the use of constraints in the search space of the main chain dihedral angles to accelerate the search algorithm and improve the predictive ability of the program. This work was developed in six stages: I - Building an matrix of dihedral angles phi and psi from a database of experimentally determined protein structures, with up to 20% identity; II - Development and introduction in the GAPF program of the RAMA mutation operators in order to use the dihedral angles matrix; III - Generation of initial population using information supplied by the matrix of dihedral angles; IV - Use of matrix of dihedral angles generated from fragments libraries specifically built for each sequence target; V - Verify the performance of the methodology when information from secondary structure prediction of the target sequence and protein structures database are provided; and VI - Evaluate the effect of these changes in terms of reducing the computational cost and quality of the predicted structures. The operators were tested in a set of eight proteins belonging to the following classes: preferably-alpha, alpha+beta, alpha\beta and preferably-beta. The results showed that the imposition the more favorable phi and psi for each amino acid as angular constraints reduced up to 75% the number of energy function evaluations necessary to obtain equivalent results without the use of these operators. Additionally, it was possible to obtain more accurate models, with a reduction of up to 4Å for RMSD and an increase of approximately 6% in GDT-TS of the bigger proteins of the test set, i.e. 1BDD and 1GYZ, when comparing with the values obtained for standard version of the GAPF program using the same number of evaluations. / A predição de estrutura de proteínas é um dos propósitos mais importantes da biologia molecular computacional e possui como objetivo determinar a estrutura tridimensional de proteínas a partir de suas sequências de aminoácidos. Na técnica de predição por primeiros princípios se considera que a sequência de aminoácidos de uma proteína contém toda a informação necessária para que a cadeia adote, em condições fisiológicas, sua conformação tridimensional nativa. Esse tipo de predição se constitui em um problema de otimização extremamente difícil visto que, dependendo das aproximações efetuadas, se lidam com centenas ou milhares de graus de liberdade e com um espaço de busca conformacional muito complexo associado à uma superfície de energia multimodal. Mesmo para uma pequena molécula de proteína, o problema é difícil de ser tratado computacionalmente devido ao alto custo em tempo de execução, além da complexidade associada ao processo de otimização. O objetivo deste trabalho foi o desenvolvimento de operadores genéticos que atuem no processo de otimização do programa GAPF (Genetic Algorithm for Protein Folding – desenvolvido pelo GMSSB/LNCC) através do uso de restrições no espaço de busca de ângulos diedrais associados à cadeia principal da proteína de modo a acelerar o processo de busca do algoritmo e melhorar a capacidade preditiva do programa. Esse trabalho se desenvolveu em seis etapas: I – Construção uma matriz de ângulos diedrais phi e psi a partir do banco de estruturas de proteínas determinadas experimentalmente, com até 20% de identidade; II - Desenvolvimento e introdução de operadores genéticos de mutação RAMA ao programa GAPF tendo em vista o uso da matriz de ângulos diedrais; III - Geração da população inicial empregando informações fornecidas pelas matrizes de ângulos diedrais; IV - Investigação do uso de matrizes de ângulos diedrais geradas a partir de bibliotecas de fragmentos específicas para cada sequência alvo; V - Verificar o desempenho da metodologia ao serem introduzidas informações a respeito da estrutura secundária da sequência alvo e das proteínas do banco de estruturas usado; e VI - Avaliar o efeito das modificações introduzidas no algoritmo em termos de redução do custo computacional e qualidade das estruturas preditas. A utilização dos operadores foi testada na predição de um conjunto de oito proteínas, pertencentes às classes: preferencialmente alpha; alpha+beta; alpha\beta e preferencialmente beta. Os resultados obtidos mostraram que a imposição de restrições angulares associadas à utilização dos ângulos phi e psi mais favoráveis para cada tipo de resíduo, proporcionaram uma redução de até 75\% do número de avaliações de função de energia necessário para se obter um resultado equivalente sem o uso desses operadores. Adicionalmente, foi possível obter predições de estruturas mais acuradas, com uma redução de até 4Å nos valores de RMSD e um acréscimo de aproximadamente 6% nos valores de GDT-TS das maiores proteínas do conjunto teste, isto é, 1BDD e 1GYZ, quando comparados aos valores obtidos com o GAPF padrão para o mesmo número de avaliações.
85

Dockthor : implementação, aprimoramento e validação de um programa de atracamento receptor-ligante / Dockthor:Implementation, upgrade and validation of a receptor-ligand Docking software

Diogo Marinho Almeida 24 March 2011 (has links)
Os métodos computacionais de docking receptor-ligante são importantes ferramentas utilizadas em estudos na quimica medicinal, auxiliando o processo de descoberta de novos fármacos para alvos moleculares envolvidos em doenças sem tratamento, ou que necessitam de novos tratamentos quimioterápicos. Estes métodos são parte importante dentro da abordagem conhecida como desenho racional de fármacos baseado em estruturas. Esta dissertação apresenta o desenvolvimento da nova versão do programa Dockthor, para docking molecular de ligante flexível, tendo como inovações: (i) uma nova e completa implementação computacional com o aperfeiçoamento do algoritmo genético não-geracional de múltiplas soluções; (ii) a implementação do campo de força molecular MMFF94; (iii) a criação de ferramentas auxiliares para parametrização automática de ligantes, cofatores e receptores protéicos; (iv) introdução da opção de triagem virtual. A nova versão do programa foi validada utilizando dois conjuntos teste. O primeiro envolvendo cinco ligantes altamente flexíveis do receptor HIV-I protease. O segundo, envolvendo 35 complexos receptor-ligante com uma grande diversidade strutural e química nos ligantes, associados a receptores representativos de 18 famílias de proteínas. A validação do programa foi feita através de experimentos de redocking sem utilizar nenhuma etapa de pré-otimizacão do ligante dentro do sítio receptor. Os resultados obtidos são considerados muito bons nos seguintes aspectos: (i) foi obtida uma taxa de sucesso de cerca de 80% (90%) no redocking de ligantes da HIV-1 protease considerando as solucoes de menor energia (menorRMSD); (ii) foi obtida uma taxa de sucesso de cerca de 94% (99%) no redocking do conjunto mais amplo de ligantes considerando as solucoes de menor energia (menor RMSD); (iii) com exceção de dois casos, todas as soluções de menor energia encontradas apresentavam um RMSD < 2.5 _A com relação a estrutura experimental. Os excelentes resultados obtidos nos experimentos de redocking mostram que o programa está apto para estudos de interações receptor-ligante envolvendo moléculas de interesse na química medicinal. As facilidades introduzidas no programa Dockthor permitirão a sua disponibilização e uso pela comunidade acadêmica e grupos de pesquisa atuantes na área de desenho racional de fármacos.
86

MACLAN - método de acceso conversacional para lenguajes de alto nível: aplicacion a un sistema general de consistencia on-line / MACLAN - método de acesso conversacional para linguagens de alto nível: aplicação a um sistema geral de consistência on-line

Blum, Jose Manuel Glicberg 08 1900 (has links)
Submitted by Algacilda Conceição (algacilda@sibi.ufrj.br) on 2018-03-22T18:01:45Z No. of bitstreams: 1 129789.pdf: 6972059 bytes, checksum: 86a8e900237947adcb2c63e9c4df9e8a (MD5) / Made available in DSpace on 2018-03-22T18:01:45Z (GMT). No. of bitstreams: 1 129789.pdf: 6972059 bytes, checksum: 86a8e900237947adcb2c63e9c4df9e8a (MD5) Previous issue date: 1972-08 / O sistema MACLAN desenvolvido na primeira seção deste estudo é um método de acesso para teleprocessamento em aplicativos de conversação. Consiste em um conjunto de rotinas que podem ser chamadas de programas escritos em qualquer uma das linguagens de alto nível mais comuns. Essas rotinas fornecem recursos para edição, correção de erros e definições de código. Como uma aplicação deste sistema, desenvolvemos um Sistema Geral de Validação de Dados. Este é um sistema para entrada de dados com testes de consistência simultânea que dá aos usuários a opção de selecionar o modo de processamento operacional, ou seja, modo de lote ou modo de tempo real. No modo de tempo real, ele pode processar simultaneamente diferentes formatos de dados, gerando os arquivos correspondentes de dados válidos e controle de reparts. Também apresentamos, para simplificar a programação do Módulo de Validação, uma ideia inicial para definir uma linguagem especial com os recursos necessários para alcançar este objetivo. / The MACLAN system developed in the first Section of this study is an Access Method for teleprocessigg in conversational applications. It consists of a set of routines that may be called from programs written in any of the most common high level languages. These routines provide facilities for editing, error correction an code definitions. As an application of this system we developed a General Data Validation System. This is a system for data-entry with simultaneous consistency tests that gives the users the option of selecting the operational processing mode, that is, batch mode or real-time mode. In the real-time mode it can process simultaneously different data formats, generating the corresponding files of valid data and control reparts. We also presented, for simplifying the programming of the Validation Module, an initial idea for defining a special language with the necessary resources for reaching this objective. / El sistema MACLAN desarrollado en la primera sección de este estudio es un método de acceso para aplicaciones conversacionales de teleprocesamiento en condiciones de memoria fuertemente restrictivas. Consiste de un conjunto de rutinas que pueden ser llamadas desde programas escritos en cualquiera de los lenguajes más comunes de alto nivel. Tales rutinas proveen recursos para edición de mensajes, corrección de errores y definición de códigos. Como aplicación de este sistema, desarrollamos un sistema general de consistencia de datos. Este es un sistema para entrada de dates con controles simultâneos de consistencia que permite al usuario elegir el tipo de procesamiento operacional, es decir, “ Batch” o “real time". En “real time” puede procesar simultáneamente datos con formatos diferentes generando además los correspondientes archivos de informaciones válidas e informes de controles. Con el propósito de facilitar la programación de lo que llamamos "Módulo de Consistencia" presentamos además una serie de ideas para desarrollar un lenguaje especial, con los recursos suficientes para alcanzar tales objetivos.
87

Análise semi-automática do arranjo espacial de plantas de milho utilizando visão computacional / Semi-automatic analysis of the spatial arrangement of corn plants using computer vision

Brilhador, Anderson 29 September 2015 (has links)
A demanda mundial por alimentos cresce a cada ano, tornando necessário o desenvolvimento de novas tecnologias que aumentem a produção de grãos sem aumentar as áreas destinadas ao para plantio. A cultura de milho é uma das principais commodities do mundo, sendo utilizada na alimentação humana e como ração de outros animais, além de possuir outros fins industriais. O milho é sensível ao arranjo espacial de plantas e qualquer variação no padrão de distribuição pode levar à redução na produção do milho. Atualmente, o processo de verificação da uniformidade dos espaçamentos entre plantas é realizado de forma manual por agrônomos e produtores, a fim de prever possíveis perdas de produção. Nesse contexto, este trabalho propõe uma abordagem automática para a análise do arranjo espacial de plantas por meio da mensuração dos espaçamentos entre plantas de milho em fases inicias de crescimento. A partir dessa mensuração são extraídas informações relevantes como densidade populacional, uniformidade do plantio e estimativas de perdas. A abordagem proposta utiliza técnicas de visão computacional de baixo custo computacional para identificar as plantas de milho e mensurar os espaçamentos entre plantas, permitindo seu uso em dispositivos com baixo poder computacional como smartphones e tablets. Um conjunto de imagens foi construído como uma contribuição adicional do trabalho contento 222 imagens panorâmicas da linha de plantio de milho em três condições de plantio: direto, convencional e direto após aplicação de herbicidas. Os resultados dos experimentos alcançaram uma taxa de 90% de precisão e 87% de sensibilidade na identificação das plantas de milhos presentes na base. Uma comparação entre as medidas dos espaçamentos entre plantas realizadas de forma manual e por visão computacional, não apresentou diferenças significativas entre as medições, indicando a eficácia da abordagem proposta no trabalho. / Global demand for food is growing every year, requiring the development of new technologies that increase grain production without increasing the areas destined for planting. The corn crop is a major commodity in the world and is used as food, feed for other animals, in addition to having other industrial purposes. Corn is sensitive to the spatial arrangement of plants and any variation in distribution pattern can lead to reduction in the production of corn. Currently, the process of checking the uniformity of spacing between plants is done manually by agronomists and producers in order to predict possible production losses. In this context, this paper proposes an automatic approach to the analysis of the spatial arrangement of plants by measuring the spacing between corn plants in early stages of growth. From this measurement are extracted relevant information such as population density, uniformity of planting and loss estimates. The proposed approach uses computer vision techniques of low computational cost to identify corn plants and measure the spacing between plants, allowing its use in devices with low computational power such as smartphones and tablets. A set of images was built as an additional contribution of work, containing 222 panoramic images of corn planting in three conditions of planting: direct, conventional and direct after applying herbicides. The experimental results achieve 90% of rate accuracy and 87% sensitivity in identification of corn plants present on the base. A comparison of the measurements of the distances between plants made of manual and computer vision way, no presented significant differences between the measurements, indicating the effectiveness of the proposed approach at work.
88

Dyretiva: um método para a verificação das restrições temporais em sistemas embarcados

Cadamuro Junior, João 10 2011 (has links)
O Dyretiva é um método desenvolvido para utilização na fase de testes de sistemas embarcados operando em tempo real e, em especial, na verificação das restrições temporais do sistema. Como a fase de testes situa-se no final do processo de desenvolvimento, quando o hardware está disponível e o software codificado, a verificação temporal é feita por meio de monitoração do sistema sob teste. As principais premissas do Dyretiva são considerar a limitação de recursos dos sistemas embarcados e as características intrínsecas dos sistemas em tempo real. O método é definido por uma abordagem de monitoração e por um modelo de falta. A abordagem de monitoração define a interface física e lógica necessárias para observar o sistema sob teste, bem como as estratégias de utilização que permitem otimizar a coleta de dados. O modelo de falta identifica as relações e componentes do sistema onde existe maior probabilidade de encontrar os erros procurados. Para demonstrar os conceitos do Dyretiva, um conjunto de ferramentas de apoio a aplicação do método foi construído. Este conjunto, chamado de SoftScope, é composto por seis ferramentas: um pré-instrumentador de código, um instrumentador de código, um monitor, um programa de controle do monitor, programas para filtragem e análise dos dados capturados e um programa de visualização dos resultados. O Dyretiva e o SoftScope são parte integrante do projeto PERF, que está em andamento no LIT (Laboratório de Inovação e Tecnologia em Sistemas Embarcados) da UTFPR (Universidade Tecnológica Federal do Paraná), cujo objetivo é construir um ambiente completo para o desenvolvimento de sistemas embarcados operando em tempo real. / The Dyretiva is a method used for verifying the time constraints of embedded realtime systems. The verification is performed by monitoring the embedded software when it is running in an embedded hardware. The Dyretiva method takes into account the resource constrained nature of embedded systems and the time bounded nature of real-time systems. The method is comprised by a monitoring approach and a fault model. The monitoring approach defines the physical and the logical interfaces used in the observation of the system under test, as well as the strategies used for an optimized trace data collection. The fault model identifies relationships and components of the system under test that are most likely to have time faults. To demonstrate Dyretiva concepts, a set of support tools called SoftScope has been developed. SoftScope is comprised of a source code pre-instrumentation tool, a source code instrumentation tool, a hybrid monitor, a program for controlling the hybrid monitor, programs for filtering and analyzing trace data, and a graphical presentation tool. The Dyretiva method and the SoftScope tool set are an integral part of the work-inprogress PERF project, which is under development in the LIT (Laboratory of Embedded Systems Innovation and Technology), at the UTFPR (Federal Technological University of Paraná State). The objective of the PERF project is to build a complete environment suitable for the development of embedded and real-time systems.
89

Dyretiva: um método para a verificação das restrições temporais em sistemas embarcados

Cadamuro Junior, João 10 2011 (has links)
O Dyretiva é um método desenvolvido para utilização na fase de testes de sistemas embarcados operando em tempo real e, em especial, na verificação das restrições temporais do sistema. Como a fase de testes situa-se no final do processo de desenvolvimento, quando o hardware está disponível e o software codificado, a verificação temporal é feita por meio de monitoração do sistema sob teste. As principais premissas do Dyretiva são considerar a limitação de recursos dos sistemas embarcados e as características intrínsecas dos sistemas em tempo real. O método é definido por uma abordagem de monitoração e por um modelo de falta. A abordagem de monitoração define a interface física e lógica necessárias para observar o sistema sob teste, bem como as estratégias de utilização que permitem otimizar a coleta de dados. O modelo de falta identifica as relações e componentes do sistema onde existe maior probabilidade de encontrar os erros procurados. Para demonstrar os conceitos do Dyretiva, um conjunto de ferramentas de apoio a aplicação do método foi construído. Este conjunto, chamado de SoftScope, é composto por seis ferramentas: um pré-instrumentador de código, um instrumentador de código, um monitor, um programa de controle do monitor, programas para filtragem e análise dos dados capturados e um programa de visualização dos resultados. O Dyretiva e o SoftScope são parte integrante do projeto PERF, que está em andamento no LIT (Laboratório de Inovação e Tecnologia em Sistemas Embarcados) da UTFPR (Universidade Tecnológica Federal do Paraná), cujo objetivo é construir um ambiente completo para o desenvolvimento de sistemas embarcados operando em tempo real. / The Dyretiva is a method used for verifying the time constraints of embedded realtime systems. The verification is performed by monitoring the embedded software when it is running in an embedded hardware. The Dyretiva method takes into account the resource constrained nature of embedded systems and the time bounded nature of real-time systems. The method is comprised by a monitoring approach and a fault model. The monitoring approach defines the physical and the logical interfaces used in the observation of the system under test, as well as the strategies used for an optimized trace data collection. The fault model identifies relationships and components of the system under test that are most likely to have time faults. To demonstrate Dyretiva concepts, a set of support tools called SoftScope has been developed. SoftScope is comprised of a source code pre-instrumentation tool, a source code instrumentation tool, a hybrid monitor, a program for controlling the hybrid monitor, programs for filtering and analyzing trace data, and a graphical presentation tool. The Dyretiva method and the SoftScope tool set are an integral part of the work-inprogress PERF project, which is under development in the LIT (Laboratory of Embedded Systems Innovation and Technology), at the UTFPR (Federal Technological University of Paraná State). The objective of the PERF project is to build a complete environment suitable for the development of embedded and real-time systems.
90

Qualidade de serviço de detectores de defeitos na presença de rajadas de perdas de mensagens / Quality of service of failure detectors in the presence of message loss bursts

Sotoma, Irineu 29 September 2006 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-07T10:13:43Z (GMT). No. of bitstreams: 1 Sotoma_Irineu_D.pdf: 1483229 bytes, checksum: 9fd71c5e3e9cefbd8ffefab03b2eb566 (MD5) Previous issue date: 2006 / Resumo: A Qualidade de Serviço (QoS) de detectores de defeitos determina a rapidez que um detector de defeitos q detecta a quebra de um processo p, e a precisão que q informa essa quebra. Em redes de longa distância e em redes sem fio, a ocorrência de quebras de processo, altas variações de atraso e perdas de pacotes em rajadas são comuns. Nestas condições, uma escolha adequada de parâmetros, por um configurador de detectores de defeitos, para manter o detector de defeitos satisfazendo os requisitos de QoS, é requerida. Por isso, este trabalho propõe um configurador de detector de defeitos que leva em conta a distribuição de probabilidade de comprimento de rajadas de perdas de pacotes de mensagem, através do uso de um modelo de Markov. Os resultados da simulação mostram que os parâmetros fornecidos pelo configurador proposto tendem a levar o detector de defeitos a satisfazer os requisitos de QoS em redes sujeitas a rajadas de perdas. Adicionalmente, a pesquisa mostra que é possível melhorar a precisão do detector de defeitos usando uma combinação de estimadores simples de atrasos de mensagens / Abstract: The quality of service (QoS) of failure detectors determines how fast a failure detector q detects the crash of a process p, and how accurate q informs the p crash. In wide area networks and wireless networks, the occurrence of process crashes, high delay variations and burst losses in message packets are common. In these conditions, an adequate choice in the failure detector parameters, by a failure detector configurator, to keep the failure detector satisfying the QoS requirements, is required. Therefore, this work proposes a failure detector Configurator which takes into account the probability distribution of loss burst lengths of message packets, by using a Markov model. The simulation results show that the parameters provided by the proposed configurator tend to lead the failure detector to satisfy the QoS requirements in networks subject to message loss bursts. Additionally, the work shows that is possible improve the accuracy of the failure detector by using a simple combination of simple message delay estimators / Doutorado / Mestre em Ciência da Computação

Page generated in 0.1657 seconds