• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 421
  • 22
  • 16
  • 16
  • 16
  • 10
  • 10
  • 6
  • 6
  • 6
  • 6
  • Tagged with
  • 445
  • 445
  • 212
  • 115
  • 113
  • 105
  • 89
  • 63
  • 63
  • 57
  • 52
  • 50
  • 49
  • 48
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Controle das decisões jurídicas pela técnica do auto-precedente

Cella, José Renato Gaziero January 2008 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Ciências Jurídicas, Programa de Pós-Graduação em Direito, Florianópolis, 2008. / Made available in DSpace on 2012-10-24T05:26:34Z (GMT). No. of bitstreams: 1 267240.pdf: 4201601 bytes, checksum: efef026b8a5051606359995f225c0f53 (MD5) / O estágio em que se encontra debate filosófico-jurídico da atualidade ainda se mantém na polêmica entre o positivismo jurídico (postura voluntarista) e os anti-positivismos (posturas racionalistas), em que o positivismo jurídico realça o papel descritivo da atividade do jurista, que ao encarar o Direito como sistema deve tratar de reconhecer o Direito validamente contido no interior de dito sistema e enfrentar seus problemas de redundância, de lacunas, de contradições, de vagueza, de ambigüidade de suas normas e assim por diante; ao passo que as teorias anti-positivistas com maior destaque na atualidade destacam o caráter argumentativo do Direito e esperam fornecer critérios para a otimização na tomada de decisões jurídicas, critérios esses que podem conter inclusive valorações morais. A presente tese não toma partido em favor de uma ou outra posição nessa polêmica, e não o faz porque a aplicação da lógica ao Direito, objeto central da discussão, prescinde de comprometimento com qualquer que seja a teoria do Direito analisada, haja vista que a lógica é de tal modo abstrata que pode estar a serviço de todas elas, como ferramenta de auxílio para o tratamento racional dos problemas que surgirem no interior dessas teorias. Preocupa-se, isto sim, com um aspecto singular da atividade jurídica, que é a utilização da técnica do precedente como regra de razão que exclui ou, ao menos, ajuda a atenuar a discricionariedade na interpretação e aplicação do Direito, técnica essa que pode ser aperfeiçoada com a aplicação de sistemas especialistas legais a partir da proposta e criação de modelos informáticos baseados em lógicas paraconsistentes, independentemente da teoria do Direito que se adote. Diante da crise por que passa a razão desde o início do século XX e as conseqüências dessa crise sobre a filosofia da ciência, constata-se que essa crise foi bastante frutífera para a teoria do conhecimento, sendo que desse contexto se extrai o marco metodológico da tese, em especial a adoção da idéia de verdade pragmática e o acolhimento do método axiomático para lidar com os problemas jurídicos. Sob esse enfoque, trilha-se o caminho percorrido pela história da filosofia do Direito tendo-se como baliza o problema da justiça a fim de que os problemas jurídicos a que se propõe oferecer guias para solução sejam explicitados. Descreve-se, então, o posicionamento teórico das correntes do pensamento jurídico que, ao tratarem da relação entre Direito e moral, apresentaram diversas propostas, desde a forma assumida pelo positivismo jurídico contemporâneo, que admite a discricionariedade e insiste na separação entre Direito e moral; passando pelos formuladores de teorias da argumentação que pretendem fornecer critérios objetivos de verificabilidade de correção de decisões; e chegando mesmo à proposta de que sempre deverá ser possível, em todos os casos, a tomada de uma decisão justa. A partir daí se introduz a idéia de universalização das decisões como um bom critério formal e objetivo de justiça; e dentro dele se lança a idéia de auto-precedente, isto é, a doutrina ou os critérios adotados pelo próprio juiz ou tribunal para a resolução de casos anteriores, em que o respeito ao precedente supõe, nessa concepção, uma exigência de autocongruência, procedimento esse que, em princípio, dirige-se ao passado como fidelidade a casos anteriores, mas que se remete também # e principalmente # ao futuro, neste caso como consciência de que um bom critério de resolução será o que deverá ser aplicado também para resolver casos posteriores, ou seja, o critério que se possa pretender que se transforme em precedente. Para a realização da tarefa acima mencionada, propõe-se a utilização da lógica formal como ferramenta. Para tanto, inicialmente se apresentam aspectos históricos da disciplina da lógica, em especial a criação das lógicas paraconsistentes por Newton da Costa; após o que se parte para a demonstração da possibilidade de aplicação da lógica formal ao Direito; e, por fim, indica-se a aplicação de cálculos lógicos paraconsistentes na construção de sistemas especialistas legais que sirvam como instrumento de controle de racionalidade de auxílio ao intérprete na tomada de suas decisões jurídicas.
92

Avaliação do sistema de informatização processual por meio do design macroergonômico

Assis, Vania Fonseca de Freitas January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2013-07-16T01:41:29Z (GMT). No. of bitstreams: 1 223933.pdf: 2171032 bytes, checksum: effae6b95e1a7b2d1c29a73a7fde29b8 (MD5) / Este trabalho tem como objetivo a avaliação ergonômica do aplicativo que visa à realização de tarefas jurisdicionais desenvolvido pelo grupo do DesignLab da Universidade Federal de Santa Catarina (UFSC) para o Tribunal Regional do Trabalho (TRT), primeira Instância da Justiça Trabalhista. Para tanto, foi necessário realizar estudos sobre o perfil do usuário, aspectos ergonômicos e usabilidade de interfaces gráficas, relacionando-se algumas técnicas de avaliação, dentre as quais se destaca a técnica Design Macroergonômico (DM). A metodologia empregada consiste de uma pesquisa exploratória qualitativa descritiva para investigar os problemas e características do aplicativo, realizada pela aplicação do DM. O método aplicado serviu para nortear a sugestão de alterações ao sistema visando This study aims the ergonomic evaluation of the application resulting on the accomplishment of jurisdictional tasks developed by DesignLab of Universidade Federal de Santa Catarina (UFSC) for the Labor Court (Tribunal Regional do Trabalho - TRT), 1st Instance of Labor Court. For this purpose, it became necessary to study the users' profile, ergonomic aspects and the use of graphic interface, relating to some evaluation techniques such as Macroergonomic Design. The methodology applied consists of a detailed quality research in order to investigate the problems and characteristics of the application made by the usage of the macroergonomic design. The applied method offered directions to the alterations to the system aiming improvement of the ergonomic aspects of the application.
93

Análise da rentabilidade de empresas

Dill, Rodrigo Prante January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Sócio-Econômico. Programa de Pós-Graduação em Administração. / Made available in DSpace on 2013-07-16T02:53:17Z (GMT). No. of bitstreams: 1 223997.pdf: 754261 bytes, checksum: ba2471b60e650b87fa3cf7a2f90d6ea8 (MD5) / O propósito deste estudo consiste em propor um modelo que utiliza a lógica nebulosa para a análise da rentabilidade de empresas. Neste estudo, entrevistou-se uma amostra de vinte analistas financeiros para identificar junto aos mesmos os principais índices que revelam a rentabilidade de empresas do setor de alimentos, utilizando-se dados de sessenta e três empresas do setor de alimentos publicados pelo Valor1000 do Jornal Valor Econômico, edição 2004. De acordo com a escala de Matarazzo (2003), os dados coletados foram analisados e classificados e a cada índice de rentabilidade foi atribuída uma variável qualitativa conforme sua posição em relação ao decil. Utilizando-se um software específico (Matlab®) definiram-se as funções de pertinência e implementaram-se 2401 regras de inferência para implementação do sistema. Os resultados obtidos pelo sistema nebuloso, utilizando diferentes métodos de defuzzificação, foram confrontados com a avaliação de analistas financeiros do Banco de Desenvolvimento do Extremo Sul - BRDE. Os resultados dessa pesquisa demonstram que modelos nebulosos podem ser utilizados como ferramentas eficazes no auxílio e na validação dos pareceres de especialistas na análise de rentabilidade das empresas.
94

Sistema computacional para o processamento, a análise e a classificação do sinal eletrocardiográfico de neonatos e adultos

Palodeto, Viviane January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2013-07-16T03:09:42Z (GMT). No. of bitstreams: 1 228090.pdf: 2030737 bytes, checksum: 1c0dd895da1ca7b21d2ceb87aa56b319 (MD5) / O eletrocardiograma (ECG) é uma ferramenta utilizada para o diagnóstico de cardiopatias e outras doenças. Sua análise pode ser realizada automaticamente por sistemas computacionais. No entanto, algoritmos desenvolvidos para análise do ECG de pacientes adultos não podem ser aplicados em neonatos, devido às diferenças entre os padrões do ECG de um adulto e de um neonato. Este trabalho tem como objetivo apresentar técnicas, agrupadas em um sistema computacional (NeoCard), que possibilitem o processamento, a análise e a classificação do eletrocardiograma tanto de neonatos quanto adultos. Este sistema é dividido em três etapas. Na primeira, são removidos os principais ruídos que acometem o ECG. Em seguida, são detectados os intervalos, os segmentos e as ondas do sinal. Com base nas informações extraídas durante a detecção, o ECG é analisado e classificado segundo as arritmias de maior freqüência. Na etapa de pré-processamento, a eliminação da linha de base e ruído impulsivo é realizada por métodos não lineares de filtragem. Para a detecção das ondas, as wavelets são empregadas. Por fim, a análise utiliza um conjunto de regras para indicação de um diagnóstico, enquanto os batimentos são classificados por uma rede neural entre três categorias (batimento normal ou duas classes de arritmias). O desempenho alcançado com a detecção das ondas R atingiu uma sensibilidade de 99,94%. A classificação dos batimentos cardíacos alcançou os valores de 92,55% para sensibilidade e 99,71% para especificidade. Os resultados obtidos mostram a capacidade do sistema desenvolvido em processar, analisar e classificar o ECG de pacientes adultos e neonatos.
95

Seleção de recursos baseada nas características das aplicações em ambientes de grade de multi-agregados

Silva, Rodrigo Grumiche 26 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2011 / Made available in DSpace on 2012-10-26T07:41:58Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T20:48:33Z : No. of bitstreams: 1 293086.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Grades computacionais são uma estrutura complexa constituída com hardware e software e que provê acesso confiável, pervasivo e de baixo custo a recursos computacionais de alto desempenho. Middlewares de grade fazem parte desta infraestrutura e são responsáveis por esconder a complexidade deste ambiente aos seus usuários, permitindo que estes usem os recursos disponíveis para a execução de aplicações e armazenamento de dados de maneira facilitada. Os meta-escalonadores fornecem serviços para submissão de aplicação a serem executadas em recursos computacionais de uma grade. Usualmente o mecanismo de seleção de recursos do meta-escalonador é baseado numa descrição sintática ou semântica dos requisitos de hardware e software necessários para executar a aplicação, que é informado pelo usuário. O problema é que esta abordagem requer que o usuário tenha um bom conhecimento sobre as características que recursos computacionais podem ter e como estes afetam a execução da aplicação do usuário. Isto ocorre porque as aplicações possuem características estruturais e comportamentais que restringem quais recursos são capazes de executá-la. E tais características também podem afetar o desempenho da aplicação, dependendo das características do recurso. Nesta dissertação é proposta uma alternativa heurística para a seleção de recursos computacionais num ambiente de grade de múltiplos agregados, onde o usuário descreve as características das aplicações e o mecanismo de seleção de recursos avalia o nível de adequação dos recursos computacionais disponíveis no ambiente de grade. Tal mecanismo se utiliza de descrição ontológica das características da aplicação para seleção e de um sistema de controle difuso para obter os níveis de adequação de cada um dos recursos computacionais. Para validação da proposta, o simulador de ambientes de grade GridSim foi utilizado e foram verificadas melhorias em alguns cenários de simulação.
96

Caracterização computacional para alocação distribuída para uma configuração com interface natural de usuário

Ferreira, Guilherme Maciel January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2015-11-03T03:08:31Z (GMT). No. of bitstreams: 1 335776.pdf: 2160365 bytes, checksum: 68ea7ab8421bb65ea38a23e2b8c19ef8 (MD5) Previous issue date: 2015 / Em um sistema distribuído heterogêneo, como grades computacionais, a escolha do sistema computacional para processar uma tarefa é realizada por meio de heurísticas adotadas igualmente para todos os sistemas. Os métodos atuais para avaliação da carga computacional, em grades heterogêneas, não levam em consideração características qualitativas que afetam o desempenho. Sistemas computacionais aparentemente idênticos, com as mesmas características quantitativas (tal como a quantidade de núcleos de processamento e de memória), podem apresentar desempenhos desiguais. O método proposto consiste em uma política de informação ao balanceamento de carga e tem como objetivo mensurar a carga dos sistemas computacionais por meio da avaliação de seus recursos quantitativos, tanto os imutáveis (como a quantidade de núcleos de processamento) quanto os mutáveis (como o percentual de memória livre), e qualitativos, inerentes à arquitetura do sistema computacional. A comparação da carga computacional entre os sistemas permite que o balanceamento de carga seja realizado mesmo em sistemas distribuídos heterogêneos para que seja possível a escolha do sistema computacional no qual executar uma tarefa da forma mais eficiente. Esta pesquisa utiliza a ferramenta CVFlow, uma Interface Natural de Usuário destinada ao balanceamento de carga, para avaliar o método proposto. O experimento consiste no escalonamento de um conjunto de tarefas e na comparação do método proposto com o estado da arte presente na literatura. O método proposto fornece um conjunto de melhorias que distribuem a carga de forma mais homogênea entre os sistemas computacionais, evitando, assim, sobrecarregar um sistema específico, além de oferecer um desempenho superior na execução do conjunto de tarefas.<br> / Abstract : In a distributed heterogeneous system, such as grids, the choice of a computer system to process a task is performed by means of heuristics adopted equally for all systems. Current methods for assessing the computing load, on heterogeneous grids, do not take into account qualitative characteristics that affect performance. Computer systems apparently identical, with the same quantitative traits (such as the number of processing cores and memory), may provide different performance. The proposed method consists of an information policy to load balancing. It aims to measure the load of a computer systems through the assessment of their quantitative and qualitative features. Quantitative, both immutable (as the number of cores) and mutable (as the percentage of free memory). And the qualitative, inherent to the computer system architecture. Comparison of computational load between systems allows load balancing to be performed even in heterogeneous distributed systems, to be able to choose the computer system on which to perform a task more efficiently. This research uses the CVFlow tool, a Natural User Interface intended for load balancing, to evaluate the proposed method. The experiment consists of the scheduling of a set of tasks and the comparison of the proposed method with the state of the art. The proposed method provides a set of improvements that distribute the load more evenly among computer systems, avoid overloading a particular system, and provides a better performance on the execution of the set of tasks.
97

Uma abordagem de reserva antecipada de recursos em ambientes oportunistas

Gomes, Eliza Helena Areias January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:31:50Z (GMT). No. of bitstreams: 1 324075.pdf: 3522909 bytes, checksum: fe21f0166c9e3f4e8335b1b55b686f69 (MD5) Previous issue date: 2013 / A grade computacional é muito utilizada quando se deseja alto desempenho para resolução de problemas que requerem alto poder de processamento. As grades oportunistas, um tipo de grade computacional, possuem o diferencial de utilizar recursos computacionais ociosos de máquinas pessoais para a resolução destes problemas, o que torna esse ambiente mais barato e, consequentemente, mais interessante, principalmente para a comunidade acadêmica. No entanto, nos ambientes oportunistas a disputa por recursos torna-se maior devido à instabilidade e constante uso de seus recursos. Problemas como o excesso de solicitações de alocação de recursos em um mesmo período podem ser recorrentes, o que pode tanto prejudicar o desempenho do sistema quanto tornar o processo de solicitação de recursos trabalhoso para o usuário, uma vez que este terá que repetir o processo até que haja recursos disponíveis para a sua execução. Uma maneira eficiente de resolver tal problema é com a utilização da reserva antecipada de recursos. Este mecanismo permite que o usuário selecione um conjunto de recursos para que sejam utilizados em um período no futuro, considerando oportunisticamente os recursos disponíveis. Diante disso, esta dissertação propôs a utilização do mecanismo de reserva antecipada em um ambiente de grade oportunista. O objetivo foi melhorar a vazão do uso de recursos oportunistas, de modo a oferecer a possibilidade de alocação dos recursos durante um longo período de tempo, e não apenas no momento da solicitação. Estudos de caso foram realizados para ilustrar o comportamento de um ambiente oportunista com a abordagem proposta, bem como para comparar os ambientes que utilizam e não utilizam reserva antecipada. Os resultados mostraram a eficiência e validade da utilização de tal abordagem em um ambiente distribuído.<br> / Abstract : Grid computing is widely used when high performance is desired to resolve problems that require high processing power. Opportunistic grids, a type of grid computing system, have the differential to use idle computing resources of personal machines to solving these problems, making the solution cheaper and consequently more interesting, specially for the academic community. However, opportunistic environments have more competition for resources due to instability and constant use of their resources. Problems such as excessive requests of resources allocation can be recurrent and can both degrade the performance of the system and make the process of resource requests harder to user, once the user will have to repeat this process until there are available resources to the execution. An efficient way to solve this problem is through the use of advanced reservation of resources. This mechanism allows user to select a set of resources to be used in the future opportunistically considering available resources. Therefore, this dissertation proposed the use of the advanced reservation mechanism in an opportunistic grid environment. The goal was to improve the use flow of the opportunistic resources in order to offer the resources allocation possibility for a long period of time and not only at the time of request. Case studies were carried out to illustrate the behaviour of an opportunistic environment with the proposed approach, as well as to compare environments that use with others that do not use advanced reservation. The results show the efficiency and validity of the approach in a distributed environment.
98

Compreendendo a computação autonômica no ambiente de tecnologia da informação : uma abordagem pela engenharia ontológica / Leonardo de Pinho Sepulcri ; orientador, Leandro dos Santos Coelho

Sepulcri, Leonardo de Pinho January 2008 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2008 / Bibliografia: f. 133-141 / A computação autonômica assume que, cada vez mais, a indústria de Tecnologia da Informação (TI) cria sistemas mais complexos. As operações realizadas em nosso dia a dia, das mais simples às mais complicadas, se tornam mais e mais dependentes dos sistemas / Autonomic computing assumes that each time the Information Technology industry creates more complex systems. The operations carried through day by day, since the simplest one to the most complicated, become more dependents of the technological systems. In
99

Mecanismos de previsão de perda de deadline para tratadores de eventos RTSJ

Bodemüller Junior, Rogério January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T20:53:40Z (GMT). No. of bitstreams: 1 329307.pdf: 1643347 bytes, checksum: 3de99811d39b919df26c4a225efbebf6 (MD5) Previous issue date: 2014 / Estrategias para estimar a probabilidade de deadlines firmes serem alcançados são fundamentais porque permitem a realização de ações corretivas para a melhoria do desempenho do sistema. Este tipo de estrategia permite a avaliação de sistemas de tempo real que estão em funcionamento, principalmente quando ha alguma mudança quanto ao projeto inicial, ou mesmo avaliar novos projetos para analisar se as restrições temporais foram definidas adequadamente. Nesta dissertação são apresentados dois mecanismos de previsão de perda de deadline em sistemas monoprocessados e multiprocessados de tempo real firme. O Mecanismo de Previsão de Perda de Deadline Baseado na Folga (MBF) utiliza dados sobre o comportamento das tarefas (deadline, tempo de computação e o tempo de espera na fila de prontos do processador) para calcular a folga e determinar se o deadline pode ser cumprido. O Mecanismo de Previsão de Perda de Deadline Baseado no Histórico (MBH) utiliza regressão linear e relaciona dados de um histórico de execuções passadas, que possui o tamanho da fila de prontos do processador e seu respectivo tempo de resposta, com o tamanho atual da fila de prontos do processador para calcular o tempo de resposta previsto da thread e depois definir a probabilidade dela cumprir seu deadline. Sera apresentado um modelo de tarefas para aplicações não críticas em um sistema de tempo real firme que caracteriza uma aplicação real utilizada nos testes, o cruise control. Estes testes foram feitos utilizando uma implementação em Java RTS desta aplicação em um ambiente não especialista, próximo de um ambiente de tempo real comum, com varias configurações, buscando abranger uma grande gama de cenários. Após os testes, a qualidade das previsões é avaliada utilizando as Métricas Taxa Relativa de Erro e Taxa de Previsões Corretas. Os resultados demonstram que ambos os mecanismos trazem bons resultados em ambientes com cargas baixas, medias e altas, sendo o MBF um excelente previsor para sistemas monoprocessados e o MBH mais adequado aos sistemas multiprocessados.<br> / Abstract: Strategies to estimate the probability of rm deadlines be achieved areessential because they allow the use of corrective actions to improvesystem performance. This type of strategy allows the evaluation of realtimesystems that are in operation, especially when there is any changeon the initial design, or evaluate new projects to analyze whether thetemporal constraints were appropriately settled. In this dissertation,two deadline missing prediction mechanisms for rm real-time uniprocessorand multiprocessor systems are presented. The Deadline MissingPrediction Mechanism Based on Slack (MBF) uses data of tasks's behavior(deadline, computation time and the waiting time in the processorready queue) to calculate the slack and determine whether the deadlinecan be met. The Deadline Missing Prediction Mechanism Based onHistorical Data (MBH) uses linear regression and associates data froma past execution's historical, which is the size of the processor readyqueue and its associated response time, with the current size of processorready queue to calculate the predicted response time of the threadand then dene the probability of meeting its deadline. A model of tasksfor non-critical applications in a rm real-time system which characterizesa real application, similar to the cruise control, will be usedin the tests. These tests were done using an implementation in JavaRTS applied to a non-specialist environment as a common real-timeenvironment with various congurations scenarios. The quality of theforecasts is evaluated using the metrics Relative Error Rate and CorrectPrediction Rate. The results indicate that both mechanisms improve theperformance in environments with high, medium and low system loadwhereas the MBF being an adequate predictor for uniprocessor systemsand the MBH best suited to multiprocessor systems.
100

Tangram: uma ferramenta de apoio à verificação formal de sistemas de tempo real baseados em componentes

Muniz, André Luís Nunes 30 October 2009 (has links)
Submitted by LIVIA FREITAS (livia.freitas@ufba.br) on 2016-01-07T15:22:21Z No. of bitstreams: 1 Dissertação-André-Muniz.pdf: 3386047 bytes, checksum: b3c92a5e3dbc8813fb07b262694fd7f0 (MD5) / Approved for entry into archive by LIVIA FREITAS (livia.freitas@ufba.br) on 2016-01-14T17:47:44Z (GMT) No. of bitstreams: 1 Dissertação-André-Muniz.pdf: 3386047 bytes, checksum: b3c92a5e3dbc8813fb07b262694fd7f0 (MD5) / Made available in DSpace on 2016-01-14T17:47:44Z (GMT). No. of bitstreams: 1 Dissertação-André-Muniz.pdf: 3386047 bytes, checksum: b3c92a5e3dbc8813fb07b262694fd7f0 (MD5) / Sistemas computacionais são utilizados atualmente em aplicações consideradas criticas e com alto grau de complexidade, como e o exemplo da automação industrial, controle de navegação em aeronaves, equipamentos médicos, entre outros. Com o intuito de lidar com esta complexidade e, ao mesmo tempo, dar garantias de confiabilidade, novas abordagens de desenvolvimento e validação de software t^em sido empregadas neste contexto. No que tange os chamados sistemas de tempo real, nos quais a correção do sistema depende do cumprimento de suas restrições temporais, duas abordagens vem ganhando muita atenção nos últimos anos, o desenvolvimento baseado em componentes, ou CBD (Component-Based Development), e os métodos formais de verificação de software, com atenção especial para a verificação de modelos (Model-Checking), que esta entre as técnicas formais mais utilizadas na industria e na academia. Entretanto, existem poucas abordagens propostas no sentido de aplicar a verificacao de modelos a sistemas de tempo real críticos baseados em componentes. Um dos principais desa os nesta área e a falta de abordagens/ferramentas que deem suporte a uma fácil integração dos métodos formais ao processo de desenvolvimento baseado em componentes. Isto e causado muitas vezes pela falta de compatibilidade entre as abordagens atuais de verificação formal e os diversos modelos de componentes existentes no mercado. Diante disto, este trabalho propõe uma abordagem para a integração da verificação de modelos ao processo de desenvolvimento baseado em componentes para sistemas de tempo real, através de uma tradução automática de modelos semi-formais de sistemas baseados em componentes para modelos formais passiveis de verificação. A linguagem de modelagem considerada neste trabalho e a UML (Uni ed Modeling Language), a qual ja e um padrão em termos de especificação de sistemas, sendo largamente utilizada na industria e na academia, para diversos tipos de aplicação e abordagens de desenvolvimento. Os modelos formais gerados pela tradução são autômatos temporizados do verificador de modelos UPPAAL, o qual e um verificador de modelos voltado para sistemas de tempo real. Para dar suporte a abordagem deste trabalho, foi desenvolvida uma ferramenta chamada TANGRAM (Tool for Analysis of Diagrams), a qual e capaz de traduzir diagramas da UML em automatos temporizados. Um estudo de caso da utilizacao de TANGRAM foi realizado e e apresentado neste trabalho.

Page generated in 0.0866 seconds