• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 221
  • 11
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 2
  • Tagged with
  • 240
  • 240
  • 142
  • 92
  • 83
  • 80
  • 54
  • 52
  • 45
  • 45
  • 40
  • 37
  • 36
  • 35
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Processo para análise de compatibilidade de software e hardware em modificações de sistemas computacionais embarcados.

Verônica Isabela Quandt 11 June 2008 (has links)
Com base na afirmação de que melhores processos são processos mais eficientes e que estes aumentam a capacidade da empresa de se manter competitiva, este trabalho propõe um processo para analisar a compatibilidade de software e hardware no caso de alterações em sistemas computacionais embarcados, típicos da indústria aeronáutica. Como base para a elaboração do processo, é feita uma pesquisa que começa com a apresentação de definições de processos e compatibilidade, segue com a apresentação de tendências na área, resume o conceito de sistemas aeronáuticos e ferramentas de modelagem e otimização de processos, e finaliza com um resumo das normas aplicáveis a sistemas computacionais embarcados. As necessidades para se aplicar o processo são definidas e traduzidas por requisitos; e a definição do processo é executada com o detalhamento de fluxos de tarefas, perfis operacionais, documentos e treinamentos. Finalmente, o estudo de caso apresenta uma aplicação prática do processo desenvolvido.
102

Desenvolvimento de software aplicativo em barramento de campo (FieldBus) utilizando a pilha de protocolos TCP / IP.

Orlando Domingos Onofre Júnior 00 December 1998 (has links)
A proposta deste trabalho é o desenvolvimento de um software aplicativo, com características de um serviço de supervisão, que possibilite o acesso a dados de sensores padrão FieldBus remotamente, através de rede de computadores, utilizando protocolos usuais de comunicação; adotamos o protocolo TCP / IP, aliado ao conceito de sockets para ambiente Windows, por ser um "padrão de fato" difundido mundialmente. Inicialmente, são apresentados os conceitos básicos ligados a redes de computadores, tais como o modelamento OSI e suas camadas, para posteriormente justificar o uso de determinadas camadas pelo padrão FieldBus. A seguir, tratamos do assunto do paradigma de sockets do Winsock, com a finalidade de expandir a funcionalidade dos sockets originais de Berkeley, acrescentando extensões específicas para suportar a natureza orientada a mensagens do ambiente operacional Windows, utilizado como plataforma para o desenvolvimento do software aplicativo. Finalmente, são apresentados os resultados quando da utilização dos serviços supervisórios, comprovando assim a eficiência e a possibilidade de utilização de uma rede padrão FieldBus combinada a uma rede padrão Ethernet.
103

Tradução automática de modelos informais para especificações formais de sistemas de software

Josivaldo Santos 01 November 1996 (has links)
O processo de produção de software possui, genericamente, as fases de definição, de desenvolvimento e de verificação, entrega e manutenção. Dentro da fase de definição encontra-se a atividade de Análise de Requisitos de Software, que interliga os subsídios de software a nível de sistema de projeto de softwate.Tal análise compõe-se das etapas de reconhecimento do problema, avaliação e síntese, modelamento, epecificação e revisão. Todas essas etapas interdependentes e concorrentes. Enquanto a etapa de modelamento tende à informalidade, a etapa de especificação deve ser formal. Surge, assim. a seguinte questão: É possível gerar automaticamente uma especificação formal a partir de um dado modelo informal de um sistema? Tentando responder essa questão, este trabalho de pesquisa descreve mecanismos de mapeamento automático de Diagrmas de Fluxo de Dados para a linguagem de especificação formal LOTOS (Language Of Temporal Ordering Specification), ressaltando as vantagens da utilização desses mecanismos no processo de produção de software.
104

Um projeto de banco de dados para o sistema de treinamento

Alice Aiko Tanaka 01 August 1991 (has links)
O objetivo deste trabalho é apresentar um projeto de Banco de Dados para o sistema de treinamento PBDTRE, aqui proposto, que poderá vir a se uma ferramenta de trabalho para os profissionais de treinamento das empresas, na realização das atividades de planejamento e de execução do treinamento do pessoal. Juntamente com o PBDTRE propõe se uma sistematização dessas atividades de treinamento, que inclui a abordagem "top-down" dos problemas e a forma iterativa para alcançar o resultado desejado. Todas as atividades realizadas pela equipe de treinamento podem se definidos com base em três classes de informações, denominadas neste trabalho de visão dos objetivos da empresa e visão de treinamento. Todo o treinamento deve ser realizado de acordo com um planejamento prévio, conforme as metas e a realidade das empresas, procurando se dessa forma, obter para ela o máximo de retorno. Finalmente, o trabalho mostra também como as técnicas de engenharia de software forem utilizadas para o desenvolvimento do PBDTRE.
105

Identificação da dinâmica e controle por alocação de autoestrutura para pouso automático de Mini-VANT em pista curta com aproximação 3D

Tiago Bücker 09 August 2011 (has links)
Este trabalho propõe e avalia, através de simulação, um sistema de controle multivariável para o pouso automático de um mini-VANT em pista curta valendo-se de tubo de pitot, sensores girométricos, GPS, altímetro-pressão e altímetro-ultrassom embarcados. A manobra visa automatizar o procedimento de pouso realizado por piloto experiente de aeromodelo radiocontrolado, o qual é caracterizado por uma etapa descendente com variação simultânea de azimute para alinhamento da proa com a pista, seguida por descida segundo rampa íngreme e arredondamento final antes do encontro do solo. Tal manobra é motivada quando há disponível apenas uma pequena extensão de pista e cujas dimensões da zona de aproximação livre de obstáculos impeçam o pouso com emprego de rampa longa e suave alinhada com o eixo da pista. A brusca variação de altitude e azimute simultaneamente, no entanto, acaba por provocar o acoplamento dinâmico dos modos de resposta nos planos longitudinal e látero-direcional da aeronave, fator que introduz maior complexidade no projeto de um controlador robusto às perturbações externas e às incertezas de modelagem. A aeronave utilizada no estudo foi o aeromodelo de treinamento de pequeno porte Alpha60 da Hangar-9, originalmente radiocontrolado, disponível comercialmente e amplamente utilizado por aeromodelistas. Suas principais características foram determinadas a partir de ensaios em túnel de vento, os quais juntamente com os dados obtidos de softwares de modelagem CAD e CFD permitiram a definição de um modelo adequado para o projeto e validação do piloto automático para pouso. A técnica de controle, alocação de autoestrutura, mostrou-se uma alternativa efetiva para lidar com o acoplamento das dinâmicas longitudinal e látero-direcional existente durante a etapa em curva descendente. Foram avaliados diversos cenários de pouso, com a aeronave exposta a turbulências do tipo Dryden e vento constante de magnitude média de até 31 km/h, aproximadamente 50% da velocidade da aeronave durante a etapa de aproximação para pouso. Adicionalmente, investigaram-se efeitos na variação dos parâmetros do veículo e ruído nos diversos sensores. Nos casos em que o vento sopra lateralmente à aeronave com magnitude elevada, observou-se que o desvio em relação à pista após a etapa em curva descendente pode ser demasiado elevado visto que o controle lateral se dá somente em azimute, e a posterior descida segundo uma rampa íngreme se torna inviável. Nestas situações, torna-se necessário percorrer um trecho adicional, sem perda de altitude, para correção do desvio lateral e posterior descida. A fim de evitar esta etapa adicional, foi proposta uma estimação da velocidade do vento lateral baseada nas características do voo em cruzeiro. Com esse mecanismo, em caso de vento lateral em um nível aceitável, a descida pode ser conduzida logo após a etapa de curva descendente, dando à manobra características semelhantes àquela executada por piloto experiente de aeromodelo radiocontrolado. Ao final, obteve-se um piloto automático capaz de realizar o pouso em uma pista de extensão média entre 235 e 329 metros, dependendo da intensidade e direção do vento, e com erro lateral médio inferior a 2,5 metros
106

Extração do conhecimento contido em ocorrências no transporte coletivo urbano usando árvores de decisão

Alexandre Bittencourt Faria 08 December 2011 (has links)
O presente trabalho tem como objetivo extrair conhecimento de um banco de dados que contém as mensagens de alerta geradas pelos computadores embarcados instalados nos veículos de uma grande frota usada no transporte coletivo urbano na cidade de São Paulo. Para tal foi aplicada a técnica de aprendizado de árvores de decisão. Nos experimentos foram usados os algoritmos CART, ID3 e C4.5 implementados nos softwares MATLAB R2007b, Sipina Research e WEKA 3.7.1. A base de dados usada contém cerca de 25 mil mensagens de alerta coletadas durante cerca de 2 meses de operação dos veículos que compõe o sistema de transporte público urbano. Os seguintes 4 atributos de entrada foram investigados: Área (Leste, Noroeste, Norte), Sentido (Centro-Bairro, Bairro-Centro), Período (Madrugada, Manhã, Tarde e Noite) e Dia Útil (Sim ou Não). Como atributo de saída foi usado as variavel ALERTA cujos os possíveis valores são: Catraca, Elétrica, Mecânica, Pneu, Terceiro e Veículo). As diferentes implementações de algoritmos investigadas geraram árvores de decisão similares contendo de 4 a 28 regras do tipo "SE-ENTÃO" com acurácia de 80% e precisão de 40% aproximadamente.
107

Modelagem e verificação formal do software embarcado de um simulador de satélite

Rhenzo Losso 14 December 2011 (has links)
Este trabalho tem como objetivo a análise da aplicação de métodos formais para a modelagem e verificação de produtos de software embarcado para aplicações aeroespaciais de tempo-real. Como abordagem para modelagem, utilizam-se autômatos temporizados e a ferramenta UPPAAL. A verificação do modelo construído é realizada por meio da abordagem de model-checking, utilizando um conjunto de propriedades definidas em CTL que refletem os requisitos do sistema em análise. Particular ênfase é dada ao problema de verificação de requisitos de tempo no sistema em análise. Para tanto, a metodologia proposta inclui a modelagem não apenas do aplicativo de software mas também do sistema operacional que gerencia os diversos processos executados pelo software. Como estudo de caso utiliza-se o computador de bordo de um simulador de satélite com um grau de liberdade. Este estudo de caso inclui a determinação dos tempos utilizados para execução do software aplicativo e dos tempos utilizados pelo sistema operacional. Além da verificação dos requisitos de tempo do sistema, o estudo de caso apresenta uma análise de sensibilidade destes requisitos frente à variação de alguns parâmetros do sistema. Baseado nos resultados do estudo de caso, apontam-se as vantagens e limitações do uso da abordagem de model checking para verificação de sistemas de tempo real para aplicações aeroespaciais.
108

Um framework de simulação para verificação de requisitos de desempenho de sistemas computacionais de tempo real

Ronaldo Arias 14 June 2012 (has links)
Os métodos tradicionais de validação de requisitos de desempenho de software, baseados em testes do código, permitem a detecção de problemas somente nas fases finais do ciclo de desenvolvimento de software. Mudanças no software nas fases finais do desenvolvimento são em geral mais custosas e demoradas para serem efetivadas do que aquelas identificadas em fases preliminares. As técnicas de desenvolvimento de software orientadas a modelos permitem verificar requisitos de desempenho durante todo o ciclo de vida do software. Este trabalho propõe um framework de simulação para verificação de requisitos de desempenho de sistemas computacionais de tempo real, baseado em técnicas de desenvolvimento de software orientadas a modelos. O modelo de software é representado por diagramas de instalação e de estados UML (Unified Modeling Language) anotados com informações de desempenho de acordo com o padrão UML Profile for MARTE (Modeling and Analysis of Real-Time and Embedded Systems). O framework gera automaticamente o modelo de desempenho baseado em Diagrama de Ciclo de Atividades (Activity Cycle Diagram - ACD) a partir do modelo de software UML. ACD é uma representação gráfica simples, que permite a modelagem de sistemas para simulação discreta. O modelo de análise de desempenho é simulado e os resultados da análise dos experimentos de simulação são usados para indicar possíveis melhorias no modelo do software, caso os requisitos de desempenho não sejam atendidos. A análise de desempenho e a realimentação do modelo de software são baseadas na identificação de antipadrões de desempenho no modelo ACD. Os antipadrões de desempenho descrevem erros comuns na arquitetura do software, que podem provocar problemas de desempenho, assim como suas soluções. Finalmente, para validação do framework dois estudos de caso de sistemas computacionais de tempo real são apresentados.
109

Metamodelagem de funções determinísticas por composição integrada de especialistas locais

Carla Frisso 27 June 2012 (has links)
Neste trabalho, o modelo de composição integrada de especialistas locais (CIEL), proposto por Scarpel (2006) para geração de modelos de previsão, é explorado para a metamodelagem de três funções determinísticas bivariadas (funções Bohachevsky, Ackley e composição de senoides), visando auxiliar o processo de otimização. A ideia básica é construir uma superfície de resposta utilizando um metamodelo composto por especialistas simples (funções lineares). Na construção dos metamodelos CIEL, variou-se de 2 até 5 o número de agrupamentos da composição de especialistas e foram utilizados diferentes números de amostras (50 e 150). O desempenho dos metamodelos CIEL foi comparado com o de metamodelos gerados a partir de 21 amostras pelo Processo Estocástico Gaussiano (GaSP), técnica muito utilizada e recomendada na literatura sobre otimização baseada em metamodelagem. O metamodelo CIEL apresentou bom desempenho para indicar a região de ótimo das funções, exceto no caso da função composição de senoides com base em 50 amostras, em que se obteve desempenho apenas regular. Apesar disso, os metamodelos CIEL, de forma geral, não foram adequados à representação das funções. No caso da função Bohachevsky, o modelo GaSP se mostrou claramente superior, Quanto à função Ackley, os resultados obtidos com o GaSP e com o CIEL foram semelhantes. Em especial, ressalta-se o potencial do metamodelo CIEL em situações análogas à da função composição de senoides, que possui superfície bem ondulada, com diversos ótimos locais. Apesar de esta função possuir forma complexa e de difícil representação, o desempenho do metamodelo CIEL com 150 amostras foi nitidamente melhor que o GaSP, ao indicar o ótimo.
110

Hard real-time systems design concerning fault tolerance

Denis Silva Loubach 04 December 2012 (has links)
Computadores fazem parte da vida de praticamente todo indivíduo nos tempos atuais. Os primeiros foram desenvolvidos objetivando-se propósitos mais genéricos. Houve considerável avanço nesta área. Computadores tiveram seu tamanho e preço reduzidos. Por outro lado, complexidade e propósitos aumentaram. Computadores genéricos ainda existem, mas estes compartilham o mercado com os chamados "embarcados". Em ambos os casos, o aumento da complexidade envolve maior severidade no caso de falhas. Assim, torna-se razoável assumir que falhas podem ocorrer. De fato, não existe sistema livre de falhas. Diante de tal constatação, sistemas computadorizados devem continuar operando o mais perto possível do normal, mesmo na presença de falhas. Dentro deste contexto, este trabalho tem por objetivo o aumento de tolerância a falhas numa classe de sistema denominada sistemas críticos de tempo-real. Uma falha neste tipo de aplicação pode ser inaceitável, uma vez que quase sempre vidas humanas encontram-se envolvidas. Esta pesquisa mostra o aumento da resiliência a falhas pela composição e aplicação de redundância espacial e temporal (multiprocessamento e escalonamento) com migração de tarefas entre processadores no projeto de sistemas críticos de tempo-real. Tais sistemas, mais especificamente, os sistemas aviônicos são considerados como alvo de aplicabilidade. Visando atingir o objetivo proposto, um modelo computacional e conceitual é apresentado para cobrir os aspectos de tolerância a falhas (segurança) e mecanismos de escalonamento (temporalidade). Realiza-se a análise de escalonabilidade em tempo de projeto considerando prioridades fixas. O modelo assume que poderá existir preempção no processamento das tarefas, o sistema baseia-se em multiprocessamento simétrico, as tarefas são escalonadas por algoritmos considerando prioridade fixa e que pode ou não haver restrições de precedência entre as tarefas. O modelo proposto consiste de uma análise de escalonabiliade e de três diferentes algoritmos: (1) Fixed-Priority based Scheduling Algorithm - FPSA; (2) Symmetric Multiprocessor based Dispatcher Algorithm - SMP-DA; e (3) Fault Tolerance Algorithm - FTA. FPSA considera todas as tarefas prontas do sistema, visando produzir um escalonamento viável, arranjando-as numa fila. Neste tipo de sistema, não se pode rejeitar nenhuma tarefa. Para isso, a análise de escalonabilidade é conduzida, a priori, visando remover todas possíveis falhas temporais. SMP-DA avalia qual processador possui capacidade para receber as tarefas da fila onde o fator de carga dos processadores é levado em conta. Por fim, FTA monitora as tarefas em execução e através de um mecanismo original do modelo chamado notification time control, falhas podem ser identificadas e tratadas. Portanto, a principal contribuição deste trabalho de pesquisa considera tanto redundância espacial quanto temporal, visando aumentar a resiliência a falhas com migração de tarefas entre processadores em sistemas críticos de tempo-real.

Page generated in 0.1037 seconds