• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 421
  • 22
  • 16
  • 16
  • 16
  • 10
  • 10
  • 6
  • 6
  • 6
  • 6
  • Tagged with
  • 445
  • 445
  • 212
  • 115
  • 113
  • 105
  • 89
  • 63
  • 63
  • 57
  • 52
  • 50
  • 49
  • 48
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Tratamento de imprecisão em sistemas especialistas

Pacheco, Roberto Carlos dos Santos January 1991 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Produção, Florianópolis, 1991. / Made available in DSpace on 2016-01-08T17:14:28Z (GMT). No. of bitstreams: 1 87969.pdf: 7531839 bytes, checksum: 14afb35cbbba6d1a3fe8d6872b8b99de (MD5) Previous issue date: 1991 / Esta dissertação apresenta um levantamento do estado da arte no Tratamento de Imprecisão em Sistemas Especialistas. Aborda-se o Raciocínio Humano na Resolução de Problemas e as principais técnicas existentes em tratamento de imprecisão em Inteligência Artificial: Método Bayesiano, Fatores de Certeza, Teoria da Evidência de Dempster e Shafer e Teoria dos Conjuntos Difusos. Para cada uma das técnicas estudadas são apresentados seus fundamentos teóricos, exemplos práticos e uma discussão sobre a performance entre as técnicas em relação aos principais requerimentos a uma técnica ideal no tratamento de imprecisão em Sistemas Especialistas.
2

Programa de interface de pré e pós processamento e link com executável para análise de instabilidade de tubulações / Instability of piping : program of interface of pré and pós process and link with executable

Nunes, Fábio Pessoa da Silva 07 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Civil e Ambiental, 2007. / Submitted by Priscilla Brito Oliveira (priscilla.b.oliveira@gmail.com) on 2009-10-02T19:11:32Z No. of bitstreams: 1 FabioPessoadaSilvaNunes.pdf: 6287949 bytes, checksum: ef7d36884498a0e994bfbc4522bb6ce6 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2009-10-05T12:36:12Z (GMT) No. of bitstreams: 1 FabioPessoadaSilvaNunes.pdf: 6287949 bytes, checksum: ef7d36884498a0e994bfbc4522bb6ce6 (MD5) / Made available in DSpace on 2009-10-05T12:36:12Z (GMT). No. of bitstreams: 1 FabioPessoadaSilvaNunes.pdf: 6287949 bytes, checksum: ef7d36884498a0e994bfbc4522bb6ce6 (MD5) Previous issue date: 2007-07 / A interface gráfica ou VUI (Visual User Interface) é um módulo muito importante para qualquer programa de análise, tanto na parte de visualizar os dados de entrada, préprocessamento, quanto na interpretação dos dados de saída, pós-processamento. Muitos programas utilizam este recurso gráfico para facilitar o uso por parte do usuário, de programas em nível operacional com Windows, ambientes gráfico de desenho como AutoCAD e programas de análise de estruturas de modo geral. Este trabalho visa o desenvolvimento de uma interface gráfica em C++ para o programa ABP (Analysis of Buried Pipelines), o qual foi desenvolvido em Fortran 77. O compilador escolhido para o desenvolvimento da interface gráfica foi o Dev-C++. Além da escolha do compilador outros dois elementos foram importantes para a construção da VUI, as bibliotecas OpenGL e Win32, a primeira forneceu todo o suporte necessário para a criação dos elementos gráficos assim como todas as operações envolvidas, já a segunda permitiu que fossem criadas telas no padrão dos sistemas operacionais baseados no Windows. O processo de desenvolvimento da interface se baseou na criação de telas a partir dos cabeçalhos presentes no manual do ABP, gerando assim o arquivo de dados utilizado com entrada do ABP, por fim interpretando e modelando graficamente o arquivo de saída. ______________________________________________________________________________ ABSTRACT / An interface graph is a very important module for any program of analyzes, so much in the part of visualizing the entrance data, pré-processing, as in the interpretation of the exit data, powder-processing. Many programs use this resource to facilitate the use for part do user, from operational programs like Windows, drawing as AutoCAD and programs of analyzes of structures in general like Ansys. This work seek the development of a interface graph in C++ for ABP (ANALYSIS OF BURIED PIPELINES) program, which was developed in Fortran 77. The chosen compiler for the development of the interface was Dev-C++. Besides the choice of the compiler other two elements were very important, as libraries OpenGL and Win32, the first supplied all necessary support for the creation the graphic elements as well as all the involved operations, already the second allowed the creation of the screens based in the Windows systems operation pattern. The process development of the interface was based on the creation of screens to leave of the headers presents in ABP manual, generating the data file entrance used in ABP, interpreting and modeling the exit file graphically.
3

Aplicação de técnicas de mineração de texto para categorização de eventos de segurança no CTIR Gov

Pak, Albert Frederico de Menezes Il 09 April 2010 (has links)
Dissertação (mestrado)-Universidade de Brasília, Departamento de Ciência da Computação, 2010. / Submitted by Shayane Marques Zica (marquacizh@uol.com.br) on 2011-03-15T21:16:21Z No. of bitstreams: 1 2010_AlbertFredericodeMenezesIlPak.pdf: 2716647 bytes, checksum: f4fc7cdb700e415be8d5f2972e7f365c (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2011-03-17T02:05:06Z (GMT) No. of bitstreams: 1 2010_AlbertFredericodeMenezesIlPak.pdf: 2716647 bytes, checksum: f4fc7cdb700e415be8d5f2972e7f365c (MD5) / Made available in DSpace on 2011-03-17T02:05:07Z (GMT). No. of bitstreams: 1 2010_AlbertFredericodeMenezesIlPak.pdf: 2716647 bytes, checksum: f4fc7cdb700e415be8d5f2972e7f365c (MD5) / De acordo com a metodologia de tratamento de incidentes de segurança da Universidade de Carnegie Mellon, todos os eventos recebidos em um centro de tratamento de incidentes passam pela tarefa de categorização. Dependendo da importância e abrangência da atuação do grupo de resposta a incidentes, o número de eventos ou mensagens pode se tornar difícil de ser classificado manualmente ou através do uso de filtros de mensagens. Neste trabalho, foi proposta uma solução para a classificação supervisionada de eventos no âmbito do Centro de Tratamento de Incidentes de Segurança em Redes de Computadores da Administração Pública Federal (CTIR Gov). A solução adotada inclui um processo de mineração de textos com uma fase de pré-processamento e uso da ferramenta PreTexT, além da fase de classificação automática de eventos, utilizando a ferramenta de mineração Weka. Na experimentação, foram adotados três algoritmos diferentes: (i) J48, da família de árvores de decisão; (ii) Naïve Bayes, pela sua abordagem probabilística; e (iii) Support Vector Machine (SVM) com otimização Sequential Minimal Optimization (SMO). Para avaliação dos resultados, foram realizadas comparações entre a categorização semi-automática registrada em relatórios consolidados e os algoritmos citados. Foram obtidos resultados de classificação com índice de acerto na ordem de 73%. _________________________________________________________________________________ ABSTRACT / According to Carnegie Mellon University computer security incident response methodology, all events in a computer security incident response team should be categorized. Depending on the importance and scope of the incident response team, the number of events or messages can become difficult to be classified manually or only by means of message filters. This work, proposes a solution to supervised categorization of events in the National Brazilian Government Computer Security Incident Response Team (CTIR Gov). The adopted solution includes a text mining process with a preprocess stage using the PreTexT tool, and an automatic event categorization phase using the data mining tool Weka. In the experimental phase, three algorithms were adopted: (i) J48, from the decision tree family; (ii) Naïve Bayes, with its probabilistic approach; and (iii) Support Vector Machine (SVM) optimized by Sequential Minimal Optimization (SMO). To evaluate the results, comparisons were conducted between the semi-automatic categorization documented in reports and the cited algorithms. Classification results displayed a rate of about 73% of correctly classified instances.
4

Combinando avaliação parcial e introdução automatica de controle para aumentar a eficiencia de sistemas especialistas

Yamaki, Claudia Kimie 30 May 1990 (has links)
Orientadores: Antonio Eduardo Costa Pereira, Ariadne Maria Brito Rizzoni Carvalho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-13T23:21:07Z (GMT). No. of bitstreams: 1 Yamaki_ClaudiaKimie_M.pdf: 4791456 bytes, checksum: 3f591795208184e71369bbaa329fd0c9 (MD5) Previous issue date: 1990 / Resumo: Apresentamos uma pesquisa realizada com o objetivo de criar uma nova técnica a ser utilizada para melhorar a eficiência de sistemas especialistas baseados em representação por regras. A técnica proposta é a combinação da avaliação parcial e introdução automática de controle em um único engenho de inferência. Trataremos das dificuldades de se introduzir controle explícito em sistemas especialistas. Mostraremos alguns algoritmos baseados em avaliação parcial que aumentam em muito a eficiência destes sistemas. Demonstraremos com um caso simples a nova técnica proposta. / Abstract: A research for the creation of a new technique to improve the efficiency of expert systems based on representation by rule is presented. The new technique, which is proposed, combines partial evaluation and the automatic introduction of control in a single inference engine. We will deal with difficulties to introduce explicit control in expert systems and we will show some a1gorithms based on partial evaluation, which increases the efficience of these systems. Using a simp1e case we will describe the new proposed technique. / Mestrado / Mestre em Ciência da Computação
5

Desenvolvimento de um sistema especialista para o projeto de unidades industriais de produção de alcool

Guerreiro, Marco Antonio 24 April 1995 (has links)
Orientador: Francisco Maugeri Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia de Alimentos / Made available in DSpace on 2018-07-20T08:37:07Z (GMT). No. of bitstreams: 1 Guerreiro_MarcoAntonio_M.pdf: 2526858 bytes, checksum: 3bbdbc3436cb1b31c66048897f6b7f59 (MD5) Previous issue date: 1995 / Resumo: Um sistema especialista é o nome dado à um "software" de computador que tem como objetivo suprir a necessidade de especialistas humanos em determinadas áreas de conhecimento, simulando o raciocínio do homem e visando dar soluções a problemas bem específicos. Neste trabalho foi desenvolvido um sistema especialista para o "design" de unidades industriais de produção de álcool, utilizando o shell PcPíus da Texas Instruments. O sistema é baseado em regras, cuja base de conhecimento foi estruturada a partir da experiência acumulada de especialistas da área e com dados vindos de laboratório e plantas industriais, O sistema utiliza ainda dados de simulação em computador, cujo algoritmo foi desenvolvido a partir de balanço de massa, balanço de energia, equações cinéticas que representam o processo de fermentação pela Saccharomyccs cerevisiae. Os parâmetros cinéticos foram ajustados de dados industriais que conduzem a um modelo matemático preciso e que descreve bem o processo industrial. O sistema foi construído para processos contínuos, utilizando vários reatores em série. O perfil de volume ótimo e o número de estágios foram previamente otimizados em trabalhos anteriores. Para utilizar o sistema são necessários os seguintes dados de entrada: tipo de mosto, composição de mosto, tipo de trocador, número de cubas, tempo de tratamento do creme, vazão de alimentação do caldo ou produção de etanol, concentração de açúcar, concentração de células no creme, concentração de células no reciclo, concentração de células no vinho delevedurado, taxa de reciclo, temperatura do mosto na entrada do reator, temperatura de operação do reator, temperatura da água de resfriamento, número de estágios e capacidade da centrífuga Para a maioria destes dados o sistema fornece um "Help" onde é aconselhado faixas ótimas ou usuais. O resultado à uma consulta é o perfil de volume dos reatores, vazões do processo, produtividade, área de troca térmica dos trocadores, número de centrífugas necessário, volume de cuba de tratamento ácido e o tipo de equipamento para o tratamento do caldo. O sistema desenvolvido pode ser utilizado para o "design" de plantas industriais, reforma e modernização de plantas já existentes e na tomada de decisões, O sistema mostrou ser confiável pois o desvio entre o previsto pelo sistema e a prática foi mínimo / Abstract: In this work an expert system was developed for the design of large scale continuous fermentation units for alcohol production, using the shell PcPlus from Texas Instruments. This expert system is based on an intensive rule-based program, whose knowledge base was structured using both expert knowledge data and industrial rules of thumb, and on computer simulations. The simulation algorithm was developed from mass and energy balances of continuous multi-staged plants and kinetic equations representing the fermentation process by Saccharomyces cerevisiae. The kinetic parameters were adjusted from industrial data leading to a confident mathematical model that represents fairly well the industrial process. Since the system was designed for continuous processes with several stirred tanks connected in series, the optima! volume profile and number of stages were previously optimized. To use this system the following imput data are necessary : type and composition of imput medium, type of heat exchanger, number of tanks for the acid treatment, time requered for the acid treatment, imput medium flow rate or alcohol production desired, sugar concentration, cell concentration, recycling cell concentration, wine cell concentration, recycling rate, medium temperature at the reactor inlets, cooling water temperature, number of stages and centrifuges capacity. The expert system advises the user to utilize optimized data during a consultation. The result of a consultation is the volume profile of reactors, process flow rates, productivity, the surface areas of heat-exchangers, the number of centrifuges, the tank volumes for the acid treatment and the equipment for the juice clarification. The system developed could be utilized either for the design of industrial plants or for improvement and modernization of existing plants. This system was shown to be reliable since the difference between theoretical calculation and pratical results was minimum / Mestrado / Mestre em Engenharia de Alimentos
6

Sistema especialista probabilístico

Stein, Carlos Efrain January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-17T16:48:01Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T16:04:34Z : No. of bitstreams: 1 174189.pdf: 5432996 bytes, checksum: 9b87c630fef9a4a05fc845eaad2ad84b (MD5) / Muitos sistemas especialistas probabilísticos apresentam no momento de sua utilização inicial um desempenho que se manterá o mesmo durante seu ciclo de vida. Esses sistemas podem ser considerados como sistemas especialistas probabilísticos com base de conhecimento estática. Isto é, uma vez construída a base de conhecimento com as variáveis especificadas pelo especialista, o sistema não se altera mais. Este sistema de base de conhecimento dinâmica (SEDIN) foi concebido a partir do sistema especialista probabilístico (SISPAN) cuja base de conhecimento é estática. Ambos os sistemas oferecem um diagnóstico para avaliar o estado nutricional em crianças com até 2 anos de idade. Para a construção do SEDIN utilizou-se a linguagem de programação C++Builder, versão 3.0, da Borland e a shell Netica 1.06. Mais especificamente o ambiente de trabalho do Netica API (Application Program Interface) com sua DLL (Dynamic Link Library) que contém uma biblioteca com todas as funções definidas na linguagem C para representar o conhecimento do especialista em uma rede bayesiana, composta de seus nós (variáveis), seus respectivos arcos e probabilidades condicionais a priori. O sistema SEDIN pode ser usado para verificar o grau de importância das variáveis introduzidas no sistema bem como oportunizar a aquisição continuada de conhecimento. Por outro lado, um sistema especialista probabilístico tal como este exposto aqui pode servir como material didático para apoiar o professor na transmissão do conhecimento de Sistemas Especialistas Bayesianos.
7

Análise experimental de técnicas de estimativa de potência baseadas em macromodelagem em nível RT

Leão, Roberto de Oliveira January 2008 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-23T18:46:24Z (GMT). No. of bitstreams: 1 251943.pdf: 17544529 bytes, checksum: 66ef9db03a2949c8afb8edb6fd5199b6 (MD5) / A rápida evolução da tecnologia VLSI permitiu a integração de um sistema computacional completo em um único chip, conhecido como System-on-Chip (SoC), dedicado à execução de um conjunto de tarefas específicas de um dado domínio de aplicação. Simultaneamente, o crescimento da demanda por produtos portáteis fez da minimização de energia (potência) um objetivo crucial de projeto. Este crescimento, aliado à diminuição do time-to-market, requer ferramentas que capturem o consumo de energia (potência) o mais cedo possível no fluxo de projeto, para evitar a necessidade de re-projeto como resultado de uma detecção tardia de gargalos. Esta dissertação contribui com a extensão da assim-chamada biblioteca PowerSC (a qual é, por sua vez, uma extensão da biblioteca SystemC) para a estimativa de potência no nível RT. Seu foco principal é a análise experimental de quatro técnicas de macromodelagem (duas implementadas no escopo desta dissertação e duas no âmbito de trabalho correlato desenvolvido no mesmo ambiente). Não é do conhecimento do autor a existência de trabalho similar reportando a avaliação quantitativa de uma seleção representativa de técnicas de macromodelagem, implementadas sobre exatamente a mesma infra-estrutura, para uma análise comparativa justa. Os experimentos mostram que a modelagem unificada de funcionalidade e potência em SystemC é viável para exploração do espaço de projeto. Os resultados mostram que, em ferramentas comerciais, a caracterização de modelos pode ser até 34 × mais lenta do que em um fluxo unificado. As limitações identificadas nos macromodelos (resultando em erros de 3% a 837%) indicam que nenhum deveria ser usado como referência única. Em vez disso, propriedades dos sinais de entrada deveriam ser exploradas para escolher um modelo apropriado, apontando o caminho para uma nova abordagem multi-modelos, um tópico de pesquisa promissor.
8

Desenvolvimento e avaliação de software para uso no acolhimento com classificação de risco em pediatria / Development and evaluation of software for use in hosting with risk classification in pediatrics

Felipe, Gilvan Ferreira 28 December 2016 (has links)
FELIPE, G. F. Desenvolvimento e avaliação de software para uso no acolhimento com classificação de risco em pediatria. 2016. 152 f. Tese (Doutorado em Enfermagem) - Faculdade de Farmácia, Odontologia e Enfermagem, Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by Erika Fernandes (erikaleitefernandes@gmail.com) on 2017-04-24T12:53:12Z No. of bitstreams: 1 2016_tese_gffelipe.pdf: 8720448 bytes, checksum: 1a6f261493852226fb512ec577354b99 (MD5) / Approved for entry into archive by Erika Fernandes (erikaleitefernandes@gmail.com) on 2017-04-24T12:53:45Z (GMT) No. of bitstreams: 1 2016_tese_gffelipe.pdf: 8720448 bytes, checksum: 1a6f261493852226fb512ec577354b99 (MD5) / Made available in DSpace on 2017-04-24T12:53:45Z (GMT). No. of bitstreams: 1 2016_tese_gffelipe.pdf: 8720448 bytes, checksum: 1a6f261493852226fb512ec577354b99 (MD5) Previous issue date: 2016-12-28 / Risk classification (RC) is a relevant strategy for assessing and stratifying the risk and vulnerabilities of patients treated at emergency and emergency units, enabling to identify which cases require immediate assistance and which can wait for safe care. In addition, the recognition of technological evolution, especially in the computational field, stimulates the idea that the use of such technologies in the daily life of health services can contribute to improving the quality and safety of the service provided. The objective was to develop and evaluate a software about the process of RC in pediatrics. Methodological study developed in three stages: Step 1 - Software development; Step 2 - Evaluation of the technical quality and functional performance of the software through the analysis of the characteristics covered by ISO / IEC 25010, carried out by eight specialists in the area of informatics and 13 in the area of nursing; and Step 3 - Evaluation of the agreement of the software in relation to the printed protocol, performed by three nurses with experience in RC. Data analysis was performed using descriptive statistics using absolute and relative frequencies and inferential statistics using the Kendall coefficient of agreement (W), with the aid of Microsoft Office software Excel®, Statistical Package for Social Sciences (SPSS) version 20.0 and R. The ethical aspects were respected and the study was approved by the Research Ethics Committee of the Federal University of Ceará and received approval on opinion nº 1,327,959 / 2015 . For the development of the proposed software, we used the prescriptive process model of software engineering called Incremental Model, the language used for the development was CSharp (C #) and the database chosen was Microsoft® SQL Server® 2008 R2. The results obtained from the evaluation of the software developed for this study reveal that it was adequate in all characteristics analyzed and was indicated as very appropriate and / or completely appropriate by more than 70.0% of the evaluations of the specialists in computer science, as follows: functional adequacy - 100.0%; Reliability - 82.6%; Usability - 84.9%; Performance efficiency - 93.4%; Compatibility - 85.0%; Security - 91.7%; Maintainability - 95.0%; and portability - 87.5%, as well as by the nursing specialists: functional adequacy - 96.2%; Reliability - 88.5%; Usability - 98.7%; Performance efficiency - 96.2%; Compatibility - 98.1%; Security - 100.0%. The results of the risk classification generated by the use of the software, when compared to those generated from the use of the printed protocol, indicated a total agreement by two judges (W = 1,000; p <0.001) and very high agreement by another one (W = 0.992, p <0.001). The results allowed to conclude that the Software for ACCR in Pediatrics, developed in this study, was considered adequate in relation to technical quality and functional performance. In addition, the software presented high agreement in comparison with the printed protocol, currently used to perform the ACCR in the city of Fortaleza, evidencing its potential safety for the assistance of the nurses involved in conducting the RC in pediatrics. / O Acolhimento com Classificação de Risco (ACCR) é uma relevante estratégia para a avaliação e estratificação do risco e das vulnerabilidades de pacientes atendidos em unidades de urgência e emergência, possibilitando identificar quais casos necessitam de assistência imediata e quais podem aguardar atendimento com segurança. Além disso, o reconhecimento da evolução tecnológica, sobretudo em âmbito computacional, estimula a ideia de que o uso de tais tecnologias no cotidiano dos serviços de saúde pode contribuir para melhoria da qualidade e da segurança do serviço prestado. Objetivou-se desenvolver e avaliar um software acerca do processo de ACCR em pediatria. Estudo metodológico desenvolvido em três etapas: Etapa 1 – Desenvolvimento do software; Etapa 2 – Avaliação da qualidade técnica e do desempenho funcional do software por meio da análise das características abordadas pela ISO/IEC 25010, realizada por oito especialistas da área de informática e 13 da área de enfermagem; e Etapa 3 – Avaliação da concordância do software em relação ao protocolo impresso, realizada por três enfermeiros com experiência em ACCR. A análise dos dados obtidos foi realizada por meio de estatística descritiva, utilizando-se os valores de frequência absoluta e frequência relativa, e de estatística inferencial, por meio do uso do coeficiente de concordância de Kendall (W), com auxílio dos softwares Microsoft Office Excel®, Statistical Package for the Social Sciences (SPSS) versão 20.0 e R. Os aspectos éticos foram respeitados e o estudo foi aprovado pelo Comitê de Ética em Pesquisa da Universidade Federal do Ceará, tendo recebido aprovação no parecer nº 1.327.959/2015. Para desenvolvimento do software proposto, utilizou-se o modelo de processo prescritivo da engenharia de software chamado Modelo Incremental, a linguagem utilizada para o desenvolvimento foi a CSharp (C#) e o banco de dados escolhido para ser utilizado foi o Microsoft® SQL Server® 2008 R2. Os resultados alcançados a partir da avaliação do software desenvolvido para este estudo revelam que ele se mostrou adequado em todas as características analisadas, tendo sido indicado como muito apropriado e/ou completamente apropriado por mais de 70,0% das avaliações dos especialistas em informática, conforme segue: adequação funcional – 100,0%; confiabilidade – 82,6%; usabilidade – 84,9%; eficiência de desempenho – 93,4%; compatibilidade – 85,0%; segurança – 91,7%; manutenibilidade – 95.0%; e portabilidade – 87,5%, bem como pelos especialistas em enfermagem: adequação funcional – 96,2%; confiabilidade – 88,5%; usabilidade – 98,7%; eficiência de desempenho – 96,2%; compatibilidade – 98,1%; segurança – 100,0%. Os resultados da classificação de risco gerados com o uso do software, ao serem comparados com os gerados a partir do uso do protocolo impresso, indicaram concordância total em dois juízes (W=1,000; p<0,001) e concordância muito alta em outro (W=0,992; p<0,001). Os resultados permitiram concluir que o Software para ACCR em Pediatria, desenvolvido neste estudo, foi considerado adequado em relação à qualidade técnica e ao desempenho funcional. Além disso, o referido software apresentou elevada concordância em comparação com o Protocolo impresso, atualmente utilizado para a realização do ACCR no município de Fortaleza, evidenciando sua potencial segurança para o auxílio dos enfermeiros envolvidos na condução da classificação de risco em pediatria.
9

Expert-Coop : um ambiente para desenvolvimento de sistemas multiagentes cognitivos

Costa, Augusto Cesar Pinto Loureiro da January 1997 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2013-12-05T20:36:22Z (GMT). No. of bitstreams: 0 Previous issue date: 1997Bitstream added on 2016-01-08T22:11:44Z : No. of bitstreams: 1 108182.pdf: 4339593 bytes, checksum: dae07a9c4ba592a29499d08d7583205b (MD5) / Expert-Coop, um ambiente Orientado a Objeto, modular, concebido para auxiliar a implementação de Sistemas Multi-Agentes Cognitivos, Abertos e heterogêneos é apresentado neste trabalho. Construído a partir de um conjunto de bibliotecas de classes as quais permitem a criação de agentes, segundo um modelo de arquitetura predefinido. A arquitetura do agente suportada pelo Expert-Coop consiste em um modelo concorrente composto por seis processos, mail box, expert box, coordenador, sistema especialista expert e uma interface, que interagem utilizando troca de mensagens. Os processos mail box e expert box implementam um mail box privado. O processo Coordenador é responsável pelo gerenciamento de todas as mensagens trocadas pelo processos, mensagens internas, bem como pelas mensagens trocadas pelos Agentes, mensagens externas. Cabe ainda ao Coordenador o gerenciamento da cooperação entre os agentes da comunidade. O processo Expert provem capacidade cognitiva do Agente, esse processo inclui um completo Arcabouço de Sistemas Especialistas chamado FASE. O processo Interface propicia a comunicação entre o Agente e o usuário. Este processo consiste em um display para visualização das mensagens e um terminal para envio destas. Entretanto é possfvel a utilização de módulos gráficos baseados nas bibliotecas do Motif customizadas a aplicação em questão. É apresentado ainda um protótipo de Sistema Multi-Agentes destinado a auxiliar o processo de recomposição da rede de transmissão de energia elétrica da região sul do Brasil, implementado a partir do Expert Coop.
10

Suporte a simulação distribuída em SystemC

Cantanhede, Roberto Silva January 2007 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2007. / Submitted by Larissa Ferreira dos Angelos (ferreirangelos@gmail.com) on 2010-01-12T13:35:53Z No. of bitstreams: 1 2007_RobertoSilvaCatanhede.pdf: 904030 bytes, checksum: 50f929f665821f0d1a60f501a490e944 (MD5) / Approved for entry into archive by Joanita Pereira(joanita) on 2010-01-12T19:04:10Z (GMT) No. of bitstreams: 1 2007_RobertoSilvaCatanhede.pdf: 904030 bytes, checksum: 50f929f665821f0d1a60f501a490e944 (MD5) / Made available in DSpace on 2010-01-12T19:04:10Z (GMT). No. of bitstreams: 1 2007_RobertoSilvaCatanhede.pdf: 904030 bytes, checksum: 50f929f665821f0d1a60f501a490e944 (MD5) Previous issue date: 2007 / A contínua evolução tecnológica da microeletrônica viabiliza a integração de sistemas cada vez mais complexos em dispositivos semicondutores. Os sistemas integrados monolí- ticos (SoC - Systems on Chip) atuais permitem a integração de processadores, memórias e módulos dedicados analógicos, digitais e de radio-freqüência em uma única pastilha de silício. A simulação de tais sistemas é uma etapa fundamental no desenvolvimento de um SoC, pois permite a verificação de sua funcionalidade antes do detalhamento de sua im- plementação. A disponibilização de modelos simuláveis dos elementos de processamento de um SoC já nas primeiras etapas do projeto é igualmente fundamental para acelerar o processo de desenvolvimento do software embarcado, permitindo que o código produzido possa ser executado e testado de forma concorrente ao projeto do hardware. A redução do tempo de simulação afeta diretamente o ciclo de projeto do SoC, visto que impacta tanto no desenvolvimento do hardware quanto no do software embarcado. Um dos fatores limitantes na aceleração da simulação é a utilização de sistemas monoproces- sados. Tipicamente, uma descrição de um SoC é compilada e executa em um computador monoprocessado que simula por software o paralelismo do hardware. Uma forma de se atingir o objetivo de acelerar a simulação de sistemas em silício é a executação concorrente dos módulos do sistema. Assim, em vez dos módulos serem simulados em um único pro- cessador, eles podem ser distribuídos entre nodos de um cluster de computadores, sendo simulados com paralelismo real. O objetivo deste trabalho é o estudo da introdução de processamento concorrente em sistemas integrados descritos em SystemC. Essa linguagem atingiu, ao longo dos últimos anos, o status de padrão para descrições em nível de sistema. Baseia-se em C++, in- troduzindo conceitos de orientação a objetos na descrição do hardware. Neste trabalho é proposta a paralelização da simulação de sistemas descritos em SystemC pela distribuição de módulos entre processos de um sistema multiprocessado. A comunicação entre módu- los SystemC se realiza através de filas não bloqueantes, sendo a troca de mensagens entre processos implementada através do protocolo TCP/IP. Como estudo de caso para simulação concorrente foi estudado e descrito em SystemC um algoritmo de segmentação de imagens, que serve como base para métodos para deteção de movimento em seqüências de imagens a ser implementado em um SoC para redes de sensores em desenvolvimento no contexto do projeto NAMITEC. Apresenta-se o algoritmo de segmentação e os resultados de sua simulação em SystemC. _______________________________________________________________________________________ ABSTRACT / The ever increasing evolution of microelectronics allows the integration of more and more complex systems in semiconductor devices. Present day System on Chip (SoC) may integrate processors, memories, analog, mixed-signals, digital and RF modules in a single chip. The simulation of a SoC is a fundamental step in system design, since it permits the verification of its funcionality before dwelling on the details of the hardware design. The availability of simulation models for the processing elements early in the design process is also important for the embedded software development, which may then occur concurrently to hardware design. The reduction of simulation time have a direct impact on the design cycle time, affecting both the hardware and the software development. The use of monoprocessor platforms for simulation is a limiting factor in the searchof simulation speed up. Tipically, the SoC description is compiled and executed in a single process, where the hardware paralelism is simulated by software. One possible way to reduce simulation time is the parallel execution of the hardware models. Instead of being simulated in a single process, the modules may be distributed among nodes of a cluster which execute them in parallel. The goal of this work is to study the introduction of concurrent processing in the simulation of SoC described in SystemC. This languagem attained the status of a standard for system level modeling last years. It is based on C++, introducing object oriented concepts in the hardware modeling. The poposal of this work is to paralelize the simulation by distributing SystemC modules among different processes in a multiprocessor system. The communication among those modules is performmed through non-blocking fifos and is implemented over the TCP/IP protocol. A case study was developed for verification purposes. It consists in the implementation of a image segmentation algorithm to be used as support for image detection in video sequences, as part of the research project NAMITEC which targets the development of a SoC for sensor networks. The image segmentation algorithm and the simulation results in SystemC are presented.

Page generated in 0.0816 seconds