• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 421
  • 22
  • 16
  • 16
  • 16
  • 10
  • 10
  • 6
  • 6
  • 6
  • 6
  • Tagged with
  • 445
  • 445
  • 212
  • 115
  • 113
  • 105
  • 89
  • 63
  • 63
  • 57
  • 52
  • 50
  • 49
  • 48
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Análise do impacto de cenários implícitos na confiabilidade de sistemas computacionais

Roriz, Alexandre Vaz 06 April 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2015-12-04T12:07:33Z No. of bitstreams: 1 2015_AlexandreVazRoriz.pdf: 1671166 bytes, checksum: c58f23212854280f05a5a7aba50ad0f9 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-05-19T21:55:04Z (GMT) No. of bitstreams: 1 2015_AlexandreVazRoriz.pdf: 1671166 bytes, checksum: c58f23212854280f05a5a7aba50ad0f9 (MD5) / Made available in DSpace on 2016-05-19T21:55:04Z (GMT). No. of bitstreams: 1 2015_AlexandreVazRoriz.pdf: 1671166 bytes, checksum: c58f23212854280f05a5a7aba50ad0f9 (MD5) / O aumento da complexidade dos sistemas computacionais é uma tendência que precisa ser acompanhada pela busca por técnicas de desenvolvimento orientadas em garantir o nível de confiabilidade exigido, desde os estágios iniciais do ciclo de desenvolvimento de software. Nesse contexto, passa a ser requisito essencial que a modelagem seja feita de forma confiável, refletindo da melhor maneira possível o comportamento esperado para o sistema. A modelagem em cenários possibilita, ainda nas fases iniciais do desenvolvimento, a realização de análises de dependabilidade para verificar o atendimento a requisitos não funcionais do sistema. Configurando então uma técnica interessante para a construção de sistemas confiáveis. Entretanto, a modelagem em cenários traz a possibilidade da ocorrência de cenários implícitos, que são cenários que não estavam previstos inicialmente mas surgem da integração entre os diversos cenários especificados. Esses novos cenários podem ser desejados, quando não comprometem o sistema, ou indesejados, quando levam o sistema a um estado de erro. Nesse último caso, é exigida a tomada de ações corretivas para o modelo visando a eliminação ou atenuação desses efeitos negativos. Sendo assim, para a construção de um modelo confiável, faz-se necessário não somente identificar os eventuais cenários implícitos, mas avaliar o impacto desses sobre o sistema a ser modelado, de modo a fundamentar e direcionar as ações para se alcançar o nível de dependabilidade adequado. Esse trabalho apresenta uma metodologia para a avaliação quantitativa e qualitativa do impacto dos cenários implícitos sobre a confiabilidade de um sistema que está sendo modelado. Um estudo de caso é apresentado mostrando o emprego da metodologia para a definição de uma configuração mais confiável em um sistema de rede de câmeras inteligentes. Os resultados mostram que a metodologia é útil para a compreensão de como os cenários implícitos impactam a confiabilidade do modelo, fornecendo subsídios para a tomada de decisões que resultem em um sistema mais confiável. _______________________________________________________________________________________________ ABSTRACT / The increasing of the complexity in computing systems is a trend that needs be accompanied by the search for development techniques oriented to ensure the required reliability level, since the early stages of the software development cycle. In this context, it becomes a essential requirement that the modeling be done in a reliable way, reflecting the expected behavior for system. The scenario-based specification allows, even at early stages of the development, the realization of dependability analysis to verify the compliance with no-functional requirements of the system. Being considered an interesting technique for constructing reliable systems. However, the scenarios modeled brings the possibility of the occurrence of implied scenarios, which are scenarios that were not initially foreseen but arise from interaction between the others specified scenarios. These new scenarios can be allowed, when they do not compromise the system, or unwanted, when they take the system to an error state. In the latter case, it is required to take corrective action in order to eliminate or reduce these negative effects. Therefore, to construct a reliable model, it is necessary not only identify any implied scenarios, but also to assess the impact of these on the system to be modeled in order to ground and direct the actions in order to achieve the appropriate dependability level. This work presents a methodology for quantitative and qualitative analysis of the impact of implied scenarios on the reliability of a system being modeled. A case study is presented showing the use of the methodology for defining a more reliable configuration in a network system of smart cameras. The results show that the method is useful for understanding how the implied scenarios impact the reliability of the model, providing support for decisions that result in a more reliable system.
142

Reconhecimento de espécies florestais através de imagens macroscópicas

Paula Filho, Pedro Luiz de 21 March 2013 (has links)
Resumo: A identificação de espécies e uma necessidade primordial para as atividades de comércio e preservacao de florestas. Entretanto, devido a escassez de dados e bases de imagens florestais, os estudos computacionais relacionados a esse tema sao raros e recentes. Outros fatores que influenciam a raridade desses estudos estao relacionados a falta de tecnicas computacionais comprovadamente eficazes para essa tarefa e ao custo para a aquisicão de imagens para a construcao das bases e modelos computacionais, uma vez que equipamentos sofisticados e caros sao utilizados. Tendo em vista esse contexto e com objetivo de minimizar os custos relacionados ao processo de identificaçao de especies florestais, e proposta uma nova abordagem para essa tarefa, com a qual a identificaçao podera ser realizada em campo e com equipamentos de baixo valor, agregando maior mobilidade e agilidade à execucao dessa tarefa. Para avaliar e validar essa proposta, foram construídas duas bases de imagens macroscópicas a partir de amostras de madeira de especies florestais encontradas no território nacional, considerando dois metodos diferentes: abordagem tradicional em laboratório e abordagem em campo, sendo esta ultima, a proposta deste trabalho. Um protocolo modular baseado na estratégia de dividir para conquistar foi proposto, nele as imagens sao divididas em subimagens, com o intuito de que problemas locais nao afetem a classificacao geral da imagem. A partir delas, sao extraídas informacoes de cor e textura que sao utilizadas para a construcão de conjuntos de treinamento, teste e validaçao de classificadores. Para extraçao desses atributos sao avaliadas diversas tecnicas consagradas como analises de cor, GLCM, histograma de borda, Fractais, LBP, LPQ e Gabor. Apos a classificação de cada conjunto de atributos das subimagens, seus resultados passam por duas camadas de fusoes (baixo e alto nível), para se chegar a decisão final de qual especie a amostra pertence. Inicialmente, a avaliaçao experimental foi realizada com a base de imagens obtidas a partir da abordagem em campo uma vez que dessa maneira os resultados sao mais conservadores devido à presenca de ruídos nos conjuntos de dados e ao naão tratamento das amostras adquiridas. A taxa de reconhecimento obtida nessa etapa foi 95,82%. Apos a validacao do metodo proposto, os modelos de classificação foram reconstruídos e avaliados a partir da base de imagens criada com a abordagem tradicional em laboratório. Com esse novo modelo, a taxa de classificaçao foi de 99,49%. A partir da analise dos resultados, observa-se a viabilidade da abordagem proposta neste trabalho, que alem de apresentar uma excelente taxa de classificaçao, muito proxima da obtida com tecnicas mais sofisticadas e de alto custo, ainda agrega a mobilidade para a classificacão de especies em campo. Ressalta-se ainda, a construcao e disponibilizacao das bases de imagens florestais, contribuindo, desta forma, para trabalhos futuros nesta area.
143

Apoio à maturidade pessoal visando a melhoria dos projetos de software

Esteca, Antonio Marcos Neves [UNESP] 05 February 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-02-05Bitstream added on 2014-06-13T19:59:31Z : No. of bitstreams: 1 esteca_amn_me_sjrp.pdf: 2014918 bytes, checksum: 3bfceb7e0154b7322dffb5a913cafa9e (MD5) / Estudos revelam que os resultados dos projetos de software ainda estão muito aquém do esperado. Devido a isso, organizações produtoras de software bem sucedidas têm adotado uma abordagem mais completa em relação aos processos de desenvolvimento. Nos últimos anos, além de gerenciarem seus projetos, tais organizações estão investindo em um processo para capacitação individual e monitoramento rigoroso dos recursos humanos, denominado Personal Software Process – PSP. Tal processo tem levado à maior disciplina e controle sobre todas as fases do desenvolvimento e, consequentemente, ao aumento da taxa de sucesso dos projetos. Neste contexto, este trabalho apresenta a integração das técnicas propostas no modelo PSP a um sistema web previamente desenvolvido, denominado Sistema de Apoio à Gerência de Projetos - SAGP. A avaliação dos resultados foi realizada por meio de uma análise comparativa da nova versão do SAGP em relação a outras ferramentas disponíveis no mercado. Além disso, o sistema foi avaliado por desenvolvedores de software, que constituem o seu público-alvo. Os resultados obtidos permitem concluir que a integração realizada levou à obtenção de um sistema de qualidade capaz de facilitar o emprego do PSP e de gerar indicadores que auxiliam os gerentes de projetos em suas atividades / Studies show that the results of software projects are still much less than expected. Due to this, successful software-producing organizations have adopted a more complete approach towards development processes. Nowadays, besides managing their projects, such organizations are investing in a process of individual qualification and strict monitoring of team members called Personal Software Process - PSP. This process has led to maintenance of greater discipline and control throughout all development phases and, consequently, to the increase in the rate of successful projects. In this context, this work presents the integration of the techniques proposed in the PSP model with a previously developed web-based system, which is called System to Aid Project Management - SAPM. The evaluation of the results was carried out through comparative analysis of the new version of SAGP in relation to other tools commercially available. Furthermore, the system was evaluated by software developers, who are their target audience. The results indicate that the proposed integration led to obtaining of a system of quality able to facilitate the use of the PSP and generate indicators that aid project managers in their activities
144

Ambiente data cleaning : suporte extensível, semântico e automático para análise e transformação de dados /

Jardini, Toni. January 2012 (has links)
Orientador: Carlos Roberto Valêncio / Banca: Nalvo Franco de Almeida Junior / Banca: José Márcio Machado / Resumo: Um dos grandes desa os e di culdades para se obter conhecimento de fontes de dados e garantir consistência e a não duplicidade das informações armazenadas. Diversas técnicas e algoritmos têm sido propostos para minimizar o custoso trabalho de permitir que os dados sejam analisados e corrigidos. Porém, ainda há outras vertentes essenciais para se obter sucesso no processo de limpeza de dados, e envolvem diversas areas tecnológicas: desempenho computacional, semântica e autonomia do processo. Diante desse cenário, foi desenvolvido um ambiente data cleaningque contempla uma coleção de ferramentas de suporte a análise e transformação de dados de forma automática, extensível, com suporte semântico e aprendizado, independente de idioma. O objetivo deste trabalho e propor um ambiente cujas contribuições cobrem problemas ainda pouco explorados pela comunidade científica area de limpeza de dados como semântica e autonomia na execução da limpeza e possui, dentre seus objetivos, diminuir a interação do usuário no processo de análise e correção de inconsistências e duplicidades. Dentre as contribuições do ambiente desenvolvido, a eficácia se mostras significativa, cobrindo aproximadamente 90% do total de inconsistências presentes na base de dados, com percentual de casos de falsos-positivos 0% sem necessidade da interação do usuário / Abstract: One of the great challenges and di culties to obtain knowledge from data sources is to ensure consistency and non-duplication of stored data. Many techniques and algorithms have been proposed to minimize the hard work to allow data to be analyzed and corrected. However, there are still other essential aspects for the data cleaning process success which involve many technological areas: performance, semantic and process autonomy. Against this backdrop, an data cleaning environment has been developed which includes a collec-tion of tools for automatic data analysis and processing, extensible, with multi-language semantic and learning support. The objective of this work is to propose an environment whose contributions cover problems yet explored by data cleaning scienti c community as semantic and autonomy in data cleaning process and it has, among its objectives, to re-duce user interaction in the process of analyzing and correcting data inconsistencies and duplications. Among the contributions of the developed environment, e ciency is signi -cant exhibitions, covering approximately 90% of database inconsistencies, with the 0% of false positives cases without the user interaction need / Mestre
145

Apoio à maturidade pessoal visando a melhoria dos projetos de software /

Esteca, Antonio Marcos Neves. January 2013 (has links)
Orientador: Rogéria Cristiane Gratão de Souza / Banca: Selma Shin Shimizu Melnikoff / Banca: Hilda Carvalho de Oliveira / Resumo: Estudos revelam que os resultados dos projetos de software ainda estão muito aquém do esperado. Devido a isso, organizações produtoras de software bem sucedidas têm adotado uma abordagem mais completa em relação aos processos de desenvolvimento. Nos últimos anos, além de gerenciarem seus projetos, tais organizações estão investindo em um processo para capacitação individual e monitoramento rigoroso dos recursos humanos, denominado Personal Software Process - PSP. Tal processo tem levado à maior disciplina e controle sobre todas as fases do desenvolvimento e, consequentemente, ao aumento da taxa de sucesso dos projetos. Neste contexto, este trabalho apresenta a integração das técnicas propostas no modelo PSP a um sistema web previamente desenvolvido, denominado Sistema de Apoio à Gerência de Projetos - SAGP. A avaliação dos resultados foi realizada por meio de uma análise comparativa da nova versão do SAGP em relação a outras ferramentas disponíveis no mercado. Além disso, o sistema foi avaliado por desenvolvedores de software, que constituem o seu público-alvo. Os resultados obtidos permitem concluir que a integração realizada levou à obtenção de um sistema de qualidade capaz de facilitar o emprego do PSP e de gerar indicadores que auxiliam os gerentes de projetos em suas atividades / Abstract: Studies show that the results of software projects are still much less than expected. Due to this, successful software-producing organizations have adopted a more complete approach towards development processes. Nowadays, besides managing their projects, such organizations are investing in a process of individual qualification and strict monitoring of team members called Personal Software Process - PSP. This process has led to maintenance of greater discipline and control throughout all development phases and, consequently, to the increase in the rate of successful projects. In this context, this work presents the integration of the techniques proposed in the PSP model with a previously developed web-based system, which is called System to Aid Project Management - SAPM. The evaluation of the results was carried out through comparative analysis of the new version of SAGP in relation to other tools commercially available. Furthermore, the system was evaluated by software developers, who are their target audience. The results indicate that the proposed integration led to obtaining of a system of quality able to facilitate the use of the PSP and generate indicators that aid project managers in their activities / Mestre
146

Plataforma para desenvolvimento de SoC (System-on-Chip) robusto à interferência eletromagnética

Benfica, Juliano D'Ornellas January 2007 (has links)
Made available in DSpace on 2013-08-07T18:53:15Z (GMT). No. of bitstreams: 1 000389203-Texto+Completo-0.pdf: 6935100 bytes, checksum: 7b0d4097399f1b7fa7e32077309d3b40 (MD5) Previous issue date: 2007 / The electromagnetic environment in which electronic systems operate is becoming more and more hostile. The society observes with enthusiasm the rapid proliferation of a vast diversity of wireless electronic equipments. Unfortunately, this tendency yields as consequence the pollution of the frequency spectrum, and thus, increasing dramatically the environmental noise where we live. At the same time, it is fundamental for the acceptance and reliability of these electronic equipments that the applications running on their platforms do not fail due to such noisy environment. Therefore, it is fundamental to understand how the electromagnetic noise impacts the reliability of complex electronic systems (Systemson- Chip, SoC). Some companies worldwide have been concerned with this situation. They have proposed several commercial platforms to design and test of SoC. However, these platforms do not allow an adequate measurement of SoC susceptibility to electromagnetic interference (EMI). Such scenario motivated this work. In the following we propose a new platform, reconfigurable, to evaluate and improve SoC designs having in mind the electromagnetic noise immunity. This platform is based on the international standard IEC 62. 132 to design and test electronic systems, at the board level. The final goal of this standard is to dictate rules to allow precise measurements of the SoCs susceptibility to (radiated and conducted) EMI. The proposed platform is based on two specific and complementary boards. The first one is devoted to the radiated noise immunity measurement in a Gigahertz Transverse Electromagnetic Cell (GTEM Cell) according to the standard IEC 62. 132-2 (IEC, 2004), whereas the second board is dedicated to the RF-conducted noise immunity measurement and was implemented according to the standards IEC 62. 132-4 and IEC 62. 132-2 (IEC, 2004), respectively. After the development of the proposed platform, a case-study based on the Xilinx soft-core processor, MicroBlaze, was designed by the Group SiSC and tested on the platform. The obtained results are rewarding and demonstrate the capability and flexibility of the proposed platform as a tool to evaluate the behavior of SoCs in EMIexposed environment. / O ambiente eletromagnético em que sistemas eletrônicos operam está tornando-se cada vez mais hostil. A sociedade observa com bastante entusiasmo a rápida proliferação de uma quantidade infindável de equipamentos eletrônicos sem fio (wireless). Infelizmente, esta tendência tem por conseqüência a poluição de forma dramática do espectro de freqüência, e portanto, aumentando o ruído intrínseco do ambiente onde vivemos. Por outro lado, é fundamental para a aceitação e a segurança destes equipamentos eletrônicos que estes não falhem devido ao ambiente eletromagnético. Assim, é de suma importância compreender como o ruído eletromagnético (Electromagnetic Interference, ou EMI) impacta a confiabilidade de sistemas integrados complexos (Systems-on-Chip, ou SoC). Algumas empresas em escala mundial têm demonstrado muita preocupação com este problema através do desenvolvimento de várias plataformas comerciais para o projeto e o teste de SoCs. Entretanto, estas plataformas não garantem medições adequadas da susceptibilidade dos sistemas eletrônicos à EMI. Este cenário nos motivou a propor uma plataforma de prototipagem reconfigurável para avaliar e aprimorar projetos de SoCs levando-se em consideração sua imunidade ao ruído eletromagnético. Esta plataforma é baseada em normas internacionais IEC 62. 132 para o projeto e o teste de sistemas eletrônicos, ao nível de placa. O objetivo final deste conjunto de normas é ditar regras que viabilizam a medição precisa da imunidade de circuitos integrados à EMI, tanto radiada quanto conduzida. A plataforma desenvolvida é baseada em duas placas específicas e complementares. A primeira é dedicada para o teste de imunidade ao ruído irradiado em uma Gigahertz Transverse Electromagnetic Cell (GTEM Cell) de acordo com a norma IEC 62. 132-2 (IEC, 2004).A segunda placa é dedicada ao teste conduzido de ruído de RF e foi implementada de acordo com as normas IEC 62. 132-4 e IEC 62. 132-2 (IEC, 2004), respectivamente. Após o desenvolvimento da plataforma em questão, um estudo-de-caso baseado no processador soft-core da Xilinx, MicroBlaze, operando sob o controle do sistema operacional uCOS-II foi desenvolvido pelo Grupo SiSC e testado na plataforma. Os resultados dos ensaios são bastante motivadores e demonstram a capacidade e a flexibilidade da plataforma ser utilizada como ferramenta para avaliar o comportamento de SoCs em ambiente ruidoso do tipo EMI.
147

Linha de produtos de software dinâmica direcionada por qualidade : o caso de redes de monitoração do corpo humano

Fernandes, Paula Gabriela de Medeiros 17 December 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-04-10T10:58:01Z No. of bitstreams: 1 2012_PaulaGabrieladeMedeirosFernandes.pdf: 1587258 bytes, checksum: 612e108fee4daa9edea2bebcb605ce6e (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-05-20T11:13:17Z (GMT) No. of bitstreams: 1 2012_PaulaGabrieladeMedeirosFernandes.pdf: 1587258 bytes, checksum: 612e108fee4daa9edea2bebcb605ce6e (MD5) / Made available in DSpace on 2013-05-20T11:13:17Z (GMT). No. of bitstreams: 1 2012_PaulaGabrieladeMedeirosFernandes.pdf: 1587258 bytes, checksum: 612e108fee4daa9edea2bebcb605ce6e (MD5) / Na atualidade, os indivíduos passam a ter uma posição mais ativa no processo de investigação de doenças querendo acompanhar o seu estado de saúde continuamente. Por ser é inviável manter um profissional de saúde para cada indivíduo, mais apoio da tecnologia tem sido requerido a fim de auxiliar esse processo de monitoração. Diante deste quadro, mais soluções automatizadas estão sendo propostas, em particular, Redes de Sensores do Corpo Humano (RSCH), no qual um indivíduo monitora suas atividades diárias e sinais vitais e o sistema o auxilia na prevenção e detecção de situações de emergência. Este trabalho explora como a metodologia de Linha de Produto de Software Dinâmica (LPSD) no contexto de RSCH gerencia e balanceia requisitos conflitantes, tais como disponibilidade e confiabilidade, de tal forma que quando o indivíduo estiver em uma situação normal de saúde, o sistema possa desativar alguns sensores ou funcionalidades visando economia de bateria e processamento; e por outro lado, quando o indivíduo desmaiar ou alterar seus batimentos cardíacos, o oposto deva acontecer com os sensores afim de se prover o melhor serviço para o indivíduo em uma situação de alto risco de saúde. Uma LPSD para RSCH se reconfigura baseando-se em mudanças de contexto, no caso, mudança na situação de saúde do indivíduo monitorado, afim de atingir um novo objetivo de qualidade para esta nova situação de risco. Neste trabalho, a situação de um indivíduo é especificada como um contrato de qualidade, provido por um especialista no domínio (médico). O contrato é modelado como uma máquina de estados, onde as transições entre estados são causadas por eventos de saúde (queda, desmaio, alteração de pressão) e os estados definem objetivos de qualidade. A verificação de não conformidade com o objetivo de qualidade motiva a reconfiguração do sistema. A confiabilidade de uma determinada configuração é medida como uma única fórmula, parametrizada com a presença e ausência das features da LPSD e das qualidades associadas a elas. Além de confiabilidade, exploram-se também parâmetros de qualidade tais como tempo de vida estimado para o sistema, taxa de amostragem, qualidade e quantidade de informação das configurações. As estratégias de cálculo de qualidade Simple MultiAttribute Rating Technique (SMART) e orientação a objetivos (GOAL) são comparadas no domínio de RSCH. Avaliou-se a abordagem proposta via simulações com dados reais de monitoração e obteve-se resultado favorável à utilização da metodologia proposta no contexto. _______________________________________________________________________________________________________________________________ ABSTRACT / Nowadays, individuals have a more active stance in the investigation of diseases in the sense that they want to monitor their health status continuously. Because it is not sustainable to have dedicated health professional for each individual, more technology support has been applied to assist this monitoring process. In this context, automatic solutions are being proposed, in particular Body Sensor Network (BSN), in which an individual monitors his vital signs and the system aids him in the prevention and detection of emergency situations. BSN must manage and balance conflicting requirements, such as availability and reliability, in a way that if the patient is in a normal or low health risk situation, the system can turn off some sensors or disable features to save power and processing. On the other hand, when the individual faints or changes its heartbeats dangerously, the opposite should happen with the sensors and features in order to provide the best service for this high risk situation. We explore how Dynamic Software Product Line (DSPL) achieves this goal. A DSPL reconfigures itself based on some context changes e.g., the persons' medical situation, to meet a new quality goal for that new situation, as specified by a reliability contract provided by the domain expert (a medical doctor). This contract is modeled as a state machine, whose transitions are medical events (e.g., fall, stroke) and states are target reliability goals, prompting a reconfiguration to meet it. The reliability of any given configuration is measured by a single formula, parametrizing over the features of the DSPL and related quality information. Besides reliability, we also explore other quality parameters such as lifetime, sensor sample rate, quality and amount of information. Strategies for calculating quality such as Simple MultiAttribute Rating Technique (SMART) and goal-oriented are compared in the BSN domain. We evaluated the proposed approach via simulations with real monitoring data and obtained favorable results with the use of the proposed methodology in the BSN context.
148

Sistema computacional para tratamento de nuvens de pontos e reconstrução tridimensional de superfícies baseada em modelos deformáveis

Idrobo Pizo, Gerardo Antonio January 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2009. / Submitted by Raquel Viana (tempestade_b@hotmail.com) on 2010-03-23T20:09:25Z No. of bitstreams: 1 2009_GeradoAntonioIdroboPizo.pdf: 10118190 bytes, checksum: 336d0d43d520d843c12f6c62361f9d00 (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-05-18T03:17:58Z (GMT) No. of bitstreams: 1 2009_GeradoAntonioIdroboPizo.pdf: 10118190 bytes, checksum: 336d0d43d520d843c12f6c62361f9d00 (MD5) / Made available in DSpace on 2010-05-18T03:17:58Z (GMT). No. of bitstreams: 1 2009_GeradoAntonioIdroboPizo.pdf: 10118190 bytes, checksum: 336d0d43d520d843c12f6c62361f9d00 (MD5) Previous issue date: 2009 / A reconstrução tridimensional é uma tarefa não trivial que em geral envolve cinco etapas: aquisição, registro, integração, segmentação e ajuste, sendo esta última etapa a que proporciona o modelo computacional do objeto representado (Yvart et al., 2005). Definir a qualidade de uma representação tridimensional do objeto é uma tarefa complexa quando não são conhecidas as relações de conectividade entre os pontos que compõem a amostra e, principalmente, quando a nuvem de pontos está contaminada com interferências desconhecidas que estão sujeitas de modo inerente no processo de aquisição. Essas interferências podem ser eliminadas ou atenuadas através do processo de filtragem. O principal objetivo da filtragem de sinais é melhorar a qualidade do sinal de acordo com um determinado critério de desempenho (Muller, 1992). O presente trabalho aborda o tratamento de ruídos através de filtros adaptativos. Muitas dessas interferências que são encontradas em nuvens de pontos mudam em cada processo de aquisição e não podem atenuar-se com sucesso através de filtros digitais convencionais, passa-baixas, passa-altas ou passa-faixas (Manolakis et al., 2000). Esta dissertação aborda a combinação de duas técnicas para modelar superfícies de objetos 3D: a reconstrução de superfícies por malhas triangulares e por funções paramétricas - NURBS (Non-Uniform Rational B-Splines) (Farin, 2001; Anderson & Crawford-Hines, 2000; Roth & Boulanger, 1998). Do mesmo modo são também descritos o ajuste dos entalhes paramétricos através do método iteração cíclica de Newton a fim de minimizar a distância entre a malha estruturada e os entalhes paramétricos (Elsäesser, 1998). Igualmente se descreve a avaliação de condições de fronteira para a suavização de funções paramétricas sobre toda a superfície (Hoppe et al., 1992). Essas técnicas transformam-se conjuntamente em uma ferramenta computacional de propósito específico para a construção de superfícies através da nuvem de pontos. O desempenho do método aplicado foi avaliado em função da precisão de ajuste obtida e comparado metrologicamente com um sistema padrão, o que permitiu mostrar através do experimento que o software final serve como um instrumento de medição. _________________________________________________________________________________________ ABSTRACT / The three-dimensional reconstruction is a nontrivial task that usually involves five steps: acquisition, registration, integration, segmentation and adjustment, the latter stage providing a steps computer model of the objects represented (Yvart et al., 2005). Defining the quality of a three-dimensional representation of an object is a complex task when the connectivity relations between the points that form the cloud of points are unknown. The cloud of points is subject to pollution with unknown interference that are inherent to the acquisition process. These interferences can be eliminated or mitigated through filtering processes. The main objective of these processes is to filter the signals to improve signal quality according to performance criteria (Muller, 1992). This dissertation addresses the treatment of noise through adaptive filters. Many of these interferences change in the process of acquisition and can not be successfully mitigated through fixed digital filters: low-pass, high pass, band-pass (Manolakis et al., 2000). This dissertation focuses on a combination of two techniques for modeling surfaces of 3D objects: surface reconstruction by triangular meshes and parametric functions NURBS (Non-Uniform Rational B-Splines) (Farin, 2001; Anderson & Crawford-Hines, 2000, Roth & Boulanger, 1998). The adjustment of the parametric patches through cyclical Newton iteration is described. This iteration minimizes the distance between a mesh structure and patchesmetric (Elsäesser, 1998). The evaluation of boundary conditions for the relaxation of parametric functions over the entire surface is also demonstrated (Hoppe et al., 1992). These techniques are transformed into a joint special purpose computational tool for creating surfaces through a cloud of points. The performance of the applied method was a function of the precision of the adjustment and was metrologically compared with a standard system. The experiment showed that the software can be applied as a valid measuring instrument. _______________________________________________________________________________ RESUMEN / La reconstrucción tridimensional es una tarea no trivial que generalmente envuelve cinco etapas: adquisición, registro, integración, segmentación e ajuste, siendo esta última etapa a que proporciona o modelo computacional do objeto representado (Yvart et al., 2005). Definir a calidad de una representación tridimensional de un objeto es una tarea compleja cuando no son conocidas las relaciones de conectividad entre los pontos que componen la nube de pontos y, principalmente, cuando está se encuentra contaminada con interferencias desconocidas que están sujetas de modo inherente en el proceso de adquisición. Estas interferencias pueden ser eliminadas o atenuadas a través de procesos de filtraje. O principal objetivo da filtraje de señales es mejorar a calidad de la señal de acuerdo con un determinado criterio de desempeño (Muller, 1992). El presente trabajo aborda el tratamiento de ruidos a través de filtros adaptativos. Muchas de esas interferencias, que son encontradas en la nube de pontos, cambian en cada proceso de adquisición y no pueden atenuarse con suceso a través de filtros digitales convencionales: Pasa-bajas, pasa-altas o pasa-banda (Manolakis et al., 2000). Esta trabajo aborda a combinación de dos técnicas para modelar superficies de objetos 3D: a reconstrucción de superficies por mallas Triangulares e por funciones para-métricas - NURBS (Non-Uniform Rational B-Splines) (Farin, 2001; Anderson & Crawford-Hines, 2000; Roth & Boulanger, 1998). Del mismo modo son también descritos el ajuste de los parches para-métricos a través da iteración cíclica de Newton con el fin de minimizar la distancia entre a malla estructurada y los parches para-métricos (Elsäesser, 1998). Igualmente se describe a la evaluación de condiciones de frontera para la suavización de funciones para-métricas sobre toda la superficie (Hoppe et al., 1992). Estas técnicas se transforman conjuntamente en una herramienta computacional de propósito específico para a construcción de superficies a través de nube de pontos. El desempeño del método aplicado es evaluado en función de la precisión de ajuste obtenida y es comparada metrologicamente con un sistema estándar, permitiendo mostrar a través de un experimento que o software final sirva como un instrumento de medición.
149

Tratando variabilidade em linha de processos de negócio : uma abordagem composicional

Machado, Idarlan Martins 15 July 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto Ciências Exatas, 2011. / Submitted by Shayane Marques Zica (marquacizh@uol.com.br) on 2011-11-10T13:55:24Z No. of bitstreams: 1 2011_IdarlanMartinsMachado.pdf: 6336604 bytes, checksum: 2fffe58d9d2f41d53b42b5bc1fb8e070 (MD5) / Approved for entry into archive by Leila Fernandes (leilabiblio@yahoo.com.br) on 2011-12-16T12:18:06Z (GMT) No. of bitstreams: 1 2011_IdarlanMartinsMachado.pdf: 6336604 bytes, checksum: 2fffe58d9d2f41d53b42b5bc1fb8e070 (MD5) / Made available in DSpace on 2011-12-16T12:18:06Z (GMT). No. of bitstreams: 1 2011_IdarlanMartinsMachado.pdf: 6336604 bytes, checksum: 2fffe58d9d2f41d53b42b5bc1fb8e070 (MD5) / Torna-se cada vez mais importante usar modelagem de processos de negócios nas empresas de médio e grande porte. Como resultado, há vários estudos, métodos, padrões, melhores práticas e ferramentas disponibilizados pelo mercado e pela academia. Enquanto isso, a recente área de pesquisa de Linha de Produtos de Software (LPS) visa reuso estratégico de software. Esse paradigma pode ser utilizado em qualquer fase da Engenharia de Software.Como a fase de requisitos de software deve estar alinhada com processos de negócio, _e,em princípio, possível aplicar os princípios da LPS também a essa fase. Isso _e vantajoso porque organizações maiores frequentemente sofrem de redundância em processos e, consequentemente,em sistemas, já que esses últimos são meramente ferramentas para apoiar aqueles. A ausência de padrão genérico nas organizações para modelagem de processos de negócio bem como limitação das linguagens de modelagem de processos de negócio com relação a modularidade são problemas que motivam esta pesquisa. Portanto, esta dissertação apresenta estudos de modelagem, sistematização e parametrização de processos de negócio com o objetivo de evitar repetição de processos e fornecer extensão a uma abordagem existente para gerenciar variabilidade em cenários de casos de uso usando a A bordagem Orientada a Aspectos - OA. Nosso trabalho propõe uma extensão dessa a bordagem para gerenciar as variabilidades de processos de negócio, visando assim o reuso estratégico de processos de negócio. ______________________________________________________________________________ ABSTRACT / It has become increasingly important to perform modeling of business processes in midsize and large companies. As a result, there are several studies, methods, standards, best practices and tools o ered by the market and the academy. Meanwhile, the recent research area of Software Product Line (SPL) aims at strategic reuse of software. This paradigm can be used at any stage of software engineering. As the requirements phase of software should be aligned with business processes, it is, in principle, possible to apply the principles of SPL also to that stage. This is advantageous because larger organizations frequently su er from redundancy in processes and, consequently, in systems, since the latter are merely tools to support the former. The lack of generic standards in organizations for modeling business processes as well as the limitation of modeling languages of business processes with respect to modularity are issues that motivate this research. Therefore,this dissertation presents the modeling studies, organization and con guration of business processes in order to avoid repetition of processes and provide an extension an earlier approach designed to manage variability in scenarios of use cases using an Aspect Oriented approach - OA. Our work proposes an extension of this approach to manage the variability of business processes, thereby focusing on the strategic reuse of business processes.
150

Sistema baseado em conhecimento para controle e guia operacional em tempo real de alto forno

Fernandes, Carlos Alberto de Castro 05 September 1991 (has links)
Orientador: Fernando Gomide / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-21T04:25:23Z (GMT). No. of bitstreams: 1 Fernandes_CarlosAlbertodeCastro_M.pdf: 7634322 bytes, checksum: 25c4e44ccbf1b8bcf1f4f2c07ca60dbc (MD5) Previous issue date: 1991 / Resumo: Foi desenvolvido um Sistema de Controle e Guia Operacional em "lempo real para Altos-Fornos, utilizando a "tecnologia de Sistemas Baseados em Conhecimento. e implementado um protótipo de validação contendo conhecimento suficiente para diagnosticar a estabilidade do rítmo do forno nos aspectos de nível térmico, permeabilidade ao fluxo dos gases redutores e estabilidade química do produto. O sistema foi instalado no púlpito de operação da sala de controle do alto-forno nº 2 da Companhia Siderúrgica Nacional, com uma arquitetura integrada ao sistema de controle supervisório do forno, privilegiando os aspectos de aquisição automática ("on-line") de dados do processo e de controle em tempo real compatível com as necessidades de resposta temporal do forno. Ao lado de algumas considerações teóricas sobre o processo de aquisição, representação e validação do conhecimento, é proposta um metodologia de desenvolvimento de Sistemas Baseados em Cpnhecimento, composta por uma fusão de diversos métodos e técnicas existentes, efetivamente utilizada e testada com sucesso no desenvolvimento do sistema em questão / Abstract: A knowledge based system for real time supervisory control and operational guidance has been developed for blast furnaces of steel plants, with enfasis in on-line and real time process control aspects. The knowledge based system is part of a blast furnace supervisory control system which includes not only an usual distributed control and monitoring equipment. but also a supervision workstation allocated exclusively for the expert control system inferences in real time with the process under controlo The prototype system was implemented for the operation pulpit of control room of' blast f'urnace nº 2 of Companhia Siderúrgica Nacional. f'or f'inal operational approval, a brazilian steel planto System's f'unctions aims at capturing operational knowledge about the stablity of f'urnace r i tnm, under the aspects Ievel . permeabili ty to the flow of of' the f'urnace thermal reduction gases and chemical disturbances in the product. Moreover. a particular methodology was derived and used f'or the system developement. It reflects our practical experience in the fusion of some existing techniques, methods and methodologies. The usefulness of the knowledge acquisition and representation approaches derived have shown to be very effective for the class of problems herein considered. / Mestrado / Mestre em Engenharia Elétrica

Page generated in 0.068 seconds