• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 875
  • 57
  • 34
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 993
  • 313
  • 304
  • 301
  • 246
  • 235
  • 200
  • 199
  • 159
  • 151
  • 111
  • 91
  • 89
  • 82
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Aplicação de técnicas de processamento e análise de imagens para detecção de edificações e vegetação a partir de dados LiDAR /

Carrilho, André Caceres. January 2016 (has links)
Orientador: Mauricio Galo / Banca: Daniel Rodrigues dos Santos / Banca: Aluir Porfírio Dal Poz / Resumo: As nuvens de pontos provindas de Sistemas de Varredura a LASER (Light Amplification by Stimulated Emission of Radiation) Aerotransportados (SVLA) representam a superfície com um grande detalhamento, sendo registrada a vegetação e as feições antrópicas, como edificações e rodovias, por exemplo. A automação da tarefa de classificação da nuvem de pontos é importante para a redução de custos em aplicações práticas relacionadas a atividades de mapeamento. Esta dissertação tem por objetivo principal o estudo, implementação e avaliação de técnicas de processamento e análise de imagens visando a classificação da nuvem de pontos LiDAR (Light Detection and Ranging), e a obtenção, de forma automática, do MDT (Modelo Digital do Terreno) e dos pontos pertencentes a edificações e vegetação. Inicialmente são apresentados os conceitos necessários para o entendimento do método proposto, o qual é detalhado na sequência, assim como os conjuntos de dados utilizados para as avaliações. Além da revisão conceitual sobre tópicos como Morfologia Matemática, Análise de Componentes Principais e algoritmo RANSAC, estudou-se a necessidade de redução da quantidade de iterações do RANSAC e uma alternativa para obtenção de alguns dos parâmetros do método a priori. Foram realizados experimentos sobre a escolha do interpolador (para a geração da grade regular) e para a seleção da forma e dimensão do elemento estruturante (usado nas operações morfológicas). A classificação final foi avaliada em termos de compl... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The point clouds acquired by ALS (Airborne LASER Scanning) systems represent the surface with great level of detail, recording both natural vegetation and anthropic features, such as buildings and roads, for example. The automation's task of point clouds classification is important to reduce costs in practical applications related to mapping activities and production. This work is primarily focused in the study, implementation and evaluation of image processing and analysis techniques, aiming the automatic cloud point classification, generation of the DTM (Digital Terrain Model) and the detection of roof plane and vegetation points. Besides the conceptual review about Mathematical Morphology, Principal Component Analysis and RANSAC (Random Sample Consensus), it was studied the need to reduce the quantity of iterations and an alternative to obtain some of the parameters required by RANSAC algorithm considering one preliminary classification based on Principal Component Analysis. Some experiments were conducted in order to select both the interpolation method (to generate the grid) and the shape and size of the structuring element (used in the morphological operations). The final classification was evaluated in terms of completeness and correctness, computed with respect to a manually generated reference. / Mestre
72

Seleção de descritores na caracterização de germoplasma de Paspalum através de componentes principais / not available

Strapasson, Elizabeth 02 June 1997 (has links)
Este estudo teve como objetivo selecionar os descritores botânico-agronômicos que melhor se prestam para caracterizar acessos das espécies paspalum guenoarum e paspalum plicatulum. Através de componentes principais, baseando-se nos artigos de Jolliffe (1972 e 1973). Foram avaliados 15 descritores reprodutivos, 22 vegetativos e 21 agronômicos, sendo que os agronômicos compreenderam 7 descritores para a avaliação anual, 7 descritores para a avaliação de inverno e 7 descritores para a avaliação de verão. Após a seleção de descritores reprodutivos, vegetativos e agronômicos separadamente, foi realizada uma análise de componentes principais considerando estes caracteres conjuntamente. A fim de se proceder a uma nova seleção. O método utilizado permitiu uma redução de 53%, 68% e 43%. Dos descritores reprodutivos, vegetativos e agronômicos, respectivamente, do conjunto inicialmente considerado. Como descritores importantes destacaram-se: PR, CE, EFL (reprodutivos), DIPB, CMB, LMBBASE (vegetativos) e PORMSANO, DIVERAO (agronômicos), o que representa um descarte de 86% do total de descritores utilizados na caracterização dos acessos. Verificou-se também que os descritores agronômicos por serem mais influenciados por fatores ambientais tiveram uma menor participação nesta caracterização, uma vez que dos oito descritores selecionados, seis foram reprodutivos e vegetativos. Para os descritores vegetativos o método de descarte não foi tão satisfatório quanto para os demais, devendo-se ressaltar que suas estimativas podem não ter refletido com boa exatidão as associações existentes entre os mesmos tendo em vista o pequeno número de acessos (26) e a quantidade elevada de descritores (22) considerados. O método de componentes principais mostrou-se útil para selecionar os descritores mais importantes na descrição da variabilidade presente na coleção de acessos do germoplasma estudado / not available
73

Ambiente integrado para verificação e teste da coordenação de componentes tolerantes a falhas / An integrated environment for verification and test of fault-tolerant components coordination

Hanazumi, Simone 01 September 2010 (has links)
Hoje, diante das contínuas mudanças e do mercado competitivo, as empresas e organizações têm sempre a necessidade de adaptar suas práticas de negócios para atender às diferentes exigências de seus clientes e manter-se em vantagem com relação às suas concorrentes. Para ajudá-las a atingir esta meta, uma proposta promissora é o Desenvolvimento Baseado em Componentes (DBC), cuja ideia básica é a de que um novo software possa ser construído rapidamente a partir de componentes pré-existentes. Entretanto, a montagem de sistemas corporativos mais confiáveis e tolerantes a falhas a partir da integração de componentes tem-se mostrado uma tarefa relativamente complexa. E a necessidade de garantir que tal integração não falhe tornou-se algo imprescindível, sobretudo porque as consequências de uma falha podem ser extremamente graves. Para que haja uma certa garantia de que o software seja tolerante a falhas, devem ser realizadas atividades de testes e verificação formal de programas. Isto porque ambas, em conjunto, procuram garantir ao desenvolvedor que o sistema resultante da integração é, de fato, confiável. Mas a viabilidade prática de execução destas atividades depende de ferramentas que auxiliem sua realização, uma vez que a execução de ambas constitui um alto custo para o desenvolvimento do software. Tendo em vista esta necessidade de facilitar a realização de testes e verificação nos sistemas baseados em componentes (DBC), este trabalho de Mestrado se propõe a desenvolver um ambiente integrado para a verificação e teste de protocolos para a coordenação do comportamento excepcional de componentes. / Nowadays, because of continuous changes and the competitive market, companies and organizations have the necessity to adapt their business practices in order to satisfy the different requirements of their customers and then, keep themselves in advantage among their competitors. To help them to reach this aim, a promising purpose is the Component-Based Development (CBD), whose basic idea is that a new software can be built in a fast way from preexisting components. However, mounting more reliable and fault-tolerant corporative systems from components integration is a relatively complex task. And the need to assure that such integration does not fail becomes something essential, especially because the consequences of a failure can be extremely serious. To have a certain guarantee that the software will be fault-tolerant, testing activities and formal verification of programs should be done. This is because both, together, try to assure to developer that the resulting system of the integration is, in fact, reliable. But the practical feasibility of executing these activities depends on tools which support it, once both executions have a high cost to software development. Having the necessity to make test and verification easier in systems based in components (CBD), this work has, as main objective, the development of an integrated environment for verification and test of protocols to the coordination of components exceptional behaviour.
74

Ativação de componentes de software com a utilização de uma ontologia de componentes / Component loading with utilization of a components ontology

Lorza, Augusto Carbol 16 July 2007 (has links)
Atualmente, existem muitos estudos para agregar mais valor às informações disponíveis na Web visando melhorar os resultados da interação dos usuários com a Web; uma das linhas de estudo é a Web Semântica, que propõe a adição de informação semântica à Web atual por meio de ontologias. A organização internacional que define os padrões para a Web (W3C) já propôs vários padrões para tornar a Web Semântica viável, porém, além de padrões, também é preciso criar ou adaptar ferramentas que explorem as suas potencialidades. Uma ferramenta que dá um suporte significativo para a Web atual e que pode ser adaptada para trabalhar com a Web Semântica é o Servidor de Aplicações. Com adição de informações semânticas, na forma de ontologias, tem-se um Servidor de Aplicações Baseado em Ontologias (OBAS). Neste trabalho foi desenvolvido um sistema protótipo para oferecer as características mínimas de um OBAS, e desta forma, foram investigadas as tecnologias para a Web Semântica que viabilizassem uma solução de acordo com os padrões recomendados pela W3C. Os componentes de software de um OBAS têm suas propriedades e comportamentos relacionados de forma semântica usando-se ontologias. Como uma ontologia é um modelo conceitual explícito, suas descrições dos componentes podem ser consultadas e inferidas, melhorando o desempenho do servidor através da combinação dos componentes mais apropriados a uma tarefa, da simplificação da programação, pois não é mais necessário saber todos os detalhes de um componente para ativá-lo / Many studies have been carried out to add more value to the available information in the Web with a view to improving the results of the users\' interaction with the Web. Semantic Web is one line of research with focus on this issue and proposes the insertion of semantic information to the current Web through ontologies. Several patterns have been proposed by W3C, the international organization that defines patterns to the Web as an attempt to make the Semantic Web viable. However, besides patterns, it is also necessary to create or adapt tools to explore their potentialities. Application Server is a tool which gives significant support to the current Web and could be adapted to work with the Semantic Web. By adding semantic information, in the ontology form, we have an Ontology-Based Application Server (OBAS). This study develops a protoptype system which aims to offer the minimum characteristics of an OBAS. We have therefore investigated the semantic web which could provide a solution according to the patterns recommended by W3C. Properties and behaviors of software components of OBAS are semantically related by means of ontologies. Given that ontology is an explicit conceptual model, its component descriptions can be consulted and inferred, and hence improve the performance of the server. This is done by applying the most appropriate components to a given task and simplifying programming since components can be activated with no need to know all their details
75

Caracterização das áreas queimadas no estado do Tocantins no ano de 2014

Neves, Cínthia Ohana Marques 17 June 2016 (has links)
Neste estudo, objetivou-se caracterizar áreas queimadas em todo o Estado do Tocantins, durante o ano de 2014, por meio de análise exploratória e de componentes principais. Esta última foi empregada para estabelecer a relação das áreas queimadas com dados territoriais e socioeconômicos dos municípios tocantinenses. Por meio da análise do histórico de focos de calor no Estado, foram utilizadas imagens de satélite referentes aos meses de julho a outubro, período crítico de ocorrência. Foram utilizadas imagens TM do satélite Landsat-8, por meio do download das bandas referentes ao visível: infravermelho médio (1,57–1,65 μm), infravermelho próximo (0,85–0,88 μm) e vermelho (0,64-0,67 μm), na composição de bandas 6R5G4B (Red –vermelho, Green-verde, Blue-azul), com resolução espacial de 30 metros e resolução temporal de 16 dias. Foi realizado o processamento e interpretação visual das imagens, com a vetorização (digitalização) das áreas queimadas e incêndios. Os dados vetoriais das áreas queimadas foram cruzados com sete base de dados (precipitação média anual, pedologia, temperatura média anual, bacia hidrográfica, declividade, unidades de conservação, e o uso da terra), disponibilizadas pela Secretaria de Planejamento e Orçamento do Tocantins, e os dados territoriais e socioeconômicos dos municípios tocantinenses. Estes últimos foram utilizados na análise de componentes principais (CP), que extraiu cinco CP que explicam 81,74% da variância dos dados. Esta análise, ainda, indicou que a cicatriz apresentou maior relação linear positiva com a área do município, quantidade de focos de calor, e áreas de pastagens naturais e florestas. Pela análise espacial, com uso da função K de Ripley e Índice Global de Moran, nos locais de maior ocorrência de queimadas (regiões do Jalapão e da Ilha do Bananal), bem como no Estado todo, a ocorrência de queimadas pôde ser considerada de padrão agregado por toda a escala. Foi possível concluir, através deste trabalho, que além das condições ambientais intrínsecas do Cerrado, municípios com maiores áreas queimadas, que estão inseridos nestas duas regiões, estiveram associados com maiores PIB da agropecuária e menores PIB de serviços e indústria e menor número de habitantes. / This study objected to characterize the burned areas in the Tocantins State, 2014 season, by the exploratory and principal component analysis. This one used for knowledge the relationship of burned area with territorial and socioeconomically data of Tocantins cities. By historical analysis of heat spots in Tocantins, they were used satellite images between July and October. They were used the following bands, of sensors of Landsat-8 satellite: shortwave infrared (1.57–1.65 μm), near infrared (0.85–0.88 μm) and red (0.64-0.67 μm), in the RGB composition, with a spatial-temporal resolution of 30 meters and 16 days. It was conducted the processing and visual interpretation of the images, for the vectorization of the burned areas. These data were crossed with seven database (annual average precipitation, pedology, annual average temperature, watershed, slope, protected area and land use), available on Secretariat of Planning and Budget of Tocantins, and with the territory and socioeconomic data of the Tocantins cities. These last data were used in principal component analysis (PCA) that were extracted five PCA (data variance explained was 81.74%). These analyses revealed that burned area had shown highest positive relationship with city area, number of heat spots, natural pasture and forest areas. By the spatial analysis, K Ripley’s function and Moran’s index, the burned area occurrence, in the Tocantins State (include regions with highest burned area, as Jalapão and Bananal island), cannot be considered aleatory. It was possible to conclude, beyond environment conditions of Cerrado, the cities with highest burned area related with high agricultural GDP and low GDP of services and industry and low population.
76

Testes assintóticos para detectar consenso multivariado em painéis sensoriais

FERREIRA, Laís Brambilla Storti 16 December 2016 (has links)
A unidimensionalidade de um painel sensorial está diretamente relacionada com a consonância do mesmo, ou seja, um painel é considerado unidimensional quando os provadores pontuam da mesma forma um determinado atributo. Devido a importância da concordância do painel para a confiabilidade da análise sensorial os provadores devem ser treinados de modo que concordem entre si em relação às características deste atributo. Na literatura é possível encontrar métodos que vem sendo propostos para avaliar esta concordância, porém os métodos existentes avaliam as notas dadas pelos provadores para um atributo de cada vez, tornando a análise mais lenta. Assim, o objetivo deste trabalho é generalizar o teste assintótico de autovalores proposto por Ferreira (2008a), a fim de inferir sobre o consenso multivariado de painéis sensoriais. A partir da generalização do teste assintótico de autovalores foi possível obter quatro novas estatísticas de teste. A avaliação dos testes foi realizada via simulação Monte Carlo, na qual foram avaliados diferentes cenários resultantes da combinação dos números de provadores (2, 5, 10 e 15), atributos (2, 5, 10 e 20), observações (10, 20, 30, 40, 50, 100 e 200), grau de treinamento do painel sensorial (0;1 ≥ p² ≥ 0;99) e da restrição n ≥ pq. De maneira geral, analisando a taxa de erro tipo I e o poder dos testes, o teste InvH2 mostrou-se ser o mais eficiente. / The unidimensionality of a sensory panel is directly related to the panel consonance, i.e., a panel is considered unidimensional when assessors score in the same way a particular attribute. Due to the importance of the panel agreement to the reliability of sensory analysis panelists should be trained in order that they agree with each other regarding the characteristics of an attribute. In the literature several methods have been proposed to assess such agreement, although existing methods evaluate the marks for one attribute at a time, making the analysis slower. The objective of this study is to generalize the asymptotic test eigenvalues proposed by Ferreira (2008a), in order to infer about the multivariate consensus of sensory panels. From the generalization of the asymptotic test of eigenvalues it was possible to obtain four new test statistics. The evaluation of the tests was conducted via Monte Carlo simulation, in which were evaluated different scenarios resulting from the combination of the numbers of panelists (2, 5, 10 and 15), attributes (2, 5, 10 and 20), observations (10, 20, 30, 40, 50, 100 and 200) , degree of training of the sensory panel (0;1 ≥ p² ≥ 0;99) and the restriction n ≥ pq. Overall, analyzing the type I error and the power function of the tests, the test InvH2 was more efficient. / Fundação de Amparo à Pesquisa do Estado de Minas Gerais - FAPEMIG
77

Classificação semi-automática de componentes Java / Semi-automatic classification of Java components

Melo, Claudia de Oliveira 29 September 2006 (has links)
As recentes tecnologias de desenvolvimento e distribuição de componentes possibilitaram o aumento do número de componentes disponíveis no mercado. No entanto, eles muitas vezes estão dispersos e não publicados adequadamente para a comunidade de pesquisa e desenvolvimento de software. Encontrar componentes apropriados para solucionar um problema particular não é uma tarefa simples e novas técnicas devem ser desenvolvidas para o reuso efetivo de componentes. Um dos maiores desafios em reusar componentes consiste em classificá-los corretamente para futuras consultas. Classificar componentes para possibilitar uma busca eficaz depende da qualidade das informações adquiridas, que viabilizam melhor precisão e cobertura das consultas ao encontrar componentes reutilizáveis em potencial. Ao mesmo tempo, mecanismos de classificação e busca devem ser fáceis o suficiente para convencer os desenvolvedores a reusar componentes. Este trabalho estuda as técnicas de classificação de componentes de software, repositórios e métodos de busca. é apresentada uma proposta de modelo de classificação de componentes que considera não apenas sua função, mas o negócio onde ele está inserido e seus atributos de qualidade. Um método de preenchimento semi-automático das informações é proposto, de modo a diminuir os custos de classificação. O protótipo REUSE+ foi construído para exemplificar o uso do modelo e do método de classificação semi-automática, de forma a validar a proposta, destacando, por fim, as principais contribuições do trabalho. / The recent developments on components technologies have increased the number of components available to the market. These components are, however, distributed overall the world and not properly advertised to the research and development communities. Finding the appropriate components to solve a particular problem is not very straightforward and new techniques must be developed to effectively reuse components. One of the great challenges in reusing components is concerned with how to actually classify components \"properly\" in order to further retrieve them. Classifying components for effective retrieval depends on acquiring the appropriate information in classification to improve the precision and recall rates in retrieval; finding only the potentially reusable components and not missing potential solutions. At the same time, the classification and retrieval mechanisms must be easy enough to persuade developers to reuse components. This work studies the classification techniques of software components, repository and retrieval methods. Hereafter is presented a proposal of components classification model that considers not just its function, but business and quality attributes. It is proposed a semi-automatic classification mechanism of software information, allowing a cheaper classification. REUSE+ prototype was built to exemplify the use of model and method of semi-automatic classification, allowing the described proposal validation, highlighting at the end the mainly contributions of the work.
78

\"Isolamento, estudo da atividade biológica e caracterização preliminares dos componentes majoritários do Photogem® por espectroscopia eletrônica na região do ultravioleta-visível e espectrometria de massa\" / Insulation, evaluation of the biological activity and preliminary characterization of the major components of Photogem® UV-vis electronic and mass spectroscopy\"

Sanchez, Marco Aurelio Andrade 11 September 2006 (has links)
O presente trabalho enfocou o isolamento, a análise da atividade biológica e a caracterização dos componentes majoritários do Photogem® através de Cromatografia Líquida de Alta Eficiência (CLAE), espectroscopia eletrônica na região do ultravioleta-visível (UV-Vis) e espectrometria de massa. O Photogem® é um derivado de hematoporfirina usado como fotossensibilizador em Terapia Fotodinâmica (TFD). O derivado de hematoporfirina é composto por uma mistura de monômeros, dímeros e oligômeros mas as estruturas químicas destes componentes ainda não estão bem caracterizadas. Empregou-se extração em fase sólida para limpeza e fracionamento dos componentes do Photogem®. As três frações principais foram separadas de acordo com suas respectivas polaridades. Em seguida, testes preliminares de atividade biológica foram desenvolvidos com as respectivas frações do Photogem® em células tumorais (HEp-2) e normais (VERO). A fração 2 apresentou citotoxicidade cinco vezes maior do que o Photogem® tanto nas células tumorais quanto nas células normais. Os componentes majoritários do Photogem® foram isolados por meio de cromatografia líquida de alta eficiência (CLAE) e analisados por espectroscopia eletrônica na região do ultravioleta-visível (UV-Vis) e por espectrometria de massa. O componente que corresponde à fração 1 pode ser atribuído à hematoporfirina IX em função do seu espectro de absorção eletrônica (banda de Soret em 396nm e bandas Q em 497, 531, 568 e 619nm), seu coeficiente de absortividade molar ((1,30±0,07)x105 cm-1 mol-1 L) e seu espectro de massa (íon pseudomolecular em m/Z 599Da). É importante mencionar que este trabalho proporcionou a elaboração de um procedimento acessível à maioria dos laboratórios brasileiros no que se refere a purificação, separação, isolamento e caracterização das frações constituintes do Photogem®, sendo uma contribuição relevante para o avanço da TFD no Brasil. As etapas da metodologia completa são comentadas e discutidas em detalhes. / The present work focused the isolation, the biological activity analysis and the characterization of the major components of Photogem® through High Performance Liquid Chromatography (HPLC), UV-Vis electronic absorption spectroscopy (UV-Vis) and mass spectrometry. Photogem® is a hematoporphyrin derivative used as photosensitizer in Photodynamic Therapy (PDT). The hematoporphyrin derivative is composed by a mixture of monomers, dimers and oligomers but the chemical structures of these components are not well-characterized yet. It was employed solid phase extraction to clean-up and fractionation of the Photogem® components. Three principal fractions was separated as function of their respective polarities. Subsequently, initial biological tests were developed with the respective Photogem® fractions in tumoral (Hep-2) and normal (VERO) cells. Fraction 2 presented citotoxicity approximately 5-fold higher than Photogem® as in tumoral as in normal cells. The major components of Photogem® were isolated by High Performance Liquid Chromatography (HPLC) and analyzed by UV-Vis electronic absorption spectroscopy (UV-Vis) and mass spectrometry. The component that corresponds to fraction 1 can be assigned to hematoporphyrin IX as function of its electronic absorption spectrum (Soret band in 396nm and Q bands in 497, 531, 568 and 619nm), its molar absortivity coefficient ((1,30?0,07)x105 cm-1 mol- 1 L) and its mass spectrum (pseudomolecular ion in m/z 599Da). It is important to mention that this work provided the elaboration of an accessible procedure to the most of the brazilian laboratories regarding purification, separation, isolation and characterization of the constituent fractions of Photogem®, being a relevant contribution to the advancement of PDT in Brazil. The steps of the complete methodology are commented and discussed in details.
79

Infra-estrutura de componentes paralelos para aplicaÃÃes de computaÃÃo de alto desempenho / Infrastructure of parallel components for applications of computation of high performance

Jefferson de Carvalho Silva 03 June 2008 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / A construÃÃo de novas aplicaÃÃes voltadas à ComputaÃÃo de Alto Desempenho (CAD) tÃm exigido ferramentas que conciliem um alto poder de abstraÃÃo e integraÃÃo de software. Dentre as soluÃÃes apresentadas pela comunidade cientÃfica estamos particularmente interessados naquelas baseadas em tecnologia de componentes. Os componentes tÃm sido usados para abordar novos requisitos de aplicaÃÃes de alto desempenho, entre as quais destacamos: interoperabilidade, reusabilidade, manutenibilidade e produtividade. As abordagens das aplicaÃÃes atuais baseadas em tecnologia de componentes, no entanto, nÃo conseguem abstrair formas mais gerais de paralelismo de maneira eficiente, tornando ainda o processo de desenvolvimento difÃcil, principalmente se o usuÃrio for leigo no conhecimento das peculiaridades de arquiteturas de computaÃÃo paralela. Um tempo precioso, o qual deveria ser utilizado para a soluÃÃo do problema, à perdido na implementaÃÃo eficiente do cÃdigo de paralelizaÃÃo. Diante desse contexto, esta dissertaÃÃo apresenta o HPE (Hash Programming Environment), uma soluÃÃo baseada no modelo # de componentes paralelos e na arquitetura Hash. O HPE define um conjunto de espÃcies de componentes responsÃveis pela construÃÃo, implantaÃÃo e execuÃÃo de programas paralelos sobre clusters de multiprocessadores. A arquitetura Hash à constituÃda de trÃs mÃdulos distintos: o Front-End, o Back-End e o Core. A contribuiÃÃo principal deste trabalho reside na implementaÃÃo de um Back-End, como uma plataforma de componentes paralelos que estende o Mono, plataforma de componentes de cÃdigo aberto baseado no padrÃo CLI (Common Language Interface). Feito isso, unimos o back-End Ãs implementaÃÃes jà existentes do Front-End e do Core, ambos em java e sobre a plataforma de desenvolvimento Eclipse, atravÃs de serviÃos web (web service). Ao final, apresentaremos um pequeno teste de conceito, construÃdo por um programa paralelo construÃdo a partir de componentes #, segundo as premissas e conceitos apresentados neste trabalho. / The development of new High Performance Computing (HPC) application has demanded a set of tools for reconciling high level of a abstraction with software integration. In particular, we are interested in component-based solutions presented by the scientific community in the last years. Components have been applied to meet new requirements of high performance application such as: interoperability, reusability, maintainability and productivity. Recent approaches for component based development time in HPC context, however, have not reconciled more expressive ways for parallel programming and efficiency. Unfortunately, this issue increases the software development time and gets worse when user have poor knowledge of architectural details of parallel computers and of requirements of applications. Precious time is lost optimizing parallel code, probably with non-portable results, instead of being applied to the solutions of the problem. This dissertation presents the Hash Programming Environment (HPE), a solution based on the # (reads "Hash") Component Model and on the Hash Framework Architecture. HPE defines a set of component kinds for building, deploying and executing parallel programs targeted at clusters of multiprocessors. The Hash Framework Architecture has three loosely coupled modules: the Front-End, the Back-End and the Core. The main contribution of this work is the implementation of the Back-End and the Core. The main contribution of this work is the implementation of the Back-End, since we have an early version of the Front-End and Core, both developed in Java on top of the Eclipse Platform. The Back-End was implemented as a parallel extension of a Mono, an open source component platform based on CLI (Common Language Interface) standard. Once independently done, we bound all the modules together, using web services technology. For evaluating the proposed Back-End, we have developed a small conceptual test application, composed by # components.
80

Ambiente integrado para verificação e teste da coordenação de componentes tolerantes a falhas / An integrated environment for verification and test of fault-tolerant components coordination

Simone Hanazumi 01 September 2010 (has links)
Hoje, diante das contínuas mudanças e do mercado competitivo, as empresas e organizações têm sempre a necessidade de adaptar suas práticas de negócios para atender às diferentes exigências de seus clientes e manter-se em vantagem com relação às suas concorrentes. Para ajudá-las a atingir esta meta, uma proposta promissora é o Desenvolvimento Baseado em Componentes (DBC), cuja ideia básica é a de que um novo software possa ser construído rapidamente a partir de componentes pré-existentes. Entretanto, a montagem de sistemas corporativos mais confiáveis e tolerantes a falhas a partir da integração de componentes tem-se mostrado uma tarefa relativamente complexa. E a necessidade de garantir que tal integração não falhe tornou-se algo imprescindível, sobretudo porque as consequências de uma falha podem ser extremamente graves. Para que haja uma certa garantia de que o software seja tolerante a falhas, devem ser realizadas atividades de testes e verificação formal de programas. Isto porque ambas, em conjunto, procuram garantir ao desenvolvedor que o sistema resultante da integração é, de fato, confiável. Mas a viabilidade prática de execução destas atividades depende de ferramentas que auxiliem sua realização, uma vez que a execução de ambas constitui um alto custo para o desenvolvimento do software. Tendo em vista esta necessidade de facilitar a realização de testes e verificação nos sistemas baseados em componentes (DBC), este trabalho de Mestrado se propõe a desenvolver um ambiente integrado para a verificação e teste de protocolos para a coordenação do comportamento excepcional de componentes. / Nowadays, because of continuous changes and the competitive market, companies and organizations have the necessity to adapt their business practices in order to satisfy the different requirements of their customers and then, keep themselves in advantage among their competitors. To help them to reach this aim, a promising purpose is the Component-Based Development (CBD), whose basic idea is that a new software can be built in a fast way from preexisting components. However, mounting more reliable and fault-tolerant corporative systems from components integration is a relatively complex task. And the need to assure that such integration does not fail becomes something essential, especially because the consequences of a failure can be extremely serious. To have a certain guarantee that the software will be fault-tolerant, testing activities and formal verification of programs should be done. This is because both, together, try to assure to developer that the resulting system of the integration is, in fact, reliable. But the practical feasibility of executing these activities depends on tools which support it, once both executions have a high cost to software development. Having the necessity to make test and verification easier in systems based in components (CBD), this work has, as main objective, the development of an integrated environment for verification and test of protocols to the coordination of components exceptional behaviour.

Page generated in 0.3403 seconds