Spelling suggestions: "subject:"estruturas dde dados"" "subject:"estruturas dde lados""
21 |
O poder da generalização na modelagem de dados: um estudo empíricoSilveira, Marco Antônio Pinheiro da 29 April 1997 (has links)
Made available in DSpace on 2010-04-20T20:15:32Z (GMT). No. of bitstreams: 0
Previous issue date: 1997-04-29T00:00:00Z / Trata-se de uma pesquisa de campo que abrange 21 empresas, onde se procurou identificar estruturas de dados comuns nos modelos de dados das mesmas. A base teórica para o trabalho são os conceitos de abstração existentes na literatura de Projeto de Banco de Dados, agregação (é-parte-de) e generalização (é-um). Foram identificadas aplicações destes conceitos, mas a pesquisa também mostra que ainda há poucas ferramentas disponíveis para implementação dos mesmos e pouca familiaridade dos técnicos com os conceitos
|
22 |
Aplicativo computacional para obtenção de probabilidades a priori de classificação errônea em experimentos agronômicosPadovani, Carlos Roberto [UNESP] 27 July 2007 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:31:37Z (GMT). No. of bitstreams: 0
Previous issue date: 2007-07-27Bitstream added on 2014-06-13T21:02:58Z : No. of bitstreams: 1
padovani_crp_dr_botfca.pdf: 793418 bytes, checksum: 8b62c9d520c0086c46554fb418856bb7 (MD5) / Nas Ciências Agronômicas, encontram-se várias situações em que são observadas diversas variáveis respostas nas parcelas ou unidades experimentais. Nestas situações, um caso de interesse prático à experimentação agronômica é o que considera a construção de regiões de similaridade entre as parcelas para a discriminação entre os grupos experimentais e ou para a classificação de novas unidades experimentais em uma dessas regiões. Os métodos de classificação ou discriminação exigem, para sua utilização prática, uma quantidade considerável de retenção de informação da estrutura de variabilidade dos dados e, principalmente, alta fidedignidade e competência nas alocações de novos indivíduos nos grupos, mostradas nas distribuições corretas destes indivíduos. Existem vários procedimentos para medir o grau de decisão correta (acurácia) das informações fornecidas pelos métodos classificatórios. Praticamente, a totalidade deles utilizam a probabilidade de classificação errônea como o indicador de qualidade, sendo alguns destes freqüentistas (probabilidade estimada pela freqüência relativa de ocorrências - métodos não paramétricos) e outros baseados nas funções densidade de probabilidade das populações (métodos paramétricos). A principal diferença entre esses procedimentos é a conceituação dada ao cálculo da probabilidade de classificação errônea. Pretende-se, no presente estudo, apresentar alguns procedimentos para estimar estas probabilidades, desenvolver um software para a obtenção das estimativas considerando a distância generalizada de Mahalanobis como o procedimento relativo à da função densidade de probabilidade para populações com distribuição multinormal . Este software será de acesso livre e de fácil manuseio para pesquisadores de áreas aplicadas, completado com o manual do usuário e com um exemplo de aplicação envolvendo divergência genética de girassol. / In the Agronomical Sciences, mainly in studies involving biomass production and rational use of energy, there are several situations in which several variable answers in the parts or experimental units are observed. In these situations, a case of practical interest to the agronomical experimentation is that one which considers the construction of similarity regions among parts and or the classification of new experimental units. The classification methods demand, for their utilization, a considerable quantity for utilization of their information retention of data and, mostly, high fidelity and competence in the new individual allocations. There are several procedures to measure accuracy degree of the information supplied by the discrimination method. Practically all of them use the miss-classification probability (erroneous classification) like the quality indicator. The main difference among these evaluation methods is the characterization of the miss-classification probability. Therefore, the aim is to present some estimate procedures of the missclassification probabilities involving repetition frequency and distribution methods and to develop a software to obtain their estimate, which is accessible and easy handling for researchers of applied areas, complementing the study with user's manual and examples in the rational energy application and biomass energy.
|
23 |
Ontologia empresarial do modelo de referência MPS para software (MR-MPS-SW) com foco nos níveis G e FPizzoleto, Alessandro Viola [UNESP] 13 February 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0
Previous issue date: 2013-02-13Bitstream added on 2014-06-13T19:18:04Z : No. of bitstreams: 1
pizzoleto_av_me_sjrp.pdf: 2799978 bytes, checksum: b4ab275a0f312029d44f408ae4ccb8da (MD5) / Este trabalho apresenta uma proposta que objetiva contribuir com a compreensão do Modelo de Referência MPS para Software (MR-MPS-SW), facilitando a sua implantação, principalmente em micros, pequenas e médias empresas (mPME) produtoras de software. Outro objetivo é contribuir com a uniformização do conhecimento do MR-MPS-SW entre todos os envolvidos nos processos de implantação, consultoria e avaliação do modelo. O MR-MPS-SW possui sete níveis de maturidade, de A (maior nível) a G (menor nível). A proposta trata de uma nova forma de organizar o conhecimento do MR-MPS-SW através da definição de uma ontologia empresarial implementada em OWL para os níveis G e F. Esses níveis requerem grandes desafios na mudança da cultura organizacional, bem como no gerenciamento de projetos, garantia da qualidade e medições. Para apoiar o usuário com uniformização dos termos de Gerência de Projetos, foram associados conceitos e terminologia do PMBOK (Project Management Body of Knowledge). Indicadores do modelo BSC (Balanced Scorecard) foram integrados ao modelo MR-MPS-SW para facilitar futuras iniciativas de alinhamento com o planejamento estratégico da empresa e modelo de negócios. Para isso, este trabalho providenciou uma sistemática para avaliação de uma versão alpha da ontologia, através de técnicas usadas em testes de usabilidade na Engenharia de Software. Essa avaliação mostrou como a ontologia facilitou o entendimento de usuários com diferentes níveis de conhecimento no MR-MPS-SW. Também proporcionou recomendações para melhorias na ontologia. Uma versão beta foi disponibilizada em repositórios gratuitos para ser avaliada por mPME e pessoas interessadas no modelo MPS-SW / This work presents a proposal that aims to contribute to the understanding of MPS Reference Model for Software (MPS-SW), facilitating its deployment, especially in micro, small and medium enterprises (MSME) of software development. Another goal is to contribute to the standardization of the knowledge of the MPS-SW among stakeholders in the process of implantation, consulting and evaluation of the model. The MPS-SW has seven levels of maturity, from A (highest level) to G (lower level). This proposal is a new way of organizing knowledge of the MPS-SW through the definition of an enterprise ontology in OWL for G and F levels. These levels require great efforts in changing organizational culture, as well as project management, quality assurance and measurements. . Terminology and concepts of the PMBOK (Project Management Body of Knowledge) were associated to the ontology, in order, to support the user in terms of standardization of project management. Indicators of the BSC Model (Balanced Scorecard) were integrated into the MPS-SW model to facilitate future initiatives for alignment with the strategic planning and business model. For this purpose this work provided a systematic evaluation of an alpha release of the ontology using techniques of usability testing in Software Engineering. The evaluation showed how ontology facilitated the understanding of users with different levels of knowledge on the MRMPS-SW. It also provided the definition of recommendations for improvements in the ontology. A beta version was made available in free ontology repositories to be evaluated by MSME and people interested in the MPS-SW model
|
24 |
Extração de conhecimento em bases de dados espaciais : algoritmo CHSMST+ /Medeiros, Camila Alves de. January 2014 (has links)
Orientador: Carlos Roberto Valêncio / Banca: Adriano Mauro Cansian / Banca: Elaine Parros Machado de Sousa / Resumo: O desenvolvimento de tecnologias de coleta de informações espaciais resultou no armazenamento de um grande volume de dados, que devido à complexidade dos dados e dos respectivos relacionamentos torna-se impraticável a aplicação de técnicas tradicionais para prospecção em bases de dados espaciais. Nesse sentido, diversos algoritmos vêm sendo propostos, sendo que os algoritmos de agrupamento de dados espaciais são os que mais se destacam devido a sua alta aplicabilidade em diversas áreas. No entanto, tais algoritmos ainda necessitam superar vários desafios para que encontrem resultados satisfatórios em tempo hábil. Com o propósito de contribuir neste sentido, neste trabalho é apresentado um novo algoritmo, denominado CHSMST+, que realiza o agrupamento de dados considerando tanto a distância quanto a similaridade, o que possibilita correlacionar atributos espaciais e não espaciais. Tais tarefas são realizadas sem parâmetros de entrada e interação com usuário, o que elimina a dependência da interpretação do usuário para geração dos agrupamentos, bem como possibilita a obtenção de agrupamentos mais eficientes uma vez que os cálculos realizados pelo algoritmo são mais precisos que uma análise visual dos mesmos. Além destas técnicas, é utilizada a abordagem multithreading, que possibilitou uma redução média de 38,52% no tempo de processamento. O algoritmo CHSMST+ foi aplicado em bases de dados espaciais da área da saúde e meio ambiente, mostrando a capacidade de utilizá-lo em diferentes contextos, o que torna ainda mais relevante o trabalho realizado / Abstract: The development of technologies for collecting spatial information has resulted in a large volume of stored data, which makes inappropriate the use of conventional data mining techniques for knowledge extraction in spatial databases, due to the high complexity of these data and its relationships. Therefore, several algorithms have been proposed, and the spatial clustering ones stand out due to their high applicability in many fields. However, these algorithms still need to overcome many challenges to reach satisfactory results in a timely manner. In this work, we present a new algorithm, namely CHSMST+, which works with spatial clustering considering both distance and similarity, allowing to correlate spatial and non-spatial attributes. These tasks are performed without input parameters and user interaction, eliminating the dependence of the user interpretation for cluster generation and enabling the achievement of cluster in a more efficient way, since the calculations performed by the algorithm are more accurate than visual analysis of them. Together with these techniques, we use a multithreading approach, which allowed an average reduction of 38,52% in processing time. The CHSMST+ algorithm was applied in spatial databases of health and environment, showing the ability to apply it in different contexts, which makes this work even more relevant / Mestre
|
25 |
Ontologia empresarial do modelo de referência MPS para software (MR-MPS-SW) com foco nos níveis G e F /Pizzoleto, Alessandro Viola. January 2013 (has links)
Orientador: Hilda Carvalho de Oliveira / Banca: Kechi Hirama / Banca: João Porto / Resumo: Este trabalho apresenta uma proposta que objetiva contribuir com a compreensão do Modelo de Referência MPS para Software (MR-MPS-SW), facilitando a sua implantação, principalmente em micros, pequenas e médias empresas (mPME) produtoras de software. Outro objetivo é contribuir com a uniformização do conhecimento do MR-MPS-SW entre todos os envolvidos nos processos de implantação, consultoria e avaliação do modelo. O MR-MPS-SW possui sete níveis de maturidade, de A (maior nível) a G (menor nível). A proposta trata de uma nova forma de organizar o conhecimento do MR-MPS-SW através da definição de uma ontologia empresarial implementada em OWL para os níveis G e F. Esses níveis requerem grandes desafios na mudança da cultura organizacional, bem como no gerenciamento de projetos, garantia da qualidade e medições. Para apoiar o usuário com uniformização dos termos de Gerência de Projetos, foram associados conceitos e terminologia do PMBOK (Project Management Body of Knowledge). Indicadores do modelo BSC (Balanced Scorecard) foram integrados ao modelo MR-MPS-SW para facilitar futuras iniciativas de alinhamento com o planejamento estratégico da empresa e modelo de negócios. Para isso, este trabalho providenciou uma sistemática para avaliação de uma versão alpha da ontologia, através de técnicas usadas em testes de usabilidade na Engenharia de Software. Essa avaliação mostrou como a ontologia facilitou o entendimento de usuários com diferentes níveis de conhecimento no MR-MPS-SW. Também proporcionou recomendações para melhorias na ontologia. Uma versão beta foi disponibilizada em repositórios gratuitos para ser avaliada por mPME e pessoas interessadas no modelo MPS-SW / Abstract: This work presents a proposal that aims to contribute to the understanding of MPS Reference Model for Software (MPS-SW), facilitating its deployment, especially in micro, small and medium enterprises (MSME) of software development. Another goal is to contribute to the standardization of the knowledge of the MPS-SW among stakeholders in the process of implantation, consulting and evaluation of the model. The MPS-SW has seven levels of maturity, from A (highest level) to G (lower level). This proposal is a new way of organizing knowledge of the MPS-SW through the definition of an enterprise ontology in OWL for G and F levels. These levels require great efforts in changing organizational culture, as well as project management, quality assurance and measurements. . Terminology and concepts of the PMBOK (Project Management Body of Knowledge) were associated to the ontology, in order, to support the user in terms of standardization of project management. Indicators of the BSC Model (Balanced Scorecard) were integrated into the MPS-SW model to facilitate future initiatives for alignment with the strategic planning and business model. For this purpose this work provided a systematic evaluation of an alpha release of the ontology using techniques of usability testing in Software Engineering. The evaluation showed how ontology facilitated the understanding of users with different levels of knowledge on the MRMPS-SW. It also provided the definition of recommendations for improvements in the ontology. A beta version was made available in free ontology repositories to be evaluated by MSME and people interested in the MPS-SW model / Mestre
|
26 |
A estrutura de dados gema para representação de mapas n-dimensionais / The gem data structure for n-dimensional mapsMontagner, Arnaldo Jovanini 03 May 2007 (has links)
Orientador: Jorge Stolfi [Orientador] / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação. / Made available in DSpace on 2018-08-10T07:43:58Z (GMT). No. of bitstreams: 1
Montagner_ArnaldoJovanini_D.pdf: 2204093 bytes, checksum: 4c9c86ca0312f3b5507e1daa8c6553db (MD5)
Previous issue date: 2007 / Resumo: Mapas são subdivisões de espaços topológicos em regiões simples, e triangulações são um tipo específico de mapa em que cada elemento é um simplexo (aresta, triângulo, tetraedro, etc). Neste trabalho, tratamos o problema de representação da topologia de triangulações e mapas de dimensão arbitrária. Estudamos a utilização de uma representação baseada em grafos de arestas coloridas, já utilizada como ferramenta teórica, mas nunca empregada em aplicações práticas. A principal limitação desta representação é a relativa inflexibilidade imposta sobre a manipulação da topologia. Há porém grandes vantagens em sua utilização, como a simplicidade de representação e a generalidade. Este trabalho consiste na especificação teórica de uma estrutura de dados baseada nestes grafos coloridos e de operações topológicas para construção e manipulação da estrutura. A utilização desta estrutura é ilustrada através de algoritmos para resolução de problemas em geometria computacional / Abstract: Maps are subdivisions of topological spaces into simple regions, and triangulations are a specific kind of map wherein each element is a simplex (edge, triangle, tetrahedron, etc). In this work, we analyze the problem of representing the topology of triangulations and maps with arbitrary dimension. We study a representation based on edge-colored graphs, already used as theoretical tool, but never employed in practical applications. The main limitation of this representation is the relative inexibility imposed on the manipulation of topology. There are, though, great advantages in its use, as its simplicity and generality. This work consists in the theoretic specification of a data structure based on these colored graphs and of topological operators to build and manipulate the structure.The use of this structure is illustrated by algorithms for computational geometry problems / Doutorado / Computação Grafica / Mestre em Ciência da Computação
|
27 |
Distância de edição para estruturas de dadosSilva Junior, Paulo Matias da January 2018 (has links)
Orientador: Prof. Dr. Rodrigo de Alencar Hausen / Coorientador: Prof. Dr. Jerônimo Cordoni Pellegrini / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Ciência da Computação, Santo André, 2018. / O problema de distância de edição geral de árvores consiste na comparação de duas
Árvores enraizadas e rotuladas a partir de operações de edição tais como a deleção
e a inserção de nós, buscando obter o menor custo necessário para uma sequência
de operações que transforme uma árvore em outra. Neste trabalho provamos que
encontrar a maior subfloresta comum pela deleção de nós dentre duas árvores
dadas, chamada de LCS-floresta, é um caso particular de distância de edição. Para o
problema de encontrar a subárvore comum máxima entre duas árvores, existe uma
demonstração feita por Valiente[Val02] de que esse problema é um caso particular
de distância de edição considerando uma condição que preserva fortemente a
ancestralidade entre os pares de nós das árvores comparadas. Realizamos uma
demonstração alternativa para esse problema que toma por condição a existência
de caminhos entre os pares de nós. Também estabelecemos uma hierarquia que
relaciona as distâncias obtidas como solução desses três problemas, mostrando que
a distância que se obtém como solução do problema de edição mais geral é limite
inferior para a distância encontrada como solução do LCS-floresta, e esta última é
limite inferior para a distância obtida com a subárvore comum máxima.
Na segunda parte do trabalho, descrevemos as estruturas de dados como árvores
enraizadas e rotuladas, assim pudemos aplicar o conceito de distância de edição e,
com isso, analisar os custos para comparar uma estrutura de dados consigo mesma
após uma sequência de operações. Para tal, modelamos os custos das operações nas
árvores das respectivas estruturas considerando informações como o número de nós
da árvore e o nível do nó que passou pela operação.
Nos modelos de pilha, lista ligada e árvore de busca binária as distâncias de
edição foram relacionadas às complexidades de tempo de se operar nessas estruturas.
Adaptamos também os custos operacionais para tries e árvores B.
Realizamos experimentos para calcular as distâncias de edição de uma estrutura de
dados consigo mesma após uma sequência aleatória de operações com o intuito de
verificar como essas medidas de distância atuavam sobre cada estrutura. Observamos
nesses testes que o tamanho da sequência influencia na distância final. Também
verificamos que os custos operacionais que consideram o nível do nó operado
obtinham distâncias menores se comparadas com aquelas obtidas pelo custo de
tamanho da estrutura. / The general tree edit distance problem consists in the comparison between two rooted labelled trees using operations which change one tree into another. The tree edit distance is defined as the minimum cost sequence of edit operations needed to transform two trees. The edit operations studied are inserting, deleting and replacing nodes. In this work, we prove that find the largest common subforest between trees restricted to node deletion, called LCS-forest, is a particular case of tree edit distance. Valiente [Val02] proved that find the maximum common subtree is a particular case of tree edit distance considering a ancestrality preserving condition, while we present an alternative proof using paths between pair of nodes. These three problems of distance are shown related in a hierarchy, where the general tree edit distance is a lower bound of the distance value obtained from LCS-forest solution. The latter is a lower bound of the distance obtained from maximum common subtree solution. In the second part of this work, we describe data structures as rooted labelled trees. Then it is possible to compare a data structure with itself after a sequence of operations applying the tree edit distance. For this, the model of operational cost of a tree considers information like number of nodes in the tree and level of operated node. The data structures modeled as trees were stack, linked list and binary search tree. The models associate the edit distance with the time complexities of these data structures operations. The operational costs of tries and B-trees also were adaptated for the edit distances. Some experiments to compute the distances are presented. They compare each data structure with itself after random sequences of operations. The results show how each proposed measure operate on the respective structure. The sequence size was an influence factor on distance values. For the operational costs, the cost defined as the level of operated nodes obtain smaller distances compared to the case of cost defined as the structure size.
|
28 |
Metric space indexing for nearest neighbor search in multimedia context : Indexação de espaços métricos para busca de vizinho mais próximo em contexto multimídia / Indexação de espaços métricos para busca de vizinho mais próximo em contexto multimídiaSilva, Eliezer de Souza da, 1988- 26 August 2018 (has links)
Orientador: Eduardo Alves do Valle Junior / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T08:10:33Z (GMT). No. of bitstreams: 1
Silva_EliezerdeSouzada_M.pdf: 2350845 bytes, checksum: dd31928bd19312563101a08caea74d63 (MD5)
Previous issue date: 2014 / Resumo: A crescente disponibilidade de conteúdo multimídia é um desafio para a pesquisa em Recuperação de Informação. Usuários querem não apenas ter acesso aos documentos multimídia, mas também obter semântica destes documentos, de modo que a capacidade de encontrar um conteúdo específico em grandes coleções de documentos textuais e não textuais é fundamental. Nessas grandes escalas, sistemas de informação multimídia de recuperação devem contar com a capacidade de executar a busca por semelhança de forma eficiente. No entanto, documentos multimídia são muitas vezes representados por descritores multimídia representados por vetores de alta dimensionalidade, ou por outras representações complexas em espaços métricos. Fornecer a possibilidade de uma busca por similaridade eficiente para esse tipo de dados é extremamente desafiador. Neste projeto, vamos explorar uma das famílias mais citado de soluções para a busca de similaridade, o Hashing Sensível à Localidade (LSH - Locality-sensitive Hashing em inglês), que se baseia na criação de funções de hash que atribuem, com maior probabilidade, a mesma chave para os dados que são semelhantes. O LSH está disponível apenas para um punhado funções de distância, mas, quando disponíveis, verificou-se ser extremamente eficiente para arquiteturas com custo de acesso uniforme aos dados. A maioria das funções LSH existentes são restritas a espaços vetoriais. Propomos dois métodos novos para o LSH, generalizando-o para espaços métricos quaisquer utilizando particionamento métrico (centróides aleatórios e k-medoids). Apresentamos uma comparação com os métodos LSH bem estabelecidos em espaços vetoriais e com os últimos concorrentes novos métodos para espaços métricos. Desenvolvemos uma modelagem teórica do comportamento probalístico dos algoritmos propostos e demonstramos algumas relações e limitantes para a probabilidade de colisão de hash. Dentre os algoritmos propostos para generelizar LSH para espaços métricos, esse desenvolvimento teórico é novo. Embora o problema seja muito desafiador, nossos resultados demonstram que ela pode ser atacado com sucesso. Esta dissertação apresentará os desenvolvimentos do método, a formulação teórica e a discussão experimental dos métodos propostos / Abstract: The increasing availability of multimedia content poses a challenge for information retrieval researchers. Users want not only have access to multimedia documents, but also make sense of them --- the ability of finding specific content in extremely large collections of textual and non-textual documents is paramount. At such large scales, Multimedia Information Retrieval systems must rely on the ability to perform search by similarity efficiently. However, Multimedia Documents are often represented by high-dimensional feature vectors, or by other complex representations in metric spaces. Providing efficient similarity search for that kind of data is extremely challenging. In this project, we explore one of the most cited family of solutions for similarity search, the Locality-Sensitive Hashing (LSH), which is based upon the creation of hashing functions which assign, with higher probability, the same key for data that are similar. LSH is available only for a handful distance functions, but, where available, it has been found to be extremely efficient for architectures with uniform access cost to the data. Most existing LSH functions are restricted to vector spaces. We propose two novel LSH methods (VoronoiLSH and VoronoiPlex LSH) for generic metric spaces based on metric hyperplane partitioning (random centroids and K-medoids). We present a comparison with well-established LSH methods in vector spaces and with recent competing new methods for metric spaces. We develop a theoretical probabilistic modeling of the behavior of the proposed algorithms and show some relations and bounds for the probability of hash collision. Among the algorithms proposed for generalizing LSH for metric spaces, this theoretical development is new. Although the problem is very challenging, our results demonstrate that it can be successfully tackled. This dissertation will present the developments of the method, theoretical and experimental discussion and reasoning of the methods performance / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
|
29 |
[en] AN EFFICIENT SOLUTION FOR TRIANGULAR MESH SUBDIVISION / [pt] UMA SOLUÇÃO EFICIENTE PARA SUBDIVISÃO DE MALHAS TRIANGULARESJEFERSON ROMULO PEREIRA COELHO 12 January 2015 (has links)
[pt] Subdivisão de superfícies triangulares é um problema importante nas
atividades de modelagem e animação. Ao deformar uma superfície a qualidade
da triangulação pode ser bastante prejudicada na medida em que triângulos,
antes equiláteros, se tornam alongados. Uma solução para este problema consiste
em refinar a região deformada. As técnicas de refinamento requerem uma
estrutura de dados topológica que seja eficiente em termos de memória e tempo
de consulta, além de serem facilmente armazenadas em memória secundária.
Esta dissertação propõe um framework baseado na estrutura Corner Table com
suporte para subdivisão de malhas triangulares. O framework proposto foi
implementado numa biblioteca C mais mais de forma a dar suporte a um conjunto de
testes que comprovam a eficiência pretendida. / [en] Subdivision of triangular surfaces is an important problem in modeling and
animation activities. Deforming a surface can be greatly affected the quality of
the triangulation when as equilateral triangles become elongated. One solution
to this problem is to refine the deformed region. Refinement techniques require
the support of topological data structure. These structures must be efficient in
terms of memory and time. An additional requirement is that these structures
must also be easily stored in secondary memory. This dissertation proposes a
framework based on the Corner Table data structure with support for subdivision
of triangular meshes. The proposed framework was implemented in a C plus plus
library. With this library this work presents a set of test results that demonstrate
the desired efficiency.
|
30 |
Aplicativo computacional para obtenção de probabilidades a priori de classificação errônea em experimentos agronômicos /Padovani, Carlos Roberto Pereira, 1975- January 2007 (has links)
Orientador: Flávio Ferrari Aragon / Banca: Adriano Wagner Ballarin / Banca: Luís Fernando Nicolosi Bravin / Banca: Rui Vieira de Moraes / Banca: Sandra Fiorelli de Almeida P. Simeão / Resumo: Nas Ciências Agronômicas, encontram-se várias situações em que são observadas diversas variáveis respostas nas parcelas ou unidades experimentais. Nestas situações, um caso de interesse prático à experimentação agronômica é o que considera a construção de regiões de similaridade entre as parcelas para a discriminação entre os grupos experimentais e ou para a classificação de novas unidades experimentais em uma dessas regiões. Os métodos de classificação ou discriminação exigem, para sua utilização prática, uma quantidade considerável de retenção de informação da estrutura de variabilidade dos dados e, principalmente, alta fidedignidade e competência nas alocações de novos indivíduos nos grupos, mostradas nas distribuições corretas destes indivíduos. Existem vários procedimentos para medir o grau de decisão correta (acurácia) das informações fornecidas pelos métodos classificatórios. Praticamente, a totalidade deles utilizam a probabilidade de classificação errônea como o indicador de qualidade, sendo alguns destes freqüentistas (probabilidade estimada pela freqüência relativa de ocorrências - métodos não paramétricos) e outros baseados nas funções densidade de probabilidade das populações (métodos paramétricos). A principal diferença entre esses procedimentos é a conceituação dada ao cálculo da probabilidade de classificação errônea. Pretende-se, no presente estudo, apresentar alguns procedimentos para estimar estas probabilidades, desenvolver um software para a obtenção das estimativas considerando a distância generalizada de Mahalanobis como o procedimento relativo à da função densidade de probabilidade para populações com distribuição multinormal . Este software será de acesso livre e de fácil manuseio para pesquisadores de áreas aplicadas, completado com o manual do usuário e com um exemplo de aplicação envolvendo divergência genética de girassol. / Abstract: In the Agronomical Sciences, mainly in studies involving biomass production and rational use of energy, there are several situations in which several variable answers in the parts or experimental units are observed. In these situations, a case of practical interest to the agronomical experimentation is that one which considers the construction of similarity regions among parts and or the classification of new experimental units. The classification methods demand, for their utilization, a considerable quantity for utilization of their information retention of data and, mostly, high fidelity and competence in the new individual allocations. There are several procedures to measure accuracy degree of the information supplied by the discrimination method. Practically all of them use the miss-classification probability (erroneous classification) like the quality indicator. The main difference among these evaluation methods is the characterization of the miss-classification probability. Therefore, the aim is to present some estimate procedures of the missclassification probabilities involving repetition frequency and distribution methods and to develop a software to obtain their estimate, which is accessible and easy handling for researchers of applied areas, complementing the study with user's manual and examples in the rational energy application and biomass energy. / Doutor
|
Page generated in 0.1056 seconds