• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3338
  • 2181
  • 478
  • 181
  • 181
  • 181
  • 181
  • 178
  • 178
  • 177
  • 177
  • 7
  • 4
  • 3
  • 3
  • Tagged with
  • 6030
  • 3318
  • 3268
  • 3251
  • 3183
  • 3139
  • 3132
  • 3131
  • 3125
  • 3112
  • 3109
  • 798
  • 490
  • 460
  • 418
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Exploração da comunicação usuário-sistema em sistemas de ajuda on-line

Santos Junior, Mauro Francisco dos January 2009 (has links)
Made available in DSpace on 2013-08-07T18:43:01Z (GMT). No. of bitstreams: 1 000431695-Texto+Completo-0.pdf: 3670835 bytes, checksum: ab721b997ac63b711c5cd44a0727fd1a (MD5) Previous issue date: 2009 / Nowadays, the main problem of the online help systems is that they, usually, are not addressed to the user's specific needs. In spite of the great progress of the computational systems, there are still few alternatives for the help systems. New approaches are necessary, because the possibilities of the help systems continue being little explored both by the final users and by the designers. Starting from analyses on new approaches for help systems and from interviews and users’ tests, this work presents a way of organization for the help information, based on one of these approaches, in the intention of minimizing the difficulties that the user faces during interaction. / Atualmente, o principal problema de sistemas de ajuda on-line é que eles, geralmente, não se direcionam às necessidades específicas do usuário. Apesar do grande avanço dos sistemas computacionais, ainda se encontram poucas alternativas para os sistemas de ajuda. Novas abordagens se fazem necessárias visto que as possibilidades destes sistemas de ajuda continuam sendo pouco explorados tanto por usuários finais quanto pelos designers. A partir de análises sobre novas abordagens para sistemas de ajuda e de entrevistas e sessões de testes com usuário, este trabalho apresenta uma forma de organização para as informações de ajuda de uma destas abordagens, no intuito de minimizar as dificuldades de interação que o usuário encontra.
432

Gerenciamento distribuído de agendas de recursos em projetos de desenvolvimento de software baseado em sistemas multiagentes

Schlösser, Rejane Nunes January 2010 (has links)
Made available in DSpace on 2013-08-07T18:42:42Z (GMT). No. of bitstreams: 1 000428370-Texto+Parcial-0.pdf: 70626 bytes, checksum: 280e713eff20ca81edfb7ebf6a69a690 (MD5) Previous issue date: null / During the development of software projects, different uncertainties may occur causing events that could impact on resource allocation. Due to development software projects are usually developed in a multi-project environment, the occurrence of an event can impact on several projects simultaneously. For this reason, the resource allocation should be reviewed to continue the implementation of projects. Thus, this study aims to support the resource allocation process when changes occur, through the management agenda of resources developing software projects. From the standpoint of this objective, this paper presents an architecture based on multi-agent paradigm, where agents represent resources developing software projects and aims to manage their agendas by forwarding proposals for allocation and, thereby, continue the projects. The main contributions of this work include: (i) establishing a process that allows the generation of proposals for resource allocation in a decentralized and distributed way; (ii) the definition of strategies based upon cooperation between agents components of the architecture for the viability of project implementation by reprogramming the resources' agendas, and (iii) the development of scenarios to demonstrate the viability of the idealized process and highlight the aspects concerning the multiagent paradigm modeled on the proposal. / Durante o desenvolvimento de projetos de software, diferentes incertezas podem acontecer causando eventos que podem impactar na atual alocação de recursos. Uma vez que projetos de desenvolvimento de software geralmente são desenvolvidos em um ambiente com multiprojetos, a ocorrência de um evento pode impactar diversos projetos simultaneamente. Diante desse cenário, a alocação de recursos deve ser revista para dar prosseguimento na execução dos projetos. Nesse sentido, este trabalho tem por objetivo apoiar o processo de alocação de recursos, quando da ocorrência de alterações sobre a mesma, mediante o gerenciamento de agendas dos recursos que desenvolvem os projetos de software. Com base nesse objetivo, é proposta uma arquitetura baseada no paradigma multiagente, onde os agentes representam os recursos que desenvolvem os projetos de software e tem por objetivo gerenciar suas agendas para encaminhar propostas de alocação de modo a viabilizar a continuidade aos projetos. As principais contribuições deste trabalho compreendem: (i) a definição de um processo que permite a geração de propostas de alocação de recursos de forma descentralizada e distribuída; (ii) a definição de estratégias baseadas em cooperação entre os agentes componentes da arquitetura para a viabilização da execução dos projetos mediante reprogramação das agendas dos recursos, e (iii) o desenvolvimento de cenários que permitem demonstrar a viabilidade do processo idealizado.
433

Implementação e avaliação de métodos para confiabilidade de redes intra-chip

Silva, Alzemiro Henrique Lucas da January 2010 (has links)
Made available in DSpace on 2013-08-07T18:42:44Z (GMT). No. of bitstreams: 1 000430304-Texto+Completo-0.pdf: 2164502 bytes, checksum: db47a771a28123bb6c1aa5df3d495e3b (MD5) Previous issue date: 2010 / The innovations on integrated circuit fabrics are continuously reducing components size, which increases the logic density of systems‐on‐chip (SoC), but also affect the reliability of these components. Chip‐level global buses are especially subject to crosstalk faults, which can lead to increased delay and glitches. This work evaluates different fault tolerant approaches for Networkson‐ chip (NoCs) such that the network can maintain the original network performance even in the presence of faults. Four different approaches are presented and evaluated in terms of area overhead, packet latency, power consumption, and residual fault coverage. Results demonstrate that the use of CRC coding at each link is preferred when minimal area and power overhead are the main goals. However, each one of the methods presented here has its own advantages and can be applied depending on the target application. / As inovações na fabricação de circuitos integrados têm reduzido continuamente o tamanho dos componentes, permitindo um aumento na densidade lógica de sistemas eletrônicos complexos, denominados SoCs (Systems‐on‐a‐Chip), mas afetando também a confiabilidade destes componentes. Barramentos globais utilizados para interconexão de componentes em um chip estão cada vez mais sujeitos aos efeitos de crosstalk, que podem causar atrasos e picos nos sinais. Este trabalho apresenta e avalia diferentes técnicas para tolerância a falhas em redes intra‐chip, nos quais a rede é capaz de manter o mesmo desempenho da rede original mesmo na ocorrência de falhas. Quatro técnicas são apresentadas e avaliadas em termos de consumo adicional de área, latência dos pacotes, consumo de potência e análise de defeitos residuais. Os resultados demonstram que o uso de codificação CRC nos enlaces é vantajoso quando o mínimo acréscimo de área e consumo de potência é o principal objetivo. Entretanto, cada um dos métodos apresentados neste trabalho tem as suas próprias vantagens e podem ser utilizados dependendo da aplicação alvo.
434

Conjunto de características para teste de desempenho: uma visão a partir de ferramentas

Costa, Leandro Teodoro January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:14Z (GMT). No. of bitstreams: 1 000440236-Texto+Completo-0.pdf: 2914899 bytes, checksum: 0abd44c7d4fad22c016e1558238096b2 (MD5) Previous issue date: 2012 / Currently, the development of systems in the software industry has increased. As far as the need of customers in automate their processes grows, their demand to improve the quality of computational systems also increases. In this sense, software testing has a fundamental role. Despite of the benefits provided by testing, most of it is performed manually and without a theoretical basis, making the testing activity slow and inefficacious. An alternative for solving this problem is the use of test automation tools. In addition to accelerate the work of testers, these tools provide a higher quality and efficiency for the testing process. However, even though these tools can make the testing process faster, the test case generation for them is performed manually. The ideal is to also automate the generation and execution of test cases for these tools. In order to overcome this limitation, this work proposes a set of features which includes the information necessary for the generation and execution of real test cases for performance testing tools. Based on information from this set, we developed plugins for a product line of tools for model-based testing called PLeTs (Product Line Testing Tools). These plugins implement the automatic generation and execution of test scripts and test scenarios using two performance testing tools, HP LoadRunner e Microsoft Visual Studio. In order to show the feasibility of the proposal of this work, we performed a case study, which is based on the automated generation and execution of test cases using products generated by the product line PLETs. / Atualmente, o desenvolvimento de sistemas por parte da indústria de software tem aumentado. Assim como a necessidade dos clientes em automatizar seus processos, cresce também a exigência dos mesmos na melhoria da qualidade dos sistemas informatizados. Nesse sentido, o teste de software desempenha um papel fundamental. Apesar dos benefícios que os testes proporcionam, a maioria deles é realizada de forma manual e sem embasamento teórico e fundamentado, tornando a atividade de teste lenta e ineficaz. Uma alternativa para a solução deste problema é a utilização de ferramentas de automatização de teste. Essas ferramentas, além de agilizar o trabalho de uma equipe de testadores, provêem maior qualidade e eficácia para o processo de teste. Entretanto, ainda que essas ferramentas possam tornar o processo de teste mais rápido, a criação de casos de teste para elas é realizada manualmente. O ideal é automatizar também o processo de criação e execução de casos de teste para essas ferramentas. Com o intuito de superar esta limitação, este trabalho propõe um conjunto de características que contempla as informações necessárias para automatizar a geração e execução de casos de teste concretizados para ferramentas de automatização de teste de desempenho. A partir das informações deste conjunto, foi realizada a implementação de plugins para uma linha de produto de ferramentas para teste baseado em modelos (Model-Based Testing - MBT) denominada PLeTs (Product Line Testing Tools). Estes plugins implementam a geração e a execução automática de scripts e cenários de teste utilizando duas ferramentas de automatização de teste de desempenho, HP LoadRunner e Microsoft Visual Studio. Com o objetivo de demonstrar a viabilidade da proposta deste trabalho foi definido um exemplo de uso, o qual se baseia na geração e execução automatizada de casos de teste utilizando os produtos gerados pela linha de produto PLeTs.
435

Gestão de métricas e indicadores de doenças em saúde bucal suportado por um ambiente de descoberta de conhecimento em banco de dados

Blomberg, Luciano Costa January 2010 (has links)
Made available in DSpace on 2013-08-07T18:43:37Z (GMT). No. of bitstreams: 1 000423037-Texto+Completo-0.pdf: 1478944 bytes, checksum: d2974fba2b6145147b3c83b7003075fb (MD5) Previous issue date: 2010 / Although the last epidemiological survey (BRAZIL, 2006) reveal a significant improvement in oral health status of the Brazilian population in the last two decades, oral diseases still require large financial investments by the federal government. This study aims to develop and document a computational approach (Knowledge Discovery in Database Process) capable of managing large volumes of data and producing more comprehensible models to support the decision making process and the formulation of improved oral health policies, as well as making new teaching and research activities in the area viable. Therefore, we analyze a sample of data concerning the dental records of 598 low-income patients, treated with one unit of PUCRS linked to the SUS (Unified Health System). The main result of this work, we identified opportunities for data mining for the extraction of predictive models applied to the analysis of periodontal diseases, malocclusion and indicators of dental caries. / Embora o último levantamento epidemiológico (BRASIL, 2006) revele uma sensível melhora na condição bucal da população brasileira nas últimas duas décadas, patologias bucais ainda demandam grandes investimentos financeiros por parte do governo federal. Este trabalho tem como objetivo desenvolver e documentar uma abordagem computacional (Knowledge Discovery in Database) capaz de gerenciar grandes volumes de dados e produzir modelos mais compreensíveis para o suporte à tomada de decisão, formulação de melhores políticas de saúde bucal, bem como a viabilização de novas atividades de ensino e pesquisa na área. Para tanto, analisamos uma amostra de dados referente às fichas odontológicas de 598 pacientes de baixa renda, atendidos junto a uma unidade da PUCRS vinculada ao SUS (Sistema Único de Saúde). Como principal resultado deste trabalho, identificamos oportunidades de data mining pela extração de modelos preditivos aplicados à análise de patologias periodontais, má-oclusão e indicadores de cárie dentária.
436

Uma infra-estrutura de integração de sistemas utilizando notificações por meio de web services

Dewes, Everton Sebastiany Reisdorfer January 2005 (has links)
Made available in DSpace on 2013-08-07T18:43:19Z (GMT). No. of bitstreams: 1 000384165-Texto+Completo-0.pdf: 1580092 bytes, checksum: 377fad4fd008fe58ab0fb2ac7d2bc4ae (MD5) Previous issue date: 2005 / Application integration is a critical task, since it requires dealing with information systems of different partners (e. g. costumers, suppliers, internal applications) on-line. However, the development of this interoperability is expensive and time consuming. Web Services provide interesting solutions with regard to these problems, allowing systems to exchange information with less integration efforts and more flexibility. However, there are still open problems in the integration of systems with Web Services. Message-based interoperation decouples systems, focusing on the control over system interaction and exchanged information. In this way, it helps solving some of the problems faced in the traditional integration of systems. WS-Notification is a Web Service messaging standard that is composed of a set of open specifications that use Web Services to exchange information among applications through asynchronous messages. However, many (legacy) information systems are not prepared to interoperate with other systems through messages, and therefore, they need to be specifically adapted for this kind of integration. This work proposes an integration Infra-Structure that guides the adaptation of conventional information systems and their integration, considering the standard WSNotification. The design of the proposed Infra-Structure was based on the identification of issues that must be handled for system integration using message notification. Design and architectural patterns that could be applied to solve these issues were identified, resulting in the definition of a set of components that, together, form the integration Infra-Structure. The Infra-Structure is detailed in terms of its components, the issues they handle, as well as their relationships with other components and with systems that are integrated. The Infra-Structure is applied in three case studies with different integration issues, and a preliminary performance analysis was developed. / A integração de aplicações pode ser identificada como uma tarefa vital devido a muitos dos requisitos dos sistemas de informação envolverem a comunicação com diferentes parceiros (ex. clientes, fornecedores, aplicativos internos) em tempo real. Porém, o desenvolvimento dessa interoperabilidade é caro e consome tempo. Web Services fornecem uma solução interessante com relação a esses problemas, permitindo aos sistemas trocarem informação com um pequeno esforço de integração e maior flexibilidade. Porém, ainda existem problemas em aberto na integração de sistemas com Web Services. A interoperação com base em mensagens desacopla os sistemas, focando no controle sobre as interações do sistema e a troca de informação. Dessa forma, ela ajuda a resolver alguns dos problemas encontrados na integração direta de sistemas tradicional. A WS-Notification é uma padronização de troca de mensagens para Web Services, composta por um conjunto de especificações abertas que usam Web Services para trocar informações através de mensagens assíncronas. Porém, muitos sistemas de informação (legados) não estão preparados para interoperar com outros sistemas através de mensagens e, conseqüentemente, necessitam ser adaptados especialmente para este tipo de integração. Este trabalho propõe uma Infra-Estrutura de integração que guia a adaptação de sistemas de informação tradicionais e suas integrações, considerando a padronização WS-Notification.O projeto da Infra-Estrutura proposta tem base em questões identificadas que necessitam ser tratadas para a integração de sistemas usando mensagens de notificação. Padrões arquiteturais e de projeto que podem ser aplicados para resolver essas questões foram identificados, resultando na definição de um conjunto de componentes que, juntos, formam a Infra-Estrutura de integração. A Infra-Estrutura é detalhada em termos de seus componentes, das questões que ela trata, bem como dos seus relacionamentos com outros componentes e sistemas aos quais ela é integrada. A Infra-Estrutura foi aplicada em três estudos de caso com diferentes questões de integração e uma análise de desempenho preliminar foi desenvolvida.
437

Avaliação de qualidade de dados de métricas de esforço baseada em data provenance e fuzzy logic

Berardi, Rita Cristina Galarraga January 2009 (has links)
Made available in DSpace on 2013-08-07T18:43:22Z (GMT). No. of bitstreams: 1 000414772-Texto+Completo-0.pdf: 3624388 bytes, checksum: c10fabbfe10eccf72e794ff38d0dacb4 (MD5) Previous issue date: 2009 / Increasingly, software organizations are concerned about improving the product and the process by which the product was made. For that, organizations use models of maturity, which indicates the collection of metrics to control their processes. However, in most of the time they make e ort in collecting and storing these data but do not pay attention on their quality. Since making decision process is based on metric, if this metric is not reliable consequently the making decision process will not be. In this sense, a proper assessment of the quality of such data is the rst step to ensure that the metrics can be used in sucient reliability. An approach that can assist this assessment is related to the use of date provenance associated with a mechanism of logical inference. This research proposes an architecture for assessing the quality of data e ort composed of four main components: 1-a metric provenance database, 2- a model of inference based on fuzzy logic, 3-a database for storing ratings of quality and 4 - an analytical model for analysis of historical data of quality of e ort. The contribution of this work is to provide an assessment of data quality metrics of e ort in Software Development Process, searching evident the reasons for a low quality. Having the model of inference it is possible assigning levels of quality to the data, and thus enabling the identication of those who are actually useful to a decision making trust. / Cada vez mais as organizações de software estão preocupadas com melhoria do seu processo e consequentemente do seu produto. Para isso, as organizações utilizam modelos de maturidade, os quais indicam a coleta de métricas para o controle de seus processos. No entanto, o esforço com relação a essas métricas está relacionado à sua intensa coleta e utilização e não é dada a devida atenção à qualidade dos dados das mesmas. O impacto da falta de qualidade dos dados dessas métricas é refletido diretamente nos custos da organização visto que as métricas embasam o processo de tomada de decisão o qual pode ser de baixa confiabilidade devido os seus dados de base também o serem. Uma avaliação adequada da qualidade desses dados é o primeiro passo para garantir que as métricas possam ser usadas com a devida confiabilidade. Uma abordagem que pode auxiliar essa avaliação está relacionada ao uso de data provenance (proveniência de dados) associado a um mecanismo de inferência lógica. Este trabalho propõe uma arquitetura para avaliação da qualidade de dados de esforço composta por quatro principais componentes: 1-uma base de data provenance de métricas, 2-um modelo de inferência baseado em fuzzy logic, 3-uma base de dados para armazenamento de avaliações e 4- um modelo analítico para análise de histórico de qualidade de dados de esforço. A contribuição deste trabalho é prover uma avaliação da qualidade dos dados de métricas de esforço em PDS, buscando evidenciar as razões da eventual baixa qualidade. Através do modelo de inferência, é possível atribuir níveis de qualidade aos dados possibilitando assim a identicação daqueles que são efetivamente úteis para um processo de tomada de decisão confiável. Além disso, de acordo com seus níveis de qualidade, os dados podem ser direcionados para diferentes tipos de acompanhamento do projeto, cujos níveis de exigência de qualidade podem ser distintos.
438

SimGrid x SAN: um estudo comparativo de ferramentas de avaliação de desempenho de plataformas distribuídas

Raeder, Mateus January 2009 (has links)
Made available in DSpace on 2013-08-07T18:43:26Z (GMT). No. of bitstreams: 1 000417713-Texto+Completo-0.pdf: 695101 bytes, checksum: 7ca13b477e8454618ddf97078355fc21 (MD5) Previous issue date: 2009 / Distributed systems performance evaluation is an important tool during the development phase. This task objective is to show to the user (researcher, developer, analyst, etc. ) the predicted behavior of his system, even before that such system is implemented, avoiding additional costs with implementation efforts and possible code reconstructions. In this context, there are methods widely utilized on the scientific community to support the performance evaluation, such as Simulation and Analytical Modeling. However, the creation and execution of these models is not always performed in a trivial way, because an important step on the modeling is the obtaining of the target systems parameters, due to the fact that the more accurate is the model, the more closely to the real case the results will be. Thus, this work intends to do a comparison analysis between two performance evaluation tools (SimGrid and SAN) through two distinct approaches (Simulation and Analytical Modeling, respectively). For such purpose, the parameters of the executed applications on the SimGrid were mapped to a SAN model, seeking for an equivalence on the modeling in order to compare their results. Following to the presentation of the obtained results, some interesting aspects about the two performance evaluation tools are discussed. / Avaliação de desempenho de sistemas distribuídos trata-se de uma importante ferramenta durante a fase de desenvolvimento. Esta tarefa tem por objetivo mostrar ao usuário (pesquisador, programador, analista, etc. ) o comportamento previsto para o seu sistema, antes mesmo que este esteja implementado, evitando custos com tempo de implementação e de eventuais reconstruções de código. Neste contexto, existem maneiras muito utilizadas na comunidade científica para dar suporte a avaliação de desempenho, como Simulação e Modelagem Analítica. Entretanto, a criação e a execução destes modelos nem sempre é realizada de maneira trivial, pois uma importante fase na modelagem é a obtenção dos parâmetros do sistema alvo, devido ao fato de que quanto mais fiel for o modelo, mais próximo do real serão os resultados. Assim, este trabalho visa realizar uma análise comparativa entre duas ferramentas de avaliação de desempenho (SimGrid e SAN) através de duas abordagens diferentes (Simulação e Modelagem Analítica, respectivamente). Para isto, os parâmetros das aplicações executadas no SimGrid foram mapeados para o modelo SAN, procurando desta forma obter uma equivalência nas modelagens para que seus resultados possam ser comparados. Após a apresentação dos resultados obtidos, alguns aspectos interessantes sobre as duas maneiras de avaliação de desempenho são discutidos.
439

3D-Tri: um algoritmo de indução de árvore de regressão para propriedades tridimensionais - um estudo sobre dados de docagem molecular considerando a flexibilidade do receptor

Winck, Ana Trindade January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:30Z (GMT). No. of bitstreams: 1 000436381-Texto+Completo-0.pdf: 5238803 bytes, checksum: ca22d61f2fb4075e277ed531aee231ce (MD5) Previous issue date: 2012 / With the growth of biological experiments, solving and analyzing the massive amount of data being generated has been one of the challenges in bioinformatics, where one important research area is the rational drug design (RDD). The interaction between biological macromolecules called receptors, and small molecules called ligands, is the fundamental principle of RDD. In in-silico molecular docking experiments it is investigated the best bind and conformation of a ligand into a receptor. A docking result can be discriminated by a continue value called Free Energy of Binding (FEB). We are attempting on mining data from molecular docking results, aiming at selecting promising receptor conformations to the next docking experiments. In this sense, we have developed a comprehensive repository to store our molecular docking data. Having such repository, we were able to apply preprocessing strategies on the stored data and submit them to different data mining tasks. Among the techniques applied, the most promising results were obtained with regression model trees. Although we have already addressed important issues and achieved significant results, there are some properties in these experiments turning it difficult to properly select conformations. Hence, a strategy was proposed considering the three-dimensional (3D) properties of the receptor conformations, to predict FEB. This thesis presents the 3D-Tri, a novel algorithm able to handle and treat spatial coordinates in a x, y,z format, and induce a tree that predicts FEB value by representing such properties. The algorithm uses such coordinates to split a node in two parts, where the edges evaluate whether the atom being tested by the node is part of a given interval [(xi, xf );(yi, yf );(zi, zf )], where i indicates the initial position of the coordinate, and f its final position. The induced model can help a domain specialist to select promising conformations, based on the region of the atoms in the model, to perform new molecular docking experiments. / Com o avanço nos experimentos biológicos, a manipulação e análise do grande volume de dados sendo gerados por esses experimentos têm sido um dos desafios em bioinformática, onde uma importante área de pesquisa é o desenho racional de fármacos (RDD - Rational Drug Desing). A interação entre macromoléculas biológicas, chamadas de receptores, e pequenas moléculas, chamadas ligantes, é o princípio fundamental do RDD. É em experimentos in silico de docagem molecular que se investiga o melhor encaixe e conformação de um ligante em uma cavidade do receptor. O resultado de um experimento de docagem pode ser avaliado a partir de um valor contínuo de energia livre de ligação (FEB - Free Energy of Binding). Tem-se empregado esforços em minerar dados de resultados de docagem molecular, com o objetivo de selecionar conformações relevantes para reduzir o tempo de futuros experimentos de docagem. Nesse sentido, foi desenvolvido um repositório para armazenar todos os dados a respeito desses experimentos, em nível de detalhe. Com esse repositório, os dados foram devidamente pré-processados e submetidos a diferentes tarefas de mineração de dados. Dentre as técnicas aplicadas, a que apresentou-se mais promissora para o tipo de dados sendo utilizado foi árvore de decisão para regressão. Apesar dos resultados alcançados por esses experimentos serem promissores, existem algumas propriedades nos experimentos que dificultam a efetiva seleção de conformações. Dessa forma, propõe-se uma estratégia que considera as propriedades tridimensionais (3D) do receptor para predizer o valor de FEB. Assim, nesta Tese é apresentado o 3D-Tri, um algoritmo de indução de árvore de regressão que considera essas propriedades 3D, onde essas propriedades são definidas como atributos no formato x, y,z. O algoritmo proposto faz uso dessas coordenadas para dividir um nodo em duas partes, onde o átomo sendo testado para o nodo é avaliado em termos de sua posição em um bloco [(xi, xf );(yi, yf );(zi, zf )] que melhor represente sua posição no espaço, onde i indica a posição inicial de uma coordenada, e f indica a posição final. O modelo induzido pode ser útil para um especialista de domínio para selecionar conformações promissoras do receptor, tendo como base as regiões dos átomos que aparecem no modelo e que indicam melhores valores de FEB.
440

Algoritmos genéticos para seleção de atributos em problemas de classificação de processos de negócio

Basgalupp, Márcio Porto January 2007 (has links)
Made available in DSpace on 2013-08-07T18:43:30Z (GMT). No. of bitstreams: 1 000399894-Texto+Completo-0.pdf: 2578031 bytes, checksum: 13c49dacd5dde6e8b24f2ef51ae6b87a (MD5) Previous issue date: 2007 / A business process defines a set of activities along with their possible execution flows and their necessary resources. Business Intelligence (BI) projects have been show the importance of the data mining techniques to analysis, prediction and optimization of business processes. One of the most important data mining’s tasks is classification, which aims, by a training dataset or a set of training instances, the induction of a predictive model capable to associate each instance to its respective class or category. In the business process context, the aim of classification task is to understand the causes of certain behaviors and to generate models to predict the behavior and performance of these processes. Practical problem in pattern classification and knowledge discovery tasks require the selection of predictive attribute sets in order to represent the patterns which will be classified. This is because the presence of irrelevant and redundant attributes may damage the quality of classification models. When leading with business processes classification, it is recommended the use of feature selection, due to the large possible amount of attributes may be necessary to characterize a process. In addition to the attributes that are directly related to the process, it must also considered other attributes related to each process activity. Thus, this work aims the use of multiobjective genetic algorithms for feature selection upon business processes’ classification problems. The obtained results were satisfactory, considering that the criteria aimed to be optimized were improved. Specific business process domain problems were detected. These problems appears due to the presence of alternative paths and execution order of the processes flow tasks. Although those problems are not considered in the present work, we presented possible solutions to be adopted in future studies. / Um processo de negócio define um conjunto de atividades junto com os seus possíveis fluxos de execução e recursos necessários. Trabalhos da área de Business Intelligence (BI) têm destacado o papel da mineração de dados como instrumento facilitador da análise, previsão e otimização de processos de negócio. Uma das tarefas mais utilizadas da mineração de dados é a classificação, cujo objetivo é, dado um conjunto de dados ou instâncias de treino, induzir um modelo preditivo capaz de associar a cada instância sua classe ou categoria. Espera-se que este modelo seja bem sucedido na classificação de novas instâncias. No contexto de processos de negócio, o uso da classificação tem como objetivo entender as causas de determinados comportamentos e gerar modelos de predição do comportamento e do desempenho dos processos. Problemas práticos de classificação de padrões e descoberta de conhecimento requerem a seleção de subconjuntos de atributos preditivos para representar os padrões a serem classificados, pois a presença de atributos preditivos irrelevantes, redundantes ou em grande quantidade pode prejudicar a qualidade do modelo de classificação. Em classificação de processos de negócio, é bastante interessante a utilização de seleção de atributos, visto que a quantidade de atributos que caracterizam um processo pode ser enorme. Além dos atributos diretamente relacionados a uma instância de processo, também devem ser considerados os atributos pertencentes às atividades contidas neste processo. Assim, este trabalho propõe a utilização de algoritmos genéticos multiobjetivos para seleção de atributos em problemas de classificação de processos de negócio. Os resultados obtidos foram considerados satisfatórios, visto que os critérios utilizados na função de fitness, ou seja, os critérios a serem otimizados, foram melhorados. Problemas específicos do domínio de processos de negócio foram detectados. Esses problemas surgem em virtude da presença de caminhos alternativos e ordem de execução das atividades nos fluxos de processos. Embora tais problemas não sejam tratados no presente trabalho, são apresentadas possíveis soluções a serem abordadas em trabalhos futuros.

Page generated in 0.0338 seconds