91 |
Uma abordagem incremental para mineração de processos de negócio / Incremental approach to business process miningKalsing, André Cristiano January 2012 (has links)
Até os dias de hoje, diversos algoritmos de mineração de modelos de processos já foram propostos para extrair conhecimento a partir de logs de eventos. O conhecimento que tais algoritmos são capazes de obter incluem modelos de processos de negócio, assim como aspectos da estrutura organizacional, como atores e papéis. A mineração de processos pode se beneficiar de uma estratégia incremental, especialmente quando as informações sobre um ou mais processos de negócio presentes no código fonte de um sistema de informação são logicamente complexas (diversas ramificações e atividades paralelas e/ou alternativas). Neste cenário, são necessárias muitas execuções da aplicação para a coleta de um grande conjunto de dados no arquivo de log, a fim de que o algoritmo de mineração possa descobrir e apresentar o processo de negócio completo. Outra situação que torna necessária a mineração incremental é a constante evolução dos processos de negócio, ocasionada geralmente por alterações nas regras de negócio de uma ou mais aplicações. Neste caso, o log pode apresentar novos fluxos de atividades, ou fluxos alterados ou simplesmente fluxos que não são mais executados. Estas mudanças devem ser refletidas no modelo do processo a fim de garantir a sincronização entre a aplicação (processo executado) e o modelo. A mineração incremental de processos pode ainda ser útil quando se faz necessária a extração gradual de um modelo de processo completo, extraindo modelos parciais (fragmentos de processo com início e fim) em um primeiro passo e integrando conhecimento adicional ao modelo em etapas até a obtenção do modelo completo. Contudo, os algoritmos atuais de mineração incremental de processos não apresentam total efetividade quanto aos aspectos acima citados, apresentando algumas limitações. Dentre elas podemos citar a não remoção de elementos obsoletos do modelo de processo descoberto, gerados após a atualização do processo executado, e também a descoberta de informações da estrutura organizacional associada ao processo como, por exemplo, os atores que executam as atividades. Este trabalho propõe um algoritmo incremental para a mineração de processos de negócio a partir de logs de execução. Ele permite a atualização completa de um modelo existente, bem como o incremento de um modelo de processo na medida em que novas instâncias são adicionadas ao log. Desta forma, podemos manter ambos, modelo de processo e o processo executado sincronizados, além de diminuirmos o tempo total de processamento uma vez que apenas novas instâncias de processo devem ser consideradas. Por fim, com este algoritmo é possível extrair modelos com acurácia igual ou superior aqueles que podem ser extraídos pelos algoritmos incrementais atuais. / Even today, several process mining algorithms have been proposed to extract knowledge from event logs of applications. The knowledge that such algorithms are able to discovery includes business process models, business rules, as well as aspects of organizational structure, such actors and roles of processes. These process mining algorithms can be divided into two: non-incremental and incremental. The mining process can benefit from an incremental strategy, especially when information about the process structure available in the system source code is logically complex (several branches and parallel activities). In this scenario, its necessary several executions of the application, to collect a large set of log data, so that the mining algorithm can discover and present the complete business process. Another use case where incremental mining is usefull is during the changing structure of the process, caused by the change in the business logic of an application. In this case, the log may provide new traces of activities, modified traces or simply traces that are no longer running. These changes must be reflected in the process model being generated to ensure synchronization between the application and model. The incremental process mining can also be useful when it is necessary to extract a complete process model in a gradual way, extracting partial models (process fragments with begin and end) in a first step and integrating additional knowledge to the model in stages to obtain the complete model. However, existing incremental process mining algorithms are not effective to all aspects mentioned above. All of them have limitations with respect to certain aspects of incremental mining, such as deletion of elements in the process model (process model update). Additionally, most of them do not extract all the information present in the structure of the process, such as the actors who perform the activities. This paper proposes an incremental process mining algorithm from execution logs of information systems. The new algorithm allows the full update (adding and removing elements) of an existing model, as well as the increment of a process model as new records are added to the log. Thus, we can keep process models and process execution syncronized, while reducting the total processing time, since only new process instances must be processed. Finally, are expected the extraction of process models with similar or higher accuracy compared to current incremental mining algorithms.
|
92 |
Um método para deduplicação de metadados bibliográficos baseado no empilhamento de classificadores / A method for bibliographic metadata deduplication based on stacked generalizationBorges, Eduardo Nunes January 2013 (has links)
Metadados bibliográficos duplicados são registros que correspondem a referências bibliográficas semanticamente equivalentes, ou seja, que descrevem a mesma publicação. Identificar metadados bibliográficos duplicados em uma ou mais bibliotecas digitais é uma tarefa essencial para garantir a qualidade de alguns serviços como busca, navegação e recomendação de conteúdo. Embora diversos padrões de metadados tenham sido propostos, eles não resolvem totalmente os problemas de interoperabilidade porque mesmo que exista um mapeamento entre diferentes esquemas de metadados, podem existir variações na representação do conteúdo. Grande parte dos trabalhos propostos para identificar duplicatas aplica uma ou mais funções sobre o conteúdo de determinados campos no intuito de captar a similaridade entre os registros. Entretanto, é necessário escolher um limiar que defina se dois registros são suficientemente similares para serem considerados semanticamente equivalentes ou duplicados. Trabalhos mais recentes tratam a deduplicação de registros como um problema de classificação de dados, em que um modelo preditivo é treinado para estimar a que objeto do mundo real um registro faz referência. O objetivo principal desta tese é o desenvolvimento de um método efetivo e automático para identificar metadados bibliográficos duplicados, combinando o aprendizado de múltiplos classificadores supervisionados, sem a necessidade de intervenção humana na definição de limiares de similaridade. Sobre o conjunto de treinamento são aplicadas funções de similaridade desenvolvidas especificamente para o contexto de bibliotecas digitais e com baixo custo computacional. Os escores produzidos pelas funções são utilizados para treinar múltiplos modelos de classificação heterogêneos, ou seja, a partir de algoritmos de diversos tipos: baseados em árvores, regras, redes neurais artificiais e probabilísticos. Os classificadores aprendidos são combinados através da estratégia de empilhamento visando potencializar o resultado da deduplicação a partir do conhecimento heterogêneo adquirido individualmente pelos algoritmo de aprendizagem. O modelo de classificação final é aplicado aos pares candidatos ao casamento retornados por uma estratégia de blocagem de dois níveis bastante eficiente. A solução proposta é baseada na hipótese de que o empilhamento de classificadores supervisionados pode aumentar a qualidade da deduplicação quando comparado a outras estratégias de combinação. A avaliação experimental mostra que a hipótese foi confirmada quando o método proposto é comparado com a escolha do melhor classificador e com o voto da maioria. Ainda são analisados o impacto da diversidade dos classificadores no resultado do empilhamento e os casos de falha do método proposto. / Duplicated bibliographic metadata are semantically equivalent records, i.e., references that describe the same publication. Identifying duplicated bibliographic metadata in one or more digital libraries is an essential task to ensure the quality of some services such as search, navigation, and content recommendation. Although many metadata standards have been proposed, they do not completely solve interoperability problems because even if there is a mapping between different metadata schemas, there may be variations in the content representation. Most of work proposed to identify duplicated records uses one or more functions on some fields in order to capture the similarity between the records. However, we need to choose a threshold that defines whether two records are sufficiently similar to be considered semantically equivalent or duplicated. Recent studies deal with record deduplication as a data classification problem, in which a predictive model is trained to estimate the real-world object to which a record refers. The main goal of this thesis is the development of an effective and automatic method to identify duplicated bibliographic metadata, combining multiple supervised classifiers, without any human intervention in the setting of similarity thresholds. We have applied on the training set cheap similarity functions specifically designed for the context of digital libraries. The scores returned by these functions are used to train multiple and heterogeneous classification models, i.e., using learning algorithms based on trees, rules, artificial neural networks and probabilistic models. The learned classifiers are combined by stacked generalization strategy to improve the deduplication result through heterogeneous knowledge acquired by each learning algorithm. The final model is applied to pairs of records that are candidate to matching. These pairs are defined by an efficient two phase blocking strategy. The proposed solution is based on the hypothesis that stacking supervised classifiers can improve the quality of deduplication when compared to other combination strategies. The experimental evaluation shows that the hypothesis has been confirmed by comparing the proposed method to selecting the best classifier or the majority vote technique. We also have analyzed the impact of classifiers diversity on the stacking results and the cases for which the proposed method fails.
|
93 |
Um método para descoberta semi-automática de processos de negócio codificados em sistemas legados / A semi-automatic method to discovery business processes encoded in legacy systemsNascimento, Gleison Samuel do January 2014 (has links)
Há mais de uma década, BPM vem sendo introduzida nas organizações devido suas vantagens tais como documentação, gerenciamento, monitoração e melhoria contínua de seus processos de negócio. Na abordagem BPM, normalmente, os processos de negócio da organização são executados sob o controle de um Sistema Gerenciador de Processos de Negócio. Estes sistemas executam os processos de negócio, coletando informações úteis para organização. Por exemplo, através destes sistemas é possível identificar as atividades que mais demoram ou consomem mais recursos humanos. Desta forma, é possível redesenhar os processos de maneira ágil, garantido a evolução contínua do negócio. Entretanto, para se beneficiar da tecnologia BPM, a organização deve mapear seus processos de negócio e modelá-los no Sistema Gerenciador de Processos de Negócio. Normalmente, esse trabalho é realizado por especialistas humanos, que observam e identificam o funcionamento da organização, definindo, em detalhes, os fluxos de trabalho realizados para cumprir determinadas metas de negócio. Contudo, na maior parte das organizações os processos de negócio encontram-se implementados em sistemas de informações legados. Tais sistemas possuem pouca documentação, foram desenvolvidos com uso de tecnologias obsoletas e os processos de negócio, neles contidos, foram programados implicitamente no seu código fonte. Deste modo, além das entrevistas com usuários-chave da organização, os analistas precisam também entender o funcionamento dos sistemas legados a fim de identificar os processos de negócio da organização. Geralmente, os analistas de negócio fazem este trabalho manualmente, interpretando os algoritmos escritos no código fonte legado e identificando os fluxos de trabalho nele escritos. Esse trabalho é complexo, demorado e suscetível a erros, pois depende do nível de conhecimento que os analistas de negócio têm sobre o código fonte legado. Pensando neste problema, essa tese apresenta um método que automatiza a descoberta de processos de negócio implementados implicitamente no código fonte de sistemas legados. O método propõe uma técnica híbrida, que usa análise estática do código fonte e análise dinâmica (mineração de processos) para descobrir os processos de negócio codificados em sistemas legados. A tese apresenta os passos para aplicação do método, definindo para cada passo, um conjunto de ferramentas capazes de automatizar a descoberta de informações no código fonte legado. Este trabalho também mostra três estudos de caso, onde o método foi aplicado com sucesso e comparado a outras técnicas existentes na literatura. / For over a decade, BPM is being introduced in organizations due to its advantages such as documentation, management, monitoring and continuous improvement of its business processes. In BPM approach, business processes of the organization are executed under the control of a Business Processes Management System. These systems monitor the execution of the processes and measuring the operational efficiency of the organization through, for example, of the identification of activities those are slower or consume more resources. Thus, the organization can redesign their business processes in an agile and fast mode, thereby ensuring the continued evolution of your business. However, to take advantage of BPM technology, the organization must map their business processes and model them in the Business Processes Management System. Typically, organizations execute the business process mapping through manual techniques, such as interviews, meetings with users, questionnaires, document analysis and observations of the organizational environment. However, in most organizations business processes are executed in legacy systems information. Such systems have not documentation, have been developed with obsolete technologies and the business processes are programmed implicitly in its source code. Thus, in addition to interviews with expert users of the organization, analysts must also understand the working of legacy systems in order to identify the business processes of the organization. Generally, business analysts do this work manually, interpreting algorithms written in legacy source code and identifying workflows written in the source code. This work is complex, time consuming and error prone, since it depends on the knowledge level that business analysts have about the legacy source code. Thinking about this problem, this thesis presents a method that automates the discovery of business processes implemented implicitly in the source code of legacy systems. The method proposes a hybrid technique that uses static analysis of the source code and dynamic analysis (mining process) to discover business processes encoded in legacy systems. The thesis presents the steps for applying the method, defining for each step, a set of tools that automate the discovery of information in the legacy source code. This work also shows three case studies where the method was successfully applied and compared to other existing techniques in the literature.
|
94 |
[en] WORD SENSE DESAMBIGUATION IN TEXT MINING / [pt] DESAMBIGUAÇÃO DE SENTIDO DE PALAVRAS DIRIGIDA POR TÉCNICAS DE AGRUPAMENTO SOB O ENFOQUE DA MINERAÇÃO DE TEXTOSROBERTO MIRANDA GOMES 10 September 2009 (has links)
[pt] Esta dissertação investigou a aplicação de processos de mineração de textos a
partir de técnicas de inteligência computacional e aprendizado de máquina no problema
de ambigüidade de sentido de palavras. O trabalho na área de métodos de apoio à decisão
teve como objetivo o desenvolvimento de técnicas capazes de automatizar os processos
de desambiguação bem como a construção de um protótipo baseado na implementação de
algumas dessas técnicas. Desambiguação de sentido de palavra é o processo de atribuição
de um significado a uma palavra obtido por meio de informações colhidas no contexto em
que ela ocorre, e um de seus objetivos é mitigar os enganos introduzidos por construções
textuais ambíguas, auxiliando assim o processo de tomada de decisão. Buscou-se ainda na
utilização de conceitos, ferramentas e formas de documentação considerados em
trabalhos anteriores de maneira a dar continuidade ao desenvolvimento científico e deixar
um legado mais facilmente reutilizável em trabalhos futuros. Atenção especial foi dada ao
processo de detecção de ambigüidades e, por esse motivo, uma abordagem diferenciada
foi empregada. Diferente da forma mais comum de desambiguação, onde uma máquina é
treinada para desambiguar determinado termo, buscou-se no presente trabalho a nãodependência
de se conhecer o termo a ser tratado e assim tornar o sistema mais robusto e
genérico. Para isso, foram desenvolvidas heurísticas específicas baseadas em técnicas de
inteligência computacional. Os critérios semânticos para identificação de termos
ambíguos foram extraídos das técnicas de agrupamento empregadas em léxicos
construídos após algum processo de normalização de termos. O protótipo, SID - Sistema
Inteligente de Desambiguação - foi desenvolvido em .NET, que permite uma grande
diversidade de linguagens no desenvolvimento, o que facilita o reuso do código para a
continuidade da pesquisa ou a utilização das técnicas implementadas em alguma
aplicação de mineração de textos. A linguagem escolhida foi o C#, pela sua robustez,
facilidade e semelhança sintática com JAVA e C++, linguagens amplamente conhecidas e
utilizadas pela maioria dos desenvolvedores. / [en] This dissertation investigated the application of text mining process from
techniques of computing intelligence and machine learning in the problem of
word sense ambiguity. The work in the methods of decision support area aimed to
develop techniques capable of doing a word meaning disambiguation
automatically and also to construct a prototype based on the application of such
techniques. Special attention was given to the process of ambiguity detection and,
for this reason, a differentiated approach was used. Unlikely the most common
type of disambiguation, in which the machine is trained to do it in determined
terms, the present work aimed to address the ambiguity problem without the need
of knowing the meaning of the term used, and thus, to make the system more
robust and generic. In order to achieve that, specific heurists were developed
based on computing intelligence techniques. The semantic criteria used to identify
the ambiguous terms were extracted from grouping techniques employed in lexis
built after some term normalization process.
|
95 |
[pt] DESENVOLVIMENTO DE UMA CÉLULA TRIAXIAL CÍCLICA SERVO CONTROLADA E ESTUDO DA SUSCEPTIBILIDADE À LIQUEFAÇÃO DE UM RESÍDUO DA LAVRA DE MINERAÇÃO DE FERRO / [en] DEVELOPMENT OF A SERVO-CONTROLLED CYCLIC TRIAXIAL CELL AND STUDY OF THE LIQUEFACTION SUSCEPTIBILITY OF TAILINGS FROM AN IRON MINING10 January 2002 (has links)
[pt] Apresenta-se, neste trabalho, resultados de um extenso
estudo experimental de laboratório, cujos objetivos eram:
obter informações do comportamento tensão-deformação em
condições não drenadas, e verificar a susceptibilidade à
liquefação de um resíduo oriundo da lavra do itabirito
silicoso da Mina de Fernandinho, que situa-se no
Quadrilátero Ferrífero (Minas Gerais ), região com grande
concentração de minério de ferro. Para realizar o estudo de
susceptibilidade à liquefação do resíduo, foi necessário
projetar e construir um equipamento que é constituído de:
uma célual triaxial, servo-motores, válvulas para regulagem
de pressão, um microcomputador AT486, conversor D/A, um
sistema de aquisição de dados da National Instruments e
alguns acessórios que foram desenvolvidos para facilitar a
execução dos ensaios. Durante a fase de projeto e montagem
deste equipamento foi implementado um programa na linguagem
de programação C para gerenciar os ensaios. Este
equipamento possibilitou a execução dos ensaios triaxiais
cíclicos e monotônicos com trajetórias de tensões servo
controladas. Na primeira fase deste estudo foram realizados
ensaios de caracterização completa, análise mineralógica e
de microscopia eletrônica. Após a caracterização física do
material, passou-se ao estudo do comportamento tensão-
deformação e resistência com a execução de ensaios
triaxiais. Nesta fase foram executados ensaios monotônicos
e cíclicos em corpos de prova adensados isotropicamente e
anisotropicamente. Com as análises dos resultados e
entendimento do comportamento tensão deformação deste
material em condições de laboratório, concluiu-se que este
é susceptível à liquefação devido ao comportamento
colapsível e desenvolvimento elevado de poropressões.
Finalmente, propõe-se uma nova metodologia experimental
para estudar os mecanismos que levam o solo a desenvolver o
fenômeno de liquefação, tendo em vista que as metodologias
apresentadas na literatura corrente não são adequadas para
estudar este fenômeno. / [en] This work presents results of na experimental research
programme executed in the laboratory at PUC-Rio, Brazil.
The aim of this research was investigated the stress-strain
behaviour and the evaluation of the susceptibility of fine
grained tailing material from Fernandinho Mine to
liquefaction. This mine is at Quadrilatero Ferrífero (Minas
Gerais - Brazil), region with one of the largest sources of
iron ore in Brazil.In order to study the susceptibility to
liquefaction of tailing material an servocontrolled
triaxial device was developed. This device were composed
by: triaxial cell, servo-motors,pressure regulators,
microcomputer, one digital analogy convert of, one analogy
digital convert developed in the laboratory at PUC-Rio and
other accessories. During the development of the device,
one software to control all the trajetories was
implemented. Using this device some cyclic and monotonic
triaxial tests were carried out.Complete characterization,
mineralogical and eletronic microscope analysis were
carried out in the preliminary steps of this research.
After this, an extensive programme of triaxial tests were
carried out in order to determine the failure envelope,
stress-strain behaviour and liquifiction resitance of the
tailing material.A colapsive behavior of the tested
material was observed at small strain and stress
conditions. Another important observation was the high
level of poropressure development,suggesting that this
material is susceptible to liquefaction in special
conditions.Finally, based on the test results, a new
methodology is proposed to investigate soils when submitted
to undrained conditions.
|
96 |
[pt] MINERAÇÃO DE ITENS FREQUENTES EM SEQUÊNCIAS DE DADOS: UMA IMPLEMENTAÇÃO EFICIENTE USANDO VETORES DE BITS / [en] MINING FREQUENT ITEMSETS IN DATA STREAMS: AN EFFICIENT IMPLEMENTATION USING BIT VECTORSFRANKLIN ANDERSON DE AMORIM 11 February 2016 (has links)
[pt] A mineração de conjuntos de itens frequentes em sequências de dados
possui diversas aplicações práticas como, por exemplo, análise de comportamento
de usuários, teste de software e pesquisa de mercado. Contudo, a grande
quantidade de dados gerada pode representar um obstáculo para o processamento
dos mesmos em tempo real e, consequentemente, na sua análise e tomada de
decisão. Sendo assim, melhorias na eficiência dos algoritmos usados para estes
fins podem trazer grandes benefícios para os sistemas que deles dependem. Esta
dissertação apresenta o algoritmo MFI-TransSWmais, uma versão otimizada do
algoritmo MFI-TransSW, que utiliza vetores de bits para processar sequências de
dados em tempo real. Além disso, a dissertação descreve a implementação de um
sistema de recomendação de matérias jornalísticas, chamado ClickRec, baseado
no MFI-TransSWmais, para demonstrar o uso da nova versão do algoritmo. Por
último, a dissertação descreve experimentos com dados reais e apresenta
resultados da comparação de performance dos dois algoritmos e dos acertos do
sistema de recomendações ClickRec. / [en] The mining of frequent itemsets in data streams has several practical
applications, such as user behavior analysis, software testing and market research.
Nevertheless, the massive amount of data generated may pose an obstacle to
processing then in real time and, consequently, in their analysis and decision
making. Thus, improvements in the efficiency of the algorithms used for these
purposes may bring great benefits for systems that depend on them. This thesis
presents the MFI-TransSWplus algorithm, an optimized version of MFI-TransSW
algorithm, which uses bit vectors to process data streams in real time. In addition,
this thesis describes the implementation of a news articles recommendation
system, called ClickRec, based on the MFI-TransSWplus, to demonstrate the use of
the new version of the algorithm. Finally, the thesis describes experiments with
real data and presents results of performance and a comparison between the two
algorithms in terms of performance and the hit rate of the ClickRec
recommendation system.
|
97 |
[pt] EXPLORANDO OS ASPECTOS SOCIAIS DO DECAIMENTO DE DESIGN / [en] EXPLORING THE SOCIAL ASPECTS OF DESIGN DECAYCAIO BARBOSA VIEIRA DA SILVA 01 July 2021 (has links)
[pt] O desenvolvimento de código vem sendo executado de forma colaborativa há
muito tempo. Plataformas, como o GitHub, contribuem para esse processo
com vários mecanismos. Pull Request é um deles, e permite aos desenvolvedores
enviarem suas contribuições para um repositório, onde essas mudanças
podem ser discutidas e revisadas antes de serem integradas ao código principal.
Um dos objetivos desse processo é evitar um fenômeno chamado design
decay, que ocorre quando estruturas de pobres de design são introduzidas
no código fonte. Como resultado, o projeto pode se tornar difícil de manter
e evoluir. As técnicas existentes usam sintomas de código fonte (e.g., mal
cheiros de código) para identificar a manifestação de design decay. No entanto,
esses sintomas só podem identificar design decay que já se ocorreu.
Assim, nesta dissertação, investigamos três aspectos sociais para prever a
manifestação de design decay em projetos de código aberto. Dinâmica de
comunicação representa informações sobre os papéis dos contribuidores e
aspectos temporais das discussões. Conteúdo da discussão é a informação
sendo trocada entre participantes de uma contribuição. Finalmente, dinâmica
organizacional representa as características da equipe. A manifestação
desses aspectos sociais ao longo do desenvolvimento de software pode induzir
comportamentos que possivelmente afetam a qualidade do código. No
entanto, nenhum estudo anterior investigou a sua influência no design decay.
Assim, buscamos evidências sobre como esses três aspectos influenciam
na manifestação de design decay. Para atingir esse objetivo, nós introduzimos
um conjunto de métricas para caracterizar aspectos sociais num modelo
de desenvolvimento baseado em pull requests. Então, nós analisamos sete
projetos, extraindo seus commits e pull requests. Nossos resultados revelam
que: (i) métricas sociais podem ser usadas para discriminar as pull requests
que impactam na manifestação de design decay daquelas que não impactam;
(ii) vários fatores da dinâmica da comunicação estão relacionados ao design
decay. No entanto, os fatores temporais superam os fatores dos papéis dos
participantes como indicadores de design decay; e (iii) aspectos relacionados
à dinâmica organizacional, como o número de novatos, surpreendentemente,
não estão associados a manifestação de design decay. / [en] Code development has been performing collaboratively for a long time. Platforms,
such as GitHub, contribute to this process with various mechanisms.
Pull Request is a mechanism that allows developers to submit their contributions
to a project. Then, these changes can be discussed, analyzed, and
reviewed before being integrated into the repository. One of the goals of this
process is to avoid a phenomenon called design decay. It occurs when poor
design structures are introduced in a project. As a result, the project may
become difficult to maintain and evolve. Existing techniques use source code
symptoms (e.g., code smells) to identify the manifestation of design decay.
Nevertheless, such symptoms can only be used to identify design decay that
is already present in the project. Thus, in this dissertation, we investigated
the exploration of three social aspects to predict the manifestation of design
decay on open-source projects as follows. Communication Dynamics represents
information about contributor s roles and temporal aspects of their
discussions. Discussion Content is the information being exchanged among
participants of a contribution. Finally, Organizational Dynamics represents
characteristics of the team organization. The manifestation of these social
aspects along software development can induce behaviors that possibly affect
the design quality. However, no previous study has investigated the
influence of such social aspects on the manifestation of design decay. Thus,
we aim to shed light on how these three aspects influence the design decay.
To achieve this goal, we introduced a suite of metrics for characterizing social
aspects in pull-based software development. Then, we analyzed seven
open-source projects, mining both their commits and pull requests. Our results
reveal that: (i) many social metrics, e.g., Discussion Length, can be
used to discriminate between pull requests that impact on the manifestation
of design decay from the ones that do not impact; (ii) various factors
of communication dynamics, such as Number of Users, are related to design
decay. Nevertheless, temporal factors of communication dynamics outperform
the participant roles as indicators of design decay; and (iii) aspects
related to organizational dynamics, such as the number of newcomers, are
surprisingly not associated with design decay manifestation.
|
98 |
[en] USE OF PETRI NET TO MODEL RESOURCE ALLOCATION IN PROCESS MINING / [pt] USO DE REDES DE PETRI NA MODELAGEM DE ALOCAÇÃO DE RECURSOS EM MINERAÇÃO DE PROCESSOSBEATRIZ MARQUES SANTIAGO 22 November 2019 (has links)
[pt] Business Process Management é a ciência de observar como o trabalho é realizado em determinada organização garantindo produtos consistentes e se aproveitando de oportunidades de melhoria. Atualmente, boa parte dos processos são realizados em frameworks, muitos com armazenamento de arquivos de log, no qual é disponibilizada uma grande quantidade de informação que pode ser explorada de diferentes formas e com diferentes objetivos, área denominada como Mineração de Processos. Apesar de muitos desses dados contemplarem o modo como os recursos são alocados para cada atividade, o foco maior dos trabalhos nessa área é na descoberta do processo e na verificação de conformidade do mesmo. Nesta dissertação é proposto um modelo em petri net que incorpora a alocação de recurso, de forma a poder explorar as propriedades deste tipo de modelagem, como por exemplo a definição de todos os estados possíveis. Como aplicação do modelo, realizou-se um estudo comparativo entre duas políticas, uma mais especialista, de alocação de recurso, e outra mais generalista usando simulações de Monte Carlo com distribuição de probabilidade exponencial para o início de novos casos do processo e para estimação do tempo de execução do par recurso atividade. Sendo assim, para avaliação de cada política foi usado um sistema de pontuação que considera o andamento do processo e o tempo total de execução do mesmo. / [en] Business Process Management is the science of observing how the work is performed in a given organization ensuring consistent products and seeking opportunities for improvement. Currently, most of the processes are performed in frameworks, many with log files, in which a large amount of data is available. These data can be explored in different ways and with different objectives, giving rise to the Process Mining area. Although many of these data informs how resources are allocated for each activity, the major focus of previous work is on the discovery process techniques and process compliance. In this thesis a petri net model that incorporates resource allocation is proposed exploring the properties of this type of modeling, such as the definition of all possible states. As a model validation, it is applied in a
comparative study between two resource allocation policies, one considering the expertise of each resource and other with a more generalist allocation. The arrival of new cases and the resource-activity pair execution time were estimated by Monte Carlo simulations with exponential probability distribution. Thus, for the evaluation of each policy a scoring system was used considering the progress of the process and the total execution time.
|
99 |
[pt] ANÁLISE DE DESFECHOS DEPACIENTES CRÍTICOS COM SEPSE USANDO MINERAÇÃO DE PROCESSOS / [en] ASSESSING OUTCOMES OF CRITICALLY ILL PATIENTS WITH SEPSIS USING PROCESS MININGRAYANE SILVA COSTA 19 December 2024 (has links)
[pt] A sepse é a principal causa de morte em unidades de terapia intensiva (UTIs)
no mundo. No Brasil, a taxa de mortalidade nas UTIs atinge 65 por cento. Este estudo teve como objetivo avaliar o comportamento dos processos de atendimento a pacientes
com sepse em unidades de terapia intensiva do Beth Israel Deaconess Medical Center, Boston-EUA, a partir da base de dados MIMIC-IV. Esta base de dados está
disponível publicamente e contém dados de mais de 200.000 pacientes registrados
entre 2008 e 2019. Após aplicação dos critérios de inclusão 7.790 casos foram estudados. Usando técnicas de mineração de processos foi analisada a conformidade
das execuções de tratamento com as recomendações terapêuticas e, em seguida, foi
realizada uma análise de comparação dos desfechos em relação ao atendimento do
protocolo de sepse. Os resultados mostraram uma média geral de 92 por cento de conformidade. O LOS observado foi menor que o LOS esperado e a taxa de mortalidade
foi maior que a mortalidade esperada. Uma análise sobre indicadores SMR e SRU
confirmou a variação em relação aos valores esperados, sugerindo que o processo
de tratamento de sepse desta unidade precisa de algumas adequações e que a análise
de conformidade pode não ser a melhor forma de avaliar este tipo de processo. / [en] Sepsis is the leading cause of death in intensive care units (ICUs) worldwide.
In Brazil, the mortality rate in ICUs reaches 65 percent. This study evaluated the behavior
of the care pathways for patients with sepsis and in a critical status of the Beth Israel
Deaconess Medical Center, Boston-USA intensive care units, from the MIMIC-IV
database. This available database contains data from more than 200,000 patients
registered between 2008 and 2019. After applying the selection criteria, 7,790 cases
were studied. Using process mining techniques, the conformance of treatment executions with therapeutic recommendations was analyzed, followed by a comparative
analysis of outcomes concerning the adherence to the sepsis protocol. The results
showed an overall average compliance of 92 percent. The observed LOS was less than the
expected LOS, and the mortality rate was higher than the expected mortality rate.
An analysis of SMR and SRU indicators confirmed the variation from expected values, suggesting that the sepsis treatment process in this unit requires some adjustments and that compliance analysis may not be the best way to evaluate this type of
process.
|
100 |
Técnicas de beneficiamento do ouro e seus minérios no Brasil no final do século XVIII e início do XIXCerqueira, Osmário Coelho de 21 May 2009 (has links)
Made available in DSpace on 2016-04-28T14:16:43Z (GMT). No. of bitstreams: 1
Osmario Coelho de Cerqueira.pdf: 666795 bytes, checksum: 48f3da58740b8443874f378ff3bca46e (MD5)
Previous issue date: 2009-05-21 / Secretaria da Educação do Estado de São Paulo / This work analyzes and searchs to establish some of the causes that
corroborate for the fast decay of the Cycle of the Gold in Brazil in century 18th and
beginning of the 19th. Search to show of that it forms the work or the coming of the
German technician Wilhelm Ludwig Von Eschwege (1777-1855) or Baron Luis
Guillermo de Eschwege, contributed for the few registers in the field of the mining of
the gold at this time. It argues, still, as Portugal lead the mineratória industry badly;
searching to point causes and, preponderant factors, concerning which, as we will
demonstrate, Portugal did not have as to control; preventing its bankruptcy.
In the present work, we look for to present to soon of it I capitulate I, the
techniques of mining in the Brazil-Colony of century 18th until the beginning of the
XIX, the limitations and solicitudes which the miners were citizens. Seen the Crown
fifth was very voluble in the collection of. It I capitulate II, we argue the metallurgic
techniques of the gold and its ores in the Brazil-Colony in the above-mentioned
period. The contributions of names as Jose Bonifácio de Andrada e Silva, already
cited W.L. Von Eschwege, as well as, the supposed introduction of the bateia and
some others techniques minero-steel mills introduced for the slaves.
We present some techniques of analyses chemistry-metallurgical mills of the
gold and its process of certification or quilatação. We deal with the cupellation,
inquartação, test of the risk, amongst others / Este trabalho analisa e busca estabelecer algumas das causas que
corroboram para a rápida decadência do Ciclo do Ouro no Brasil no século XVIII e
início do XIX. Procura mostrar de que forma o trabalho ou a vinda do técnico
alemão Wilhelm Ludwig Von Eschwege (1777-1855) ou Barão Luís Guilherme de
Eschwege, contribuiu para os poucos registros no campo da mineração do ouro
nessa época. Discute, ainda, como Portugal conduziu mal a indústria mineratória;
buscando apontar causas e fatores preponderantes, acerca dos quais, como
demonstraremos, Portugal não tinha como controlar; evitando a sua falência.
No presente trabalho, procuramos apresentar ao longo do capitulo I, as
técnicas de mineração no Brasil-Colônia do século XVIII até o início do XIX, as
limitações e solicitudes às quais os mineiros estavam sujeitos, visto a Coroa ser
muito volúvel na cobrança do quinto e demais impostos.
O capitulo II, discutimos as técnicas metalúrgicas do ouro e seus minérios no
Brasil-Colônia no período supracitado. As contribuições de nomes como José
Bonifácio de Andrada e Silva, o já citado W. L. Von Eschwege, bem como, a
suposta introdução da bateia e algumas outras técnicas minero-metalúrgicas pelos
escravos. Apresentamos algumas técnicas de análises quimico-metalúrgicas do
ouro e o seu processo de certificação ou quilatação. Tratamos da copelação,
inquartação, teste de toque ou risco, dentre outros
|
Page generated in 0.0639 seconds