Spelling suggestions: "subject:"maquinas"" "subject:"maquinaria""
111 |
[en] ISSUES THAT LEAD TO CODE TECHNICAL DEBT IN MACHINE LEARNING SYSTEMS / [pt] PROBLEMAS QUE LEVAM A GERAÇÃO DE DÍVIDA TÉCNICA DE CÓDIGO EM SISTEMAS DE APRENDIZADO DE MÁQUINARODRIGO GALDINO XIMENES 10 September 2024 (has links)
[pt] [Contexto] A dívida técnica (DT) em sistemas de aprendizado de máquina (AM), assim como sua contraparte em engenharia de software (ES), tem
o potencial de levar a retrabalhos futuros, representando riscos para produtividade, qualidade e moral da equipe. No entanto, compreender melhor os
problemas relacionados ao código que levam à DT em sistemas de AM ainda
é um campo em aberto. [Objetivo] Este artigo tem como objetivo identificar e
discutir a relevância de problemas que levam a DT no código de AM ao longo
do ciclo de vida do AM. [Método] O estudo compilou inicialmente uma lista
de problemas potenciais que podem levar à DT no código de AM, analisando
as fases do ciclo de vida do AM e suas tarefas típicas. Posteriormente, a lista
de problemas foi refinada através da avaliação da prevalência e relevância dos
problemas que levam à DT no código de AM por meio de feedback coletado
de profissionais da indústria em duas sessões de grupos focais. [Resultados] O
estudo compilou uma lista inicial de 34 problemas que potencialmente contribuem para DT em código-fonte de sistemas de AM. Através de duas sessões
de grupos focais com nove participantes, esta lista foi refinada para 30 problemas que levam à DT relacionada ao código de AM, sendo 24 considerados
altamente relevantes. A fase de pré-processamento de dados foi a mais crítica,
com 14 problemas considerados altamente relevantes em potencialmente levar
a uma DT grave no código de AM. Cinco problemas foram considerados altamente relevantes na fase de criação e treinamento do modelo e quatro na fase
de coleta de dados. A lista final de problemas está disponível para a comunidade. [Conclusão] A lista pode ajudar a aumentar a conscientização sobre os
problemas a serem tratados ao longo do ciclo de vida do AM para minimizar
a acumulação de DT, ajudando a melhorar a manutenibilidade de sistemas de
AM. / [en] [Context] Technical debt (TD) in machine learning (ML) systems, much
like its counterpart in software engineering (SE), holds the potential to lead to
future rework, posing risks to productivity, quality, and team morale. However,
better understanding code-related issues leading to TD in ML systems is still
a green field. [Objective] This dissertation aims to identify and discuss the
relevance of code-related issues leading to TD in ML code throughout the ML
life cycle. [Method] Initially, the study generated a list of potential factors that
may contribute to accruing TD in ML code. This compilation was achieved
by looking at the phases of the ML life cycle along with their usual tasks.
Subsequently, the identified issues were refined by evaluating their prevalence
and relevance in causing TD in ML code. This refinement process involved
soliciting feedback from industry professionals during two focus group sessions.
[Results] The study compiled a list of 34 potential issues contributing to TD
in the source code of ML systems. Through two focus group sessions with nine
participants, this list was refined into 30 issues leading to ML code-related
TD, with 24 considered highly relevant. The data pre-processing phase was the
most critical, with 14 issues considered highly relevant in potentially leading to
severe ML code TD. Five issues were considered highly relevant in the model
creation and training phase and four in the data collection phase. The final list
of issues is available to the community. [Conclusion] The list can help to raise
awareness on issues to be addressed throughout the ML life cycle to minimize
accruing TD, helping to improve the maintainability of ML systems.
|
112 |
[pt] INVESTIGANDO O IMPACTO DA APLICAÇÃO DE PRINCÍPIOS DE PROJETO SOLID NA COMPREENSÃO DE CÓDIGO DE MACHINE LEARNING / [en] INVESTIGATING THE IMPACT OF SOLID DESIGN PRINCIPLES ON MACHINE LEARNING CODE UNDERSTANDINGRAPHAEL OLIVEIRA CABRAL 23 May 2024 (has links)
[pt] A aplicação de princípios de design tem sido reconhecida há muito tempo como benéfica para a compreensão e manutenção em projetos de software tradicionais. Esses benefícios podem ser válidos de forma semelhante para projetos de aprendizado de máquina (ML), que envolvem experimentação iterativa com dados, modelos e algoritmos. No entanto, os componentes de ML são frequentemente desenvolvidos por cientistas de dados com diversas formações educacionais, resultando potencialmente em código que não segue as práticas recomendadas de desenvolvimento de software. Para compreender melhor esse fenômeno, investigamos o impacto dos princípios de design SOLID na compreensão do código de ML. Para tanto, conduzimos um experimento controlado com três trials independentes (replicações exatas), envolvendo no total 100 cientistas de dados. Reestruturamos o código de ML real da indústria que não usava princípios SOLID. Dentro de cada ensaio, um grupo foi apresentado ao código de ML original, enquanto o outro foi apresentado ao código de ML incorporando princípios SOLID. Os participantes de ambos os grupos foram convidados a analisar o código e preencher um questionário que incluía perguntas abertas e fechadas sobre a sua compreensão. Os resultados do estudo fornecem evidências estatisticamente significativas de que a adoção dos princípios de design SOLID pode melhorar a compreensão do código no âmbito dos projetos de ML. Propomos que os princípios de design de engenharia de software devem ser difundidos na comunidade de ciência dedados e considerados para melhorar a capacidade de manutenção do código de ML. / [en] Applying design principles has long been acknowledged as beneficial
for understanding and maintainability in traditional software projects. These
benefits may similarly hold for machine learning (ML) projects, which involve
iterative experimentation with data, models, and algorithms. However, ML
components are often developed by data scientists with diverse educational
backgrounds, potentially resulting in code that doesn t adhere to software
development best practices. In order to better understand this phenomenon,
we investigated the impact of the SOLID design principles on ML code
understanding. To this end, we conducted a controlled experiment with three
independent trials (exact replications), overall involving 100 data scientists.
We restructured ML code from a real industrial setting that did not use
SOLID principles. Within each trial, one group was presented with the original
ML code, while the other one was presented with ML code incorporating
SOLID principles. Participants of both groups were asked to analyze the
code and fill out a questionnaire that included both open-ended and closed-ended questions on their understanding. The study results provide statistically
significant evidence that the adoption of the SOLID design principles can
improve code understanding within the realm of ML projects. We put forward
that software engineering design principles should be spread within the data
science community and considered for enhancing the maintainability of ML
code.
|
113 |
[pt] IMPLANTAÇÃO E MONITORAMENTO DE MODELOS DE SISTEMAS DE APRENDIZADO DE MÁQUINA: STATUS QUO E PROBLEMAS / [en] ML-ENABLED SYSTEMS MODEL DEPLOYMENT AND MONITORING: STATUS QUO AND PROBLEMSEDUARDO ZIMELEWICZ 23 September 2024 (has links)
[pt] [Contexto] Sistemas que incorporam modelos de aprendizado de máquina(ML), muitas vezes chamados de sistemas de software habilitados para ML, tornaram-se comuns. No entanto, as evidências empíricas sobre como os sistemas habilitados para ML são projetados na prática ainda são limitadas; isto é especialmente verdadeiro para atividades relacionadas à disseminação do modelo de ML. [Objetivo] Investigamos práticas industriais contemporâneas e problemas relacionados à disseminação de modelos de ML, com foco nas fases de implantação do modelo e no monitoramento dentro do ciclo de vida de ML. [Método] Realizamos uma pesquisa on-line baseada em questionário internacional para coletar informações de profissionais sobre como os sistemas habilitados para ML são projetados. Reunimos 188 respostas completas de 25 países. Analisamos o status quo e os problemas relatados nas fases de implantação e monitoramento do modelo. Realizamos análises estatísticas sobre práticas contemporâneas utilizando bootstrapping com intervalos de confiança e análises qualitativas sobre os problemas relatados envolvendo procedimentos de codificação aberta e axial. [Resultados] Os profissionais consideram as fases de implantação e monitoramento do modelo relevantes, mas também difíceis. No que diz respeito à implantação de modelos, os modelos são normalmente implantados como serviços separados, com adoção limitada dos princípios de MLOps. Os problemas relatados incluem dificuldades no projeto da arquitetura da infraestrutura para implantação de produção e integração de aplicativos legados. No que diz respeito ao monitoramento de modelos, muitos dos modelos em produção não são monitorados. Os principais aspectos monitorados são insumos, produtos e decisões. Os problemas relatados envolvem a ausência de práticas de monitoramento, a necessidade de criar ferramentas de monitoramento personalizadas e desafios na seleção de métricas adequadas. [Conclusão] Nossos resultados já ajudam a fornecer uma melhor compreensão das práticas e problemas adotados na prática que apoiam a pesquisa em implantação de ML e monitoramento de maneira orientada a problemas. / [en] [Context] Systems that incorporate Machine Learning (ML) models, often referred to as ML-enabled systems, have become commonplace. However,
empirical evidence on how ML-enabled systems are engineered in practice is
still limited; this is especially true for activities surrounding ML model dissemination. [Goal] We investigate contemporary industrial practices and problems
related to ML model dissemination, focusing on the model deployment and
the monitoring ML life cycle phases. [Method] We conducted an international
survey to gather practitioner insights on how ML-enabled systems are engineered. We gathered a total of 188 complete responses from 25 countries. We
analyze the status quo and problems reported for the model deployment and
monitoring phases. We analyzed contemporary practices using bootstrapping
with confidence intervals and conducted qualitative analyses on the reported
problems applying open and axial coding procedures. [Results] Practitioners
perceive the model deployment and monitoring phases as relevant and difficult. With respect to model deployment, models are typically deployed as
separate services, with limited adoption of MLOps principles. Reported problems include difficulties in designing the architecture of the infrastructure for
production deployment and legacy application integration. Concerning model
monitoring, many models in production are not monitored. The main monitored aspects are inputs, outputs, and decisions. Reported problems involve the
absence of monitoring practices, the need to create custom monitoring tools,
and the selection of suitable metrics. [Conclusion] Our results help provide a
better understanding of the adopted practices and problems in practice and
support guiding ML deployment and monitoring research in a problem-driven
manner.
|
114 |
[en] COREFERENCE RESOLUTION FOR THE ENGLISH LANGUAGE / [pt] RESOLUÇÃO DE CO-REFERÊNCIA PARA A LÍNGUA INGLESAADRIEL GARCIA HERNANDEZ 28 July 2017 (has links)
[pt] Um dos problemas encontrados nos sistemas de processamento de linguagem natural é a dificuldade em identificar elementos textuais que se referem à mesma entidade. Este fenômeno é chamado de correferência. Resolver esse problema é parte integrante da compreensão do discurso, permitindo que os usuários da linguagem conectem as partes da informação de fala relativas à mesma entidade. Por conseguinte, a resolução de correferência é um importante foco de atenção no processamento da linguagem natural.Apesar da riqueza das pesquisas existentes, o desempenho atual dos sistemas de resolução de correferência ainda não atingiu um nível satisfatório. Neste trabalho, descrevemos um sistema de aprendizado estruturado para resolução de correferências em restrições que explora duas técnicas: árvores de correferência latente e indução automática de atributos guiadas por entropia. A modelagem de árvore latente torna o problema de aprendizagem computacionalmente viável porque incorpora uma estrutura escondida relevante. Além disso, utilizando um método automático de indução de recursos, podemos construir eficientemente modelos não-lineares, usando algoritmos de aprendizado de modelo linear como, por exemplo, o algoritmo de perceptron estruturado e esparso.Nós avaliamos o sistema para textos em inglês, utilizando o conjunto de dados da CoNLL-2012 Shared Task. Para a língua inglesa, nosso sistema obteve um valor de 62.24 por cento no score oficial dessa competição. Este resultado está abaixo do desempenho no estado da arte para esta tarefa que é de 65.73 por cento. No entanto, nossa solução reduz significativamente o tempo de obtenção dos clusters dos documentos, pois, nosso sistema leva 0.35 segundos por documento no conjunto de testes, enquanto no estado da arte, leva 5 segundos para cada um. / [en] One of the problems found in natural language processing systems, is the difficulty to identify textual elements referring to the same entity, this task is called coreference. Solving this problem is an integral part of discourse comprehension since it allows language users to connect the pieces of speech information concerning to the same entity. Consequently, coreference resolution is a key task in natural language processing.Despite the large efforts of existing research, the current performance of coreference resolution systems has not reached a satisfactory level yet. In this work, we describe a structure learning system for unrestricted coreferencere solution that explores two techniques: latent coreference trees and automatic entropy-guided feature induction. The latent tree modeling makes the learning problem computationally feasible,since it incorporates are levant hidden structure. Additionally,using an automatic feature induction method, we can efciently build enhanced non-linear models using linear model learning algorithms, namely, the structure dandsparse perceptron algorithm. We evaluate the system on the CoNLL-2012 Shared Task closed track data set, for the English portion. The proposed system obtains a 62.24 per cent value on the competition s official score. This result is be low the 65.73 per cent, the state-of-the-art performance for this task. Nevertheless, our solution significantly reduces the time to obtain the clusters of adocument, since, our system takes 0.35 seconds per document in the testing set, while in the state-of-the-art, it takes 5 seconds for each one.
|
115 |
[en] CLUSTERING TEXT STRUCTURED DATA BASED ON TEXT SIMILARITY / [pt] AGRUPAMENTO DE REGISTROS TEXTUAIS BASEADO EM SIMILARIDADE ENTRE TEXTOSIAN MONTEIRO NUNES 18 February 2016 (has links)
[pt] O presente trabalho apresenta os resultados que obtivemos com a aplicação de grande número de modelos e algoritmos em um determinado conjunto de experimentos de agrupamento de texto. O objetivo de tais testes é determinar quais são as melhores abordagens para processar as grandes massas de informação geradas pelas crescentes demandas de data quality em diversos setores da economia. O processo de deduplicação foi acelerado pela divisão dos conjuntos de dados em subconjuntos de itens similares. No melhor cenário possível, cada subconjunto tem em si todas as ocorrências duplicadas de cada registro, o que leva o nível de erro na formação de cada grupo a zero. Todavia, foi determinada uma taxa de tolerância intrínseca de 5 porcento após o agrupamento. Os experimentos mostram que o tempo de processamento é significativamente menor e a taxa de acerto é de até 98,92 porcento. A melhor relação entre acurácia e desempenho é obtida pela aplicação do algoritmo K-Means com um modelo baseado em trigramas. / [en] This document reports our findings on a set of text clusterig experiments, where a wide variety of models and algorithms were applied. The objective of these experiments is to investigate which are the most feasible strategies to process large amounts of information in face of the growing demands on data quality in many fields. The process of deduplication was accelerated through the division of the data set into individual subsets of similar items. In the best case scenario, each subset must contain all duplicates of each produced register, mitigating to zero the cluster s errors. It is established, although, a tolerance of 5 percent after the clustering process. The experiments show that the processing time is significantly lower, showing a 98,92 percent precision. The best accuracy/performance relation is achieved with the K-Means Algorithm using a trigram based model.
|
116 |
Uma adaptação do método Binary Relevance utilizando árvores de decisão para problemas de classificação multirrótulo aplicado à genômica funcional / An Adaptation of Binary Relevance for Multi-Label Classification applied to Functional GenomicsTanaka, Erica Akemi 30 August 2013 (has links)
Muitos problemas de classificação descritos na literatura de aprendizado de máquina e mineração de dados dizem respeito à classificação em que cada exemplo pertence a um único rótulo. Porém, vários problemas de classificação, principalmente no campo de Bioinformática são associados a mais de um rótulo; esses problemas são conhecidos como problemas de classificação multirrótulo. O princípio básico da classificação multirrótulo é similar ao da classificação tradicional (que possui um único rótulo), sendo diferenciada no número de rótulos a serem preditos, na qual há dois ou mais rótulos. Na área da Bioinformática muitos problemas são compostos por uma grande quantidade de rótulos em que cada exemplo pode estar associado. Porém, algoritmos de classificação tradicionais são incapazes de lidar com um conjunto de exemplos mutirrótulo, uma vez que esses algoritmos foram projetados para predizer um único rótulo. Uma solução mais simples é utilizar o método conhecido como método Binary Relevance. Porém, estudos mostraram que tal abordagem não constitui uma boa solução para o problema da classificação multirrótulo, pois cada classe é tratada individualmente, ignorando as possíveis relações entre elas. Dessa maneira, o objetivo dessa pesquisa foi propor uma nova adaptação do método Binary Relevance que leva em consideração relações entre os rótulos para tentar minimizar sua desvantagem, além de também considerar a capacidade de interpretabilidade do modelo gerado, não só o desempenho. Os resultados experimentais mostraram que esse novo método é capaz de gerar árvores que relacionam os rótulos correlacionados e também possui um desempenho comparável ao de outros métodos, obtendo bons resultados usando a medida-F. / Many classification problems described in the literature on Machine Learning and Data Mining relate to the classification in which each example belongs to a single class. However, many classification problems, especially in the field of Bioinformatics, are associated with more than one class; these problems are known as multi-label classification problems. The basic principle of multi-label classification is similar to the traditional classification (single label), and distinguished by the number of classes to be predicted, in this case, in which there are two or more labels. In Bioinformatics many problems are composed of a large number of labels that can be associated with each example. However, traditional classification algorithms are unable to cope with a set of multi-label examples, since these algorithms are designed to predict a single label. A simpler solution is to use the method known as Binary Relevance. However, studies have shown that this approach is not a good solution to the problem of multi-label classification because each class is treated individually, ignoring possible relations between them. Thus, the objective of this research was to propose a new adaptation of Binary Relevance method that took into account relations between labels trying to minimize its disadvantage, and also consider the ability of interpretability of the model generated, not just its performance. The experimental results show that this new method is capable of generating trees that relate labels and also has a performance comparable to other methods, obtaining good results using F-measure.
|
117 |
Uma abordagem multinível usando algoritmos genéticos em um comitê de LS-SVMPadilha, Carlos Alberto de Araújo January 2018 (has links)
Há muitos anos, os sistemas de comitê já tem se mostrado um método eficiente para aumentar a acurácia e estabilidade de algoritmos de aprendizado nas décadas recentes, embora sua construção tem uma questão para ser elucidada: diversidade. O desacordo entre os modelos que compõe o comitê pode ser gerado quando eles são contruídos sob diferentes circunstâncias, tais como conjunto de dados de treinamento, configuração dos parâmetros e a seleção dos algoritmos de aprendizado. O ensemble pode ser visto como uma estrutura com três níveis: espaço de entrada, a base de componentes e o bloco de combinação das respostas dos componentes. Neste trabalho é proposta uma abordagem multi-nível usando Algoritmos Genéticos para construir um ensemble de Máquinas de Vetor de Suporte por Mínimos Quadrados ou LS-SVM, realizando uma seleção de atributos no espaço de entrada, parametrização e a escolha de quais modelos irão compor o comitê no nível de componentes e a busca por um vetor de pesos que melhor represente a importância de cada classificador na resposta final do comitê. De forma a avaliar a performance da abordagem proposta, foram utilizados alguns benchmarks do repositório da UCI para comparar com outros algoritmos de classificação. Além disso, também foram comparados os resultados da abordagem proposta com métodos de aprendizagem profunda nas bases de dados MNIST e CIFAR e se mostraram bastante satisfatórios. / Many years ago, the ensemble systems have been shown to be an efficient method to increase the accuracy and stability of learning algorithms in recent decades, although its construction has a question to be elucidated: diversity. The disagreement among the models that compose the ensemble can be generated when they are built under different circumstances, such as training dataset, parameter setting and selection of learning algorithms. The ensemble may be viewed as a structure with three levels: input space, the base components and the combining block of the components responses. In this work is proposed a multi-level approach using genetic algorithms to build the ensemble of Least Squares Support Vector Machines (LS-SVM), performing a feature selection in the input space, the parameterization and the choice of which models will compose the ensemble at the component level and finding a weight vector which best represents the importance of each classifier in the final response of the ensemble. In order to evaluate the performance of the proposed approach, some benchmarks from UCI Repository have been used to compare with other classification algorithms. Also, the results obtained by our approach were compared with some deep learning methods on the datasets MNIST and CIFAR and proved very satisfactory.
|
118 |
Assessment of data-driven bayesian networks in software effort predictionTierno, Ivan Alexandre Paiz January 2013 (has links)
Software prediction unveils itself as a difficult but important task which can aid the manager on decision making, possibly allowing for time and resources sparing, achieving higher software quality among other benefits. One of the approaches set forth to perform this task has been the application of machine learning techniques. One of these techniques are Bayesian Networks, which have been promoted for software projects management due to their special features. However, the pre-processing procedures related to their application remain mostly neglected in this field. In this context, this study presents an assessment of automatic Bayesian Networks (i.e., Bayesian Networks solely based on data) on three public data sets and brings forward a discussion on data pre-processing procedures and the validation approach. We carried out a comparison of automatic Bayesian Networks against mean and median baseline models and also against ordinary least squares regression with a logarithmic transformation, which has been recently deemed in a comprehensive study as a top performer with regard to accuracy. The results obtained through careful validation procedures support that automatic Bayesian Networks can be competitive against other techniques, but still need improvements in order to catch up with linear regression models accuracy-wise. Some current limitations of Bayesian Networks are highlighted and possible improvements are discussed. Furthermore, this study provides some guidelines on the exploration of data. These guidelines can be useful to any Bayesian Networks that use data for model learning. Finally, this study also confirms the potential benefits of feature selection in software effort prediction.
|
119 |
Realidade e ficção na transformação do corpo orgânico em corpo cibernéticoViudes, Wellington Balthazar Baldocchi Parra 18 December 2009 (has links)
Made available in DSpace on 2016-04-29T14:23:53Z (GMT). No. of bitstreams: 1
Wellington Balthazar Baldocchi Parra Viudes.pdf: 3271050 bytes, checksum: 69d73b408478bd829e44d60d15509627 (MD5)
Previous issue date: 2009-12-18 / The development of the human being and the extension technologies of the own
body evolve in a quick pace and give us different points of studies. On this essay, the
man, the robots and the cybernetics are subjects to be studied and searched.
Historically, the man has improved his communication and organization in small and
big groups, causing technology and culture until find a contemporary society of
developed people. During the centuries, the man has invented and built electro
electronics and electro mechanics machines that have already evolved and got a space
to help production automation tasks even substituting the man.
In the process of the man's interaction with the machine, the physical differences
of adaptation and development of objects that imitate the humans' functions show a
view of a new "being", a human "artificially rehabilitated" , characterized as a cyborg, I
mean, compound by organic human parts and also by parts of cybernetics technology
which evolve several engineering areas, computer, medicine and robotic etc.
Talking about reality and fiction, we mentioned, in the last chapter, examples on the
interaction of man-machine and vice-versa that can foretaste the technological
development of a time / Os desenvolvimentos do ser humano e das tecnologias de extensão do próprio
corpo evoluem em ritmo acelerado e levam-nos a diferentes vertentes de estudos. Nesta
dissertação, o homem, os robôs e a cibernética são os objetos estudo e pesquisa.
Historicamente, o homem vem aperfeiçoando sua comunicação e organização
em pequenos e grandes grupos, gerando tecnologia e cultura até chegar ao ponto em que
se encontra a sociedade contemporânea dos povos desenvolvidos.
Ao longo dos séculos, o homem tem inventado e construído máquinas
eletroeletrônicas e eletromecânicas que já evoluíram e ganharam espaço para auxiliar
tarefas de automação da produção até o ponto de substituírem o próprio homem.
No processo de interação do homem com a máquina, as diferenças físicas de
adaptação e desenvolvimento de objetos que imitam as funções humanas despontam
uma visão de um novo ser ; um humano reabilitado artificialmente , caracterizado
como um ciborgue, ou seja, composto por partes orgânicas humanas e também por
partes da tecnologia cibernética, que envolvem as mais diversas áreas da engenharia, da
computação, da medicina e da robótica, entre outras.
Traçando uma linha entre a realidade e a ficção, abordamos, no último capítulo,
exemplos de interação homem-máquina e vice-versa que podem prenunciar o
desenvolvimento tecnológico de uma época
|
120 |
Geração automática e assistida de interfaces de usuário / Automatic and aided generation of user interfacesMrack, Marcelo January 2009 (has links)
A geração automatizada de Interfaces de Usuário (IU) é objeto de estudo há muitos anos. Desde a década de 80, dezenas de projetos foram desenvolvidos e várias soluções apresentadas ao mercado. Entretanto, mesmo com os avanços obtidos neste cenário, inúmeras dificuldades ainda continuam presentes no dia-a-dia dos desenvolvedores de sistemas. A necessidade de processos, sintaxes e linguagens proprietárias associado ao elevado esforço de configuração e à baixa reutilização de tecnologias são os principais problemas nessa área. Objetivando sanar essas dificuldades, este trabalho propõe uma solução diferenciada para o problema, a qual reutiliza e integra-se à maioria das tecnologias comumente presentes nos ambientes de desenvolvimento e que conta com um exclusivo sistema de configuração, capaz de minimizar o trabalho de geração das IU. Sendo um típico gerador baseado em modelos, o software proposto é chamado MERLIN, e objetiva automatizar completamente a geracão de interfaces CRUD, as quais estão presentes em até 30% dos sistemas que operam sobre banco de dados. Para alcançar este objetivo, o software aposta no uso intensivo de heurísticas e na formação de uma estrutura auto-contida e realimentada de configurações, a qual reside unicamente nas classes compiladas da aplicação. Completando a sua arquitetura, um processo de geração em tempo de execução inibe a produção de qualquer linha de código-fonte, o que evita a necessidade de refatoração ao longo da evolução dos sistemas. Com esses elementos em evidência e focando inicialmente a plataforma Java, sinaliza-se uma solução diferenciada, apta para ser utilizada em ambientes profissionais de desenvolvimento. / The automated generation of User Interfaces (UI) has been the object of study for many years. Since the 1980s, dozens of projects have been developed and various solutions presented to the market. However, even with the advances obtained under this scenario, innumerable difficulties still continue to present themselves in the daily routine of system developers. The demands of proprietary methodologies, syntaxes and languages, the high level of effort needed for configuration and low reuse of technologies are the main problems in the area. With the object of rectifying these difficulties, this work proposes a solution specific to the problem, which reuses and combines the majority of the technologies already existing in development environments and relies on an exclusive configuration system, capable to minimize the work of generating the UI. Being a typical model based generator, the software under consideration is called MERLIN, and has as its objective to completely automate the generation of CRUD interfaces, which are present in up to 30% of the systems that interact with data bases. To achieve this objective, the software relies on the intensive use of heuristics and the creation of a self contained configuration feedback structure, which exists solely in the compiled classes of the application. Completing this architecture, a process of execution time generation eliminates the need for any source code, which significantly reduces the costs of refactoring the code throughout the evolution of the systems. With these elements in evidence and focusing initially on the Java platform, indicates that this distinguished solution is ready for use in professional development environments.
|
Page generated in 0.059 seconds