41 |
COMOVI: um framework para transformação de dados em aplicações de credit behavior scoring baseado no desenvolvimento dirigido por modelosOlLIVEIRA NETO, Rosalvo Ferreira de 11 December 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-07-12T12:11:15Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Tese_Rosalvo_Neto_CIN_2015.pdf: 7674683 bytes, checksum: 99037c704450a9a878bcbe93ab8b392d (MD5) / Made available in DSpace on 2016-07-12T12:11:15Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Tese_Rosalvo_Neto_CIN_2015.pdf: 7674683 bytes, checksum: 99037c704450a9a878bcbe93ab8b392d (MD5)
Previous issue date: 2015-12-11 / CAPEs / A etapa de pré-processamento em um projeto de descoberta do conhecimento é custosa,
em geral, consome cerca de 50 a 80% do tempo total de um projeto. É nesta etapa que um
banco de dados relacional é transformado para aplicação de um algoritmo de mineração de
dados. A transformação dos dados nesta etapa é uma tarefa complexa, uma vez que exige uma
forte integração entre projetistas de banco de dados e especialistas do domínio da aplicação. Os
frameworks que buscam sistematizar a etapa de transformação dos dados encontrados na literatura
apresentam limitações significativas quando aplicados a soluções comportamentais, como Credit
Behavior Scoring. Estas soluções visam a auxiliar as instituições financeiras a decidirem sobre
a concessão de crédito aos consumidores com base no risco das solicitações. Este trabalho
propõe um framework baseado no Desenvolvimento Dirigido por Modelos para sistematizar
esta etapa em soluções de Credit Behavior Scoring. Ele é composto por um meta-modelo que
mapeia os conceitos do domínio e um conjunto de regras de transformações. As três principais
contribuições do framework proposto são: 1) aumentar o poder discriminatório da solução,
através da construção de novas variáveis que maximizam o conteúdo estatístico da informação
do domínio; 2) reduzir o tempo da transformação dos dados através da geração automática de
código e 3) permitir que profissionais e pesquisadores de Inteligência Artificial e Estatística
realizem a transformação dos dados sem o auxílio de especialistas de Banco de Dados. Para
validar o framework proposto, dois estudos comparativos foram realizados. Primeiro, um estudo
comparando o desempenho entre os principais frameworks existentes na literatura e o framework
proposto foi realizado em duas bases de dados. Uma base de dados de um conhecido benchmark
de uma competição internacional organizada pela PKDD, e outra obtida de uma das maiores
empresas de varejo do Brasil, que possui seu próprio cartão de crédito. Os frameworks RelAggs
e Validação de Múltiplas Visões Baseado em Correção foram escolhidos como representantes
das abordagens proposicional e mineração de dados relacional, respectivamente. A comparação
foi realizada através do processo de validação cruzada estratificada, para definir os intervalos de
confiança para a avaliação de desempenho. Os resultados mostram que o framework proposto
proporciona um desempenho equivalente ou superior aos principais framework existentes, medido
pela área sob a curva ROC, utilizando uma rede neural MultiLayer Perceptron, K vizinho mais
próximos e Random Forest como classificadores, com um nível de confiança de 95%. O segundo
estudo verificou a redução de tempo proporcionada pelo framework durante a transformação dos
dados. Para isso, sete times compostos por estudantes de uma universidade brasileira mensuraram
o tempo desta atividade com e sem o framework proposto. O teste pareado Wilcoxon Signed-Rank
mostrou que o framework proposto reduz o tempo de transformação com um nível de confiança
de 95%. / The pre-processing stage in knowledge discovery projects is costly, generally taking
between 50 and 80% of total project time. It is in this stage that data in a relational database are
transformed for applying a data mining technique. This stage is a complex task that demands
from database designers a strong interaction with experts who have a broad knowledge about
the application domain. The frameworks that aim to systemize the data transformation stage
have significant limitations when applied to behavior solutions such as the Credit Behavior
Scoring solutions. Their goal is help financial institutions to decide whether to grant credit to
consumers based on the credit risk of their requests. This work proposes a framework based on
the Model Driven Development to systemize this stage in Credit Behavioral Scoring solutions.
It is composed by a meta-model which maps the domain concepts and a set of transformation
rules. This work has three main contributions: 1) improving the discriminant power of data
mining techniques by means of the construction of new input variables, which embed new
knowledge for the technique; 2) reducing the time of data transformation using automatic code
generation and 3) allowing artificial intelligence and statistics modelers to perform the data
transformation without the help of database experts. In order to validate the proposed framework,
two comparative studies were conducted. First, a comparative study of performance between
the main existing frameworks found in literature and the proposed framework applied to two
databases was performed. One database from a known benchmark of an international competition
organized by PKDD, and another one obtained from one of the biggest retail companies from
Brazil, that has its own private label credit card. The RelAggs and Correlation-based Multiple
View Validation frameworks were chosen as representatives of the propositional and relational
data mining approaches, respectively. The comparison was carried out through by a 10-fold
stratified cross-validation process with ten stratified parts in order to define the confidence
intervals. The results show that the proposed framework delivers a performance equivalent or
superior to those of existing frameworks, for the evaluation of performance measured by the area
under the ROC curve, using a Multilayer Perceptron neural network, k-nearest neighbors and
Random Forest as classifiers, with a confidence level of 95%. The second comparative study
verified the reduction of time required for data transformation using the proposed framework.
For this, seven teams composed by students from a Brazilian university measured the runtime of
this stage with and without the proposed framework. The paired Wilcoxon Signed-Rank’s Test
showed that the proposed framework reduces the time of data transformation with a confidence
level of 95%.
|
42 |
Um Componente para Geração e Evolução de Esquemas de Bancos de Dados como Suporte à Construção de Sistemas de Informação / A Component to Generate and Evolve Database Schema Supporting Information Systems ConstrutionALMEIDA, Alexandre Cláudio de 22 November 2010 (has links)
Made available in DSpace on 2014-07-29T14:57:47Z (GMT). No. of bitstreams: 1
Dissertacao Valdomeria N de M Morgado 2010.pdf: 793904 bytes, checksum: 6ebfc3ed36711bf080787eaa46eea743 (MD5)
Previous issue date: 2010-11-22 / An Information System (IS) has three main aspects: a database that contains data which is processed to generate business information; an application functions which transforms data in information; and business rules which control and restrict data manipulated by the functions. An IS evolves continuously to follow the corporation changes, and the database should be change to attend the new requirements. This dissertation presents a model driven approach to generate and evolve IS databases. A software component, called Especialista em Banco de Dados (EBD), was developed. There are two mapping sets for database generation: from Modelo de Meta Objeto (MMO) (used to representing IS) to Relational Model (RM), and from this to DBMS PostgreSQL SQL dialect. The component EBD is a part of a framework for modeling, building and maintaining enterprise information systems software. This component provides services to other framework components. To validate the proposed approach, Software Engineers had developed IS using the component EBD. The Dissertation main contributions are an approach to support IS database life cycle, a software architecture to generate and evolve IS database schema,
an IS data representation model (MMO), a mapping specification to generate schema and stored procedures and the definition of automated operation sets to evolve IS database schema. / Um Sistema de Informação (SI) Corporativo tem três aspectos principais: o banco de dados, que contém dados que são processados para gerar informações do negócio; as funções de aplicação, que transformam dados em informações; e as regras de negócio, que controlam e restringem a manipulação dos dados pelas funções. Um SI precisa evoluir continuamente para acompanhar as mudanças na corporação e, consequentemente, o banco de dados deve ser modificado para atender aos novos requisitos de negócio. Esta dissertação apresenta uma abordagem dirigida por modelos para a automatização do processo de transformação na geração e evolução de bancos de dados de Sistema de
Informação. Para isso foi criado um componente de software denominado Especialista em Banco de Dados (EBD). Dois conjuntos de mapeamentos são apresentados para a geração
de esquemas, um do modelo conceitual chamado Modelo de Meta Objeto (MMO), utilizado para representação de SI, para o Modelo Relacional; e deste para o dialeto SQL do SGBD PostgreSQL. O componente EBD faz parte de um framework que gera, evolui e gerencia Sistemas de Informação. Este componente fornece também serviços para outros componentes deste framework. Uma experimentação foi feita com engenheiros de software com experiência em desenvolvimento de Sistema de Informação para validar a
abordagem proposta. As principais contribuições desta dissertação são: abordagem que apoia ciclo de vida de BD de SI, arquitetura de software que permite a geração e evolução
de esquema de SI, especificação de um modelo de representação de dados de SI (MMO), especificação de mapeamentos para geração de esquema e procedimentos de manipulação e definição de um conjunto de operações que automatizam o processo de evolução de esquema de BD de SI.
|
43 |
Arquitetura de software aviônico de um VANT com requisitos de homologação. / Sem título em inglêsGiovani Amianti 20 February 2008 (has links)
Recentemente, um crescente número de institutos de pesquisa pelo mundo tem focado seus estudos em veículos aéreos não tripulados (VANT ou, em inglês, UAV - Unmanned Aerial Vehicle), que se revelam muito úteis tanto em aplicações militares quanto civis, pois suas principais vantagens são: a alta confiabilidade, baixo risco à vida, reduzido custo de implantação e manutenção. A pesquisa apresentada neste trabalho integra-se ao projeto BR-UAV em desenvolvimento na empresa Xmobots Sistemas Robóticos LTDA e no Laboratório de Veículos Não Tripulados (LVNT) da Escola Politécnica da USP. O projeto BR-UAV visa a contribuir para a inserção desta tecnologia no país e, para tanto, desenvolve atualmente a plataforma, aviônica e sistema de controle autônomo voltados ao objetivo de monitoramento no espectro visível e infravermelho. O principal requisito do projeto BR-UAV é o desenvolvimento de um sistema aéreo não tripulado capaz de voar dentro do espaço aéreo controlado. Esta pesquisa foca no desenvolvimento do software embarcado, assim este software deve ser desenvolvido de acordo com uma metodologia direcionada a homologação. Por isso, este trabalho propõe uma metodologia que foi baseada em cinco elementos: processo de desenvolvimento, normas, ferramentas de sistema operacional, ferramentas de aplicação e ferramentas matemáticas. Após o estabelecimento dos objetivos, de uma análise do estado da arte em sistemas aviônicos, e da metodologia de certificação, o processo de desenvolvimento foi inicializado. Na fase de engenharia de sistemas, os requisitos de sistema foram capturados. Então a arquitetura de sistema (hardware e software) foi modelada e analisada. A partir desta modelagem de sistema, os requisitos funcionais e temporais de software puderam ser capturados na etapa de análise da fase de engenharia de software. Na etapa de Implementação, o interior dos agentes foi codificado.Além disso, foi implementado o filtro de Kalman estendido para integrar informações de GPS, unidade de medição inercial e bússola. Na etapa de Testes, foram realizados testes de integração funcional e de desempenho computacional. Os resultados demonstraram que o sistema atendeu a todos os requisitos consumindo 38.3% de processamento. Finalmente, os próximos passos desta pesquisa são discutidos. / Recently, an increasing number of research institutes around the world has been focusing their efforts in the study of unmanned aerial vehicles (UAV), which have proved to be very useful both in military and civil applications because of their major advantages: high reliability, reduced risk to life, reduced maintenance and implantation costs. The research presented in this work is part of the BR-UAV project, which is in development at XMobots Sistemas Robóticos LTDA and at the Laboratório de Veículos Não Tripulados of USP (Brazil). This project aims to contribute for the insertion of this technology in Brazil. Particularly, at the present stage, the project includes the development of the platform, avionics and autonomous control system for environment monitoring via visible and infrared spectrums. The main requirement of BR-UAV Project is the development of an unmanned aerial system that could flight in controlled airspace. This research is focused on the development of embedded software, and therefore this software should be developed according to a certification methodology. For this purpose, this work proposes a methodology that was based into five guidelines: development process, norms, operating system tools, application tools and mathematical tools. The development process was started after the statement of objectives and the analysis of the state of art on UAV avionics. In the systems engineering phase, system requirements were captured and then the system architecture (hardware and software) was modeled and analyzed. From the system modeling, the functional and temporal software requirements could be captured in the analysis stage of the software engineering phase. In the Implementation stage, the agents were coded as well as the Extended Kalman Filter for integrating information from GPS, inertial measurement unit and Compass sensors. In the Tests stage, integration tests were performed.The results showed that the system could fulfill requirements using 38.3% of processing consumption. Finally, the next steps of this research are discussed.
|
44 |
Estudo sobre o fluxo dirigido / A study about directed flowArthur Luciano Vezzoni Ramos dos Reis 07 October 2010 (has links)
Nesta tese estudamos o fluxo dirigido, a primeira componente na expansão de Fourier da distribuição azimutal das partículas emitidas. Diferente do fluxo elíptico, que é muito bem estudado e descrito na literatura, a física que gera este observável ainda não é muito conhecida. Mostramos que este observável é altamente sensível a condições iniciais, comparando vários resultados numéricos para diferentes condições iniciais, entre analíticas e numéricas. Propomos que o fluxo dirigido também é sensível à aceleração longitudinal e formulamos um modelo analítico baseado nesta hipótese. Este modelo sugere quais ingredientes são relevantes para o fluxo dirigido. Ele é confrontado com sucesso com cálculos numéricos, resultados experimentais e cálculos que não incluem a aceleração longitudinal. / In this thesis we study the directed flow, the first component in the Fourier\'s expansion of the azimuthal distribution of emitted particles. Unlike the elliptic flow, which is well studied and described in the literature, the physics that generates this observable is not yet well described. We show that this observable is highly sensible to the initial conditions, comparing several numeric results with different initial conditions, between analytic and numeric ones. We propose that the directed flow is also sensitive to the longitudinal acceleration and we formulate an analytic model based in this hypothesis. This model suggests which ingredients are relevant to the directed flow. It is confronted with success against numeric calculus, experimental results, and calculus that do not include the longitudinal acceleration.
|
45 |
[en] A MODEL-DRIVEN WIZARD TO AID IN DEVELOPING WEB APPLICATIONS / [pt] UM ASSISTENTE DIRIGIDO POR MODELOS PARA AUXÍLIO AO DESENVOLVIMENTO DE APLICAÇÕES WWWMILENA OSSORIO LAMI 22 February 2016 (has links)
[pt] As aplicações na WWW são exemplos de aplicações hipermídia. O desenvolvimento destas aplicações, mesmo utilizando metodologias de projeto, tem uma complexidade elevada. Existem propostas dirigidas por modelos para ajudar ao projetista, mas estas requerem de uma curva de aprendizado alta para os não familiarizados com os modelos. Este trabalho aborda este problema oferecendo uma abordagem que, fazendo uso de uma metodologia dirigida por modelos, permite a autoria de aplicações em um ambiente mais próximo à intenção do usuário. Se apresenta uma ferramenta com características de assistente (wizard) que permite a criação de aplicações através de exemplos, utilizando interfaces com dados concretos. O assistente usa aspectos da técnica de programação por exemplo e do estilo de interação de manipulação direta que contribuem para facilitar o desenvolvimento. / [en] Web applications can be seen as examples of hypermedia applications. Developing such applications is a complex endeavor, even when using design methods. There are model-driven methods aimed at helping the designer, but they still require a steep learning curve for those unfamiliar with the models. This work addresses this problem through a model-driven wizard that helps the designer through the use of examples and concrete data-driven interfaces. This wizard uses direct manipulation techniques to help easing the designer s tasks.
|
46 |
OOWS: un mètode dirigit per models per al desanvolupament d'aplicacions webFons Cors, Joan Josep 07 May 2008 (has links)
Internet se ha convertido por méritos propios en el medio de comunicación por excelencia. La velocidad con la que se puede intercambiar información unida a la eliminación de las barreras geográ?cas y tecnológicas han convertido a Internet en la plataforma preferida para divulgar el conocimiento y hacer negocios.
Para llevar a cabo el desarrollo de aplicaciones software en estos entornos, han aparecido numerosas aproximaciones que aplican lo que se conoce como Ingeniería Web. Estas aproximaciones de?nen processos de desarrollo y extensiones conceptuales basadas en modelos, orientadas a la construcción de aplicaciones web.
Por otro lado están los principios del Desarrollo Dirigido por Modelos donde se proporcionan marcos conceptuales y entornos que permiten construir processos de desarrollo con generación de código a partir de modelos.
Bajo esta perspectiva se enmarca esta tesis, en la que se de?ne OOWS, un entorno de producción de software para la web que aplica los principios que se proponen en la Ingeniería Web y en el Desarrollo Dirigido por Modelos. Este entorno de?ne un proceso de desarrollo en base a unos modelos conceptuales extendidos con características web y una estrategia para obtener automáticamente la aplicación web a partir de estos modelos OOWS.
Para dar suporte a esta aproximación se ha construido una herramienta que permite editar y gestionar estos modelos conceptuales web, y que implementa las transformaciones que permiten obtener un prototipo de la aplicación web a partir de estos modelos. / Fons Cors, JJ. (2008). OOWS: un mètode dirigit per models per al desanvolupament d'aplicacions web [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1989
|
47 |
Marco para la captura de requisitos de usabilidad en entornos de MDDOrmeño Ayala, Yeshica Isela 23 January 2024 (has links)
Tesis por compendio / [ES] La investigación desarrollada en esta tesis representa un marco novedoso para capturar requisitos de usabilidad durante el desarrollo de un sistema software. Estos requisitos, están representados como alternativas de diseños de Interfaces de Usuario (IU). El objetivo es desarrollar un proceso de captura de requisitos de usabilidad basado en entrevistas estructuradas con el apoyo de una herramienta que ayude a resolver problemas como: (1) la omisión de la usabilidad desde las primeras etapas de desarrollo, en general, las características de usabilidad solo se tienen en cuenta al diseñar las interfaces en las últimas etapas de desarrollo; (2) resulta tedioso la captura de requisitos para analistas que no son expertos en usabilidad; (3) los métodos y herramientas que se utilizan para desarrollar software no admiten la elicitación de requisitos de usabilidad. A partir de estos problemas encontrados en la literatura se definen las preguntas de investigación: ¿Es posible capturar requisitos de usabilidad en etapas iniciales de desarrollo al mismo tiempo que los requisitos funcionales? Para responder a esta pregunta, la tesis ha definido un método de elicitación de requisitos de usabilidad llamado UREM (por sus siglas en inglés, Usability Requirements Elicitation Method) y ha propuesto un método para tratarlo dentro de entornos MDD.
El desarrollo de este trabajo de investigación se ha llevado a cabo siguiendo la metodología Design Science. Esta metodología considera dos ciclos: el primer ciclo es un ciclo de ingeniería en el que se diseña un método para incluir requisitos de usabilidad durante el proceso de elicitación de requisitos. El segundo ciclo corresponde a la validación del método propuesto mediante una evaluación empírica dentro de un contexto académico.
La propuesta de captura de requisitos de usabilidad mediante UREM consiste en la definición de una estructura de un árbol donde las guías de usabilidad y las guías de diseño de IU están almacenadas. El árbol se define como un grafo conectado sin ciclos y una raíz; compuesto de 4 elementos: pregunta, respuesta, grupo de preguntas y diseño.
Las preguntas y las alternativas de diseño (respuestas) son extraídas de las guías de usabilidad y de diseño, y marcan el camino por el cual el analista navega hasta llegar a los nodos hoja que son los diseños de la interfaz de usuario que se han alcanzado durante el proceso de captura de requisitos de usabilidad. Son los usuarios finales quienes eligen la alternativa más adecuada dependiendo de sus requisitos y/o siguiendo las recomendaciones ya preestablecidas en la estructura del árbol. La construcción del árbol la lleva a cabo un experto en usabilidad y puede ser utilizado en reiteradas ocasiones, generando así diversas alternativas de diseño de interfaz de usuario.
La tesis presenta el trabajo relacionado en tres áreas: elicitación de requisitos de usabilidad, uso de guías de usabilidad e ingeniería empírica de software. / [CA] La investigació desenvolupada en aquesta tesi representa un marc nou per a capturar requisits d'usabilitat durant el desenvolupament d'un sistema programari. Aquests requisits, estan representats com a alternatives de dissenys d'Interfícies d'Usuari (IU). L'objectiu és desenvolupar un procés de captura de requisits d'usabilitat basat en entrevistes estructurades amb el suport d'una eina que ajude a resoldre problemes com: (1) l'omissió de la usabilitat des de les primeres etapes de desenvolupament, en general, les característiques d'usabilitat només es tenen en compte en dissenyar les interfícies en les últimes etapes de desenvolupament; (2) resulta tediós la captura de requisits per a analistes que no són experts en usabilitat; (3) els mètodes i eines que s'utilitzen per a desenvolupar programari no admeten l'elicitació de requisits d'usabilitat. A partir d'aquests problemes trobats en la literatura es defineixen les preguntes d'investigació: És possible capturar requisits d'usabilitat en etapes inicials de desenvolupament al mateix temps que els requisits funcionals? Per a respondre a aquesta pregunta, la tesi ha definit un mètode d'elicitació de requisits d'usabilitat anomenat UREM (per les seues sigles en anglés, Usability Requirements Elicitation Method) i ha proposat un mètode per a tractar-lo dins d'entorns MDD.
El desenvolupament d'aquest treball de recerca s'ha dut a terme seguint la metodologia Design Science. Aquesta metodologia considera dos cicles: el primer cicle és un cicle d'enginyeria en el qual es dissenya un mètode per a incloure requisits d'usabilitat durant el procés d' elicitació de requisits. El segon cicle correspon a la validació del mètode proposat mitjançant una avaluació empírica dins d'un context acadèmic.
La proposta de captura de requisits d'usabilitat mitjançant UREM consisteix en la definició d'una estructura d'un arbre on les guies d'usabilitat i les guies de disseny d'IU estan emmagatzemades. L'arbre es defineix com un graf connectat sense cicles i una arrel; compost de 4 elements: pregunta, resposta, grup de preguntes i disseny.
Les preguntes i les alternatives de disseny (respostes) són extretes de les guies d'usabilitat i de disseny, i marquen el camí pel qual l'analista navega fins a arribar als nodes fulla que són els dissenys de la interfície d'usuari que s'han aconseguit durant el procés de captura de requisits d'usabilitat. Són els usuaris finals els qui trien l'alternativa més adequada depenent dels seus requisits i/o seguint les recomanacions ja preestablides en l'estructura de l'arbre. La construcció de l'arbre la duu a terme un expert en usabilitat i pot ser utilitzat en reiterades ocasions, generant així diverses alternatives de disseny d'interfície d'usuari.
La tesi presenta el treball relacionat en tres àrees: elicitació de requisits d'usabilitat, ús de guies d'usabilitat i enginyeria empírica de programari. / [EN] The research developed in this thesis represents a novel framework for capturing usability requirements during the development of a software system. These requirements are represented as alternative User Interface (UI) designs. The objective is to develop a usability requirements capture process based on structured interviews with the support of a tool that helps solve problems such as: (1) the omission of usability from the early stages of development, in general, the characteristics of Usability is only taken into account when designing interfaces in the later stages of development; (2) it is tedious to capture requirements for analysts who are not usability experts; (3) the methods and tools used to develop software do not support the elicitation of usability requirements. Based on these problems found in the literature, the research questions are defined: Is it possible to capture usability requirements in initial stages of development at the same time as functional requirements? To answer this question, the thesis has defined a usability requirements elicitation method called UREM (Usability Requirements Elicitation Method) and has proposed a method to treat it within MDD environments.
The development of this research work has been carried out following the Design Science methodology. This methodology considers two cycles: the first cycle is an engineering cycle in which a method is designed to include usability requirements during the requirements elicitation process. The second cycle corresponds to the validation of the proposed method through an empirical evaluation within an academic context.
The proposal to capture usability requirements through UREM consists of the definition of a tree structure where the usability guides and UI design guides are stored. The tree is defined as a connected graph without cycles and a root; composed of 4 elements: question, answer, group of questions and design.
The questions and design alternatives (answers) are extracted from the usability and design guides, and mark the path along which the analyst navigates until reaching the leaf nodes, which are the user interface designs that have been achieved. during the usability requirements capture process. It is the end users who choose the most appropriate alternative depending on their requirements and/or following the recommendations already pre-established in the tree structure. The construction of the tree is carried out by a usability expert and can be used repeatedly, thus generating various user interface design alternatives.
The thesis presents related work in three areas: usability requirements elicitation, use of usability guides, and empirical software engineering. / This work has been developed with the support of MICINN (PROS-Req TIN2010-19130-C02- 02), UV (UV-INV-PRECOMP13-115032),
GVA (ORCA PROMETEO/2009/015), and cofinanced with ERDF.
We also acknowledge the support of the Intra European Marie Curie
Fellowship Grant 50911302 PIEF-2010. We acknowledge also the support from the National University
of San Antonio Abad of Cusco under the program Yachayninchis
Wiñarinanpaq CONCYTEC and FONDECYT, the support of
Generalitat Valenciana with CoMoDID (CIPROM/2021/023) and
GENI (CIAICO/2022/229), as well as the support of the Spanish
Ministry of Science and Innovation co-financed by FEDER in the
project SREC (PID2021-123824OB-I00) / Ormeño Ayala, YI. (2023). Marco para la captura de requisitos de usabilidad en entornos de MDD [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202630 / Compendio
|
48 |
Determinação de parâmetros do modelo pressão-vazamento para setor de distribuição de água da cidade de Piracicaba, SP / Determination of parameters of the pressure-leakage model for a water supply network of Piracicaba city, SPManzi, Daniel 30 April 2004 (has links)
A redução das perdas em sistemas de distribuição de água tem se tornado, além de uma questão ética, um determinante da eficiência e mesmo da sobrevivência das concessionárias destes serviços. A quantificação e determinação da natureza das vazões perdidas, que possuem relação íntima com as pressões de operação, são aspectos que ainda merecem análises mais profundas e práticas. Os parâmetros do modelo pressão-vazamento permitem o detalhamento das perdas físicas e foram obtidos por meio de calibrações para um setor de distribuição de água da cidade de Piracicaba, SP, em padrões hidráulicos distintos - sob hipótese de consumo noturno nulo (vazão mínima noturna), descargas de rede, patamares de pressão e sob consumo diurno dirigido pela pressão através de curvas encontradas na literatura e propostas. Os resultados obtidos indicaram que os valores dos parâmetros do modelo pressão-vazamento não são fixos, mas variam conforme o padrão hidráulico de operação da rede. Estudos acerca do parque de hidrômetros e seus desvios de indicação também foram realizados, em conjunto com uma análise das vazões típicas de abastecimento residencial, e apontaram para fortes erros de medição em razão do uso de reservatórios domiciliares. / Losses reduction on water supply networks came to be, beyond the ethical question, a condition for efficiency and even survival of enterprises which develop those services. Quantification and determination of the nature of leakage, which are closely related to operational pressure, are aspects which still claim for deeper and more practical analysis. Parameters to the pressure-leakage model allows to detail physical losses at one given system, and they were obtained throughout employment of distinct hydraulic patterns - minimal night flow (no usage), network flush situations, pressure levels and day usage driven by pressure from curves found on lectures and author\'s propositions - when proceeding calibration at a water supply section at the Piracicaba city, SP. Achieved results have shown that pressure-leakage model parameters values are not constant, but really change according to network\'s operational hydraulic pattern. Studies concerning section\'s water flow meters and its measuring deviation were also done, and joined to an analysis of typical patterns of home usage flows; they have pointed to huge metering errors because of employment of home reservoirs.
|
49 |
Catálogo de modelos de computação para o desenvolvimento de linguagens específicas de modelagem de domínio. / Catalog of models of computation for the development of domain-specific modeling languages.Fernandes, Sergio Martins 13 June 2013 (has links)
Esta tese apresenta um processo para a criação de um catálogo de modelos de computação para apoiar o design de DSMLs, e a primeira versão do catálogo, com atributos que ajudam a selecionar os modelos de computação mais adequados para cada desenvolvimento de DSML, e as características dos sistemas de software para os quais esses modelos de computação são mais adequados. O contexto de aplicação desse catálogo é o Model-Driven Development (MDD desenvolvimento dirigido por modelos) a abordagem em que o desenvolvimento de software é baseado em modelos gráficos que são posteriormente traduzidos (transformados) em modelos de nível mais baixo e, no final, em código de linguagens de programação, tais como Java ou C#. A aplicação do processo gerou uma versão inicial do catálogo com os seguintes modelos de computação: diagramas BPMN, diagramas de classe da UML e regras de negócio. Visa-se contribuir para popularizar a abordagem de MDD com base em DSMLs e, em particular, a elaboração do design das DSMLs a partir de modelos de domínio, para o que o uso do catálogo efetivamente contribui. / This thesis presents a process for the creation of a catalog of models of computation to support the design of Domain-Specific Modeling Languages (DSMLs), and the first version of the catalog, which comprises attributes that aim to help the selection of the most suitable models of computation for each DSML development, and characteristics of software systems for which these models of computation are more appropriate. The context for the use of the catalog is the Model-Driven Development (MDD) - the approach where software development is based on graphical models that are subsequently translated (transformed) into lower-level models and, in the end, in source code in programming languages, such as Java or C #. The process was applied to generate an initial version of the catalog with the following models of computation: BPMN diagrams, UML class diagrams and business rules. It aims to contribute to popularize the MDD approach based in DSMLs, and in particular, the development of the DSMLs design from domain models, for which the use of the catalog effectively contributes.
|
50 |
EqualizaÃÃo adaptativa e autodidata de canais lineares e nÃo-lineares utilizando o algoritmo do mÃdulo constante / Autodidact and adaptive equalization of the nonlinear and linear channels using the constant module algorithmCarlos Alexandre Rolim Fernandes 05 August 2005 (has links)
Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico / Este trabalho trata da proposiÃÃo de algoritmos para equalizaÃÃo cega de canais lineares e nÃao-lineares inspirados no Algoritmo do MÃdulo Constante (CMA). O CMA funciona de maneira bastante eficiente com constelaÃÃes nas quais todos os pontos possuem a mesma amplitude, como em modulaÃÃes do tipo Phase Shift Keying (PSK). Entretanto, quando os pontos da constelaÃÃo podem assumir diferentes valores de amplitudes, como em modulaÃÃes do tipo Quadrature Amplitude Modulation (QAM), o CMA e seus derivados muitas vezes nÃo funcionam de forma satisfatÃria. Desta forma, as tÃcnicas aqui propostas
sÃo projetadas para melhorar a performance do CMA em termos de velocidade de convergÃncia e precisÃo, quando operando em sinais transmitidos com diversos mÃdulos, em particular para a modulaÃÃo QAM. Assim como o CMA, para possuir um bom apelo
prÃtico, essas tÃcnicas devem apresentar bom compromisso entre complexidade, robustez e desempenho. Para tanto, as tÃcnicas propostas utilizam o Ãltimo sÃmbolo decidido para
definir uma estimaÃÃo de raio de referÃncia para a saÃda do equalizador. De fato, esses algoritmos podem ser vistos como generalizaÃÃes do CMA e de alguns derivados do CMA
para constelaÃÃes com mÃltiplos raios. A proposiÃÃo de algoritmos do tipo gradiente estocÃstico à concluÃda com o
desenvolvimento de tÃcnicas originais, baseadas no CMA, para equalizaÃÃo de canais do tipo Wiener, que consiste em um filtro linear com memÃria, seguido por um filtro nÃo-linear sem memÃria. As expressÃes para a adaptaÃÃo do equalizador sÃo encontradas com o auxÃlio de uma notaÃÃo unificada para trÃs diferentes estruturas: i) um filtro de Hammerstein; ii) um filtro de Volterra diagonal; e iii) um filtro de Volterra completo. Um estudo teÃrico acerca do comportamento do principal algoritmo proposto, o Decision Directed Modulus Algorithm (DDMA) à realizado. SÃo analisadas a convergÃncia e a estabilidade do algoritmo atravÃs de uma anÃlise dos pontos de mÃnimo de sua funÃÃo custo. Outro objetivo à encontrar o valor teÃrico do Erro MÃdio QuadrÃtico MÃdio em Excesso - Excess Mean Square Error (EMSE) fornecido pelo DDMA considerando-se o caso sem ruÃdo. Ao final, à feito um estudo em que se constata que o algoritmo DDMA possui fortes ligaÃÃes com a soluÃÃo de Wiener e com o CMA. VersÃes normalizadas, bem como versÃes do tipo Recursive Least Squares (RLS), dos algoritmos do tipo gradiente estocÃstico estudados sÃo tambÃm desenvolvidas. Cada famÃlia de algoritmos estudada fie composta por quatro algoritmos com algumas propriedades interessantes e vantagens sobre as tÃcnicas clÃssicas, especialmente quando operando em sinais QAM de ordem elevada. TambÃm sÃo desenvolvidas versÃes normalizadas e do tipo RLS dos algoritmos do tipo CMA estudados para equalizaÃÃo de canais nÃo-lineares. O comportamento de todas as famÃlias de algoritmos desenvolvidos à testado atravÃs de simulaÃÃes computacionais, em que à verificado que as tÃcnicas propostas fornecem
ganhos significativos em desempenho, em termos de velocidade de convergÃncia e erro residual, em relaÃÃo Ãs tÃcnicas clÃssicas. / This work studies and proposes algorithms to perform blind equalization of linear and nonlinear channels inspired on the Constant Modulus Algorithm (CMA). The CMA works very well for modulations in which all points of the signal constellation have the same radius, like in Phase Shift Keying (PSK) modulations. However, when the constellation points are characterized by multiple radii, like in Quadrature Amplitude Modulation (QAM) signals, the CMA does not work properly in many situations. Thus, the techniques proposed here are designed to improve the performance of the CMA, in terms of speed of convergence and residual error, when working with signals transmitted with multiple magnitude, in particular with QAM signals. As well as for the CMA, these techniques should have a good compromise among performance, complexity and robustness. To do so, the techniques use the last decided symbol to estimate reference
radius to the output of the equalizer. In fact, they can be seen as modifications of the CMA and of some of its derivatives for constellations with multiple radii. The proposition of stochastic gradient algorithms is concluded with the development of new adaptive blind techniques to equalize channels with a Wiener structure. A Wiener filter consists of a linear block with memory followed by a memoryless nonlinearity, by using the CMA. We develop expressions for the adaptation of the equalizer using a unified notation for three different equalizer filter structures: i) a Hammerstein filter, ii) a diagonal
Volterra filter and iii) a Volterra filter. A theoretical analysis of the main proposed technique, the Decision Directed Modulus Algorithm (DDMA), is also done. We study the convergence and the stability of the DDMA by means of an analysis of the minima of the DDM cost function. We also
develop an analytic expression for the Excess Mean Square Error (EMSE) provided by the DDMA in the noiseless case. Then, we nd some interesting relationships among the DDM, the CM and the Wiener cost functions. We also develop a class of normalized algorithms and a class of Recursive Least Squares (RLS)-type algorithms for blind equalization inspired on the CMA-based techniques studied. Each family is composed of four algorithms with desirable properties
and advantages over the original CM algorithms, specially when working with high-level QAM signals. Normalized and RLS techniques for equalization of Wiener channels are
also developed. The behavior of the proposed classes of algorithms discussed is tested by computational simulations. We verify that the proposed techniques provide significative gains in performance, in terms of speed of convergence and residual error, when compared
to the classical algorithms.
|
Page generated in 0.0385 seconds