• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 146
  • 17
  • 9
  • 1
  • Tagged with
  • 174
  • 73
  • 69
  • 69
  • 58
  • 48
  • 45
  • 39
  • 39
  • 38
  • 37
  • 36
  • 34
  • 33
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Uma abordagem de desenvolvimento de linha de produtos orientada a modelos para a construção de famílias de sistemas embarcados críticos / A model-driven product line development approach to build safety-critical embedded families

Paulo Gabriel Gadelha Queiroz 20 January 2015 (has links)
Sistemas embarcados críticos (SEC) correspondem aos sistemas embarcados para aplicações críticas, que são aplicações nas quais falhas podem por vidas em perigo. A crescente imersão deste tipo de sistema em nossas atividades cotidianas aumentou sua demanda, e consequentemente, a necessidade por novas técnicas de desenvolvimento que possam aumentar a produtividade dos desenvolvedores. Linha de produtos (LP) é uma técnica de reúso, na qual famílias de produtos similares são desenvolvidos em conjunto, e portanto, objetiva-se o desenvolvimento em larga escala. Com a utilização de LP, pode-se reusar requisitos e arquitetura de forma sistemática. Entretanto, o reúso no domínio de sistemas embarcados críticos ainda é visto de forma cética. Por outro lado, o domínio de SEC tem obtido avanços de desenvolvimento por meio de técnicas orientadas a modelo. A Engenharia orientada a modelos (MDE) concentra-se na importância de modelos no ciclo de vida do sistema, tornando-os parte do produto final. Assim, mantêm-se os modelos simples, e a maioria da complexidade do software passa a pertencer às transformações, que podem ser obtidas automaticamente por motores de transformação. Isso ajuda a aumentar a qualidade do produto final, bem como facilitar a futura evolução do software, que poderá ser feita mudando-se os modelos de alto nível e obtendo-se, de forma automática, o novo produto. MDE é particularmente útil no domínio de SEC, pois a partir de modelos corretos do problema, a chance de introdução de erros durante a codificação é menor se geradores de aplicações forem utilizados em vez de codificação manual. Além disso, o aumento no nível de abstração proporcionado pelo MDE permite que técnicas de validação e verificação sejam usadas desde os estágios iniciais de desenvolvimento, tais como co-design e co-simulação. Portanto, este trabalho visa defender a tese de que é possível oferecer os benefícios do desenvolvimento em larga escala para o domínio de SEC e ainda continuar se beneficiando de técnicas de MDE. Para corroborar esta tese, define-se uma abordagem de desenvolvimento de linha de produtos de sistema com uso de técnicas de engenharia orientada a modelos para o desenvolvimento de famílias de sistemas embarcados críticos. Além disso, apresenta-se um estudo de caso de marca-passo elaborado segundo as indicações da abordagem proposta que indicam a viabilidade de sua utilização. / Safety-critical embedded systems (SCES) correspond to embedded systems for critical applications, i.e., applications where lives can be lost if they fail. The increasing immersion of this type of system in our daily activities increased their demand and, consequently, the need for new development techniques that can increase developers productivity. Product Line (LP) is a promising technique for reuse, in which families of similar products are developed together and, therefore, it aims at large-scale development. With the use of LP we can reuse requirements and architecture systematically. However, developers remain sceptical about reuse in the SCES domain, mainly due to problems in the past, such as the failure of the spacecraft Ariane 5. In addition, advances in development of techniques for the SEC domain have been obtained, for example through model-driven engineering (MDE) approaches. MDE focuses on the importance of models in the software life cycle, making them part of the final product. So, it keeps models simple, and most of the software complexity belongs to the transformations that can be obtained automatically by transformation engines. This helps increasing the quality of the final product, and facilitate the future development of software that can be done by changing the high level models and obtaining, automatically, the new product. MDE is particularly useful in the SCES domain because, from correct models of the problem, the chance of introducing errors during coding is smaller if generators are used in the development instead of manual coding. In addition, the increased level of abstraction provided by MDE allows the use of validation and verification techniques since the early stages of development, such as co-design and co-simulation. Therefore, this work aims to defend the thesis that it is possible to offer the benefits of large-scale development for the SCES domain and still continue to benefit from MDE techniques. In support of this thesis, we define a system product line approach using model-driven techniques for the development of safety-critical embedded families. In addition, we present a case study prepared according to the directions of approach.
82

Compreensão visual de frameworks através da introspeção de exemplos / Visual understanding of frameworks through instrospection of examples

Campo, Marcelo Ricardo January 1997 (has links)
Os frameworks orientado a objetos oferecem um grande potencial para aumentar a produtividade e a qualidade no desenvolvimento de software. Um framework e uma infra-estrutura ou esqueleto de uma família de aplicações pertencentes a um domínio determinado. Basicamente, aplicações especificas são construídas especializando as classes do framework para fornecer a implementação de alguns métodos, enquanto a maior parte da funcionalidade da aplicação e herdada. Esta característica permite a reutilização tanto do código quanto o projeto das aplicações do domínio, o qual representa um beneficio muito significativo a respeito de outras tecnologias de reutilização. Entretanto, começar a utilizar um framework para construir aplicações especificas e complicado para um usuário que não seja o projetista do framework. Compreender um framework é frequentemente muito mais difícil que compreender bibliotecas de componentes que podem ser reutilizados independentemente. Neste caso, e suficiente compreender sua interface externa. No caso dos frameworks, para aproveitar ao Máximo as possibilidades de reutilização que oferece, e necessário compreender o projeto interno de suas classes, como essas classes colaboram entre si, bem como a forma na qual instancias dessas classes colaboram em tempo de execução. Compreender estes aspectos uma tarefa reconhecidamente complexa e demorada, sendo este e um dos fatores mais limitantes da tecnologia para ser de utilidade efetiva na produção de software. Neste trabalho, apresenta-se uma abordagem reflexiva para a construção de ferramentas de apoio a compreensão de frameworks. Esta abordagem e suportada por Luthier, um framework projetado, e implementado em Smalltalk-80, para a construção de ferramentas de analise dinâmica e visualização de programas orientados a objetos. Luthier introduz três contribuições importantes: Utilização de técnicas de reflexão computacional baseadas no conceito de gerenciadores de meta-objetos, o qual suporta a implementação de metaarquiteturas de meta-objetos especializadas para a análise de aplicações. Controle interativo do grau de detalhe das visualizações (zoom semântico) através do suporte explícito de escalas de abstração. As escalas de abstração são controladas por objetos denominados abstratores. Um abstrator permite encapsular em objetos específicos algoritmos de derivação de abstracões, filtragem e seleção de informação, bem como o controle do nível de detalhe mostrado pelas visualizações. Esta separação de funcionalidade permite implementar complexas funcionalidades de análise de programas, sem a necessidade de modificar as classes que implementam visualizações ou a representação da informação. Suporte de uma estratégia de análise orientada pela visualização da arquitetura. Esta abordagem divide o processo de compreensão em duas fases iterativa: 1) compreensão dos principais aspectos estruturais do framework a partir de da recuperação e visualização da arquitetura,; 2) análise detalhada do comportamento de instâncias envolvidas em pontos específicos da arquitetura, os quais são selecionados pelo usuário a partir da visualização arquitetônica. Luthier fornece suporte flexível para construção de ferramentas de visualização dinamicamente adaptáveis para diferentes funcionalidades de análise, através de quatro subframeworks: LuthierMOPs. o qual fornece o suporte adaptável de meta-objetos para captura de informação das aplicações analisadas; LuthierBooks que fornece suporte genérico de gerenciamento de hiperdocumentos para a representação da informação capturada e gerenciamento de livros persistentes de projeto; LuthierAbstractors, que prove suporte genérico para a derivação de abstrações da informação coletada e escalas de abstração dinamicamente variáveis; e LuthierViews, extensão do framework MVC para a construção de visualizações da informação coletada, com capacidades de manipulação direta e zooming utilizando visualizações alternativas, as quais podem ser dinamicamente selecionadas pelo usuário. Com o suporte fornecido por Luthier, uma ferramenta, especialmente projetada para apoiar a compreensão de frameworks a partir da analise de exemplos, foi desenvolvida. Esta ferramenta fornece um conjunto de visualizações estruturais, com capacidade de animação de fluxo de controle do framework, bem como visualizações alternativas de subsistemas e padrões de projeto. Estas abstrações são reconhecidas através da análise da informação coletada dos exemplos analisados. Através das visualizações providas, o usuário pode explorar um dado framework através de mecanismos de navegação entre diferentes representações visuais, bem como filtragem e consulta acerca de informação relevante a ser visualizada. Este mecanismos são integrados com mecanismos de zoom semântico que habilitam a visualização da informação em diferentes níveis de abstração. Através da representação de hiperdocumento, a ferramenta suporta a construção manual, bem como a geração automática em alguns casos, de livros persistentes de documentação, com capacidade de edição, de importação de diagramas produzidos pelas visualizações, e de navegação sobre diferentes livros e o código fonte do framework. Esta características habilita a geração de documentação durante o processo de compreensão, facilidade não disponível, habitualmente, nas ferramentas de compreensão desenvolvidas até hoje. A capacidade de Luthier para a construção de ferramentas foi testada com a construção de outras ferramentas, como por exemplo, depuradores visuais e de coleta de métricas. A viabilidade e eficácia da abordagem foi testada através de experimentos, os quais mostraram que grupos utilizando a ferramenta de apoio produziram aplicações com maior nível de reutilização do framework que grupos de usuários não utilizando a ferramenta. / Object-oriented frameworks are a powerful reuse technique for building applications in a given domain. A framework works as a template or skeleton for building applications, being composed of a set of classes abstracting the general characteristics of an application domain. Building a specific application requires the specialization of some classes that provide the implementation of methods that will complete the necessary behaviour, while the global control structure is given by the framework. Frameworks offer a great potential to increase the productivity and quality in software development. However, starting to use a framework to build a specific application is complicated for any user other than a framework designer. Understanding a framework is frequently much harder than understanding libraries of components that can be reused independently. To adequately reuse isolated classes of a class library, it is sufficient to understand their external interface. In case of a framework, in contrast, to take full advantage of the services provided, it is necessary to understand the way its classes collaborate, as well as the internal design of some of them. These classes code the complex behaviour of a network of instances dynamically created. Therefore, it is often needed not only to understand how the classes are organized in static inheritance hierarchies, but also how instances collaborate at runtime. This work presents a reflective approach for the construction of tools for framework comprehension. This approach is supported by Luthier, a framework designed, and implemented in Smalltalk-80, which provides a flexible support for building tools for the dynamic analysis and visualization of object-oriented programs. Luthier introduces three important contributions: The use of computational reflection techniques, based on the concept of meta-object managers, which support the implementation of specialized meta-object-based metaarchitectures for the dynamic analysis of applications Support for building visualizations with different levels of abstraction under interactive control of the user (semantic zoom) through the explicit support of abstraction scales. Abstraction scales are controlled by objects called abstractors, which allow the encapsulation, in specific objects, of algorithms for abstraction derivation, filtering and information selection, as well as the interactive control of the detail level to be shown by visualizations. This separation of concerns enables the implementation of complex program analysis functionalities without the need of modifying classes implementing visualizations or information representation. Support for an architecture-driven analysis strategy. This approach divides the understanding process in two iterative phases: I) comprehension of the global structural and behavioural aspects of the framework from the recovery and visualization of its architecture.; 2) detailed analysis of specific instances involved in particular points of the architecture, selected by the user form the architectural view. Luthier provides a flexible support for the construction of visualization tools dynamically adaptable to different analysis functionalities through four sub-frameworks: LuthierMOPs, which provides an adaptable support of meta-objects for information gathering from the analyzed applications; LuthierBooks, which provides generic support for hyperdocument management to represent captured information and management of persistent design books: LuthierAbstractors, which provides generic support for the derivation of abstractions and dynamically variable abstraction-scales: and LuthierViews. extension of the MVC framework for the construction visualizations of the captured information, with capabilities of direct manipulation and zooming using alternative visualizations, dynamically selected by the user. With the support provided by Luthier a tool, specially designed to support framework comprehension from analysis of examples, was developed. This tool provides a set of structural visualizations with control-flow animation capabilities, as well as alternative visualizations of subsystems and design patterns, recognized through the analysis of information gathered from examples. Through these visualizations the user can explore a given framework by using mechanisms for navigating among different visual representations, as well as information filtering and queries about relevant information to be visualized. These functionalities are fully integrated with semantic zoom mechanisms that enable information visualization at different levels of abstraction. With the hyperdocument support, the tool allows for manual construction, as well as automatic generation in some cases, of persistent documentation books. These books offers editing capabilities, importation of diagrams from visualizations, as well as navigation through different books and through the source code of the analyzed framework.. These characteristics allows the support of additional documentation generation during the comprehension process, facility which is not normally available in current understanding tools. The capabilities for tool construction supported by Luthier were tested through the development of different tools, such as, visual debuggers and metrics collectors. The viability of the approach was tested through experiments. These experiments suggest that users using the understanding tool produce applications with a greater re-use level than groups of users not using it.
83

Classifying metrics for assessing object-oriented software maintainability: a family of metrics’ catalogs

SARAIVA, Juliana de Albuquerque Gonçalves 31 January 2014 (has links)
Submitted by Nayara Passos (nayara.passos@ufpe.br) on 2015-03-12T14:07:25Z No. of bitstreams: 2 TESE Juliana de Albuquerque Gonçalves Saraiva.pdf: 2801469 bytes, checksum: 2f35aeb3fe1c0178a717be10adc01c26 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T14:07:25Z (GMT). No. of bitstreams: 2 TESE Juliana de Albuquerque Gonçalves Saraiva.pdf: 2801469 bytes, checksum: 2f35aeb3fe1c0178a717be10adc01c26 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014 / FACEPE, INES / Atualmente, Programao Orientada a Objetos (POO) um dos paradigmas mais utilizados. Complementarmente, a manutenibilidade de software considerada um atributo de software que desempenha um papel importante com relao ao nvel de qualidade. Neste contexto, a Manutenibilidade de Software Orientado a Objetos (MSOO) foi estudada atravs de anos e vrios pesquisadores propuseram um elevado nmero de mtricas para a medir. Como consequncia do nmero e da diversidade de mtricas existentes, alm da no padronizao nas definies e nomenclatura, a tomada de deciso sobre quais mtricas podem ser adotadas para realizar estudos em MSOO difcil. Desta forma, um mapeamento sistemtico foi realizado a fim de encontrar quais mtricas so usadas como indicadores de MSOO. Houve uma seleo inicial de 5175 estudos primrios e 138 artigos foram selecionados, resultando em 568 mtricas encontradas. Analisando as 568 mtricas, foram encontradas inconsistncias na nomenclatura destas mtricas, pois havia mtricas com nomes iguais mas significados diferentes (8 casos envolvendo 17 mtricas) e tambm mtricas com nomes diferentes e significados semelhantes (32 casos envolvendo 214 mtricas). Alm disto, uma categorizao destas mtricas foi proposta, sendo identificadas 7 categorias e 17 subcategorias. Estas categorias representam os cenrios de adoo de mtricas de MSOO. Adicionalmente, um portal web de mtricas foi desenvolvido para fornecer informaes sobre as mtricas para outros pesquisadores e tambm gerar catlogos de mtricas de acordo com o contexto da aplicao das mesmas. Este portal tambm pode ser alimentado sistematicamente por outros pesquisadores que lidam com mtricas de MSOO, fazendo com que os resultados deste trabalho possam representar os primeiros passos para padronizao e compreenso destas mtricas. Por ltimo, um quasi-experimento foi realizado para checar o grau de cobertura do catlogo proposto pela abordagem aqui apresentada quando o mesmo comparado com catlogos sugeridos por especialistas. 90% de cobertura foi obtido e este resultado foi confirmado com 99% de grau de confiana usando o Teste de Wilcoxon. De forma complementar, houve uma pesquisa de opinio para checar se os especialistas acharam catlogo gerado usando a nossa abordagem semelhante ou melhor do que o sugerido por eles. Sendo assim, os resultados da anlise da cobertura dos catlogos pode servir como indcios da utilidade da abordagem proposta para a escolha de mtricas na avaliao de MSOO. / Currently, Object-Oriented Programming (OOP) is one of the most used paradigms. Complementarily, the software maintainability is considered a software attribute that plays an important role in quality level. In this context, the Object-Oriented Software Maintainability (OOSM) has been studied through years, and many researchers have proposed a large number of metrics to measure it. As a consequence of the number and diversity of metrics, beyond the no standardization in metrics definition and naming, the decision-making process about which metrics can be adopted in experiments on OOSM, or even their using in software companies is a difficult task. Therefore, a systematic mapping study was conducted in order to find which metrics are used as indicators in OOSM assessments. There was an initial selection of 5175 primary studies and 138 were selected, resulting in 568 metrics found. Analyzing the 568 metrics, inconsistencies in metrics’ naming were found because there were metrics with the same names but different meanings (8 cases involving 17 metrics) and also, there were metrics with different names, however with similar meanings (32 cases involving 214 metrics). Moreover, a metrics’ categorization has been proposed to facilitate decision-making process about which ones have to be adopted, and 7 categories and 17 subcategories were identified. These categories represent the evaluation scenarios where OOSM metrics should be used. Additionally, a metrics’ web portal was developed to provide information about the metrics collected in this research, and to generate metrics’ catalogs according to the context of their adoption. This portal can also be systematically fed by other researchers that work with OOSM metrics, making the results of this work the first steps towards metrics’ standardization, and the improvement of the metrics’ validation. Finally, a quasi-experiment was conducted to check the coverage index of the catalogs generated using our approach over the catalogs suggested by experts. 90% of coverage was obtained and this result was confirmed with 99% of confidential level using the Wilcoxon Test. Complementarily, a survey was conducted to check the experts’ opinion about the catalog generated by the portal when they were compared by the catalogs suggested by the experts. Thus, the coverage evaluation can be the first evidences of the usefulness of the proposed approach for metrics’ choice in OOSM evaluation.
84

CoMDD: uma abordagem colaborativa para auxiliar o desenvolvimento orientado a modelos / CoMDD: a collaborative model driven development approach

David Fernandes Neto 01 June 2012 (has links)
O desenvolvimento orientado a modelos (Model Driven Development - MDD) é uma abordagem que tem ganhado cada vez mais espaço na indústria e na academia, trazendo grandes benefícios, como o aumento de produtividade. Uma forma de se trabalhar usando MDD em equipe é usando uma IDE (Integrated Development Environment) associada a um sistema de versionamento. Entretanto, trabalhar colaborativamente usando uma IDE associada a um sistema de versionamento pode trazer algumas complicações para o desenvolvimento como: conflitos de modelos, documentação descontinuada, dificuldades por parte dos interessados em usar sistemas de versionamento, etc. Nesse contexto, este trabalho propõe uma abordagem de uso de wiki para desenvolvimento de MDD, de modo que o desenvolvedor seja capaz de criar modelos, gerar código fonte, compartilhar e versionar os modelos e ainda documentar colaborativamente, de maneira mais simples e fácil do que abordagens tradicionais. Isso possibilita que mais usuários não desenvolvedores possam participar mais no processo de desenvolvimento e ainda permite o aumento de produtividade. Para tentar evidenciar de que é possível uma wiki ser usada para desenvolver software, foi criada uma Domain Specific Language - DSL em uma wiki e foram realizados três estudos de caso: um com estudantes do ensino médio e que representam os não desenvolvedores, um com quatro alunos de pós-graduação com experiência de desenvolvimento na indústria e o último estudo de caso foi realizado com 48 participantes entre desenvolvedores e alunos de pósgraduação em Ciências da Computação. Os estudos de caso mostraram que é viável usar uma wiki para desenvolvimento, que não desenvolvedores se adaptam bem à abordagem e que 86% dos desenvolvedores usariam a abordagem proposta se tivessem que trabalhar com MDD. Os estudos de caso também levantaram as principais barreiras para aumentar a aceitação da abordagem. Com isso, este trabalho apresenta além de uma abordagem relativamente inédita na literatura, resultados sobre uso de sistemas de versionamento, de IDEs e de desenvolvimento colaborativo / The Model Driven Development (MDD) is an approach that has gained more space in industry and academia, bringing great benefits such as increased productivity. One way of working in teams with MDD is using an IDE (Integrated Development Environment) with a versioning system. However, to collaboratively work with an IDE and a versioning system may have implications and problems for the development as: conflicts of models, documentation discontinued, difficulties for stakeholders to use versioning systems, etc. In this context, this work proposes an approach to use a wiki to develop MDD, so that the developer is able to create models, generate source code, sharing and versioning models and also to collaboratively document, in a more simple and easy way than the traditional approaches. This enables non developers can participate more in the development process and also allows increasing productivity. To try to show that a wiki can be used to develop software, we created a Domain Specific Language (DSL) in a wiki and were performed three case studies: one with high school students and represent the non developers, another one with four graduate students with experience in software development in the industry, and the last case study was conducted with 48 participants among developers and graduate students in Computer Science. The case studies showed the feasibility of using a wiki for development, that non developers adapted well to the approach and 86 % of the developers would use a wiki to develop MDD. The study also raised the main barriers to increase the acceptance of the approach. Therefore, this work presents also a relatively new approach in the literature and results on the use of versioning systems, IDEs and collaboratively development
85

Uso de la Semántica Diferencial para el Análisis Perceptivo: Estudio de su Fiabilidad como Herramienta de Ayuda para el Diseño Conceptual de Productos Industriales

Artacho Ramírez, Miguel Ángel 25 November 2019 (has links)
El trabajo que a continuación se presenta se acoge a la modalidad de tesis por compendio de publicaciones del Departamento de Proyectos de Ingeniería de Valencia. Consta de dos artículos de investigación publicados en el "Internacional Journal of Industrial Ergonomics" y de un tercero enviado, aceptado y pendiente de revisión en el "Internacional Journal of Human- Computer Studies". El nexo común que les une es el intento de tratar de forma objetiva y fiable la estética en el diseño de productos industriales. Su objetivo final es el de contribuir a facilitar que este factor, de indudable y creciente repercusión en el éxito de un producto, se pueda tratar como uno más dentro de la filosofía del diseño integrado. La posibilidad de poder profesionalizar la relación entre los diseñadores industriales y el resto de los componentes de un equipo de diseño hasta el punto de poder tratar cuantitativamente el factor estético, permitiría dejar atrás planteamientos difusos basados en la intuición que resultan ininteligibles para la mayoría de agentes involucrados. Convertir los planteamientos estéticos en algo contrastable y fácilmente asimilable por todo el personal implicado en el diseño, permitiría que este factor contribuyera a generar estrategias de producto coherentes con la imagen que la empresa pretende comunicar y, lo que es más importante, con la imagen que el consumidor es capaz de interpretar y desea transmitir a través de los productos que adquiere. Las investigaciones planteadas y detalladas en cada uno de los artículos pretenden aportar una contribución parcial a un objetivo tan ambicioso como el planteado. En el primer artículo se pretenden delimitar las principales dimensiones y factores involucrados en el análisis perceptivo derivado de la evaluación visual e introducir índices estadísticos que aporten fiabilidad estadística, robustez y rigor matemático a los resultados que se obtienen de la evaluación semántica de producto. Así, y en primera instancia, se identifican los factores de influencia en el análisis de la componente estética, semántica y simbólica que el producto comunica a través de su apariencia visual. Estas escalas o ejes semánticos configuran el Espacio Semántico del producto y son los factores que de forma latente el observador tiene en mente cuando realiza la evaluación formal del producto. De este modo, lo que en realidad se hace es evaluar la respuesta cognitiva del observador frente al producto y, aunque de forma parcial, obtener la respuesta emotiva del mismo. Para ello se hace uso de la Semántica Diferencial como técnica desarrollada por Osgood et al. (1957), por tratarse de un procedimiento estandarizado que permite obtener la respuesta cognitiva y afectiva asociada a un determinado producto. La aportación relevante que contiene el citado artículo en lo referente a dicha técnica consiste en proporcionar un modo de medir la fiabilidad de los resultados que ofrece, introduciendo el Espacio Semántico Consensuado (ESC) como nuevo concepto a considerar en los estudios de semántica de producto. Haciendo uso del cálculo del índice de correlación intraclase (ICC), se dispone de un modo de medir qué conceptos es capaz de transmitir de forma robusta un producto (ESC) y diferenciarlos de aquéllos en los que no existe consenso en los juicios emitidos por el consumidor. Este hecho aporta una información muy valiosa a la hora de tomar decisiones de diseño y marketing referentes a la propuesta en particular y a la tipología de producto en general. Al mismo tiempo, a través del cálculo del ICC, se dispone de un estadístico que permite introducir criterios a la hora de validar estructuras semánticas en función del número de propuestas de diseño que son capaces de transmitir de forma consensuada cada uno de los conceptos que componen el espacio semántico del producto. Esto es, si el número de propuestas evaluadas que contienen en su Espacio Semántico Consensuado un determinado concepto no llega al 10% del total de la muestra, ese concepto debería ser reconsiderado. Por último, el ICC junto con el diseño de un algoritmo permite además abordar el problema de conocer el número mínimo de sujetos necesarios para obtener resultados fiables y consistentes. Para finalizar con las aportaciones más relevantes de la primera publicación, se debe comentar la introducción en la representación de los perfiles semánticos del cálculo del análisis de varianza de un factor (one- way ANOVA) en cada uno de los conceptos del espacio semántico para poder determinar diferencias de percepción estadísticamente significativas entre las distintas propuestas de diseño. Asimismo, se calculan y representan los intervalos LSD (95%) de la media así como los percentiles 95, 75, 25 y 5 de las valoraciones obtenidas por los productos de la muestra en cada unos de los ejes semánticos. De este modo se mejora la información que contiene la representación de los perfiles semánticos realizada con anterioridad a este trabajo. En la segunda publicación se pone de manifiesto lo ventajoso del cálculo de los estadísticos descritos, la validez de la semántica diferencial como técnica de apoyo al diseño conceptual y como herramienta de control de las innovaciones propuestas por los equipos de diseño. A partir de los ejes semánticos determinados en la primera publicación, se midió la respuesta del consumidor frente a un modelo convencional de zueco hospitalario. Después de conocer la valoración en cada uno de los conceptos y el Espacio Semántico Consensuado de la propuesta, se propuso modificar la percepción obtenida en algunos de los conceptos en los que no se obtuvo la valoración esperada. Una vez que los diseñadores modificaran los atributos de diseño con la intención de conseguir mejorar la imagen del mismo, se evaluó la nueva propuesta de diseño. Los resultados mostraron que la percepción se modificó aunque no exactamente como se pretendía, lo que pone de manifiesto la necesidad de avanzar en el estudio de las relaciones entre los elementos de diseño y la percepción asociada. Otra de las múltiples dimensiones de posible influencia en los juicios estéticos es el tipo de representación gráfica que se emplea para mostrar el producto al consumidor. La posibilidad de que los mensajes estéticos, semánticos y simbólicos que es capaz de transmitir el producto real se vean interferidos o distorsionados por el modo de representación gráfica escogido, puede resultar relevante tanto en el proceso de diseño como en los procedimientos de venta basados en el comercio electrónico. En el tercer artículo se pretende evaluar la posible influencia que los diferentes tipos de representación gráfica empleados frecuentemente para el desarrollo de un producto y para el comercio a través de Internet puedan tener en la transmisión de la componente estética y afectiva del producto. Para ello se compara la respuesta obtenida frente al producto real con la que se obtiene frente a cuatro tipos distintos de representación gráfica del mismo: fotografía, imagen infográfica estática, modelo 3D navegable y modelo 3D navegable estereográfico. Los resultados obtenidos ponen de manifiesto una influencia significativa del modo de representación en la percepción asociada al producto estudiado. Todos los tipos de representación presentaron diferencias con respecto al producto real salvo el modelo 3D navegable. A pesar de esto, en el peor de los casos las diferencias sólo afectaban al 27% de los conceptos del espacio semántico, por lo que se podría concluir que para el caso de estudio, la influencia, pese a ser significativa, apenas alteraba el patrón de percepción del producto. Aún así, su influencia hace que se convierta en un factor más a tener en cuenta a la hora de realizar este tipo de evaluaciones. Con todo, se puede concluir que el uso de la semántica diferencial para realizar evaluaciones semánticas permite objetivar la percepción de forma fiable y comenzar a tratar aspectos subjetivos -de marcada relevancia en el proceso de toma de decisiones que inducen a la compra- de modo controlado. Si a esto se le añade la oportunidad que ofrece Internet para agilizar el proceso de diseño y el uso de herramientas infográficas para la evaluación de propuestas virtuales de diseño desde las primeras fases, se puede afirmar que se ha encontrado el hueco y las herramientas que posibilitan reducir el tiempo que requiere este tipo de análisis, acabando así con el principal inconveniente de su aplicación. Aún así, y para acabar de afianzar la evaluación de propuestas virtuales en las primeras fases de diseño, cuestiones como el tiempo que puede transcurrir desde que se evalúa una propuesta hasta que se lanza el producto, con la consiguiente posibilidad de que se produzcan cambios en las preferencias del usuario por cuestiones relacionadas con la evolución de la moda o las tendencias, junto con las posibles variaciones que la propuesta inicial puede sufrir a lo largo de todo el proceso de diseño debido a las múltiples contingencias a las que puede verse sometido, hacen que la robustez y fiabilidad de los resultados obtenidos precisen de un análisis de sensibilidad para controlar la posible repercusión de estos factores en el análisis perceptivo. Estos aspectos y otros relacionados con la trazabilidad del diseño deberían ser motivo de futuros estudios que sirvieran para establecer umbrales de fiabilidad en las dimensiones de contrastada repercusión en los análisis semánticos de producto. / Por último, en lo que respecta a instituciones y empresas, quisiera agradecer al Ministerio de Ciencia y Tecnología y a la firma Pikolino’s S.L. su colaboración y financiación de la investigación que conduce a dos de los tres artículos de los que se compone la tesis. / Artacho Ramírez, MÁ. (2006). Uso de la Semántica Diferencial para el Análisis Perceptivo: Estudio de su Fiabilidad como Herramienta de Ayuda para el Diseño Conceptual de Productos Industriales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/131705
86

[en] A FLEXIBLE ARCHITECTURE FOR REPLICATION OF HETEROGENEOUS BASES / [pt] UMA ARQUITETURA FLEXÍVEL PARA REPLICAÇÃO DE BASES DISTRIBUÍDAS HETEROGÊNEAS

VINCI PEGORETTI AMORIM 21 May 2007 (has links)
[pt] Os diversos serviços de replicação existentes no mercado adquiriram um alto grau de maturidade e desempenho. Entretanto, mostram pouca capacidade de lidar com bases heterogêneas. Este trabalho propõe uma arquitetura focada na replicação de bases heterogêneas. Para conseguir alta escalabilidade e manter a simplicidade, a arquitetura segue uma estrutura multi-agente e adota uma abordagem de projeto orientado a domínio. Em seguida, o trabalho descreve uma implementação de referência e discute decisões técnicas desenvolvidas, enfatizando os problemas de versionamento, verificação de consistência e demais regras de negócio. O trabalho apresenta ainda utilitários que facilitam a configuração e manutenção do sistema de replicação. / [en] The replication services available acquire high maturity and performance levels. However, they do not work with heterogeneous data bases. This dissertation first describes a software architecture that focus on how to provide replication services for heterogeneous bases. To obtain high scalability and to maintain simplicity, the architecture follows a multi- agent structure and adopts a domain-driven design approach. Then, the dissertation describes a reference implementation and discusses the technical decisions adopted, focusing on version control problems, consistency verification and specific businessoriented rules. The dissertation also describes utilities that facilitate the configuration and maintenance of the replication system.
87

Um programa de elementos finitos em GPU e orientado a objetos para análise dinâmica não linear de estruturas. / An object-oriented finite element program in GPU for nonlinear dynamic structural analysis.

Yamassaki, Renato Toshio 28 March 2014 (has links)
É notório que o emprego de unidades de processamento gráfico (GPU) pode acelerar significativamente métodos numéricos de aplicações científicas. Para suportar essa nova tecnologia, é necessário que programas sejam readaptados, exigindo flexibilidade do código. Nesse trabalho, é apresentada a arquitetura de um programa de elementos finitos (MEF) para a análise de estruturas, com suporte ao processamento em GPU. A orientação a objetos é usada para guiar o desenvolvimento e modelar o código em uma estrutura flexível. A escalabilidade do programa é dada pela extensão de suas funcionalidades através de componentes carregados em tempo de execução. Para ilustrar a robustez do código, o software é aplicado para o estudo de dinâmica estrutural, considerando aspectos complexos de não linearidade de material (plasticidade) e geometria (grandes deslocamentos). A acurácia do código é verificada através da comparação com problemas conhecidos da literatura e com as soluções MEF comerciais (ABAQUS). As comparações mostraram uma boa concordância nos resultados. O speedup da GPU é analisado em relação aos tempos de CPU do próprio programa, sendo observado ganhos de desempenho de até 10 vezes. / It has been recognized that the adoption of graphics processing units (GPU) can significantly boost numerical methods in scientific applications. In order to support such technology, it is necessary to readapt the program, which requires code flexibility. In this work, it is presented the architecture of a finite element (FEM) analysis program for structural analysis with GPU support. Object-oriented design is used to guide development and to build code into a flexible structure. Program scalability is achieved by extensibility of its features, provided by run-time loaded components. In order to demonstrate code robustness, the software is directed to the study of structural dynamics, considering complex non-linear aspects of material (plasticity) and geometry (large displacements). Code accuracy is checked by comparing with known literature problems and with commercial solver packages (ABAQUS). The comparison shows good agreement in the results. The GPU code speedup is analysed against timings of CPU program code, where it is observed performance gain up to 10 times.
88

Avaliação de critérios e ferramentas de teste para programas OO. / Evaluation of testing criteria and testing tools for OO programs.

Domingues, André Luís dos Santos 13 June 2002 (has links)
Tendo em vista a grande atenção e aceitação que vem sendo dadas ao Paradigma Orientado a Objetos (OO) por parte de pesquisadores e desenvolvedores de software, uma das preocupações atuais do grupo de Engenharia de Software do ICMC-USP é o estabelecimento e validação de estratégias de teste de programas OO. Entre os interesses de pesquisa do grupo de Engenharia de Software do ICMC estão o Teste Baseado em Fluxo de Dados e o Teste de Mutação, que tiveram sua origem na década de 70. Considerando que o paradigma OO vem se destacando como uma das tendências de desenvolvimento de software, o que pode ser observado pelo grande número de programas desenvolvidos à luz desse paradigma, o presente trabalho visa a caracterizar o estado atual do teste de software OO tanto em termos de técnicas e critérios correntemente utilizados como em termos de ferramentas de teste de software disponíveis. A identificação e avaliação de critérios e ferramentas de suporte para o teste de software OO darão subsídios para a definição de novos estratégias de teste e para a especificação e implementação de ferramentas de apoio no contexto de software OO. / Having in mind the great attention and acceptance that have been given to de Object-Oriented (OO) paradigm by researches and developers, one of the current concerns of the ICMC-USP Software Engineering Group is the establishment and validation of testing strategies of OO programs. Among the research interests of the ICMC-USP Software Engineering Group are the Data Flow and Mutation based testing that had their origin in the 70 s. Considering that the paradigm OO has been highlighted as one of the software development tendencies, what can be observed by the great number of programs developed in the light of this paradigm, the aim of this work is to characterize the current state of OO software test both in terms of available tools and the underlying techniques and criteria. The identification and evaluation of criteria and tools for the OO software test will provide subsidies for the definition of new testing strategies and for the specification and implementation of supporting tools in the context of OO software.
89

Análise empírica sobre a influência das métricas CK na testabilidade de software orientado a objetos / Empirical analysis on the influence of CK metrics on object-oriented software testability

Cruz, Robinson Crusoé da 11 December 2017 (has links)
Teste de Software tem o objetivo de executar um programa sob teste com o objetivo de revelar suas falhas, portanto é uma das fases mais importante do ciclo de vida do desenvolvimento de um software. A testabilidade é um atributo de qualidade fundamental para o sucesso da atividade de teste, pois ela pode ser entendida como o esforço necessário para criar, executar e avaliar os casos de teste em um software. Este atributo não é uma qualidade intrínseca do software, portanto não pode ser medido diretamente como a quantidade de linhas de código, por exemplo. Entretanto, ela pode ser inferida por meio das características ou métricas internas e externas de um software. Entre as características comumente utilizadas na análise da testabilidade estão as métricas CK, que foram propostas por Chidamber e Kemerer com objetivo de analisar software orientado a objetos. A maioria dos trabalhos nesta linha, entretanto, relaciona o tamanho e a quantidade de casos testes com a testabilidade de um software. Entretanto, é fundamental analisar a qualidade dos testes para saber se eles atingem os objetivos para os quais foram propostos, independente de quantidade e tamanho. Portanto, este trabalho de mestrado apresenta um estudo empírico sobre a relação entre as métricas CK e a testabilidade de um software com base na análise da adequação de seus casos de teste unitários, critérios de teste estrutural e de mutação. Inicialmente foi realizada uma Revisão Sistemática cujo objetivo foi avaliar o estado da arte da testabilidade e as métricas CK. Os resultados mostraram que apesar de existirem várias pesquisas relacionadas ao tema, existem lacunas que motivam novas pesquisas no que concerne a análise da qualidade dos testes e identificação das características das métricas que podem ser inferidas para medir e analisar a testabilidade. Em seguida, foram realizadas duas análises empíricas. Na primeira análise, as métricas foram analisadas por meio da correlação das métricas CK com a cobertura de linha de código, cobertura de \\textit (arestas, ramos ou desvio de fluxo) e escore de mutação. Os resultados desta análise demonstraram a importância de cada métrica dentro do contexto da testabilidade. Na segunda análise, foi realizada uma proposta de clusterização das métricas para tentar identificar grupos de classes com características semelhantes relacionadas à testabilidade. Além das análises empíricas, foi desenvolvida e apresentada uma ferramenta de coleta e análise de métricas CK com objetivo de contribuir com novas pesquisas relacionados a proposta deste projeto. Apesar das limitações das análises, os resultados deste trabalho mostraram a importância de cada métrica CK dentro do contexto da testabilidade e fornece aos desenvolvedores e projetistas uma ferramenta de apoio e dados empíricos para melhor desenvolverem e projetarem seus sistemas com o objetivo de facilitar a atividade de teste de software / Software testing have aim to run a program under test with the aim of revealing its failures, so it is one of the most important phases of the software development lifecycle. Testability is a key quality attribute for the success of the test activity, because it can be understood as the effort required to create, execute and evaluate test cases in software. This attribute is not an intrinsic quality of the software, so it can not be measured directly as the number of lines code, for example. However, it can be inferred through the or internal and external metrics of a software. Among the features commonly used in testability analysis are CK metrics, which were proposed by Chidamber and Kemerer in order to analyze object-oriented software. Most of the works in this line, however, relate the size and quantity of test cases with software testability. However, it\'s critical to analyze the quality of the tests to see if they achieve the objectives for which they were proposed, independent of quantity and size. Therefore, this Master\'s degree work presents an empirical study on the relationship between CK metrics and software testability based on the analysis of the adequacy of its unit test cases, structural test criteria and mutation. Initially, a Systematic Review was carried out to evaluate the state of the art of testability and CK metrics. The results showed that although there are several researches related to the subject, there are gaps that motivate new research in what concerns the analysis of the quality of the tests and identification of the features of the metrics that can be inferred to measure and analyze the testability. Two empirical analyzes were performed. In the first analysis, the metrics were analyzed through the correlation of the CK metrics with the code line coverage, branch coverage or mutation score. The results of this analysis showed the importance of each metric within the context of testability. In the second analysis, a metric clustering proposal was made to try to identify groups of classes with similar features related to testability. In addition to the empirical analysis, a tool for the collection and analysis of CK metrics was developed and presented, with aim to contribute with new researches related to the proposal of this project. Despite the limitations of the analyzes, the results of this work showed the importance of each CK metric within the context of testability and provides developers and designers with a support tool and empirical data to better develop and design their systems with the aim of facilitate the activity of software testing
90

Uma proposta de estimador neural da velocidade para controle vetorial do motor de indução / A neural speed estimator proposal for vector control of induction motor

Santos, Tiago Henrique dos 13 August 2018 (has links)
A velocidade dos motores de indução é uma grandeza importante em um processo industrial. Entretanto, a medição direta da velocidade em motores de indução pode comprometer o sistema de acionamento e controle, aumentando o custo de implementação. Assim, as técnicas sensorless destinadas a estimar ou prever a velocidade em motores de indução são amplamente investigadas para uso em várias unidades industriais. Essa estratégia, quando baseada nos modelos matemáticos dos motores de indução é, normalmente, dependente dos parâmetros da máquina ou requer outro método que faça uma estimativa ou previsão. Assim, a abordagem alternativa deste trabalho consiste no uso de duas estratégias de implementação de redes neurais artificiais como estimador de velocidade aplicado a duas estratégias de controle do motor de indução orientado pelo campo do estator, controle direto de corrente e controle direto de torque. A velocidade síncrona, as correntes do estator e o torque eletromagnético, que são variáveis utilizadas nos algoritmos de acionamentos orientados no campo eletromagnético, são as entradas dos estimadores neurais propostos. Neste trabalho, resultados de simulação são aplicados no processo de seleção das redes neurais e os resultados experimentais mostram o desempenho de duas estratégias de implementação do estimador neural de velocidade embarcadas em DSP em diferentes metodologias de controle com dois motores de indução de potências diferentes. / The induction motor speed is an important quantity in an industrial process. However, the direct measurement of speed on induction motors can compromise the drive and control system, increasing the implementation cost. Thus, sensorless techniques aimed at estimating or predicting the speed in induction motors are widely investigated to be used in industrial plant units. This strategy, when based on the mathematical models of the induction motors is, usually, dependent on the machine parameters or requires another method that makes an estimation or prediction. Thus, the alternative approach of this work consists in the use of two implementation strategies of artificial neural networks as speed estimator applied to two stator field-oriented induction motor control strategies, direct current control and direct torque control. The synchronous speed, the stator currents and the electromagnetic torque, which are quantities used in field-oriented drives, are the inputs of the proposed neural estimators. In this work, simulation results are applied to neural networks selection process and the experimental results show the performance of two implementation strategies of the neural speed estimator embedded in DSP in different control methodologies with two induction motors with different powers.

Page generated in 0.0713 seconds