Spelling suggestions: "subject:"orientador""
81 |
Uma abordagem de desenvolvimento de linha de produtos orientada a modelos para a construção de famílias de sistemas embarcados críticos / A model-driven product line development approach to build safety-critical embedded familiesPaulo Gabriel Gadelha Queiroz 20 January 2015 (has links)
Sistemas embarcados críticos (SEC) correspondem aos sistemas embarcados para aplicações críticas, que são aplicações nas quais falhas podem por vidas em perigo. A crescente imersão deste tipo de sistema em nossas atividades cotidianas aumentou sua demanda, e consequentemente, a necessidade por novas técnicas de desenvolvimento que possam aumentar a produtividade dos desenvolvedores. Linha de produtos (LP) é uma técnica de reúso, na qual famílias de produtos similares são desenvolvidos em conjunto, e portanto, objetiva-se o desenvolvimento em larga escala. Com a utilização de LP, pode-se reusar requisitos e arquitetura de forma sistemática. Entretanto, o reúso no domínio de sistemas embarcados críticos ainda é visto de forma cética. Por outro lado, o domínio de SEC tem obtido avanços de desenvolvimento por meio de técnicas orientadas a modelo. A Engenharia orientada a modelos (MDE) concentra-se na importância de modelos no ciclo de vida do sistema, tornando-os parte do produto final. Assim, mantêm-se os modelos simples, e a maioria da complexidade do software passa a pertencer às transformações, que podem ser obtidas automaticamente por motores de transformação. Isso ajuda a aumentar a qualidade do produto final, bem como facilitar a futura evolução do software, que poderá ser feita mudando-se os modelos de alto nível e obtendo-se, de forma automática, o novo produto. MDE é particularmente útil no domínio de SEC, pois a partir de modelos corretos do problema, a chance de introdução de erros durante a codificação é menor se geradores de aplicações forem utilizados em vez de codificação manual. Além disso, o aumento no nível de abstração proporcionado pelo MDE permite que técnicas de validação e verificação sejam usadas desde os estágios iniciais de desenvolvimento, tais como co-design e co-simulação. Portanto, este trabalho visa defender a tese de que é possível oferecer os benefícios do desenvolvimento em larga escala para o domínio de SEC e ainda continuar se beneficiando de técnicas de MDE. Para corroborar esta tese, define-se uma abordagem de desenvolvimento de linha de produtos de sistema com uso de técnicas de engenharia orientada a modelos para o desenvolvimento de famílias de sistemas embarcados críticos. Além disso, apresenta-se um estudo de caso de marca-passo elaborado segundo as indicações da abordagem proposta que indicam a viabilidade de sua utilização. / Safety-critical embedded systems (SCES) correspond to embedded systems for critical applications, i.e., applications where lives can be lost if they fail. The increasing immersion of this type of system in our daily activities increased their demand and, consequently, the need for new development techniques that can increase developers productivity. Product Line (LP) is a promising technique for reuse, in which families of similar products are developed together and, therefore, it aims at large-scale development. With the use of LP we can reuse requirements and architecture systematically. However, developers remain sceptical about reuse in the SCES domain, mainly due to problems in the past, such as the failure of the spacecraft Ariane 5. In addition, advances in development of techniques for the SEC domain have been obtained, for example through model-driven engineering (MDE) approaches. MDE focuses on the importance of models in the software life cycle, making them part of the final product. So, it keeps models simple, and most of the software complexity belongs to the transformations that can be obtained automatically by transformation engines. This helps increasing the quality of the final product, and facilitate the future development of software that can be done by changing the high level models and obtaining, automatically, the new product. MDE is particularly useful in the SCES domain because, from correct models of the problem, the chance of introducing errors during coding is smaller if generators are used in the development instead of manual coding. In addition, the increased level of abstraction provided by MDE allows the use of validation and verification techniques since the early stages of development, such as co-design and co-simulation. Therefore, this work aims to defend the thesis that it is possible to offer the benefits of large-scale development for the SCES domain and still continue to benefit from MDE techniques. In support of this thesis, we define a system product line approach using model-driven techniques for the development of safety-critical embedded families. In addition, we present a case study prepared according to the directions of approach.
|
82 |
Compreensão visual de frameworks através da introspeção de exemplos / Visual understanding of frameworks through instrospection of examplesCampo, Marcelo Ricardo January 1997 (has links)
Os frameworks orientado a objetos oferecem um grande potencial para aumentar a produtividade e a qualidade no desenvolvimento de software. Um framework e uma infra-estrutura ou esqueleto de uma família de aplicações pertencentes a um domínio determinado. Basicamente, aplicações especificas são construídas especializando as classes do framework para fornecer a implementação de alguns métodos, enquanto a maior parte da funcionalidade da aplicação e herdada. Esta característica permite a reutilização tanto do código quanto o projeto das aplicações do domínio, o qual representa um beneficio muito significativo a respeito de outras tecnologias de reutilização. Entretanto, começar a utilizar um framework para construir aplicações especificas e complicado para um usuário que não seja o projetista do framework. Compreender um framework é frequentemente muito mais difícil que compreender bibliotecas de componentes que podem ser reutilizados independentemente. Neste caso, e suficiente compreender sua interface externa. No caso dos frameworks, para aproveitar ao Máximo as possibilidades de reutilização que oferece, e necessário compreender o projeto interno de suas classes, como essas classes colaboram entre si, bem como a forma na qual instancias dessas classes colaboram em tempo de execução. Compreender estes aspectos uma tarefa reconhecidamente complexa e demorada, sendo este e um dos fatores mais limitantes da tecnologia para ser de utilidade efetiva na produção de software. Neste trabalho, apresenta-se uma abordagem reflexiva para a construção de ferramentas de apoio a compreensão de frameworks. Esta abordagem e suportada por Luthier, um framework projetado, e implementado em Smalltalk-80, para a construção de ferramentas de analise dinâmica e visualização de programas orientados a objetos. Luthier introduz três contribuições importantes: Utilização de técnicas de reflexão computacional baseadas no conceito de gerenciadores de meta-objetos, o qual suporta a implementação de metaarquiteturas de meta-objetos especializadas para a análise de aplicações. Controle interativo do grau de detalhe das visualizações (zoom semântico) através do suporte explícito de escalas de abstração. As escalas de abstração são controladas por objetos denominados abstratores. Um abstrator permite encapsular em objetos específicos algoritmos de derivação de abstracões, filtragem e seleção de informação, bem como o controle do nível de detalhe mostrado pelas visualizações. Esta separação de funcionalidade permite implementar complexas funcionalidades de análise de programas, sem a necessidade de modificar as classes que implementam visualizações ou a representação da informação. Suporte de uma estratégia de análise orientada pela visualização da arquitetura. Esta abordagem divide o processo de compreensão em duas fases iterativa: 1) compreensão dos principais aspectos estruturais do framework a partir de da recuperação e visualização da arquitetura,; 2) análise detalhada do comportamento de instâncias envolvidas em pontos específicos da arquitetura, os quais são selecionados pelo usuário a partir da visualização arquitetônica. Luthier fornece suporte flexível para construção de ferramentas de visualização dinamicamente adaptáveis para diferentes funcionalidades de análise, através de quatro subframeworks: LuthierMOPs. o qual fornece o suporte adaptável de meta-objetos para captura de informação das aplicações analisadas; LuthierBooks que fornece suporte genérico de gerenciamento de hiperdocumentos para a representação da informação capturada e gerenciamento de livros persistentes de projeto; LuthierAbstractors, que prove suporte genérico para a derivação de abstrações da informação coletada e escalas de abstração dinamicamente variáveis; e LuthierViews, extensão do framework MVC para a construção de visualizações da informação coletada, com capacidades de manipulação direta e zooming utilizando visualizações alternativas, as quais podem ser dinamicamente selecionadas pelo usuário. Com o suporte fornecido por Luthier, uma ferramenta, especialmente projetada para apoiar a compreensão de frameworks a partir da analise de exemplos, foi desenvolvida. Esta ferramenta fornece um conjunto de visualizações estruturais, com capacidade de animação de fluxo de controle do framework, bem como visualizações alternativas de subsistemas e padrões de projeto. Estas abstrações são reconhecidas através da análise da informação coletada dos exemplos analisados. Através das visualizações providas, o usuário pode explorar um dado framework através de mecanismos de navegação entre diferentes representações visuais, bem como filtragem e consulta acerca de informação relevante a ser visualizada. Este mecanismos são integrados com mecanismos de zoom semântico que habilitam a visualização da informação em diferentes níveis de abstração. Através da representação de hiperdocumento, a ferramenta suporta a construção manual, bem como a geração automática em alguns casos, de livros persistentes de documentação, com capacidade de edição, de importação de diagramas produzidos pelas visualizações, e de navegação sobre diferentes livros e o código fonte do framework. Esta características habilita a geração de documentação durante o processo de compreensão, facilidade não disponível, habitualmente, nas ferramentas de compreensão desenvolvidas até hoje. A capacidade de Luthier para a construção de ferramentas foi testada com a construção de outras ferramentas, como por exemplo, depuradores visuais e de coleta de métricas. A viabilidade e eficácia da abordagem foi testada através de experimentos, os quais mostraram que grupos utilizando a ferramenta de apoio produziram aplicações com maior nível de reutilização do framework que grupos de usuários não utilizando a ferramenta. / Object-oriented frameworks are a powerful reuse technique for building applications in a given domain. A framework works as a template or skeleton for building applications, being composed of a set of classes abstracting the general characteristics of an application domain. Building a specific application requires the specialization of some classes that provide the implementation of methods that will complete the necessary behaviour, while the global control structure is given by the framework. Frameworks offer a great potential to increase the productivity and quality in software development. However, starting to use a framework to build a specific application is complicated for any user other than a framework designer. Understanding a framework is frequently much harder than understanding libraries of components that can be reused independently. To adequately reuse isolated classes of a class library, it is sufficient to understand their external interface. In case of a framework, in contrast, to take full advantage of the services provided, it is necessary to understand the way its classes collaborate, as well as the internal design of some of them. These classes code the complex behaviour of a network of instances dynamically created. Therefore, it is often needed not only to understand how the classes are organized in static inheritance hierarchies, but also how instances collaborate at runtime. This work presents a reflective approach for the construction of tools for framework comprehension. This approach is supported by Luthier, a framework designed, and implemented in Smalltalk-80, which provides a flexible support for building tools for the dynamic analysis and visualization of object-oriented programs. Luthier introduces three important contributions: The use of computational reflection techniques, based on the concept of meta-object managers, which support the implementation of specialized meta-object-based metaarchitectures for the dynamic analysis of applications Support for building visualizations with different levels of abstraction under interactive control of the user (semantic zoom) through the explicit support of abstraction scales. Abstraction scales are controlled by objects called abstractors, which allow the encapsulation, in specific objects, of algorithms for abstraction derivation, filtering and information selection, as well as the interactive control of the detail level to be shown by visualizations. This separation of concerns enables the implementation of complex program analysis functionalities without the need of modifying classes implementing visualizations or information representation. Support for an architecture-driven analysis strategy. This approach divides the understanding process in two iterative phases: I) comprehension of the global structural and behavioural aspects of the framework from the recovery and visualization of its architecture.; 2) detailed analysis of specific instances involved in particular points of the architecture, selected by the user form the architectural view. Luthier provides a flexible support for the construction of visualization tools dynamically adaptable to different analysis functionalities through four sub-frameworks: LuthierMOPs, which provides an adaptable support of meta-objects for information gathering from the analyzed applications; LuthierBooks, which provides generic support for hyperdocument management to represent captured information and management of persistent design books: LuthierAbstractors, which provides generic support for the derivation of abstractions and dynamically variable abstraction-scales: and LuthierViews. extension of the MVC framework for the construction visualizations of the captured information, with capabilities of direct manipulation and zooming using alternative visualizations, dynamically selected by the user. With the support provided by Luthier a tool, specially designed to support framework comprehension from analysis of examples, was developed. This tool provides a set of structural visualizations with control-flow animation capabilities, as well as alternative visualizations of subsystems and design patterns, recognized through the analysis of information gathered from examples. Through these visualizations the user can explore a given framework by using mechanisms for navigating among different visual representations, as well as information filtering and queries about relevant information to be visualized. These functionalities are fully integrated with semantic zoom mechanisms that enable information visualization at different levels of abstraction. With the hyperdocument support, the tool allows for manual construction, as well as automatic generation in some cases, of persistent documentation books. These books offers editing capabilities, importation of diagrams from visualizations, as well as navigation through different books and through the source code of the analyzed framework.. These characteristics allows the support of additional documentation generation during the comprehension process, facility which is not normally available in current understanding tools. The capabilities for tool construction supported by Luthier were tested through the development of different tools, such as, visual debuggers and metrics collectors. The viability of the approach was tested through experiments. These experiments suggest that users using the understanding tool produce applications with a greater re-use level than groups of users not using it.
|
83 |
Classifying metrics for assessing object-oriented software maintainability: a family of metrics’ catalogsSARAIVA, Juliana de Albuquerque Gonçalves 31 January 2014 (has links)
Submitted by Nayara Passos (nayara.passos@ufpe.br) on 2015-03-12T14:07:25Z
No. of bitstreams: 2
TESE Juliana de Albuquerque Gonçalves Saraiva.pdf: 2801469 bytes, checksum: 2f35aeb3fe1c0178a717be10adc01c26 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T14:07:25Z (GMT). No. of bitstreams: 2
TESE Juliana de Albuquerque Gonçalves Saraiva.pdf: 2801469 bytes, checksum: 2f35aeb3fe1c0178a717be10adc01c26 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2014 / FACEPE, INES / Atualmente, Programao Orientada a Objetos (POO) um dos paradigmas mais utilizados.
Complementarmente, a manutenibilidade de software considerada um atributo de software
que desempenha um papel importante com relao ao nvel de qualidade. Neste contexto, a
Manutenibilidade de Software Orientado a Objetos (MSOO) foi estudada atravs de anos e vrios
pesquisadores propuseram um elevado nmero de mtricas para a medir. Como consequncia do
nmero e da diversidade de mtricas existentes, alm da no padronizao nas definies e nomenclatura,
a tomada de deciso sobre quais mtricas podem ser adotadas para realizar estudos em MSOO
difcil. Desta forma, um mapeamento sistemtico foi realizado a fim de encontrar quais mtricas
so usadas como indicadores de MSOO. Houve uma seleo inicial de 5175 estudos primrios e
138 artigos foram selecionados, resultando em 568 mtricas encontradas. Analisando as 568
mtricas, foram encontradas inconsistncias na nomenclatura destas mtricas, pois havia mtricas com
nomes iguais mas significados diferentes (8 casos envolvendo 17 mtricas) e tambm mtricas com
nomes diferentes e significados semelhantes (32 casos envolvendo 214 mtricas). Alm disto, uma
categorizao destas mtricas foi proposta, sendo identificadas 7 categorias e 17 subcategorias. Estas
categorias representam os cenrios de adoo de mtricas de MSOO. Adicionalmente, um portal web
de mtricas foi desenvolvido para fornecer informaes sobre as mtricas para outros pesquisadores
e tambm gerar catlogos de mtricas de acordo com o contexto da aplicao das mesmas. Este portal
tambm pode ser alimentado sistematicamente por outros pesquisadores que lidam com mtricas
de MSOO, fazendo com que os resultados deste trabalho possam representar os primeiros passos
para padronizao e compreenso destas mtricas. Por ltimo, um quasi-experimento foi realizado
para checar o grau de cobertura do catlogo proposto pela abordagem aqui apresentada quando o
mesmo comparado com catlogos sugeridos por especialistas. 90% de cobertura foi obtido e este
resultado foi confirmado com 99% de grau de confiana usando o Teste de Wilcoxon. De forma
complementar, houve uma pesquisa de opinio para checar se os especialistas acharam catlogo
gerado usando a nossa abordagem semelhante ou melhor do que o sugerido por eles. Sendo
assim, os resultados da anlise da cobertura dos catlogos pode servir como indcios da utilidade da
abordagem proposta para a escolha de mtricas na avaliao de MSOO. / Currently, Object-Oriented Programming (OOP) is one of the most used paradigms.
Complementarily, the software maintainability is considered a software attribute that plays an
important role in quality level. In this context, the Object-Oriented Software Maintainability
(OOSM) has been studied through years, and many researchers have proposed a large number
of metrics to measure it. As a consequence of the number and diversity of metrics, beyond the
no standardization in metrics definition and naming, the decision-making process about which
metrics can be adopted in experiments on OOSM, or even their using in software companies is
a difficult task. Therefore, a systematic mapping study was conducted in order to find which
metrics are used as indicators in OOSM assessments. There was an initial selection of 5175
primary studies and 138 were selected, resulting in 568 metrics found. Analyzing the 568
metrics, inconsistencies in metrics’ naming were found because there were metrics with the same
names but different meanings (8 cases involving 17 metrics) and also, there were metrics with
different names, however with similar meanings (32 cases involving 214 metrics). Moreover,
a metrics’ categorization has been proposed to facilitate decision-making process about which
ones have to be adopted, and 7 categories and 17 subcategories were identified. These categories
represent the evaluation scenarios where OOSM metrics should be used. Additionally, a metrics’
web portal was developed to provide information about the metrics collected in this research,
and to generate metrics’ catalogs according to the context of their adoption. This portal can
also be systematically fed by other researchers that work with OOSM metrics, making the
results of this work the first steps towards metrics’ standardization, and the improvement of the
metrics’ validation. Finally, a quasi-experiment was conducted to check the coverage index of the
catalogs generated using our approach over the catalogs suggested by experts. 90% of coverage
was obtained and this result was confirmed with 99% of confidential level using the Wilcoxon
Test. Complementarily, a survey was conducted to check the experts’ opinion about the catalog
generated by the portal when they were compared by the catalogs suggested by the experts. Thus,
the coverage evaluation can be the first evidences of the usefulness of the proposed approach for
metrics’ choice in OOSM evaluation.
|
84 |
CoMDD: uma abordagem colaborativa para auxiliar o desenvolvimento orientado a modelos / CoMDD: a collaborative model driven development approachDavid Fernandes Neto 01 June 2012 (has links)
O desenvolvimento orientado a modelos (Model Driven Development - MDD) é uma abordagem que tem ganhado cada vez mais espaço na indústria e na academia, trazendo grandes benefícios, como o aumento de produtividade. Uma forma de se trabalhar usando MDD em equipe é usando uma IDE (Integrated Development Environment) associada a um sistema de versionamento. Entretanto, trabalhar colaborativamente usando uma IDE associada a um sistema de versionamento pode trazer algumas complicações para o desenvolvimento como: conflitos de modelos, documentação descontinuada, dificuldades por parte dos interessados em usar sistemas de versionamento, etc. Nesse contexto, este trabalho propõe uma abordagem de uso de wiki para desenvolvimento de MDD, de modo que o desenvolvedor seja capaz de criar modelos, gerar código fonte, compartilhar e versionar os modelos e ainda documentar colaborativamente, de maneira mais simples e fácil do que abordagens tradicionais. Isso possibilita que mais usuários não desenvolvedores possam participar mais no processo de desenvolvimento e ainda permite o aumento de produtividade. Para tentar evidenciar de que é possível uma wiki ser usada para desenvolver software, foi criada uma Domain Specific Language - DSL em uma wiki e foram realizados três estudos de caso: um com estudantes do ensino médio e que representam os não desenvolvedores, um com quatro alunos de pós-graduação com experiência de desenvolvimento na indústria e o último estudo de caso foi realizado com 48 participantes entre desenvolvedores e alunos de pósgraduação em Ciências da Computação. Os estudos de caso mostraram que é viável usar uma wiki para desenvolvimento, que não desenvolvedores se adaptam bem à abordagem e que 86% dos desenvolvedores usariam a abordagem proposta se tivessem que trabalhar com MDD. Os estudos de caso também levantaram as principais barreiras para aumentar a aceitação da abordagem. Com isso, este trabalho apresenta além de uma abordagem relativamente inédita na literatura, resultados sobre uso de sistemas de versionamento, de IDEs e de desenvolvimento colaborativo / The Model Driven Development (MDD) is an approach that has gained more space in industry and academia, bringing great benefits such as increased productivity. One way of working in teams with MDD is using an IDE (Integrated Development Environment) with a versioning system. However, to collaboratively work with an IDE and a versioning system may have implications and problems for the development as: conflicts of models, documentation discontinued, difficulties for stakeholders to use versioning systems, etc. In this context, this work proposes an approach to use a wiki to develop MDD, so that the developer is able to create models, generate source code, sharing and versioning models and also to collaboratively document, in a more simple and easy way than the traditional approaches. This enables non developers can participate more in the development process and also allows increasing productivity. To try to show that a wiki can be used to develop software, we created a Domain Specific Language (DSL) in a wiki and were performed three case studies: one with high school students and represent the non developers, another one with four graduate students with experience in software development in the industry, and the last case study was conducted with 48 participants among developers and graduate students in Computer Science. The case studies showed the feasibility of using a wiki for development, that non developers adapted well to the approach and 86 % of the developers would use a wiki to develop MDD. The study also raised the main barriers to increase the acceptance of the approach. Therefore, this work presents also a relatively new approach in the literature and results on the use of versioning systems, IDEs and collaboratively development
|
85 |
Uso de la Semántica Diferencial para el Análisis Perceptivo: Estudio de su Fiabilidad como Herramienta de Ayuda para el Diseño Conceptual de Productos IndustrialesArtacho Ramírez, Miguel Ángel 25 November 2019 (has links)
El trabajo que a continuación se presenta se acoge a la modalidad de tesis
por compendio de publicaciones del Departamento de Proyectos de
Ingeniería de Valencia. Consta de dos artículos de investigación publicados
en el "Internacional Journal of Industrial Ergonomics" y de un tercero enviado,
aceptado y pendiente de revisión en el "Internacional Journal of Human-
Computer Studies". El nexo común que les une es el intento de tratar de
forma objetiva y fiable la estética en el diseño de productos industriales. Su
objetivo final es el de contribuir a facilitar que este factor, de indudable y
creciente repercusión en el éxito de un producto, se pueda tratar como
uno más dentro de la filosofía del diseño integrado. La posibilidad de
poder profesionalizar la relación entre los diseñadores industriales y el
resto de los componentes de un equipo de diseño hasta el punto de poder
tratar cuantitativamente el factor estético, permitiría dejar atrás
planteamientos difusos basados en la intuición que resultan ininteligibles
para la mayoría de agentes involucrados. Convertir los planteamientos
estéticos en algo contrastable y fácilmente asimilable por todo el personal
implicado en el diseño, permitiría que este factor contribuyera a generar
estrategias de producto coherentes con la imagen que la empresa pretende
comunicar y, lo que es más importante, con la imagen que el consumidor
es capaz de interpretar y desea transmitir a través de los productos que
adquiere.
Las investigaciones planteadas y detalladas en cada uno de los artículos
pretenden aportar una contribución parcial a un objetivo tan ambicioso
como el planteado. En el primer artículo se pretenden delimitar las
principales dimensiones y factores involucrados en el análisis perceptivo
derivado de la evaluación visual e introducir índices estadísticos que
aporten fiabilidad estadística, robustez y rigor matemático a los resultados
que se obtienen de la evaluación semántica de producto. Así, y en primera
instancia, se identifican los factores de influencia en el análisis de la
componente estética, semántica y simbólica que el producto comunica a
través de su apariencia visual. Estas escalas o ejes semánticos configuran el
Espacio Semántico del producto y son los factores que de forma latente el
observador tiene en mente cuando realiza la evaluación formal del
producto. De este modo, lo que en realidad se hace es evaluar la respuesta
cognitiva del observador frente al producto y, aunque de forma parcial,
obtener la respuesta emotiva del mismo. Para ello se hace uso de la
Semántica Diferencial como técnica desarrollada por Osgood et al. (1957),
por tratarse de un procedimiento estandarizado que permite obtener la
respuesta cognitiva y afectiva asociada a un determinado producto.
La aportación relevante que contiene el citado artículo en lo referente a
dicha técnica consiste en proporcionar un modo de medir la fiabilidad de
los resultados que ofrece, introduciendo el Espacio Semántico
Consensuado (ESC) como nuevo concepto a considerar en los estudios de
semántica de producto. Haciendo uso del cálculo del índice de correlación
intraclase (ICC), se dispone de un modo de medir qué conceptos es capaz
de transmitir de forma robusta un producto (ESC) y diferenciarlos de
aquéllos en los que no existe consenso en los juicios emitidos por el
consumidor. Este hecho aporta una información muy valiosa a la hora de
tomar decisiones de diseño y marketing referentes a la propuesta en
particular y a la tipología de producto en general. Al mismo tiempo, a
través del cálculo del ICC, se dispone de un estadístico que permite
introducir criterios a la hora de validar estructuras semánticas en función
del número de propuestas de diseño que son capaces de transmitir de
forma consensuada cada uno de los conceptos que componen el espacio
semántico del producto. Esto es, si el número de propuestas evaluadas que
contienen en su Espacio Semántico Consensuado un determinado
concepto no llega al 10% del total de la muestra, ese concepto debería ser
reconsiderado.
Por último, el ICC junto con el diseño de un algoritmo permite además
abordar el problema de conocer el número mínimo de sujetos necesarios
para obtener resultados fiables y consistentes.
Para finalizar con las aportaciones más relevantes de la primera
publicación, se debe comentar la introducción en la representación de los
perfiles semánticos del cálculo del análisis de varianza de un factor (one-
way ANOVA) en cada uno de los conceptos del espacio semántico para
poder determinar diferencias de percepción estadísticamente significativas
entre las distintas propuestas de diseño. Asimismo, se calculan y
representan los intervalos LSD (95%) de la media así como los percentiles
95, 75, 25 y 5 de las valoraciones obtenidas por los productos de la
muestra en cada unos de los ejes semánticos. De este modo se mejora la
información que contiene la representación de los perfiles semánticos
realizada con anterioridad a este trabajo.
En la segunda publicación se pone de manifiesto lo ventajoso del cálculo
de los estadísticos descritos, la validez de la semántica diferencial como
técnica de apoyo al diseño conceptual y como herramienta de control de
las innovaciones propuestas por los equipos de diseño.
A partir de los ejes semánticos determinados en la primera publicación, se
midió la respuesta del consumidor frente a un modelo convencional de
zueco hospitalario. Después de conocer la valoración en cada uno de los
conceptos y el Espacio Semántico Consensuado de la propuesta, se
propuso modificar la percepción obtenida en algunos de los conceptos en
los que no se obtuvo la valoración esperada. Una vez que los diseñadores
modificaran los atributos de diseño con la intención de conseguir mejorar
la imagen del mismo, se evaluó la nueva propuesta de diseño. Los
resultados mostraron que la percepción se modificó aunque no
exactamente como se pretendía, lo que pone de manifiesto la necesidad de
avanzar en el estudio de las relaciones entre los elementos de diseño y la
percepción asociada.
Otra de las múltiples dimensiones de posible influencia en los juicios
estéticos es el tipo de representación gráfica que se emplea para mostrar el
producto al consumidor. La posibilidad de que los mensajes estéticos,
semánticos y simbólicos que es capaz de transmitir el producto real se
vean interferidos o distorsionados por el modo de representación gráfica
escogido, puede resultar relevante tanto en el proceso de diseño como en
los procedimientos de venta basados en el comercio electrónico.
En el tercer artículo se pretende evaluar la posible influencia que los
diferentes tipos de representación gráfica empleados frecuentemente para
el desarrollo de un producto y para el comercio a través de Internet
puedan tener en la transmisión de la componente estética y afectiva del
producto. Para ello se compara la respuesta obtenida frente al producto
real con la que se obtiene frente a cuatro tipos distintos de representación
gráfica del mismo: fotografía, imagen infográfica estática, modelo 3D
navegable y modelo 3D navegable estereográfico.
Los resultados obtenidos ponen de manifiesto una influencia significativa
del modo de representación en la percepción asociada al producto
estudiado. Todos los tipos de representación presentaron diferencias con
respecto al producto real salvo el modelo 3D navegable. A pesar de esto,
en el peor de los casos las diferencias sólo afectaban al 27% de los
conceptos del espacio semántico, por lo que se podría concluir que para el
caso de estudio, la influencia, pese a ser significativa, apenas alteraba el
patrón de percepción del producto. Aún así, su influencia hace que se
convierta en un factor más a tener en cuenta a la hora de realizar este tipo
de evaluaciones.
Con todo, se puede concluir que el uso de la semántica diferencial para
realizar evaluaciones semánticas permite objetivar la percepción de forma
fiable y comenzar a tratar aspectos subjetivos -de marcada relevancia en el
proceso de toma de decisiones que inducen a la compra- de modo
controlado. Si a esto se le añade la oportunidad que ofrece Internet para
agilizar el proceso de diseño y el uso de herramientas infográficas para la
evaluación de propuestas virtuales de diseño desde las primeras fases, se
puede afirmar que se ha encontrado el hueco y las herramientas que
posibilitan reducir el tiempo que requiere este tipo de análisis, acabando
así con el principal inconveniente de su aplicación.
Aún así, y para acabar de afianzar la evaluación de propuestas virtuales en
las primeras fases de diseño, cuestiones como el tiempo que puede
transcurrir desde que se evalúa una propuesta hasta que se lanza el
producto, con la consiguiente posibilidad de que se produzcan cambios en
las preferencias del usuario por cuestiones relacionadas con la evolución
de la moda o las tendencias, junto con las posibles variaciones que la
propuesta inicial puede sufrir a lo largo de todo el proceso de diseño
debido a las múltiples contingencias a las que puede verse sometido, hacen
que la robustez y fiabilidad de los resultados obtenidos precisen de un
análisis de sensibilidad para controlar la posible repercusión de estos
factores en el análisis perceptivo. Estos aspectos y otros relacionados con
la trazabilidad del diseño deberían ser motivo de futuros estudios que
sirvieran para establecer umbrales de fiabilidad en las dimensiones de
contrastada repercusión en los análisis semánticos de producto. / Por último, en lo que respecta a instituciones y empresas, quisiera agradecer al Ministerio de Ciencia y Tecnología y a la firma Pikolino’s S.L. su colaboración y financiación de la investigación que conduce a dos de los tres artículos de los que se compone la tesis. / Artacho Ramírez, MÁ. (2006). Uso de la Semántica Diferencial para el Análisis Perceptivo: Estudio de su Fiabilidad como Herramienta de Ayuda para el Diseño Conceptual de Productos Industriales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/131705
|
86 |
[en] A FLEXIBLE ARCHITECTURE FOR REPLICATION OF HETEROGENEOUS BASES / [pt] UMA ARQUITETURA FLEXÍVEL PARA REPLICAÇÃO DE BASES DISTRIBUÍDAS HETEROGÊNEASVINCI PEGORETTI AMORIM 21 May 2007 (has links)
[pt] Os diversos serviços de replicação existentes no mercado
adquiriram um
alto grau de maturidade e desempenho. Entretanto, mostram
pouca capacidade
de lidar com bases heterogêneas. Este trabalho propõe uma
arquitetura focada
na replicação de bases heterogêneas. Para conseguir alta
escalabilidade e
manter a simplicidade, a arquitetura segue uma estrutura
multi-agente e adota
uma abordagem de projeto orientado a domínio. Em seguida,
o trabalho
descreve uma implementação de referência e discute
decisões técnicas
desenvolvidas, enfatizando os problemas de versionamento,
verificação de
consistência e demais regras de negócio. O trabalho
apresenta ainda utilitários
que facilitam a configuração e manutenção do sistema de
replicação. / [en] The replication services available acquire high maturity
and performance
levels. However, they do not work with heterogeneous data
bases. This
dissertation first describes a software architecture that
focus on how to provide
replication services for heterogeneous bases. To obtain
high scalability and to
maintain simplicity, the architecture follows a multi-
agent structure and adopts
a domain-driven design approach. Then, the dissertation
describes a reference
implementation and discusses the technical decisions
adopted, focusing on
version control problems, consistency verification and
specific businessoriented
rules. The dissertation also describes utilities that
facilitate the
configuration and maintenance of the replication system.
|
87 |
Um programa de elementos finitos em GPU e orientado a objetos para análise dinâmica não linear de estruturas. / An object-oriented finite element program in GPU for nonlinear dynamic structural analysis.Yamassaki, Renato Toshio 28 March 2014 (has links)
É notório que o emprego de unidades de processamento gráfico (GPU) pode acelerar significativamente métodos numéricos de aplicações científicas. Para suportar essa nova tecnologia, é necessário que programas sejam readaptados, exigindo flexibilidade do código. Nesse trabalho, é apresentada a arquitetura de um programa de elementos finitos (MEF) para a análise de estruturas, com suporte ao processamento em GPU. A orientação a objetos é usada para guiar o desenvolvimento e modelar o código em uma estrutura flexível. A escalabilidade do programa é dada pela extensão de suas funcionalidades através de componentes carregados em tempo de execução. Para ilustrar a robustez do código, o software é aplicado para o estudo de dinâmica estrutural, considerando aspectos complexos de não linearidade de material (plasticidade) e geometria (grandes deslocamentos). A acurácia do código é verificada através da comparação com problemas conhecidos da literatura e com as soluções MEF comerciais (ABAQUS). As comparações mostraram uma boa concordância nos resultados. O speedup da GPU é analisado em relação aos tempos de CPU do próprio programa, sendo observado ganhos de desempenho de até 10 vezes. / It has been recognized that the adoption of graphics processing units (GPU) can significantly boost numerical methods in scientific applications. In order to support such technology, it is necessary to readapt the program, which requires code flexibility. In this work, it is presented the architecture of a finite element (FEM) analysis program for structural analysis with GPU support. Object-oriented design is used to guide development and to build code into a flexible structure. Program scalability is achieved by extensibility of its features, provided by run-time loaded components. In order to demonstrate code robustness, the software is directed to the study of structural dynamics, considering complex non-linear aspects of material (plasticity) and geometry (large displacements). Code accuracy is checked by comparing with known literature problems and with commercial solver packages (ABAQUS). The comparison shows good agreement in the results. The GPU code speedup is analysed against timings of CPU program code, where it is observed performance gain up to 10 times.
|
88 |
Avaliação de critérios e ferramentas de teste para programas OO. / Evaluation of testing criteria and testing tools for OO programs.Domingues, André Luís dos Santos 13 June 2002 (has links)
Tendo em vista a grande atenção e aceitação que vem sendo dadas ao Paradigma Orientado a Objetos (OO) por parte de pesquisadores e desenvolvedores de software, uma das preocupações atuais do grupo de Engenharia de Software do ICMC-USP é o estabelecimento e validação de estratégias de teste de programas OO. Entre os interesses de pesquisa do grupo de Engenharia de Software do ICMC estão o Teste Baseado em Fluxo de Dados e o Teste de Mutação, que tiveram sua origem na década de 70. Considerando que o paradigma OO vem se destacando como uma das tendências de desenvolvimento de software, o que pode ser observado pelo grande número de programas desenvolvidos à luz desse paradigma, o presente trabalho visa a caracterizar o estado atual do teste de software OO tanto em termos de técnicas e critérios correntemente utilizados como em termos de ferramentas de teste de software disponíveis. A identificação e avaliação de critérios e ferramentas de suporte para o teste de software OO darão subsídios para a definição de novos estratégias de teste e para a especificação e implementação de ferramentas de apoio no contexto de software OO. / Having in mind the great attention and acceptance that have been given to de Object-Oriented (OO) paradigm by researches and developers, one of the current concerns of the ICMC-USP Software Engineering Group is the establishment and validation of testing strategies of OO programs. Among the research interests of the ICMC-USP Software Engineering Group are the Data Flow and Mutation based testing that had their origin in the 70 s. Considering that the paradigm OO has been highlighted as one of the software development tendencies, what can be observed by the great number of programs developed in the light of this paradigm, the aim of this work is to characterize the current state of OO software test both in terms of available tools and the underlying techniques and criteria. The identification and evaluation of criteria and tools for the OO software test will provide subsidies for the definition of new testing strategies and for the specification and implementation of supporting tools in the context of OO software.
|
89 |
Análise empírica sobre a influência das métricas CK na testabilidade de software orientado a objetos / Empirical analysis on the influence of CK metrics on object-oriented software testabilityCruz, Robinson Crusoé da 11 December 2017 (has links)
Teste de Software tem o objetivo de executar um programa sob teste com o objetivo de revelar suas falhas, portanto é uma das fases mais importante do ciclo de vida do desenvolvimento de um software. A testabilidade é um atributo de qualidade fundamental para o sucesso da atividade de teste, pois ela pode ser entendida como o esforço necessário para criar, executar e avaliar os casos de teste em um software. Este atributo não é uma qualidade intrínseca do software, portanto não pode ser medido diretamente como a quantidade de linhas de código, por exemplo. Entretanto, ela pode ser inferida por meio das características ou métricas internas e externas de um software. Entre as características comumente utilizadas na análise da testabilidade estão as métricas CK, que foram propostas por Chidamber e Kemerer com objetivo de analisar software orientado a objetos. A maioria dos trabalhos nesta linha, entretanto, relaciona o tamanho e a quantidade de casos testes com a testabilidade de um software. Entretanto, é fundamental analisar a qualidade dos testes para saber se eles atingem os objetivos para os quais foram propostos, independente de quantidade e tamanho. Portanto, este trabalho de mestrado apresenta um estudo empírico sobre a relação entre as métricas CK e a testabilidade de um software com base na análise da adequação de seus casos de teste unitários, critérios de teste estrutural e de mutação. Inicialmente foi realizada uma Revisão Sistemática cujo objetivo foi avaliar o estado da arte da testabilidade e as métricas CK. Os resultados mostraram que apesar de existirem várias pesquisas relacionadas ao tema, existem lacunas que motivam novas pesquisas no que concerne a análise da qualidade dos testes e identificação das características das métricas que podem ser inferidas para medir e analisar a testabilidade. Em seguida, foram realizadas duas análises empíricas. Na primeira análise, as métricas foram analisadas por meio da correlação das métricas CK com a cobertura de linha de código, cobertura de \\textit (arestas, ramos ou desvio de fluxo) e escore de mutação. Os resultados desta análise demonstraram a importância de cada métrica dentro do contexto da testabilidade. Na segunda análise, foi realizada uma proposta de clusterização das métricas para tentar identificar grupos de classes com características semelhantes relacionadas à testabilidade. Além das análises empíricas, foi desenvolvida e apresentada uma ferramenta de coleta e análise de métricas CK com objetivo de contribuir com novas pesquisas relacionados a proposta deste projeto. Apesar das limitações das análises, os resultados deste trabalho mostraram a importância de cada métrica CK dentro do contexto da testabilidade e fornece aos desenvolvedores e projetistas uma ferramenta de apoio e dados empíricos para melhor desenvolverem e projetarem seus sistemas com o objetivo de facilitar a atividade de teste de software / Software testing have aim to run a program under test with the aim of revealing its failures, so it is one of the most important phases of the software development lifecycle. Testability is a key quality attribute for the success of the test activity, because it can be understood as the effort required to create, execute and evaluate test cases in software. This attribute is not an intrinsic quality of the software, so it can not be measured directly as the number of lines code, for example. However, it can be inferred through the or internal and external metrics of a software. Among the features commonly used in testability analysis are CK metrics, which were proposed by Chidamber and Kemerer in order to analyze object-oriented software. Most of the works in this line, however, relate the size and quantity of test cases with software testability. However, it\'s critical to analyze the quality of the tests to see if they achieve the objectives for which they were proposed, independent of quantity and size. Therefore, this Master\'s degree work presents an empirical study on the relationship between CK metrics and software testability based on the analysis of the adequacy of its unit test cases, structural test criteria and mutation. Initially, a Systematic Review was carried out to evaluate the state of the art of testability and CK metrics. The results showed that although there are several researches related to the subject, there are gaps that motivate new research in what concerns the analysis of the quality of the tests and identification of the features of the metrics that can be inferred to measure and analyze the testability. Two empirical analyzes were performed. In the first analysis, the metrics were analyzed through the correlation of the CK metrics with the code line coverage, branch coverage or mutation score. The results of this analysis showed the importance of each metric within the context of testability. In the second analysis, a metric clustering proposal was made to try to identify groups of classes with similar features related to testability. In addition to the empirical analysis, a tool for the collection and analysis of CK metrics was developed and presented, with aim to contribute with new researches related to the proposal of this project. Despite the limitations of the analyzes, the results of this work showed the importance of each CK metric within the context of testability and provides developers and designers with a support tool and empirical data to better develop and design their systems with the aim of facilitate the activity of software testing
|
90 |
Uma proposta de estimador neural da velocidade para controle vetorial do motor de indução / A neural speed estimator proposal for vector control of induction motorSantos, Tiago Henrique dos 13 August 2018 (has links)
A velocidade dos motores de indução é uma grandeza importante em um processo industrial. Entretanto, a medição direta da velocidade em motores de indução pode comprometer o sistema de acionamento e controle, aumentando o custo de implementação. Assim, as técnicas sensorless destinadas a estimar ou prever a velocidade em motores de indução são amplamente investigadas para uso em várias unidades industriais. Essa estratégia, quando baseada nos modelos matemáticos dos motores de indução é, normalmente, dependente dos parâmetros da máquina ou requer outro método que faça uma estimativa ou previsão. Assim, a abordagem alternativa deste trabalho consiste no uso de duas estratégias de implementação de redes neurais artificiais como estimador de velocidade aplicado a duas estratégias de controle do motor de indução orientado pelo campo do estator, controle direto de corrente e controle direto de torque. A velocidade síncrona, as correntes do estator e o torque eletromagnético, que são variáveis utilizadas nos algoritmos de acionamentos orientados no campo eletromagnético, são as entradas dos estimadores neurais propostos. Neste trabalho, resultados de simulação são aplicados no processo de seleção das redes neurais e os resultados experimentais mostram o desempenho de duas estratégias de implementação do estimador neural de velocidade embarcadas em DSP em diferentes metodologias de controle com dois motores de indução de potências diferentes. / The induction motor speed is an important quantity in an industrial process. However, the direct measurement of speed on induction motors can compromise the drive and control system, increasing the implementation cost. Thus, sensorless techniques aimed at estimating or predicting the speed in induction motors are widely investigated to be used in industrial plant units. This strategy, when based on the mathematical models of the induction motors is, usually, dependent on the machine parameters or requires another method that makes an estimation or prediction. Thus, the alternative approach of this work consists in the use of two implementation strategies of artificial neural networks as speed estimator applied to two stator field-oriented induction motor control strategies, direct current control and direct torque control. The synchronous speed, the stator currents and the electromagnetic torque, which are quantities used in field-oriented drives, are the inputs of the proposed neural estimators. In this work, simulation results are applied to neural networks selection process and the experimental results show the performance of two implementation strategies of the neural speed estimator embedded in DSP in different control methodologies with two induction motors with different powers.
|
Page generated in 0.097 seconds