• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 544
  • 38
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 592
  • 554
  • 293
  • 260
  • 257
  • 104
  • 101
  • 100
  • 94
  • 91
  • 83
  • 82
  • 82
  • 81
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
521

Uma arquitetura híbrida com aprendizagem para o desenvolvimento de agentes de software / A Hybrid Architecture with Learning for the Development of Software Agents

COSTA, Adriana Leite 14 August 2017 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-09-22T18:42:19Z No. of bitstreams: 1 AdrianaCosta.pdf: 3838428 bytes, checksum: 2c98d9d837cb8ba187aa038e80b2d304 (MD5) / Made available in DSpace on 2017-09-22T18:42:19Z (GMT). No. of bitstreams: 1 AdrianaCosta.pdf: 3838428 bytes, checksum: 2c98d9d837cb8ba187aa038e80b2d304 (MD5) Previous issue date: 2017-08-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Fundação de Amparo à Pesquisa e ao Desenvolvimento Científico e Tecnológico do Maranhão / Software agents represent an evolution of traditional software entities, having the ability to control their own behavior and acting with autonomy. Typically, software agents act reactively, where actions and perceptions are predefined at design time, or in a deliberative way, where the corresponding action for a given perception is found at run time through reasoning. Deliberative agents do not need all knowledge to be predefined; on the contrary, from an initial knowledge they can infer new knowledge. However, to find an action appropriate to a particular perception, they take a long time, generating a high computational cost. As a solution to this problem, a hybrid architecture with learning for the development of hybrid software agents is presented in this work. Hybrid agents combine reactive and deliberative behavior taking advantage of the speed of reactive behavior and the reasoning capability of the deliberative one are a better option for structuring software agents. The main advantages of the proposed architecture are learning of the reactive behavior, faster and more efficient, through the interactions of the agent with its environment and its consequent adaptability to the environment. The agent adapts to the environment as it learns new reactive behavior from frequent deliberative behavior. The proposed architecture was evaluated through the development of case studies in the information security domain using case-based reasoning, ontologies for the representation of domain knowledge and supervised learning for automatic generation of reactive rules. Results obtained with the case studies performed confirmed a greater effectiveness and a shorter response time of the hybrid agent with learning regarding both the reactive or deliberative agent as well as a hybrid agent without learning in the intrusion detection in computer networks domain. From the specification and evaluation of the hybrid architecture with supervised learning in the Information Security domain, a reference architecture for the development of hybrid agents with learning was generalized. In future works, we intend to evaluate this reference architecture in other domains, with other types of reasoning and learning techniques to evaluate its impact on the productivity and quality of the development of hybrid software agents. / Os agentes de software representam uma evolução do software tradicional, tendo a capacidade de controlar seu próprio comportamento e agir com autonomia. Tipicamente, os agentes de software agem de forma reativa, onde as percepções e ações são predefinidas no momento da sua concepção, ou de forma deliberativa, onde a ação correspondente para uma determinada percepção é encontrada em tempo de execução através de um processo de raciocínio. Os agentes deliberativos não necessitam que todo o conhecimento seja predefinido, ao contrário, a partir de um conhecimento inicial eles conseguem inferir novo conhecimento. Todavia, em muitos casos, para encontrar uma ação apropriada a uma determinada percepção eles levam muito tempo, gerando um alto custo computacional. Como solução a esse problema, apresentamos neste trabalho uma arquitetura híbrida com aprendizagem para o desenvolvimento de agentes de software híbridos. Os agentes híbridos, que combinam comportamento reativo e deliberativo, são uma opção melhor para estruturar os agentes de software. As principais vantagens da arquitetura tese é o aprendizado do comportamento reativo, mais rápido e eficiente, através de interações do agente com o seu ambiente e a sua consequente adaptabilidade ao ambiente. O agente se adapta ao ambiente na medida em que aprende novo comportamento reativo a partir de comportamento deliberativo frequente. A arquitetura tese foi avaliada através do desenvolvimento de estudos de casos no domínio da segurança da informação utilizando o raciocínio baseado em casos, ontologias para a representação do conhecimento do domínio de estudo e aprendizagem supervisionada para geração automática de regras reativas. Os resultados obtidos com os estudos de casos realizados confirmaram uma efetividade maior e um menor tempo de resposta do agente híbrido com aprendizagem em relação tanto ao comportamento isolado de um agente reativo ou deliberativo bem como de um agente híbrido sem aprendizagem no domínio da detecção de intrusões em redes de computadores. A partir da especificação e avaliação da arquitetura híbrida com aprendizagem supervisionada no domínio da Segurança da Informação, foi generalizada uma arquitetura de referência para o desenvolvimento de agentes híbridos com aprendizagem. Em trabalhos futuros, pretende-se avaliar esta arquitetura de referência em outros domínios, com outros tipos de raciocínio e técnicas de aprendizagem para avaliar o seu impacto na produtividade e qualidade do desenvolvimento de agentes de software híbridos.
522

Classificação de dados estacionários e não estacionários baseada em grafos / Graph-based classification for stationary and non-stationary data

Bertini Júnior, João Roberto 24 January 2011 (has links)
Métodos baseados em grafos consistem em uma poderosa forma de representação e abstração de dados que proporcionam, dentre outras vantagens, representar relações topológicas, visualizar estruturas, representar grupos de dados com formatos distintos, bem como, fornecer medidas alternativas para caracterizar os dados. Esse tipo de abordagem tem sido cada vez mais considerada para solucionar problemas de aprendizado de máquina, principalmente no aprendizado não supervisionado, como agrupamento de dados, e mais recentemente, no aprendizado semissupervisionado. No aprendizado supervisionado, por outro lado, o uso de algoritmos baseados em grafos ainda tem sido pouco explorado na literatura. Este trabalho apresenta um algoritmo não paramétrico baseado em grafos para problemas de classificação com distribuição estacionária, bem como sua extensão para problemas que apresentam distribuição não estacionária. O algoritmo desenvolvido baseia-se em dois conceitos, a saber, 1) em uma estrutura chamada grafo K-associado ótimo, que representa o conjunto de treinamento como um grafo esparso e dividido em componentes; e 2) na medida de pureza de cada componente, que utiliza a estrutura do grafo para determinar o nível de mistura local dos dados em relação às suas classes. O trabalho também considera problemas de classificação que apresentam alteração na distribuição de novos dados. Este problema caracteriza a mudança de conceito e degrada o desempenho do classificador. De modo que, para manter bom desempenho, é necessário que o classificador continue aprendendo durante a fase de aplicação, por exemplo, por meio de aprendizado incremental. Resultados experimentais sugerem que ambas as abordagens apresentam vantagens na classificação de dados em relação aos algoritmos testados / Graph-based methods consist in a powerful form for data representation and abstraction which provides, among others advantages, representing topological relations, visualizing structures, representing groups of data with distinct formats, as well as, supplying alternative measures to characterize data. Such approach has been each time more considered to solve machine learning related problems, mainly concerning unsupervised learning, like clustering, and recently, semi-supervised learning. However, graph-based solutions for supervised learning tasks still remain underexplored in literature. This work presents a non-parametric graph-based algorithm suitable for classification problems with stationary distribution, as well as its extension to cope with problems of non-stationary distributed data. The developed algorithm relies on the following concepts, 1) a graph structure called optimal K-associated graph, which represents the training set as a sparse graph separated into components; and 2) the purity measure for each component, which uses the graph structure to determine local data mixture level in relation to their classes. This work also considers classification problems that exhibit modification on distribution of data flow. This problem qualifies concept drift and worsens any static classifier performance. Hence, in order to maintain accuracy performance, it is necessary for the classifier to keep learning during application phase, for example, by implementing incremental learning. Experimental results, concerning both algorithms, suggest that they had presented advantages over the tested algorithms on data classification tasks
523

Desenvolvimento de sensores eletroquímicos de carbono visando à detecção de furosemida em amostras farmacêuticas e clínicas / Development of carbon electrochemical sensors for the detection of furosemide in pharmaceutical and clinical samples

Ataide, Vanessa Neiva de 03 April 2018 (has links)
Nos últimos anos, materiais baseados em grafeno têm atraído grande interesse na área eletroquímica devido às suas excelentes propriedades eletrônicas. Neste trabalho, apresentamos a obtenção de óxido de grafeno reduzido utilizando métodos eletroquímicos. A redução eletroquímica do óxido de grafeno (OG) foi realizada na superfície de um eletrodo de carbono vítreo (ECV) utilizando voltametria cíclica. O óxido de grafeno reduzido eletroquimicamente (OG-RE) foi caracterizado utilizando espectroscopia Raman, microscopia eletrônica de varredura (MEV), microscopia de força atômica (MFA), espectroscopia de fotoelétrons excitados por raios-X (XPS) e espectroscopia de impedância eletroquímica. A relação ID/IG obtida através dos espectros Raman do OG e do OG-RE foram de 0,98 e 1,15, respectivamente, indicando que o processo de redução resultou em uma maior desorganização estrutural. A espectroscopia de fotoelétrons de raios-X mostrou que a proporção entre C e O no OG foi de 45,7% e, que após a redução eletroquímica essa relação diminuiu para 38,5%. O eletrodo modificado com OG-RE foi empregado para quantificação de furosemida (FUR) em amostras farmacêuticas utilizando voltametria de pulso diferencial e análise por injeção em fluxo com detecção amperométrica. Os limites de detecção e quantificação calculados para o método proposto foram de 0,35 e 1,18 µmol L-1, respectivamente. Visando à aplicação em amostras de interesse clínico, fabricou-se um sensor descartável e de baixo custo para a detecção de FUR utilizando papel sulfite pintado com lápis de desenho e ativado por laser de CO2. Os estudos voltamétricos utilizando o [Ru(NH3)6]Cl3 mostraram que o transporte de massa neste dispositivo foi governado por difusão e que o tratamento com laser diminui a resistência a transferência de carga, assim como resultou em um menor problema relacionado ao envenenamento da superfície do eletrodo / In recent years, graphene-based materials have attracted great interest in the area of electrochemistry due to its excellent electronic properties. In this work, we present the production of reduced graphene oxide using electrochemical methods. The electrochemical reduction of graphene oxide (GO) was carried out on the surface of a glassy carbon electrode (GCE) using the cyclic voltammetry technique. Electrochemically reduced graphene oxide (ER-GO) was characterized using Raman spectroscopy, scanning electron microscopy (SEM), atomic force microscopy (AFM), Xray excited photoelectron spectroscopy (XPS) and electrochemical impedance spectroscopy (EIS). ID / IG ratio obtained through Raman spectra of GO and ER-GO were 0.98 and 1.15, respectively, indicating that the reduction process resulted in greater structural disorganization. XPS showed that the ratio between C and O in the GO was 45.7% and that after electrochemical reduction this ratio decreased to 38.5%. The ER-GO modified electrode was used as a sensor for furosemide (FUR) in pharmaceutical samples using the techniques of differential pulse voltammetry and flow injection analysis with amperometric detection. The limits of detection and quantification for the proposed method were 0.35 and 1.18 µmol L-1, respectively. Aiming to the application in clinical samples a disposable, low-cost paper-based sensor for the detection of FUR was fabricated using office paper painted with drawing pencil and activated by CO2 laser. Voltammetric studies using [Ru(NH3)6]Cl3 have shown that mass transport in this device was controlled by diffusion and the laser decreases resistance to charge transfer, as well as, avoided the problem with electrode surface poisoning
524

Controle de uma plataforma de movimento de um simulador de vôo / Control of a flight simulator motion base

Becerra Vargas, Mauricio 27 November 2009 (has links)
Este trabalho apresenta o desenvolvimento e as análises de técnicas de controle aplicadas a uma base de movimento de um simulador de vôo. Nos primeiros capítulos são abordados aspectos relacionados com a simulação de movimentos. Uma breve descrição da dinâmica da aeronave e o desenvolvimento do algoritmo de movimento (washout filter) são apresentados. O modelo dinâmico da base de movimento é desenvolvido baseado num manipulador paralelo de seis graus de liberdade chamado de plataforma de Stewart acionado eletricamente. As equações de movimento do atuador eletromecânico são incluídas no modelo dinâmico da plataforma. O controle baseado na dinâmica inversa é uma alternativa para abordar o controle de sistema mecânicos não lineares como a plataforma de Stewart. Porém, essa técnica considera o conhecimento exato do modelo dinâmico do sistema, portanto, a dinâmica não modelada, as incertezas paramétricas e as perturbações externas podem degradar o desempenho do controlador. Além disso, o custo computacional pago pelo cálculo do modelo dinâmico realizado online é muito alto. Nesse contexto, duas estratégias de controle foram aplicadas na malha externa da estrutura de controle baseada na dinâmica inversa para o controle de aceleração na presença de incertezas paramétricas e da dinâmica não modelada, os quais foram introduzidas intencionalmente no processo de aproximar o modelo dinâmico com o objetivo de simplificar a implementação do controle baseado na dinâmica inversa. Na primeira estratégia, o termo robusto de controle foi projetado, provando a estabilidade do sistema linearizado por meio da teoria de estabilidade de Lyapunov. Este controle apresenta o fenômeno conhecido como chattering e então foi adotada uma função de saturação para substituir a lei de controle. Na segunda estratégia, o termo robusto de controle foi projetado considerando um problema de rejeição de distúrbio via controle H \'INFINITO\', onde o controlador considera as incertezas como distúrbios afetando o sistema linearizado resultante da aplicação do controle baseado na dinâmica inversa. Finalmente, três tipos de testes foram realizados para avaliar o sistema de controle: função descritiva, limiar dinâmico e algumas manobras da aeronave calculadas a partir do modelo dinâmico e transformadas através do algoritmo de movimento. As duas estratégias de controle foram comparadas. / This work presents the development and analysis of control techniques applied to a flight simulator motion base. The first chapters deal with subjects related to motion simulation. A brief description of the aircraft dynamic model and the development of the motion algorithm (washout filter) are presented. The motion base dynamics is derived based on a six degree of freedom parallel manipulator driven by electromechanical actuators. The six degree of freedom parallel manipulator is called Stewart platform. The motion equations of the electromechanical actuators are included in the motion base dynamics. Inverse dynamics control is an approach to nonlinear control design, nonetheless, this technique is based on the assumption of exact cancellation of nonlinear terms, therefore, parametric uncertainty, unmodeled dynamics and external disturbances may deteriorate the controller performance. In addition, a high computational burden is paid by computing on-line the complete dynamic model of the motion-base. Robustness can be regained by applying robust control tecniques in the outer loop control structure. In this context, two control strategies were applied in the outer loop of the inverse dynamics control structure linearized system for robust acceleration tracking in the presence of parametric uncertainty and unmodeled dynamic, which are intentionally introduced in the process of approximating the dynamic model in order to simplify the implementation of this approach, the inverse dynamic control. Both control strategies consist of introducing an additional term to the inverse dynamics controller which provides robustness to the control system. In the first strategy, the robust control term was designed proving the stability of the linearized system in the presence of uncertainties, using the Lyapunov stability theory. This control term presents a phenomenon known as chattering. Therefore, a saturation function was adopted to replace the control law. In the second strategy, the robust term was designed for a disturbance rejection problem via H \'INFINITE\' control, where the controller considers the uncertaities as disturbances affecting the linearized system resulting from the application of the inverse dynamic control. Finally, describing function, dynamic threshold and some maneuvers computed from the washout filter were used to evaluate the performance of the controllers. Both approaches were compared.
525

Componentes de Software no desenvolvimento de aplicações colaborativas para Web: Evolução da plataforma Groupware Workbench / Software Components for the development of collaborative Web applications: Evolution of the Groupware Workbench platform

Martins, Straus Michalsky 19 October 2012 (has links)
A tecnologia de componentes de software é propícia para encapsular questões técnicas de implementação e favorecer o reúso entre aplicações, o que é particularmente relevante no desenvolvimento de aplicações colaborativas na Web. Este trabalho utiliza a plataforma Groupware Workbench nesse contexto. A aplicação social Arquigrafia foi a principal motivadora dessa evolução. O Arquigrafia é um ambiente colaborativo para o estudo de arquitetura e compartilhamento de imagens fortemente baseado em colaboração e inteligência coletiva. Como o conceito de inteligência coletiva é muito amplo e mal definido, foi realizada uma análise de domínio e uma classificação das técnicas e seus usos nos sistemas atuais. Também foi feito o mapeamento e a implementação das funcionalidades do Arquigrafia em componentes do Groupware Workbench e executada uma avaliação da plataforma em quatro vertentes, sendo elas: arquitetura de componentes; suporte à colaboração; arquitetura técnica; e percepção dos desenvolvedores. Limitações tecnológicas e conceituais foram identificadas, como por exemplo, o modelo de mapeamento objeto-relacional e questões ligadas à flexibilidade. Essas limitações e colocações foram tratadas e avaliadas na plataforma, resultando em melhorias na arquitetura dos componentes e na simplificação do código. O Groupware Workbench no geral mostrou-se viável para o desenvolvimento de uma aplicação colaborativa real na Web 2.0. / Software components technology is favorable to encapsulate implementation technical issues and encourage the reuse among applications. These characteristics are particularly relevant in the development of web-based collaborative applications. This work evaluates and evolves the Groupware Workbench platform in this context. The social application Arquigrafia was the main motivation for this evolution. Arquigrafia is a collaborative environment for the study of architecture and image sharing strongly based on collaboration and collective intelligence. Since the concept of collective intelligence is very broad, we performed a domain analysis and a classification of its use in current systems. We also implemented the Arquigrafia features using Groupware Workbench components and evaluated the platform in four areas: components architecture; collaboration support; technical architecture; and developers perspective. We identified technological and conceptual limitations, as for example, the adopted object-relational mapping model and issues related to the flexibility of the platform. These limitations were treated and evaluated. We noted improvements in the architecture of the components and code simplification. As a result, the Groupware Workbench was a feasible solution for developing the Arquigrafia application.
526

Gestão de custos como instrumento de governança pública: um modelo de custeio para os hospitais públicos do Paraná

Blanski, Márcia Beatriz Schneider 13 March 2015 (has links)
PPSUS / A gestão de custos, em qualquer organização, proporciona uma série de benefícios, como a segurança na boa administração dos recursos, porém é pouco utilizada na área hospitalar pública, o que se configura como um paradoxo, frente à complexidade da organização hospitalar e à situação de subfinanciamento da saúde. Sendo assim, a questão de pesquisa que norteia este estudo é: Qual a contribuição de um modelo de custeio para a governança pública nas unidades hospitalares próprias do Estado do Paraná? Este estudo tem como objetivo propor um modelo de custeio para a gestão de custos em hospitais públicos administrados diretamente pelo Estado, como proposta de aprimoramento para controle, transparência, orçamentação e planejamento das ações estratégicas de saúde. Tal estudo mostra-se relevante, uma vez que a área hospitalar é bastante complexa, tornando-se ferramenta útil para tomada de decisão sobre investimentos, alterações de perfil de atendimento, utilização de capacidade ociosa, ampliações de serviços, entre outros. O sistema de saúde público brasileiro necessita de máxima eficiência, tendo em vista os direitos universais garantidos pela Constituição Federal. Assim, justifica-se pela complexidade hospitalar, um cenário de elevada evolução de custos, seja pela mudança do perfil demográfico e epidemiológico, como o envelhecimento da população brasileira e o crescente número de doenças crônicas, bem como pela crescente evolução tecnológica e seu incremento acelerado. Trata-se de uma pesquisa-ação com base no levantamento de resultados de pesquisas similares para análise da aplicação do modelo de custeio para organizações hospitalares, bem como a análise empírica das informações existentes em dois hospitais selecionados. Com base nos conceitos teóricos e empíricos da aplicação da metodologia de custo por absorção, gera elementos para melhor compreensão do problema para desenvolver o modelo de custeio. A avaliação dos resultados se constitui em importante instrumento de gestão dos hospitais e da Secretaria de Estado da Saúde, pois permite aos dirigentes maior segurança diante das dificuldades e desafios impostos nesse segmento, caso contrário há uma restrição ainda maior na gestão, no financiamento e operacionalização dos hospitais públicos. / Cost management brings about several benefits to any type of organization, such as the certainty that resources are well managed, but it is not much used by the public hospital sector, what is a paradox seeing that hospital management is complex and public health faces an under-financing situation. Based on the aforementioned facts, the present study aims at answering the following question: What is the contribution of costing models to public governance in the State of Paraná public hospitals? So, the study objective is to propose a costing management model addressed to improve health strategy control, transparency, budget and planning actions in public hospitals directly managed by the State of Paraná. Since the hospital sector is complex, our study is highly relevant as a helping tool to: investment decision-making processes, changes of healthcare profile, use of spare capacity and service improvement, among others. Considering the universal rights ensured by the Brazilian Federal Constitution, the country public health system needs to show maximum efficiency. In addition to hospital complexity, the sector increased costs are justified by the change of demographic and epidemiological profiles, Brazilian population aging, chronic disease growth, increased technological evolution and development. The research/action is based on the results of similar researches addressed to analyze the application of costing models addressed to hospital organization, as well as on the empiric analysis of data existing in two hospitals selected by the study. By applying the theoretical and empiric costing absorption methodology, our study provides elements to help understanding the problems involved in the costing model development. Result assessment is an important tool which permits Hospital and the State Health Department managers to deal with the sector challenges and difficulties more easily, since it helps lessen the restrictions imposed to public hospital management, financing and operation.
527

X-ARM: um modelo de representa??o de artefatos de software

Santos, Michael Shuenck dos 16 October 2006 (has links)
Made available in DSpace on 2014-12-17T15:48:02Z (GMT). No. of bitstreams: 1 MichaelSS.pdf: 1470554 bytes, checksum: 016748ab8192abef9067fea20f51d077 (MD5) Previous issue date: 2006-10-16 / A great challenge of the Component Based Development is the creation of mechanisms to facilitate the finding of reusable assets that fulfill the requirements of a particular system under development. In this sense, some component repositories have been proposed in order to answer such a need. However, repositories need to represent the asset characteristics that can be taken into account by the consumers when choosing the more adequate assets for their needs. In such a context, the literature presents some models proposed to describe the asset characteristics, such as identification, classification, non-functional requirements, usage and deployment information and component interfaces. Nevertheless, the set of characteristics represented by those models is insufficient to describe information used before, during and after the asset acquisition. This information refers to negotiation, certification, change history, adopted development process, events, exceptions and so on. In order to overcome this gap, this work proposes an XML-based model to represent several characteristics, of different asset types, that may be employed in the component-based development. Besides representing metadata used by consumers, useful for asset discovering, acquisition and usage, this model, called X-ARM, also focus on helping asset developers activities. Since the proposed model represents an expressive amount of information, this work also presents a tool called X-Packager, developed with the goal of helping asset description with X-ARM / O Desenvolvimento Baseado em Componentes tem como grande desafio a cria??o de mecanismos que facilitem a identifica??o de assets reus?veis que satisfa?am os requisitos de sistemas particulares sob desenvolvimento. Neste sentido, reposit?rios de componentes t?m sido propostos como meios para se atender esta necessidade. Por?m, reposit?rios precisam representar as caracter?sticas de assets que possam ser levadas em considera??o pelos consumidores quando da escolha dos assets mais adequados ?s suas necessidades. Neste contexto, a literatura apresenta alguns modelos que foram propostos com a finalidade de descrever as caracter?sticas de assets, tais como identifica??o, classifica??o, requisitos n?o funcionais, informa??es de implanta??o e uso, arquivos que comp?em os assets, e interfaces de componentes. No entanto, o conjunto de caracter?sticas representadas por estes modelos ? insuficiente para descrever diversas informa??es usadas antes, durante e depois da aquisi??o dos assets, dentre as quais pode-se destacar informa??es de negocia??o e certifica??o, hist?rico de mudan?as, processo de desenvolvimento usado, eventos, exce??es. De forma a solucionar tais defici?ncias, este trabalho apresenta um modelo baseado em XML para a representa??o de diversas caracter?sticas, de diversos tipos de assets, que possam ser empregadas no desenvolvimento baseado em componentes. O modelo proposto, denominado X-ARM, fornece informa??es usadas n?o apenas pelos consumidores na identifica??o, aquisi??o e uso de assets, mas tamb?m para apoiar as atividades dos desenvolvedores de assets. Dado que o modelo proposto representa uma expressiva quantidade de informa??es, este trabalho tamb?m apresenta uma ferramenta chamada X-Packager, desenvolvida com o objetivo de auxiliar a descri??o de assets com X-ARM
528

Gera??o de interfaces de usu?rio de sistemas Web para m?ltiplos dispositivos com o uso de componentes de IU

Sousa, Lirisnei Gomes de 20 August 2007 (has links)
Made available in DSpace on 2014-12-17T15:48:13Z (GMT). No. of bitstreams: 1 LirisneiGS.pdf: 852828 bytes, checksum: d8e0d9662bced4742e1d852cf03d78a8 (MD5) Previous issue date: 2007-08-20 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / This work presents an User Interface (UI) prototypes generation process to the softwares that has a Web browser as a plataform. This process uses UI components more complex than HTML elements. To described this components more complex this work suggest to use the XICL (eXtensinble User Interface Components Language). XICL is a language, based on XML syntax, to describe UI Components and IUs. XICL promotes extensibility and reusability in the User Interface development process. We have developed two compiler. The first one compiles IMML (Interactive Message Modeling Language) code and generates XICL code. The second one compiles XICL code and generates DHTML code / Este trabalho apresenta um processo de gera??o de prot?tipos de Interfaces de Usu?rio (IU) para software que tem como plataforma operacional um navegador Web. Este processo faz o uso de componentes de interface de usu?rio mais complexos que os elementos HTML. Para descrever estes componentes mais complexos este trabalho sugere o uso da linguagem XICL (eXtensible User Interface Components Language). A XICL ? uma linguagem, baseada em XML, para a descri??o de componentes de IU e de IUs. A XICL permite reusabilidade e extensibilidade no desenvolvimento de interfaces de usu?rios. Foram desenvolvidos dois compiladores, um que gera c?digo XICL a partir de c?digo IMML (Interactive Message Modeling Language) e outro que a partir de XICL gera DHTML
529

Uma técnica para verificar não-conformidades em Programas Especificados com Contratos. / A technique for verifying nonconformities in Specified Programs with Contracts.

OLIVEIRA, Catuxe Varjão de Santana. 31 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-31T22:55:43Z No. of bitstreams: 1 CATUXE VARJÃO DE SANTANA OLIVEIRA - PPGCC DISSERTAÇÃO 2013..pdf: 11354934 bytes, checksum: 6a23f31ef43ba211aeaa89eb36061a43 (MD5) / Made available in DSpace on 2018-08-31T22:55:43Z (GMT). No. of bitstreams: 1 CATUXE VARJÃO DE SANTANA OLIVEIRA - PPGCC DISSERTAÇÃO 2013..pdf: 11354934 bytes, checksum: 6a23f31ef43ba211aeaa89eb36061a43 (MD5) Previous issue date: 2013-03-15 / A escrita de especificações formais por contratos é uma maneira confiável e prática de construir softwares, em que desenvolvedores e clientes mantêm um acordo contendo direitos e obrigações a serem cumpridos. Essas responsabilidades são expressas basicamente através de pré-condições, pós-condições, e invariantes. Como exemplo de linguagem de especificação por contrato tem-se Java Modeling Language (JML) específica para programas Java. Apesar de a especificação formal melhorar a confiabilidade do software, deve-se haver certificação de que a implementação está em conformidade com a especificação definida. Verificação de conformidade em programas com contratos é geralmente realizada através de análises manuais ou verificação dinâmica, e em fases tardias do processo de desenvolvimento do software, ou seja, quando o produto final encontra-se disponível para o cliente. Nesta situação, o tempo despendido para detectar não-conformidades pode ser muito longo, ocasionando, consequentemente, atrasos no cronograma e aumento nos custos. Neste trabalho, propomos uma abordagem para checar conformidade entre código fonte e especificação formal por contratos através da geração e execução de testes. Testes de unidade são gerados automaticamente, resultando em casos de testes com sequências de chamadas aos métodos e construtores. Os contratos são transformados em assertivas que funcionam como oráculo para os testes. Esta abordagem não garante corretude total do software, mas aumenta a confiança quando uma não-conformidade é encontrada e, além disso, encoraja o uso de especificação por contratos. Nós implementamos JMLOK, uma ferramenta que executa os passos desta abordagem automaticamente no contexto de programas Java especificados com Java Modeling Language (JML). JMLOK foi avaliada em grupos de programas Java/JML, incluindo um módulo do projeto JavaCard. Todas as unidades experimentais totalizam 18 KLOC e 5K de linhas de especificação JML. Todo o processo consumiu menos que 10 minutos de execução e gerou como resultado a detecção de 29 não-conformidades. As causas das ocorrências das não-conformidades foram analisadas manualmente e classificadas em categorias de falhas. / Writing formal specifications by contracts is a practical and reliable way to build softwares in which developers and clients keep an agreement with rights and obligations to be fulfilled. These responsibilities are expressed basically by pre-conditions, post-conditions and invariants. As example of specification language by contract there is Java Modeling Language (JML) that is specific to Java programs. Although formal specification improves software rehabihty, it should exist certification of conformance with defined specification. Verify conformance between programs and contracts is usually performed by manual analysis or dynamic verification, and in late stages of software development process, that is, when the final product is available to client. In this situation, the time required to detect nonconformances could be so long, causing, consequently, schedule delays and increased costs. In this work, we propose an approach to check conformance between source code and contract formal specification through testing generation and execution. Unit tests are generated automatically resulting in test cases with call sequences of methods and constructors. The contracts are translated in assertions that work like test oracle. We have implemented JMLOK, a tool performs the approach steps automatically in the context of Java programs specified with Java Modeling Language (JML). JMLOK was evaluated in Java/JML programs groups, including a module of the JavaCard project. All the experimental units totalize 18 KLOC and 5K lines of JML specification. All process took less than 10 minutes of running and generated as result 29 nonconformances. The causes of nonconformances occurring were analyzed manually and classified in categories of fails.
530

Geração de casos de teste de interação para aplicações de celulares. / Generation of interaction test cases for mobile applications.

ANDRADE, Wilkerson de Lucena. 22 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-22T22:35:08Z No. of bitstreams: 1 WILKERSON DE LUCENA ANDRADE - DISSERTAÇÃO PPGCC 2007..pdf: 2626609 bytes, checksum: 614195de1ab9a26c4b34ae95f67813d9 (MD5) / Made available in DSpace on 2018-08-22T22:35:08Z (GMT). No. of bitstreams: 1 WILKERSON DE LUCENA ANDRADE - DISSERTAÇÃO PPGCC 2007..pdf: 2626609 bytes, checksum: 614195de1ab9a26c4b34ae95f67813d9 (MD5) Previous issue date: 2007-03-02 / O mercado de telefonia celular tem se mostrado cada vez mais competitivo, demandando um padrão de qualidade cada vez maior. Neste contexto, aplicações são desenvolvidas como conjuntos de funcionalidades, chamados de features. Tais features são combinadas em cenários de uso das aplicações podendo, inclusive, haver interações entre elas. Interações entre features podem ocorrer em dois cenários diferentes: no primeiro caso uma feature pode solicitar um serviço ou dados de uma outra e no segundo caso, uma feature pode interromper a execução de outra feature. Devido ao fato de as features serem usualmente desenvolvidas e testadas de forma isolada, os testes de suas interações nos cenários de uso das aplicações ficam comprometidos. Dado que essas interações estejam especificadas, modelos contendo esses comportamentos podem ser obtidos, e assim, usando técnicas de teste baseado em modelo, casos de teste podem ser gerados para verificar tais interações. Neste trabalho, propomos uma estratégia para dar suporte ao teste de interação entre features em aplicações para celulares. Para isso, estendemos um formato usado para a especificação de requisitos de interação de features, desenvolvemos um procedimento para a geração do modelo comportamental a partir dessa especificação e uma estratégia de geração de casos de teste a partir desse modelo comportamental baseando-se em propósitos de teste, cujo objetivo é extrair cenários de interação entre features de forma que tais interações sejam testadas. A ferramenta LTSBT foi estendida para dar suporte a geração automática de casos de teste de interação e um estudo de caso foi realizado para demonstrar a aplicação da estratégia proposta. / The mobile phone market has become even more competitive, demanding high quality standards. In this context, applications are developed as sets of functionalities, called features. Such features are combined in use case scenarios of the application. They can also have interactions between them. Interactions between features can occur in two different scenarios: in the first case each feature can ask for a service or data of another feature and, in the second case, a feature can interrupt the execution of another feature. Due to the fact that the features are usually developed in an isolated way, the tests of their interactions in such scenarios are compromised. Given that the interactions are specified, models containing such behaviors can be obtained, and thus, using model-based techniques, test cases can be generated to verify these interactions. In this work, we propose a strategy to support the interaction test between features in mobile phone applications. For this, we extended a form used to specify the feature interaction requirements, we develop a procedure to generate the behavioral model from such specification and a test case generation strategy from this model based on test purposes, that aims to extract interaction between features such that the interactions are tested. The LTS-BT tool was extended to support the automatic generation of interaction test cases and a case study was conducted to demonstrate the application of the proposed strategy.

Page generated in 0.0572 seconds