• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4176
  • 1988
  • 833
  • 747
  • 601
  • 597
  • 581
  • 285
  • 196
  • 131
  • 114
  • 113
  • 73
  • 72
  • 54
  • Tagged with
  • 11708
  • 1971
  • 1496
  • 1342
  • 1268
  • 1187
  • 1117
  • 1048
  • 979
  • 961
  • 944
  • 935
  • 927
  • 890
  • 869
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Uma abordagem baseada em planejamento não-determinístico e SAT para a composição resiliente e automática de web services

Alves, Jhonatan January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2017-05-23T04:11:46Z (GMT). No. of bitstreams: 1 345515.pdf: 1730458 bytes, checksum: edb07ab19744e70be5d0eb6d39756612 (MD5) Previous issue date: 2016 / Web services têm sido cada vez mais adotados por organizações na implantação de processos de negócio e integração de sistemas heterogêneos.Todavia, os Web services estão vulneráveis a uma série de problemas de execução (serviços indisponíveis, resultados insatisfatórios,descumprimento de parâmetros de qualidade, violações de SLA,falhas de comunicação, dentre outros) que podem fazer com que os seus comportamentos sejam diferentes do esperado, impedindo-os de cumprirem com sucesso as tarefas para as quais foram designados. Neste sentido, é importante levar em consideração que o comportamento dos Web services é intrinsecamente não-determinístico, muitas vezes inesperado e inadequado. Vários trabalhos têm sido propostos para se obter, de modo eficiente, composições de Web services. Entretanto,com algumas exceções, a maioria ignora os problemas de execução que podem ocorrer em tempo de execução e afetar as composições. Neste contexto, este trabalho apresenta uma abordagem para a obtenção decomposições resilientes de Web services, isto é, composições capazes de contornar problemas de execução para satisfazer os objetivos do usuário.A abordagem proposta combina planejamento não-determinístico e SAT (satisfazibilidade booleana) para se obter k planos alternativos(composições alternativas de Web services) que solucionam uma dada requisição, onde um plano é visto como uma sequência de ações, e as ações correspondem a invocações de operações de Web services. Os planos obtidos são fundidos em uma estratégia de contingência na forma de uma árvore de decisão binária (composição de Web services resiliente resultante). A estratégia de contingência permite a motores de execução de processos acompanhar o progresso da execução da composição e lidar com problemas que ocorrem em ambientes dinâmicos e não-determinísticos mediante a rápida seleção, com custo mínimo, de uma composição alternativa e compatível com aquela que falhou. Resultados de experimentos com a abordagem proposta mostraram que é possível obter estratégias de contingências em tempos relativamente baixos e com uma quantidade grande e satisfatória de planos. Em torno de um minuto foi possível construir árvores binárias com uma média de 6723 planos, e em torno de cinco minutos árvores binárias foram construídas com uma média de 15148 planos.<br> / Abstract : Web services have been increasingly adopted by organizations to implement their business processes and to integrate heterogeneous systems. However, Web services are vulnerable to a wide number of execution problems (e.g., unavailable services, unappropriated results, noncompliance of quality parameters, service level agreement violations, communication failures, among others) which can make them behave differently from the expected and prevent them to comply with their tasks successfully. In this regard, it is important to take into account that the behavior of Web services is intrinsically nondeterministic, often unexpected and inappropriate. Several works have been proposed to efficiently obtain Web service compositions. However, with few exceptions, most of them disregard contingencies which may happen at runtime and affect the compositions. In this context, this paper presents an approach for obtaining resilient compositions of Web services, i.e, compositions that are able to circumvent problems which may occur in the execution environments in order to meet the user goals. This approach combines nondeterministic planning and SAT (boolean satisfiability) to obtain k plans (alternative compositions of Web services) that address a given user request, where a plan is a sequence of actions, and an action corresponds to an invocation of aWeb services operation. The obtained plans are merged into a contingency strategy in the form of a binary decision tree (i.e., the resulting resilient composition of Web services). The contingency strategy enables process execution engines to keep track of the composition execution progress and deal with problems which happen in dynamic and nondeterministic environments by quickly selecting, with minimum cost, a suitable alternative composition to continue the execution towards the satisfaction of the user s goals. Experimental results using this approach have showed that it is possible to obtain contingency strategies in relatively low times and with a large and satisfactory amount of plans. In about one minute it was possible to build binary trees with an average of 6723 plans, and in about five minutes binary trees were built with an average of 15148 plans.
162

Uma abordagem para composição semiautomática de serviços baseada em sugestões semânticas

Silva, Diogo Phelipe Busanello da January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2016-01-15T14:53:04Z (GMT). No. of bitstreams: 1 336951.pdf: 3073988 bytes, checksum: 3e3e813aa96820748f5b6caabee0c40e (MD5) Previous issue date: 2015 / O uso de semântica na Web tem o intuito de permitir que as informações possam sem processadas por máquinas, geralmente através de significados definidos por ontologias, que são uma especificação formal e explícita de um conceito compartilhado. Com Web Services é possível a invocação de funcionalidade de softwares através de interfaces bem definidas. A utilização de semântica para descrição de Web Services possibilita ainda a automação, total ou parcial, do processo de criação de composições de serviços, que mostra-se necessária quando um único serviço não consegue prover toda a funcionalidade desejada pelo cliente. Na literatura existem vários esforços para buscar automação no processo de composição de serviços com base na utilização de descrição semântica. A completa automação do processo de composição de serviço vem associada ao alto custo computacional e à exclusão do usuário do processo. Esse trabalho apresenta uma abordagem hibrida, semiautomática, chamada de S3M, na qual há participação do usuário no processo de composição de serviços, somada a sugestões de operações que são compatíveis com a composição sendo criado. Isso é feito através do match semântico entre as entradas das operações candidatas junto às saídas das operações contidas na composição sendo criada, somada a outras métricas. Como a qualidade da sugestão depende diretamente das ontologias associadas ao serviços, a avaliação da proposta ficou limitada a testes de desempenho e simulação do comportamento do algoritmo em determinados cenários. <br> / Abstract : The use of semantic in the Web aims to make possible the processing of information by machines, usually through a well defined meaning in ontologies, i.e. a formal explicit specification of a shared conceptualization. With Web Service it is possible the invocacional of software functionality through interfaces. Semantic is used to add meaning to Web Services operations, inputs and outputs. The use of semantic description in Web Services also allows either full or partial automation of the service composition creation process, which is necessary when a single service cannot provide all features required by the client. There are several efforts in literature seeking automation of the service composition process based on the use of semantic descriptions. The complete automation on the service composition process results in a high computational cost and in excluding the user from the process. This work presents a hybrid (i.e. semi-automatic) approach, called S3M. In which the user takes part in the service composition process, receiving suggestions of services that are compatible with the composition during its creation. This is made through the semantic match between the inputs of the candidates operations and the outputs of the operations inside the composition been designed, with another metrics. The quality of the suggestion are directly dependent with the ontologies associated with the services, making the evaluation of the presented work limited to performance tests and simulation, where the behavior of de suggestion mechanism could be analyzed.
163

Uma abordagem automática para descoberta e composição de serviços web semânticos

Hobold, Guilherme Coan January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2012 / Made available in DSpace on 2013-06-25T22:53:28Z (GMT). No. of bitstreams: 1 313259.pdf: 1992523 bytes, checksum: 1bbc204d38dba2a5a4ce61923e0c1ec1 (MD5) / A adição de semântica à descrição de Serviços Web visa permitir a automação dos processos de descoberta e composição de serviços. Para que isso seja possível, é necessário que sejam desenvolvidas ferramentas que façam com que esses processos sejam realizados dinamicamente, sem a necessidade de intervenção humana. Diversos trabalhos na área de Web Semântica têm explorado a descoberta e a composição de Serviços Web através da descrição semântica das suas funcionalidades. Este trabalho apresenta uma abordagem para a descoberta e a composição de Serviços Web Semânticos de forma automática. Mediante o envio de uma requisição com a descrição das funcionalidades de um serviço, a abordagem proposta possibilita que composições sejam estabelecidas quando um único Serviço Web não é suficiente para atender as necessidades dos usuários. Por meio de anotações semânticas baseadas em SAWSDL (Semantic Annotations for WSDL), a abordagem proposta realiza o matching semântico das funcionalidades dos serviços web disponíveis em repositórios de serviços com as informações enviadas na requisição e constrói um grafo de composições. No final da construção do grafo, um algoritmo analisa se dois ou mais caminhos levam à mesma informação desejada pelo usuário. Caso isso aconteça, uma função é aplicada para cada caminho, a fim de selecionar aquele com o menor grau de divergência semântica. A proposta da abordagem apresentada é criar composições de serviços web em tempo de requisição de modo que sejam capazes de combinar serviços pré-existentes para criar um novo serviço, tirando proveito das funcionalidades oferecidas por cada um e combinando-as a fim de oferecer funcionalidades ainda mais complexas e até inexistentes. Dessa forma, a abordagem torna o processo de busca e composição de serviços web capaz de informar não apenas serviços individuais, mas também composições de serviços. Como contribuições deste trabalho citam-se: um algoritmo para a seleção de composições baseado na qualidade semântica das mesmas e um protótipo em conjunto com uma infraestrutura para a descoberta e a composição de serviços web.<br> / Abstract : The addition of semantic to web services description allows the automation of the discovery and composition process. However, tools must be developed to allow these processes be performed dynamically without human intervention. Several studies in the area of the Semantic Web have explored the discovery and composition of Web Services through semantic description of its functionality. This work presents an approach for automatic discovery and composition of semantic web services. By sending a request with the description of a service functionality, the proposed approach enables compositions to be established when a single web service is not sufficient to meet the user needs. Through semantic annotations based on SAWSDL (Semantic Annotations for WSDL), the proposed approach performs the semantic matching of Web services capabilities available in services repositories with the information sent in the request and builds a composition graph. At the end of the construction of the graph, an algorithm analyzes if two or more paths lead to the same information desired by the user. If this happens, a function is applied to each path in order to select the one with the lowest semantic mismatch degree. The purpose of the presented approach is to create compositions of web services at request time so that they are able to combine pre-existing services to create a new service, taking advantage of the functionality offered by each and combining them to provide functionality yet more complex and even non-existent. Thus, the approach makes the process of discovery and composition of web services return not only individual services, but also compositions of services. The main contributions of this work are: an algorithm for selection of compositions based on its semantics quality, a prototype and an infrastructure for discovery and composition of web services.
164

The crossover point between keyword rich website text and spamdexing

Zuze, Herbert January 2011 (has links)
Thesis Submitted in fulfilment of the requirements for the degree MAGISTER TECHNOLOGIAE In BUSINESS INFORMATION SYSTEMS in the FACULTY OF BUSINESS at the CAPE PENINSULA UNIVERSITY OF TECHNOLOGY 2011 / With over a billion Internet users surfing the Web daily in search of information, buying, selling and accessing social networks, marketers focus intensively on developing websites that are appealing to both the searchers and the search engines. Millions of webpages are submitted each day for indexing to search engines. The success of a search engine lies in its ability to provide accurate search results. Search engines’ algorithms constantly evaluate websites and webpages that could violate their respective policies. For this reason some websites and webpages are subsequently blacklisted from their index. Websites are increasingly being utilised as marketing tools, which result in major competition amongst websites. Website developers strive to develop websites of high quality, which are unique and content rich as this will assist them in obtaining a high ranking from search engines. By focusing on websites of a high standard, website developers utilise search engine optimisation (SEO) strategies to earn a high search engine ranking. From time to time SEO practitioners abuse SEO techniques in order to trick the search engine algorithms, but the algorithms are programmed to identify and flag these techniques as spamdexing. Search engines do not clearly explain how they interpret keyword stuffing (one form of spamdexing) in a webpage. However, they regard spamdexing in many different ways and do not provide enough detail to clarify what crawlers take into consideration when interpreting the spamdexing status of a website. Furthermore, search engines differ in the way that they interpret spamdexing, but offer no clear quantitative evidence for the crossover point of keyword dense website text to spamdexing. Scholars have indicated different views in respect of spamdexing, characterised by different keyword density measurements in the body text of a webpage. This raised several fundamental questions that form the basis of this research. This research was carried out using triangulation in order to determine how the scholars, search engines and SEO practitioners interpret spamdexing. Five websites with varying keyword densities were designed and submitted to Google, Yahoo! and Bing. Two phases of the experiment were done and the results were recorded. During both phases almost all of the webpages, including the one with a 97.3% keyword density, were indexed. The aforementioned enabled this research to conclusively disregard the keyword stuffing issue, blacklisting and any form of penalisation. Designers are urged to rather concentrate on usability and good values behind building a website. The research explored the fundamental contribution of keywords to webpage indexing and visibility. Keywords used with or without an optimum level of measurement of richness and poorness result in website ranking and indexing. However, the focus should be on the way in which the end user would interpret the content displayed, rather than how the search engine would react towards the content. Furthermore, spamdexing is likely to scare away potential clients and end users instead of embracing them, which is why the time spent on spamdexing should rather be used to produce quality content.
165

Creación, desarrollo y gestión de un medio participativo en Internet: www.cinesfera.cl

Muñoz Vergara, Pablo January 2009 (has links)
Memoria para optar al título profesional de periodista / El siguiente texto no pretende ser una recopilación de técnicas de posicionamiento en la red, ni un manual sobre arquitectura de la información, usabilidad o diseño Web. Si bien, toca todos estos campos de investigación, este escrito simplemente documenta la experiencia práctica de un sitio iniciado a través de una inquietud y sustentado por el gusto del cine como pasatiempo. Es necesario entender que todas las técnicas y disciplinas de gestión de un medio en Internet son temporales y se encuentran en constante discusión y renovación de acuerdo a la dinámica expansión de Internet en la sociedad. Por lo mismo, no pueden transformarse en sentencias dogmáticas, pero deben ser referentes claros de lo que es efectivo en la actualidad. Así, el enfoque primordial de esta publicación es plantear distintos campos de debate sobre la nueva labor del periodista en el actual mundo de las redes sociales en la Web y establecer una alerta a la formación de profesionales de la comunicación como protagonistas de la convergencia del contenido en un inmejorable escenario participativo.
166

Investigação de um modelo de avaliação da acessibilidade de portais na web

Denilson de Oliveira Feliciano, Fábio 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:57:50Z (GMT). No. of bitstreams: 2 arquivo3232_1.pdf: 1821130 bytes, checksum: 2866fd7aacdf9e1e0a3233f0dd587bc3 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Instituto Federal de Educação, Ciência e Tecnologia de Pernambuco / A internet tornou-se um importante meio de comunicação. Seu crescimento não para. Segundo o IBGE, 20,9% da população brasileira acessavam a Internet no ano de 2005. Em 2008 essa taxa subiu para 34,8%, um aumento de 13,9% no acesso à Internet em apenas 4 anos (IBGE,2010). Outros dados do IBGE demonstram que cerca de 24,6 milhões de pessoas possuem algum tipo de deficiência física. Esse número equivale a 14,5% da população brasileira (IBGE, 2010). Transformando de percentual para valores numéricos, pode-se afirmar que cerca de 8.560.800 de pessoas, que acessam a Internet, possuem algum tipo de deficiência física. No entanto, pouco foi feito para se construir portais acessíveis a pessoas com deficiência, seja temporária ou permanente. Os documentos de padronização existentes (WCGA [W3C,2008] e E-MAG[Governo Eletrônico,2007]) nem sempre são claros para o entendimento de desenvolvedores, sobretudo os menos experientes. A proposta deste trabalho é a apresentação da tabela de verificação. Uma metodologia simples para mensurar o nível de acessibilidade que a home page apresenta em relação a pessoas deficientes físicas. A tabela de verificação tanto pode auxiliar no momento de planejamento e construção do sítio como pode ser utilizada para verificar o quanto uma home page, já construída, está acessível. Como conclusão essa ferramenta foi utilizada nos portais brasileiros divididos em quatro categorias: educacional, comercial, governamental e financeiro. Dessa forma, é apresentado o nível de acessibilidade dos portais brasileiros em relação à tabela de verificação. Verificando a necessidade desse trabalho, como outros resultados, nas questões de acessibilidade. Considerando que 75% dos sítios investigados estão abaixo do limite mínimo de acessibilidade desejada
167

Modelo de melhoria contínua do design de websites baseado na web analítica

da Fonte de Moraes Cavalcanti, Flávia 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T16:28:50Z (GMT). No. of bitstreams: 2 arquivo2198_1.pdf: 2269714 bytes, checksum: c5b1eacf6679bb03879a4f62cc0e14ac (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / As estatísticas de acesso de um website chegaram a uma complexidade e possibilidades de detalhamento muito avançadas em função do surgimento da web analítica. Segundo a WAA1, web analítica é a medição, coleta, análise e comunicação de dados da Internet para os fins de compreensão e de otimização de uso da web. Através de uma ferramenta, que funciona na internet, é possível identificar o que funciona e o que não funciona em um website, do ponto de vista do usuário. O objetivo desta pesquisa é investigar as técnicas e ferramentas de web analítica e desenvolver um modelo para avaliação e melhoria contínua do design de websites. O modelo possibilitará, a partir de dados de uso do site, avaliar e implementar melhorias de design e medir seus resultados comprovando a eficiência da solução adotada. O modelo proposto também servirá de orientação para a equipe de criação, tomar a melhor decisão de design para um projeto de website. Desta forma, esperamos evidenciar e comprovar a importância de um acompanhamento analítico de website
168

Uma ferramenta de apoio ao desenvolvimento de Web Services

Menéndez, Andrés Ignácio Martínez 08 1900 (has links)
Web services são componentes de software que oferecem uma funcionalidade específica. A grande vantagem é que estes componentes podem ser acessados por diferentes sistemas, através de padrões da Internet, como HTTP, XML e SOAP. A utilização desses padrões é que permite criar aplicações distribuídas com o uso de web services. Este trabalho explica em detalhes as tecnologias envolvidas na criação de web services e mostra a implementação de uma ferramenta de gerenciamento para os mesmos. _________________________________________________________________________________________ ABSTRACT: Web Services are software components that provide an especific funtionality. The great profit is that this components can be access by other systems, over Internet standards, like HTTP, XML and SOAP. The utilization of this standards allow to create distributed applications with web services. This work explain in details the tecnologies used in web services creation and show an implementation of a management tool for them.
169

Extracción de información y conocimiento de las opiniones emitidas por usuarios de los sistemas WEB 2.0

Dueñas Fernández, Rodrigo Alfonso January 2013 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / El objetivo de este trabajo de tesis es desarrollar una plataforma informática Web Opinion Mining (WOM) para la extracción de información que permita caracterizar la demanda de productos y servicios de una empresa, a través del uso de documentos publicados en sitios de noticias y las opiniones consignadas por los usuarios de las redes sociales. En la sociedad de hoy, gracias a la aparición de la Web, el panorama competitivo de las empresas se ha vuelto mucho más complejo, debido a la cantidad de mercados interconectados en tiempo real que tienen que considerar. Por lo tanto, para obtener rendimientos sobre el promedio en este medio, es necesario tener nuevas maneras de predecir las acciones de la competencia y la demanda por productos y servicios. Debido a lo anterior, la necesidad de procesar grandes cantidades de datos para obtener información ha ido creciendo a lo largo de los años. A medida que la capacidad de una empresa de procesar los datos de su entorno aumenta y se vuelve capaz de tomar decisiones estratégicas en base a la información obtenida, obtiene ventajas competitivas que reditúan en rendimientos sobre el promedio. En base a lo anterior, es que se plantea la siguiente hipótesis de investigación: Las opiniones de los usuarios sobre productos y servicios de un nicho de mercado particular consignadas en los sistemas Web 2.0, contienen la información necesaria y suficiente para caracterizar su demanda aproximada Para probar esta hipótesis, se desarrollo una plataforma de detección de tendencias compuesta de tres módulos: minado de tópicos, minado de opiniones y visualización de tendencias. Debido a que esta plataforma tiene como objetivo apoyar la toma de decisiones de un grupo de expertos, es que se realizará el minado a partir de un conjunto predefinido de fuentes que describa el mercado que se quiere analizar. El primer módulo se encarga de minar documentos de noticias y extraer qué tópicos están siendo publicados por semana. Una vez los tópicos de una semana son inferidos a través del uso del modelo de tópicos LDA, se generan queries para recuperar documentos opinados desde la red social Twitter, y se obtiene un puntaje de opinión para el tópico en particular durante esa semana. Una vez que se tiene información sobre un tópico por varios periodos, el módulo de visualización se encarga de entregar una representación gráfica de la evolución del tópico a lo largo del tiempo, tanto en documentos publicados como la opinión consignada por los usuarios en la Web 2.0. Los resultados obtenidos por el módulo de minado de tópicos fue un precisión de 0.56, un recall de 0.52 y un F-Measure de 0.54. En el minado de opiniones se obtuvo un precisión de 0.6, 0.53 y 0.61 y un recall de 0.59, 0.49 y 0.58 para las polaridades positiva, neutra y negativa respectivamente. En el caso del modelo de tendencias, a medida que el umbral mínimo para considerar un evento como significativo aumenta, su precisión aumenta, llegando a una precisión de 0.61, recall de 0.51 y un F-Measure de 0.56. Se concluye que el sistema propuesto para la representación de tendencias en la Web es un enfoque factible para modelar tendencias en la Web a través de la interacción de eventos, tópicos y opiniones consignadas en la Web 2.0. Por otro lado, los experimentos realizados comprueban la hipótesis planteada al inicio de este trabajo, ya que una vez toda la información es recolectada y analizada, es posible analizar el comportamiento de los tópicos a lo largo del tiempo, y ver como reaccionan los usuarios de la Web 2.0 y de manera indirecta caracterizar la demanda sobre ciertos productos y servicios.
170

The interplay between Web aesthetics and accessibility

Mbipom, Grace Ebong January 2013 (has links)
The use of visual aesthetics has been found to contribute to feelings of a positive Web experience. Accordingly, studies report strong correlations between aesthetics and facets of user experience like usability and credibility, but does this hold for accessibility also? Some believe that Web aesthetics impedes accessibility, while most Web designers perceive that the accessibility initiative is restrictive design-wise. These misconceptions have slowed down the advancement of an inclusive Web. Firstly, it is clear that the relationship between Web aesthetics and accessibility is still poorly understood. Secondly, tools capable of analysing the aesthetic quality of Web pages and relaying associated accessibility status information are lacking. This thesis addresses these two problems. In order to investigate this relationship, the aesthetic judgements of 180 users were elicited to help classify Web pages based on their visual quality using Lavie and Tractinsky's framework. The classified Web pages were then technically and manually audited for accessibility compliance using 4 automated tools, and 11 experts who used a heuristic evaluation technique known as the Barrier Walkthrough (BW) method to check for barriers which could affect people with visual impairments. Our results consistently showed that Web pages judged on Lavie and Tractinsky's classical aesthetic dimension as being `clean' had significant correlations with accessibility, suggesting `cleanness' to be a suitable proxy measure for accessibility. Expressive dimensions showed no such correlations. This insight was used to develop the EIVAA tool aimed at predicting the aesthetic quality of Web pages and using the information to provide accessibility ratings for the pages. Quantitative evaluations show that the tool is able to predict aesthetic quality in a way that mimics gold standards, especially along the design dimension `clean' where we observed tool-human correlations as strong as 0.703, thus making the associated accessibility predictions also acceptable. We envision that our findings will give the Web community a more holistic understanding of the interactions between the use of aesthetics and accessibility, and that our tool would inform Web developers of the implications of their designs.

Page generated in 0.0456 seconds