• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • Tagged with
  • 29
  • 22
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Reamostragem adaptativa para simplificação de nuvens de pontos

Silva, Fabrício Müller da 31 August 2015 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2015-10-27T14:34:35Z No. of bitstreams: 1 Fabrício Müller da Silva_.pdf: 105910980 bytes, checksum: 4ce66a9d5fff9a2b2a97835c54dac355 (MD5) / Made available in DSpace on 2015-10-27T14:34:35Z (GMT). No. of bitstreams: 1 Fabrício Müller da Silva_.pdf: 105910980 bytes, checksum: 4ce66a9d5fff9a2b2a97835c54dac355 (MD5) Previous issue date: 2015-08-31 / Nenhuma / Este trabalho apresenta um algoritmo para simplificação de nuvens de pontos baseado na inclinação local da superfície amostrada pelo conjunto de pontos de entrada. O objetivo é transformar a nuvem de pontos original no menor conjunto possível, mantendo as características e a topologia da superfície original. O algoritmo proposto reamostra de forma adaptativa o conjunto de entrada, removendo pontos redundantes para manter um determinado nível de qualidade definido pelo usuário no conjunto final. O processo consiste em um particionamento recursivo do conjunto de entrada através da Análise de Componentes Principais (PCA). No algoritmo, PCA é aplicada para definir as partições sucessivas, para obter uma aproximação linear (por planos) em cada partição e para avaliar a qualidade de cada aproximação. Por fim, o algoritmo faz uma escolha simples de quais pontos serão mantidos para representar a aproximação linear de cada partição. Estes pontos formarão o conjunto de dados final após o processo de simplificação. Para avaliação dos resultados foi aplicada uma métrica de distância entre malhas de polígonos, baseada na distância de Hausdorff, comparando a superfície reconstruída com a nuvem de pontos original e aquela reconstruída com a nuvem filtrada. Os resultados obtidos com o algoritmo conseguiram uma taxa de até 95% de compactação do conjunto de dados de entrada, diminuindo o tempo total de execução do processo de reconstrução, mantendo as características e a topologia do modelo original. A qualidade da superfície reconstruída com a nuvem filtrada também é atestada pela métrica de comparação. / This paper presents a simple and efficient algorithm for point cloud simplification based on the local inclination of the surface sampled by the input set. The objective is to transform the original point cloud in a small as possible one, keeping the features and topology of the original surface. The proposed algorithm performs an adaptive resampling of the input set, removing unnecessary points to maintain a level of quality defined by the user in the final dataset. The process consists of a recursive partitioning in the input set using Principal Component Analysis (PCA). PCA is applied for defining the successive partitions, for obtaining the linear approximations (planes) for each partition, and for evaluating the quality of those approximations. Finally, the algorithm makes a simple choice of the points to represent the linear approximation of each partition. These points are the final dataset of the simplification process. For result evaluation, a distance metric between polygon meshes, based on Hausdorff distance, was defined, comparing the reconstructed surface using the original point clouds and the reconstructed surface usingthe filtered ones. The algorithm achieved compression rates up to 95% of the input dataset,while reducing the total execution time of reconstruction process, keeping the features and the topology of the original model. The quality of the reconstructed surface using the filtered point cloud is also attested by the distance metric.
22

Produção de biblioteca de compostos derivados de produtos naturais: síntese e estudo de atividades biológicas / Production of library of compounds derived from natural products: synthesis and study of biological activities

Rodrigo Brito de Mello 19 September 2014 (has links)
O presente trabalho trata da semissíntese de análogos de importantes compostos líderes (afidicolina, lausona, lapachol e CAPE) utilizando técnicas de química medicinal como bioisosterismo, adição de grupamento funcional e simplificação molecular. Dessa forma foi possível obter uma biblioteca de análogos racionais, visando a manipulação de parâmetros físico-químicos e estruturais, para fins de bioprospecção. Foram desenvolvidos derivados de afidicolina mais lipofílicos, por meio da acilação das hidroxilas presentes na estrutura química deste terpeno. Tentativas de formação de bioisósteros, sais e de ésteres fosfato das hidroxinaftoquinonas naturais - lapachol e lausona, foram realizadas visando avaliar a influência do pKa sobre a atividade deste tipo de moléculas, bem como aumentar hidrossolubilidade. Neste caso, foram observadas reações paralelas, como um rearranjo molecular para a formação de aminonaftoquinonas, no estudo da cicloadição de azida de sódio com grupos cianos. Ademais, foi estudado o efeito da simplificação molecular de CAPE (fenetil éster do ácido cafeico), visando entender os requisitos estruturais de atividade antitumoral desta classe de compostos. Neste trabalho, foram obtidas 14 moléculas e testadas para diferentes atividades biológicas. Derivados naftoquinoidais se mostraram ativos frente à inibição de DHODH em ensaio sobre a enzima e também em ensaio celular. Adicionalmente, análogos simplificados do CAPE apresentaram alta atividade antitumoral, com segurança, em comparação ao controle 5-fluorouracila. / The present study aimed the semi-synthesis of analogues from important lead compounds (aphidicolin, lausone, lapachol and CAPE) by using medicinal chemistry strategies, such as bioisosterism, addition of functional groups and molecular simplification. Thus, we obtained a library of rational analogues, aiming the manipulation of physicochemical and structural parameters with bioprospecting purposes. We developed more lipophilic aphidicolin derivatives by acylation of the hydroxyl groups present in the structure of this terpene. Attempts towards the development of phosphate salts bioisosters from the hydroxinaftoquinones lapachol and lausone in order to evaluate the influence the pKa in the biological activity of these class compounds as well as to increase the water solubility. In this last case, we observed parallel reactions, as a molecular rearrangement for the formation of the aminonaftoquinones during the study of cycloaddition with cyanides and azides. In addition, we studied the effects of molecular simplification of CAPE (caffeic acid phenethyl ester), to better understand the structural requirements for antitumoral activity of this class of compounds. In the present work we obtained 14 molecules which were also tested for different biological activities. Naftoquinoidais derivatives showed inhibition activity on enzymatic essay on DHODH and on cellular essay. Moreover, simplified molecules from CAPE showed high antitumoral activity and safety in comparison to the control 5- fluorouracil.
23

Simplificações na modelagem de habitações de interesse social no programa de simulação de desempenho térmico EnergyPlus / Modeling simplification of social houses in the thermal performance simulation program EnergyPlus

María del Pilar Casatejada Gil 12 June 2017 (has links)
Os programas computacionais de simulação do desempenho termoenergético de edificações têm adquirindo cada vez mais importância devido às possibilidades que apresentam para a avaliação dos projetos. No entanto, há dificuldades para o seu uso nas fases iniciais de projeto, por demandarem tempo, técnicos especializados, orçamentos elevados e um projeto detalhado. Atualmente, existem ferramentas computacionais simplificadas, mas que apresentam limitações quanto às possibilidades de uso, não oferecendo resultados precisos como os dos métodos mais complexos. Portanto, este trabalho propõe avaliar as possibilidades de simplificação das zonas térmicas no programa de simulação EnergyPlus, sem comprometer os resultados das simulações. Esta simplificação auxiliaria o uso dessas ferramentas computacionais nas fases iniciais do projeto. O edifício estudado é uma habitação de interesse social (HIS) naturalmente ventilada, térrea e isolada, simulada para três cidades do Brasil (Curitiba, Manaus e São Paulo). Esta HIS é modelada no EnergyPlus de duas formas: como um modelo multizona (MuZ) e como um modelo monozona (MoZ), em que toda a habitação é considerada apenas como uma única zona térmica. O impacto da simplificação das zonas térmicas é avaliado em dois estudos que consideram: 1) vários horários para abertura e fechamento de portas internas, e 2) diferentes geometrias e distribuições internas para os ambientes. Em ambos os estudos, os resultados mostram que a diferença absoluta horária da temperatura entre os modelos MoZs e MuZs é significativamente baixa para todos os casos considerados, estando abaixo de 0,4ºC mais de 50% do tempo. As maiores diferenças encontradas entre os MoZs e MuZs são obtidas nos modelos simulados nos climas mais frios, nos modelos nos quais as portas internas são consideradas fechadas e nos ambientes menores com uma exposição à radiação solar mais reduzida. As diferenças anuais mínimas e máximas da temperatura interna do ar entre os MoZ e MuZ são notadamente elevadas. No entanto, estes valores são observados num dia e uma hora específica, sendo a média anual significativamente baixa para todos os casos. / Building thermal and energy performance simulation programs are gaining more and more importance due to the possibilities they present for a project evaluation. However, there are difficulties for its use in the early stages of the project, because they demand time, specialized technicians, high budgets and a detailed project. Currently, there are simplified computer tools, but they present limits to the possibilities of its use, since they do not offer accurate results as more complex methods. Therefore, this work proposes to evaluate the possibilities of simplification of the thermal zones in EnergyPlus simulation program without compromising the results of the simulations. This simplification would help the computational tools use in the early design of the project. The studied building is a naturally ventilated single-story isolated social house, simulated for three cities of Brazil (Curitiba, Manaus and São Paulo). This building is modeled in two ways: as a multizone model (MuZ) and as a monozone model (MoZ), where the entire floorplan is considered as one thermal zone. The impact of the thermal zones simplification is evaluated in two studies considering: 1) several schedules for internal doors opening and closing, and 2) different building geometries and floorplans. In both studies, the results show that the absolute difference of temperature between the MoZs and MuZs models is significantly low for all of the cases, being below 0.4ºC more than 50% of the time. The maximum differences found between MoZs and MuZs are obtained in models simulated in colder climates, in models where internal doors are considered closed and in smaller rooms with reduced exposure to solar radiation. The minimum and maximum annual differences of the air temperature between the MoZ and MuZ are considerably high. However, these values are observed in a specific day and hour, with the annual average being significantly low for all cases.
24

PARÂMETROS FÍSICOS E HÍDRICOS RELACIONADOS COM O AVANÇO DA FRENTE DE MOLHAMENTO / PHYSICAL AND HYDRIC PARAMETERS RELATED TO THE SOIL WETTING FRONT ADVANCE

Souza Filho, Paulo da Silva e 02 December 2011 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / The present study aimed to contribute, in the methodological way, to the field of Soil Science and Irrigation, more specifically Micro-Irrigation (Targeted Irrigation), by in situ to obtain physical and hydric parameters, specially the hydrodynamic functions of a Paleudalf soil. A multi-drip system, whose application is linked to the Drip Method principles, was designed to obtain hydraulic conductivity K(h) and soil-water retention curve θ(h). The system applied flow rates of 2, 4 and 8 L h-1 and, their respective areas of wetting and saturation in the dynamic balance moment were measured and worked as basis for the adjustment of a regression function, so as the saturated flow was estimated in dynamic balance. With the pairs of values to the advances in wetting and time fronts, the declivity of the respective regression line was determined considering the three flow rates tested in the study. The average value of sorptivity calculated was 2.68 cm h-0,5, with values of η = 2.22, β = 0.44 e hw = −2.29 cm H2O. By using these values of soil parameters, the soil-water retention characteristic curve (SWRCC) and the hydraulic conductivity function as function of the water content in the soil were estimated and graphically represented. The retention curve obtained through field experimental data does not match to the one obtained in laboratory according to standard methodology, but it was possible to build an exponential function which allows the correction of the volumetric soil moisture values. / O presente estudo visou contribuir no âmbito metodológico, nas áreas da ciência do solo e da irrigação, notadamente a microirrigação (irrigação localizada), na obtenção in situ de parâmetros físicos e hídricos, em especial as funções hidrodinâmicas do Argissolo Vermelho Distrófico Arênico (PVd). Foi projetado um sistema multi-gotejador , cuja aplicação está vinculada aos princípios do Método do Gotejador , na obtenção da condutividade hidráulica e da curva de retenção de água no solo . Vazões aplicadas de 2, 4 e 8 L h-1 e suas respectivas áreas de molhamento e de saturação no momento do equilíbrio dinâmico serviram de base para o ajuste de uma função de regressão, estimou-se o fluxo saturado em equilíbrio dinâmico. Com os pares de valores do avanço da frente de molhamento e de tempo determinou-se a declividade da respectiva reta de regressão para as três vazões testadas no trabalho. O valor médio de sorptividade calculado foi de 2,68 cm h-0,5, sendo obtidos os valores de η = 2,22, β = 0,44 e hw = −2,29 cm de H2O. Usando estes valores dos parâmetros do solo, a curva característica de retenção de água no solo (CCRAS) e a função da condutividade hidráulica em função do conteúdo de água do solo foram estimados e representados graficamente. A curva característica obtida com dados experimentais de campo não foi igual àquela obtida em laboratório conforme metodologia padrão, mas foi possível obter uma função exponencial que permite corrigir os valores de umidade volumétrica do solo.
25

Aplicação da Generalização Cartográfica em Mundos Virtuais

Silva, Cledja Karina Rolim da 29 August 2005 (has links)
Submitted by Sandra Maria Neri Santiago (sandra.neri@ufpe.br) on 2016-04-18T18:41:44Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertação.pdf: 1661681 bytes, checksum: a525e39e828632534b1a6e345c1ba890 (MD5) / Made available in DSpace on 2016-04-18T18:41:44Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertação.pdf: 1661681 bytes, checksum: a525e39e828632534b1a6e345c1ba890 (MD5) Previous issue date: 2005-08-29 / Este trabalho aborda o problema de transpor ferramentas e conceitos cartográficos para aplicações de realidade virtual, focando o uso da generalização cartográfica em mundos urbanos virtuais para turismo. A Generalização Cartográfica é uma área de Cartografia utilizada para se obter versões de mapas cartográficos. Em mundos virtuais este processo pode ser implementado com a geração de níveis de detalhamento (Level of Detail – LOD), mas não existem regras precisas para construir esses níveis de forma automática; grande parte dos trabalhos encontrados na literatura foca apenas na simplificação de polígonos. Para se obter versões generalizadas de mapas, a cartografia faz uso de doze operadores, aplicados pelo Cartógrafo segundo o seu conhecimento do problema. Estes operadores são: simplificar, suavizar, agregar, amalgamar, “merging”, colapsar, refinar, exagerar, aumentar, deslocar, classificação e simbolização. É realizada uma análise destes operadores verificando a viabilidade de sua aplicação em mundos virtuais. O conhecimento de um especialista na área de Cartografia é modelado através de regras de conhecimento, as quais alimentam um sistema especialista utilizado para selecionar os objetos de acordo com o tema, que nesta dissertação é o turismo, e para a aplicação dos operadores sobre o mundo virtual. Três dos operadores cartográficos foram escolhidos para serem implementados para mundos virtuais, pois já eram utilizados de forma isolada: simplificar, suavizar e simbolização. A partir destas informações, o SisGen3D, Sistema de Generalização para mundos virtuais construídos em VRML (Virtual Reality Modelling Language), é apresentado e validado com um mundo virtual, o Recife Antigo Virtual. Este sistema foi desenvolvido em JAVA, modelado com UML (Unified Modelling Language) e utiliza o gerenciador de banco de dados MySQL. / This work deals with the transposition of cartographic concepts and tools to virtual reality applications, using cartographic generalization in virtual urban worlds for tourism applications. Cartographic Generalization is an area in Cartography concerned with the generation of versions of cartographic maps. In virtual worlds, it can be implemented using Levels of Detail - LODs, but there are no known rules for constructing these levels automatically; most of the literature concentrates in polygon simplification. To get versions of maps, Cartography uses twelve operators, applied by the cartographer using domain-specific knowledge: simplification, smoothing, aggregation, amalgamation, merging, collapse, refinement, exaggeration, enhancement, displacement, classification and symbolization. An analysis of these operators is performed in the context of virtual reality. The cartographer domain-specific knowledge is modelled in knowledge rules in an expert system. This expert system is responsible for the selection of important objects and of the application of cartographic operators in virtual worlds. Three operators were implemented to virtual worlds: simplification, smoothing and symbolization. Finally, SisGen3D, a system for generalization virtual VRML worlds is presented. This system, developed in Java, modelled in UML and using the MySQL database, is validated using the Recife Antigo Virtual as a testbed.
26

Auxílio à leitura de textos em português facilitado: questões de acessibilidade / Reading assistance for texts in facilitated portuguese: accessibility issues

Watanabe, Willian Massami 05 August 2010 (has links)
A grande capacidade de disponibilização de informações que a Web possibilita se traduz em múltiplas possibilidades e oportunidades para seus usuários. Essas pessoas são capazes de acessar conteúdos provenientes de todas as partes do planeta, independentemente de onde elas estejam. Mas essas possibilidades não são estendidas a todos, sendo necessário mais que o acesso a um computador e a Internet para que sejam realizadas. Indivíduos que apresentem necessidades especiais (deficiência visual, cognitiva, dificuldade de locomoção, entre outras) são privados do acesso a sites e aplicações web que façam mal emprego de tecnologias web ou possuam o conteúdo sem os devidos cuidados para com a acessibilidade. Um dos grupos que é privado do acesso a esse ambiente é o de pessoas com dificuldade de leitura (analfabetos funcionais). A ampla utilização de recursos textuais nas aplicações pode tornar difícil ou mesmo impedir as interações desses indivíduos com os sistemas computacionais. Nesse contexto, este trabalho tem por finalidade o desenvolvimento de tecnologias assistivas que atuem como facilitadoras de leitura e compreensão de sites e aplicações web a esses indivíduos (analfabetos funcionais). Essas tecnologias assistivas utilizam recursos de processamento de língua natural visando maximizar a compreensão do conteúdo pelos usuários. Dentre as técnicas utilizadas são destacadas: simplificação sintática, sumarização automática, elaboração léxica e reconhecimento das entidades nomeadas. Essas técnicas são utilizadas com a finalidade de promover a adaptação automática de conteúdos disponíveis na Web para usuários com baixo nível de alfabetização. São descritas características referentes à acessibilidade de aplicações web e princípios de design para usuários com baixo nível de alfabetização, para garantir a identificação e entendimento das funcionalidades que são implementadas nas duas tecnologias assistivas resultado deste trabalho (Facilita e Facilita Educacional). Este trabalho contribuiu com a identificação de requisitos de acessibilidade para usuários com baixo nível de alfabetização, modelo de acessibilidade para automatizar a conformidade com a WCAG e desenvolvimento de soluções de acessibilidade na camada de agentes de usuários / The large capacity of Web for providing information leads to multiple possibilities and opportunities for users. The development of high performance networks and ubiquitous devices allow users to retrieve content from any location and in different scenarios or situations they might face in their lives. Unfortunately the possibilities offered by the Web are not necessarily currently available to all. Individuals who do not have completely compliant software or hardware that are able to deal with the latest technologies, or have some kind of physical or cognitive disability, find it difficult to interact with web pages, depending on the page structure and the ways in which the content is made available. When specifically considering the cognitive disabilities, users classified as functionally illiterate face severe difficulties accessing web content. The heavy use of texts on interfaces design creates an accessibility barrier to those who cannot read fluently in their mother tongue due to both text length and linguistic complexity. In this context, this work aims at developing an assistive technologies that assists functionally illiterate users during their reading and understanding of websites textual content. These assistive technologies make use of natural language processing (NLP) techniques that maximize reading comprehension for users. The natural language techniques that this work uses are: syntactic simplification, automatic summarization, lexical elaboration and named entities recognition. The techniques are used with the goal of automatically adapting textual content available on the Web for users with low literacy levels. This work describes the accessibility characteristics incorporated into both resultant applications (Facilita and Educational Facilita) that focus on low literacy users limitations towards computer usage and experience. This work contributed with the identification of accessibility requirements for low-literacy users, elaboration of an accessibility model for automatizing WCAG conformance and development of accessible solutions in the user agents layer of web applications
27

Um novo enfoque teórico para os convênios com entidades privadas / A new theoretical approach to agreements with private entities

Roberto, Luiz Fernando 08 October 2013 (has links)
Made available in DSpace on 2016-04-26T20:22:02Z (GMT). No. of bitstreams: 1 Luiz Fernando Roberto.pdf: 522268 bytes, checksum: fd68be62a269f8d849fe35be941fee65 (MD5) Previous issue date: 2013-10-08 / This paper aims to describe the normative framework that regulates agreements with private entities and their recent movements. From the construction of a critical view on the matter, the estudy discusses the core ideas that base traditional forms of selection of the private partner and the restrictions to internal management of entities. Pointing lack of objectivity and excessive cost in the existing system, the paper proposes a new theoretical approach to the matter, in which planning and administrative simplification can be used as tools for a more effective control over public resources transferred by the Estate / O presente trabalho tem por objetivo descrever a estrutura normativa que regula os convênios com entidades privadas e seus recentes movimentos. A partir da construção de uma visão crítica sobre a matéria, o trabalho questiona as ideais centrais que servem de base para as formas tradicionais de seleção do parceiro privado e para as normas dirigidas a restringir a gestão interna das entidades. Apontando falta de objetividade e custo excessivo no sistema existente, o trabalho propõe um novo enfoque teórico para a matéria, no qual o planejamento e a simplificação administrativa sirvam de instrumentos para um controle mais eficaz sobre os recursos públicos repassados pelo Estado
28

A efetividade das políticas públicas voltadas às pequenas empresas no contexto do tratamento diferenciado

Osório, Carlos Willians 08 August 2013 (has links)
Made available in DSpace on 2016-03-15T19:33:56Z (GMT). No. of bitstreams: 1 Carlos Willians Osorio.pdf: 1082658 bytes, checksum: 73921d0f02d430dfae4fa6fce3d3d35c (MD5) Previous issue date: 2013-08-08 / The small business is one of the main pillars of the economy, both the number of establishments and geographical desconcentration, as its ability to generate jobs statistically proven facts. For this reason, they become deserving of public policies to support and encourage the growth, profitability and business sustainability. From this evidence, the limitation of the study includes understanding the importance of this segment to the country, combined with the effectiveness of public policies intended for, in the context of differential treatment guaranteed by the fundamental rule. / A empresa de pequeno porte constitui um dos principais pilares de sustentação da economia, tanto pelo número de estabelecimentos e desconcentração geográfica, quanto pela sua capacidade de gerar empregos fatos comprovados estatisticamente. Por essa razão, tornam-se merecedoras de políticas públicas de apoio e incentivo ao seu crescimento, rentabilidade e sustentabilidade empresarial. A partir dessa constatação, a limitação do estudo abarca a compreensão da relevância desse segmento para o país, articulada com a efetividade das políticas públicas a ele destinadas, no contexto do tratamento diferenciado garantido pelo Texto Fundamental.
29

Auxílio à leitura de textos em português facilitado: questões de acessibilidade / Reading assistance for texts in facilitated portuguese: accessibility issues

Willian Massami Watanabe 05 August 2010 (has links)
A grande capacidade de disponibilização de informações que a Web possibilita se traduz em múltiplas possibilidades e oportunidades para seus usuários. Essas pessoas são capazes de acessar conteúdos provenientes de todas as partes do planeta, independentemente de onde elas estejam. Mas essas possibilidades não são estendidas a todos, sendo necessário mais que o acesso a um computador e a Internet para que sejam realizadas. Indivíduos que apresentem necessidades especiais (deficiência visual, cognitiva, dificuldade de locomoção, entre outras) são privados do acesso a sites e aplicações web que façam mal emprego de tecnologias web ou possuam o conteúdo sem os devidos cuidados para com a acessibilidade. Um dos grupos que é privado do acesso a esse ambiente é o de pessoas com dificuldade de leitura (analfabetos funcionais). A ampla utilização de recursos textuais nas aplicações pode tornar difícil ou mesmo impedir as interações desses indivíduos com os sistemas computacionais. Nesse contexto, este trabalho tem por finalidade o desenvolvimento de tecnologias assistivas que atuem como facilitadoras de leitura e compreensão de sites e aplicações web a esses indivíduos (analfabetos funcionais). Essas tecnologias assistivas utilizam recursos de processamento de língua natural visando maximizar a compreensão do conteúdo pelos usuários. Dentre as técnicas utilizadas são destacadas: simplificação sintática, sumarização automática, elaboração léxica e reconhecimento das entidades nomeadas. Essas técnicas são utilizadas com a finalidade de promover a adaptação automática de conteúdos disponíveis na Web para usuários com baixo nível de alfabetização. São descritas características referentes à acessibilidade de aplicações web e princípios de design para usuários com baixo nível de alfabetização, para garantir a identificação e entendimento das funcionalidades que são implementadas nas duas tecnologias assistivas resultado deste trabalho (Facilita e Facilita Educacional). Este trabalho contribuiu com a identificação de requisitos de acessibilidade para usuários com baixo nível de alfabetização, modelo de acessibilidade para automatizar a conformidade com a WCAG e desenvolvimento de soluções de acessibilidade na camada de agentes de usuários / The large capacity of Web for providing information leads to multiple possibilities and opportunities for users. The development of high performance networks and ubiquitous devices allow users to retrieve content from any location and in different scenarios or situations they might face in their lives. Unfortunately the possibilities offered by the Web are not necessarily currently available to all. Individuals who do not have completely compliant software or hardware that are able to deal with the latest technologies, or have some kind of physical or cognitive disability, find it difficult to interact with web pages, depending on the page structure and the ways in which the content is made available. When specifically considering the cognitive disabilities, users classified as functionally illiterate face severe difficulties accessing web content. The heavy use of texts on interfaces design creates an accessibility barrier to those who cannot read fluently in their mother tongue due to both text length and linguistic complexity. In this context, this work aims at developing an assistive technologies that assists functionally illiterate users during their reading and understanding of websites textual content. These assistive technologies make use of natural language processing (NLP) techniques that maximize reading comprehension for users. The natural language techniques that this work uses are: syntactic simplification, automatic summarization, lexical elaboration and named entities recognition. The techniques are used with the goal of automatically adapting textual content available on the Web for users with low literacy levels. This work describes the accessibility characteristics incorporated into both resultant applications (Facilita and Educational Facilita) that focus on low literacy users limitations towards computer usage and experience. This work contributed with the identification of accessibility requirements for low-literacy users, elaboration of an accessibility model for automatizing WCAG conformance and development of accessible solutions in the user agents layer of web applications

Page generated in 0.0874 seconds