• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 17
  • 15
  • 15
  • 15
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 1
  • Tagged with
  • 315
  • 315
  • 76
  • 57
  • 56
  • 55
  • 53
  • 45
  • 35
  • 35
  • 30
  • 30
  • 29
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Simulação da dispersão dos poluentes atmosféricos para aplicação em análise de impacto / Simulation of air pollutants dispersion for appliance in impact analysis

Tadano, Yara de Souza 20 August 2018 (has links)
Orientadores: Ricardo Augusto Mazza, Edson Tomaz / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-20T02:12:17Z (GMT). No. of bitstreams: 1 Tadano_YaradeSouza_D.pdf: 4050458 bytes, checksum: f099a0b7346d14abcd5e32043374fc4b (MD5) Previous issue date: 2012 / Resumo: Atualmente os estudos de poluição atmosférica são divididos naqueles que simulam a dispersão dos poluentes e nos que avaliam o impacto da poluição na saúde, não sendo frequentes estudos que envolvem as duas áreas. O objetivo desta pesquisa é propor uma metodologia de união da dispersão com o impacto na saúde, utilizando ferramentas já consolidadas, no intuito de possibilitar avaliações de impacto em regiões que não possuem dados de monitoramento, e ainda a previsão de novos impactos. O estudo foi divido em três partes...Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: Currently, air pollution studies are divided in studies that simulate pollutants dispersion and those assessing pollution impacts on health. Studies involving these two areas are not usual. Then, this research aims to present a methodology of union between dispersion and health impact, using tools already consolidated, in order to enable impact assessment in areas that do not have monitoring data and also the prediction of further impacts. This study was divided in three parts...Note: The complete abstract is available with the full electronic document / Doutorado / Termica e Fluidos / Doutor em Engenharia Mecânica
242

Mecanismo para execução especulativa de aplicações paralelizadas por técnicas DOPIPE usando replicação de estágios / Mechanism for speculative execution of applications parallelized by DOPIPE techniques using stage replication

Baixo, André Oliveira Loureiro do, 1986- 21 August 2018 (has links)
Orientador: Guido Costa Souza de Araújo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-21T04:52:37Z (GMT). No. of bitstreams: 1 Baixo_AndreOliveiraLoureirodo_M.pdf: 1756118 bytes, checksum: 00900e9463b55e1800da080419da53c7 (MD5) Previous issue date: 2012 / Resumo: A utilização máxima dos núcleos de arquiteturas multi-processadas é fundamental para permitir uma utilização completa do paralelismo disponível em processadores modernos. A fim de obter desempenho escalável, técnicas de paralelização requerem um ajuste cuidadoso de: (a) mecanismo arquitetural para especulação; (b) ambiente de execução; e (c) transformações baseadas em software. Mecanismos de hardware e software já foram propostos para tratar esse problema. Estes mecanismos, ou requerem alterações profundas (e arriscadas) nos protocolos de coerência de cache, ou exibem uma baixa escalabilidade de desempenho para uma gama de aplicações. Trabalhos recentes em técnicas de paralelização baseadas em DOPIPE (como DSWP) sugerem que a combinação de versionamento de dados baseado em paginação com especulação em software pode resultar em bons ganhos de desempenho. Embora uma solução apenas em software pareça atrativa do ponto de vista da indústria, essa não utiliza todo o potencial da microarquitetura para detectar e explorar paralelismo. A adição de tags às caches para habilitar o versionamento de dados, conforme recentemente anunciado pela indústria, pode permitir uma melhor exploração de paralelismo no nível da microarquitetura. Neste trabalho, é apresentado um modelo de execução que permite tanto a especulação baseada em DOPIPE, como as técnicas de paralelização especulativas tradicionais. Este modelo é baseado em uma simples abordagem com tags de cache para o versionamento de dados, que interage naturalmente com protocolos de coerência de cache tradicionais, não necessitando que estes sejam alterados. Resultados experimentais, utilizando benchmarks SPEC e PARSEC, revelam um ganho de desempenho geométrico médio de 21.6× para nove programas sequenciais em uma máquina simulada de 24 núcleos, demonstrando uma melhora na escalabilidade quando comparada a uma abordagem apenas em software / Abstract: Maximal utilization of cores in multicore architectures is key to realize the potential performance available from modern microprocessors. In order to achieve scalable performance, parallelization techniques rely on carefully tunning speculative architecture support, runtime environment and software-based transformations. Hardware and software mechanisms have already been proposed to address this problem. They either require deep (and risky) changes on the existing hardware and cache coherence protocols, or exhibit poor performance scalability for a range of applications. Recent work on DOPIPE-based parallelization techniques (e.g. DSWP) has suggested that the combination of page-based data versioning with software speculation can result in good speed-ups. Although a softwareonly solution seems very attractive from an industry point-of-view, it does not enable the whole potential of the microarchitecture in detecting and exploiting parallelism. The addition of cache tags as an enabler for data versioning, as recently announced in the industry, could allow a better exploitation of parallelism at the microarchitecture level. In this paper we present an execution model that supports both DOPIPE-based speculation and traditional speculative parallelization techniques. It is based on a simple cache tagging approach for data versioning, which integrates smoothly with typical cache coherence protocols, and does not require any changes to them. Experimental results, using SPEC and PARSEC benchmarks, reveal a geometric mean speedup of 21.6x for nine sequential programs in a 24-core simulated CMP, while demonstrate improved scalability when compared to a software-only approach / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
243

IMGPEDIA: A large-scale knowledge-base to perform visuo-semantic queries over Wikimedia Commons images

Ferrada Aliaga, Sebastián Camilo January 2017 (has links)
Magíster en Ciencias, Mención Computación / Motivación. Los estándares de la Web Semántica son útiles para poder organizar la información de la Web de forma que los computadores puedan procesarla y comprenderla de mejor manera, pudiendo así los usuarios realizar búsquedas más sofisticadas y contar con un lenguaje más expresivo para realizarlas. Sin embargo, la mayoría de las bases de conocimiento disponibles utilizan solamente la información textual en desmedro del contenido multimedia, el cual ha aumentado enormemente los últimos años y ya es parte fundamental de la Web. Objetivo. Dado lo anterior, nuestro objetivo en este trabajo es construir una base de conocimientos que nos permita combinar consultas semánticas con consultas sobre el contenido visual de las imágenes de la Web, que llamaremos IMGpedia. Concretamente, se trabajará utilizando las imágenes de Wikimedia Commons. Contribución. Una vez completado, este trabajo pretende ser un puente entre el mundo del análisis multimedia y el de la Web de Datos. En este sentido, todas las rutinas de descripción de contenido visual serán publicadas como implementaciones de referencia en diferentes lenguajes de programación. Además, la base de conocimientos será una fuente de Datos Enlazados Abiertos de alta calidad, puesto que proveerá enlaces a diferentes fuentes de conocimiento para proveer contexto. Finalmente, estos datos podrán ser consultados a través del SPARQL endpoint público provisto para tal efecto. Esta base de conocimientos es pionera en combinar información del contenido visual de imágenes de la Web con datos semánticos extraídos de DBpedia. Metodología. Se propone y desarrolla una metodología, dadas las 15 millones de imágenes extraídas de Wikimedia Commons, estas se analicen y procesen para formar una completa base de conocimiento. Primeramente, se calculan sus descriptores visuales; luego se computan sus vecinos más cercanos para establecer enlaces de similitud entre ellas; posteriormente, se propone una estrategia para enlazar las imágenes con recursos de DBpedia si es que las imágenes son utilizadas en el respectivo artículo de Wikipedia; y, finalmente, los datos se publican como un grafo RDF, listos para ser consultados a través de un terminal de consulta SPARQL. Valor. El valor de este trabajo está en que es el inicio de un proyecto a largo plazo, el cual busca incluir el contenido multimedia dentro de la Web de Datos de una forma automatizada, sin necesidad de etiquetar los medios manualmente, sino que los hechos puedan ser extraídos de fuentes complementarias. De esta forma se hace que el hecho de realizar consultas sobre similitud visual e incluyendo filtros semánticos sea una tarea cada vez más común. / Este trabajo ha sido parcialmente financiado por el Núcleo Milenio Centro de Investigación para la Web Semántica
244

Análisis de la modelación numérica 3D en el diseño de deflexiones en canales supercríticos. Aplicación al modelo físico del rápido de descarga de la Central Hidroeléctrica Chucás de Costa Rica

Martínez Haase, Maximiliano Antonio January 2016 (has links)
Ingeniero Civil / El trabajo de título realizado consiste en analizar el comportamiento de la modelación numérica 3D de canales supercríticos, mediante la simulación numérica del rápido de descarga de la Central Hidroeléctrica Chucás de Costa Rica, utilizando el software ANSYS CFX. El análisis se divide principalmente en dos: simulación del modelo físico y análisis de los métodos o criterios de diseño existentes para contracciones en canales supercríticos. El software trabaja resolviendo las ecuaciones promediadas de Reynolds para la turbulencia (modelos RANS) en tres dimensiones, junto con la ecuación de conservación de masa, mediante el método de volúmenes finitos. Para lograr la simulación es necesaria la creación de un dominio espacial, realizar al discretización de este dominio y aplicar las condiciones de borde que gobiernan el fenómeno a simular. La modelación numérica fue ejecutada con éxito para un perfil de tipo Ogee de ancho unitario, en el sentido que los errores con respecto a datos experimentales del USACE son menores a un 1,3 % en la altura de escurrimiento. Sin embargo, la simulación del modelo físico no fue efectiva, obteniendo errores promedio en la altura de escurrimiento de 21,6 % para el caudal de diseño de la obra. No obstante, las mediciones de alturas de escurrimientos podrían no estar del todo correctas ya que los resultados simulados de la presión sobre el vertedero logran un excelente ajuste para las mayores presiones ubicadas en el cuenco de lanzamiento del salto de esquí. No así el caso de las presiones sobre el umbral, que aunque siguen un comportamiento similar con los datos experimentales, la magnitud de estas difiere en mayor medida que las presiones sobre el cuenco de lanzamiento. En la modelación de contracciones en canales supercríticos, la simulación numérica presenta resultados concordantes con datos experimentales, imponiéndose como mejor alternativa que el uso de los métodos existentes para flujos con números de Froude mayores a 6.
245

Modelación no lineal, bidimensional y tridimensional de un edificio de hormigón armado

Plaza Ascencio, Rodrigo Eduardo January 2017 (has links)
Ingeniero Civil / El presente trabajo consiste en la modelación no lineal y tridimensional en el software comercial CSI Perform-3D, de un edificio habitacional de hormigón armado ubicado en Iquique, el cual fue instrumentado en junio del 2014. Se contaba para este edificio con un modelo 3D en desarrollo, que mostraba acoplamiento de muros mediante los diafragmas. Se realiza el refinamiento de dicho modelo, y con él se estudia el comportamiento sísmico de sistemas de muros acoplados frente a registros de aceleraciones con diferentes niveles de amplificación, con énfasis en la distribución de las cargas laterales sobre ellos. Posteriormente, se desarrolla un modelo bidimensional para el estudio de un muro particular del edificio, en una sola dirección. Utilizando los modelos 2D y 3D, se analiza el impacto de la modelación no lineal en los resultados, el efecto de las cargas de acople en la posición de la resultante de carga lateral en los muros, las diferencias entre los modelos tridimensional y bidimensional, y el efecto de amplificar la demanda sísmica en el análisis. En el modelo bidimensional se estudian además los límites elásticos del muro escogido, y se hace un análisis de esfuerzos y deformaciones post-fluencia. Se observa, entre otros resultados, que la posición de la resultante de carga lateral se ubica bajo el valor esperado de dos tercios de la altura del muro, y que las fuerzas axiales en los elementos de acople son las que más incidencia tienen en esa distribución. Al descontar su efecto, la posición de la resultante sube más de un 20\% en los casos estudiados. Por otra parte, el modelo 2D, si bien reproduce el fenómeno estudiado, también presenta un nivel de acoplamiento bajo y un nivel de daño considerablemente inferior al del modelo completo. Al amplificar la solicitación sísmica se observa una baja de la posición de la resultante de carga lateral, debido a la mayor incidencia de modos superiores y al incremento del nivel de acoplamiento. Finalmente, se observa que luego de la fluencia en la base del edificio, se produce también la fluencia de pisos superiores, donde usualmente ya no se encuentra detallamiento de bordes. En base a lo estudiado, se proponen algunas recomendaciones. No es aconsejable utilizar modelos de fibras que no consideren la altura completa de los muros. En cuanto a análisis bidimensional, un modelo 2D puede reproducir correctamente ciertos fenómenos, pero en algunos casos no es posible omitir el componente tridimensional pues determina el comportamiento del muro.
246

Convergência digital de objetos de aprendizagem Scorm /

Rodolpho, Everaldo Rodrigo. January 2009 (has links)
Orientador: Hilda Carvalho de Oliveira / Banca: Eugenio Maria de França Ramos / Banca: Klaus Schlünzen Junior / Resumo: A construção de Objetos de Aprendizagem (OAs) é um importante processo de Educação a Distância. Padrões têm sido definidos com estruturas de metadados para favorecer a reutilização e portabilidade dos OAs, como SCORM, LOM, ARIADNE, entre outros. Mesmo assim, a portabilidade entre diferentes sistemas de e-Learning requerem conhecimentos específicos. A dificuldade aumenta quando se direciona a diferentes meios digitais e de comunicação, como ambientes da Web e da TV Digital Aberta (TVDA) - um meio alternativo de acesso à Educação que vem sendo integrado à vida dos brasileiros. Nesse contexto, o principal objetivo deste trabalho foi a investigação de um novo modelo, OAX, para implementação de OAs com portabilidade para ambientes Web e para a TVDA. O modelo, baseado em metadados e codificação Base64, foi definido com base na estrutura SCORM. Para a criação e gerenciamento dos OAs, segundo o modelo OAX, foi proposta a arquitetura de um sistema de autoria, SOAX - uma aplicação Web, composta por quatro componentes, visando: encapsulamento do átomo de conteúdo OAX, armazenamento do conteúdo, aplicativos de gerenciamento/visualização de conteúdo e APIs (Application Programming Interface) de importação e exportação para padrões de OAs. O sistema SOAX foi projetado com a finalidade de atender educadores com conhecimentos básicos de Informática, de forma que pudessem construir os OAs preocupados apenas com os aspectos didático-pedagógicos. O sistema converte automaticamente os OAs para os formatos de padrões de OAs e para ambientes da TVDA. Está disponível uma versão beta do SOAX. / Abstract: The construction of Learning Objects (LOs) is an important process for distance education. Standards have been defined with metadata structures to enhance the reutilizability and portability of LOs, such as SCORM, LOM, ARIADNE, among others. The portability between different systems of e-Learning requires expert knowledge. The difficulty increases when different digital media and communication environments are used, for example: Web and Open Digital TV (ODTV) - an alternative means of access to education that is being integrated into daily life of Brazilians. In this context, the main goal of this work was to investigate a new model for implementation of LOs (OAX) with portability to Web and ODTV environments. The model was defined based on the SCORM standard and was based on metadata and base64 encoding. The architecture of an authoring system (SOAX) was proposed for the creation and management of LOs, according to the OAX model. SOAX is a Web application and is composed of four components for: encapsulation of the OAX content atom, content storage, applications of viewing/management of content and APIs (Application Programming Interface) for import and export LOs for standards formats. The SOAX system was designed for educators with basic knowledge of computer. So they could concentrate efforts on didactic-pedagogic aspects of the LOs. The system automatically converts the LOs for the formats of the LOs standards and ODTV environments. A beta version of SOAX is available. / Mestre
247

Desenvolvimento e usabilidade de uma intervenção computadorizada de psicoeducação sobre transtorno obsessivo-compulsivo

Siegmund, Gerson January 2014 (has links)
Este trabalho apresenta o processo iterativo de criação, desenvolvimento e avaliação de um programa de computador para psicoeducação sobre Transtorno Obsessivo-Compulsivo (TOC). Na primeira fase foi criado um protótipo interativo e autoadministrado. A segunda fase consistiu em avaliações com experts, que levaram a importantes alterações no protótipo. O resultado dessas etapas gerou um programa com 3 módulos de psicoeducação. A terceira fase foi um ensaio com usuários, do qual participaram 21 sujeitos entre 19 e 55 anos. Os instrumentos utilizados foram o Y-BOCS, escalas subjetivas para avaliação da intensidade dos sintomas de TOC, humor e ansiedade, questões de usabilidade e log do programa. Os participantes levaram em média 8 dias para completar o programa, e o tempo médio de uso totalizou 2 horas e 14 minutos. Apenas uma questão dos quizzes teve frequência de acertos abaixo de 70%. O nível médio de satisfação foi de 8,33 no primeiro módulo, 8,71 no segundo e 9,00 no terceiro. Foi encontrada diferença nos escores obsessivos do Y-BOCS entre os dois momentos de avaliação e diferença estatisticamente significativa na escala subjetiva de sintomas do TOC entre os módulos 1 e 2, e 1 e 3. O programa obteve um bom nível de satisfação dos usuários e apresenta potencial efeito de redução de sintomas percebidos. O modelo de desenvolvimento do programa é aplicável a outros contextos em Psicologia e o protótipo desenvolvido pode ser utilizado como matriz para intervenções semelhantes. / This study presents the iterative process of creating, developing and evaluating a psychoeducational software addressed at Obsessive-Compulsive Disorder (OCD). In stage 1, an interative and self-administered prototype was created. Second stage consisted of evaluations with experts, which led to important changes in the prototype. The results of these steps generated a three-module psychoeducational software. Third stage was a usability trial with users, 21 participants, ranging from 19 to 55 years old. Measures used were Y-BOCS, subjective scales to assess OCD symptoms intensity, humor and anxiety, usability questions, and the system log. Participants took an average of 8 days to complete the intervention, and the average time of software usage was 2 hours and 14 minutes. Only one quiz question showed less than 70% correct answers. Mean level of satisfaction was 8,33 for the first module, 8,71 for the second and 9,00 for the third. A difference was found on obsessive scores of Y-BOCS at the two evaluation times, and a statistically significant difference was found on the scale of OCD symptoms intensity, between modules 1 e 2, and 1 and 3. The software reached a good level of satisfaction among users and shows a potential effect in reduction of perceived symptoms. The model of development may be used with other psychological applications, and the prototype may be used as a strucutral matrix for similar interventions.
248

Modelagem geoestatística por geoprocessamento em uma área da Baixada Santista /

Lourenço, Roberto Wagner. January 2002 (has links)
Orientador: Paulo Milton Barbosa Landim / Banca: Ailton Luchiari / Banca: Arlei Benedito Macedo / Banca: Ardemírio Barros Silva / Banca: Juércio Tavares de Mattos / Resumo: O aspecto fundamental do trabalho é mostrar a importância da integração de um Sistema de Informações Geográficas (SIG) com procedimentos geoestatísticos na análise e interpretação de dados distribuídos no tempo e no espaço. A idéia é aplicar uma análise integrada sobre o meio ambiente que melhor caracterize os aspectos físicos com ênfase na variação do índice de vegetação de diferença normalizada (IVDN) do ano 1989 para o ano 1997. O propósito é também realizar a caracterização morfométrica do relevo, principalmente com relação à sua declividade, mapear a concentração e distribuição espacial de metais pesados no solo, obtidos por amostragens georreferenciadas do horizonte Bw (camada do solo com profundidade de até 1m) na área de estudo. A metodologia envolve o uso e a integração de documentos cartográficos, tais como mapas topográficos, fotografias aéreas, imagens de satélite e levantamento de campo, cada qual direcionado a uma representação espacial, utilizando-se para sua manipulação de um Sistema de Informações Geográficas (SIG). A proposta é aplicada em uma área pertencente à Baixada Santista, que esta inserida na Carta Topográfica em 1:50.000 do IGG - SP - 1972 FOLHA DE SANTOS. Depois de obtidos os diversos mapas são elaborados estudos de regressão múltipla espacial, os quais demonstram correlações significativas entre as variáveis "metais pesados" e "declividade" na mudança dos índices de vegetação para os anos de 1989 e 1997. / Abstract: The basic approach of the work is to show the importance of the integration of a Geographic Information System (GIS) with geostatístics procedures in the analysis and interpretation of data distributed in time and space. The idea is to apply an environment integrated analysis that better characterizes the geographic landscape with emphasis in the variation of the Normalized Difference Vegetation Index (NDVI) during the years of 1989 to 1997. The purpose is also understand the morphometric characterization of the relief, mainly regarding its slope, mapping concentration and space distribution of heavy metals in the ground, obtained by sampling of the Bw horizon (layer of the ground with depth until 1m), in the study area. The methodology involves the use and the integration of cartographic documents, such as topographical maps, air photographs, satellite images and field survey, each one directed to a space representation of the studied event and manipulated by a Geographic Information System. The proposal study is applied in an area pertaining to the "Baixada Santista" that is inserted in the 1:50,000 Topographical Chart of the Institute of Geophysics and Geology (IGG) SP. 1972 "Folha de Santos". After obtained the diverse maps multiple regression analysis had been elaborated, which demonstrated the significant correlation between changeable heavy metals and slope controlling the vegetation indices change during the studied period of time. / Doutor
249

Uma contribuição ao teste baseado em modelo no contexto de aplicações móveis / A contribution to the model-based testing in the context of mobile applications

Farto, Guilherme de Cleva 08 March 2016 (has links)
Devido ao crescente número e diversidade de usuários, novas abordagens de teste são necessárias para reduzir a ocorrência de defeitos e garantir uma melhor qualidade em aplicações móveis. As particularidades desse tipo de software exigem que as técnicas de teste tradicionais sejam revisitadas e novas abordagens propostas. A natureza direcionada a eventos e as funcionalidades de aplicações móveis demandam que os testes sejam executados de maneira automatizada. O Teste Baseado em Modelo (TBM) apresenta-se como uma abordagem válida e promissora que oportuniza o uso de um processo definido, bem como de mecanismos e técnicas formais para o teste de aplicações móveis. Esta dissertação de mestrado tem como objetivo investigar a adoção de TBM junto à técnica de modelagem Event Sequence Graph (ESG) no teste de aplicações móveis para a plataforma Android. Inicialmente, o TBM é avaliado com o apoio de ESG e da ferramenta Robotium. Com base nos resultados obtidos e desafios identificados, propõe-se uma abordagem específica que fundamenta o reuso de modelos de teste para (i) reduzir o esforço manual demandado na etapa de concretização de casos de teste e (ii) testar distintas características inerentes ao contexto de mobilidade. Uma ferramenta de apoio foi projetada e desenvolvida para automatizar a abordagem proposta. Um estudo experimental em ambiente industrial é conduzido para avaliar a abordagem e a ferramenta propostas quanto à efetividade na redução do esforço requisitado para a concretização, bem como à capacidade de detecção de defeitos em aplicações móveis desenvolvidas na plataforma Android. / Due to the increasing number and diversity of users, new testing approaches are necessary to reduce the presence of faults and ensure better quality in mobile applications. The particularities of this class of software require that traditional testing techniques are revisited and new approaches proposed. The event oriented nature and functionalities of mobile applications demand tests that can be performed automatically. Model-Based Testing (MBT) is a valid and promising approach that favors the use of a defined process, as well as mechanisms and formal techniques for the testing of mobile applications. This dissertation investigates the odoption of MBT along with the modeling technique Event Sequence Graph (ESG) to test Android applications. Initially, we evaluate TBM supported by ESG and the Robotium tool. Based on the results and challenges identified, we propose a specific approach underlying the reuse of test models to (i) reduce the manual effort to the concretization of test cases and to (ii) test different and inherited characteristics of the mobility context. A supporting tool was designed and implemented to automate the proposed approach. Finaly, we conducted an experimental study in an industrial environment to evaluate the proposed approach and tool regarding the effectiveness in reducing the concretization’s efforts, as well as the fault detection capability in Android mobile applications.
250

Desenvolvimento e usabilidade de uma intervenção computadorizada de psicoeducação sobre transtorno obsessivo-compulsivo

Siegmund, Gerson January 2014 (has links)
Este trabalho apresenta o processo iterativo de criação, desenvolvimento e avaliação de um programa de computador para psicoeducação sobre Transtorno Obsessivo-Compulsivo (TOC). Na primeira fase foi criado um protótipo interativo e autoadministrado. A segunda fase consistiu em avaliações com experts, que levaram a importantes alterações no protótipo. O resultado dessas etapas gerou um programa com 3 módulos de psicoeducação. A terceira fase foi um ensaio com usuários, do qual participaram 21 sujeitos entre 19 e 55 anos. Os instrumentos utilizados foram o Y-BOCS, escalas subjetivas para avaliação da intensidade dos sintomas de TOC, humor e ansiedade, questões de usabilidade e log do programa. Os participantes levaram em média 8 dias para completar o programa, e o tempo médio de uso totalizou 2 horas e 14 minutos. Apenas uma questão dos quizzes teve frequência de acertos abaixo de 70%. O nível médio de satisfação foi de 8,33 no primeiro módulo, 8,71 no segundo e 9,00 no terceiro. Foi encontrada diferença nos escores obsessivos do Y-BOCS entre os dois momentos de avaliação e diferença estatisticamente significativa na escala subjetiva de sintomas do TOC entre os módulos 1 e 2, e 1 e 3. O programa obteve um bom nível de satisfação dos usuários e apresenta potencial efeito de redução de sintomas percebidos. O modelo de desenvolvimento do programa é aplicável a outros contextos em Psicologia e o protótipo desenvolvido pode ser utilizado como matriz para intervenções semelhantes. / This study presents the iterative process of creating, developing and evaluating a psychoeducational software addressed at Obsessive-Compulsive Disorder (OCD). In stage 1, an interative and self-administered prototype was created. Second stage consisted of evaluations with experts, which led to important changes in the prototype. The results of these steps generated a three-module psychoeducational software. Third stage was a usability trial with users, 21 participants, ranging from 19 to 55 years old. Measures used were Y-BOCS, subjective scales to assess OCD symptoms intensity, humor and anxiety, usability questions, and the system log. Participants took an average of 8 days to complete the intervention, and the average time of software usage was 2 hours and 14 minutes. Only one quiz question showed less than 70% correct answers. Mean level of satisfaction was 8,33 for the first module, 8,71 for the second and 9,00 for the third. A difference was found on obsessive scores of Y-BOCS at the two evaluation times, and a statistically significant difference was found on the scale of OCD symptoms intensity, between modules 1 e 2, and 1 and 3. The software reached a good level of satisfaction among users and shows a potential effect in reduction of perceived symptoms. The model of development may be used with other psychological applications, and the prototype may be used as a strucutral matrix for similar interventions.

Page generated in 0.0921 seconds