• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Variabilidade comportamental e a seleção de uma sequência de baixa probabilidade inicial: comparando dois procedimentos

Bitondi, Fernanda Rizzi 25 May 2012 (has links)
Made available in DSpace on 2016-04-29T13:17:45Z (GMT). No. of bitstreams: 1 Fernanda Rizzi Bitondi.pdf: 1390449 bytes, checksum: c3d88238b2946cc2655e04fd9337cc96 (MD5) Previous issue date: 2012-05-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The aim of this study was to evaluate the effectiveness of two procedures, Discrete Trial (DT) and Discrete Trial with Interresponse Interval (DT/IRI), on the production of behavioral variability in different conditions (directly reinforced and induced) and determine what condition, in each procedure, would facilitate the selection of an initial sequence of low probability. Were selected 18 college students with baseline performance measured by U-valeu, that was equal or less than 0,5. They were divided into the two procedures and subdivided into three groups with three participants (VAR, YOKE and CON). The task was to form images on the computer screen by pressing two keys (left and right) on lateral keyboards. The unit was four responses to the keys. In both procedures, a piece of the image, a tone and 0,5 seconds was used to reinforce sequences that attended the contingency s criterion, and a timeout of 1,0 second, if not. Only the DT/IRI had a 0,5 second interval after the first three responses of the sequence. The experiment had three phases. In Phase I, baseline, sequences was continuous reinforced (CRF). For two groups (DT- VAR and DT/IRI-VAR) in Phase 2, variability was direct reinforced on 15 sequences, mean that the less frequent and less recent sequence had more probability of been reinforced than the others, and a target sequence (less frequent sequence at baseline) was reinforced in CRF. In Phase 3, the distribution of reinforcement of the prior phase was yoked for the 15 sequences and another target sequence was reinforced in CRF. For the groups DT-YOKE and DT/IRI-YOKE, the phase s exposure was reversed, whereas in Phase 2 the distribution of reinforcement was yoked to the performance of the VAR groups. In groups DT-CON and DT/IRI-CON, only the target sequence was reinforced in both phases. The results showed that variability increased in the first session of Phase 2 for all participants. The DT-YOKE group showed the highest levels of variability within this procedure. In the DT/IRI procedure, this was true for the group DT/IRI-VAR. With regard to the selection of the target sequence the groups that had higher percentages of selection in all sessions were DT-CON and DT/IRI-VAR, respectively within each procedure. It was noted that both procedures produced the selection of the target sequence, but is seems that the use of IRI produced a more variable performance, when it was directly reinforced, allowing the selection of the target sequence to occur more rapidly / O objetivo do estudo foi avaliar a efetividade de dois procedimentos, Tentativa Discreta (TD) e Tentativa Discreta com Intervalo entre as Respostas (TD/IRI), na produção da variabilidade comportamental em diferentes condições (diretamente reforçada e induzida) e averiguar que condição, em cada procedimento, mais facilitaria a seleção de uma sequência de baixa probabilidade inicial. Selecionou-se 18 universitários com um desempenho na linha de base, medido pelo índice U, igual ou inferior a 0,5. Estes foram divididos nos dois procedimentos e subdivididos em três grupos com três participantes (VAR, ACO e CON). A tarefa consistia em formar figuras na tela do computador pressionando duas teclas (direita e esquerda) de teclados laterais. A unidade comportamental era quatro respostas às teclas. Nos dois procedimentos apresentava-se um pedaço da figura, um tom e 0,5 segundo, caso a sequência fosse passível de reforço, e um timeout de 1,0 segundo, caso não fosse. Somente no TD/IRI havia um IRI de 0,5 segundo após as três primeiras respostas da sequência. O experimento continha três fases. Na Fase 1, linha de base, vigorava o reforçamento contínuo (CRF) das 16 sequências. Para dois grupos (TD-VAR e TD/IRI-VAR) na Fase 2 havia o reforçamento direto da variabilidade, para 15 sequências, no qual a sequência menos frequente e menos recente teria maior probabilidade de ser reforçada, e CRF de uma sequência alvo (sequência menos frequente na linha de base). Na Fase 3, havia a distribuição acoplada dos reforços da fase anterior para as 15 sequências e CRF de outra sequência alvo. Para os grupos TD-ACO e TD/IRI-ACO a ordem de exposição às fases foi inversa, visto que na Fase 2 a distribuição de reforços foi acoplada ao desempenho dos participantes dos grupos VAR. Nos grupos TD-CON e TD/IRI-CON havia somente o CRF da sequência alvo nas duas fases. Os resultados mostraram que a variabilidade aumentou na primeira sessão da Fase 2 para todos os participantes. O grupo TD-ACO foi o que apresentou maior índices de variabilidade dentro deste procedimento. Já no TD/IRI, isto foi verdadeiro para o grupo TD/IRI-VAR. Com relação à seleção da sequência alvo, os grupos que apresentaram maiores porcentagens de seleção em todas as sessões foram TD-CON e TD/IRI-VAR, respectivamente dentro de cada procedimento. Notou-se que os dois procedimentos produziram seleção da sequência alvo, mas parece que o uso do IRI produziu um responder mais variável, quando este foi diretamente reforçado, o que possibilitou que a seleção da sequência alvo ocorresse mais rapidamente
2

Efeitos das contingências de reforçamento LAG e RDF sobre a variabilidade comportamental de crianças autistas / Effects of reinforcement contingencies LAG and RDF on behavioral variability of autistic children

Sélios, Talita Lopes 25 May 2012 (has links)
Made available in DSpace on 2016-04-29T13:17:46Z (GMT). No. of bitstreams: 1 Talita Lopes Selios.pdf: 2740314 bytes, checksum: bbf543faeed50b1b17909eb0128d1ebb (MD5) Previous issue date: 2012-05-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In order to verify the effects of the reinforcement contingencies LAG and RDF on the behavioral variability of autistic children, was established in the present research two different teaching procedures of variability one for the LAG contingency and other for the RDF that started with low variation requirement to obtain reinforcement and consisted of gradual increasing in the variability exigency. So, the objective was to investigate if (1) the two reinforcement procedures contingent to the vary LAG and RDF of motor responses of autistic children, with gradual increasing in the exigency of variation, would produce a variable responding in computer games; and (2) occurred extension of acquired variability in the taught task with the LAG and RDF contingencies for the other tasks not submitted to the direct reinforcement of vary task with response topographically similar and task with response topographically different from the task that composed the experimental task. The six participants realized three computer games. They were exposed a baseline phase with each one of the tree games and, then, four of them were submitted to the training phase with the variability contingency with the Game 1 considering that for two of them, the teaching of the variability was given with the LAG contingency (the reinforce was presented if a determined sequence completed differed from last n completed sequences), and, for the other two, with the threshold contingency or frequency dependent reinforcement RDF (the reinforce probability was greater as lower was the relative frequency and the recency of a sequence) and two passed to training with the yoked contingency with the Game 1 (the reinforce distribution obtained in the procedure in which the variability was directly reinforced established what completed sequences would produce reinforces; the release of the reinforce was, therefore, independent of the responding being varied). In the end of each level that composed the teaching of variability and the yoked and after the teaching of the last level, extension tests of variability were realized one to the task topographically similar to teaching task (Game 2) and other to the task topographically different (Game 3). The results showed that the reinforcement contingencies LAG and RDF produced variability. The procedures of gradual increasing of exigency of variation, for both contingencies, generate variable responding and, in general, the higher was the requirement of variation, higher the variability. Both contingencies produced, in the end of the teaching process, high and similar variability levels. The yoked contingency did not alter the variability, permitting conclude that the variable responding generated for the LAG and RDF contingencies was due to the reinforcement contingent to vary and not of the intermittency among the reinforces. It was also verified that occurred extension of variability only to the task topographically similar to that taught and it could already be observed during the teaching process / A fim de verificar os efeitos das contingências de reforçamento LAG e RDF sobre a variabilidade comportamental de crianças autistas, estabeleceu-se na presente pesquisa dois diferentes procedimentos de ensino da variabilidade um para a contingência LAG e outro para a RDF que iniciavam com baixo requerimento de variação para a obtenção do reforço e consistiam em aumentar gradualmente a exigência de variabilidade. Assim, objetivou-se investigar se (1) os dois procedimentos de reforçamento contingente ao variar - LAG e RDF - de respostas motoras de crianças autistas, com aumento gradual da exigência de variação, produziram um responder variável, em jogos de computador; e (2) ocorreu extensão da variabilidade adquirida na tarefa ensinada com as contingências LAG e RDF para outras tarefas não submetidas ao reforçamento direto do variar tarefa com resposta topograficamente semelhante e tarefa com resposta topograficamente diferente da que compôs a tarefa experimental. Os seis participantes realizaram três jogos de computador. Eles foram expostos a uma fase de linha de base com cada um dos três jogos e, em seguida, quatro deles foram submetidos à fase de treino com a contingência de variabilidade com o Jogo 1 sendo que, para dois deles, o ensino da variabilidade deu-se com a contingência LAG (o reforço era apresentado se uma determinada sequência completada diferisse da últimas n sequências completadas) e, para os outros dois, com a contingência limiar ou de reforçamento dependente da frequência - RDF (a probabilidade de reforço era maior quanto menor fosse a frequência relativa e a recência de uma sequência) e dois passaram pelo treino com a contingência de acoplamento com o Jogo 1 (a distribuição de reforços obtida no procedimento em que se reforçou diretamente a variabilidade estabeleceu quais sequências completadas produziriam reforços; a liberação do reforço era, portanto, independente do responder ser variado). Ao final de cada nível que compôs o ensino de variabilidade e o acoplamento e após o ensino do último nível, testes de extensão da variabilidade foram realizados um para tarefa topograficamente semelhante à tarefa ensinada (Jogo 2) e outro para tarefa topograficamente diferente (Jogo 3). Os resultados mostraram que as contingências de reforçamento LAG e RDF produziram variabilidade. Os procedimentos de aumento gradual da exigência de variação, para ambas as contingências, geraram responder variável e, de forma geral, quanto maior o requerimento de variação, maior a variabilidade. Ambas as contingências produziram, ao final do processo de ensino, altos e semelhantes níveis de variabilidade. A contingência acoplamento não alterou a variabilidade, permitindo concluir que o responder variável gerado pelas contingências LAG e RDF foi decorrente do reforçamento contingente ao variar e não da intermitência entre os reforços. Verificou-se, também, que ocorreu extensão da variabilidade apenas para a tarefa topograficamente semelhante à ensinada e esta já pôde ser observada durante o processo de ensino

Page generated in 0.0985 seconds