Spelling suggestions: "subject:"reforçamento dependent dda frequência"" "subject:"reforçamento dependent daa frequência""
1 |
Variabilidade comportamental e a seleção de uma sequência de baixa probabilidade inicial: comparando dois procedimentosBitondi, Fernanda Rizzi 25 May 2012 (has links)
Made available in DSpace on 2016-04-29T13:17:45Z (GMT). No. of bitstreams: 1
Fernanda Rizzi Bitondi.pdf: 1390449 bytes, checksum: c3d88238b2946cc2655e04fd9337cc96 (MD5)
Previous issue date: 2012-05-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The aim of this study was to evaluate the effectiveness of two procedures, Discrete Trial (DT) and Discrete Trial with Interresponse Interval (DT/IRI), on the production of behavioral variability in different conditions (directly reinforced and induced) and determine what condition, in each procedure, would facilitate the selection of an initial sequence of low probability. Were selected 18 college students with baseline performance measured by U-valeu, that was equal or less than 0,5. They were divided into the two procedures and subdivided into three groups with three participants (VAR, YOKE and CON). The task was to form images on the computer screen by pressing two keys (left and right) on lateral keyboards. The unit was four responses to the keys. In both procedures, a piece of the image, a tone and 0,5 seconds was used to reinforce sequences that attended the contingency s criterion, and a timeout of 1,0 second, if not. Only the DT/IRI had a 0,5 second interval after the first three responses of the sequence. The experiment had three phases. In Phase I, baseline, sequences was continuous reinforced (CRF). For two groups (DT- VAR and DT/IRI-VAR) in Phase 2, variability was direct reinforced on 15 sequences, mean that the less frequent and less recent sequence had more probability of been reinforced than the others, and a target sequence (less frequent sequence at baseline) was reinforced in CRF. In Phase 3, the distribution of reinforcement of the prior phase was yoked for the 15 sequences and another target sequence was reinforced in CRF. For the groups DT-YOKE and DT/IRI-YOKE, the phase s exposure was reversed, whereas in Phase 2 the distribution of reinforcement was yoked to the performance of the VAR groups. In groups DT-CON and DT/IRI-CON, only the target sequence was reinforced in both phases. The results showed that variability increased in the first session of Phase 2 for all participants. The DT-YOKE group showed the highest levels of variability within this procedure. In the DT/IRI procedure, this was true for the group DT/IRI-VAR. With regard to the selection of the target sequence the groups that had higher percentages of selection in all sessions were DT-CON and DT/IRI-VAR, respectively within each procedure. It was noted that both procedures produced the selection of the target sequence, but is seems that the use of IRI produced a more variable performance, when it was directly reinforced, allowing the selection of the target sequence to occur more rapidly / O objetivo do estudo foi avaliar a efetividade de dois procedimentos, Tentativa Discreta (TD) e Tentativa Discreta com Intervalo entre as Respostas (TD/IRI), na produção da variabilidade comportamental em diferentes condições (diretamente reforçada e induzida) e averiguar que condição, em cada procedimento, mais facilitaria a seleção de uma sequência de baixa probabilidade inicial. Selecionou-se 18 universitários com um desempenho na linha de base, medido pelo índice U, igual ou inferior a 0,5. Estes foram divididos nos dois procedimentos e subdivididos em três grupos com três participantes (VAR, ACO e CON). A tarefa consistia em formar figuras na tela do computador pressionando duas teclas (direita e esquerda) de teclados laterais. A unidade comportamental era quatro respostas às teclas. Nos dois procedimentos apresentava-se um pedaço da figura, um tom e 0,5 segundo, caso a sequência fosse passível de reforço, e um timeout de 1,0 segundo, caso não fosse. Somente no TD/IRI havia um IRI de 0,5 segundo após as três primeiras respostas da sequência. O experimento continha três fases. Na Fase 1, linha de base, vigorava o reforçamento contínuo (CRF) das 16 sequências. Para dois grupos (TD-VAR e TD/IRI-VAR) na Fase 2 havia o reforçamento direto da variabilidade, para 15 sequências, no qual a sequência menos frequente e menos recente teria maior probabilidade de ser reforçada, e CRF de uma sequência alvo (sequência menos frequente na linha de base). Na Fase 3, havia a distribuição acoplada dos reforços da fase anterior para as 15 sequências e CRF de outra sequência alvo. Para os grupos TD-ACO e TD/IRI-ACO a ordem de exposição às fases foi inversa, visto que na Fase 2 a distribuição de reforços foi acoplada ao desempenho dos participantes dos grupos VAR. Nos grupos TD-CON e TD/IRI-CON havia somente o CRF da sequência alvo nas duas fases. Os resultados mostraram que a variabilidade aumentou na primeira sessão da Fase 2 para todos os participantes. O grupo TD-ACO foi o que apresentou maior índices de variabilidade dentro deste procedimento. Já no TD/IRI, isto foi verdadeiro para o grupo TD/IRI-VAR. Com relação à seleção da sequência alvo, os grupos que apresentaram maiores porcentagens de seleção em todas as sessões foram TD-CON e TD/IRI-VAR, respectivamente dentro de cada procedimento. Notou-se que os dois procedimentos produziram seleção da sequência alvo, mas parece que o uso do IRI produziu um responder mais variável, quando este foi diretamente reforçado, o que possibilitou que a seleção da sequência alvo ocorresse mais rapidamente
|
2 |
Efeitos das contingências de reforçamento LAG e RDF sobre a variabilidade comportamental de crianças autistas / Effects of reinforcement contingencies LAG and RDF on behavioral variability of autistic childrenSélios, Talita Lopes 25 May 2012 (has links)
Made available in DSpace on 2016-04-29T13:17:46Z (GMT). No. of bitstreams: 1
Talita Lopes Selios.pdf: 2740314 bytes, checksum: bbf543faeed50b1b17909eb0128d1ebb (MD5)
Previous issue date: 2012-05-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In order to verify the effects of the reinforcement contingencies LAG and RDF on the
behavioral variability of autistic children, was established in the present research two
different teaching procedures of variability one for the LAG contingency and other
for the RDF that started with low variation requirement to obtain reinforcement and
consisted of gradual increasing in the variability exigency. So, the objective was to
investigate if (1) the two reinforcement procedures contingent to the vary LAG and
RDF of motor responses of autistic children, with gradual increasing in the exigency
of variation, would produce a variable responding in computer games; and (2)
occurred extension of acquired variability in the taught task with the LAG and RDF
contingencies for the other tasks not submitted to the direct reinforcement of vary
task with response topographically similar and task with response topographically
different from the task that composed the experimental task. The six participants
realized three computer games. They were exposed a baseline phase with each one of
the tree games and, then, four of them were submitted to the training phase with the
variability contingency with the Game 1 considering that for two of them, the
teaching of the variability was given with the LAG contingency (the reinforce was
presented if a determined sequence completed differed from last n completed
sequences), and, for the other two, with the threshold contingency or frequency
dependent reinforcement RDF (the reinforce probability was greater as lower was
the relative frequency and the recency of a sequence) and two passed to training
with the yoked contingency with the Game 1 (the reinforce distribution obtained in
the procedure in which the variability was directly reinforced established what
completed sequences would produce reinforces; the release of the reinforce was,
therefore, independent of the responding being varied). In the end of each level that
composed the teaching of variability and the yoked and after the teaching of the last
level, extension tests of variability were realized one to the task topographically
similar to teaching task (Game 2) and other to the task topographically different
(Game 3). The results showed that the reinforcement contingencies LAG and RDF
produced variability. The procedures of gradual increasing of exigency of variation,
for both contingencies, generate variable responding and, in general, the higher was
the requirement of variation, higher the variability. Both contingencies produced, in
the end of the teaching process, high and similar variability levels. The yoked
contingency did not alter the variability, permitting conclude that the variable
responding generated for the LAG and RDF contingencies was due to the
reinforcement contingent to vary and not of the intermittency among the reinforces. It
was also verified that occurred extension of variability only to the task
topographically similar to that taught and it could already be observed during the
teaching process / A fim de verificar os efeitos das contingências de reforçamento LAG e RDF sobre a
variabilidade comportamental de crianças autistas, estabeleceu-se na presente
pesquisa dois diferentes procedimentos de ensino da variabilidade um para a
contingência LAG e outro para a RDF que iniciavam com baixo requerimento de
variação para a obtenção do reforço e consistiam em aumentar gradualmente a
exigência de variabilidade. Assim, objetivou-se investigar se (1) os dois
procedimentos de reforçamento contingente ao variar - LAG e RDF - de respostas
motoras de crianças autistas, com aumento gradual da exigência de variação,
produziram um responder variável, em jogos de computador; e (2) ocorreu extensão
da variabilidade adquirida na tarefa ensinada com as contingências LAG e RDF para
outras tarefas não submetidas ao reforçamento direto do variar tarefa com resposta
topograficamente semelhante e tarefa com resposta topograficamente diferente da que
compôs a tarefa experimental. Os seis participantes realizaram três jogos de
computador. Eles foram expostos a uma fase de linha de base com cada um dos três
jogos e, em seguida, quatro deles foram submetidos à fase de treino com a
contingência de variabilidade com o Jogo 1 sendo que, para dois deles, o ensino da
variabilidade deu-se com a contingência LAG (o reforço era apresentado se uma
determinada sequência completada diferisse da últimas n sequências completadas) e,
para os outros dois, com a contingência limiar ou de reforçamento dependente da
frequência - RDF (a probabilidade de reforço era maior quanto menor fosse a
frequência relativa e a recência de uma sequência) e dois passaram pelo treino com
a contingência de acoplamento com o Jogo 1 (a distribuição de reforços obtida no
procedimento em que se reforçou diretamente a variabilidade estabeleceu quais
sequências completadas produziriam reforços; a liberação do reforço era, portanto,
independente do responder ser variado). Ao final de cada nível que compôs o ensino
de variabilidade e o acoplamento e após o ensino do último nível, testes de extensão
da variabilidade foram realizados um para tarefa topograficamente semelhante à
tarefa ensinada (Jogo 2) e outro para tarefa topograficamente diferente (Jogo 3). Os
resultados mostraram que as contingências de reforçamento LAG e RDF produziram
variabilidade. Os procedimentos de aumento gradual da exigência de variação, para
ambas as contingências, geraram responder variável e, de forma geral, quanto maior o
requerimento de variação, maior a variabilidade. Ambas as contingências produziram,
ao final do processo de ensino, altos e semelhantes níveis de variabilidade. A
contingência acoplamento não alterou a variabilidade, permitindo concluir que o
responder variável gerado pelas contingências LAG e RDF foi decorrente do
reforçamento contingente ao variar e não da intermitência entre os reforços.
Verificou-se, também, que ocorreu extensão da variabilidade apenas para a tarefa
topograficamente semelhante à ensinada e esta já pôde ser observada durante o
processo de ensino
|
Page generated in 0.0985 seconds