• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 66
  • 18
  • 18
  • 11
  • 5
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 369
  • 87
  • 58
  • 58
  • 48
  • 40
  • 36
  • 35
  • 31
  • 30
  • 29
  • 29
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Relationship between Motor Generalization and Motor Transfer

January 2018 (has links)
abstract: Adapting to one novel condition of a motor task has been shown to generalize to other naïve conditions (i.e., motor generalization). In contrast, learning one task affects the proficiency of another task that is altogether different (i.e. motor transfer). Much more is known about motor generalization than about motor transfer, despite of decades of behavioral evidence. Moreover, motor generalization is studied as a probe to understanding how movements in any novel situations are affected by previous experiences. Thus, one could assume that mechanisms underlying transfer from trained to untrained tasks may be same as the ones known to be underlying motor generalization. However, the direct relationship between transfer and generalization has not yet been shown, thereby limiting the assumption that transfer and generalization rely on the same mechanisms. The purpose of this study was to test whether there is a relationship between motor generalization and motor transfer. To date, ten healthy young adult subjects were scored on their motor generalization ability and motor transfer ability on various upper extremity tasks. Although our current sample size is too small to clearly identify whether there is a relationship between generalization and transfer, Pearson product-moment correlation results and a priori power analysis suggest that a significant relationship will be observed with an increased sample size by 30%. If so, this would suggest that the mechanisms of transfer may be similar to those of motor generalization. / Dissertation/Thesis / Masters Thesis Biomedical Engineering 2018
162

Assessment of the Therapeutic Alliance Scales: A Reliability and Validity Meta-Analytic Evaluation

Bouchard, Danielle 29 June 2018 (has links)
Abstract Extensive research has been conducted out on the construct of therapeutic alliance. With the growing emphasis on evidence-based practice in psychology it is vital that measures used in both clinical and research settings are empirically well-suited for the population under investigation. However, many measurement issues related to the reliability and validity of the alliance construct remain unaddressed or unresolved. Two studies were designed to add to the scientific evidence on the therapeutic alliance by establishing empirical evidence of the psychometric properties of this construct’s most commonly used measures, with the intention of identifying the most psychometrically sound alliance measures. This was first done by systematically reviewing the literature to identify studies that used the most commonly used alliance measures. Next, key psychometric properties of each measure (internal reliability and predictive validity) were reviewed to determine if the alliance was assessed in the context of individual adult psychotherapy. In the first study, I conducted a reliability generalization analysis to (a) estimate the average reliability coefficient of each alliance measure identified in the systematic review and (b) examine the potential influence that study characteristics may have had on the reliability estimates. Six different alliance measures were included (Agnew Relationship Measure, California Psychotherapy Alliance Scales, Counselor Rating Form, Penn Alliance Scales, Therapeutic Bond Scale, Working Alliance Inventory), in various formats and rater versions, resulting in a total of 17 alliance measure variants for this first analysis. In the second study, I conducted a validity generalization analysis using only those studies from the first study that were identified as containing outcome data. The purpose of this study was to synthesize the alliance-outcome effect sizes that have been reported for the most commonly used therapeutic alliance measures and to assess the potential impact study characteristics may have on those effect sizes. Five different alliance measures (California Psychotherapy Alliance Scales, Counselor Rating Form, Penn Alliance Scales, Therapeutic Bond Scale, Working Alliance Inventory, Vanderbilt Therapeutic Alliance Scale) in various formats and rater versions, resulting in a total of 15 alliance measure variants were included in this analysis. This second study was different from previous alliance-outcome meta-analyses as I only included studies that (a) could be identified as providing psychotherapy, as opposed to other mental health services, (b) assessed the alliance from individual adult psychotherapy, (c) were identified as using the most commonly used alliance measures, and (d) measured the alliance at the midpoint of treatment, or earlier. This second study also differed from previous meta-analyses as I conducted separate analyses for correlational data and partial correlational data. The reliability generalization study found that majority of the alliance measures were good choices for assessing the alliance based on their mean reliability coefficients. The validity generalization study found relatively no difference in the early alliance’s ability to predict treatment outcomes in individual adult psychotherapy between full correlation data (r = .24) and partial correlation data (r = .23). There was also no difference found among the different alliance measures, or their variants, in their ability to predict treatment outcomes, suggesting that no one alliance measure is statistically better at predicting outcomes. The results from both studies suggest that, based on their overall level of reliability as well as their ability to predict treatment outcomes, both researcher and clinicians should consider these measures, with few exceptions, as comparably good choices for assessing the alliance in adult individual psychotherapy.
163

Generalization of iPad®-Learned Skills in Children with Autism Spectrum Disorder

Klein, Claire 01 January 2018 (has links)
The present study investigated the effects of learning from an iPad® to real-world skills for children with autism spectrum disorder (ASD). Research has demonstrated that for some children with ASD, electronic media such as an iPad® is highly motivating, highly preferred, and increasing in popularity in homes and in classrooms (Chen & Bernard-Opitz, 1993; Rideout, 2017; Shane & Albert, 2008). Because academic skills are often difficult for children with ASD due to problems with motivation, the current study used the motivating features of iPad® apps to teach real-world academic skills to children with ASD, with the hypothesis that skills would generalize to real-life. The current study used a multiple baseline design across 7 children (6 boys and 1 girl, ages 4-12) with ASD to assess the efficacy of an intervention using iPad® apps on teaching academic skills and the generalization of these learned skills. Baseline measures tested skills both on and off the iPad®, followed by an iPad®-only intervention. In the generalization phase, correct responding increased in comparison to baseline probes for five of the six participants who met mastery criterion during the iPad® intervention. Four participants generalized skills at higher than baseline levels to real-life probes after iPad® Intervention, and one after Booster iPad® Intervention sessions.
164

Um método para deduplicação de metadados bibliográficos baseado no empilhamento de classificadores / A method for bibliographic metadata deduplication based on stacked generalization

Borges, Eduardo Nunes January 2013 (has links)
Metadados bibliográficos duplicados são registros que correspondem a referências bibliográficas semanticamente equivalentes, ou seja, que descrevem a mesma publicação. Identificar metadados bibliográficos duplicados em uma ou mais bibliotecas digitais é uma tarefa essencial para garantir a qualidade de alguns serviços como busca, navegação e recomendação de conteúdo. Embora diversos padrões de metadados tenham sido propostos, eles não resolvem totalmente os problemas de interoperabilidade porque mesmo que exista um mapeamento entre diferentes esquemas de metadados, podem existir variações na representação do conteúdo. Grande parte dos trabalhos propostos para identificar duplicatas aplica uma ou mais funções sobre o conteúdo de determinados campos no intuito de captar a similaridade entre os registros. Entretanto, é necessário escolher um limiar que defina se dois registros são suficientemente similares para serem considerados semanticamente equivalentes ou duplicados. Trabalhos mais recentes tratam a deduplicação de registros como um problema de classificação de dados, em que um modelo preditivo é treinado para estimar a que objeto do mundo real um registro faz referência. O objetivo principal desta tese é o desenvolvimento de um método efetivo e automático para identificar metadados bibliográficos duplicados, combinando o aprendizado de múltiplos classificadores supervisionados, sem a necessidade de intervenção humana na definição de limiares de similaridade. Sobre o conjunto de treinamento são aplicadas funções de similaridade desenvolvidas especificamente para o contexto de bibliotecas digitais e com baixo custo computacional. Os escores produzidos pelas funções são utilizados para treinar múltiplos modelos de classificação heterogêneos, ou seja, a partir de algoritmos de diversos tipos: baseados em árvores, regras, redes neurais artificiais e probabilísticos. Os classificadores aprendidos são combinados através da estratégia de empilhamento visando potencializar o resultado da deduplicação a partir do conhecimento heterogêneo adquirido individualmente pelos algoritmo de aprendizagem. O modelo de classificação final é aplicado aos pares candidatos ao casamento retornados por uma estratégia de blocagem de dois níveis bastante eficiente. A solução proposta é baseada na hipótese de que o empilhamento de classificadores supervisionados pode aumentar a qualidade da deduplicação quando comparado a outras estratégias de combinação. A avaliação experimental mostra que a hipótese foi confirmada quando o método proposto é comparado com a escolha do melhor classificador e com o voto da maioria. Ainda são analisados o impacto da diversidade dos classificadores no resultado do empilhamento e os casos de falha do método proposto. / Duplicated bibliographic metadata are semantically equivalent records, i.e., references that describe the same publication. Identifying duplicated bibliographic metadata in one or more digital libraries is an essential task to ensure the quality of some services such as search, navigation, and content recommendation. Although many metadata standards have been proposed, they do not completely solve interoperability problems because even if there is a mapping between different metadata schemas, there may be variations in the content representation. Most of work proposed to identify duplicated records uses one or more functions on some fields in order to capture the similarity between the records. However, we need to choose a threshold that defines whether two records are sufficiently similar to be considered semantically equivalent or duplicated. Recent studies deal with record deduplication as a data classification problem, in which a predictive model is trained to estimate the real-world object to which a record refers. The main goal of this thesis is the development of an effective and automatic method to identify duplicated bibliographic metadata, combining multiple supervised classifiers, without any human intervention in the setting of similarity thresholds. We have applied on the training set cheap similarity functions specifically designed for the context of digital libraries. The scores returned by these functions are used to train multiple and heterogeneous classification models, i.e., using learning algorithms based on trees, rules, artificial neural networks and probabilistic models. The learned classifiers are combined by stacked generalization strategy to improve the deduplication result through heterogeneous knowledge acquired by each learning algorithm. The final model is applied to pairs of records that are candidate to matching. These pairs are defined by an efficient two phase blocking strategy. The proposed solution is based on the hypothesis that stacking supervised classifiers can improve the quality of deduplication when compared to other combination strategies. The experimental evaluation shows that the hypothesis has been confirmed by comparing the proposed method to selecting the best classifier or the majority vote technique. We also have analyzed the impact of classifiers diversity on the stacking results and the cases for which the proposed method fails.
165

O efeito das lesões nas capacidades de memorização e generalização de um perceptron / Effect of lesion on the storage and generalization capabilities of a perceptron

Daniela Maria Lemos Barbato 08 September 1993 (has links)
Perceptrons são redes neurais sem retroalimentação onde os neurônios estão dispostos em camadas. O perceptron considerado neste trabalho consiste de uma camada de N neurônios sensores Si = ±1; i = 1, , N ligados a um neurônio motor δ através das conexões sinápticas (pesos) Wi; i = 1, ..., N cujos valores restringimos a ±1. Utilizando o formalismo de Mecânica Estatística desenvolvido por Gardner (1988), estudamos os efeitos de eliminarmos uma fração de conexões sinápticas (diluição ) nas capacidades de memorização e generalização da rede neural descrita acima. Consideramos também o efeito de ruído atuando durante o estágio de treinamento do perceptron. Consideramos dois tipos de diluição: diluição móvel na qual os pesos são cortados de maneira a minimizar o erro de treinamento e diluição fixa na qual os pesos são cortados aleatoriamente. A diluição móvel, que modela lesões em cérebro de pacientes muito jovens, pode melhorar a capacidade de memorização e, no caso da rede ser treinada com ruído, também pode melhorar a capacidade de generalização. Por outro lado, a diluição fixa, que modela lesões em cérebros de pacientes adultos, sempre degrada o desempenho da rede, sendo seu principal efeito introduzir um ruído efetivo nos exemplos de treinamento. / Perceptrons are layered, feed-forward neural networks. In this work we consider a per-ceptron composed of one input layer with N sensor neurons Si = ±1; i = 1, ... , N which are connected to a single motor neuron δ through the synaptic weights Wj; i = 1, ... , N, which are constrained to take on the values ±1 only. Using the Statistical Mechanics formalism developed by Gardner (1988), we study the effects of eliminating a fraction of synaptic weights on the memorization and generalization capabilities of the neural network described above. We consider also the effects of noise acting during the perceptron training stage. We consider two types of dilution: annealed dilution, where the weights are cut so as to minimize the training error and quenched dilution, where the weights are cut randomly. The annealed dilution which models brain damage in very young patients can improve the memorization ability and, in the case of training with noise, it can also improve the generalization ability. On the other hand, the quenched dilution which models lesions on adult brains always degrades the performance of the network, its main effect being to introduce an effective noise in the training examples.
166

Estudo analítico do efeito da diluição em perceptrons / Analytical study of the effect of dilution in perceptron

Daniela Maria Lemos Barbato 21 January 1998 (has links)
Perceptrons são redes neurais sem retroalimentação cujos os neurônios estão dispostos em camadas. O perceptron considerado neste trabalho consiste de uma camada de N neurônios sensores Si = 1; i = 1,.... N ligados a um único neurônio motor através das conexões sinápticas , Ji; i = 1, .... N. Utilizando o formalismo da Mecânica Estatística desenvolvido por Gardner e colaboradores, estudamos os efeitos da eliminação de uma fração dos pesos sinápticos (diluição) nas capacidades de aprendizado e generalização de dois tipos de perceptrons, a saber, o perceptron linear e o perceptron Booleano. No perceptron linear comparamos o desempenho de redes lesadas por diferentes tipos de diluição, que podem ocorrer durante ou após o processo de aprendizado. Essa comparação mostra que a estratégia de minimizar o erro de treinamento, não fornece o menor erro de generalização, além do que, dependendo do tamanho do conjunto de treinamento e do nível de ruído, os pesos menores podem se tornar os fatores mais importantes para o bom funcionamento da rede. No perceptron Booleano investigamos apenas o efeito da diluição após o término do aprendizado na capacidade de generalização da rede neural treinada com padrões ruidosos. Neste caso, apresentamos uma comparação entre os desempenhos relativos de cinco regras de aprendizado: regra de Hebb, pseudo-inversa, algoritmo de Gibbs, algoritmo de estabilidade ótima e algoritmo de Bayes. Em particular mostramos que a diluição sempre degrada o desempenho de generalização e o algoritmo de Bayes sempre fornece o menor erro de generalização. / Perceptrons are layered, feed-forward neural networks. In this work we consider a perceptron composed of one input layer with N sensor neurons Si = 1; i = 1,..., N which are connected to a single motor neuron a through the synaptic weights Ji; i = 1,..., N. Using the Statistical Mechanics formalism developed by Gardner and co-workers, we study the effects of eliminating a fraction of synaptic weights (dilution) on the learning and generalization capabilities of the two types of perceptrons, namely, the linear perceptron and the Boolean perceptron. In the linear perceptron we compare the performances of networks damaged by different types of dilution, which may occur either during or after the learning stage. The comparison between the effects of the different types of dilution, shows that the strategy of minimizing the training error does not yield the best generalization performance. Moreover, this comparison also shows that, depending on the size of the training set and on the level of noise corrupting the training data, the smaller weights may became the determinant factors in the good functioning of the network. In the Boolean perceptron we investigate the effect of dilution after learning on the generalization ability when this network is trained with noise examples. We present a thorough comparison between the relative performances of five learning rules or algorithms: the Hebb rule, the pseudo-inverse rule, the Gibbs algorithm, the optimal stability algorithm and the Bayes algorithm. In particular, we show that the effect of dilution is always deleterious, and that the Bayes algorithm always gives the lest generalization performance.
167

Generalização de regras de associação utilizando conhecimento de domínio e avaliação do conhecimento generalizado / Generalization of association rules through domain knowledge and generalized knoeledge evaliation

Veronica Oliveira de Carvalho 23 August 2007 (has links)
Dentre as técnicas de mineração de dados encontra-se a associação, a qual identifica todas as associações intrínsecas contidas na base de dados. Entretanto, essa característica, vantajosa por um lado, faz com que um grande número de padrões seja gerado, sendo que muito deles, mesmo sendo estatisticamente aceitos, são triviais, falsos, ou irrelevantes à aplicação. Além disso, a técnica de associação tradicional gera padrões compostos apenas por itens contidos na base de dados, o que leva à extração, em geral, de um conhecimento muito específico. Essa especificidade dificulta a obtenção de uma visão geral do domínio pelos usuários finais, que visam a utilização/exploração de conhecimentos úteis e compreensíveis. Assim, o pós-processamento das regras descobertas se torna um importante tópico, uma vez que há a necessidade de se validar as regras obtidas. Diante do exposto, este trabalho apresenta uma abordagem de pós-processamento de regras de associação que utiliza conhecimento de domínio, expresso via taxonomias, para obter um conjunto de regras de associação generalizadas compacto e representativo. Além disso, a fim de avaliar a representatividade de padrões generalizados, é apresentado também neste trabalho um estudo referente à utilização de medidas de interesse objetivas quando aplicadas a regras de associação generalizadas. Nesse estudo, a semântica da generalização é levada em consideração, já que cada uma delas fornece uma visão distinta do domínio. Como resultados desta tese, foi possível observar que: um conjunto de regras de associação pode ser compactado na presença de um conjunto de taxonomias; para cada uma das semânticas de generalização existe um conjunto de medidas mais apropriado para ser utilizado na avaliação de regras generalizadas / The association technique, one of the data mining techniques, identifies all the intrinsic associations in database. This characteristic, which can be advantageous on the one hand, generates a large number of patterns. Many of these patterns, even statistically accepted, are trivial, spurious, or irrelevant to the application. In addition, the association technique generates patterns composed only by items in database, which in general implies a very specific knowledge. This specificity makes it difficult to obtain a general view of the domain by the final users, who aims the utilization/exploration of useful and comprehensible knowledge . Thus, the post-processing of the discovered rules becomes an important topic, since it is necessary to validate the obtained rules. In this context, this work presents an approach for post-processing association rules that uses domain knowledge, expressed by taxonomies, to obtain a reduced and representative generalized association rule set. In addition, in order to evaluate the representativeness of generalized patterns, a study referent to the use of objective interest measures when applied to generalized association rules is presented. In this study, the generalization semantics is considered, since each semantic provides a distinct view of the domain. As results of this thesis, it was possible to observe that: an association rule set can be compacted with a taxonomy set; for each generalization semantic there is a measure set that is more appropriate to be used in the generalized rules evaluation
168

Um método para deduplicação de metadados bibliográficos baseado no empilhamento de classificadores / A method for bibliographic metadata deduplication based on stacked generalization

Borges, Eduardo Nunes January 2013 (has links)
Metadados bibliográficos duplicados são registros que correspondem a referências bibliográficas semanticamente equivalentes, ou seja, que descrevem a mesma publicação. Identificar metadados bibliográficos duplicados em uma ou mais bibliotecas digitais é uma tarefa essencial para garantir a qualidade de alguns serviços como busca, navegação e recomendação de conteúdo. Embora diversos padrões de metadados tenham sido propostos, eles não resolvem totalmente os problemas de interoperabilidade porque mesmo que exista um mapeamento entre diferentes esquemas de metadados, podem existir variações na representação do conteúdo. Grande parte dos trabalhos propostos para identificar duplicatas aplica uma ou mais funções sobre o conteúdo de determinados campos no intuito de captar a similaridade entre os registros. Entretanto, é necessário escolher um limiar que defina se dois registros são suficientemente similares para serem considerados semanticamente equivalentes ou duplicados. Trabalhos mais recentes tratam a deduplicação de registros como um problema de classificação de dados, em que um modelo preditivo é treinado para estimar a que objeto do mundo real um registro faz referência. O objetivo principal desta tese é o desenvolvimento de um método efetivo e automático para identificar metadados bibliográficos duplicados, combinando o aprendizado de múltiplos classificadores supervisionados, sem a necessidade de intervenção humana na definição de limiares de similaridade. Sobre o conjunto de treinamento são aplicadas funções de similaridade desenvolvidas especificamente para o contexto de bibliotecas digitais e com baixo custo computacional. Os escores produzidos pelas funções são utilizados para treinar múltiplos modelos de classificação heterogêneos, ou seja, a partir de algoritmos de diversos tipos: baseados em árvores, regras, redes neurais artificiais e probabilísticos. Os classificadores aprendidos são combinados através da estratégia de empilhamento visando potencializar o resultado da deduplicação a partir do conhecimento heterogêneo adquirido individualmente pelos algoritmo de aprendizagem. O modelo de classificação final é aplicado aos pares candidatos ao casamento retornados por uma estratégia de blocagem de dois níveis bastante eficiente. A solução proposta é baseada na hipótese de que o empilhamento de classificadores supervisionados pode aumentar a qualidade da deduplicação quando comparado a outras estratégias de combinação. A avaliação experimental mostra que a hipótese foi confirmada quando o método proposto é comparado com a escolha do melhor classificador e com o voto da maioria. Ainda são analisados o impacto da diversidade dos classificadores no resultado do empilhamento e os casos de falha do método proposto. / Duplicated bibliographic metadata are semantically equivalent records, i.e., references that describe the same publication. Identifying duplicated bibliographic metadata in one or more digital libraries is an essential task to ensure the quality of some services such as search, navigation, and content recommendation. Although many metadata standards have been proposed, they do not completely solve interoperability problems because even if there is a mapping between different metadata schemas, there may be variations in the content representation. Most of work proposed to identify duplicated records uses one or more functions on some fields in order to capture the similarity between the records. However, we need to choose a threshold that defines whether two records are sufficiently similar to be considered semantically equivalent or duplicated. Recent studies deal with record deduplication as a data classification problem, in which a predictive model is trained to estimate the real-world object to which a record refers. The main goal of this thesis is the development of an effective and automatic method to identify duplicated bibliographic metadata, combining multiple supervised classifiers, without any human intervention in the setting of similarity thresholds. We have applied on the training set cheap similarity functions specifically designed for the context of digital libraries. The scores returned by these functions are used to train multiple and heterogeneous classification models, i.e., using learning algorithms based on trees, rules, artificial neural networks and probabilistic models. The learned classifiers are combined by stacked generalization strategy to improve the deduplication result through heterogeneous knowledge acquired by each learning algorithm. The final model is applied to pairs of records that are candidate to matching. These pairs are defined by an efficient two phase blocking strategy. The proposed solution is based on the hypothesis that stacking supervised classifiers can improve the quality of deduplication when compared to other combination strategies. The experimental evaluation shows that the hypothesis has been confirmed by comparing the proposed method to selecting the best classifier or the majority vote technique. We also have analyzed the impact of classifiers diversity on the stacking results and the cases for which the proposed method fails.
169

A ABORDAGEM CONTRASTIVA NA TERAPIA FONOLÓGICA EM DIFERENTES GRAVIDADES DO DESVIO FONOLÓGICO / CONTRASTIVE APPROACH IN PHONOLOGICAL THERAPY IN THREE DIFFERENT SEVERITIES OF PHONOLOGICAL DISORDERS

Pagliarin, Karina Carlesso 20 January 2009 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This study aimed at comparing three models of contrastive approach in the treatment of different severities of phonological disorder and analyzes the structural generalization obtained. The sample was composed by nine subjects with phonological disorders, being them with the age 4:2 and 6:6 years old. All subjects were evaluated, before and after phonological therapy. Three groups were established for the treatment, having them three subjects each. Every group had one representative with severe, moderate-severe and mild-moderate disorder and each one was treated by one different model Minimal Opposition, Maximal Opposition/Empty Set and Multiple Oppositions. The initial and final phonological assessments were compared taking into consideration the number of phonemes in the phonological systems, the number of sounds in the phonetic inventory, the distinctive features changed, the Percentage of Consonants Correct (PCC) and the generalizations (to non used items during treatment, for other positions in the word, inside a sound class and for other sound class). After, it was carried out the statistical analysis using the Friedman Test, considering p<0, 05 and it was done the descriptive analysis among the models. There was no statistical difference among the models considering the severity of phonological disorder. The Minimal and Maximal Opposition/Empty Set approaches favored a greater number of acquisitions of sounds in the phonetic inventory in subjects with severe and moderate-severe degrees while the Multiple Oppositions approach favored a better performance in the acquisition of sounds in the phonological system and a decrease in the impaired distinctive features in severe and moderate-severe disorder. It was verified an increase of PCC and the occurrence of different types of generalization in all groups however there was no statistical difference among them. The models of therapy were effective in the treatment of different severities of phonological disorders and favored the occurrence of structural generalization observing the best performance in children with severe and moderate-severe disorder. / Este estudo teve como objetivo comparar três modelos com abordagem contrastiva no tratamento de diferentes gravidades do desvio fonológico e analisar a generalização estrutural obtida. A amostra constituiu-se de nove sujeitos com desvio fonológico, com idades entre 4:2 e 6:6. Todos foram avaliados, antes e após a terapia fonológica. Foram estabelecidos três grupos para o tratamento, sendo todos constituídos por três sujeitos, cada grupo tinha um representante com desvio severo, moderado-severo e médio-moderado. Cada grupo foi submetido a um modelo - Oposições Mínimas, Oposições Máximas/Empty Set e Oposições Múltiplas. Foram comparadas as avaliações fonológica inicial e final, considerando-se o número de sons estabelecidos nos sistemas fonológicos, o número de sons presentes nos inventários fonéticos, os traços distintivos alterados, o Percentual de Consoantes Corretas e as generalizações (a itens não-utilizados no tratamento, para outras posições na palavra, dentro de uma classe de sons e para outras classes de sons). Posteriormente, realizou-se análise estatística dos dados, utilizando o Teste de Friedman, considerando-se p<0,05 e análise descritiva entre os modelos. Não houve diferença estatisticamente significante entre os modelos considerando-se a gravidade do desvio fonológico. Os Modelos de Oposições Mínimas e Oposições Máximas/Empty Set favoreceram maior número de aquisição de sons no inventário fonético nos sujeitos com graus severos e moderado-severo, enquanto que o Modelo de Oposições Múltiplas favoreceu melhor desempenho na aquisição de sons no sistema fonológico e diminuição dos traços distintivos alterados nos desvio severos e moderado-severos. Verificou-se aumento do Percentual de Consoantes Corretas e a ocorrência dos diferentes tipos de generalização em todos os grupos estudados, entretanto não houve diferença estatística entre eles. Os modelos de terapia foram eficazes no tratamento das diferentes gravidades do desvio fonológico e favoreceram a ocorrência de generalização observando-se melhor desempenho das crianças com desvio severo e moderado-severo.
170

Generalizace cestní sítě v topografických mapách / Generalization of Road Network in Topographic Maps

Vojtíšková, Zuzana January 2017 (has links)
Generalization of Road Network in Topographic Map Abstract The diploma thesis presents automated selection of the elements of path network. The review deals with this term and describes its position in map generalization process; the ways of path thinning apllied in the main Czech cartography institutions are reviewed too. Next part of the thesis describes the data and the tools that are applied in the proposed method. The main part introduces the suggested method of selecting elements of path network which was implemented on the test data. Keywords: map generalization, path network, path thinning, graph theory, ZABAGED, ArcGIS, Python, NetworkX

Page generated in 0.1132 seconds