Spelling suggestions: "subject:"decisions trees"" "subject:"ecisions trees""
1 |
Ãrvores de decisÃo para inferÃncia de desobstruÃÃo ineficaz de vias aÃreas e padrÃo respiratÃrio ineficaz de crianÃas com infecÃÃo respiratÃria aguda. / Decision trees for the inference of ineffective airway clearance and ineffective breathing pattern of children with acute respiratory infection.Daniel Bruno Resende Chaves 21 December 2011 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / Muitas dificuldades sÃo encontradas na implementaÃÃo de classificaÃÃes de enfermagem na prÃtica clÃnica. Destaca-se a falta de familiaridade dos enfermeiros com os sistemas de classificaÃÃo e as dificuldades na tomada de decisÃo diagnÃstica associadas Ãs deficiÃncias no processo de raciocÃnio diagnÃstico. Assim, estudos que desenvolvam ferramentas tecnolÃgicas como as Ãrvores de decisÃo (AD) podem contribuir para agilizar a tomada de decisÃo diagnÃstica e facilitar o uso destes fenÃmenos. Objetivou-se gerar Ãrvores de decisÃo baseadas em probabilidades condicionais para auxÃlio na inferÃncia diagnÃstica de DesobstruÃÃo ineficaz de vias aÃreas (DIVA) e PadrÃo respiratÃrio ineficaz (PRI) em crianÃas com infecÃÃo respiratÃria aguda (IRA). Estudo transversal desenvolvido com o intuito de identificar dados para que pudessem ser utilizados na geraÃÃo de Ãrvores de decisÃo com boa aplicabilidade clÃnica. Realizou-se avaliaÃÃo respiratÃria de 249 crianÃas com diagnÃstico mÃdico de IRA no perÃodo de janeiro a abril de 2011. Estes dados serviram de base para determinaÃÃo das caracterÃsticas definidoras (CD) dos diagnÃsticos de enfermagem (DE) em estudo. As CD foram enviadas para dois enfermeiros diagnosticadores para o processo de inferÃncia diagnÃstica. A maior parte das crianÃas era do sexo masculino (55,8%). Pneumonia (79,9%) foi a principal IRA encontrada e Asma (17,7%), a principal comorbidade. DIVA esteve presente em 89,2% dos casos e PRI em 65,5%. As CD de DIVA com maior prevalÃncia foram: âTosse ineficazâ (91,3%), âRuÃdos adventÃcios respiratÃriosâ (77,1%), âDispneiaâ (69,3%), âMudanÃas na frequÃncia respiratÃriaâ (56,6%), âOrtopneiaâ (54,2%) e âExpectoraÃÃoâ (32,1%). Jà para PRI, as CD mais prevalentes foram: âAlteraÃÃes na profundidade respiratÃriaâ (73,9%), âDispneiaâ (68,3%), âTaquipneiaâ (57,0%),âOrtopneiaâ (54,2%) e âUso da musculatura acessÃria para respirarâ (51,8%). Utilizaram-se trÃs algoritmos para geraÃÃo de AD: CHi-square Automatic Interaction Detection (CHAID), Classification and Regression Trees (CRT) e Quick, Unbiased, Efficient Statistical Tree (QUEST). As AD foram submetidas à validaÃÃo cruzada para que se avaliasse o poder de prediÃÃo dessas. Desenvolveram-se trÃs AD para auxÃlio na inferÃncia diagnÃstica de DIVA, trÃs para PRI e trÃs para diferenciaÃÃo destes diagnÃsticos. Para DIVA, a AD com maior poder de prediÃÃo foi a desenvolvida pelo mÃtodo CHAID. Jà para PRI, os valores de prediÃÃo foram similares para os trÃs mÃtodos de crescimento das Ãrvores. Para diferenciaÃÃo diagnÃstica, a Ãrvore gerada pelo mÃtodo CRT obteve melhor poder de prediÃÃo (86,4%). Acredita-se que a implementaÃÃo das Ãrvores de decisÃo pode ajudar a tornar as inferÃncias destes dois diagnÃsticos mais acuradas. Entretanto esta relaÃÃo necessita ser aprofundada, aplicando-se as AD geradas em outras populaÃÃes. Conclui-se que a utilizaÃÃo de tecnologias como as AD pode ser valorosa tanto na prÃtica clÃnica como no ensino de diagnÃsticos de enfermagem.
|
2 |
Arbres de décision et forêts aléatoires pour variables groupées / Decisions trees and random forests for grouped variablesPoterie, Audrey 18 October 2018 (has links)
Dans de nombreux problèmes en apprentissage supervisé, les entrées ont une structure de groupes connue et/ou clairement identifiable. Dans ce contexte, l'élaboration d'une règle de prédiction utilisant les groupes plutôt que les variables individuelles peut être plus pertinente tant au niveau des performances prédictives que de l'interprétation. L'objectif de la thèse est de développer des méthodes par arbres adaptées aux variables groupées. Nous proposons deux approches qui utilisent la structure groupée des variables pour construire des arbres de décisions. La première méthode permet de construire des arbres binaires en classification. Une coupure est définie par le choix d'un groupe et d'une combinaison linéaire des variables du dit groupe. La seconde approche, qui peut être utilisée en régression et en classification, construit un arbre non-binaire dans lequel chaque coupure est un arbre binaire. Ces deux approches construisent un arbre maximal qui est ensuite élagué. Nous proposons pour cela deux stratégies d'élagage dont une est une généralisation du minimal cost-complexity pruning. Les arbres de décision étant instables, nous introduisons une méthode de forêts aléatoires pour variables groupées. Outre l'aspect prédiction, ces méthodes peuvent aussi être utilisées pour faire de la sélection de groupes grâce à l'introduction d'indices d'importance des groupes. Ce travail est complété par une partie indépendante dans laquelle nous nous plaçons dans un cadre d'apprentissage non supervisé. Nous introduisons un nouvel algorithme de clustering. Sous des hypothèses classiques, nous obtenons des vitesses de convergence pour le risque de clustering de l'algorithme proposé. / In many problems in supervised learning, inputs have a known and/or obvious group structure. In this context, elaborating a prediction rule that takes into account the group structure can be more relevant than using an approach based only on the individual variables for both prediction accuracy and interpretation. The goal of this thesis is to develop some tree-based methods adapted to grouped variables. Here, we propose two new tree-based approaches which use the group structure to build decision trees. The first approach allows to build binary decision trees for classification problems. A split of a node is defined according to the choice of both a splitting group and a linear combination of the inputs belonging to the splitting group. The second method, which can be used for prediction problems in both regression and classification, builds a non-binary tree in which each split is a binary tree. These two approaches build a maximal tree which is next pruned. To this end, we propose two pruning strategies, one of which is a generalization of the minimal cost-complexity pruning algorithm. Since decisions trees are known to be unstable, we introduce a method of random forests that deals with groups of inputs. In addition to the prediction purpose, these new methods can be also use to perform group variable selection thanks to the introduction of some measures of group importance, This thesis work is supplemented by an independent part in which we consider the unsupervised framework. We introduce a new clustering algorithm. Under some classical regularity and sparsity assumptions, we obtain the rate of convergence of the clustering risk for the proposed alqorithm.
|
Page generated in 0.0886 seconds