• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 876
  • 321
  • 321
  • 321
  • 321
  • 321
  • 320
  • 284
  • 32
  • 6
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1715
  • 1715
  • 1116
  • 1110
  • 664
  • 664
  • 664
  • 406
  • 398
  • 372
  • 253
  • 253
  • 214
  • 200
  • 196
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

A mobile device based identity validation system for online social networks

Shi, Yiwei January 2012 (has links)
Currently, online social networks (OSNs) do not provide validation mechanisms to verify the identity of a user who is seeking linkage with another user. This shortfall is exploited by attackers to infiltrate other people's social circles to gain access to personal data. Therefore, building an identity validation system is necessary for protecting the user interest as well as enhancing the user experience.In this thesis I present an identity validation system---CredFinder for OSNs using commodity mobile devices. Three validation protocols are designed under different scenarios people may encounter. Targeted on Facebook, we propose an Android based prototypical implementation including three subsystems, the mobile device application, the validation server and the OSN application server. The implementation results demonstrate that CredFinder is capable of performing identity validation. To the best of our knowledge, CredFinder is the first mobile device based practical system against social network identity theft attacks. The validation strategy in our system gives users the power to connect their online and offline social networks together. / Actuellement, l'expérience utilisateur des réseaux sociaux en ligne (Online Social Networks) est difficile lorsqu'un utilisateur a à valider des identités d'autres pour se connecter. Compte tenu des attaques rampantes de vol d'identité sur OSN, il est parfois difficile de distinguer si la personne à connecter sur OSN est celle qui l'utilisateur connaît-il dans la vie réelle. Pour cette raison, la construction d'un système de validation d'identité est nécessaire pour protéger l'intérêt des utilisateurs ainsi que pour améliorer de l'expérience utilisateur.Dans cette thèse, nous présentons un système de validation d'identité - CredFinder pour OSN développé en plate-forme des dispositifs mobiles. Trois protocoles de validation sont conçus pour faire face à différents scénarios que d'utilisateurs peuvent-ils rencontrer. Concernant ​​Facebook, nous proposons une implémentation basée sur Android prototype composée par trois sous-systèmes: application de dispositif mobile, serveur de validation et serveur d'application OSN. Les résultats et les analyses de l'implémentation démontrent que CredFinder est à la fois efficace et efficiente pour accomplir la validation d'identité. Au meilleur de nos connaissances, CredFinder est le premier système réel basé sur appareil mobile contre les attaques de vol l'identité sur OSN. La stratégie de validation dans notre système donne aux utilisateurs ordinaires le pouvoir de connecter sur leurs réseaux sociaux en ligne et hors ligne.
182

Editing and constraining kinematic approximations of dynamic motion

Rahgoshay, Cyril January 2012 (has links)
This thesis presents inverse kinodynamics (IKD), an animator friendly kinematicworkflow that both encapsulates short-lived dynamics and allows precise space-timeconstraints. Kinodynamics (KD), defines the system state at any given time asthe result of a kinematic state in the recent past, physically simulated over a shorttemporal window to the present. KD is a well suited kinematic approximation to animatedcharacters and other dynamic systems with dominant kinematic motion andshort-lived dynamics. Given a dynamic system, we first formulate an appropriatekinodynamic window size based on kinematically defined accelerations in the kinematictrajectory and physical properties of the system. We then present an inversekinodynamics (IKD) algorithm, where a kinodynamic system can precisely attain aset of animator constraints at specified times. Our approach solves the IKD problemiteratively, and is able to handle full pose or end effector constraints at both positionand velocity level, as well as multiple constraints in close temporal proximity.Our approach can also be used to solve position and velocity constraints on passivesystems attached to kinematically driven bodies. We show IKD to be a compellingapproach to the direct kinematic control of character, with secondary dynamics viaexamples of skeletal dynamics and facial animation. / Cette thèse présente kinodynamique inversé (IKD) qui est un procédé kinematiquetrès pratique utilisable pour l'animateur qui consiste à la fois d'une dynamiquede courte durée et qui permet des contraintes spatio-temporelles précises. Kinodynamique (KD) définit l'état du système à un moment donné comme le résultat d'un état kinematique dans un passé récent, physiquement simulé dans une fenêtre temporelle de courte durée du temps présent. KD est une approximation kinematiquebien adaptée aux caractères animés et à d'autres systèmes dynamiques avec unmouvement kinematique dominant et une dynamique de courte durée. En ayant unsystème dynamique on peut d'abord formuler une taille de fenêtre kinodynamiqueappropriée, basée sur des accélérations définies kinematiquement dans la trajectoirekinematique et sur les propriétés physiques du système. Nous présentons ensuiteun algorithme kinodynamique inversé (IKD) dans lequel un système kinodynamiquepeut satisfaire un ensemble de contraintes des animateurs à des moments précis.Notre approche résout le problème IKD de manière itérative et permet de gérer unepose complète ou des contraintes des points fixés sur le corps à la fois au niveaude la position et de la vitesse ainsi que de multiples contraintes dans une courteproximité temporelle. Notre approche peut également être utilisée pour résoudredes contraintes de position et de vitesse dans des systèmes passifs attachés à descorps kinematiquement entrainés. Nous démontrons qu'IKD peut être une approcheconvaincante pour le contrôle kinematique direct des caractères avec des dynamiquessecondaires par des exemples de dynamiques du squelette et d'animation faciale.
183

Text classification using labels derived from structured knowledge representations

Perreault, Mathieu January 2012 (has links)
Structured knowledge representations are becoming central to the area of Information Science. Search engines companies have said that constructing an entity graph is the key to classifying their enormous corpus of documents in order to provide more relevant results to their users. Our work presents WikiLabel, a novel approach to text classification using ontological knowledge. We match a document's terms to Wikipedia entities and use, amongst other measures, the path-length shortest distance from each entity to a given Wikipedia category to determine which label should be associated with the document. In the second part of our work, we use the obtained labels to train a supervised machine learning text classification algorithm, an approach we call SuperWikiLabel. We gather a dataset of news articles and obtain high-confidence labels from human coders to evaluate the performance of WikiLabel and SuperWikiLabel. We find that WikiLabel's performance is on par with other methods, and SuperWikiLabel is comparable to the performance of a traditional supervised method, where the document corpus is coded by humans. Our work suggests that it may be possible to largely eliminate the human coding efforts in a given text classification task, and we claim that our approach is more flexible and convenient than the usual methods of obtaining a labeled training document set, which often comes at great expense. / Les représentations de savoir structurées telles que Wikipedia sont devenues un élément important dans le domaine des sciences de l'information. Les compagnies d'engins de recherche ont dit que construire un réseau d'entités est pour eux la clé pour faire la classification de leurs énormes bases de données remplies de documents. Notre document présente WikiLabel, une approche nouvelle à la classification de texte en utilisant du savoir obtenu de ces sources de savoir structurées. Elle reconnaît les entités de Wikipedia dans un document et utilise, parmi d'autres mesures, la mesure de la plus courte distance entre chaque entité et des catégories de Wikipedia. Ceci permet de déterminer quelle catégorie est davantage associée avec le document sous observation. La deuxième partie de notre travail utilise les classifications obtenues en utilisant WikiLabel et entraîne une intelligence artificielle pour classifier des documents, une approche appelée SuperWikiLabel. Nous obtenons des articles de nouvelles ainsi que des classements de haute qualité effectuées par des humains pour évaluer la performance de WikiLabel et SuperWikiLabel. Nous trouvons que la performance de WikiLabel est comparable à d'autres mesures, et que celle de SuperWikiLabel est aussi comparable à une approche traditionnelle d'intelligence artificielle, où les documents sont classés par des humains plutôt que par WikiLabel. Notre travail indique qu'il pourrait être possible d'éliminer en grande partie le classement de documents par des humains, et nous croyons que notre approche est beaucoup plus flexible et pratique que les méthodes habituelles qui doivent obtenir un groupe de documents classés par des humains, qui est parfois coûteux en termes de ressources.
184

Immobilization of lipase and biodiesel production from fishery and animal processing waste

Aryee, Alberta January 2012 (has links)
Biodiesel (BD) is conventionally produced by the transesterification of vegetable oils or animal fats with a monohydric alcohol and base catalyst, and known for its many technical and environmental advantages over petrodiesel. However, these oils are not economically viable feedstock due to their value as edible oils. Alternative, inexpensive feedstocks with minimal to no food value such as the large quantities of fishery and animal processing by-products which are often discarded as waste were explored in this project. Lipase was investigated as an alternative to chemical catalyst due to the tolerance of the former to a wide variety of feedstocks and simpler post-production processes among other advantages. Approximately 23.32-61.53% (on dry weight basis) of salmon skin oil (SSO) was recovered by the various solvent extraction systems evaluated. The quality of SSO stored at 25, 4, -18, and -80oC were assessed over time (1- 45 days) with respect to changes in the fatty acid profile, free fatty acid (FFA) content, peroxide value, and thiobarbituric acid reactive substances. A Fourier transform infrared (FTIR) spectroscopic method was assessed as an alternative to the conventional AOCS titrimetric method for the determination of FFA content. With modifications, the new method was found to be capable of responding linearly to oleic acid (0-6.5%) addition, producing a FFA calibration equation with a S.D. of ±0.014% FFA. Based on the results from the initial assessment of the effects of temperature (25-65oC), oil:alcohol molar ratio (1:1-1:6), alcohol type (ethanol/methanol), and time (8-120 h) on Lipozyme®-IM-catalyzed transesterification of the recovered SSO, a commercial blend of yellow grease and rendered animal fat, and olive oil to fatty acid ethyl ester (FAEE) for use as BD, the process was considered for optimization. In three experiments, the linear, quadratic, and bilinear effects of the reaction variables on FAEE yield were assessed with response surface methodology (RSM) based on central composite rotatable design (CCRD). In each experiment, second-order polynomial models fitted to FAEE yield provided response surfaces at the various reaction times (8-48 h). These models were generally significant and produced reliable and stable predictions. The optimum conditions were found to be close to the centre point of the reaction variables. A high performance liquid chromatography unit equipped with a size exclusion column, and a refractive index detector was used for the simultaneous separation, identification, and quantitation of the reaction components; FAEE, unreacted triacylglycerol, residual diacyl- and monoacylglycerol, and alcohol as well as FFA. The transesterified oils were also tested for various fuel properties. To expand the uses of lipase recovered from fish processing discards to include catalyst for BD production, lipase from crude preparations of delipidated grey mullet (Mugil cephalus) viscera were isolated on para-aminobenzamidine agarose and immobilized on octyl Sepharose CL-4B (o-Sep). A signal in the amide I absorption region of the FTIR spectrum was attributed to the protein layer on o-Sep. Immobilized grey mullet lipase (GMLi) had a 10°C higher optimum temperature compared to the free enzyme (GML) for the hydrolysis of para-nitrophenyl palmitate. Immobilization lowered the enthalpy of activation (ΔH*), and free energy of activation (ΔG*) by more than 313 and 1315 cal/mol, respectively, while it enhanced the reusability, thermal, storage, and organic solvent stabilities of GML. / Le biodiesel (BD), ou des esters d'alkyle, est classiquement produit par la transestérification d'huiles végétales ou de graisses animales avec un monoalcool et un catalyseur de base, et est également connu pour ses nombreux avantages techniques et environnementaux par rapport au pétrodiesel. Toutefois, ces huiles BD ne sont pas des matières premières économiquement viables en raison de leur valeur principale en tant qu'huiles comestibles. Ce projet a exploré des matières premières de substitution, peu coûteuses avec peu ou pas de valeur alimentaire telle que les grandes quantités de sous-produits detransformation du poisson et de sous-produits animaux qui sont souvent jetés avec les déchets. La lipase a été étudiée comme une alternative aux catalyseurs chimiques en raison de la tolérance de la lipase à une grande variété de matières premières ainsi que son processus de post-production beaucoup plus simple entre autres avantages. Environ 23,32 et 61,53% (sur la base du poids sec) de l'huile de peau de saumon (SSO) a été récupéré selon les différents systèmes de solvants évalués. Pour la détermination de la teneur en FFA, une méthode de spectroscopie infrarouge à transformée de Fourier (FTIR) a été évaluée comme une alternative au procédé AOCS conventionnel. Avec des modifications, la nouvelle méthode a été jugée capable de répondre de façon linéaire à l'addition d'acide oléique (0 à 6,5%), avec la production d'une équation d'étalonnage FFA avec une SD de ±0,014% FFA. Sur la base des résultats de l'évaluation initiale des effets de la température de réaction (25-65°C), un rapport l'huile:alcool molaire (1:1-1:6), le type d'alcool (éthanol ou méthanol), et le temps de réaction (8-120 h) sur du la transestérification catalysée Lipozyme®-IM, un mélange commercial de graisse animale jaune et de graisses fondues (RC), et d'huile d'olive (OO) à ester éthylique d'acide gras (EEAG) pour une utilisation comme BD, le procédé a été considéré pour optimisation. Dans trois expériences, les effets linéaires, quadratiques et bilinéaires des variables de la réaction sur le rendement EEAG ont été évalués avec la méthode de réponse de surface (RSM) basée sur la conception centrale composite rotative (CCRD). Dans chaque expérience, des modèles polynomiaux du second ordre équipés d'EEAG ont modelé le rendement des surfaces de réponse fournis aux divers temps de réaction (8-48 h). Ces modèles sont généralement importants et produisent des prévisions fiables et stables. Les conditions optimales ont été trouvées être proche du point de centre des variables de réaction (50°C, charge de l'enzyme 39.06 U, et l'huile:rapport molaire de l'alcool 1:2), et simultanément identifiés, et quantifiés. Les différents composants de la réaction (par exemple: EEAG, triacylglycérol n'ayant pas réagi (TAG), diacyle et résiduelle monoacyle-glycérol (DAG et MAG), et l'alcool ainsi que la FFA), ont été séparés, identifiés et quantifiés en utilisant la chromatographie liquide à haute performance équipé d'unité de colonne d'exclusion de taille, et un détecteur par indice de réfraction. Pour élargir les usages de la lipase récupérée à partir de rejets de transformation du poisson pour inclure un catalyseur pour la production de BD, de la lipase à partir de préparations brutes de délipidé mulet (Mugil cephalus) les viscères ont été isolées sur le para-aminobenzamidine agarose (p-ABA) et immobilisées sur Sepharose CL-octyle 4B (o-Sep). Un signal dans la région d'absorption amide I du spectre FTIR a été attribué à la couche de protéine sur o-Sep. La lipase de mulet immobilisée (GMLi) a eu une température optimale de 10°C plus élevée par rapport à l'enzyme libre (GML) pour l'hydrolyse de para-nitrophényl palmitate (p-NPP). L'immobilisation a abaissé l'enthalpie d'activation (AH*), et l'énergie libre d'activation (AG*) de plus de 313 et 1315 cal/mol, respectivement, alors qu'alla améliorer la capacité thermique, la, réutilisabilité, et la stabilité des solvants des GML.
185

Transcription factor binding site turnover in mammals

Reid, Ian Duncan January 2007 (has links)
Transcription factor binding sites (TFBS) are usually, but not always, conserved during evolution. To better understand TFBS evolution I examined the cases of non-conservation for 1120 known human and mouse TFBS in the genomes of 11 mammals and the reconstructed genomes of their ancestors. Novel TFBS appeared frequently, even near conserved ancestral sites, but site gain was significantly more probable when an ancestral site was lost (TFBS turnover). 165 human TFBS and 113 mouse TFBS have evolved de novo since divergence from the boreoeutherian ancestor and are absent in other lineages. Putative TFBS and sequences that differ from TFBS by one substitution are more abundant near known TFBS than expected by chance. Apparent enrichment and clustering of weak TFBS result from local variations in CG frequency. / Les sites de fixation des facteurs de transcription (TFBS) sont souvent, mais pas toujours, conservés pendant l'évolution. Afin de mieux comprendre leur évolution, j'ai examiné les cas de non-conservation de 1120 TFBS connus chez l'homme et la souris dans les génomes d'onze mammifères et les génomes reconstruits de leurs ancêtres. De nouveaux TFBS se sont développés fréquemment, même près des sites ancestraux conservés, mais le gain d'un site était significativement plus probable quand un site ancestral avait disparu. 165 TFBS de l'homme et 113 TFBS de la souris ont évolué de novo depuis leur divergence de l'ancêtre boreoeuthérien et sont absents des autres lignées. Les TFBS putatifs et les séquences qui diffèrent des TFBS par une substitution sont plus abondants qu'attendu par hasard auprès des TFBS connus. L'enrichissement et rassemblement apparents des TFBS faibles sont des résultats des variations locales dans l'abondance de C et G.
186

XTW, a parallel and distributed logic simulator

Xu, Qing January 2003 (has links)
In this thesis, a new parallel synchronization mechanism, XTW, is proposed. XTW is designed for the parallel simulation of large logic circuits on a cluster of computer workstations. In XTW, a new event queue structure, XEQ, is created in order to reduce the cost of event-scheduling; a new message "un-sending" mechanism, "rb-messages", is proposed to reduce the cost of un-sending" previously sent messages. Both theoretical analysis and actual simulations provide evidence that XTW speeds up parallel logic simulations and provides excellent scalability versus the number of processors and the circuit size. An object-oriented parallel logic simulation software framework, XTWFM, is built upon the base of the XTW mechanism. A milliongates circuit, which can not be simulated by our sequential simulator, is successfully simulated by XTWFM over a cluster of 6 "small" PCs. This success demonstrates that a cluster of PCs is an attractive low-cost alternative for large scale circuit simulation.
187

Static lock allocation

Halpert, Richard January 2008 (has links)
The allocation of lock objects to critical sections in concurrent programs affects both performance and correctness. Traditionally, this allocation is done manually by the programmer. Recent work explores automatic lock allocation, aiming primarily to minimize conflicts and maximize parallelism by allocating locks to individual critical sections. We investigate several modes of lock allocation, using connected components (groups) of interfering critical sections on a critical section interference graph as the basis for allocation decisions. Our allocator uses thread-based side effect analysis which is built from several pluggable component analyses. It benefits from precise points-to and may happen in parallel information. Thread-local object information provides a small improvement over points-to analysis alone. Our framework minimizes the restrictions on input programs, dealing gracefully with nesting and deadlock, and requiring only simple annotations identifying critical sections. Legacy programs using synchronized regions can be processed without alteration. We find that dynamic locks do not broadly improve upon identical allocations of static locks, but allocating several dynamic locks in place of a single static lock can significantly increase parallelism in certain situations. We experiment with a range of small and large Java benchmarks on 1 to 8 processors, and find that a singleton allocation is sufficient for five of our benchmarks, and that a static allocation with Spark points-to analysis is sufficient for another two. Of the other five benchmarks, two require the use of all phases of our analysis, one depends on using the lockset allocation, and two benchmarks proved too complex to be automatically transformed to satisfactory performance. / L'allocation des verrous aux sections critiques des programmes construits avec des processus indépendants affecte la performance et la validité de ces programmes. La littérature récente rapporte des résultats pour l'allocation automatique des verrous. Le but est de minimiser les conflits et de maximiser le parallélisme avec une allocation de verrous aux sections critiques individuelles. Nous étudions plusieurs méthodes d'allocation de verrous, en utilisant des composantes connectés des sections critiques qui interfèrent sur un graphe d'interférence des sections critiques. Notre technique d'allocation utilise une analyse d'effets secondaires qui considère chaque processus indépendant individuellement. Notre analyse d'effets secondaires est construit d'un ensemble d'analyses composantes interchangeable. La technique d'allocation peut profiter d'une analyse des pointeurs précises et d'une analyse «may happen in parallel». Nous avons trouvé que la disponibilité des informations qui sont spécifiques à chaque processus indépendant peut améliorer la qualité des résultats par rapport aux résultats de l'analyse avec seulement l'analyse des pointeurs. Notre système demande des pré-requis minimes des programmes qu'il analyse, peut bien analyser les situations d'emboîtement et d'interblocage, et nécessite seulement quelques annotations simples pour identifier les sections critiques. Les logiciels patrimoniales qui portent des régions synchronisés peuvent être analysés directement. Nous avons trouvé que les verrous dynamiques, en général, ne réussissent pas à améliorer la performance au-dessus de celle des verrous statiques. Par contre, l'allocation de quelques verrous dynamiques au lieu d'un seul verrou statique peut augmenter le parallélisme dans certaines situations. Nous avons évalué notre analyse sur une gamme de programmes pour étudier comparée. Les programmes sont écrits en Java et notre gamme comprend des programmes qui va
188

Prediction of stock market indices using machine learning

Modarres Najafabadi, Sayed Reza January 2009 (has links)
Financial time series prediction is a very important economical problem but the data available is very noisy. In this thesis, we explain the use of statistical and machine learning methods for stock market prediction and we evaluate the performance of these methods on data from the S&P/TSX 60 stock index. We use both linear regression and support vector regression, a state-of-art machine learning method, which is usually robust to noise. The results are mixed, illustrating the difficulty of the problem. We discuss the utility of using different types of data pre-processing for this task as well. / La prediction des series de donnees economiques est un probleme tres important, mais les donnees disponiblessont tres aleatoires. Dans cette these, nous expliquons l'utilisation des statistiques et des methodes d'apprentissage automatique en vue de prevoir la valuer prochaine du S&P/TSX60. Nous utilisons deux methodes: la regression lineaire et les machines a vecteur de support pour la regression, une methode d'apprentissagemoderne, qui est tres robuste. Les resultats sont mitiges, illustrant la difficulte du probleme. Nous discutons l'utilite des differents types de donnees et le pre-traitement necessaire pour cette tache.}
189

Force measures at the hand-stick interface during ice hockey slap and wrist shots

Zane, Lisa January 2012 (has links)
The purpose of this study was to quantify the contact forces between the lower and upper hands to the stick shaft during the ice hockey slap and wrist shot. Four cohorts (male/female x high/low calibre; HC, LC) of ice hockey players were tested using three sticks of different shaft bending stiffnesses (77, 87, 102). Forty-one subjects (21 male, 20 female) performed seven slap and seven wrist shots with each of the three stick types. Force at the stick-hand interface was recorded at 1000 Hz using 32 piezoresistive sensors about the shaft at the upper and lower-hand grip locations. The results demonstrated the feasibility for direct measurement of forces at the hand-stick interface while executing shooting tasks in ice hockey. As anticipated, peak forces acquired during both the slap and wrist shot differed by calibre and by gender, with males exhibiting higher forces than females, and HC players demonstrating higher forces than LC players, within each gender; however, stick type was not a significant factor. Notably, each player displayed unique, repeatable "force signatures". In general, for both slap and wrist shots, grip force patterns demonstrated typical bimanual coordination patterns pertinent to understanding the mechanical dynamic control of the stick for effective performance. / Le but de cette étude était d'examiner les forces de contact entre les mains et le baton de hockey pendant l'exécution de lancers frappés et de tirs du poignet. Quatre cohortes (homme/femme x haut / bas calibre; HC, LC) de joueurs de hockey sur glace ont été testés en utilisant trois bâtons de rigidités différentes (77, 87, 102). Quarante et un sujets (21 hommes, 20 femmes) ont effectué sept lancers frappés et sept tirs du poignet avec chacun des trois types de bâton. La force de pression a été enregistrée à 1000 Hz en utilisant 32 capteurs piézorésistifs aux interfaces entre la main et le bâton. Les résultats ont démontré la faisabilité de la mesure directe des forces à l'interface main-bâton lors de l'exécution de tirs au hockey sur glace. Les forces de pointe atteintes au cours de lancers frappés et de tirs du poignet différaient en fonction du calibre et du sexe, les hommes présentant des forces supérieures comparativement aux femmes. De plus, les joueurs de HC ont démontré des forces supérieures par rapport aux joueurs LC. Par contre, le type de bâton ne représentait pas un facteurs significatif pour la production de force qui plus est, chaque joueur a affiché une 'signature' de force reproductible et constante. En général, les modèles de forces pour les lancers frappés et les tirs des poignets ont démontré des pattrons de coordination bimanuelle à la compréhension du contrôle mécanique dynamique du bâton et possiblement a l'évaluation de la performance.
190

Analysis of trumpet tone quality using machine learning and audio feature selection

Knight, Trevor January 2012 (has links)
This work examines which audio features, the components of recorded sound, are most relevant to trumpet tone quality by using classification and feature selection. A total of 10 trumpet players with a variety of experience levels were recorded playing the same notes under the same conditions. Twelve musical instrumentalists listened to the notes and provided subjective ratings of the tone quality on a seven-point Likert scale to provide training data for classification. The initial experiment verified that there is statistical agreement between human raters on tone quality and that it was possible to train a support vector machine (SVM) classifier to identify different levels of tone quality with success of 72% classification accuracy with the notes split into two classes and 46% when using seven classes. In the main experiment, different types of feature selection algorithms were applied to the 164 possible audio features to select high-performing subsets. The baseline set of all 164 audio features obtained a classification accuracy of 58.9% with seven classes tested with cross-validation. Ranking, sequential floating forward selection, and genetic search produced accuracies of 43.8%, 53.6%, and 59.6% with 20, 21, and 74 features, respectively. Future work in this field could focus on more nuanced interpretations of tone quality or on the applicability to other instruments. / Ce travail examine les caractéristique acoustique, c.-à-d. les composantes de l'enregistrement sonore, les plus pertinentes pour la qualité du timbre de trompette à l'aide de la classification automatique et de la sélection de caractéristiques. Un total de 10 joueurs de trompette de niveau varié, jouant les mêmes notes dans les mêmes conditions, a été enregistré. Douze instrumentistes de musique ont écouté les enregistrements et ont fourni des évaluations subjectives de la qualité du timbre sur une échelle de Likert à sept points afin de fournir des données d'entrainement du système de classification. La première expérience a vérifié qu'il existe une correlation statistique entre les évaluateurs humains sur la qualité du timbre et qu'il était possible de former un système de classification de type machine à vecteurs de support pour identifier les différents niveaux de qualité du timbre avec un succès de précision de la classification de 72% pour les notes quand divisées en deux classes et 46% lors de l'utilisation de sept classes. Dans l'expérience principale, différents types d'algorithmes de sélection de caractéristiques ont été appliqués aux 164 fonctions au- dio possibles pour sélectionner les sous-ensembles les plus performants. L'ensemble de toutes les 164 fonctions audio a obtenu une précision de classification de 58,9% avec sept classes testées par validation croisée. Les algorithmes de "ranking," "sequential floating forward selection," et génétiques produisent une précision respective de 43,8%, 53,6% et 59,6% avec 20, 21 et 74 caractéristiques. Les futurs travaux dans ce domaine pourraient se concentrer sur des interprétations plus nuancées de la qualité du timbre ou sur l'applicabilité à d'autres instruments.

Page generated in 0.0695 seconds