• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 24
  • 9
  • Tagged with
  • 66
  • 66
  • 42
  • 37
  • 24
  • 17
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Structures Markoviennes cachées et modèles à corrélations conditionnelles dynamiques: extensions et applications aux corrélations d'actifs financiers.

Charlot, Philippe 25 November 2010 (has links) (PDF)
L'objectif de cette thèse est d'étudier le problème de la modélisation des changements de régime dans les modèles à corrélations conditionnelles dynamiques en nous intéressant plus particulièrement à l'approche Markov-switching. A la différence de l'approche standard basée sur le modèle à chaîne de Markov caché (HMM) de base, nous utilisons des extensions du modèle HMM provenant des modèles graphiques probabilistes. Cette discipline a en effet proposé de nombreuses dérivations du modèle de base permettant de modéliser des structures complexes. Cette thèse se situe donc à l'interface de deux disciplines: l'économétrie financière et les modèles graphiques probabilistes. Le premier essai présente un modèle construit à partir d'une structure hiérarchique cachée markovienne qui permet de définir différents niveaux de granularité pour les régimes. Il peut être vu comme un cas particulier du modèle RSDC (Regime Switching for Dynamic Correlations). Basé sur le HMM hiérarchique, notre modèle permet de capter des nuances de régimes qui sont ignorées par l'approche Markov-Switching classique. La seconde contribution propose une version Markov-switching du modèle DCC construite à partir du modèle HMM factorisé. Alors que l'approche Markov-switching classique suppose que les tous les éléments de la matrice de corrélation suivent la même dynamique, notre modèle permet à tous les éléments de la matrice de corrélation d'avoir leur propre dynamique de saut. Dans la dernière contribution, nous proposons un modèle DCC construit à partir d'un arbre de décision. L'objectif de cet arbre est de relier le niveau des volatilités individuelles avec le niveau des corrélations. Pour cela, nous utilisons un arbre de décision Markovien caché, qui est une extension de HMM.
2

Estimations pour les modèles de Markov cachés et approximations particulaires : Application à la cartographie et à la localisation simultanées. / Inference in hidden Markov models and particle approximations - application to the simultaneous localization and mapping problem

Le Corff, Sylvain 28 September 2012 (has links)
Dans cette thèse, nous nous intéressons à l'estimation de paramètres dans les chaînes de Markov cachées. Nous considérons tout d'abord le problème de l'estimation en ligne (sans sauvegarde des observations) au sens du maximum de vraisemblance. Nous proposons une nouvelle méthode basée sur l'algorithme Expectation Maximization appelée Block Online Expectation Maximization (BOEM). Cet algorithme est défini pour des chaînes de Markov cachées à espace d'état et espace d'observations généraux. Dans le cas d'espaces d'états généraux, l'algorithme BOEM requiert l'introduction de méthodes de Monte Carlo séquentielles pour approcher des espérances sous des lois de lissage. La convergence de l'algorithme nécessite alors un contrôle de la norme Lp de l'erreur d'approximation Monte Carlo explicite en le nombre d'observations et de particules. Une seconde partie de cette thèse se consacre à l'obtention de tels contrôles pour plusieurs méthodes de Monte Carlo séquentielles. Nous étudions enfin des applications de l'algorithme BOEM à des problèmes de cartographie et de localisation simultanées. La dernière partie de cette thèse est relative à l'estimation non paramétrique dans les chaînes de Markov cachées. Le problème considéré est abordé dans un cadre précis. Nous supposons que (Xk) est une marche aléatoire dont la loi des incréments est connue à un facteur d'échelle a près. Nous supposons que, pour tout k, Yk est une observation de f(Xk) dans un bruit additif gaussien, où f est une fonction que nous cherchons à estimer. Nous établissons l'identifiabilité du modèle statistique et nous proposons une estimation de f et de a à partir de la vraisemblance par paires des observations. / This document is dedicated to inference problems in hidden Markov models. The first part is devoted to an online maximum likelihood estimation procedure which does not store the observations. We propose a new Expectation Maximization based method called the Block Online Expectation Maximization (BOEM) algorithm. This algorithm solves the online estimation problem for general hidden Markov models. In complex situations, it requires the introduction of Sequential Monte Carlo methods to approximate several expectations under the fixed interval smoothing distributions. The convergence of the algorithm is shown under the assumption that the Lp mean error due to the Monte Carlo approximation can be controlled explicitly in the number of observations and in the number of particles. Therefore, a second part of the document establishes such controls for several Sequential Monte Carlo algorithms. This BOEM algorithm is then used to solve the simultaneous localization and mapping problem in different frameworks. Finally, the last part of this thesis is dedicated to nonparametric estimation in hidden Markov models. It is assumed that the Markov chain (Xk) is a random walk lying in a compact set with increment distribution known up to a scaling factor a. At each time step k, Yk is a noisy observations of f(Xk) where f is an unknown function. We establish the identifiability of the statistical model and we propose estimators of f and a based on the pairwise likelihood of the observations.
3

Modélisation de la morbi-mortalité du carcinome hépatocellulaire en France par stade de gravité : évaluation de différentes stratégies en fonction du dépistage et des ressources thérapeutiques / Modelling the morbi-mortality of Hepatocellular carcinoma in France across the stages of severity : Evaluation of different strategies according to the amount of screening and of therapeutic resources

Mourad, Abbas 14 March 2014 (has links)
Le CHC est souvent diagnostiqué à un stade avancé, stade où les options thérapeutiques sont limitées et le plus souvent palliatives. A l’inverse, les patients diagnostiqués à un stade précoce sont candidats à des traitements curatifs tels que la résection chirurgicale, la radiofréquence et la transplantation hépatique. Le dépistage par échographie des cirrhotiques (surveillance tous les 6 mois) est recommandé par la grande majorité d’experts et les sociétés savantes afin de détecter et traiter le CHC à un stade précoce. Cependant, l’impact du dépistage sur la survie des patients reste controversé en raison des insuffisances méthodologiques des études l’ayant évalué. Parmi les incertitudes méthodologiques, le biais d’avance au diagnostic, qui correspond à un allongement du temps de suivi du à un dépistage plus précoce, n’a le plus souvent pas été pris en compte dans les études ayant évalué l’impact du dépistage. L’approche par modélisation est une option attractive pour l’évaluation du dépistage car la réalisation d’un essai randomisé contrôlé comparant les malades dépistés et non dépistés est irréalisable pour des raisons d’ordre éthique. Dans ce travail, nous avons développé un modèle de la progression du CHC de la date de diagnostic jusqu’au décès. Ce modèle prend en compte l’âge des patients, la connaissance du statut VHC et les principaux facteurs pronostiques du CHC sur cirrhose virale C compensée et décompensée. Il a été alimenté par plusieurs types de données pour fixer les probabilités de transitions dans le modèle, et valider les sorties du modèle. Dans un premier temps, afin d’éviter une surestimation du bénéfice du dépistage, il a été indispensable de calculer le biais d’avance au diagnostic et de l’intégrer dans le calcul de la survie des patients dépistés. Dans un deuxième temps le modèle a évalué l’impact du dépistage du CHC chez les patients ayant une cirrhose virale C compensée et connaissant leur statut VHC. Dans un contexte de cirrhose compensée avec un statut VHC-connu, notre étude montre que le dépistage du CHC réalisé dans la pratique courante (taux d’accès au dépistage = 57%, une efficacité du dépistage correspondant à 42% des patients diagnostiqués à un stade précoce) améliore la survie des patients, avec une augmentation de l’espérance de vie (EV) de 11 mois et une diminution de risque de décès à 5 ans de 6% par rapport à l’absence du dépistage (taux d’accès au dépistage = 0%, 19% des patients non dépistés pour le CHC sont diagnostiqués à un stade précoce). Elle souligne l’importance des deux variables, taux d’accès au dépistage et efficacité du dépistage, sur la survie des patients. Par rapport au dépistage réalisé dans la pratique courante : a) un scénario d’augmentation du taux d’accès au dépistage de 57% à 97% augmente l’EV de 7 mois et diminue le risque de décès à 5 ans de 5% ; b) un scénario d’augmentation de l’efficacité du dépistage de 42% à 87% (dépistage optimal) augmente l’EV de 14 mois et diminue le risque de décès à 5 ans de 9% ; c) un scénario combinant une augmentation de l’efficacité du dépistage à 87% et une augmentation du taux d’accès au dépistage à 97% augmente l’EV de 31 mois et diminue le risque de décès à 5 ans de 20%. Cette étude souligne la nécessité d’une application stricte des modalités de dépistage du CHC, afin d’optimiser son efficacité à diagnostiquer le CHC au stade précoce. Ce travail suggère que les experts devraient cibler leurs recommandations sur l’efficacité du dépistage. De telles recommandations pourraient conduire à discuter de l’expérience et de la qualification des opérateurs et de la qualité du parc des échographes utilisés pour homogénéiser la qualité du dépistage. Finalement, nous avons observé dans un travail préliminaire que le choix optimal de la méthode de correction pour le calcul du biais d’avance au diagnostic devrait prendre en compte la progression tumorale d’un stade asymptomatique vers un stade symptomatique qui diffère d’un cancer à l’autre. / HCC is often diagnosed at an advanced stage, the stage where therapeutic options are limited and mostly palliative. In contrast, the patients who are diagnosed at an earlier stage are candidates for curative treatments such as surgical resection, radiofrequency and liver transplantation. The screening of cirrhotic patients by ultrasound (every 6 months) is recommended by a large majority of experts and specialized societies to detect and treat HCC at an early stage. However, the impact of screening on patients’ survival remains controversial due to its evaluation by the methodological shortcomings of studies. Among the methodological uncertainties, the lead-time bias which corresponds to an extension of the follow-up time which is due to an earlier screening has not often been taken into account in studies that evaluated the impact of screening. The modeling approach is an attractive option for the evaluation of screening because the performance of a randomized controlled trial comparing the screened and the unscreened patients is impossible for ethical reasons. In this work, we developed a model of HCC progression from the date of diagnosis until death. This model takes into account the patient\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\'s age, the awareness of HCV-status and the main prognostic factors for HCC in compensated and decompensated cirrhosis due to HCV. The model was supplied by several types of data to set the probabilities of transitions in it and validate its output. In the first step, in order to avoid an overestimation of the benefit of screening, it was necessary to calculate the lead-time bias and to include it in the calculation of the survival of screened patients. In a second step, the model evaluated the impact of screening for HCC in patients with compensated HCV-related cirrhosis and aware of their HCV-status. In the context of compensated cirrhosis with known HCV-status, our study showed that HCC screening performed in currently existing practices (rate of access to screening = 57%; effectiveness of screening corresponding to 42% of patients diagnosed at an early stage) improves the survival of patients with HCC, with an increase in life expectancy (LE) of 11 months and reduced HCC mortality at 5 years by 6% compared to the absence of screening (rate of access to screening = 0%; 19% of patients who had not been screened for HCC are diagnosed at an early stage). It showed the importance of the two variables, the rates of access to HCC screening and the effectiveness of screening on the survival of patients. Regarding the screening performed in currently existing practices: a) a scenario of increase of the rate of access to HCC screening from 57% to 97% which increases the LE by 7 months and reduces HCC mortality at 5 years by 5%; b) a scenario of increase of the effectiveness of HCC screening from 42% to 87% corresponding to that observed in the randomized trial CHC-2000 (optimal screening) which increases the LE by 14 months and reduces mortality at 5 years by 9%; c) a scenario combining an increase of the effectiveness of HCC screening from 42% to 87% and an increase of the rate of access to HCC screening from 57% to 97% which increases the LE by 31 months and reduces mortality at 5 years by 20%. This study emphasizes the need for strict application of rules of HCC screening in order to optimize its effectiveness to diagnose HCC at an early stage. This work suggests that experts should focus their recommendations on the effectiveness of screening. Such recommendations could lead to discuss the experience and qualification of operators and the quality of the park ultrasound used to standardize homogenize the quality of screening. Finally, we observed in a preliminary work that the optimal choice of the correction method for calculating the lead time bias should take into account the tumor progression from an asymptomatic stage to a symptomatic stage, which differs from a cancer to another.
4

Génération d'indicateurs de maintenance par une approche semi-paramétrique et par une approche markovienne

Vrignat, Pascal 14 October 2010 (has links) (PDF)
Les stratégies de maintenance et leurs évaluations demeurent une préoccupation particulièrement forte au sein des entreprises aujourd'hui. Les enjeux socio-économiques dépendant de la compétitivité de chacune d'entre elles sont de plus en plus étroitement liés à l'activité et à la qualité des interventions de maintenance. Une suite d'évènements particuliers peut, éventuellement, informer l'expert d'une panne prochaine. Notre étude tente d'appréhender " cette signature " à l'aide d'un modèle de Markov caché. Nous proposons à l'expert deux stratégies sur l'estimation du niveau de dégradation du système maintenu. La première stratégie consiste à utiliser des lois de dégradation non paramétrique et semi-paramétrique. La deuxième stratégie consiste à utiliser une approche markovienne. Toutes les propositions sont illustrées sur deux études de cas correspondant à deux situations réelles de travail (système continu dans la fabrication de pain et produits moulés en alliages d'aluminium dans le cadre d'un processus discontinu).
5

Analyse de Fiabilité et de performance d'un Système de Véhicules Intelligents

Zheng, Tian 09 September 2013 (has links) (PDF)
Cette thèse est consacrée à l'évaluation de la fiabilité d'une caravane de véhicules intelligents avec les principaux objectifs de fournir une méthode pour évaluer et améliorer la sécurité des ITS. Après examen de l'évolution des ITS et DSRC, la fiabilité/qualité de service (QoS) de transmission de bout-en-bout des communications courtes est analysée. Ensuite, les effets de la transmission et QoS sur le système de commande PID et flou sont étudiés respectivement.D'abord, Les méthodes de protection des données utilisées dans le protocole Bluetooth sont analysées en termes de fiabilité. Un modèle de performance du nœud est construit pour les différentes distributions de temps de service du nœud. Ainsi, chaque nœud dans le réseau peut surveiller directement la qualité de service du nœud à tout moment. Basé sur ce modèle, un protocole de routage ad hoc (NPDSR) est proposé. Ce protocole présente les avantages de maintenir la qualité de service requise de la communication, et des économies de routage.Deuxièmement, les effets sur les systèmes de contrôle, en termes de retards et de pertes, sont analysés en utilisant la méthode mathématique et statistique. Des fonctions descriptives pour les contrôleurs flous de types Mamdani et T-S sont fournies, et la stabilité du contrôleur multi-flou avec un retard de communication est analysée à l'aide des lieux de Nyquist.Enfin, en perspective, l'utilisation possible de NS-2 sur le modèle de simulation et de vérification est discutée, ce qui s'avère intéressant pour simuler des protocoles différents. En outre, il peut être connecté avec Simulink permettant une meilleure analyse de performances des systèmes de contrôle en réseau
6

Estimation non paramétrique adaptative pour les chaînes de Markov et les chaînes de Markov cachées

Lacour, Claire 01 October 2007 (has links) (PDF)
Dans cette thèse, on considère une chaîne de Markov $(X_i)$ à espace d'états continu que l'on suppose récurrente positive et stationnaire. L'objectif est d'estimer la densité de transition $\Pi$ définie par $\Pi(x,y)dy=P(X_{i+1}\in dy|X_i=x)$. On utilise la sélection de modèles pour construire des estimateurs adaptatifs. On se place dans le cadre minimax sur $L^2$ et l'on s'intéresse aux vitesses de convergence obtenues lorsque la densité de transition est supposée régulière. Le risque intégré de nos estimateurs est majoré grâce au contrôle de processus empiriques par une inégalité de concentration de Talagrand. Dans une première partie, on suppose que la chaîne est directement observée. Deux estimateurs différents sont présentés, l'un par quotient, l'autre minimisant un contraste moindres carrés et prenant également en compte l'anisotropie du problème. Dans une deuxième partie, on aborde le cas d'observations bruitées $Y_1,\dots, Y_{n+1}$ où $Y_i=X_i+\varepsilon_i$ avec $(\varepsilon_i)$ un bruit indépendant de la chaîne $(X_i)$. On généralise à ce cas les deux estimateurs précédents. Des simulations illustrent les performances des estimateurs.
7

Analyse probabiliste, étude combinatoire et estimation paramétrique pour une classe de modèles de croissance de plantes avec organogenèse stochastique.

Loi, Cédric 31 May 2011 (has links) (PDF)
Dans cette thèse, nous nous intéressons à une classe particulière de modèles stochastiques de croissance de plantes structure-fonction à laquelle appartient le modèle GreenLab. L'objectif est double. En premier lieu, il s'agit d'étudier les processus stochastiques sous-jacents à l'organogenèse. Un nouveau cadre de travail combinatoire reposant sur l'utilisation de grammaires formelles a été établi dans le but d'étudier la distribution des nombres d'organes ou plus généralement des motifs dans la structure des plantes. Ce travail a abouti 'a la mise en place d'une méthode symbolique permettant le calcul de distributions associées 'a l'occurrence de mots dans des textes générés aléatoirement par des L-systèmes stochastiques. La deuxième partie de la thèse se concentre sur l'estimation des paramètres liés au processus de création de biomasse par photosynthèse et de son allocation. Le modèle de plante est alors écrit sous la forme d'un modèle de Markov caché et des méthodes d'inférence bayésienne sont utilisées pour résoudre le problème.
8

Analyse probabiliste, étude combinatoire et estimation paramétrique pour une classe de modèles de croissance de plantes avec organogenèse stochastique / Probability analysis, combinatorial study and parametric estimation for a class of growth models of plants with stochastic development

Loi, Cédric 31 May 2011 (has links)
Dans cette thèse, nous nous intéressons à une classe particulière de modèles stochastiques de croissance de plantes structure-fonction à laquelle appartient le modèle GreenLab. L’objectif est double. En premier lieu, il s’agit d’étudier les processus stochastiques sous-jacents à l’organogenèse. Un nouveau cadre de travail combinatoire reposant sur l’utilisation de grammaires formelles a été établi dans le but d’étudier la distribution des nombres d’organes ou plus généralement des motifs dans la structure des plantes. Ce travail a abouti `a la mise en place d’une méthode symbolique permettant le calcul de distributions associées `a l’occurrence de mots dans des textes générés aléatoirement par des L-systèmes stochastiques. La deuxième partie de la thèse se concentre sur l’estimation des paramètres liés au processus de création de biomasse par photosynthèse et de son allocation. Le modèle de plante est alors écrit sous la forme d’un modèle de Markov caché et des méthodes d’inférence bayésienne sont utilisées pour résoudre le problème. / This PhD focuses on a particular class of stochastic models of functional-structural plant growth to which the GreenLab model belongs. First, the stochastic processes underlying the organogenesis phenomenon were studied. A new combinatorial framework based on formal grammars was built to study the distributions of the number of organs or more generally patterns in plant structures. This work led to the creation of a symbolic method which allows the computation of the distributions associated to word occurrences in random texts generated by stochastic L-systems. The second part of the PhD tackles the estimation of the parameters of the functional submodel (linked to the creation of biomass by photosynthesis and its allocation). For this purpose, the plant model was described by a hidden Markov model and Bayesian inference methods were used to solve the problem.
9

Coût-efficacité des stratégies vaccinales en France, exemple de trois pathologies infectieuses : le tétanos, la rage et les infections materno-fœtales à cytomégalovirus / Cost-effectiveness of immunization strategies against infectious diseases in France with three examples : tetanus, rabies, and cytomegalovirus maternal-fetal infections

N'Diaye, Dieynaba 19 November 2014 (has links)
Dans un contexte de ressources limitées, les analyses médico-économiques participent à la réflexion sur l'allocation optimale des budgets disponibles et contribuent à l'identification des priorités de santé publique. Parmi elles, les analyses coût-efficacité permettent de comparer l'efficience de différentes alternatives permettant d'aider à faire un choix. Lorsque ces analyses sont appliquées à la vaccination, elles présentent des particularités que nous avons explorées et illustrées à travers trois pathologies infectieuses prises en charge en France.Vaccination post-exposition conditionnelle au diagnostic de l'immunité avec l'exemple du tétanos, compte-tenu de la disponibilité de tests de diagnostic rapide de l'immunité antitétanique. Vaccination post-exposition conditionnelle à la nature de l'exposition avec l'exemple de la rage, compte-tenu d'un faible niveau de risque.accination préventive avant la période à risque de survenue de l'infection avec l'exemple des infections materno-f¿tales à cytomégalovirus (CMV), compte-tenu des résultats d'un nouveau candidat vaccin.Nos résultats montrent que l'efficience de stratégies vaccinales peut être optimisée si une attention particulière est portée à la mise en place d'un moyen de dépistage de l'immunité sensible et peu coûteux et si ces stratégies sont en adéquation avec le niveau du risque infectieux réel. Le coût-efficacité est également maximisé lorsque la stratégie vaccinale tient compte de l'hétérogénéité du risque infectieux au sein de la population cible. Ces résultats pourraient être utilisés par les autorités de santé pour l'évaluation d'interventions vaccinales futures ou actuellement implémentées en France. / In a context of limited resources, health economic analyses contribute to the optimal allocation of available budgets and public health priorities assessment. Among them, cost-effectiveness analyses allow to compare the efficiency of several alternatives in order to make an informed choice. When those analyses are applied to immunization interventions, they present specific characteristics that we explored and illustrated based on three infectious diseases in the French context.1) Post-exposure immunization conditional to immunity screening with the example of tetanus and the quick diagnostic tests available to screen tetanus immunity.2) Post-exposure immunization conditional to the type of exposure with the example of rabies in a low-risk context. 3) Preventive vaccination before the at-risk period of infection through the example cytomegalovirus (CMV) infections during pregnancy, with the available results of a new vaccine candidate.Our results showed that efficiency immunization strategies can be maximized if we emphasize on the implementation of screening methods that are sensitive and inexpensive, and if those strategies are in adequacy with the real risk of infection. Efficiency is also optimized when the immunization strategy takes into account the heterogeneity of the risk of infection in the target population. Those results could be used by health authorities in the evaluation of current or future immunization interventions implemented in France.
10

Approche générique appliquée à l'indexation audio par modélisation non supervisée / Unified data-driven approach for audio indexing, retrieval and recognition

Khemiri, Houssemeddine 27 September 2013 (has links)
La quantité de données audio disponibles, telles que les enregistrements radio, la musique, les podcasts et les publicités est en augmentation constance. Par contre, il n'y a pas beaucoup d'outils de classification et d'indexation, qui permettent aux utilisateurs de naviguer et retrouver des documents audio. Dans ces systèmes, les données audio sont traitées différemment en fonction des applications. La diversité de ces techniques d'indexation rend inadéquat le traitement simultané de flux audio où différents types de contenu audio coexistent. Dans cette thèse, nous présentons nos travaux sur l'extension de l'approche ALISP, développé initialement pour la parole, comme une méthode générique pour l'indexation et l'identification audio. La particularité des outils ALISP est qu'aucune transcription textuelle ou annotation manuelle est nécessaire lors de l'étape d'apprentissage. Le principe de cet outil est de transformer les données audio en une séquence de symboles. Ces symboles peuvent être utilisés à des fins d'indexation. La principale contribution de cette thèse est l'exploitation de l'approche ALISP comme une méthode générique pour l'indexation audio. Ce système est composé de trois modules: acquisition et modélisation des unités ALISP d'une manière non supervisée, transcription ALISP des données audio et comparaison des symboles ALISP avec la technique BLAST et la distance de Levenshtein. Les évaluations du système proposé pour les différentes applications sont effectuées avec la base de données YACAST et avec d'autres corpus disponibles publiquement pour différentes tâche de l'indexation audio. / The amount of available audio data, such as broadcast news archives, radio recordings, music and songs collections, podcasts or various internet media is constantly increasing. Therefore many audio indexing techniques are proposed in order to help users to browse audio documents. Nevertheless, these methods are developed for a specific audio content which makes them unsuitable to simultaneously treat audio streams where different types of audio document coexist. In this thesis we report our recent efforts in extending the ALISP approach developed for speech as a generic method for audio indexing, retrieval and recognition. The particularity of ALISP tools is that no textual transcriptions are needed during the learning step. Any input speech data is transformed into a sequence of arbitrary symbols. These symbols can be used for indexing purposes. The main contribution of this thesis is the exploitation of the ALISP approach as a generic method for audio indexing. The proposed system consists of three steps; an unsupervised training to model and acquire the ALISP HMM models, ALISP segmentation of audio data using the ALISP HMM models and a comparison of ALISP symbols using the BLAST algorithm and Levenshtein distance. The evaluations of the proposed systems are done on the YACAST and other publicly available corpora for several tasks of audio indexing.

Page generated in 0.0698 seconds