• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 876
  • 321
  • 321
  • 321
  • 321
  • 321
  • 320
  • 284
  • 32
  • 6
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1715
  • 1715
  • 1116
  • 1110
  • 664
  • 664
  • 664
  • 406
  • 398
  • 372
  • 253
  • 253
  • 214
  • 200
  • 196
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

CASTLE: a social framework for collaborative anti-phishing databases

Nourian, Arash January 2009 (has links)
A Phishing attack is a type of identity theft attempting to steal confidential and personal data like Credit Card or banking account information. Different approaches have been proposed to defeat phishing attacks. Most of the approaches rely on a database lookup approach. In this thesis, we present a framework called CASTLE that allows a collaborative approach to build and maintain the databases containing information needed for anti-phishing services. We provide the full design and discuss how phishing sites can be captured using CASTLE. A prototype of this social frame- work for collaborative anti-phishing databases is partially implemented to evaluate the performance and effectiveness of the framework against phishing attacks. / L'hame¸connage est un type de vol d'identité qui tente de voler des donnés confidentielleset personnelles comme l'information de cartes de crédit ou de comptes bancaires.Plusieurs stratégies ont été proposées pour vaincre l'hame¸connage ; la plupart d'entreelles dépendent d'une base de données. Dans cette th'ese, nous présentons le cadreCASTLE, qui incite la collaboration pour construire et entretenir des bases de donnescontenant l'information nécessaire pour contrer l'hame¸connage. Nous fournissons laconception et discutons la mani'ere avec laquelle les sites de hameonnage peuventêtre capturés a l'aide de CASTLE. Un prototype de ce cadre est partiellement misen oeuvre pour évaluer la performance et l'efficacit du cadre contre les attaques dehame¸connage.
202

Whole-body predictors of wrist shot accuracy in ice hockey: a kinematic analysis by way of motion capture

Magee, Patrick January 2009 (has links)
Abstract The purpose of this study was to identify joint angular kinematics that correspond to shooting accuracy in the stationary ice hockey wrist shot. Twenty-four subjects participated in this study, each performing 10 successful shots to four shooting targets. An eight-camera infra-red motion capture system (240 Hz), using passive reflective markers, was used to record motion of the joints, hockey stick, and puck throughout the performance of the wrist shot. A multiple regression analysis was carried out to examine whole-body kinematic variables with accuracy scores as the dependent variable. Results indicate that no one body region predominated as a predictor of accuracy across all four shooting targets since the wrist shot's general movement pattern required that one or more of the body's joints modulate its movement amplitude, rate and timing to achieve an accurate outcome. Significant accuracy predictors were identified in the lower limbs, torso and upper limbs. An accurate outcome was associated with the following characteristics: The lower body seemed to provide a stable base for support, but also contributed to initiation of movement in the form of weight transfer towards the intended target. We propose that the trail leg seemed to offset rotational motion that could potentially upset the stability of the system if not properly managed. Additionally, angular kinematics at the pelvis, spine and thorax appeared to orient the trunk such that the upper limbs can optimally function to achieve an accurate outcome, and also undoubtedly contributed to force production. And finally, accuracy was associated with more dynamic use of the lead arm specifically at the wrist and shoulder. / AbrégéL'objectif premier de cette étude était d'identifier les mouvements caractéristiques du corps des joueurs de hockey correspondant à la précision de tirs du poignet stationnaire à travers différents niveaux d'habiletés. Un total de vingt-quatre sujets ont fait partie de l'échantillon. Chacun d'eux ont dû réussir correctement dix lancers dans chacune des quatre différentes cibles. La performance des sujets a été évaluée en mesurant la cinématique du corps, du bâton et de la rondelle à l'aide de marqueur réfléchissants qui ont été filmé à l'aide d'un système d'analyse du mouvement composé de huit caméra infrarouge (Vicon®), le tout étant enregistré à 240 Hz. Avec le niveau de précision comme variable dépendante, une analyse de régression multiple a été effectuée avec les variables cinématiques de toutes les articulations. Les résultats ont démontrés qu'il n'y a pas de prédicteurs universels à travers les différentes cibles considérant qu'une ou plusieurs articulations peuvent ajuster leurs vitesses, amplitudes et séquences pour effectuer un lancer précis. Des prédicteurs important ont été identifiés dans les membres inférieurs, le tronc ainsi que dans les membres supérieur. Les membres inférieurs semblent permettent une base de support stable ainsi qu'un transfert de poids efficace en direction de la cible visée. De plus, la jambe arrière permettrait de contrer le momentum angulaire qui pourrait débalancé le système en équilibre. Le déplacement angulaire du tronc (pelvis, thorax et colonne lombaire) permet d'orienter de façon à ce que les membres supérieurs puissent bouger de façon optimale en plus de contribuer à la production de force transmisse à la rondelle. Pour terminer, la précision semble être associée à un contrôle plus dynamique du poignet et de l'épaule du membre supérieur contrôlant le haut du bâton.
203

Robust decision making and its applications in machine learning

Xu, Huan January 2009 (has links)
Decision making formulated as finding a strategy that maximizes a utility function depends critically on knowing the problem parameters precisely. The obtained strategy can be highly sub-optimal and/or infeasible when parameters are subject to uncertainty, a typical situation in practice. Robust optimization, and more generally robust decision making, addresses this issue by treating uncertain parameters as an arbitrary element of a pre-defined set and solving solutions based on a worst-case analysis. In this thesis we contribute to two closely related fields of robust decision making. First, we address two limitations of robust decision making. Namely, a lack of theoretical justification and conservatism in sequential decision making. Specifically, we provide an axiomatic justification of robust optimization based on the MaxMin Expected Utility framework from decision theory. Furthermore, we propose three less conservative decision criteria for sequential decision making tasks, which include: (1) In uncertain Markov decision processes we propose an alternative formulation of the parameter uncertainty -- the nested-set structured parameter uncertainty -- and find the strategy that achieves maxmin expected utility to mitigate the conservatism of the standard robust Markov decision processes. (2) We investigate uncertain Markov decision processes where each strategy is evaluated comparatively by its gap to the optimum value. Two formulations, namely minimax regret and mean-variance tradeoff of the regret, were proposed and their computational cost studied. (3) We propose a novel Kalman filter design based on trading-off the likely performance and the robustness under parameter uncertainty. Second, we apply robust decision making into machine learning both theoretically and algorithmically. Specifically, on the theoretical front, we show that the concept of robustness is essential to ''successful'' learning / La prise de décision, formulée comme trouver une stratégie qui maximise une fonction de l'utilité, dépend de manière critique sur la connaissance précise des paramètres du problem. La stratégie obtenue peut être très sous-optimale et/ou infeasible quand les paramètres sont subjets à l'incertitude – une situation typique en pratique. L'optimisation robuste, et plus genéralement, la prise de décision robuste, vise cette question en traitant le paramètre incertain comme un élement arbitraire d'un ensemble prédéfini et en trouvant une solution en suivant l'analyse du pire scénario. Dans cette thèse, nous contribuons envers deux champs intimement reliés et appartenant à la prise de décision robuste. En premier lieu, nous considérons deux limites de la prise de décision robuste: le manque de justification théorique et le conservatism dans la prise de décision séquentielle. Pour être plus spécifique, nous donnons une justifiquation axiomatique de l'optimisation robuste basée sur le cadre de l'utilité espérée MaxMin de la théorie de la prise de décision. De plus, nous proposons trois critères moins conservateurs pour la prise de décision séquentielle, incluant: (1) dans les processus incertains de décisionde Markov, nous proposons un modèle alternative de l'incertitude de paramètres –l'incertitude structurée comme des ensembles emboîtées – et trouvons une stratégie qui obtient une utilité espérée maxmin pour mitiguer le conservatisme des processus incertains de décision de Markov qui sont de norme. (2) Nous considérons les processus incertains de décision de Markov où chaque stratégie est évaluée par comparaison de l'écart avec l'optimum. Deux modèles – le regret minimax et le compromis entre l'espérance et la variance du regret – sont présentés et leurs complexités étudiées. (3)Nous proposons une nouvelle conception de filtre de Kalman b
204

The development of an artificially intuitive reasoner

Sun, Yung Chien January 2010 (has links)
This research is an exploration of the phenomenon of "intuition" in the context of artificial intelligence (AI). In this work, intuition was considered as the human capacity to make decisions under situations in which the available knowledge was usually low in quality: inconsistent and of varying levels of certainty. The objectives of this study were to characterize some of the aspects of human intuitive thought and to model these aspects in a computational approach. / This project entailed the development of a conceptual framework and a conceptual model, and, based on these, a computer system with three general parts: (1) a rule induction module for establishing the knowledge base for the reasoner; (2) the intuitive reasoner that was essentially a rule-based inference engine; (3) two learning approaches that could update the knowledge base over time for the reasoner to make better predictions. A reference reasoner based on established data analysis methods was also constructed, as a bench-mark for evaluating the intuitive reasoner. / The input and the rules drawn by the reasoner were allowed to be fuzzy, multi-valued, and of varying levels of certainty. A measure of the certainty level, Strength of Belief, was attached to each input as well as each rule. Rules for the intuitive reasoner were induced from only about 10% of the data available for the reference reasoner. Solutions were formulated through iterations of consolidating intermediate reasoning results, during which the Strength of Belief of corroborating intermediate results was combined. / The intuitive and the reference reasoners were tested to predict the value (class) of 12 target variables chosen by the author, of which six were continuous variables and the other six were discrete variables. The intuitive reasoner developed in this study matched the performance of the reference reasoner for three of six continuous target variables and achieved at least 70% of the accuracy of the reference reasoner for all six discrete target variables. / The results showed that the intuitive reasoner was able to induce rules from a sparse database and use those rules to make accurate predictions. This suggested that by consolidating numerous outputs from low-certainty rules, an "intuitive" reasoner can effectively perform prediction, or other computational tasks, on the basis of incomplete information of varying quality. / Cette étude se penche sur le phénomène de "l'intuition" dans le contexte de l'intelligence artificielle (IA). Dans cette étude, l'intuition fut considérée comme la capacité de l'être humain à en venir à une décision lorsqu'une situation se présente où les informations disponibles sont majoritairement de pauvre qualité: irrégulières et d'un niveau de certitude variable. Cette étude visa la caractérisation de certains aspects de la pensée intuitive de l'être humain et la modélisation de ces aspects par une démarche computationnelle. / Cette étude nécessita le développement d'un cadre conceptuel, et, basé sur celui-ci un système informatisé à trois volets: (1) un module fonctionnant par induction de règles servant à établir le base de connaissances du raisonneur; (2) le raisonneur intuitif, moteur essentiel d'un système d'inférences basé sur des règles; (3) deux démarches d'apprentissage permettant une mise à jour continuelle de la base de connaissances, permettant au raisonneur d'en venir à de meilleures prédictions. Afin de servir comme point de référence dans l'évaluation du raisonneur intuitif, un raisonneur de référence employant des méthodes d'analyse de données conventionnelles fut bâti. / Nous permîmes aux données d'entrée et aux règles formulées par le raisonneur d'être floues, multivaluées et de différents niveaux de certitude. Un barème du niveau de certitude, le Niveau de Confiance, fut attribué à chaque donnée d'entrée, ainsi qu'à chaque règle. Les règles induites par le raisonneur intuitif ne furent basées que sur le dixième des données disponibles au raisonneur de référence. Les solutions furent formulées à travers plusieurs itérations de consolidation des résultats de raisonnements intermédiaires, durant lesquels le Niveau de Confiance de résultats intermédiaires corroborants furent combinés. / Le raisonneur intuitif et le raisonneur de référence furent éprouvés en leur demandant de prédire la valeur (classe) de 12 variables-cibles choisies par l'auteur, dont six continues et six discrètes. Le raisonneur intuitif développé dans cette étude égala la performance du raisonneur de référence pour deux des six variables-cibles continues, et atteigna au moins 70% de la précision du raisonneur de référence pour les six variables-cibles discrètes. / Ces résultats indiquent que le raisonneur intuitif fut capable d'induire des règles à partir d'une base de données plutôt limitée, et de fournir des prédictions raisonnablement précises grâce à ces règles. Cela indique qu'en consolidant plusieurs résultats de règles de basse certitude, un raisonneur "intuitif" peut devenir un outil de prédiction efficace ou servir adéquatement à compléter d'autres tâches computationnelles, à partir de données incomplètes de qualité variable.
205

A practical face recognition system using a game with a purpose

Travassos, Willer January 2010 (has links)
A facial recognition system is a computer application built to automatically identify or verify the identity of a person from a digital source. The quality of the source and environment from which digital information is retrieved pose problems to a face recognition system (FRS) that lead to erroneous results. Even though there is a necessity for systems that are capable of performing facial recognition on the fly, current systems, in order to be accurate, try to completely or partially control the environment of its digital sources. In this thesis, we approach the problems that afflict these systems by using a "game with a purpose" (GWAP). In our GWAP-based approach, we create an online game that uses human vision to perform facial recognition. We use the aid of humans because we still hold the edge over FRSs at recognizing faces and their features. It is through a GWAP that we channel our superior visual skills to deal with problems that affect current FRSs. / Un système de reconnaissance faciale est une application informatique créée pour identifier ou vérifier automatiquement l'identité d'une personne provenant d'une source numérique. La qualité de la source et l'environnement duquel l'information numérique est extrait posent des problèmes à un système de reconnaissance faciale (FRS) et peuvent causer la production de résultats erronés. Même s'il y a une nécessité pour les systèmes qui sont capables d'effectuer la reconnaissance des visages à la volée, les systèmes actuels, pour être précis, essayent de contrôler complètement ou partiellement l'environnement de ses sources numériques. Dans cette thèse, nous abordons les problèmes qui affligent ces systèmes en utilisant un "game with a purpose" (GWAP). Dans notre GWAP, nous créons un jeu en ligne qui utilise la vision humaine, pour effectuer la reconnaissance du visage. Nous utilisons l'aide des êtres humains, car nous tenons toujours l'avantage sur les systèmes de reconnaissance faciale à la reconnaissance des visages et ses caractéristiques. C'est par une GWAP que nous canalisons nos compétences visuelles supérieures pour faire face aux problèmes qui affectent actuellement les FRSs.
206

The design and implementation of a social accountability framework

Wang, Kang January 2010 (has links)
We present an accountability framework for the Internet which ties a user's action to her identity on an online social network. The framework is optional in that users do not need to be accountable at all times, but various web services can force accountability on the part of their users by only allowing accountable users access. Our design is general enough that higher level applications can place additional policies/restrictions on the basic accountability provided. In this thesis, we introduce the design, discuss how various applications can be mapped onto our framework, and provide performance numbers from an experimental prototype. / Nous présentons un cadre de responsabilisation pour l'Internet, qui lie l'action d'un utilisateur à son identité sur un réseau social en ligne. Le cadre est facultatif en ce que les utilisateurs n'ont pas besoin d'être responsables en tout temps, mais les services web différents peuvent envigueur responsabilité de la part de leurs utilisateurs en ne permettant l'accès que pour des utilisateurs responsables. Notre conception est suffisamment général pour que les applications de niveau supérieur peut placer d'autres politiques et les restrictions sur la responsabilité de base prévue. Dans cette thèse, nous présentons la conception, discutons comment les différentes applications peuvent être placés sur notre cadre, et fournissons des données de performance à partir d'un prototype expérimental.
207

Multiparty quantum protocols for assisted entanglement distillation

Dutil, Nicolas January 2011 (has links)
Quantum information theory is a multidisciplinary field whose objective is to understand what happens when information is stored in the state of a quantum system. Quantum mechanics provides us with a new resource, called quantum entanglement, which can be exploited to achieve novel tasks such as teleportation and superdense coding. Current technologies allow the transmission of entangled photon pairs across distances up to roughly 100 kilometers. For longer distances, noise arising from various sources degrade the transmission of entanglement to the point that it becomes impossible to use the entanglement as a resource for future tasks. One strategy for dealing with this difficulty is to employ quantum repeaters, stations intermediate between the sender and receiver that can participate in the process of entanglement distillation, thereby improving on what the sender and receiver could do on their own. Motivated by the problem of designing quantum repeaters, we study entanglement distillation between two parties, Alice and Bob, starting from a mixed state and with the help of repeater stations. We extend the notion of entanglement of assistance to arbitrary tripartite states and exhibit a protocol, based on a random coding strategy, for extracting pure entanglement. We use these results to find achievable rates for the more general scenario, where many spatially separated repeaters help two recipients distill entanglement. We also study multiparty quantum communication protocols in a more general context. We give a new protocol for the task of multiparty state merging. The previous multiparty state merging protocol required the use of time-sharing, an impossible strategy when a single copy of the input state is available to the parties. Our protocol does not require time-sharing for distributed compression of two senders. In the one-shot regime, we can achieve multiparty state merging with entanglement costs not restricted to corner points of the entanglement cost region. Our analysis of the entanglement cost is performed using (smooth) min- and max-entropies. We illustrate the benefits of our approach by looking at different examples. / L'informatique quantique a pour objectif de comprendre les propriétés de l'information lorsque celle-ci est représentée par l'état d'un système quantique. La mécanique quantique nous fournit une nouvelle ressource, l'intrication quantique, qui peut être exploitée pour effectuer une téléportation quantique ou un codage superdense. Les technologies actuelles permettent la transmission de paires de photons intriqués au moyen d'une fibre optique sur des distances maximales d'environ 100 kilomètres. Au-delà de cette distance, les effets d'absorption et de dispersion dégradent la qualité de l'intrication. Une stratégie pour contrer ces difficultés consiste en l'utilisation de répéteurs quantiques: des stations intermédiaires entre l'émetteur et le récepteur, qui peuvent être utilisées durant le processus de distillation d'intrication, dépassant ainsi ce que l'émetteur et le récepteur peuvent accomplir par eux-mêmes. Motivés par le problème précédent, nous étudions la distillation d'intrication entre deux parties à partir d'un état mixte à l'aide de répéteurs quantiques. Nous étendons la notion d'intrication assistée aux états tripartites arbitraireset présentons un protocole fondé sur une stratégie de codage aléatoire. Nous utilisons ces résultats pour trouver des taux de distillation réalisable dans le scénario le plus général, où les deux parties ont recours à de nombreux répéteurs durant la distillation d'intrication. En étroite liaison avec la distillation d'intrication, nous étudions également les protocoles de communication quantique multipartite. Nous établissons un nouveau protocole pour effectuer un transfert d'état multipartite. Une caractéristique de notre protocole est sa capacité d'atteindre des taux qui ne correspondent pas à des points extrêmes de la région réalisable sans l'utilisation d'une stratégie de temps-partagé. Nous effectuons une analyse du coût d'intrication en utilisant les mesures d'entropie minimale et maximale et illustrons les avantages de notre approche à l'aide de différents exemples. Finalement, nous proposons une variante de notre protocole, où deux récepteurs et plusieurs émetteurs partagent un état mixte. Notre protocole, qui effectue un transfert partagé, est appliqué au problème de distillation assistée.
208

Nebula-CDN: An Unstructured P2P Content Distribution Network

Soyen, Arin January 2011 (has links)
Current load-balancing and content distribution systems can efficiently handle high amounts of traffic a website encounters. However, when websites do not have the financial means of deploying multiple web-servers or acquiring services of proprietary content distribution networks such as Akamai, service interruptions are unavoidable. Recently, P2P-based approaches to content distribution have been proposed to support websites facing sporadic load. Inherent characteristics of content dissemination and scalability together with adaptation of locality-awareness allow these systems to perform on par with costly content distribution networks. Thus, implicit dissemination of key parts of a website becomes vital for load-balancing at the web-server, avoiding bottlenecks for visitors. Prevailing P2P-based caching systems, however, are either unavailable to leverage locality-awareness of participating peers or enforce structural topologies to do so. Enforcing a structural topology with such systems leads to scalability issues when participating peers exhibit dynamic behaviour, which is common with P2P systems. Hence, the system undergoes constant maintenance to achieve stability, which might not even be possible. In this thesis we outline two contributions. First, we modify Flower-CDN, a P2P content distribution network that exploits both structured and unstructured P2P features, to evaluate it with real rather than synthetic data. Second, we introduce Nebula-CDN, a locality-aware, P2P content distribution network which is completely unstructured. With Nebula-CDN, we leverage locality-awareness and efficient information dissemination by clustering geographically close peers that communicate with purely epidemic algorithms. In this thesis, the design and implementation of Nebula-CDN is assessed. Due to its design and the implemented algorithms, Nebula-CDN is better suited to handle churn without support of any underlying mechanism. Moreover, we conclude that it is able to match other content distribution networks in terms of hit-ratio and accesslatency, while keeping background bandwidth usage to a minimum. / Les systèmes actuels de balancement de la charge et de distribution de contenu peuvent gérer eficacement le haut volume de requêtes reçues par les sites web. Cependant, lorsque les sites web qui n'ont pas assez de ressources financières pour déployer plusieurs serveurs ou bien acquérir des services de réseaux propriétaires de distribution de contenu tel que Akamai, les services d'interruptions sont inévitables. Récemment des approches basées sur P2P pour la distribution de contenu ont été proposées pour supporter les sites web qui reçoivent des charges sporadiques. Les caractéristiques inhérentes de la diffusion de contenu et d'extensibilité ainsi que l'adaptation de la conscience de localité permettent à ces systèmes de fonctionner d'une façon rentable avec des réseaux de distribution de contenu. Ainsi, la diffusion implicite des éléments clés d'un site web est devenu essentielle pour le balancement de la charge d'un serveur web, évitant la congestion de visiteurs. En effet, les systèmes de cache basés sur P2P, sont soit non-disponible pour as-surer une conscience de localité des noeuds participants ou pour enforcer des topologies structurelles. Enforcer une topologie strcturelle avec ces systèmes mène à des problèmes d'extension lorsque les noeuds existants manifestent un comportement dynamique, ce qui est commun pour les systèmes P2P. D'où, le système subit une maintenance constante afin d'atteindre la stabilité, ce qui ne peut même pas être possible. Dans cette thèse, nous décrivons deux contributions. Premièrement, nous modifions Flower-CDN, un réseau de distribution de contenu P2P qui exploite à la fois les caractéristiques P2P structurées et non structurées, afin de l'évaluer avec des données réelles et non-synthétiques. Deuxièmement, nous introduisons Nebula-CDN, un système conscient de la localité et un réseau de distribution de contenu P2P qui est complètement non structuré. Avec Nebula-CDN, nous exploitons la conscience de localité et la diffusion eficace d'information en distribuant géographiquement les noeuds adjacents qui communiquent avec des algorithmes purement épidémiques. Dans cette thèse, la conception et l'implémentation de Nebula-CDN est évaluée. Grâce à sa conception et ses algorithmes implémentés, Nebula-CDN est mieux adapté pour gérer la baratte sans support d'aucun sous mécanisme. De plus, nous concluons que c'est possible de correspondre autres réseaux de distribution de contenu en termes de taux et de latence d'accès, tout en maintenant l'usage de la bande passante à son minimum.
209

A computational framework to create an ensemble of stable amyloid fibrils

Smaoui, Mohamed January 2011 (has links)
Amyloid proteins are known to have their implications on many neurodegenerative diseases such as Alzheimer's, Parkinson's, Huntington, and Type II Diabetes diseases. They come together and aggregate into very stable structures that the cell cannot easily eliminate. We developed a computational framework called CreateFibril to model the aggregation phenomena of amyloids, predict novel aggregation possibilities, and study the structural stability of amyloid aggregates under variable environment conditions. / Les protéines amyloïdes sont connues pour leurs implications sur de nombreuses maladies neurodégénératives comme l'Alzheimer, le Parkinson, Huntington, et le diabète de type 2. Elles se réunissent et forment un agrégat extrêmement stable, difficile a s'en débarrasser par la cellule. On a dévelopé un outil de calcul appelé CreateFibril permettant de modéliser les phénomènes d'agrégation d'amyloïdes, de prévoir les nouvelles possibilités d'agrégation, et d'étudier la stabilité structurale des agrégats amyloïdes dans des conditions environnementales variables.
210

Bayesian reinforcement learning for POMDP-based dialogue systems

Png, ShaoWei January 2011 (has links)
Spoken dialogue systems are gaining popularity with improvements in speech recognition technologies. Dialogue systems have been modeled effectively using Partially observable Markov decision processes (POMDPs), achieving improvements in robustness. However, past research on POMDP-based dialogue systems usually assumes that the model parameters are known. This limitation can be addressed through model-based Bayesian reinforcement learning, which offers a rich framework for simultaneous learning and planning. However, due to the high complexity of the framework, a major challenge is to scale up these algorithms for complex dialogue systems. In this work, we show that by exploiting certain known components of the system, such as knowledge of symmetrical properties, and using an approximate on-line planning algorithm, we are able to apply Bayesian RL on several realistic spoken dialogue system domains. We consider several experimental domains. First, a small synthetic data case, where we illustrate several properties of the approach. Second, a small dialogue manager based on the SACTI1 corpus which contains 144 dialogues between 36 users and 12 experts. Third, a dialogue manager aimed at patients with dementia, to assist them with activities of daily living. Finally, we consider a large dialogue manager designed to help patients to operate a wheelchair. / Les systèmes de dialogues sont de plus en plus populaires depuis l'amélioration des technologies de reconnaissance vocale. Ces systèmes de dialogues peuvent être modélisés efficacement à l'aide des processus de décision markoviens partiellement observables (POMDP). Toutefois, les recherches antérieures supposent généralement une connaissance des paramètres du modèle. L'apprentissage par renforcement basée sur un modèle bayéesien, qui offre un cadre riche pour l'apprentissage et la planification simultanéee, peut éeliminer la néecessitée de cette supposition à cause de la grande complexitée du cadre, le déeveloppement de ces algorithmes pour les systèmes de dialogues complexes repréesente un déefi majeur. Dans ce document, nous déemontrons qu'en exploitant certaines propriéetées connues du système, comme les syméetries, et en utilisant un algorithme de planification approximatif en ligne, nous sommes capables d'appliquer les techniques d'apprentissage par renforcement bayéesien dans le cadre de sur plusieurs domaines de dialogues réealistes. Nous considéerons quelques domaines expéerimentaux. Le premier comprend des donnéees synthéetiques qui servent à illustrer plusieurs propriéetées de notre approche. Le deuxième est un gestionnaire de dialogues basée sur le corpus SACTI1 qui contient 144 dialogues entre 36 utilisateurs et 12 experts. Le troisième gestionnaire aide les patients atteints de déemence à vivre au quotidien. Finalement, nous considéerons un grand gestionnaire de dialogue qui assise des patients à manoeuvrer une chaise roulante automatiséee.

Page generated in 0.0602 seconds