• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 876
  • 321
  • 321
  • 321
  • 321
  • 321
  • 320
  • 284
  • 32
  • 6
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1715
  • 1715
  • 1116
  • 1110
  • 664
  • 664
  • 664
  • 406
  • 398
  • 372
  • 253
  • 253
  • 214
  • 200
  • 196
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Learning influence probabilities in social networks

Bordianu, Gheorghita January 2013 (has links)
Social network analysis is an important cross-disciplinary area of research, with applications in fields such as biology, epidemiology, marketing and even politics. Influence maximization is the problem of finding the set of seed nodes in an information diffusion process that guarantees maximum spread of influence in a social network, given its structure. Most approaches to this problem make two assumptions. First, the global structure of the network is known. Second, influence probabilities between any two nodes are known beforehand, which is rarely the case in practical settings. In this thesis we propose a different approach to the problem of learning those influence probabilities from past data, using only the local structure of the social network. The method is grounded in unsupervised machine learning techniques and is based on a form of hierarchical clustering, allowing us to distinguish between influential and the influenceable nodes. Finally, we provide empirical results using real data extracted from Facebook. / L'analyse des réseaux sociaux est un domaine d'études interdisciplinaires qui comprend des applications en biologie, épidémiologie, marketing et même politique. La maximisation de l'influence représente un problème où l'on doit trouver l'ensemble des noeuds de semence dans un processus de diffusion de l'information qui en même temps garantit le maximum de propagation de son influence dans un réseau social avec une structure connue. La plupart des approches à ce genre de problème font appel à deux hypothèses. Premièrement, la structure générale du réseau social est connue. Deuxièmement, les probabilités des influences entre deux noeuds sont connues à l'avance, fait qui n'est d'ailleurs pas valide dans des circonstances pratiques. Dans cette thèse, on propose un procédé différent visant la problème de l'apprentissage de ces probabilités d'influence à partir des données passées, en utilisant seulement la structure locale du réseau social. Le procédé se base sur l'apprentissage automatique sans surveillance et il est relié à une forme de regroupement hiérarchique, ce qui nous permet de faire la distinction entre les noeuds influenceurs et les noeuds influencés. Finalement, on fournit des résultats empiriques en utilisant des données réelles extraites du réseau social Facebook.
92

Dynamic resource allocation scheme design for quality of service control in networked real-time systems

Chen, Xi January 2013 (has links)
Networked real-time systems (NRSs) are pervasive in the real world, and many of them work in an open environment with varying workload. Quality of service (QoS) of NRSs is closely related to the provision of the system resources for servingthe real-time tasks. To provide guarantees of QoS in NRSs, the system resources should be allocated to the real-time tasks in adaptation to the workload variations so that the desired system performance is obtained, referred to as QoS control.This thesis is concerned with the design of dynamic resource allocation schemes for QoS control in three typical NRSs. In the first part, we propose dynamic computing capacity planning schemes for processor utilization control in the distributed real-time systems, and for energy minimization with request response time guarantees in the server clusters. To handle the workload variations, we model the workload uncertainties as the parameters in the system models and use the system performance as online feedback to predict these parameters as precise as possible. Then the optimal computing capacities are provided to serve the real-time tasks in these systems online. Experimental/simulation results demonstrate effectiveness of the proposed schemes for QoS control in comparisons with the existing approaches. In the second part, we propose a dynamic network scheduling scheme for networked control systems (NCSs), typical NRSs with network bandwidth as a critical system resource. The proposed scheduling scheme can properly allocate the network bandwidth to the applications in NCSs so that the good real-time performance can be achieved. / Les systèmes temps-réel en réseau (NRSs) sont de plus en plus utilisés, et beaucoup d'entre eux fonctionnent dans un environnement ouvert aux charges variables. La Qualité de Service (QoS) des NRSs dépend des ressources systèmes pour répondre aux taches en temps-réel. Pour garantir la QoS, les ressources système doivent être allouées dynamiquement, en s'adaptant aux variations de charge, ceci dans le but d'atteindre les performances désirées.Cette thèse traite de la conceptions de méthodes d'allocation dynamique des ressources dans le but d'assurer la QoS dans le cas de 3 NRSs représentatifs. Nous commencerons pas proposer des méthodes de plannification de capacités pour le contrôle de l'utilisation du processeur dans les systèmes distribués, à coup énergétique minimal, avec temps de réponse garanti. Pour supporter les variations de charge, nous utilisons les performances du système pour prédire l'évolution de la charge à venir aussi précisement que possible. Ensuite, les ressources optimales sont libéréespour répondre aux besoins en temp-réel. Les resultats des expérimentations / simulations démontrent l'efficacité de ces méthodes sur le contrôle de la QoS, en comparaison à d'autres approches existantes. Dans un second temps, nous proposerons une méthodologie de séquençage réseau dynamique pour les systèmes controlés en réseau (NCSs), un NRS commun dépendant fortement de la bande passante du réseau. La méthodologie proposée peut correctement allouer la bande passante aux applications du NCS de sorte que de bonnesperformances soient atteintes.
93

Active vibration and buckling control of piezoelectric smart structures

Wang, Qishan January 2013 (has links)
The objective of this dissertation is the vibration and buckling control of piezo-laminated composite structures with surface bonded or embedded piezoelectric sensors and actuators by using the finite element analysis and LQR/LQG feedback control techniques. The focus is mainly on two aspects: the finite element part and the active control part. (1) The finite element part:Two finite element formulations for the piezo-laminated beams based on the classical Bernoulli-Euler and the Timoshenko beam theories are developed using the coupled linear piezoelectric constitutive equations, and the Hamilton variation principle. A C0 continuous, shear flexible, eight-node serendipity doubly curved shell element for the piezo-laminated composite plates and shells is also developed based on the layer-wise shear deformation theory, linear piezoelectric coupled constitutive relations, and Hamilton variation principle. The developed elements can handle the transverse shear strains, composite materials, and piezoelectric-mechanical coupling. Higher modes of vibration can then be predicted more precisely for thin to medium-thick multi-layered composite structures. They are evaluated both for the vibration and buckling of beam, plate, and shell structures. (2) The active control part: The suppression of vibration of a cantilever piezo-laminated beam and the control of the first two buckling modes of a simply supported piezo-laminated beam are studied first. Then, the vibration and buckling control of a cantileverpiezo-laminated composite plate are studied. Furthermore, the vibration control of a piezolaminated semicircular cylindrical shell is also studied. The results of the finite element analysis are used to design a linear quadratic regulator (LQR) controller and a linear quadratic Gaussian (LQG) compensator with a dynamic state observer to achieve all the controls. The control design begins with an approximate reduced modal model which can represent the system dynamics with the least system modes. A state space modal model of the smart structure which integrates the host structure with bonded piezoelectric sensors and actuators, is then used to design the control system. The designed LQR/LQG feedback controls are shown to be successful in suppressing the vibration and stabilizing the buckling modes of structures. Both the finite element analysis and the active control simulation results are consistent with the existing theoretical analysis results and the experimental data in the literature. Some important conclusions and interesting observations are obtained. / L'objectif de cette thése est le contrôle de la vibration et de flambage à l'aide de l'analyse par éléments finis et LQR/LQG technologies de contrôle de rétroaction pour les structures composites stratifiées piézo-électriques qui sont liés ou incorporés de surface de capteurs et d'actionneurs piézoélectriques. Il ya principalement deux parties ciblées. La partie des éléments finis : Deux formulations éléments finis pour les poutres laminées piézo-basé sur le classique d'Euler-Bernoulli et la théorie des poutres de Timoshenko, respectivement, linéaires couplées piézoélectriques équations constitutives, et le principe de variation de Hamilton sont développés. Un C0 continue, cisaillement flexible, à huit nuds élément de coque à double courbure sérendipité pour les plaques piézocomposites stratifiés et de coquillages est également dérivée basée sur la théorie de la couche-sage déformation de cisaillement, linéaires piézo-électriques couplés relations constitutives mécaniques, et le principe de variation de Hamilton. Toute la poutre, plaque, et des éléments de coque développés ont considéré la rigidité, de masse et les effets de couplage électromécanique du capteur piézo-électrique et les couches de l'actionneur. Les éléments de structure développéssont capables de traiter les effets non linéaires de déformation en cisaillementtransversal et la non-linéarité des matériaux composites, piézoélectrique-mécanique d'accouplement, et peut prévoir plus précisément les modes supérieurs de vibration, et peut être appliquée à partir de minces d'épaisseur moyenne structures composites multicouches. Ils sont évalués à la fois les vibrations et analyse de flambage de la poutre, plaque, et structures en coque. La partie de commande actif : La vibration de supprimer d'un porte à faux piézo-collé poutre, les deux premiers modes de flambement contrôle d'un appui simple piézo-collé poutre, et la vibration et le flambage contrôle de la charge d'un cantilever piézoélectrique stratifié plaque composite sont étudiés. Les résultats de l'analyse par éléments finis sont utilisés pour concevoir un régulateur linéaire quadratique (LQR) contrôleur et un linéaire quadratique gaussienne (LQG) compensateur avec un observateur d'état dynamique pour atteindre toutes les commandes. Les conceptions de commandes commencent par une méthode modale modle pour déterminer un modle modal réduit approximative qui peut représenter la dynamique du systme avec les modes les moins systme inclus. Un modle modal espace d'état de la structure intelligente qui a intégré la structure d'accueil d'colléscapteurs et d'actionneurs piézoélectriques, est ensuite utilisé pour concevoir le systme de contrôle. Les contrôles visant commentaires LQR/LQG sont avérés succs dans la suppression de la vibration et de stabiliser les modes de flambement des structures. Tant l'analyse par éléments finis et les résultats de simulation de contrôle actives sont compatibles avec les résultats existants d'analyse théoriques et les données expérimentales de la littérature. Quelques conclusions importantes et des observations intéressantes sont obtenues.
94

Computational modeling and analysis of chromatin structure

Rousseau, Mathieu January 2013 (has links)
The organization of DNA in the nucleus of a cell has long been known to play an important role in processes such as DNA replication and repair, and the regulation of gene expression. Recent advances in microarray and high-throughput sequencing technologies have enabled the creation of novel techniques for measuring certain aspects of the three-dimensional conformation of chromatin in vivo. The data generated by these methods contain both structural information and noise from the experimental procedures. Methods for modeling and analyzing these data to infer three-dimensional chromatin structure will constitute invaluable tools in the discovery of the mechanism by which chromatin structure is mediated. The overall objective of my thesis is to develop robust three-dimensional computational models of DNA and to analyze these data to gain biological insight into the role of chromatin structure on cellular processes. This thesis presents three main results, firstly, a novel computational modeling and analysis approach for the inference of three-dimensional structure from chromatin conformation capture carbon copy (5C) and Hi-C data. Our method named MCMC5C is based on Markov chain Monte Carlo sampling and can generate representative ensembles of three-dimensional models from noisy experimental data. Secondly, our investigation of the relationship between chromatin structure and gene expression during cellular differentiation shows that chromatin architecture is a dynamic structure which adopts an open conformation for actively transcribed genes and a condensed conformation for repressed genes. And thirdly, we developed a support vector machine classifier from 5C data and demonstrate a proof-of-concept that chromatin conformation signatures could be used to discriminate between human acute lymphoid and myeloid leukemias. / L'organisation de l'ADN à l'intérieur du noyau d'une cellule est connue pour jouer un rôle important pour des processus tels que la réplication et la réparation de l'ADN et la régulation de l'expression de gènes. Des avancées technologiques récentes concernant les puces à ADN et le séquençage à haut débit ont permis la création de nouvelles techniques mesurant la conformation de la chromatine in vivo. Les données générées par ces méthodes constituent une mesure approximative de la structure de la chromatine. Des méthodes modélisant et analysant ces données afin de déduire la structure tridimensionnelle de la chromatine constitueront des outils précieux pour la découverte du mécanisme gouvernant la structure de la chromatine. L'objectif global de ma thèse est de développer des modèles computationnels analysant la structure tridimensionnelle de l'ADN et d'effectuer l'analyse de données afin de mieux comprendre le rôle de la structure de la chromatine dans divers processus cellulaires. Cette thèse présente trois résultats principaux. Premièrement, un nouvel ensemble d'outils pour la modélisation computationnelle et l'analyse des données provenant de la capture copie conforme de la conformation de la chromatine (5C) et Hi-C. Notre méthode nommée MCMC5C se base sur une méthode de Monte Carlo par chaînes de Markov et peut générer des ensembles de modèles tridimensionnels représentatifs à partir de données expérimentales contenant du bruit. Deuxièmement, notre enquête sur la relation entre la structure de la chromatine et l'expression de gènes durant la différenciation cellulaire démontre que l'architecture de la chromatine est une structure dynamique qui adopte une conformation ouverte pour les gènes activement transcrits et une conformation condensée pour les gènes non-transcrits. Troisièmement, nous avons développé un classifieur basé sur une machine à vecteur de support à partir de nos données 5C et nous avons montré que les signatures de la conformation de la chromatine pourraient être utilisées pour différencier entre la leucémie lymphoïde et myéloïde.
95

Off-policy evaluation in Markov decision processes

Paduraru, Cosmin January 2013 (has links)
This dissertation is set in the context of a widely used framework for formalizing autonomous decision-making, namely Markov decision processes (MDPs). One of the key problems that arise in MDPs is that of evaluating a decision-making strategy, typically called a policy. It is often the case that data collected under the policy one wishes to evaluate is difficult or even impossible to obtain. In this case, data collected under some other policy needs to be used, a setting known as off-policy evaluation. The main goal of this dissertation is to offer new insights into the properties of methods for off-policy evaluation. This is achieved through a series of novel theoretical results and empirical illustrations. The first set of results concerns the bandit setting (single state, single decision step MDPs). In this basic setting, the bias and variance of various off-policy estimators can be computed in closed form without resorting to approximations. We also compare the bias-variance trade-offs for the different estimators, both theoretically and empirically. In the sequential setting (more than one decision step), a comparative empirical study of different off-policy estimators for MDPs with discrete state and action spaces is conducted. The methods compared include three existing estimators, and two new ones proposed in this dissertation. All of these estimators are shown to be consistent and asymptotically normal. The empirical study illustrates how the relative behaviour of the estimators is affected by changes in problem parameters. The analysis for discrete MDPs is completed by recursive bias and variance formulas for the commonly used model-based estimator. These are the first analytic formulas for finite-horizon MDPs, and are shown to produce more accurate results than bootstrap estimates. The final contribution consists of introducing a new framework for bounding the return of a policy. The framework can be used whenever bounds on the next state and reward are available, regardless of whether the state and action spaces are discrete or continuous. If the next-state bounds are computed by assuming Lipschitz continuity of the transition function and using a batch of sampled transitions, then our framework can lead to tighter bounds than those proposed in previous work. Throughout this dissertation, the empirical performance of the estimators being studied is illustrated on several computational sustainability problems: a model of food-related greenhouse gas emissions, a mallard population dynamics model, and a fishery management domain. / Cette thèse se situe dans le contexte d'un cadre largement utilisé pour formaliser les méchanismes autonomes de décision, à savoir les processus de décision markoviens (MDP). L'un des principaux problèmes qui se posent dans les MDP est celui de l'évaluation d'une stratégie de prise de décision, généralement appelée une politique. C'est souvent le cas qu'obtenir des données recueillies dans le cadre de la politique qu'on souhaite évaluer est difficile, ou même impossible. Dans ce cas, des données recueillies sous une autre politique doivent être utilisées, une situation appelée "évaluation hors-politique". L'objectif principal de cette thèse est de proposer un nouvel éclairage sur les propriétés des méthodes pour l'évaluation hors-politique. Ce résultat est obtenu grâce à une série de nouveaux résultats théoriques et illustrations empiriques. La première série de résultats concerne des problèmes de type bandit (des MDP avec un seul état et une seule étape de décision). Dans cette configuration, le biais et la variance de divers estimateurs hors-politique peuvent être calculés sous forme fermée sans avoir recours à des approximations. Nous comparons également le compromis biais-variance pour les différents estimateurs, du point de vue théorique et empirique. Dans le cadre séquentiel (plus d'une étape de décision), une étude empirique comparative des différents estimateurs hors-politique pour les MDP avec des états et des actions discrètes est menée. Les méthodes comparées sont trois estimateurs existants, ainsi que deux nouveaux proposés dans cette thèse. Tous ces estimateurs se sont avérés convergents et asymptotiquement normaux. L'étude empirique montre comment le comportement relatif des estimateurs est affecté par des changements aux paramètres du problème. L'analyse des MDP discrets est complétée par des formules récursives pour le biais et la variance pour l'estimateur basé sur le modèle. Ce sont les premières formules analytiques pour les MDP à horizon fini, et on montre qu'ils produisent des résultats plus précis que les estimations "bootstrap".La contribution finale consiste à introduire un nouveau cadre pour délimiter le retour d'une politique. Le cadre peut être utilisé chaque fois que des bornes sur le prochain état et la récompense sont disponibles, indépendamment du fait que les espaces d'état et d'action soient discrètes ou continues. Si les limites du prochain état sont calculées en supposant la continuité Lipschitz de la fonction de transition et en utilisant un échantillon de transitions, notre cadre peut conduire à des bornes plus strictes que celles qui sont proposées dans des travaux antérieurs.Tout au long de cette thèse, la performance empirique des estimateurs étudiés est illustrée sur plusieurs problèmes de durabilité: un modèle de calcul des émissions de gaz à effet de serre associées à la consommation de nourriture, un modèle dynamique de la population des mallards, et un domaine de gestion de la pêche.
96

Confidentiality and integrity management in online systems

Ranj Bar, Amin January 2013 (has links)
The dominant role of social networking in the web is turning human relations into conduits of information flow. This means that the way information spreads on the web is determined to a large extent by human decisions. Consequently, information security, confidentiality and integrity of shared data, relies on the quality of the collective decisions made by the users. Recently, many access control schemes have been proposed to control unauthorized propagation and modification of information in online systems; however, there is still a need for mechanisms to evaluate the risk of information leakage and unauthorized modifications within online systems. First, the thesis focuses on the confidentiality of information in online social networks. A novel community-centric confidentiality control mechanism for information flow management on the social web is presented. A Monte Carlo based algorithm is developed to determine the potential spread of a shared data object and to inform the user of the risk of information leakage associated with different sharing decisions she can make in a social network. The scheme also provides a facility to reduce information flowing to a specific user (i.e., black listing a specific user). Second the thesis focuses on the integrity of artifacts in crowdsourcing systems. A new approach for managing the integrity of contents created in crowdsourcing repositories named Social Integrity Management (SIM) is presented. SIM integrates two conflicting approaches to manage integrity in crowdsourcing systems: owner-centric and owner-free schemes. The ownership bottleneck is relaxed by including co-ownerships and having multiple versions. Finally, the thesis presents a thorough analysis of the Stack Exchange sites as an example of widely used crowdsourcing question answering systems. The dump datasets are used to analyze various user behaviors in crowdsourcing question answering systems by considering the effect of tagging, user reputation and user feedback. Observed characteristics from the studies are used in the modeling and evaluation of social integrity management. / Le rôle prépondérant des réseaux sociaux sur le web change les relations humaines enconduits d'échange d'information. Ainsi, l'information qui est véhiculée sur le web est déterminée en grande partie par les prises de décisions humaines. Conséquemment, la sécurité de l'information, la confidentialité et l'intégrité de l'information partagée dépendentde la qualité des décisions prises collectivement par les utilisateurs. Récemment, plusieurs schémas de contrôle d'accès ont été proposés pour contrôler la propagation non autorisée et la modification de l'information dans les systèmes en ligne. Par contre, il y a encore un besoin de mécanismes dévaluation des risques de fuites d'information et de modifications non autorisées à l'intérieur des systèmes en ligne. Premièrement, la thèse se concentre sur la confidentialité de l'information dans les réseaux sociaux en ligne. Un nouveau mécanisme de contrôle de la confidentialité axé sur la communité pour la gestion de circulation de l'information est présenté. Un algorithme basé sur le modèle Monte Carlo est développé pour déterminer la possibilité de la diffusion des éléments de données partagés ainsi que pour informer l'utilisateur des risques de fuite d'information associés aux différentes décisions de partage que l'utilisateur pourra faire dans un réseau social. Le schéma fournit également une installation pour réduire l'échappement de l'information à un utilisateur spécifique (ex. mettre un utilisateur sur une liste noire). Deuxièmement, la thèse se concentre sur l'intégrité des objets des systèmes de crowdsourcing. Une approche nouvelle pour gérer l'intégrité du contenu créé par les archives de crowdsourcing appelé Gestion de l'intégrité sociale (Social Integrity Management) est présentée. Cette approcheintgre deux approches contradictoires pour gérer l'intégrité des systèmes de crowdsourcing: les schémas basés sur le propriétaire et les schémas sans propriétaires. La problématique de la propriété est d´etendue en incluant la copropriété et la possibilité d'avoir plusieurs versions. Finalement, la thèse présente une analyse complète des sites d'échange commeexemple de système de réponses aux questions par le crowdsourcing qui sont grandement utilisés. L'ensemble de données déchargées est utilisé pour analyser le comportement de différents utilisateurs dans les systèmes de réponses aux questions basés sur le crowdsourcing en considérant les effets d'étiquetage, la réputation des utilisateurs et les commentaires des utilisateurs. Les caract´eristiques observées par les études sont utilisées dans la simulationet l'évaluation de la gérance de l'intégrité sociale.
97

Developing rich, web-based user interfaces with the statecharts interpretation and optimization engine

Beard, Jacob January 2013 (has links)
Today's Web browsers provide a platform for the development of complex, richly interactive user interfaces. But, with this complexity come additional challenges for Web developers. The complicated behavioural relationships between user interface components are often stateful, and are difficult to describe, encode and maintain using conventional programming techniques with ECMAScript, the general-purpose scripting language embedded in all Web browsers. Furthermore, user interfaces must be performant, reacting to user input quickly; if the system responds too slowly, the result is a visible UI "lag," degrading the user's experience. Statecharts, a visual modelling language created in the 1980's for developing safety-critical embedded systems, can provide solutions to these problems, as it is well-suited to describing the reactive, timed, state-based behaviour that often comprises the essential complexity of a Web user interface. The contributions of this thesis are then twofold. First, in order to use Statecharts effectively, an interpreter is required to execute the Statecharts models. Therefore, the primary contribution of this thesis is the design, description, implementation and empirical evaluation of the Statecharts Interpretation and Optimization eNgine (SCION), a Statecharts interpreter implemented in ECMAScript that can run in all Web browsers, as well as other ECMAScript environments such as Node.js and Rhino. This thesis first describes a syntax and semantics for SCION which aims to be maximally intuitive for Web developers. Next, test-driven development is used to verify the correct implementation of this semantics. Finally, SCION is optimized and rigorously evaluated to maximize performance and minimize memory usage when run in various Web browser environments. While SCION began as a research project toward the completion of this master thesis, it has grown into an established open source software project, and is currently being used for real work in production environments by several organizations. The secondary contribution of this thesis is the introduction of a new Statecharts-based design pattern called Stateful Command Syntax, which can be used to guide Web user interface development with Statecharts. This design pattern can be applied to a wide class of Web user interfaces, specifically those whose behaviour comprises a command syntax that varies depending on high-level application state. Its use is illustrated through detailed case studies of two highly interactive, but very different applications. / Les navigateurs web modernes permettent la création d'interfaces utilisateur particulièrement élaborées et interactives. Mais cela engendre également des difficultés additionnelles pour les développeurs web. Les relations qui existent entre les différentes composantes des interfaces utilisateur sont souvent complexes et difficiles à élaborer, encoder et entretenir en utilisant les techniques de programmation conventionnelles qu'offre ECAMScript, un langage que l'on retrouve dans tous les navigateurs. Or, les interfaces doivent être assez performantes pour répondre rapidement aux actions effectuées par l'utilisateur, car un système trop lent engendre un décalage qui nuit à l'expérience d'utilisation. Statecharts, un langage de modélisation visuelle créé dans les années 80 pour assurer la sécurité des systèmes embarqués, peut offrir des solutions à ces défis : il sait répondre aux impératifs de réactivité, de programmation dans le temps et de comportement fondé sur l'état qui représentent en somme ce qui est le plus difficile avec les interfaces utilisateur sur le web. L'apport de ce mémoire est double. Tout d'abord, l'exécution des modèles Statecharts nécessite un interprète. La première contribution de cet article consiste donc en le design, l'élaboration, l'implémentation et l'évaluation empirique du Statecharts Interpretation and Optimization eNgine (SCION), un interprète en ECMAScript qui peut être exécuté dans tous les navigateurs web ainsi que dans d'autres environnements ECMAScript, comme Node.js et Rhino. SCION est doté d'une syntaxe et d'une sémantique qui se veut la plus intuitive possible pour les développeurs web. De nombreux tests sont ensuite effectués pour en assurer le bon fonctionnement. Enfin, SCION est rigoureusement optimisé afin de maximiser la performance et de minimiser l'utilisation de la mémoire vive dans différents navigateurs web. Bien que SCION ait débuté comme un projet de recherche personnel en vue de l'obtention du diplôme de maîtrise, il est devenu un logiciel libre bien établi et utilisé par plusieurs organisations dans des environnements de travail. La deuxième contribution de ce mémoire est la présentation d'un nouveau patron de conception créé à partir de Statecharts nommé Stateful Command Syntax, qui peut être utilisé pour guider la création d'interfaces utilisateur sur le web. Ce patron de conception peut être employé sur une grande variété d'interfaces, notamment celles dont le comportement inclut une syntaxe de commande qui varie selon le degré d'abstraction de l'application. Son utilisation est illustrée à travers quelques études de cas ainsi que deux logiciels très différents mais hautement interactifs.
98

Force and centre of pressure measurements during ice hockey skating with a regular and a modfied ice hockey skate

Le Ngoc, Chau January 2013 (has links)
Force and centre of pressure (COP) were measured during a forward skating task on ice using a standard hockey skate and a modified skate with an altered tendon guard and eyelet configuration which allows for increased dorsiflexion and plantarflexion. The objective of this study was to determine if those skate design changes would result in biomechanical changes in the skaters during forward skating. Both left and right skates were instrumented with a calibrated strain gauge force transducer system to measure forces and with an insole system used to measure the COP during the forward skating task. The modified skate showed a reduction of 14.5-24.3 mm in total anterior-posterior COP excursion (p < .05). This suggests that the modified skate changes the biomechanics of the skaters. However, a full body kinematic study might be needed in order to study the exact biomechanical changes. / La force et le centre de poussée (CDP) ont été mesurés pendant le patinage sur glace en ligne droite en utilisant des patins de hockey standards et des patins de hockey modifiés avec un protecteur du tendon d'Achille plus flexible et une configuration différente des oeillets pour lacets permettant une plus grande dorsiflexion et flexion plantaire de la cheville. Le but de cette étude était de déterminer si ces changements de construction de patins ont une influence sur le mouvement biomécanique des patineurs pendant le patinage sur glace en ligne droite. Les patins gauches et droites ont été instrumentés avec un système d'estimation de la force calibré et avec un système de capteurs de pression en dessous de la semelle pour mesurer le CDP. L'utilisation du patin modifié s'est manifestée par une réduction de 14.5 à 24.3 mm du déplacement total du CDP dans la direction antéro-postérieure (p < .05). Celà suggère que l'utilisation du patin modifié a un effet sur la biomécanique des patineurs. Cependant, une étude cinématique du corps au complet serait peut-être nécéssaire afin d'étudier les changements biomécaniques exacts.
99

The informative message model

Girdhar, Neil January 2013 (has links)
Feature extraction is the problem of learning a mapping from observations to useful features. It has no shortage of real-world applications and is perhaps the most important subproblem in machine learning. Yet for all the interest it has attracted, an expressive, scalable algorithm remains elusive. Guided by these two abstract desiderata, we develop a novel feature extraction algorithm having the following concrete properties:- It learns causal rather than associational relationships. Causal models can reason in the face of interventions, that is, hypothetically.- It is deep, and therefore trades breadth for depth, which can drastically reduce model size.- It is developed within the energy-based model framework, which potentially does inference much faster than the probabilistic model framework because it can work with small numbers of low energy configurations rather than an entire probability distribution over exponentially many configurations.- It divides information about every feature into a quantitative part that measures how much information there is, and a qualitative part that is the remainder. This allows features having little information to be shielded from credit assignment and to elide certain causal inference messages.- It models each feature using a marked Poisson process whose marks are probability distributions representing the qualitative information, and whose rate represents the amount of information. This allows the model (1) to accept sequential data, (2) to learn inference shortcuts because fast inference is rewarded in a temporal system, and (3) to allocate computation proportional to the rate of observation, which quantifies the evidence at a feature. Our model can be seen as a temporal Boltzmann machine with causal constraints, or a temporal Bayesian network with a stochastic, energy-based inference algorithm. The quantification of information and the use of that information in accelerating inference and focusing credit assignment is another key innovation in our proposed model: the "Informative Message Model", a causal, temporal, deep, energy-based feature extraction algorithm. / L'extraction de caractéristiques est le problème d'apprendre une application de l'ensemble d'observations dans caractéristiques utiles. Il ne manque pas d'applications dans le monde réel et c'est peut-être le sous-problème le plus important dans l'apprentissage automatique. Malgré l'intérêt qu'il a suscité, un algorithme scalable et expressif reste insaisissable. Guidé par ces deux desiderata abstraites, nous développons un nouveau algorithme d'extraction de caractéristiques ayant les propriétés concrètes suivantes: \begin{itemize}- Il apprend des relations causal plutôt que associatives. Les modèles de causalité peuvent raisonner face à des interventions, c'est-à-dire, hypothétiquement.- Il est profond, et échange donc l'étendue pour la profondeur, ce qui peut réduire considérablement la grandeur du modèle.- Il est développé dans le cadre des modèles base sur l'énergie, ce qui potentiellement beaucoup accélère l'inférence comparé au cadre des modèles probabiliste car il peut travailler avec quelques configurations de basse énergie plutôt que d'une distribution de probabilité sur une quantité exponentielle de configurations.- Il divise l'information de chaque caractéristique entre une partie quantitative qui mesure combien d'information y a-t-il, et une partie qualitative qui est le reste. Cela permet aux caracéristiques ayant peu d'informations d'être protéger contre l'affectation de crédit et d'élider certains messages d'inférence causals.- Il modélise chaque caracéristique en utilisant un processus de Poisson marqué dont les marques sont des distributions de probabilité représentant l'information qualitative, et dont le taux représente la quantité d'information. Cela permet au modèle (1) d'accepter des données séquentielles, (2) d'apprendre des raccourcis d'inférence, car l'inférence rapide est récompensé dans un système temporel, et (3) d'allouer calcul proportionnelle au taux d'observation que quantifie l'évidence à une caractéristique.\end{itemize} Notre modèle peut être considéré comme une machine de Boltzmann temporelle ayant des contraintes causales, ou comme un réseau Bayésien temporel et stochastique avec un algorithme d'inférence basée sur l'énergie.La quantification de l'information et l'utilisation de cette information pour accélérer l'inférence et de focuser l'affectation de crédit est une autre innovation clé de notre modèle proposé:"Le Modèle de Message Informatif", un algorithme d'extraction de caractéristiques causal, temporelle, profond, et basé sur l'énergie.
100

Online customer behavior prediction

Ghafoorzadeh Nobar, Danesh January 2013 (has links)
Marketing has an important role in any successful business. However, advertising costs can be quite large. The key to a good marketing is to understand the customer behavior toward advertisements, in order to decide through what means one can advertise most efficiently. Traditionally, this process was studied through customer focus groups and surveys, which were then analyzed by statistical means. The increase of on-line purchasing and advertising provides a unique opportunity for gathering large amounts of information from users, which can then be analyzed by modern machine learning methods. In this thesis, by using data from online retailers, we try to predict user reaction to different types of advertisement. Using a machine learning, regression-based approach toward customer behavior prediction, we fit a model of customer behavior which can be used to predict which type of advertising will lead to purchases. We use a large data set provided by an industry partner and show that this approach achieves good prediction accuracy, even though the data is imbalanced.iv / Le marketing a un rôle important dans toute entreprise prospère. Toutefois, les frais de publicité peuvent être très importants. La clé d'une bonne stratégique de marketing est de comprendre le comportement des clients devant la publicité qui leurs est présentée, afin de décider par quels moyens son rendement peut être amélioré. Traditionnellement, ce processus a été étudié par le biais de groupes de discussion et de sondages, et dont les résultats sont ensuite analysés par des moyens statistiques. L'augmentation des achats en ligne et de la publicité offrent une occasion unique de rassembler de grandes quantités d'informations auprès des utilisateurs. Celles-ci peuvent ensuite être analysées par des méthodes modernes d'apprentissage automatique. Dans cette thèse, en utilisant les données provenant de sites d'achat en ligne, nous tentons de prédire la réaction des utilisateurs différents types de publicité. Par lutilisation de techniques d'apprentissage automatique, nous avons obtenu un modèle de régression permettant de prédire le comportement d'achat du client face a la publicité auquel il est expose. Nous utilisons un ensemble de données volumineux fourni par un partenaire de l'industrie et démontrons que cette approche permet d'atteindre une bonne précision de prédiction, même en présence de données déséquilibrés.

Page generated in 0.0476 seconds