• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 506
  • 264
  • 264
  • 264
  • 264
  • 264
  • 263
  • 209
  • 15
  • 1
  • Tagged with
  • 1053
  • 1053
  • 1053
  • 1053
  • 398
  • 398
  • 398
  • 398
  • 398
  • 206
  • 173
  • 173
  • 172
  • 62
  • 60
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Off-policy evaluation in Markov decision processes

Paduraru, Cosmin January 2013 (has links)
This dissertation is set in the context of a widely used framework for formalizing autonomous decision-making, namely Markov decision processes (MDPs). One of the key problems that arise in MDPs is that of evaluating a decision-making strategy, typically called a policy. It is often the case that data collected under the policy one wishes to evaluate is difficult or even impossible to obtain. In this case, data collected under some other policy needs to be used, a setting known as off-policy evaluation. The main goal of this dissertation is to offer new insights into the properties of methods for off-policy evaluation. This is achieved through a series of novel theoretical results and empirical illustrations. The first set of results concerns the bandit setting (single state, single decision step MDPs). In this basic setting, the bias and variance of various off-policy estimators can be computed in closed form without resorting to approximations. We also compare the bias-variance trade-offs for the different estimators, both theoretically and empirically. In the sequential setting (more than one decision step), a comparative empirical study of different off-policy estimators for MDPs with discrete state and action spaces is conducted. The methods compared include three existing estimators, and two new ones proposed in this dissertation. All of these estimators are shown to be consistent and asymptotically normal. The empirical study illustrates how the relative behaviour of the estimators is affected by changes in problem parameters. The analysis for discrete MDPs is completed by recursive bias and variance formulas for the commonly used model-based estimator. These are the first analytic formulas for finite-horizon MDPs, and are shown to produce more accurate results than bootstrap estimates. The final contribution consists of introducing a new framework for bounding the return of a policy. The framework can be used whenever bounds on the next state and reward are available, regardless of whether the state and action spaces are discrete or continuous. If the next-state bounds are computed by assuming Lipschitz continuity of the transition function and using a batch of sampled transitions, then our framework can lead to tighter bounds than those proposed in previous work. Throughout this dissertation, the empirical performance of the estimators being studied is illustrated on several computational sustainability problems: a model of food-related greenhouse gas emissions, a mallard population dynamics model, and a fishery management domain. / Cette thèse se situe dans le contexte d'un cadre largement utilisé pour formaliser les méchanismes autonomes de décision, à savoir les processus de décision markoviens (MDP). L'un des principaux problèmes qui se posent dans les MDP est celui de l'évaluation d'une stratégie de prise de décision, généralement appelée une politique. C'est souvent le cas qu'obtenir des données recueillies dans le cadre de la politique qu'on souhaite évaluer est difficile, ou même impossible. Dans ce cas, des données recueillies sous une autre politique doivent être utilisées, une situation appelée "évaluation hors-politique". L'objectif principal de cette thèse est de proposer un nouvel éclairage sur les propriétés des méthodes pour l'évaluation hors-politique. Ce résultat est obtenu grâce à une série de nouveaux résultats théoriques et illustrations empiriques. La première série de résultats concerne des problèmes de type bandit (des MDP avec un seul état et une seule étape de décision). Dans cette configuration, le biais et la variance de divers estimateurs hors-politique peuvent être calculés sous forme fermée sans avoir recours à des approximations. Nous comparons également le compromis biais-variance pour les différents estimateurs, du point de vue théorique et empirique. Dans le cadre séquentiel (plus d'une étape de décision), une étude empirique comparative des différents estimateurs hors-politique pour les MDP avec des états et des actions discrètes est menée. Les méthodes comparées sont trois estimateurs existants, ainsi que deux nouveaux proposés dans cette thèse. Tous ces estimateurs se sont avérés convergents et asymptotiquement normaux. L'étude empirique montre comment le comportement relatif des estimateurs est affecté par des changements aux paramètres du problème. L'analyse des MDP discrets est complétée par des formules récursives pour le biais et la variance pour l'estimateur basé sur le modèle. Ce sont les premières formules analytiques pour les MDP à horizon fini, et on montre qu'ils produisent des résultats plus précis que les estimations "bootstrap".La contribution finale consiste à introduire un nouveau cadre pour délimiter le retour d'une politique. Le cadre peut être utilisé chaque fois que des bornes sur le prochain état et la récompense sont disponibles, indépendamment du fait que les espaces d'état et d'action soient discrètes ou continues. Si les limites du prochain état sont calculées en supposant la continuité Lipschitz de la fonction de transition et en utilisant un échantillon de transitions, notre cadre peut conduire à des bornes plus strictes que celles qui sont proposées dans des travaux antérieurs.Tout au long de cette thèse, la performance empirique des estimateurs étudiés est illustrée sur plusieurs problèmes de durabilité: un modèle de calcul des émissions de gaz à effet de serre associées à la consommation de nourriture, un modèle dynamique de la population des mallards, et un domaine de gestion de la pêche.
52

Confidentiality and integrity management in online systems

Ranj Bar, Amin January 2013 (has links)
The dominant role of social networking in the web is turning human relations into conduits of information flow. This means that the way information spreads on the web is determined to a large extent by human decisions. Consequently, information security, confidentiality and integrity of shared data, relies on the quality of the collective decisions made by the users. Recently, many access control schemes have been proposed to control unauthorized propagation and modification of information in online systems; however, there is still a need for mechanisms to evaluate the risk of information leakage and unauthorized modifications within online systems. First, the thesis focuses on the confidentiality of information in online social networks. A novel community-centric confidentiality control mechanism for information flow management on the social web is presented. A Monte Carlo based algorithm is developed to determine the potential spread of a shared data object and to inform the user of the risk of information leakage associated with different sharing decisions she can make in a social network. The scheme also provides a facility to reduce information flowing to a specific user (i.e., black listing a specific user). Second the thesis focuses on the integrity of artifacts in crowdsourcing systems. A new approach for managing the integrity of contents created in crowdsourcing repositories named Social Integrity Management (SIM) is presented. SIM integrates two conflicting approaches to manage integrity in crowdsourcing systems: owner-centric and owner-free schemes. The ownership bottleneck is relaxed by including co-ownerships and having multiple versions. Finally, the thesis presents a thorough analysis of the Stack Exchange sites as an example of widely used crowdsourcing question answering systems. The dump datasets are used to analyze various user behaviors in crowdsourcing question answering systems by considering the effect of tagging, user reputation and user feedback. Observed characteristics from the studies are used in the modeling and evaluation of social integrity management. / Le rôle prépondérant des réseaux sociaux sur le web change les relations humaines enconduits d'échange d'information. Ainsi, l'information qui est véhiculée sur le web est déterminée en grande partie par les prises de décisions humaines. Conséquemment, la sécurité de l'information, la confidentialité et l'intégrité de l'information partagée dépendentde la qualité des décisions prises collectivement par les utilisateurs. Récemment, plusieurs schémas de contrôle d'accès ont été proposés pour contrôler la propagation non autorisée et la modification de l'information dans les systèmes en ligne. Par contre, il y a encore un besoin de mécanismes dévaluation des risques de fuites d'information et de modifications non autorisées à l'intérieur des systèmes en ligne. Premièrement, la thèse se concentre sur la confidentialité de l'information dans les réseaux sociaux en ligne. Un nouveau mécanisme de contrôle de la confidentialité axé sur la communité pour la gestion de circulation de l'information est présenté. Un algorithme basé sur le modèle Monte Carlo est développé pour déterminer la possibilité de la diffusion des éléments de données partagés ainsi que pour informer l'utilisateur des risques de fuite d'information associés aux différentes décisions de partage que l'utilisateur pourra faire dans un réseau social. Le schéma fournit également une installation pour réduire l'échappement de l'information à un utilisateur spécifique (ex. mettre un utilisateur sur une liste noire). Deuxièmement, la thèse se concentre sur l'intégrité des objets des systèmes de crowdsourcing. Une approche nouvelle pour gérer l'intégrité du contenu créé par les archives de crowdsourcing appelé Gestion de l'intégrité sociale (Social Integrity Management) est présentée. Cette approcheintgre deux approches contradictoires pour gérer l'intégrité des systèmes de crowdsourcing: les schémas basés sur le propriétaire et les schémas sans propriétaires. La problématique de la propriété est d´etendue en incluant la copropriété et la possibilité d'avoir plusieurs versions. Finalement, la thèse présente une analyse complète des sites d'échange commeexemple de système de réponses aux questions par le crowdsourcing qui sont grandement utilisés. L'ensemble de données déchargées est utilisé pour analyser le comportement de différents utilisateurs dans les systèmes de réponses aux questions basés sur le crowdsourcing en considérant les effets d'étiquetage, la réputation des utilisateurs et les commentaires des utilisateurs. Les caract´eristiques observées par les études sont utilisées dans la simulationet l'évaluation de la gérance de l'intégrité sociale.
53

Developing rich, web-based user interfaces with the statecharts interpretation and optimization engine

Beard, Jacob January 2013 (has links)
Today's Web browsers provide a platform for the development of complex, richly interactive user interfaces. But, with this complexity come additional challenges for Web developers. The complicated behavioural relationships between user interface components are often stateful, and are difficult to describe, encode and maintain using conventional programming techniques with ECMAScript, the general-purpose scripting language embedded in all Web browsers. Furthermore, user interfaces must be performant, reacting to user input quickly; if the system responds too slowly, the result is a visible UI "lag," degrading the user's experience. Statecharts, a visual modelling language created in the 1980's for developing safety-critical embedded systems, can provide solutions to these problems, as it is well-suited to describing the reactive, timed, state-based behaviour that often comprises the essential complexity of a Web user interface. The contributions of this thesis are then twofold. First, in order to use Statecharts effectively, an interpreter is required to execute the Statecharts models. Therefore, the primary contribution of this thesis is the design, description, implementation and empirical evaluation of the Statecharts Interpretation and Optimization eNgine (SCION), a Statecharts interpreter implemented in ECMAScript that can run in all Web browsers, as well as other ECMAScript environments such as Node.js and Rhino. This thesis first describes a syntax and semantics for SCION which aims to be maximally intuitive for Web developers. Next, test-driven development is used to verify the correct implementation of this semantics. Finally, SCION is optimized and rigorously evaluated to maximize performance and minimize memory usage when run in various Web browser environments. While SCION began as a research project toward the completion of this master thesis, it has grown into an established open source software project, and is currently being used for real work in production environments by several organizations. The secondary contribution of this thesis is the introduction of a new Statecharts-based design pattern called Stateful Command Syntax, which can be used to guide Web user interface development with Statecharts. This design pattern can be applied to a wide class of Web user interfaces, specifically those whose behaviour comprises a command syntax that varies depending on high-level application state. Its use is illustrated through detailed case studies of two highly interactive, but very different applications. / Les navigateurs web modernes permettent la création d'interfaces utilisateur particulièrement élaborées et interactives. Mais cela engendre également des difficultés additionnelles pour les développeurs web. Les relations qui existent entre les différentes composantes des interfaces utilisateur sont souvent complexes et difficiles à élaborer, encoder et entretenir en utilisant les techniques de programmation conventionnelles qu'offre ECAMScript, un langage que l'on retrouve dans tous les navigateurs. Or, les interfaces doivent être assez performantes pour répondre rapidement aux actions effectuées par l'utilisateur, car un système trop lent engendre un décalage qui nuit à l'expérience d'utilisation. Statecharts, un langage de modélisation visuelle créé dans les années 80 pour assurer la sécurité des systèmes embarqués, peut offrir des solutions à ces défis : il sait répondre aux impératifs de réactivité, de programmation dans le temps et de comportement fondé sur l'état qui représentent en somme ce qui est le plus difficile avec les interfaces utilisateur sur le web. L'apport de ce mémoire est double. Tout d'abord, l'exécution des modèles Statecharts nécessite un interprète. La première contribution de cet article consiste donc en le design, l'élaboration, l'implémentation et l'évaluation empirique du Statecharts Interpretation and Optimization eNgine (SCION), un interprète en ECMAScript qui peut être exécuté dans tous les navigateurs web ainsi que dans d'autres environnements ECMAScript, comme Node.js et Rhino. SCION est doté d'une syntaxe et d'une sémantique qui se veut la plus intuitive possible pour les développeurs web. De nombreux tests sont ensuite effectués pour en assurer le bon fonctionnement. Enfin, SCION est rigoureusement optimisé afin de maximiser la performance et de minimiser l'utilisation de la mémoire vive dans différents navigateurs web. Bien que SCION ait débuté comme un projet de recherche personnel en vue de l'obtention du diplôme de maîtrise, il est devenu un logiciel libre bien établi et utilisé par plusieurs organisations dans des environnements de travail. La deuxième contribution de ce mémoire est la présentation d'un nouveau patron de conception créé à partir de Statecharts nommé Stateful Command Syntax, qui peut être utilisé pour guider la création d'interfaces utilisateur sur le web. Ce patron de conception peut être employé sur une grande variété d'interfaces, notamment celles dont le comportement inclut une syntaxe de commande qui varie selon le degré d'abstraction de l'application. Son utilisation est illustrée à travers quelques études de cas ainsi que deux logiciels très différents mais hautement interactifs.
54

The informative message model

Girdhar, Neil January 2013 (has links)
Feature extraction is the problem of learning a mapping from observations to useful features. It has no shortage of real-world applications and is perhaps the most important subproblem in machine learning. Yet for all the interest it has attracted, an expressive, scalable algorithm remains elusive. Guided by these two abstract desiderata, we develop a novel feature extraction algorithm having the following concrete properties:- It learns causal rather than associational relationships. Causal models can reason in the face of interventions, that is, hypothetically.- It is deep, and therefore trades breadth for depth, which can drastically reduce model size.- It is developed within the energy-based model framework, which potentially does inference much faster than the probabilistic model framework because it can work with small numbers of low energy configurations rather than an entire probability distribution over exponentially many configurations.- It divides information about every feature into a quantitative part that measures how much information there is, and a qualitative part that is the remainder. This allows features having little information to be shielded from credit assignment and to elide certain causal inference messages.- It models each feature using a marked Poisson process whose marks are probability distributions representing the qualitative information, and whose rate represents the amount of information. This allows the model (1) to accept sequential data, (2) to learn inference shortcuts because fast inference is rewarded in a temporal system, and (3) to allocate computation proportional to the rate of observation, which quantifies the evidence at a feature. Our model can be seen as a temporal Boltzmann machine with causal constraints, or a temporal Bayesian network with a stochastic, energy-based inference algorithm. The quantification of information and the use of that information in accelerating inference and focusing credit assignment is another key innovation in our proposed model: the "Informative Message Model", a causal, temporal, deep, energy-based feature extraction algorithm. / L'extraction de caractéristiques est le problème d'apprendre une application de l'ensemble d'observations dans caractéristiques utiles. Il ne manque pas d'applications dans le monde réel et c'est peut-être le sous-problème le plus important dans l'apprentissage automatique. Malgré l'intérêt qu'il a suscité, un algorithme scalable et expressif reste insaisissable. Guidé par ces deux desiderata abstraites, nous développons un nouveau algorithme d'extraction de caractéristiques ayant les propriétés concrètes suivantes: \begin{itemize}- Il apprend des relations causal plutôt que associatives. Les modèles de causalité peuvent raisonner face à des interventions, c'est-à-dire, hypothétiquement.- Il est profond, et échange donc l'étendue pour la profondeur, ce qui peut réduire considérablement la grandeur du modèle.- Il est développé dans le cadre des modèles base sur l'énergie, ce qui potentiellement beaucoup accélère l'inférence comparé au cadre des modèles probabiliste car il peut travailler avec quelques configurations de basse énergie plutôt que d'une distribution de probabilité sur une quantité exponentielle de configurations.- Il divise l'information de chaque caractéristique entre une partie quantitative qui mesure combien d'information y a-t-il, et une partie qualitative qui est le reste. Cela permet aux caracéristiques ayant peu d'informations d'être protéger contre l'affectation de crédit et d'élider certains messages d'inférence causals.- Il modélise chaque caracéristique en utilisant un processus de Poisson marqué dont les marques sont des distributions de probabilité représentant l'information qualitative, et dont le taux représente la quantité d'information. Cela permet au modèle (1) d'accepter des données séquentielles, (2) d'apprendre des raccourcis d'inférence, car l'inférence rapide est récompensé dans un système temporel, et (3) d'allouer calcul proportionnelle au taux d'observation que quantifie l'évidence à une caractéristique.\end{itemize} Notre modèle peut être considéré comme une machine de Boltzmann temporelle ayant des contraintes causales, ou comme un réseau Bayésien temporel et stochastique avec un algorithme d'inférence basée sur l'énergie.La quantification de l'information et l'utilisation de cette information pour accélérer l'inférence et de focuser l'affectation de crédit est une autre innovation clé de notre modèle proposé:"Le Modèle de Message Informatif", un algorithme d'extraction de caractéristiques causal, temporelle, profond, et basé sur l'énergie.
55

Online customer behavior prediction

Ghafoorzadeh Nobar, Danesh January 2013 (has links)
Marketing has an important role in any successful business. However, advertising costs can be quite large. The key to a good marketing is to understand the customer behavior toward advertisements, in order to decide through what means one can advertise most efficiently. Traditionally, this process was studied through customer focus groups and surveys, which were then analyzed by statistical means. The increase of on-line purchasing and advertising provides a unique opportunity for gathering large amounts of information from users, which can then be analyzed by modern machine learning methods. In this thesis, by using data from online retailers, we try to predict user reaction to different types of advertisement. Using a machine learning, regression-based approach toward customer behavior prediction, we fit a model of customer behavior which can be used to predict which type of advertising will lead to purchases. We use a large data set provided by an industry partner and show that this approach achieves good prediction accuracy, even though the data is imbalanced.iv / Le marketing a un rôle important dans toute entreprise prospère. Toutefois, les frais de publicité peuvent être très importants. La clé d'une bonne stratégique de marketing est de comprendre le comportement des clients devant la publicité qui leurs est présentée, afin de décider par quels moyens son rendement peut être amélioré. Traditionnellement, ce processus a été étudié par le biais de groupes de discussion et de sondages, et dont les résultats sont ensuite analysés par des moyens statistiques. L'augmentation des achats en ligne et de la publicité offrent une occasion unique de rassembler de grandes quantités d'informations auprès des utilisateurs. Celles-ci peuvent ensuite être analysées par des méthodes modernes d'apprentissage automatique. Dans cette thèse, en utilisant les données provenant de sites d'achat en ligne, nous tentons de prédire la réaction des utilisateurs différents types de publicité. Par lutilisation de techniques d'apprentissage automatique, nous avons obtenu un modèle de régression permettant de prédire le comportement d'achat du client face a la publicité auquel il est expose. Nous utilisons un ensemble de données volumineux fourni par un partenaire de l'industrie et démontrons que cette approche permet d'atteindre une bonne précision de prédiction, même en présence de données déséquilibrés.
56

Impact of caricature-based datasets on demographic inference

Cohen, Raviv January 2013 (has links)
The widespread adoption of social networking platforms has generated interest in studying groups of users. Interest in the composition of groups has led to the development of methods to infer demographic attributes of participants such as such as age, ethnicity, and political orientation. While all demographic inference methods report excellent performance, there is a concern that this is the product of the way the dataset was constructed and not just the methods accuracy. In our research we observed an overemphasis on classifying users that exhibit easy-to-classify traits ; we call such users caricatures. In this thesis, we establish the extent to which caricatures introduce a bias that leads to results that give an overoptimistic characterization of the inference engine's abilities. We further continued our research and introduced a simple and effective method to create non-caricature-based datasets. In this work we focus on political caricatures in Twitter, although we consider our results representa- tive of the effect of caricatures in Twitter demographic inference datasets, regardless of the attribute of interest. Therefore our research should serve as a warning call to researchers using caricature-based datasets to do demographic inference. / La déduction démographique est devenue une force motrice derrire certaines des plus grandes techniques en analyse de données. Sa multitude d'utilisations et d'applications rendues possibles l'aide de données démographiques augmente de jour en jour. Alors que toutes les méthodes de déduction démographique aboutissent d'excellentes performances, on craint que ce soit le produit de la faon dont le groupe de données a été construit et pas seulement l'exactitude des méthodes. Dans notre recherche, nous avons observé une insistance exagérée sur le classement des utilisateurs qui présentent des caractéristiques faciles classer, on appelle ces caractéristiques des caricatures. Ces caricatures introduisent un biais qui son tour conduit des résultats qui donnent une caricaturization trop optimiste des capacités de déduction. Poursuivant notre recherche, nous avons introduit et présenté une méthode simple et efficace pour créer des ensembles de données non-caricaturistes. Notre travail suggre qu'en effet un tel biais existe et motive davantage notre introduction une telle méthode. En outre, notre recherche adresse un appel de mise en garde l'utilisation des ensembles de données axées sur la caricature dans la recherche de la déduction démographique.
57

Flux graphs for 2D shape analysis

Rezanejad, Morteza January 2013 (has links)
This thesis considers a method for computing skeletal representations based on the average outward flux (AOF) of the gradient of the Euclidean distance function to the boundary of a 2D object through the boundary of a region that is shrunk. It then shows how the original method, developed by Dimitrov et al. [17] can be optimized and made more efficient and proposes an algorithm for computing flux invariants which is a number of times faster. It further exploits a relationship between the AOF and the object angle at endpoints, branch points and regular points of the skeleton to obtain more complete boundary reconstruction results than those demonstrated in prior work. Using this optimized implementation, new measures for skeletal simplification are proposed based on two criteria: the uniqueness of an inscribed disk as a tool for defining salience, and the limiting average outward flux value. The simplified skeleton when abstracted as a directed graph is shown to be far less complex than popular skeletal graphs in the literature, such as the shock graph, by a number of graph complexity measures including: number of nodes, number of edges, depth of the graph, number of skeletal points, and the sum of topological signature vector (TSV) values. We conclude the thesis by applying the simplified graph to a view-based object recognition experiment previously arranged for shock graphs. The results suggest that our new simplified graph yields recognition scores very close to those obtained using shock graphs but with a smaller number of nodes, edges, and skeletal points. / Ce mémoire propose une méthode pour calculer des représentations squelettiques en fonction du flux moyen décrit par le gradient de la fonction de distance Euclidienne aux limites d'un objet 2D qui rétrécit. La méthode originale développée par Dimitrov et al. [17] est ensuite optimisée afin de calculer des invariants de flux plus rapidement. Une relation entre l'AOF et l'angle de l'objet aux extrémités (aux points de branches et des points réguliers du squelette) est exploitée afin d'obtenir une reconstruction plus précises des limites de l'objet par rapport aux travaux précédents. En utilisant cette implémentation optimisée, de nouvelles mesures de simplification de squelettes sont proposées selon deux critères: l'unicité d'un disque inscrit comme un outil permettant de définir la saillance, et la limitation de la moyenne du flux à l'extérieur. Il est démontré que le squelette simplifié, abstrait par un graphe orienté, est beaucoup moins complexe que des graphes squelettiques conventionnels mentionnés dans la littérature, tel que le graphe de choc. Les mesures de complexité de graphe comprennent le nombre de nuds, le nombre de bords, la profondeur du graphe, le nombre de points du squelette et la somme des valeurs du vecteur des signes topologiques (TSV). La thèse se finit en appliquant le graphe simplifié au problème de reconnaissance d'objets basée sur la vue, préalablement adapté pour l'utilisation de graphes de choc. Les résultats suggèrent que notre nouveau graphe simplifié atteint des performances similaires à celles des graphes de choc, mais avec moins de nuds, de bords et de points du squelette plus rapide.
58

Distributing work among heterogeneous robots. An approach based on fair division theory

Gamboa Higuera, Juan Camilo January 2013 (has links)
We study the problem of distributing a single global task between a group ofheterogeneous robots. We view this problem as a fair division game. In this setting,every robot defines a preference function over parts of the task according to its sens-ing and motion capabilities. These preferences are described by density functionsover the task. We want to find an allocation of the global task that maximizes theprobability of task completion. We first formulate the task distribution problem as afair subdivision problem and provide a centralized algorithm to compute the alloca-tions for each robot. We provide a complexity analysis and computational results ofthe algorithm. We also provide a decentralized approach, based on the decentralizedcomputations of non-differentiable linear programs using the subgradient methodand discuss its convergence properties. / Nous étudions le problème de distribution d'une simple tâche globale entre un groupe de robots hétérogènes. Nous nous représentons ce problème comme un jeu de division juste. Dans ce contexte, chaque robot définit une fonction de préférence qui règne sur certaines parties de la tâche selon ses capacités de détection et de mouvement. Ces préférences son décrites par des fonctions de densité qui gèrent la tâche. Nous cherchons à trouver une allocation de la tâche globale qui maximise la probabilité de complétion de la tâche. Premièrement, nous formulons le problème de distribution de la tâche comme un problème de subdivision juste auquel on fournit un algorithme centralisé qui calcule les allocations pour chaque robot. Nous fournissons une analyse de complexité et les résultats numériques de l'algorithme. De plus, nous fournissons une approche decentralisée basée sur la décentralisation des calculs de programmes linéaires non-dérivables utilisant la méthode sous-différentielle et discutons ses propriétés de convergence.
59

Modeling user behavior from e-commerce data with hidden Markov models and logistic regression

Mohammadifard, Nakisa January 2013 (has links)
Mining online user data has become more and more popular in e-commerce. Businesses are using this data to do customization and user behavior prediction and one main applications of this information is advertisement. In this thesis, we address the problem of finding the influence of advertisements on a user's purchase behavior, by using machine learning methods to analyze purchase data obtained from real online retail systems. The hypothesis driving the model we propose is that different ads have different influences, but also the same ad can make the user behave differently if she is in different inner states. To capture this last aspect, we approached this problem using Hidden Markov Models for users. To consider the influence of ads and their properties, we replaced the traditional observation model of a Hidden Markov Model with Logistic Regression, which allows us to define an observation model depending not only on the HMM state, but also on external events such as advertising campaigns. We use a large online user data by an industry partner and our model is fit to predict if the user will make a purchase at a specific time interval or not. / L'éxploration des données utilisateurs en ligne est devenu de plus en plus populaire dans le commerce éléctronique. Les entreprises utilisent ces données pour la personnalisation et la prévision du comportement des utilisateurs, et une des applications principales de cette information est la publicité. Dans cette thèse, nous abordons le problème de trouver l'influence de la publicité sur le comportement d'achat d'un utilisateur, à l'aide de l'apprentissage automatique. Nous utilisons un jeu de données réelles provenant d'un détaillant en ligne. L'hypothèse de base du modèle que nous proposons est que les différentes annonces ont des influences différentes, mais aussi la meme annonce peut faire l'utilisateur se comporter différemment si lui ou elle se trouve dans différents états intérieurs. Pour capturer ce dernier aspect, nous avons abordé ce problème en utilisant des modèles Markov cachés pour modeller les utilisateurs. Pour étudier l'influence des annonces et leurs propriétés, nous avons remplacé le modèle d'observation traditionnelle par modèle Markov caché avec la régression logistique, ce qui nous permet de définir un modèle d'observation enfonction non seulement de l'état HMM, mais aussi sur des événements externes telsque les campagnes de publicité. Nous utilisons une grande quantité de données utilisateur en ligne provenant d'un partenaire industriel. Notre modèle est ajusté pourprédire si l'utilisateur fera un achat dans un intervalle de temps spécifié ou non
60

Embedded thin shells for wrinkle simulation

Rémillard, Olivier January 2013 (has links)
We present a new technique for simulating high resolution surface wrinkling deformations of composite objects consisting of a soft interior and a harder skin. We combine high resolution thin shells with coarse finite element lattices and define frequency based constraints that allow the formation of wrinkles with properties matching those predicted by the physical parameters of the composite object. Our two-way coupled model produces the expected wrinkling behavior without the computational expense of a large number of volumetric elements to model deformations under the surface. We use C1 quadratic shape functions for the interior deformations, allowing very coarse resolutions to model the overall global deformation efficiently, while avoiding visual artifacts of wrinkling at discretization boundaries. We demonstrate that our model produces wrinkle wavelengths that match both theoretical predictions and high resolution volumetric simulations. We also show example applications in simulating wrinkles on passive objects, such as furniture, and for wrinkles on faces in character animation. / Nous presentons une nouvelle technique pour la simulation des deformation de haute resolution du plissement en surface d'objets composites constitues d'un interieur mou et d'une peau plus rigide. Nous combinons des plaques minces haute resolution avec une structure d'elements nis plus approximative, et denissons les contraintes d'accouplement qui permettent la formation de rides qui possedent des proprietes correspondant celles predites par les parametres physiques de l'objet composite. Le couplage de ces deux modeles permet notre procede de produire le comportement attendu sans la charge de calcul d'un grand nombre d'elements volumiques du aux deformations sous la surface du modele. Nous utilisons des fonctions de forme quadratiques B-splines pour les deformations interieures, ce qui permet des resolutions tres grossieres pour modeliser les deformations globales ecacement, tout en evitant les artefacts visuels de ridules au niveau des limites de discretisation. Nous demontrons que ce modele produit des longueurs d'onde de rides qui correspondent aux predictions theoriques et aux simulations volumetriques de haute resolution. Nous presentons aussi des exemples d'applications en simulant le plissement d'objets passifs, tels que des meubles, et aussi de la formation de rides sur le visage de personnages en animation.

Page generated in 0.0711 seconds