• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 876
  • 321
  • 321
  • 321
  • 321
  • 321
  • 320
  • 284
  • 32
  • 6
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1715
  • 1715
  • 1116
  • 1110
  • 664
  • 664
  • 664
  • 406
  • 398
  • 372
  • 253
  • 253
  • 214
  • 200
  • 196
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Data confidentiality and keyword search in the cloud using visual cryptography

Maheshwari, Varun January 2012 (has links)
Security has emerged as the most feared aspect of cloud computing and a major hindrance for the customers. Current cloud framework does not allow encrypted data to be stored due to the absence of efficient searchable encryption schemes that allow query execution on a cloud database. Storing unencrypted data exposes the data not only to an external attacker but also to the cloud provider itself. Thus, trusting a provider with confidential data is highly risky. To enable querying on a cloud database without compromising data confidentiality, we propose to use data obfuscation through visual cryptography. A new scheme for visual cryptography is developed and configured for the cloud for storing and retrieving textual data. Testing the system with query execution on a cloud database indicates full accuracy in record retrievals with negligible false positives. In addition, the system is resilient to attacks from within and outside the cloud. Since standard encryption and key management are avoided, our approach is computationally efficient and data confidentiality is maintained. / La sécurité a émergé comme l'aspect le plus redouté de l'informatique en nuage et comme un obstacle majeur pour les clients. Le cadre actuel de l'informatique en nuage ne permet pas que les données chiffrées soient stockées en raison de l'absence de schémas efficaces de cryptage qui permettent l'exécution des requêtes sur une base de données des nuages. Le stockage des données non cryptées expose les données non seulement à un agresseur extérieur, mais aussi au fournisseur de nuage lui-même. Ainsi, faire confiance à un fournisseur avec des données confidentielles est très risqué.Afin de permettre des requêtes sur une base de données des nuages sans compromettre la confidentialité des données, nous proposons d'utiliser l'obscurcissement des données à travers la cryptographie visuelle. Un nouveau schéma pour la cryptographie visuelle est développé et configuré pour le nuage pour stocker et récupérer des données textuelles. Tester le système avec l'exécution des requêtes sur une base de données nuée indique une grande précision dans la récupération des enregistrements avec négligeables faux positifs. En outre, le système est résistant aux attaques de l'intérieur et l'extérieur du nuage. Parce que le cryptage standard et la gestion des clés sont évités, notre approche est mathématiquement efficace et la confidentialité des données est assurée.
152

Automated application profiling and cache-aware load distribution in multi-tier architectures

Maredia, Rizwan January 2012 (has links)
Current business applications use a multi-tier architecture where business processing is done in a cluster of application servers, all querying a single shared database server making it a performance bottleneck. A prevalent solution to reduce the load on the database is to cache database results in the application servers as business entities. Since each of the in-memory application cache is small and independent of each other, a naïve load balancing algorithm like round-robin would result in cache redundancy and lead to cache evictions. By clustering these caches, we get a distributed cache with a larger aggregate capacity, where an object is retrieved from the remote cache if it is not found in local cache. This approach eliminates redundancy and reduces load on the database by a great extent. However, accessing remote objects incurs network latency affecting response time. In this thesis, we transform the distributed cache into a hybrid one that supports replication so that popular requests could be served locally by multiple application servers. We take advantage of this hybrid cache by developing a holistic caching infrastructure. This infrastructure is comprised of an application monitoring tool and an analysis framework that work continuously alongside live application to generate content-aware request distribution and caching policies. The policies are generated by request-centric strategies that aim to localize popular requests to specific servers in order to reduce remote calls. These strategies are flexible and can be adapted easily for various workloads and application needs. Experimental results show that we indeed derive substantial gain in performance using our infrastructure. Our strategies resulted in faster response time under normal workload and scaled much better with higher throughput than existing approaches under peak workload. / Les applications commerciales courantes utilisent une architecture multi-tiers où le traitement logique est effectué en un groupe de serveurs qui accèdent à une seule base de données partagée, ce qui la rend un point d'encombrement. Une solution répandue qui réduit la charge sur la base de données est la sauvegarde des résultats de requetes à la base de données au niveau des serveurs d'applications comme des entitiés logiques. Tandis que chaque cache local de chaque serveur est limité et est indépendant des autres, un algorithme naïve de balancement de la charge, comme round-robin, résultera en des duplications de copies dans les différents caches et mènera à des explusions de ceux-ci. En regroupant ces caches, nous formons un seul cache distribué avec une large capacité, où un objet est extrait à partir d'un cache distant s'il n'est pas trouvé localement. Cet approche élimine la redondance et réduit considérablement la charge sur la base de données. Cependant, accéder à des objets distants encours une latence au niveau du réseau ce qui affecte les temps de réponses.Dans cette thèse, nous transformons le cache distribué en un cache hybride qui supporte la duplication ce qui permet de servir les requêttes les plus populaires localement par plusieurs serveurs d'applications. Nous prenons avantage de cette structure hybride du cache en developpant une infrastructure holistique du cache. Cette infrastrcuture comprend un outil de surveillance et une infrastructure d'analyse qui fonctionne d'une façon continue et parallèle avec l'application afin de générer un contenu qui prend en considération la distribution de requêtes et les politiques du cache. Les politiques sont générées par des stratégies orientées requêtes qui visent à localizer les requêtes populaires à des serveurs spécifiques et ce pour réduire les appels distants. Ces stratégies sont flexibles et peuvent être ajustées facilement pour different charges de travail et besoins d'applications. Des résultats expérimentaux montrent qu'effectivement nous dérivons un gain substantial en utilisant notre infrastructure. Nos stratégies ont resulté en des temps de réponses rapides sous une charge de travail normale et donnent des bons résultats lors d'un débit élevé comparativemnt à d'autres approches sous des charges de travail de pointe.
153

Software method level speculation for Java

Pickett, Christopher January 2012 (has links)
Speculative multithreading (SpMT), also known as thread level speculation (TLS), is a dynamic parallelization technique that relies on out-of-order execution, dependence buffering, and misspeculation rollback to achieve speedup of sequential programs on multiprocessors. A large number of hardware studies have shown good results for irregular programs, as have a smaller number of software studies in the context of loop level speculation for unmanaged languages.In this thesis we explore software method level speculation for Java. A software environment means that speculation will run on existing multiprocessors, at the cost of extra overhead. Method level speculation (MLS) is a kind of SpMT / TLS that creates threads on method invocation, executing the continuation speculatively. Although MLS can subsume loop level speculation, it is still a relatively unexplored paradigm. The Java programming language and virtual machine environment are rich and complex, posing many implementation challenges, but also supporting a compelling variety of object-oriented programs.We first describe the design and implementation of a prototype system in a Java bytecode interpreter. This includes support for various MLS components, such as return value prediction and dependence buffering, as well as various interactions with features of the Java virtual machine, for example bytecode interpretation, exception handling, and the Java memory model. Experimentally we found that although high thread overheads preclude speedup, we could extract significant parallelism if overheads were excluded. Furthermore, profiling revealed three key areas for optimization.The first key area for optimization was the return value prediction system. In our initial model, a variety of predictors were all executing naïvely on every method invocation, in order that a hybrid predictor might select the best performing ones. We developed an adaptive system wherein hybrid predictors dynamically specialize on a per-callsite basis, thus dramatically reducing speed and memory costs whilst maintaining high accuracy.The second area for optimization was the nesting model. Our initial system only allowed for out-of-order nesting, wherein a single parent thread creates multiple child threads. Enabling support for in-order nesting exposes significantly more parallelization opportunities, because now speculative child threads can create their own children that are even more speculative. This required developing a memory manager for child threads based on recycling aggregate data structures. We present an operational semantics for our nesting model derived from our implementation.Finally, we use this semantics to address the third area for optimization, namely a need for better fork heuristics. Initial heuristics based on online profiling made it difficult to identify the best places to create threads due to complex feedback interactions between speculation decisions at independent speculation points. This problem grew exponentially worse with the support for in-order nesting. Instead, we chose to clarify the effect of program structure on runtime parallelism. We did this by systematically exploring the interaction between speculation and a variety of coding idioms. The patterns we identify are intended to guide both manual parallelization and static compilation efforts. / L'exécution spéculative multifils (SpMT), aussi connue sous le nom de spéculation au niveau des fils d'exécution (TLS), est une technique de parallélisation dynamique qui se base sur l'exécution dans le désordre, la mise en mémoire tampon des dépendances spéculatives, et le refoulement des erreurs de spéculation pour atteindre l'accélération des programmes séquentiels sur les multiprocesseurs. D'extensives études architecturales ont révélé de bons résultats dans le cas des programmes irréguliers, tout comme plusieurs études logiciel dans la spéculation au niveau des boucles dans un langage non géré. Dans ce mémoire, nous explorons la spéculation logiciel au niveau des méthodes pour Java. Un environnement logiciel signifie que la spéculation s'exécute sur les multiprocesseurs existants, au coût de charge additionnelle. La spéculation au niveau des méthodes (MLS) est une sorte de SpMT / TLS où des fils d'exécution sont créés à chaque invocation de méthode, exécutant les instructions qui suivent de manière spéculative. Malgré la possibilité de subsomption de la spéculation au niveau des boucles par la spéculation au niveau des méthodes, ce paradigme est relativement peu exploré. Le langage de programmation Java, ainsi que l'environnement de sa machine virtuelle, sont riches et complexes, ce qui pose plusieurs difficultés à l'implémentation, mais qui a l'avantage de supporter une grande variété de programmes orientés objet. Nous décrivons d'abord la conception et l'implémentation d'un système prototype dans un interpréteur de code-octet Java. Cette implémentation supporte une variété de composantes de la spéculation au niveau des méthodes, telles la prédiction des valeurs de retour, la mise en mémoire tampon des dépendances spéculatives, ainsi qu'une variété d'interactions avec des caractéristiques de la machine virtuelle Java (JVM), par exemple, l'interprétation du code-octet, le gestion des exceptions et le modèle de la mémoire de Java. Des expériences nous ont permis de constater d'encourageants résultats quant à la parallélisation des programmes, malgré une charge additionnelle importante dû à l'embranchement des fils d'exécution, ce qui empêche d'obtenir une accélération significative. De plus, le profilage effectué a révélé trois secteurs d'optimisation importants. La première optimisation étudié est la prédiction des valeurs de retour. Notre modèle initial utilisait plusieurs outils de prédiction différents pour chaque invocation de méthode, afin qu'un outil de prédiction hybride puisse choisir les plus performants. Nous avons développé un système adaptatif où les outils de prédiction hybrides se spécialisent dynamiquement pour chaque site d'invocation, réduisant drastiquement la charge mémoire additionnelle et les ralentissements tout en préservant un haut degré de précision. Le deuxième secteur d'optimisation étudié est celui des modèles d'emboîtement. Notre modèle initial permettait seulement l'emboîtement dans le désordre, où un seul fil d'exécution peut en créer plusieurs fils d'exécution spéculatifs. L'introduction du support de l'emboîtement en ordre expose un nombre conséquent d'opportunités de parallélisation, parce qu'un fil d'exécution spéculatif peut maintenant en créer un autre, encore plus spéculatif. Pour ce faire, nous avons développé un gestionnaire de mémoire pour les fils d'exécution spéculatifs basé sur le recyclage des structures de donnée agrégés. Nous présentons une sémantique des opérations de notre modèle d'emboîtement dérivée de notre implémentation. Finalement, nous utilisons cette sémantique des opérations pour optimiser nos heuristiques d'embranchement. Nous avons choisi de clarifier l'effet de la structure des programmes sur son parallélisme. Pour ce faire, nous avons exploré systématiquement l'interaction de la spéculation avec une variété d'idiomes de programmation. Les patrons identifiés sont utiles pour guider les efforts de parallélisation manuelle ainsi que de compilation statique.
154

A proximity determinable social pseudonym framework in online identity management system

Tang, Fugui January 2012 (has links)
Online identities play critical roles in the current Internet world. One of the virtues of traditional online identities, in forms of pseudonyms, is the privacy protection of online users. Users can create as many anonymous identities as they want with only an email account. However, the anonymity itself could be a limitation because of the lack of accountability.The prevalence of online social networks inspires us to create a social pseudonym framework through which it is possible to determine proximity between pseudonyms while retaining privacy. The basic idea of this work is mapping the online social network into a geometric space and assigning each user a coordinate according to the relationship with his/her neighborhood. The coordinate itself will not disclose any information of a user, but by computing the coordinates distance, proximity between users could be estimated with a certain probability. I evaluated the framework with several real online social network datasets. The results indicate that the proposed framework is promising under certain conditions. / Dans le contexte d'Internet, les identifiants des usagers jouent un rôle critique. L'un des avantages des identifiants traditionnels, soient les pseudonymes, est de fournir une protection de la vie privée des usagers. Les usagers peuvent créer autant d'identifiants anonymes qu'ils le désirent simplement en utilisant une adresse courriel. Par contre, l'anonymité même peut devenir un facteur limitant dû à la déresponsabilisation des usagers. L'importance des réseaux sociaux en ligne nous inspire à créer un système de pseudonymes sociaux à travers lequel il sera possible de déterminer la proximité entre pseudonymes tout en conservant la confidentialité. Le système se base sur l'idée d'associer un réseau social à un espace géométrique et d'assigner des coordonnées à chaque usager qui dépendent de la relation entre l'usager et son voisinage. Les coordonnées elles-même ne fournissent aucune information confidentielle à propos d'un usager. Cependant, en calculant la distance entre différentes coordonnées, la proximité entre usagers peut être estimée avec une certaine probabilité. J'ai évalué le système avec des données provenant de réseaux sociaux réels. Les résultats indiquent que le système proposé, en imposant certaines conditions, est prometteur.
155

Analysis and recommendations for developer learning resources

Dagenais, Barthélémy January 2012 (has links)
Developer documentation helps developers learn frameworks and libraries, yet developing and maintaining accurate documentation require considerable effort and resources. Contributors who work on developer documentation need to at least take into account the project's code and the support needs of users. Although related, the documentation, the code, and the support needs evolve and are not always synchronized: for example, new features in the code are not always documented and questions repeatedly asked by users on support channels such as mailing lists may not be addressed by the documentation. Our thesis is that by studying how the relationships between documentation, code, and users' support needs are created and maintained, we can identify documentation improvements and automatically recommend some of these improvements to contributors. In this dissertation, we (1) studied the perspective of documentation contributors by interviewing open source contributors and users, (2) developed a technique that automatically generates the model of documentation, code, and users' support needs, (3) devised a technique that recovers fine-grained traceability links between the learning resources and the code, (4) investigated strategies to infer high-level documentation structures based on the traceability links, and (5) devised a recommendation system that uses the traceability links and the high-level documentation structures to suggest adaptive changes to the documentation when the underlying code evolves. / La documentation pour les développeurs aide ces derniers à apprendre à utiliser des bibliothèques de fonctions et des cadres d'applications. Pourtant, créer et maintenir cette documentation requiert des efforts et des ressources considérables. Les contributeurs qui travaillent sur la documentation pour les développeurs doivent tenir compte de l'évolution du code et des besoins potentiels des utilisateurs de la documentation. Même s'ils sont reliés, la documentation, le code et les besoins des utilisateurs ne sont pas toujours synchronisés: par exemple, les nouvelles fonctionnalités ajoutées au code ne sont pas toujours documentées et la documentation n'apporte pas nécessairement de réponse aux questions posées à répétition sur des forums de discussion. Notre thèse est qu'en étudiant comment les relations entre la documentation, le code, et les besoins des utilisateurs sont crées et maintenues, nous pouvons identifier des possibilités d'améliorations à la documentation et automatiquement recommander certaines de ces améliorations aux contributeurs de documentation. Dans cette dissertation, nous avons (1) étudié la perspective des contributeurs de documentation en interviewant des contributeurs de projets en code source libre, (2) développé une technique qui génère automatique un modèle de la documentation, du code, et des questions des utilisateurs, (3) développé une technique qui recouvre les liens de traçabilité entre les ressources d'apprentissage et le code, (4) examiné des stratégies pour inférer des structures abstraites de documentation à partir des liens de traçabilité et (5) développé un système de recommandation qui utilise les liens de traçabilités et les structures abstraites de documentation pour suggérer des changements adaptatifs quand le code sous-jacent évolue.
156

Static pose reconstruction with an instrumented bouldering wall

Aladdin, Rami January 2012 (has links)
As the level of realism required by modern video games and movies increases, so does the need for natural-looking simulations. Reproducing the physical behaviour of humans has been one of the pillars of modern research in the field of computer animation. This is a challenging problem because it is difficult to describe what constitutes a natural pose or motion. This problem can be addressed through optimizations that build on assumptions and approximations about properties such as energy, head orientation, or centre of mass position. Alternatively, instead of attempting to create realistic models for humans, motion capture can be used to record (and replay) the pose and motion of human subjects. Most existing approaches rely on some form of combination of physics-based optimization and motion capture. Additionally, some approaches augment and/or attempt to replace motion capture data with contact force measurements. The contributions of this thesis impact many of the above. First, we introduce a setup and a calibration technique for synchronously recording the pose as well as the contact forces in the special case of climbing. Our setup consists of an instrumented bouldering wall that records contact forces and an array of motion capture cameras that record posture. Our calibration technique uses an iterative and alternating least-squares optimization to reconcile force measurements and captured poses in a single space and time frame. Second, we study the relationship between captured motion and forces in an effort to fully describe poses from contact forces. Eliminating the need for motion capture is especially desirable in the context of climbing because of occlusions. To estimate static poses from forces, we use a physics-based optimization. The optimal solution for our objective function is the pose with the highest physical plausibility given the forces and additional constraints such as climber anatomy and hold positions. To eliminate local minima and speed up our optimization, a simpler "hint objective" is used to guide our solver toward a promising region. Comparison between poses reconstructed from forces and the corresponding poses obtained via motion capture shows that our objective function is a good model for human posture. / Le réalisme toujours plus accru des films et des jeux vidéo modernes nécessite des simulations paraissant de plus en plus naturelles. La reproduction des comportements physiques d'êtres humains est l'un des piliers de la recherche moderne dans le domaine de l'animation. C'est un problème complexe parce qu'il est difficile de décrire en quoi consiste une pose ou un mouvement naturel. Pour adresser ce problème, il est possible d'utiliser des optimisations portant sur des hypothèses et approximations de propriétés telles que l'énergie du système, l'orientation de la tête, ou la position du centre de masse. Plutôt que de tenter de modéliser des êtres humains de manière réaliste, la capture de mouvement peut être utilisée pour enregistrer (et rejouer) la pose ou le mouvement de sujets capturés. La plupart des approches existantes proposent une certaine combinaison d'optimisation basée sur la physique et de capture de mouvement. Certaines approches complémentent et/ou tentent de remplacer la capture de mouvement via des mesures de force de contact. Les contributions de cette thèse sont pertinentes pour bon nombre de ces approches. En premier lieu, nous introduisons un système et une technique de calibration pour mesurer de manière synchrone des poses et des forces de contact dans le cas particulier de l'escalade. Notre système est constitué d'un mur d'escalade équipé de capteurs qui mesurent les forces de contact, ainsi que d'un ensemble de caméras qui enregistrent la pose du grimpeur via capture de mouvement. Pour notre technique de calibration, nous utilisons une optimisation des moindres carrés qui agit de manière itérative et alternante pour exprimer les forces et les poses capturées dans un même repère spatio-temporel. En second lieu, nous étudions la relation entre le mouvement et les forces capturées dans le but d'exprimer des poses exclusivement en terme des forces de contact mesurées par les capteurs. Éliminer ainsi la capture de mouvement est particulièrement avantageux dans le contexte de l'escalade en raison des occlusions. Nous utilisons une optimisation basée sur la physique afin d'estimer des poses statiques à partir de forces de contact. La solution optimale pour notre fonction objectif est la pose la plus plausible pour les forces de contact et autres contraintes physiques prises en compte, telles que l'anatomie du grimpeur et l'emplacement des prises. Pour éliminer les minima locaux et pour accélérer l'optimisation, nous utilisons une fonction objectif simple qui guide notre résolveur vers une région prometteuse. En comparant des poses reconstruites à partir des forces de contact avec des poses mesurées via capture de mouvement, nous montrons que notre fonction objectif permet de modéliser de manière adéquate le choix de posture d'êtres humains.
157

Java bytecode obfuscation

Batchelder, Michael Robert January 2007 (has links)
Programs written for machine execution will always be susceptible to information theft. This information can include trademarked algorithms, data embedded in the program, or even data the program accesses. As technology advances computer scientists are building more and more powerful tools for reverse-engineering such as decompilers.The Java programming language is particularly open to reverse-engineering attacks because of its well-defined, open, and portable binary format. We examine one area of better-securing the intellectual property of a Java program; obfuscation. Obfuscation of a program involves transforming the code of the program into a more complex, but semantically equivalent representation. This can include the addition of confusing control flow, the removal of certain information embedded in the program which is not explicitly required for execution, or the cloaking of data.Obfuscation is one of the only techniques available other than cryptological options. While many approaches to obfuscation are ultimately reversible, it nevertheless seriously hinders those attempting to steal information by increasing the computing time and power required by software to reverse-engineer the program and also severely increases the complexity of any source code that is recovered by the reverse-engineering.In this thesis we present a number of obfuscating transformations implemented within a new automatic tool we name the Java Bytecode Obfuscator (JBCO). We present empirical measures of the performance costs of these transformations in terms of execution speed and program size. Complexity measurements that gauge the effectiveness of the obfuscations are also given. Finally, we review the feasibility of each transformation by looking at source code generated from obfuscated bytecode by various decompilers. / Les programmes écrits pour l'exécution d'ordinateur seront toujours susceptibles au vol d'information. Cette information peut inclure des algorithmes de marque de commerce, des données incluses dans le programme, ou même des données concernant les accès de programme. Suivant les avancées technologiques, les informaticiens construisent des outils de plus en plus puissants pour l'ingénierie inverse telle que le décompilateur. Le langage de programmation de Java est particulièrement ouvert aux attaques de l'ingénierie inverse en raison de son format binaire bien défini, ouvert, et portatif. Nous recherches portent sur un domaine permettant de mieux sécuriser fixer la propriété intellectuelle des programmes en Java; obscurcissement. L'obscurcissement d'un programme implique de transformer le code du programme en une représentation plus complexe mais sémantiquement équivalente. Ceci peut inclure l'addition de l'écoulement embrouillant de commande, de la supression de certaines informations incluses dans les programmes dont l'exécution n'est pas spécifiquement exigée, ou de la dissimulation des données. Excepté les techniques cryptologique s, l'obscurcissement est l'une des seules techniques disponibles. Même si beaucoup de stratégies de l'obscurissment sont finalement réversibles, il gêne sérieusement ceux qui essayent de voler l'information en augmentant la durée de calcul et la puissance exigées par les logicels d'ingénierie inverse et augmente considérablement la complexité de n'importe quel code source récupere par cette technique. Dans cette thèse nous présentons un certain nombre de transformations d'obscurcissement mises en application dans un outil automatique que nous appelons le Java Bytecode Obfuscator (JBCO). Nous présentons des mesures empiriques des coûts d'exécution de ces transformations en termes de vitesse d'exécution et taille de programme. Des mesures de complexité qui mesurent l'efficacité des obscurc
158

Learning prediction and abstraction in partially observable models

Gendron-Bellemare, Marc January 2007 (has links)
Markov models have been a keystone in Artificial Intelligence for many decades. However, they remain unsatisfactory when the environment modeled is partially observable. There are pathological examples where no history of fixed length is sufficient for accurate deci- sion making. On the other hand, working with a hidden state (such as in POMDPs) has a high computational cost. In order to circumvent this problem, I suggest the use of a context- based model. My approach replaces strict transition probabilities by a linear approximation of probability distributions. The method proposed provides a trade-off between a fully and partially observable model. I also discuss improving the approximation by constructing history-based features. Simple examples are given in order to show that the linear approx- imation can behave like certain Markov models. Empirical results on feature construction are also given to illustrate the power of the approach. / Depuis plusieurs déecennies, les modèeles de Markov forment l'une des bases de l'Intelligence Artificielle. Lorsque l'environnement modélisé n'est que partiellement observable, cepen- dant, ceux-ci demeurent insatisfaisants. Il est connu que la prise de décision optimale dans certains problèmes exige un historique infini. D'un autre côté, faire appel au con- cept d'état caché (tel qu'à travers l'utilisation de POMDPs) implique un coût computa- tionnel plus élevé. Afin de pallier à ce problème, je propose un modèle se servant une représentation concise de l'historique. Plutôt que de stocker un modèle parfait des prob- abilitités de transition, mon approche emploie d'une approximation linéaire des distribu- tions de probabilités. La méthode proposée est un compromis entre les modèles partielle- ment et complètement observables. Je traite aussi de la construction d'éléments en lien avec l'historique afin d'améliorer l'approximation linéaire. Des exemples restreints sont présentés afin de montrer qu'une approximation linéaire de certains modèles de Markov peut être atteinte. Des résultats empiriques au niveau de la construction d'éléments sont aussi présentés afin d'illustrer les bénéfices de mon approche.
159

Implementation of an information retrieval system for stock option analysis

Lu, Xiaofan January 2003 (has links)
Stock option trading has been very active since options were invented. Option analysis is very useful in helping investors decide investing strategies and predict the trend of the future stock movements. In this thesis, basic theory about stock option trading and some important approaches of option analysis such as option volume, open interest, put/call ratios and breakeven stock prices are discussed. A system called Stock Option Analyzer that can perform the option analysis based on these approaches is described in detail. The Stock Option Analyzer is able to automatically retrieve option quotes on any specified stock from the website Yahoo!Finance and present analysis results in the user's web browser. This analysis information is very useful for us to understand investors' opinions about the underlying stocks. The system is developed using JSP technology, utilizing JavaBeans, Java applets, and the help of the web server to generate web page contents dynamically.
160

Modelling and simulation of dynamic-structure discrete-event systems

Posse, Ernesto January 2008 (has links)
Discrete-event modelling and simulation has become an established approach to the description and study of complex dynamic systems. In recent years there has been an increased interest in modelling complex dynamic-structure systems, i.e., systems whose structure changes over time. Such systems are generally more difficult to understand and analyze than systems with a static structure. These challenges can be met by the development of appropriate modelling formalisms based on a solid foundation and with suitable supporting tools. In this thesis we explore an approach to modelling and simulation of dynamic-structure discrete-event systems based on process algebra. The thesis consists of two parts. We begin by exploring, in the first part, a formalism for static-structure discrete-event modelling and simulation called the Discrete-EVent System Specification formalism (DEVS [Zeigler 76, 2000].) We develop an alternative theoretical foundation for DEVS based on Structural Operational Semantics, focusing on determinism and compositionality properties. In the second part we develop a modelling language for dynamic-structure discrete-event systems named kiltera, based on process algebras and incorporating elements from discrete-event modelling. This language, based on the \pi-calculus [Milner 89], allows us to describe and reason about timed, mobile and distributed discrete-event systems in a single framework. We develop a theoretical foundation based on Structural Operational Semantics and establish fundamental properties concerning time-determinism, continuity, compositionality and legitimacy. We build a simulator for the language which supports both sequential and distributed execution of models, based on a variant of the Time Warp algorithm [Jefferson 85]. Finally we apply this language to the modelling and simulation of traffic. / La modélisation et la simulation à événements discrets constituent une approche bien établie pour la description et l'étude des systèmes dynamiques complexes. Ces dernières années, il y a eu un regain d'intérêt pour la modélisation des systèmes complexes à structure dynamique. Ces systèmes sont généralement plus difficiles à comprendre et à analyser que les systèmes ayant une structure statique. Cette analyse et cette compréhension peuvent être développées à l'aide de formalismes de modélisation fondés sur une base solide et des outils appropriés. Dans cette thèse, nous explorons une approche de modélisation et de simulation des systèmes à événements discrets fondée sur l'algèbre de processus. Ce document se compose de deux parties. Dans la première partie, nous étudions ce que l'on appelle le formalisme Discrete-EVent System Specifications (DEVS.) Nous développons un autre fondement théorique pour DEVS fondée sur la sémantique opérationnelle structurelle, en mettant l'accent sur les propriétés de déterminisme et de compositionalité. Dans la deuxième partie, nous développons un langage de modélisation pour systèmes à structure dynamique nommé kiltera, en nous fondant sur les algèbres de processus et en incorporant des éléments de modélisation à événements discrets. Ce langage, en se fondant sur le \pi-calcul, nous permet de décrire et de raisonner sur les systèmes mobiles, distribués et au temps-réel, à événements discrets, dans un cadre conceptuel unique. Nous développons une base théorique fondée sur la sémantique opérationnelle structurelle et nous établissons des propriétés fondamentales concernant le déterminisme-temps, la continuité, la compositionalité et la légitimité. Nous construisons un simulateur pour le langage qui supporte à la fois l'exécution séquentielle et distribuée de modèles, en utilisant une variante de l'algorithme Time Warp. Enfin, nous appliquons ce la

Page generated in 0.0755 seconds