• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 506
  • 264
  • 264
  • 264
  • 264
  • 264
  • 263
  • 209
  • 15
  • 1
  • Tagged with
  • 1053
  • 1053
  • 1053
  • 1053
  • 398
  • 398
  • 398
  • 398
  • 398
  • 206
  • 173
  • 173
  • 172
  • 62
  • 60
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

A mobile device based identity validation system for online social networks

Shi, Yiwei January 2012 (has links)
Currently, online social networks (OSNs) do not provide validation mechanisms to verify the identity of a user who is seeking linkage with another user. This shortfall is exploited by attackers to infiltrate other people's social circles to gain access to personal data. Therefore, building an identity validation system is necessary for protecting the user interest as well as enhancing the user experience.In this thesis I present an identity validation system---CredFinder for OSNs using commodity mobile devices. Three validation protocols are designed under different scenarios people may encounter. Targeted on Facebook, we propose an Android based prototypical implementation including three subsystems, the mobile device application, the validation server and the OSN application server. The implementation results demonstrate that CredFinder is capable of performing identity validation. To the best of our knowledge, CredFinder is the first mobile device based practical system against social network identity theft attacks. The validation strategy in our system gives users the power to connect their online and offline social networks together. / Actuellement, l'expérience utilisateur des réseaux sociaux en ligne (Online Social Networks) est difficile lorsqu'un utilisateur a à valider des identités d'autres pour se connecter. Compte tenu des attaques rampantes de vol d'identité sur OSN, il est parfois difficile de distinguer si la personne à connecter sur OSN est celle qui l'utilisateur connaît-il dans la vie réelle. Pour cette raison, la construction d'un système de validation d'identité est nécessaire pour protéger l'intérêt des utilisateurs ainsi que pour améliorer de l'expérience utilisateur.Dans cette thèse, nous présentons un système de validation d'identité - CredFinder pour OSN développé en plate-forme des dispositifs mobiles. Trois protocoles de validation sont conçus pour faire face à différents scénarios que d'utilisateurs peuvent-ils rencontrer. Concernant ​​Facebook, nous proposons une implémentation basée sur Android prototype composée par trois sous-systèmes: application de dispositif mobile, serveur de validation et serveur d'application OSN. Les résultats et les analyses de l'implémentation démontrent que CredFinder est à la fois efficace et efficiente pour accomplir la validation d'identité. Au meilleur de nos connaissances, CredFinder est le premier système réel basé sur appareil mobile contre les attaques de vol l'identité sur OSN. La stratégie de validation dans notre système donne aux utilisateurs ordinaires le pouvoir de connecter sur leurs réseaux sociaux en ligne et hors ligne.
122

Editing and constraining kinematic approximations of dynamic motion

Rahgoshay, Cyril January 2012 (has links)
This thesis presents inverse kinodynamics (IKD), an animator friendly kinematicworkflow that both encapsulates short-lived dynamics and allows precise space-timeconstraints. Kinodynamics (KD), defines the system state at any given time asthe result of a kinematic state in the recent past, physically simulated over a shorttemporal window to the present. KD is a well suited kinematic approximation to animatedcharacters and other dynamic systems with dominant kinematic motion andshort-lived dynamics. Given a dynamic system, we first formulate an appropriatekinodynamic window size based on kinematically defined accelerations in the kinematictrajectory and physical properties of the system. We then present an inversekinodynamics (IKD) algorithm, where a kinodynamic system can precisely attain aset of animator constraints at specified times. Our approach solves the IKD problemiteratively, and is able to handle full pose or end effector constraints at both positionand velocity level, as well as multiple constraints in close temporal proximity.Our approach can also be used to solve position and velocity constraints on passivesystems attached to kinematically driven bodies. We show IKD to be a compellingapproach to the direct kinematic control of character, with secondary dynamics viaexamples of skeletal dynamics and facial animation. / Cette thèse présente kinodynamique inversé (IKD) qui est un procédé kinematiquetrès pratique utilisable pour l'animateur qui consiste à la fois d'une dynamiquede courte durée et qui permet des contraintes spatio-temporelles précises. Kinodynamique (KD) définit l'état du système à un moment donné comme le résultat d'un état kinematique dans un passé récent, physiquement simulé dans une fenêtre temporelle de courte durée du temps présent. KD est une approximation kinematiquebien adaptée aux caractères animés et à d'autres systèmes dynamiques avec unmouvement kinematique dominant et une dynamique de courte durée. En ayant unsystème dynamique on peut d'abord formuler une taille de fenêtre kinodynamiqueappropriée, basée sur des accélérations définies kinematiquement dans la trajectoirekinematique et sur les propriétés physiques du système. Nous présentons ensuiteun algorithme kinodynamique inversé (IKD) dans lequel un système kinodynamiquepeut satisfaire un ensemble de contraintes des animateurs à des moments précis.Notre approche résout le problème IKD de manière itérative et permet de gérer unepose complète ou des contraintes des points fixés sur le corps à la fois au niveaude la position et de la vitesse ainsi que de multiples contraintes dans une courteproximité temporelle. Notre approche peut également être utilisée pour résoudredes contraintes de position et de vitesse dans des systèmes passifs attachés à descorps kinematiquement entrainés. Nous démontrons qu'IKD peut être une approcheconvaincante pour le contrôle kinematique direct des caractères avec des dynamiquessecondaires par des exemples de dynamiques du squelette et d'animation faciale.
123

Transcription factor binding site turnover in mammals

Reid, Ian Duncan January 2007 (has links)
Transcription factor binding sites (TFBS) are usually, but not always, conserved during evolution. To better understand TFBS evolution I examined the cases of non-conservation for 1120 known human and mouse TFBS in the genomes of 11 mammals and the reconstructed genomes of their ancestors. Novel TFBS appeared frequently, even near conserved ancestral sites, but site gain was significantly more probable when an ancestral site was lost (TFBS turnover). 165 human TFBS and 113 mouse TFBS have evolved de novo since divergence from the boreoeutherian ancestor and are absent in other lineages. Putative TFBS and sequences that differ from TFBS by one substitution are more abundant near known TFBS than expected by chance. Apparent enrichment and clustering of weak TFBS result from local variations in CG frequency. / Les sites de fixation des facteurs de transcription (TFBS) sont souvent, mais pas toujours, conservés pendant l'évolution. Afin de mieux comprendre leur évolution, j'ai examiné les cas de non-conservation de 1120 TFBS connus chez l'homme et la souris dans les génomes d'onze mammifères et les génomes reconstruits de leurs ancêtres. De nouveaux TFBS se sont développés fréquemment, même près des sites ancestraux conservés, mais le gain d'un site était significativement plus probable quand un site ancestral avait disparu. 165 TFBS de l'homme et 113 TFBS de la souris ont évolué de novo depuis leur divergence de l'ancêtre boreoeuthérien et sont absents des autres lignées. Les TFBS putatifs et les séquences qui diffèrent des TFBS par une substitution sont plus abondants qu'attendu par hasard auprès des TFBS connus. L'enrichissement et rassemblement apparents des TFBS faibles sont des résultats des variations locales dans l'abondance de C et G.
124

XTW, a parallel and distributed logic simulator

Xu, Qing January 2003 (has links)
In this thesis, a new parallel synchronization mechanism, XTW, is proposed. XTW is designed for the parallel simulation of large logic circuits on a cluster of computer workstations. In XTW, a new event queue structure, XEQ, is created in order to reduce the cost of event-scheduling; a new message "un-sending" mechanism, "rb-messages", is proposed to reduce the cost of un-sending" previously sent messages. Both theoretical analysis and actual simulations provide evidence that XTW speeds up parallel logic simulations and provides excellent scalability versus the number of processors and the circuit size. An object-oriented parallel logic simulation software framework, XTWFM, is built upon the base of the XTW mechanism. A milliongates circuit, which can not be simulated by our sequential simulator, is successfully simulated by XTWFM over a cluster of 6 "small" PCs. This success demonstrates that a cluster of PCs is an attractive low-cost alternative for large scale circuit simulation.
125

Static lock allocation

Halpert, Richard January 2008 (has links)
The allocation of lock objects to critical sections in concurrent programs affects both performance and correctness. Traditionally, this allocation is done manually by the programmer. Recent work explores automatic lock allocation, aiming primarily to minimize conflicts and maximize parallelism by allocating locks to individual critical sections. We investigate several modes of lock allocation, using connected components (groups) of interfering critical sections on a critical section interference graph as the basis for allocation decisions. Our allocator uses thread-based side effect analysis which is built from several pluggable component analyses. It benefits from precise points-to and may happen in parallel information. Thread-local object information provides a small improvement over points-to analysis alone. Our framework minimizes the restrictions on input programs, dealing gracefully with nesting and deadlock, and requiring only simple annotations identifying critical sections. Legacy programs using synchronized regions can be processed without alteration. We find that dynamic locks do not broadly improve upon identical allocations of static locks, but allocating several dynamic locks in place of a single static lock can significantly increase parallelism in certain situations. We experiment with a range of small and large Java benchmarks on 1 to 8 processors, and find that a singleton allocation is sufficient for five of our benchmarks, and that a static allocation with Spark points-to analysis is sufficient for another two. Of the other five benchmarks, two require the use of all phases of our analysis, one depends on using the lockset allocation, and two benchmarks proved too complex to be automatically transformed to satisfactory performance. / L'allocation des verrous aux sections critiques des programmes construits avec des processus indépendants affecte la performance et la validité de ces programmes. La littérature récente rapporte des résultats pour l'allocation automatique des verrous. Le but est de minimiser les conflits et de maximiser le parallélisme avec une allocation de verrous aux sections critiques individuelles. Nous étudions plusieurs méthodes d'allocation de verrous, en utilisant des composantes connectés des sections critiques qui interfèrent sur un graphe d'interférence des sections critiques. Notre technique d'allocation utilise une analyse d'effets secondaires qui considère chaque processus indépendant individuellement. Notre analyse d'effets secondaires est construit d'un ensemble d'analyses composantes interchangeable. La technique d'allocation peut profiter d'une analyse des pointeurs précises et d'une analyse «may happen in parallel». Nous avons trouvé que la disponibilité des informations qui sont spécifiques à chaque processus indépendant peut améliorer la qualité des résultats par rapport aux résultats de l'analyse avec seulement l'analyse des pointeurs. Notre système demande des pré-requis minimes des programmes qu'il analyse, peut bien analyser les situations d'emboîtement et d'interblocage, et nécessite seulement quelques annotations simples pour identifier les sections critiques. Les logiciels patrimoniales qui portent des régions synchronisés peuvent être analysés directement. Nous avons trouvé que les verrous dynamiques, en général, ne réussissent pas à améliorer la performance au-dessus de celle des verrous statiques. Par contre, l'allocation de quelques verrous dynamiques au lieu d'un seul verrou statique peut augmenter le parallélisme dans certaines situations. Nous avons évalué notre analyse sur une gamme de programmes pour étudier comparée. Les programmes sont écrits en Java et notre gamme comprend des programmes qui va
126

Prediction of stock market indices using machine learning

Modarres Najafabadi, Sayed Reza January 2009 (has links)
Financial time series prediction is a very important economical problem but the data available is very noisy. In this thesis, we explain the use of statistical and machine learning methods for stock market prediction and we evaluate the performance of these methods on data from the S&P/TSX 60 stock index. We use both linear regression and support vector regression, a state-of-art machine learning method, which is usually robust to noise. The results are mixed, illustrating the difficulty of the problem. We discuss the utility of using different types of data pre-processing for this task as well. / La prediction des series de donnees economiques est un probleme tres important, mais les donnees disponiblessont tres aleatoires. Dans cette these, nous expliquons l'utilisation des statistiques et des methodes d'apprentissage automatique en vue de prevoir la valuer prochaine du S&P/TSX60. Nous utilisons deux methodes: la regression lineaire et les machines a vecteur de support pour la regression, une methode d'apprentissagemoderne, qui est tres robuste. Les resultats sont mitiges, illustrant la difficulte du probleme. Nous discutons l'utilite des differents types de donnees et le pre-traitement necessaire pour cette tache.}
127

Impact of algorithm, iterations, post-smoothing, count level and tracer distribution on single-frame positrom emission tomography quantification using a generalized image space reconstruction algorithm

Létourneau, Étienne January 2012 (has links)
Positron Emission Tomography (PET) is a medical imaging technique tracing the functional processes inside a subject. One of the common applications of this device is to perform a subjective diagnostic from the images. However, quantitative imaging (QI) allows one to perform an objective analysis as well as providing extra information such as the time activity curves (TAC) and visual details that the eye can't see. The aim of this work was to, by comparing several reconstruction algorithms such as the MLEM PSF, ISRA PSF and its related algorithms and FBP for single-frame imaging, to develop a robust analysis on the quantitative performance depending on the region of interest (ROI), the size of the ROI, the noise level, the activity distribution and the post-smoothing parameters. By simulating an acquisition using a 2-D digital axial brain phantom on Matlab, comparison has been done on a quantitative point of view helped by visual figures as explanatory tools for all the techniques using the Mean Absolute Error (MAE) and the Bias-Variance relation. Results show that the performance of each algorithm depends mainly on the number of counts coming from the ROI and the iteration/post-smoothing combination that, when adequately chosen, allows nearly every algorithms to give similar quantitative results in most cases. Among the 10 analysed techniques, 3 distinguished themselves: ML-EM PSF, ISRA PSF with the smoothed expected data as weight and the FBP with an adequate post-smoothing were the main contenders for achieving the lowest MAE. Keywords: Positron Emission Tomography, Maximum-Likelihood Expectation-Maximization, Image Space Reconstruction Algorithm, Filtered Backprojection, Mean Absolute Error, Quantitative Imaging. / La tomographie par Émission de Positons est une technique d'imagerie médicale traçant les procédures fonctionnelles qui se déroulent dans le patient. L'une des applications courantes de cet appareil consiste à performer un diagnostique subjectif à partir des images obtenues. Cependant, l'imagerie quantitative (IQ) permet de performer une analyse objective en plus de nous procurer de l'information additionnelle telle que la courbe temps-activité (CTA) ainsi que des détails visuels qui échappent à l'œil. Le but de ce travail était, en comparant plusieurs algorithmes de reconstruction tels que le ML-EM PSF, le ISRA PSF et les algorithmes qui en découlent ainsi que la rétroprojection filtrée pour une image bidimensionnelle fixe, de développer une analyse robuste sur les performances quantitatives dépendamment de la localisation des régions d'intérêt (RdI), de leur taille, du niveau de bruit dans l'image, de la distribution de l'activité et des paramètres post-lissage. En simulant des acquisitions à partir d'une coupe axiale d'un cerveau digitale sur Matlab, une comparaison quantitative appuyée de figures qualitative en guise d'outils explicatifs a été effectuée pour toutes les techniques de reconstruction à l'aide de l'Erreur Absolue Moyenne (EAM) et de la relation Biais-Variance. Les résultats obtenus démontrent que la performance de chaque algorithme dépend principalement du nombre d'événements enregistré provenant de la RdI ainsi que de la combinaison itération/post-lissage utilisée qui, lorsque choisie adéquatement, permet à la majorité des algorithmes étudiés de donner des quantités similaires dans la majorité des cas. Parmi les 10 techniques analysées, 3 se sont démarquées : ML-EM PSF, ISRA PSF en utilisant les valeurs prévues avec lissage comme facteur de pondération et RPF avec un post-lissage adéquat les principaux prétendants pour atteindre l'EMA minimale. Mots-clés: Tomographie par émission de positons, Maximum-Likelihood Expectation-Maximization, Image Space Reconstruction Algorithm, Rétroprojection Filtrée, Erreur Absolue Moyenne, Imagerie quantitative.
128

Network software architectures for real-time massively multiplayer online games

McFarlane, Roger D P January 2004 (has links)
A real-time massively multiplayer online game (MMOG) is a networked computer or video game in which tens of thousands to hundreds of thousands of consumers may interact with one another in real-time in a shared environment, even though these users may be separated by vast geographic distances. Game industry analysis highlights trends indicating that online game usage and market penetration will grow significantly over the next five to ten years. As such, game developers and entertainment companies seek to offer subscription based mass-market online games. However, the risks, costs and complexity involved in the successful development and operation of a scalable online game service are high, in part due to lack of well established and understood models for the network software architecture of such a product. This thesis explores the literature and research regarding distributed military simulation, academic networked virtual environments, and commercial online gaming in search of patterns for network software architectures which are applicable to massively multiplayer online games. It is the hope of the author to contribute to this cross pollination of ideas by providing a thorough review of the techniques and approaches for the design and implementation of large scale distributed systems having properties similar to those found in a massively multiplayer online game system. In this way, perhaps the cost, complexity, and risk involved in building a massively multiplayer online game service can be reduced. / Un jeu en ligne massivement multi joueurs en temps réel est un jeu vidéo ou d'ordinateur géré en réseau dans lequel des dizaines à des centaines de milliers de consommateurs peuvent interagir entre eux en temps réel dans un environnement partagé, et ce même s’ils sont répartis dans des régions géographiques très distantes. Les analyses de l’industrie du jeu démontrent que l'utilisation et la pénétration de marché du jeu en ligne se développeront de manière significative au cours des cinq à dix prochaines années. Ceci explique que les développeurs de jeu et les compagnies de divertissement cherchent à offrir à un marché grand public des jeux en ligne basés sur un abonnement. Cependant, les risques, les coûts et la complexité impliqués dans le développement et l'opération d’un service de jeu en ligne sont élevés, dû en partie au manque de modèles bien établis et compris pour l'architecture de logiciels de réseau de tels produits. Cette thèse explore la littérature et la recherche concernant la simulation militaire distribuée, les environnements académiques virtuels gérés en réseau, et le jeu en ligne commercial à la recherche de modèles pour les architectures de logiciels de réseau qui sont applicables aux jeux en ligne massivement multi joueurs. C'est l'espoir de l'auteur de contribuer à cette pollinisation d’idées en fournissant un examen complet des techniques et des approches utilisés dans la conception et l'implémentation de systèmes répartis à grande échelle ayant des propriétés semblables à celles que l’on retrouve dans les systèmes de jeu en ligne massivement multi joueurs. De cette façon, peut-être, le coût, la complexité et le risque impliqués dans la réalisation d’un service de jeu en ligne massivement multi joueur pourront être réduits. fr
129

Application and computation of Huber's M-estimator in the global positioning system

Guo, Ying January 2003 (has links)
In the Global Positioning System (GPS), the accuracy of position estimates, which are usually computed by the least squares (LS) method, could be impaired due to some unreliable measurements. Robust estimators aim to reduce the influence of measurements with large errors, thus improve the estimate accuracy. This thesis applies Huber's M-estimator, one of the most important robust estimators, to two GPS relative positioning models, one based on the code measurements only and the other based on the code and carrier phase measurements. Two numerical methods, the iteratively reweighted least squares (IRLS) method and Newton's method, are used to compute Huber's M-estimates. In Newton's method, the singularity problem, the line search strategy and the updating/downdating techniques are discussed in details. For the code based model, our simulation results show that Newton's method can be much faster than the IRLS method. For the code and carrier phase based model, a modified Newton's method was proposed to reduce the computation cost and required memory. The simulation results show that Huber's M-estimator can greatly suppress the measurement outliers and yield more accurate position estimates for both models than LS method.
130

Coding regions under non-coding selection: implications for transcriptional and post-transcriptional gene regulation

Mayhew, Michael January 2008 (has links)
The signals that facilitate transcriptional and post-transcriptional gene expression regulation are still being understood. Comparative genomics approaches based on the premise that sequence or structure conservation implies functionality have successfully distinguished true regulatory sequences and structures from prediction noise. Protein-coding regions of genes have often been overlooked as potential regulatory sequence regions. A set of 8785 coding region sequences were previously found to be conserved significantly above a baseline protein-coding conservation level. We call these sequences coding regions under non-coding selection or CRUNCS. Analysis of the sequences, the primary contribution of this work, revealed that CRUNCS bases are more often found in coding exon edges and in middle coding exons. CRUNCS-containing genes are more significantly enriched for regulation of transcription and translation, protein ubiquitination, and mRNA processing. CRUNCS are significantly enriched for RNA secondary structure elements. We also uncovered statistical evidence linking CRUNCS to gene splicing regulation. / Les méthodes de génomique comparatives qui sont tirées de la prémisse que la conservation de la séquence ou de la structure implique la conservation de la fonctionnalité, sont parvenues à identifier de vrais signaux régulateurs. Les régions codantes ont souvent été négligées comme des régions potentiellement régulatrices. Un ensemble de 8785 séquences de ces régions plus conservées que prévues a été précédement identifié. L'analyse de ces séquences appelées CRUNCS a révélé que les acides nucléiques des CRUNCS sont plus nombreux aux extrémités des exons et dans les exons centraux. Les gènes contenants des CRUNCS sont enrichis des catégories fonctionnelles comprenant : la régulation de la transcription et la traduction, l'ubiquitination des protéines et le traitement des ARNm. Les CRUNCS sont enrichis d'éléments de structure secondaire de l'ARN. Nous avons aussi découvert des preuves statistiques démontrant que les CRUNCS jouent un rôle dans la régulation de l'épissage des gènes.

Page generated in 0.0871 seconds