• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 876
  • 321
  • 321
  • 321
  • 321
  • 321
  • 320
  • 284
  • 32
  • 6
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1715
  • 1715
  • 1116
  • 1110
  • 664
  • 664
  • 664
  • 406
  • 398
  • 372
  • 253
  • 253
  • 214
  • 200
  • 196
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Impact of algorithm, iterations, post-smoothing, count level and tracer distribution on single-frame positrom emission tomography quantification using a generalized image space reconstruction algorithm

Létourneau, Étienne January 2012 (has links)
Positron Emission Tomography (PET) is a medical imaging technique tracing the functional processes inside a subject. One of the common applications of this device is to perform a subjective diagnostic from the images. However, quantitative imaging (QI) allows one to perform an objective analysis as well as providing extra information such as the time activity curves (TAC) and visual details that the eye can't see. The aim of this work was to, by comparing several reconstruction algorithms such as the MLEM PSF, ISRA PSF and its related algorithms and FBP for single-frame imaging, to develop a robust analysis on the quantitative performance depending on the region of interest (ROI), the size of the ROI, the noise level, the activity distribution and the post-smoothing parameters. By simulating an acquisition using a 2-D digital axial brain phantom on Matlab, comparison has been done on a quantitative point of view helped by visual figures as explanatory tools for all the techniques using the Mean Absolute Error (MAE) and the Bias-Variance relation. Results show that the performance of each algorithm depends mainly on the number of counts coming from the ROI and the iteration/post-smoothing combination that, when adequately chosen, allows nearly every algorithms to give similar quantitative results in most cases. Among the 10 analysed techniques, 3 distinguished themselves: ML-EM PSF, ISRA PSF with the smoothed expected data as weight and the FBP with an adequate post-smoothing were the main contenders for achieving the lowest MAE. Keywords: Positron Emission Tomography, Maximum-Likelihood Expectation-Maximization, Image Space Reconstruction Algorithm, Filtered Backprojection, Mean Absolute Error, Quantitative Imaging. / La tomographie par Émission de Positons est une technique d'imagerie médicale traçant les procédures fonctionnelles qui se déroulent dans le patient. L'une des applications courantes de cet appareil consiste à performer un diagnostique subjectif à partir des images obtenues. Cependant, l'imagerie quantitative (IQ) permet de performer une analyse objective en plus de nous procurer de l'information additionnelle telle que la courbe temps-activité (CTA) ainsi que des détails visuels qui échappent à l'œil. Le but de ce travail était, en comparant plusieurs algorithmes de reconstruction tels que le ML-EM PSF, le ISRA PSF et les algorithmes qui en découlent ainsi que la rétroprojection filtrée pour une image bidimensionnelle fixe, de développer une analyse robuste sur les performances quantitatives dépendamment de la localisation des régions d'intérêt (RdI), de leur taille, du niveau de bruit dans l'image, de la distribution de l'activité et des paramètres post-lissage. En simulant des acquisitions à partir d'une coupe axiale d'un cerveau digitale sur Matlab, une comparaison quantitative appuyée de figures qualitative en guise d'outils explicatifs a été effectuée pour toutes les techniques de reconstruction à l'aide de l'Erreur Absolue Moyenne (EAM) et de la relation Biais-Variance. Les résultats obtenus démontrent que la performance de chaque algorithme dépend principalement du nombre d'événements enregistré provenant de la RdI ainsi que de la combinaison itération/post-lissage utilisée qui, lorsque choisie adéquatement, permet à la majorité des algorithmes étudiés de donner des quantités similaires dans la majorité des cas. Parmi les 10 techniques analysées, 3 se sont démarquées : ML-EM PSF, ISRA PSF en utilisant les valeurs prévues avec lissage comme facteur de pondération et RPF avec un post-lissage adéquat les principaux prétendants pour atteindre l'EMA minimale. Mots-clés: Tomographie par émission de positons, Maximum-Likelihood Expectation-Maximization, Image Space Reconstruction Algorithm, Rétroprojection Filtrée, Erreur Absolue Moyenne, Imagerie quantitative.
192

Network software architectures for real-time massively multiplayer online games

McFarlane, Roger D P January 2004 (has links)
A real-time massively multiplayer online game (MMOG) is a networked computer or video game in which tens of thousands to hundreds of thousands of consumers may interact with one another in real-time in a shared environment, even though these users may be separated by vast geographic distances. Game industry analysis highlights trends indicating that online game usage and market penetration will grow significantly over the next five to ten years. As such, game developers and entertainment companies seek to offer subscription based mass-market online games. However, the risks, costs and complexity involved in the successful development and operation of a scalable online game service are high, in part due to lack of well established and understood models for the network software architecture of such a product. This thesis explores the literature and research regarding distributed military simulation, academic networked virtual environments, and commercial online gaming in search of patterns for network software architectures which are applicable to massively multiplayer online games. It is the hope of the author to contribute to this cross pollination of ideas by providing a thorough review of the techniques and approaches for the design and implementation of large scale distributed systems having properties similar to those found in a massively multiplayer online game system. In this way, perhaps the cost, complexity, and risk involved in building a massively multiplayer online game service can be reduced. / Un jeu en ligne massivement multi joueurs en temps réel est un jeu vidéo ou d'ordinateur géré en réseau dans lequel des dizaines à des centaines de milliers de consommateurs peuvent interagir entre eux en temps réel dans un environnement partagé, et ce même s’ils sont répartis dans des régions géographiques très distantes. Les analyses de l’industrie du jeu démontrent que l'utilisation et la pénétration de marché du jeu en ligne se développeront de manière significative au cours des cinq à dix prochaines années. Ceci explique que les développeurs de jeu et les compagnies de divertissement cherchent à offrir à un marché grand public des jeux en ligne basés sur un abonnement. Cependant, les risques, les coûts et la complexité impliqués dans le développement et l'opération d’un service de jeu en ligne sont élevés, dû en partie au manque de modèles bien établis et compris pour l'architecture de logiciels de réseau de tels produits. Cette thèse explore la littérature et la recherche concernant la simulation militaire distribuée, les environnements académiques virtuels gérés en réseau, et le jeu en ligne commercial à la recherche de modèles pour les architectures de logiciels de réseau qui sont applicables aux jeux en ligne massivement multi joueurs. C'est l'espoir de l'auteur de contribuer à cette pollinisation d’idées en fournissant un examen complet des techniques et des approches utilisés dans la conception et l'implémentation de systèmes répartis à grande échelle ayant des propriétés semblables à celles que l’on retrouve dans les systèmes de jeu en ligne massivement multi joueurs. De cette façon, peut-être, le coût, la complexité et le risque impliqués dans la réalisation d’un service de jeu en ligne massivement multi joueur pourront être réduits. fr
193

Application and computation of Huber's M-estimator in the global positioning system

Guo, Ying January 2003 (has links)
In the Global Positioning System (GPS), the accuracy of position estimates, which are usually computed by the least squares (LS) method, could be impaired due to some unreliable measurements. Robust estimators aim to reduce the influence of measurements with large errors, thus improve the estimate accuracy. This thesis applies Huber's M-estimator, one of the most important robust estimators, to two GPS relative positioning models, one based on the code measurements only and the other based on the code and carrier phase measurements. Two numerical methods, the iteratively reweighted least squares (IRLS) method and Newton's method, are used to compute Huber's M-estimates. In Newton's method, the singularity problem, the line search strategy and the updating/downdating techniques are discussed in details. For the code based model, our simulation results show that Newton's method can be much faster than the IRLS method. For the code and carrier phase based model, a modified Newton's method was proposed to reduce the computation cost and required memory. The simulation results show that Huber's M-estimator can greatly suppress the measurement outliers and yield more accurate position estimates for both models than LS method.
194

Coding regions under non-coding selection: implications for transcriptional and post-transcriptional gene regulation

Mayhew, Michael January 2008 (has links)
The signals that facilitate transcriptional and post-transcriptional gene expression regulation are still being understood. Comparative genomics approaches based on the premise that sequence or structure conservation implies functionality have successfully distinguished true regulatory sequences and structures from prediction noise. Protein-coding regions of genes have often been overlooked as potential regulatory sequence regions. A set of 8785 coding region sequences were previously found to be conserved significantly above a baseline protein-coding conservation level. We call these sequences coding regions under non-coding selection or CRUNCS. Analysis of the sequences, the primary contribution of this work, revealed that CRUNCS bases are more often found in coding exon edges and in middle coding exons. CRUNCS-containing genes are more significantly enriched for regulation of transcription and translation, protein ubiquitination, and mRNA processing. CRUNCS are significantly enriched for RNA secondary structure elements. We also uncovered statistical evidence linking CRUNCS to gene splicing regulation. / Les méthodes de génomique comparatives qui sont tirées de la prémisse que la conservation de la séquence ou de la structure implique la conservation de la fonctionnalité, sont parvenues à identifier de vrais signaux régulateurs. Les régions codantes ont souvent été négligées comme des régions potentiellement régulatrices. Un ensemble de 8785 séquences de ces régions plus conservées que prévues a été précédement identifié. L'analyse de ces séquences appelées CRUNCS a révélé que les acides nucléiques des CRUNCS sont plus nombreux aux extrémités des exons et dans les exons centraux. Les gènes contenants des CRUNCS sont enrichis des catégories fonctionnelles comprenant : la régulation de la transcription et la traduction, l'ubiquitination des protéines et le traitement des ARNm. Les CRUNCS sont enrichis d'éléments de structure secondaire de l'ARN. Nous avons aussi découvert des preuves statistiques démontrant que les CRUNCS jouent un rôle dans la régulation de l'épissage des gènes.
195

Numerical studies of aeroacoustic aspects of wind instruments

Da Silva, Andrey January 2008 (has links)
The characteristics of the dynamic flow in single-reed mouthpiece systems, as well as the influence of low Mach number mean flows on parameters associated with the acoustic radiation from wind instruments and generic waveguides are investigated in this thesis. In the first case, a numerical technique based on the lattice Boltzmann method coupled to a finite difference scheme is developed in order to investigate the fluid-structure interaction within the mouthpiece-reed system due to an unsteady low Mach number viscous flow. Results obtained for a stationary simulation with a static reed agree very well with those predicted by the literature based on the quasi-stationary approximation. However, simulations carried out for a dynamic regime with an oscillating reed show that the phenomenon associated with flow detachment and reattachment diverges considerably from the theoretical assumptions. The influence of low Mach number mean flows on the acoustic transmission properties of wind instruments and generic waveguides is also investigated by means of an axisymmetric lattice Boltzmann scheme. The results obtained from an unflanged pipe model agree very well with those provided by the available theories and experimental data. The effect of different horn types attached to the open end of a pipe is also investigated in detail. When compared to an unflanged pipe, horns act to significantly increase the gain of the reflection coefficient magnitude (| R| > 1) in the same critical regions observed in the unflanged pipe. Conversely, horns act to drastically decrease the end correction in the low-frequency limit. The results sug- gest that the magnitude of the reflection coefficient is independent of the horn geometry at low Strouhal numbers, whereas the end correction is highly dependent. When the simulations are conducted with the same parameters found during clarinet playing (catenoidal horn and very low Mach numbers), it is observed that the effect of the mean flow b / Les caractéristiques de l'écoulement dynamique dans les systèmes d'embouchure à anche simple, ainsi que l'influence d' ́ecoulements à faible nombre de Mach sur certains des paramètres li ́es au rayonnement acoustique des instruments à vent et des guides d'ondes en général sont ́etudi ́ees dans cette thèse. Dans le premier cas, une technique numérique, basée sur une méthode de Boltzmann couplée à une méthode de différence finie, est développée afin d' étudier l'interaction fluide-structure dans le systéme bec-anche qui provient d'un ́ecoulement visqueux instable de faible nombre de Mach. Les résultats obtenus, en régime stationnaire avec une anche statique, concident avec ceux prédits par la litterature qui se base sur l'approximation quasi stationnaire. Cependant, les simulations effectuées pour un régime dynamique avec une anche vibrante montrent que les phénomènes associés au détachement et au rattachement de l'écoulement divergent considérablement des prédictions théoriques. L'influence d'un ́ecoulement à faible nombre de Mach sur les propriétés acoustiques des instruments à vent et des guides d'ondes en général est ́egalement ́etudiée à l'aide d'une méthode de Boltzmann sur réseau axisymétrique. Les résultats obtenus à partir d'un modèle de tuyau non- bafflé correspondent très bien à ceux fournis par les théories disponibles et les données expérimentales. L'effet de differents types de pavillon attachés à l'extrémité ouverte d'un tuyau est ́egalement ́etudié en détail. La comparaison de ces résultats avec le tuyau non-bafflé montre que les pavillons ont pour effet d'augmenter significativement le module du coefficient de réflexion pour les mêmes régions critiques (| R| > 1) observées dans le cas du tuyau. A l'inverse, les pavillons diminuent considérablement la correction de longueur dans la limite basse fréquence. Les resultats suggèrent que l'importance du coefficient$
196

SQL front-end for the JRelix relational-programming system

Khaya, Ibrahima January 2009 (has links)
This thesis discusses the design and implementation of an SQL front end for a relational database programming system JRelix. The purpose of this thesis is to lay a strong basis for the full SQL support by JRelix. The SQL language is the de facto standard in Relational Databases which motivates its integration into JRelix. Through the SQLSTMT and SQLEXP commands the user can use SQL to perform operations on a JRelix database. These operations are translated into Aldat (the native programming language of JRelix) and can interactively perform updates, deletions and selections on the distinct relations of the database. The SQLSTMT command allows us to execute full SQL commands on the system whereas the SQLEXP command returns a relational expression to the system that can interact with other elements of the commands written in Aldat in the same statement. / La présente thèse traite de la conception et de la mise en oeuvre d'une interface SQL pour le système de programmation de bases de données relationnelles JRelix. Cette thèse a pour but de poser les fondements d'une couverture exhaustive de SQL par JRelix. Le Language SQL est le standard en bases de données relationnelles ce qui est à l'origine de son intégration dans JRelix. A l'aide des commandes SQLSTMT et SQLEXP l'utilisateur peut effectuer des requêtes sur la base de données JRelix en SQL. Ces requêtes sont traduites en Aldat (le language natif de programmation de JRelix) et peut, de façon interactive, effectuer mises à jour, suppressions et sélections sur les différentes relations. La commande SQLSTMT permet d'exécuter des requêtes entièrement exprimées en SQL alors que la commande SQLEXP retourne au système une expression relationnelle qui peut interagir avec d'autres expressions relationnelles exprimées en Aldat dans la même requête.
197

Functional dependency detection: an information theoretic algorithm

Ophir, Adi January 2009 (has links)
There are many statistical measures of correlation, such as Pearson's correlation coefficient for real random variables, the chi-square statistic for discrete random variables, and mutual information. Most such measures are symmetric and do not allow detection of influence direction. We propose a novel information theory measure whose value indicates direction of functional dependency. The measure calculation algorithm is performed on real-valued data being quantized into bins. This quantization is a corner stone of the algorithm suggested, as it affects both the statistical significance between the variables being tested for dependency and the numeric strength of dependency. / Il existe de nombreuses mesures statistiques de corrélation, tels que le Pearson coefficient de corrélation des variables aléatoires, le chi-carré pour les variables aléatoires discrètes et, finalement, l'information mutuelle. La plupart de ces mesures sont symétriques et ne pas permettre la détection d'influence. Nous proposons une nouvelle mesure de l'information-théorique dont la valeur indique la direction de le dépendence fonctionnelle. La mesure algorithme de calcul est effectué sur la valeur réelle de données quantifiées en bacs. Cette quantification est une fondation de l'algorithme proposé, car elle informe à la fois la signification statistique entre les variables et la force de la dépendance.
198

Inference of insertion and deletion scenarios for ancestral genome reconstruction and phylogenetic analyses: algorithms and biological applications

Diallo, Abdoulaye January 2009 (has links)
This thesis focuses on algorithms related to ancestral genome reconstruction and phylogenetics analyses. Specially, it studies insertion and deletion (indel) in genomic sequences, their utilities for (1) evolutionary studies of species families, (2) multiple alignment and phylogenetic trees reconstruction assessment, and (3) functional DNA sequence annotation. Here, the indel scenarios reconstruction problem is presented, in a likelihood framework, and it can be stated as follows: given a multiple alignment of orthologous sequences and a phylogenetic tree for these sequences, reconstruct the most likely scenario of insertions and deletions capable of explaining the gaps observed in the alignment. This problem, that we called the Indel Maximum Likelihood Problem (IMLP), is an important step toward the reconstruction of ancestral genomic sequences, and is important for studying evolutionary processes, genome function, adaptation and convergence. In this thesis, first, we showed that we can solve the IMLP using a new type of tree hidden Markov model whose states correspond to single-base evolutionary scenarios and where transitions model dependencies between neighboring columns. The standard Viterbi and Forward-backward algorithms are optimized to produce the most likely ancestral reconstruction and to compute the level of confidence associated to specific regions of the reconstruction. A heuristic is presented to make the method practical for large data sets, while retaining an extremely high degree of accuracy. The developed methods have been made available for the community through a web interface. Second we showed the utilities of the defined indel score for assessing the accuracy of multiple sequence alignment and phylogenetic tree reconstruction. Third, the provided method is included into the framework of the ancestral protein reconstruction of phages under a reticulate evolution and the evolutionary studies of the carcinogencity of the Human Papilloma Vir / Cette thèse traite d'algorithmes pour la reconstruction de génomes ancestraux et l'analyse phylogénétique. Elle étudie particulièrement les scénarios d'insertion et délétion (indels) dans les séquences génomiques, leur utilité (1) pour l'étude des familles d'espèces, (2) pour l'évaluation des alignements multiples de séquences et la reconstruction phylogénétique, (3) et pour l'annotation de séquences génomiques fonctionnelles. Dans cette thèse, le problème de la reconstruction du scénario d'indels est étudié en utilisant le critère de maximum de vraisemblance. Ce problème peut être défini de la manière suivante: étant donné un alignement multiple de séquences orthologues et un arbre phylogénétique traduisant l'histoire évolutive de ces séquences, reconstruire le scénario d'indels le plus vraisemblable capable d'expliquer les brèches présentes dans l'alignement. Ce problème, dénommé ''Indel Maximum Likelihood Problem (IMLP)'', est une importante étape de la reconstruction de séquences ancestrales. Il est également important pour l'étude des processus évolutifs, des fonctions des gènes, de l'adaptation et de la convergence.Dans une première étape de cette thèse, nous montrons que l'IMLP peut être résolu en utilisant un nouveau type de données combinant un arbre phylogénétique et un modèle de Markov caché. Les états de ce modèle de Markov caché correspondent à un scénario évolutif d'une colonne de l'alignement. Ses transitions modélisent la dépendance entre les colonnes voisines de l'alignement.Les algorithmes standard de Viterbi et de Forward-Backward ont été optimisés pour produire le scénario ancestral le plus vraisemblable et pour calculer le niveau de confiance associé aux prédictions. Dans cette thèse, Nous présentons également une heuristique qui permet d'adapter la méthode à des données de grandes tailles. En second, nous montrons l'utilité du score d'indel dans l'évaluatio
199

Arda: a framework for procedural video game content generation

Rudzicz, Nicholas January 2009 (has links)
The current trend in computer game design is toward larger and richer virtual worlds, providing interesting and abundant game content for players to explore. The creation and continuous expansion of detailed virtual environments, however, is a time and resource-consuming task for game developers. Procedural content generation potentially solves this problem; textures, landscapes, and more recently the creation of entire cities and their constituent roads and buildings can be performed in an auto mated fashion, potentially offering considerable resource savings for developers. This thesis develops a comprehensive system for content generation, centering on a hierarchical world design. The Arda tool is presented as a modular system for supporting automatic content generation in a game context. Arda is composed of a framework for internally managing environmental data and content-generation algorithms, in addition to a graphical tool providing a simplified interface for generating video game content. The tool supports extensive customization, which is demonstrated through a novel algorithm for efficient and realistic city (road-plan) generation. Experimental results show the design is practical, producing qualitatively realistic results. It is also quite fast; large city plans, extending to the size of major real-world cities can be generated in a few seconds. The Arda design demonstrates the feasibility of automatic content generation, providing a practical and flexible system for quick prototyping, development and testing of game assets. / La nouvelle tendance dans la conception de jeux vidéo vise des environnements vastes et détaillés, pour mettre en valeur l’exploration de l’univers virtuel. Cependant, la création de ce contenu impose au développeur un investissement majeur au niveau des ressources et du temps requis pour la production. L’emploi du contenu procédural pourrait résoudre le problème: la création de textures, de paysages, et finalement de villes entières—incluant des réseaux routiers et des bâtiments complexes—se fait de façon automatisée, ce qui représente une économie considérable pour les développeurs. Cette thèse présente un système de génération de contenu procédural axé sur une conception hiérarchique du monde virtuel: Arda, un outil modulaire qui facilite la création automatique de contenu pour les jeux vidéo. Arda est composé d'un cadre d'applications pour la gestion de données environnementales et d'algorithmes procéduraux, ainsi que d'une interface d'utilisation graphique qui simplifie le processus de création de contenu. L'outil est fortement paramétrable, ce qui est démontré grâce à un nouvel algorithme, conçu ci-après, pour la création efficace et réaliste de réseaux routiers. Les essais prouvent que le concept est pratique et produit des résultats très réalistes. De plus, le système est rapide: des villes virtuelles, de la même dimension que des villes actuelles, sont construites en quelques secondes. Le système Arda démontre la faisabilité de la génération de contenu procédural, fournissant une méthode pratique et modulaire pour le dévelopement et la validation rapide de contenu pour les jeux vidéo.
200

Communication middleware for a web-based game lobby

Asrigo, Yanwar January 2009 (has links)
A game lobby is an online service provided to online game players. Players interact with each other and participate in games through the game lobby. As web technology becomes more advanced, the web is seen as a promising platform for online game lobbies. In this thesis, we develop a web-based communication middleware for game lobbies using the XML-RPC web service framework. Web-based communication middleware must use the Hypertext Transfer Protocol (HTTP) for its communication transport, which is based on the request-reply protocol, and requires all communication to be initiated by the client. This presents a major challenge for realizing the communication middleware as the lobby server needs to send information to the clients at arbitrary time points with minimum latency. We propose a novel Server Push Enabled XML-RPC (SPEX) protocol to address this problem by employing the so-called "long-polling'' technique. We also devise a light-weight authentication scheme, called Authenticated XML-RPC. We have implemented SPEX and Authenticated XML-RPC and analyzed the performance characteristics of our implementation. Experiments show that the communication middleware scales well, providing good response time for the kind of real-time interactions that occur typically in an online game lobby setting. / Un lobby de jeu est un service en ligne fourni pour les joueurs en ligne. Ces derniers peuvent interagir entre eux et prendre part aux jeux à partir du lobby de jeu. Grâce aux avancements technologiques, le Web est perçu comme une plateforme prometteuse pour développer des lobbies de jeux en ligne.Dans ce mémoire de maîtrise, nous développons un intergiciel de communication Web pour des lobbies de jeux en utilisant le cadre de service Web XML-RPC. Tout intergiciel de communication Web doit utiliser l'Hypertext Transfer Protocol (HTTP) comme transport de communication, qui est basé sur un protocole de transmission sur demande et nécessitant que toutes communications soient initiées par le client. Ceci pose un défi important à l'élaboration d'un intergiciel de communication vu que le serveur du lobby doit envoyer des informations aux clients à des temps arbitraires et avec un temps d'attente minimum. Pour aborder ce problème, nous proposons un nouveau protocole Server Push Enabled XML-RPC (SPEX) en exploitant la technique de "long-polling". Nous avons également conçu un système allégé d'authentification intitulé Authenticated XML-RPC. Nous avons mis en œuvre SPEX et Authenticated XML-RPC, ainsi qu'analysé les performances de notre implémentation sous différentes configurations. Nos expériences ont démontré que notre intergiciel de communication est extensible tout en garantissant un temps de réponse satisfaisant pour ce genre d'interactions en temps réel survenant généralement dans un environnement de lobby de jeu en ligne.

Page generated in 0.0794 seconds