• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 876
  • 321
  • 321
  • 321
  • 321
  • 321
  • 320
  • 284
  • 32
  • 6
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1715
  • 1715
  • 1116
  • 1110
  • 664
  • 664
  • 664
  • 406
  • 398
  • 372
  • 253
  • 253
  • 214
  • 200
  • 196
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Understanding and refactoring MATLAB

Radpour, Soroush January 2012 (has links)
Matlab is a very popular dynamic scripting language for numericalcomputations used by scientists, engineers and students world-wide. Matlabprograms are often developed incrementally using a mixture of Matlab scriptsand functions and frequently build upon existing code which may use outdatedfeatures. This results in programs that could benefit from refactoring,especially if the code will be reused and/or distributed. Despite the needfor refactoring there appear to be no Matlab refactoring tools available.Correct refactoring of Matlab is quite challenging because of itsnon-standard rules for binding identifiers. Even simple refactorings arenon-trivial. Compiler writers and software engineers are generally not familiar with \matlab and how it's used sothe problem has been left untouched so far. This thesis has two main contributions. The first is McBench, a tool that helps compiler writers understand the language better. In order to have a systematic approach to the problem, we developed this tool to give us some insight about how programmers use Matlab.The second contribution is a suite of semantic-preserving refactoring for Matlabfunctions and scripts including: function and script inlining, convertingscripts to functions, extracting new functions, and converting dynamic feval calls to static function calls. These refactorings have been implemented using the McLabcompiler framework, and an evaluation is given on a large set of Matlabprograms which demonstrates the effectiveness of our approach. / matlab est un langage de script dynamique utilisé à des fins de calcul numérique par des scientifiques, ingénieurs et étudiants du monde entier. Les programmes matlab sont souvent développés selon une méthode incrémentale, sur la base d'un mélange de scripts et fonctions Matlab, et sont habituellement conçus à partir d'un code existant dont les fonctionnalités seraient obsolètes. Par conséquent, certains programmes pourraient bénéficier de réusinage, surtout si le code sera réutilisé et/ou distribué. Malgré ce besoin, il n'existe aucun outil matlab de ce genre. Le réusinage de Matlab est assez difficile car les règles pour la liaison des identificateurs ne sont pas standards. Même une opération de maintenance simple revêt une certaine complexité. De plus, les créateurs de compilateurs et les ingénieurs en informatique ne sont généralement pas familiers avec matlab et la façon dont il est utilisé. C'est pourquoi à ce jour le problème n'a jamais été traité. Cette thèse apporte deux contributions principales: d'une part la création de MCBENCH, un outil aidant les créateurs de compilateurs à mieux comprendre le langage. Afin d'avoir une approche systématique du problème, nous avons développé cet outil pour en savoir plus sur la façon dont les programmeurs utilisent Matlab. L'autre contribution est une suite de réusinages préservant la sémantique des fonctions et scripts Matlab: incorporation de fonctions et scripts, conversion de scripts en fonctions, extraction de nouvelles fonctions et conversion d'appels dynamiques feval en appels de fonction statique. Le cadriciel et compilateur McLab a été utilisé pour la mise en œuvre de ces réusinages. De plus, une évaluation est donnée sur un large éventail de programmes Matlab afin de démontrer l'efficacité de notre approche.
132

Network information theory for classical-quantum channels

Savov, Ivan January 2012 (has links)
Network information theory is the study of communication problems involving multiple senders, multiple receivers and intermediate relay stations. The purpose of this thesis is to extend the main ideas of classical network information theory to the study of classical-quantum channels. We prove coding theorems for the following communication problems: quantum multiple access channels, quantum interference channels, quantum broadcast channels and quantum relay channels. A quantum model for a communication channel describes more accurately the channel's ability to transmit information. By using physically faithful models for the channel outputs and the detection procedure, we obtain better communication rates than would be possible using a classical strategy. In this thesis, we are interested in the transmission of classical information, so we restrict our attention to the study of classical-quantum channels. These are channels with classical inputs and quantum outputs, and so the coding theorems we present will use classical encoding and quantum decoding.We study the asymptotic regime where many copies of the channel are used in parallel, and the uses are assumed to be independent. In this context, we can exploit information-theoretic techniques to calculate the maximum rates for error-free communication for any channel, given the statistics of the noise on that channel. These theoretical bounds can be used as a benchmark to evaluate the rates achieved by practical communication protocols. Most of the results in this thesis consider classical-quantum channels with finite dimensional output systems, which are analogous to classical discrete memoryless channels. In the last chapter, we will show some applications of our results to a practical optical communication scenario, in which the information is encoded in continuous quantum degrees of freedom, which are analogous to classical channels with Gaussian noise. / La théorie de l'information multipartite étudie les problèmes de communication avec plusieurs émetteurs, plusieurs récepteurs et des stations relais. L'objectif de cette thèse est d'étendre les idées centrales de la théorie de l'information classique à l'étude des canaux quantiques. Nous allons nous intéresser aux scénarios de communication suivants: les canaux quantiques à accès multiples, les canaux quantiques à interférence, les canaux quantiques de diffusion et les canaux quantiques à relais. Dans chacun des ces scénarios de communication, nous caractérisons les taux de communication réalisables pour l'envoi d'information classique sur ces canaux quantiques. La modélisation quantique des canaux de communication est importante car elle fournit une représentation plus précise de la capacité du canal à transmettre l'information. En utilisant des modèles physiquement réalistes pour les sorties du canal et la procédure de détection, nous obtenons de meilleurs taux de communication que ceux obtenus dans un modèle classique. En effet, l'utilisation de mesures quantiques collectives sur l'ensemble des systèmes physiques en sortie du canal permet une meilleure extraction d'information que des mesures indépendantes sur chaque sous-système. Nous avons choisi d'étudier les canaux à entrée classique et sortie quantique qui constituent une abstraction utile pour l'étude de canaux quantiques généraux où l'encodage est restreint au domaine classique.Nous étudions le régime asymptotique où de nombreuses copies de du canal sont utilisées en parallèle, et les utilisations sont indépendantes. Dans ce contexte, il est possible de caractériser les limites absolues sur la transmission d'information d'un canal, si on connait les statistiques du bruit sur ce canal. Ces résultats théoriques peuvent être utilisées comme un point de repère pour évaluer la performance des protocoles de communication pratiques. Nous considérons surtout les canaux où les sorties sont des systèmes quantiques de dimension finie, analogues aux canaux classiques discrets. Le dernier chapitre présente des applications pratiques de nos résultats à la communication optique, où systèmes physiques auront des degrés de liberté continus. Ce contexte est analogue aux canaux classiques avec bruit gaussien.
133

Fractionally total colouring most graphs

Meagher, Conor John January 2004 (has links)
A total colouring is the assignment of a colour to each vertex and edge of a graph such that no adjacent vertices or incident edges receive the same colour and no edge receives the same colour as one of its endpoints. If we formulate the problem of finding the total chromatic number as an integer program, we can consider the fractional relaxation known as fractional total colouring. In this thesis we present an algorithm for computing the fractional total chromatic number of a graph, which runs in polynomial time on average. We also present an algorithm that asymptotically almost surely computes the fractional total chromatic number of $G_{n,p}$ for all values of $p$. / Une coloration totale d’un graphe est le coloration des arêtes et des sommets telle que deux sommets adjacents ont des couleurs différentes, deux arêtes incidentes ont des couleurs différentes, et une arête a une couleur différente de celles des ses extrémités. Si nous formulons le problème de trouver le nombre chromatique total comme un programme linéaire entier, nous pouvons considérer la relaxation connue comme la coloration totale fractionnaire. Dans cette thèse nous présentons un algorithme pour calculer le nombre chromatique total d’un graphe en temps polynomial en moyenne. Nous présentons aussi un algorithme qui calcule asymptotiquement presque sûrement le nombre chromatique total de $G_{n,p}$ pour toute valeur de $p$. fr
134

Simulating vortex ring collisions: extending the hybrid method

Eckbo, Ryan January 2007 (has links)
Vortex filaments are isolated tubes of vorticity, the behaviour of which is important to the understanding of the fluid flows they are found in. Vortex reconnection, the change in filament topology when filaments collide, is a particular phenomenon that cannot be modelled by the traditional vortex method, which leads (Ghuneim, 2002) to integrate it with the level set method. However, the computational complexity of this method's traditional implementation severly limits the types of simulations possible. Motivated by this, we propose a new level set implementation that stores voxels in a tree data structure such that neighborhood relationships are recursively encoded. We then modify the hybrid method to use this data structure, allowing for longer, more expansive, accurate and versatile filament evolutions. A simpler mechanism for handling reconnections is also proposed. We demonstrate the advantages of the extended hybrid method and the new level set implementation with simulations of a variety of laboratory filament evolutions with reconnection events. / Les filaments de vortex sont des tubes de vorticité isolés, et il est important de comprendre leur comportement pour caractériser les fluides dans lesquels ils apparaissent. La reconnection de vortex, i.e. le changement de topologie qui survient lorsque des filaments entrent en collision, est un phénomène particulier qui ne peut être modelisé par la méthode traditionnelle des vortex, ce qui mène (Ghuneim, 2002, Ghuneim et al., 2002) à l'intégrer avec la méthode des ensembles de niveau. Cependant, la complexité de l'implémentation traditionnelle de la méthode des ensembles de niveau limite grandement le type de simulations qui sont possibles. Motivés par ceci, nous proposons une nouvelle implémentation qui organise les voxels dans une structure de données en arbre, ce qui permet des évolutions de filaments plus longues, plus étendues, plus précises et plus versatiles. Un méchanisme simplifié pour gérer les reconnections est aussi proposé. Nous démontrons les avantages de la méthode hybride étendue et de la nouvelle implémentation par ensembles de niveau par des simulations d'une variété d'évolutions de filaments avec des événements de reconnection.
135

Detection, simulation and control in models of epilepsy

Vincent, Robert Durham January 2008 (has links)
We investigate the application of machine learning methods for the detection and control of seizure-like behavior in in vitro models of epilepsy. This research will form the basis for a new class of adaptive neurostimulation devices for the treatment of drug-resistant cases of epilepsy in humans. There are many technical obstacles to creating an adaptive control algorithm for these devices. At present, science has an incomplete understanding of the mechanisms and dynamics underlying both epilepsy and its treatments. This is reflected both in the long-standing problem of the detection or prediction of seizures and in the lack of clear criteria for optimizing an adaptive control algorithm. As in many medical problems, clinical data is sparse, expensive, and highly variable. We address the detection of epileptic states using boosted ensemble methods with a set of simple frequency spectrum features derived from electrophysiological recordings. While typical boosting methods are not designed for use with time series data, we present a recurrent boosting method that improves classification accuracy in our application domain. We also present an implementation of a biologically plausible model of epileptic neural tissue using a network of integrate and fire neurons with partially stochastic inputs and two time scales of refractory behavior. Finally, we train a reinforcement learning agent to control the dynamics of this network, reducing the occurrence of seizure-like events. This agent is intended to be a component of a closed-loop electrical stimulation device with a set of sensors and an adaptive stimulation strategy. / Nous étudions l'application des méthodes d'apprentissage automatique pour la détection et le contrôle d'activité semblable à une crise convulsive dans les modèles d'épilepsie in vitro. Cette recherche formera la base d'une nouvelle classe de dispositifs de neurostimulation auto-adaptatifs pour le traitement des patients qui ne répondent pas aux drogues antiépileptiques. Il y a beaucoup d'obstacles techniques pour créer un algorithme adaptatif pour ces dispositifs. Actuellement, la science n'a pas encore expliqué entièrement les mécanismes définissant l'épilepsie et ses traitements. Ceci est important à deux niveaux: Pour le problème de la détection ou de la prévision des crises, et pour établir des critères clairs pour optimiser un algorithme de contrôle adaptatif. Comme beaucoup de problèmes médicaux, les données cliniques sont rares, chères, et fortement variables. Nous adressons la détection des états épileptiques en utilisant les méthodes “boosting” avec un groupe de traits simples de spectre de fréquences dérivés des enregistrements électrophysiologiques. Tandis que les méthodes boosting typiques n'ont pas été conçues pour utiliser l'information disponible avec des données de séries chronologiques, nous présentons une méthode boosting récurrente qui améliore le taux de classification dans notre domaine d'application. Nous présentons également une exécution d'un modèle biologiquement plausible d'un système neural épileptique employant un réseau de neurones intègre-et tire ayant les signals d'entrées partiellement stochastiques et ayant deux échelles de temps de comportement réfractaire. En conclusion, nous formons un agent d'apprentissage par renforcement pour réduire l'occurrence d'activité semblable à une crise. Cet agent est prévu pour être une composante d'un dispositif en boucle fermée de stimulation électrique ayant un ensemble de capteurs et un algorithme adaptatif.
136

Investigating blur in the framework of reverse projection

McCloskey, Scott January 2008 (has links)
This thesis presents a reverse projection model for image formation, which is particularly useful for explaining blur. The model is used to develop novel methods for two different applications: removing the effects of blurred occluding objects and recovering the 3D structure of scenes from defocused images. With respect to depth recovery, the model shows that, when out of focus, multiple pixels record light reflected from the same region of the scene, giving rise to a measurable increase in the correlation between such pixels. Having found that increase to be proportional to scene depth, correlation measurements are used to estimate the depth of objects in a scene, giving a new method for the recovery of depth from defocus. In addition, this thesis presents a method by which this and other depth from defocus methods can be made more accurate by evolving the region over which blur is measured. Using an elliptical model for the measurement region, it is shown that a straightforward algorithm can be used to produce more accurate depth estimates near discontinuities in depth and surface orientation. With respect to occluding objects, the reverse projection blur framework is used to model image formation near large discontinuities in depth. This leads to a validated model that describes the way in which light from the foreground and background objects combine on a camera's sensor, and a method for the removal of the contribution of the occluding object. In order facilitate the removal of the occluding object's intensity from single images without user intervention, a method is developed to estimate the parameters necessary to remove this contribution. / Cette thèse présente un modèle de formation d'image basé sur la projection inverse, qui est particulièrement utile pour la modélisation du flou. Ce modèle est utilisé dans le développement de nouvelles méthodes dans le cadre de deux applications différentes: l'élimination des contours de bord flous et l'estimation de la structure tridimensionnelle de scènes à partir d'images défocalisées. En ce qui a trait à l'estimation de la profondeur, le modèle démontre que lorsque défocalisés, plusieurs pixels différents enregistrent de la lumière provenant d'une même région de la scène, ce qui cause une augmentation mesurable de la corrélation entre les valeurs de ces pixels. Après avoir démontré que cette augmentation est proportionnelle à la profondeur de la région dans la scène, des mesures de corrélation sont utilisées pour estimer cette profondeur, ce qui constitue une nouvelle méthode pour l'estimation de profondeur à partir de la défocalisation de l'image. De plus, cette thèse présente une méthode avec laquelle cet algorithme (ainsi que d'autres algorithmes) d'estimation de profondeur à partir de la défocalisation peuvent être rendus plus exacts, en évoluant une région dans laquelle le flou est mesuré. En utilisant un modèle elliptique pour cette région, il est démontré qu'un algorithme simple peut être utilisé pour produire des estimations de profondeur plus exactes près des discontinuités en profondeur et en orientation de surface. En ce qui a trait aux contours de bord flous, le modèle de flou basé sur la projection inverse est utilisé dans la modélisation de la formation de l'image près d'importantes discontinuités en profondeur. Ceci mène à un modèle validé qui décrit l'intéraction de lumière provenant des objets d'avant-plan et d'arrière-plan, sur le capteur de la caméra, ce qui permet la suppression de la contribution de l'objet d'avant-plan causant le flou. Afin de faciliter cette suppressi
137

Eliciting preferences sequentially using partially observable Markov decision processes

Zawaideh, Zaid January 2008 (has links)
Decision Support systems have been gaining in importance recently. Yet one of the bottlenecks of designing such systems lies in understanding how the user values different decision outcomes, or more simply what the user preferences are. Preference elicitation promises to remove the guess work of designing decision making agents by providing more formal methods for measuring the `goodness' of outcomes. This thesis aims to address some of the challenges of preference elicitation such as the high dimensionality of the underlying problem. The problem is formulated as a partially observable Markov decision process (POMDP) using a factored representation to take advantage of the structure inherent to preference elicitation problems. Moreover, simple preference knowledge on problem attributes are used to acquire more accurate preferences without increasing the burden on the user. Sparse terminal actions are defined to allow a flexible trade-off between speed and accuracy of the elicited preference function. Empirical simulations are used to validate the proposed methodology. The result is a framework that is flexible enough to be applied to a wide range of domains that addresses some of the challenges facing preference elicitation methods / Les systèmes d'aide à la décision ont gagné en importance récemment. Pourtant, un des problèmes importants liés au design de tels systèmes demeure: comprendre comment l'usager évalue les différents résultats, ou plus simplement, déterminer quelles sont ses préférences. L'extraction des préférences vise à éliminer certains aspects arbitraires du design d'agents de décision en offrant des méthodes plus formelles pour mesurer la qualité des résultats. Cette thèse tente de résoudre certains problèmes ayant trait à l'extraction des préférences, tel que celui de la haute dimensionnalité du problème sous-jacent. Le problème est formulé en tant que processus de décision markovien partiellement observable (POMDP), et utilise une représentation factorisée afin de profiter de la structure inhérente aux problèmes d'extraction des préférences. De plus, des connaissances simples quant aux caractéristiques de ces problèmes sont exploitées afin d'obtenir des préférences plus précises, sans pour autant augmenter la tâche de l'usager. Les actions terminales "sparse" sont définies de manière à permettre un compromis flexible entre vitesse et précision. Le résultat est un système assez flexible pour être appliqué à un grand nombre de domaines qui ont à faire face aux problèmes liés aux méthodes d'extraction des préférences.
138

Focused inverse method for LF

Li, Xi January 2008 (has links)
Logical frameworks allow us to specify formal systems and prove properties about them. One interesting logical framework is Twelf, a language that uses higher order abstract syntax to encode object languages into the meta language. Currently, uniform proofs have been used for describing proof search in backwards logic programming style. However, there are certain limitations to a backward system, for example, loop-detection mechanisms are required for some of the simplest problems to yield a solution. As a consequence, the search for a more effective proof search algorithm prevails and a forward system is proposed. This thesis will discuss the theoretical foundations for a forward uniform sequent calculus and the implementation of an inverse method prover for Twelf. / Les cadres logiques nous permettent de spécifier des systèmes formels et de prouver des propriétés à leur sujet. Un cadre logique intéressant est Twelf, un langage qui emploie la syntaxe abstraite d'ordre supérieur pour encoder des langages objet dans le méta-langage. Actuellement, nous employons des preuves uniformes pour décrire la recherche dans le style de programmation logique arrière. Cependant, il y a certaines limitations à un système arrière: des mécanismes de détection de boucle sont nécessaires pour trouver une solution à certains des problèmes les plus simples. Par conséquent, la recherche d'un algorithme plus efficace de recherche de preuve règne et un système vers l'avant est proposé. Cette thèse discutera les bases théoriques d'un calcul séquent uniforme vers l'avant et l'implantation d'un prouveur à méthode inverse pour Twelf.
139

Microclustered optimistic simulation

Bradley, Colin Bueth January 2008 (has links)
Software-driven simulation as a design and verification tool has become almost ubiquitous in today's industrial and technology-based society. As systems grow in scale and complexity, often on a non-linear basis, demands on simulation change accordingly. Distributed simulation is one approach to deal with such growth. As distributed simulation becomes the norm in various contexts, focus has shifted to the efficiencies of such simulations. A popular approach has been to partition a given problem into sub-units in such a manner as to increase the efficiency of the simulation run. Further, efforts have been made to dynamically re-partition the problem units using run-time metrics. Noting the limitations of static partitioning and contrasting dynamic re-partitioning, this thesis approaches simulation efficiency by proposing an initial over-partitioning of the problem. Using run-time data, we hope to discover potential efficiencies and exploit them by dynamically amalgamating these ''micro-clusters'' as suggested by run-time analysis. / La simulation menée par logiciel comme outil de conception et de vérification est devenue presque omniprésente dans la société industrielle et basée sur la technologe d'aujourd'hui. Comme les systèmes se développent en éechelle et en complexité, souvent sur une base non linéaire, les exigences sur la simulation changent en conséquence. La simulation distribuée est une approche pour traiter d'une telle croissance. Alors que la simulation distribuée devient la norme dans divers contextes, le centre d'intérêt s'est porté sur l'efficacité de telles simulations. Une approche populaire a été de diviser un problème donné dans des sous-unités de manière à optimiser l'efficacité de la simulation. De plus, des efforts ont été faits pour répartir les unités de problème en utilisant des données d'exécution. Prenant en compte les limitations de la division statique des partitions et contraste dynamique, cette thèse approche l'efficacité de simulation en proposant une répartition de niveau supérieur du problème. En utilisant des données d'exécution, nous espérons découvrir des efficacités potentielles et les exploiter en amalgamant dynamiquement ces ''microamas'' comme suggérés par l'analyse d'exécution.
140

Statistical analysis and forecasting of sea ice conditions in Canadian waters

Garrigues, Laurent January 2001 (has links)
Historical data of sea ice concentration in Canadian waters are analysed using projections methods (Principal Component Analysis, Singular Value Decomposition, Canonical Correlation Analysis and Projection on Latent Structures) to identify the main patterns of evolution in the sea ice cover. Three different areas of interest are studied: (1) the Gulf of St Lawrence, (2) the Beaufort Sea and (3) the Labrador Sea down to the east coast of Newfoundland. Forcing parameters that drive the evolution of the sea ice cover such as surface air temperature and wind field are also analysed in order to explain some of the variability observed in the sea ice field. Only qualitative correlations have been identified, essentially because of the singular nature of the sea ice concentration itself and the accuracy of available data. However, several statistical models based on identified patterns have been developed showing forecasting skills far better than those of the persistence assumption, which currently remains one of the best 'model' available. Forecasts are tested over periods of time ranging from a few days to several weeks. Some of these models constitute innovative approaches in the context of statistical sea ice forecasting. Some others models have been developed using a probabilistic approach. These models provide forecasts in terms of sea ice severity (low-medium-high), which is often accurate enough for navigation purposes for the three areas of interest. Forecasting skills of these models are also better than the persistence assumption. Finally, an existing dynamic sea-ice model has been adapted and used to predict sea ice conditions in the Gulf of St Lawrence during the Winter season 1992-1993. Simulations provided by this model are compared to the forecasts of different statistical models over the same period of time.

Page generated in 0.0555 seconds