Spelling suggestions: "subject:"applied ciences -- computer cience"" "subject:"applied ciences -- computer cscience""
81 |
Simulating vortex ring collisions: extending the hybrid methodEckbo, Ryan January 2007 (has links)
Vortex filaments are isolated tubes of vorticity, the behaviour of which is important to the understanding of the fluid flows they are found in. Vortex reconnection, the change in filament topology when filaments collide, is a particular phenomenon that cannot be modelled by the traditional vortex method, which leads (Ghuneim, 2002) to integrate it with the level set method. However, the computational complexity of this method's traditional implementation severly limits the types of simulations possible. Motivated by this, we propose a new level set implementation that stores voxels in a tree data structure such that neighborhood relationships are recursively encoded. We then modify the hybrid method to use this data structure, allowing for longer, more expansive, accurate and versatile filament evolutions. A simpler mechanism for handling reconnections is also proposed. We demonstrate the advantages of the extended hybrid method and the new level set implementation with simulations of a variety of laboratory filament evolutions with reconnection events. / Les filaments de vortex sont des tubes de vorticité isolés, et il est important de comprendre leur comportement pour caractériser les fluides dans lesquels ils apparaissent. La reconnection de vortex, i.e. le changement de topologie qui survient lorsque des filaments entrent en collision, est un phénomène particulier qui ne peut être modelisé par la méthode traditionnelle des vortex, ce qui mène (Ghuneim, 2002, Ghuneim et al., 2002) à l'intégrer avec la méthode des ensembles de niveau. Cependant, la complexité de l'implémentation traditionnelle de la méthode des ensembles de niveau limite grandement le type de simulations qui sont possibles. Motivés par ceci, nous proposons une nouvelle implémentation qui organise les voxels dans une structure de données en arbre, ce qui permet des évolutions de filaments plus longues, plus étendues, plus précises et plus versatiles. Un méchanisme simplifié pour gérer les reconnections est aussi proposé. Nous démontrons les avantages de la méthode hybride étendue et de la nouvelle implémentation par ensembles de niveau par des simulations d'une variété d'évolutions de filaments avec des événements de reconnection.
|
82 |
Detection, simulation and control in models of epilepsyVincent, Robert Durham January 2008 (has links)
We investigate the application of machine learning methods for the detection and control of seizure-like behavior in in vitro models of epilepsy. This research will form the basis for a new class of adaptive neurostimulation devices for the treatment of drug-resistant cases of epilepsy in humans. There are many technical obstacles to creating an adaptive control algorithm for these devices. At present, science has an incomplete understanding of the mechanisms and dynamics underlying both epilepsy and its treatments. This is reflected both in the long-standing problem of the detection or prediction of seizures and in the lack of clear criteria for optimizing an adaptive control algorithm. As in many medical problems, clinical data is sparse, expensive, and highly variable. We address the detection of epileptic states using boosted ensemble methods with a set of simple frequency spectrum features derived from electrophysiological recordings. While typical boosting methods are not designed for use with time series data, we present a recurrent boosting method that improves classification accuracy in our application domain. We also present an implementation of a biologically plausible model of epileptic neural tissue using a network of integrate and fire neurons with partially stochastic inputs and two time scales of refractory behavior. Finally, we train a reinforcement learning agent to control the dynamics of this network, reducing the occurrence of seizure-like events. This agent is intended to be a component of a closed-loop electrical stimulation device with a set of sensors and an adaptive stimulation strategy. / Nous étudions l'application des méthodes d'apprentissage automatique pour la détection et le contrôle d'activité semblable à une crise convulsive dans les modèles d'épilepsie in vitro. Cette recherche formera la base d'une nouvelle classe de dispositifs de neurostimulation auto-adaptatifs pour le traitement des patients qui ne répondent pas aux drogues antiépileptiques. Il y a beaucoup d'obstacles techniques pour créer un algorithme adaptatif pour ces dispositifs. Actuellement, la science n'a pas encore expliqué entièrement les mécanismes définissant l'épilepsie et ses traitements. Ceci est important à deux niveaux: Pour le problème de la détection ou de la prévision des crises, et pour établir des critères clairs pour optimiser un algorithme de contrôle adaptatif. Comme beaucoup de problèmes médicaux, les données cliniques sont rares, chères, et fortement variables. Nous adressons la détection des états épileptiques en utilisant les méthodes “boosting” avec un groupe de traits simples de spectre de fréquences dérivés des enregistrements électrophysiologiques. Tandis que les méthodes boosting typiques n'ont pas été conçues pour utiliser l'information disponible avec des données de séries chronologiques, nous présentons une méthode boosting récurrente qui améliore le taux de classification dans notre domaine d'application. Nous présentons également une exécution d'un modèle biologiquement plausible d'un système neural épileptique employant un réseau de neurones intègre-et tire ayant les signals d'entrées partiellement stochastiques et ayant deux échelles de temps de comportement réfractaire. En conclusion, nous formons un agent d'apprentissage par renforcement pour réduire l'occurrence d'activité semblable à une crise. Cet agent est prévu pour être une composante d'un dispositif en boucle fermée de stimulation électrique ayant un ensemble de capteurs et un algorithme adaptatif.
|
83 |
Investigating blur in the framework of reverse projectionMcCloskey, Scott January 2008 (has links)
This thesis presents a reverse projection model for image formation, which is particularly useful for explaining blur. The model is used to develop novel methods for two different applications: removing the effects of blurred occluding objects and recovering the 3D structure of scenes from defocused images. With respect to depth recovery, the model shows that, when out of focus, multiple pixels record light reflected from the same region of the scene, giving rise to a measurable increase in the correlation between such pixels. Having found that increase to be proportional to scene depth, correlation measurements are used to estimate the depth of objects in a scene, giving a new method for the recovery of depth from defocus. In addition, this thesis presents a method by which this and other depth from defocus methods can be made more accurate by evolving the region over which blur is measured. Using an elliptical model for the measurement region, it is shown that a straightforward algorithm can be used to produce more accurate depth estimates near discontinuities in depth and surface orientation. With respect to occluding objects, the reverse projection blur framework is used to model image formation near large discontinuities in depth. This leads to a validated model that describes the way in which light from the foreground and background objects combine on a camera's sensor, and a method for the removal of the contribution of the occluding object. In order facilitate the removal of the occluding object's intensity from single images without user intervention, a method is developed to estimate the parameters necessary to remove this contribution. / Cette thèse présente un modèle de formation d'image basé sur la projection inverse, qui est particulièrement utile pour la modélisation du flou. Ce modèle est utilisé dans le développement de nouvelles méthodes dans le cadre de deux applications différentes: l'élimination des contours de bord flous et l'estimation de la structure tridimensionnelle de scènes à partir d'images défocalisées. En ce qui a trait à l'estimation de la profondeur, le modèle démontre que lorsque défocalisés, plusieurs pixels différents enregistrent de la lumière provenant d'une même région de la scène, ce qui cause une augmentation mesurable de la corrélation entre les valeurs de ces pixels. Après avoir démontré que cette augmentation est proportionnelle à la profondeur de la région dans la scène, des mesures de corrélation sont utilisées pour estimer cette profondeur, ce qui constitue une nouvelle méthode pour l'estimation de profondeur à partir de la défocalisation de l'image. De plus, cette thèse présente une méthode avec laquelle cet algorithme (ainsi que d'autres algorithmes) d'estimation de profondeur à partir de la défocalisation peuvent être rendus plus exacts, en évoluant une région dans laquelle le flou est mesuré. En utilisant un modèle elliptique pour cette région, il est démontré qu'un algorithme simple peut être utilisé pour produire des estimations de profondeur plus exactes près des discontinuités en profondeur et en orientation de surface. En ce qui a trait aux contours de bord flous, le modèle de flou basé sur la projection inverse est utilisé dans la modélisation de la formation de l'image près d'importantes discontinuités en profondeur. Ceci mène à un modèle validé qui décrit l'intéraction de lumière provenant des objets d'avant-plan et d'arrière-plan, sur le capteur de la caméra, ce qui permet la suppression de la contribution de l'objet d'avant-plan causant le flou. Afin de faciliter cette suppressi
|
84 |
Eliciting preferences sequentially using partially observable Markov decision processesZawaideh, Zaid January 2008 (has links)
Decision Support systems have been gaining in importance recently. Yet one of the bottlenecks of designing such systems lies in understanding how the user values different decision outcomes, or more simply what the user preferences are. Preference elicitation promises to remove the guess work of designing decision making agents by providing more formal methods for measuring the `goodness' of outcomes. This thesis aims to address some of the challenges of preference elicitation such as the high dimensionality of the underlying problem. The problem is formulated as a partially observable Markov decision process (POMDP) using a factored representation to take advantage of the structure inherent to preference elicitation problems. Moreover, simple preference knowledge on problem attributes are used to acquire more accurate preferences without increasing the burden on the user. Sparse terminal actions are defined to allow a flexible trade-off between speed and accuracy of the elicited preference function. Empirical simulations are used to validate the proposed methodology. The result is a framework that is flexible enough to be applied to a wide range of domains that addresses some of the challenges facing preference elicitation methods / Les systèmes d'aide à la décision ont gagné en importance récemment. Pourtant, un des problèmes importants liés au design de tels systèmes demeure: comprendre comment l'usager évalue les différents résultats, ou plus simplement, déterminer quelles sont ses préférences. L'extraction des préférences vise à éliminer certains aspects arbitraires du design d'agents de décision en offrant des méthodes plus formelles pour mesurer la qualité des résultats. Cette thèse tente de résoudre certains problèmes ayant trait à l'extraction des préférences, tel que celui de la haute dimensionnalité du problème sous-jacent. Le problème est formulé en tant que processus de décision markovien partiellement observable (POMDP), et utilise une représentation factorisée afin de profiter de la structure inhérente aux problèmes d'extraction des préférences. De plus, des connaissances simples quant aux caractéristiques de ces problèmes sont exploitées afin d'obtenir des préférences plus précises, sans pour autant augmenter la tâche de l'usager. Les actions terminales "sparse" sont définies de manière à permettre un compromis flexible entre vitesse et précision. Le résultat est un système assez flexible pour être appliqué à un grand nombre de domaines qui ont à faire face aux problèmes liés aux méthodes d'extraction des préférences.
|
85 |
Focused inverse method for LFLi, Xi January 2008 (has links)
Logical frameworks allow us to specify formal systems and prove properties about them. One interesting logical framework is Twelf, a language that uses higher order abstract syntax to encode object languages into the meta language. Currently, uniform proofs have been used for describing proof search in backwards logic programming style. However, there are certain limitations to a backward system, for example, loop-detection mechanisms are required for some of the simplest problems to yield a solution. As a consequence, the search for a more effective proof search algorithm prevails and a forward system is proposed. This thesis will discuss the theoretical foundations for a forward uniform sequent calculus and the implementation of an inverse method prover for Twelf. / Les cadres logiques nous permettent de spécifier des systèmes formels et de prouver des propriétés à leur sujet. Un cadre logique intéressant est Twelf, un langage qui emploie la syntaxe abstraite d'ordre supérieur pour encoder des langages objet dans le méta-langage. Actuellement, nous employons des preuves uniformes pour décrire la recherche dans le style de programmation logique arrière. Cependant, il y a certaines limitations à un système arrière: des mécanismes de détection de boucle sont nécessaires pour trouver une solution à certains des problèmes les plus simples. Par conséquent, la recherche d'un algorithme plus efficace de recherche de preuve règne et un système vers l'avant est proposé. Cette thèse discutera les bases théoriques d'un calcul séquent uniforme vers l'avant et l'implantation d'un prouveur à méthode inverse pour Twelf.
|
86 |
Microclustered optimistic simulationBradley, Colin Bueth January 2008 (has links)
Software-driven simulation as a design and verification tool has become almost ubiquitous in today's industrial and technology-based society. As systems grow in scale and complexity, often on a non-linear basis, demands on simulation change accordingly. Distributed simulation is one approach to deal with such growth. As distributed simulation becomes the norm in various contexts, focus has shifted to the efficiencies of such simulations. A popular approach has been to partition a given problem into sub-units in such a manner as to increase the efficiency of the simulation run. Further, efforts have been made to dynamically re-partition the problem units using run-time metrics. Noting the limitations of static partitioning and contrasting dynamic re-partitioning, this thesis approaches simulation efficiency by proposing an initial over-partitioning of the problem. Using run-time data, we hope to discover potential efficiencies and exploit them by dynamically amalgamating these ''micro-clusters'' as suggested by run-time analysis. / La simulation menée par logiciel comme outil de conception et de vérification est devenue presque omniprésente dans la société industrielle et basée sur la technologe d'aujourd'hui. Comme les systèmes se développent en éechelle et en complexité, souvent sur une base non linéaire, les exigences sur la simulation changent en conséquence. La simulation distribuée est une approche pour traiter d'une telle croissance. Alors que la simulation distribuée devient la norme dans divers contextes, le centre d'intérêt s'est porté sur l'efficacité de telles simulations. Une approche populaire a été de diviser un problème donné dans des sous-unités de manière à optimiser l'efficacité de la simulation. De plus, des efforts ont été faits pour répartir les unités de problème en utilisant des données d'exécution. Prenant en compte les limitations de la division statique des partitions et contraste dynamique, cette thèse approche l'efficacité de simulation en proposant une répartition de niveau supérieur du problème. En utilisant des données d'exécution, nous espérons découvrir des efficacités potentielles et les exploiter en amalgamant dynamiquement ces ''microamas'' comme suggérés par l'analyse d'exécution.
|
87 |
Medial surfacesBouix, Sylvain January 2003 (has links)
The medial surface of a 3D object is comprised of the locus of centers of its maximal inscribed spheres. Interest in this representation stems from a number of interesting properties: i) it is a thin set, i.e., it contains no interior points, ii) it is nomotopic to the original shape, iii) it is invariant under rigid transformations of the object and iv) given the radius of the maximal inscribed sphere associated which each skeletal point, the object can be reconstructed exactly. Hence, it provides a compact representation while preserving the object's genus and making certain useful properties explicit, such as its local width. These properties have led to its application in a variety of domains, including the analysis and quantification of the shape of volumetric structures in medical images. Despite its popularity, its numerical computation remains non-trivial. Most algorithms are not stable with respect to small perturbations of the boundary, and heuristic measures for simplification are often introduced. The study of the medial surface is the subject of this thesis.
|
88 |
A trust-based access control scheme for social networksVillegas, Wilfred January 2008 (has links)
The personal data being published on online social networks is presenting new challenges in sharing of this digital content. This thesis proposes an access control scheme called Personal Data Access Control, or PDAC, which allows users to share data among their friends, using a trust computation to determine which friends should be given access. This trust computation uses previous interactions among a user's friends to classify his or her peers into one of three protection zones, which determine whether that peer gains access to the user's data. Additionally, the user may designate certain friends as attesters who will aid the user in determining which peers are trustworthy enough to be given access to his or her data. Simulations of the PDAC scheme were performed to evaluate its effectiveness in enforcing data access privileges. The results show that PDAC preserves confidentiality by exploiting the trust that is captured in existing social networks. / Les données personnelles publiées sur internet par l'entremise des nouveaux réseaux sociaux virtuels présentent des défis considérables en ce qui attrait à l'échange numérique. Cette thèse propose un système de contrôle d'accès appelé Personal Data Access Control, ou PDAC, qui permet aux utilisateurs d'échanger leurs données personnelles avec leurs amis de façon mesurée, en utilisant un calcul de confiance. Ce calcul de confiance utilise comme critères d'évaluation les interactions antérieures entre l'utilisateur et chacun de ses amis afin de classer chacune de ses connaissances dans une de trois zones de protection. Ces zones délimitent le niveau d'accès accordé aux données de l'utilisateur. De plus, l'utilisateur peut assigner certains amis come vérificateurs qui donnent leur approbation et ainsi détermine en toute confidentialité qui devrait avoir accès a ses données. Nos résultats d'analyse démontrent que le PDAC accorde privilèges d'accès aux données de façon efficace. Ces simulations démontrent aussi que le PDAC préserve la confidentialité en saisissant les niveaux de confiance qui existe dans les réseaux sociaux virtuels d'aujourd'hui actuels.
|
89 |
Epistemic strategies and games on concurrent processesKnight, Sophia January 2009 (has links)
We develop a game semantics for process algebra with two independent, interacting agents. The purpose of the semantics is to make manifest the role of knowledge and information flow in the interactions between agents and to control the information available to interacting agents. We define games and strategies on process algebras, so that two agents interacting according to their strategies determine the execution of the process, replacing the traditional scheduler. We show that different restrictions on strategies represent different information being available to a scheduler. We also show that a certain class of strategies corresponds to the syntactic schedulers of Chatzikokolakis and Palamidessi, which were developed to overcome problems with traditional schedulers modelling interaction. The restrictions on these strategies have an explicit epistemic flavour. We extend these results to a probabilistic process algebra. Finally, we define a modal logic with both epistemic and temporal modalities to capture how information flows through the system. We give a logical characterization of a concept called introspection which is used to place restrictions on the allowed strategies of an agent. Thus, the logic makes precise what agents "know." / Je présente dans ce thèse une sémantique des jeux pour l'algèbre de processus avec deux agents indépendants qui interagissent. Le but de cette sémantique est de permettre de comprendre le flux d'information et le rôle de la conaissance, ainsi que de contrôler l'information qui est disponible aux agents qui interagissent. Je définis les jeux et les stratégies pour les algèbres de processus, de façon à ce que les deux agents qui suivent ces stratégies lors de leurs interactions déterminent l'exécution du processus, remplaçant ainsi l'ordonnanceur traditionnel. Je démontre que différentes contraintes de stratégie représentent des informations différentes disponibles pour l'ordonnanceur. Je démontre aussi qu'une certaine classe de stratégies correspond aux les ordonnanceurs traditionnels qui modelisent les interactions entre agents. Les contraintes de stratégie ont des aspectes épistémiques explicites. Je généralise ces resultats à l'algébre de processus. Enfin, je présente une logique modale avec des modalités épistémiques et temporales, afin de comprendre le flux d'information dans le système. Je présente une caractérisation logique d'un concept appelé l'introspection, qui est utilisé pour contraindre la stratégie d'un agent, faisant ainsi en sorte que la logique précise ce que les agents conaissent.
|
90 |
Inferring environmental representations through limited sensory data with applications to sensor network self-calibrationMarinakis, Dimitrios January 2009 (has links)
This thesis addresses the problem of using distributed sensing for automatically inferring a representation of the environment, i.e. a map, that can be useful for the self-calibration of intelligence systems, such as sensor networks. The information recovered by such a process allows typical applications such as data collection and navigation to proceed without labour intensive input from a human technician. Simplifying the deployment of large scale sensor networks and other intelligent systems will effectively reduce their cost and improve their widespread availability and hence aid their practical application to tasks such as the monitoring of carbon emissions and greenhouse gases. In our research we focus on algorithms and techniques for recovering two types of information from the immediate environment: topology information that indicates physical connectivity between regions of interest from the point of view of a navigating agent; and a probability distribution function (PDF) describing the position of components of the intelligent system. We consider situations where data is collected from systems that comprise of: a number of stationary network components; stationary network components augmented with a mobile robot; or a mobile robot only. Our approaches are, for the most part, based on statistical methods that employ stochastic sampling techniques to provide approximate solutions to problems for which computing the optimal or exact solution is intractable. Numerical simulations and experiments conducted on hardware suggest that this research has promising real world applications in the area of sensor network self-configuration. / Ce thèse s'adresse au problème de l'emploi de la détection dispersée pour déduire automatiquement une représentation de l'environnement, c'est-à-dire une carte, qui peut servir dans l'autocalibrage des systèmes intelligents tels que les réseaux des capteurs. L'information récupérée par un tel processus permet aux applications typiques telle que la collecte des données et la navigation de continuer sans une contribution de main d'œuvre de la part d'un technicien humain. Simplifier la répartition en grand des réseaux de capteurs et d'autres systèmes intelligents réduira effectivement leur coût et améliora leur disponibilité répandue, donc il facilitera leur application pratique aux tâches comme le contrôle des émissions de carbone et les gaz à effet de serre.Dans nos recherches nous nous concentrons sur les algorithmes et les techniques pour récupérer deux types d'information de l'environnement immédiat : l'information topologique qui indique la connectivité physique entre les régions d'intérêt du point de vue d'un agent navigateur; et une fonction de dispersion de probabilité (PDF) qui décrit la position des élément du système intelligent. Nous considérons les situation où les données se recueillent des systèmes composés de: plusieurs éléments fixes du réseau; des éléments fixes du réseau augmentés d'un robot mobile; un robot mobile seulement. Nos approches sont, pour la plupart, fondées sur des méthodes statistiques qui emploient des techniques stochastiques d'échantillonnage pour fournir des solutions approximatives aux problèmes dont le calcul d'une solution exacte ou optimale reste réfractaire. Les simulations numériques et les expériences exécutées au matériel suggèrent que ces recherches promettent des applications actuelles et pratiques dans le domaine d'autocalibrage des réseaux de capteurs.
|
Page generated in 0.1138 seconds